Übungsbuch zur empirischen Wirtschaftsforschung: Aufgaben, Wiederholungsfragen, Ergänzungen und Lösungen 9783486842944, 9783486582420

Empirische Wirtschaftsforschung mit dem Schwerpunkt einer Einführung in die ökonometrischen Methoden und deren Anwendung

163 45 2MB

German Pages 269 [272] Year 2007

Report DMCA / Copyright

DOWNLOAD PDF FILE

Table of contents :
Abbildungsverzeichnis
1 Grundlagen
1.1 Einführung
1.2 Modellspezifikation
1.3 Daten
1.4 Lösungen
2 Klassisches Regressionsmodell
2.1 Modellannahmen und Koeffizientenschätzungen
2.2 Modellbildung, Tests und Gütemaße
2.3 Wirtschaftspolitische Effekte und Prognosen
2.4 Lösungen
3 Erweiterungen des Regressionsmodells
3.1 Verallgemeinerte lineare Modelle
3.2 Mehrgleichungsmodelle
3.3 Nichtnormalverteilte Störgrößen und nichtlineare Modelle
3.4 Modelle mit diskreten und zensierten Variablen
3.5 Dynamische Modelle
3.6 Paneldatenmodelle
3.7 Datenprobleme
3.8 Lösungen
Literaturverzeichnis
Recommend Papers

Übungsbuch zur empirischen Wirtschaftsforschung: Aufgaben, Wiederholungsfragen, Ergänzungen und Lösungen
 9783486842944, 9783486582420

  • 0 0 0
  • Like this paper and download? You can publish your own PDF file online for free in a few minutes! Sign Up
File loading please wait...
Citation preview

Übungsbuch zur empirischen Wirtschaftsforschung Aufgaben, Wiederholungsfragen, Ergänzungen und Lösungen

von

Prof. Dr. Olaf Hübler und

Dr. Georgi Tsertsvadze 3., vollständig überarbeitete Auflage

R. Oldenbourg Verlag München Wien

Bibliografische Information der Deutschen Nationalbibliothek Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über abrufbar.

© 2007 Oldenbourg Wissenschaftsverlag GmbH Rosenheimer Straße 145, D-81671 München Telefon: (089) 45051-0 oldenbourg.de Das Werk einschließlich aller Abbildungen ist urheberrechtlich geschützt. Jede Verwertung außerhalb der Grenzen des Urheberrechtsgesetzes ist ohne Zustimmung des Verlages unzulässig und strafbar. Das gilt insbesondere für Vervielfältigungen, Übersetzungen, Mikroverfilmungen und die Einspeicherung und Bearbeitung in elektronischen Systemen. Lektorat: Wirtschafts- und Sozialwissenschaften, [email protected] Herstellung: Anna Grosser Satz: DTP-Vorlagen des Autors Coverentwurf: Kochan & Partner, München Gedruckt auf säure- und chlorfreiem Papier Druck: Grafik + Druck, München Bindung: Thomas Buchbinderei GmbH, Augsburg ISBN 978-3-486-58242-0

Vorwort Empirische Wirtschaftsforschung hat in den letzten Jahren in der wirtschaftswissenschaftlichen Ausbildung an Universit¨ aten an Bedeutung gewonnen. An vielen Fakult¨ aten geh¨ ort mindestens eine Veranstaltung dieser Art in der Zwischenzeit zum Pflichtprogramm. Studenten der Wirtschaftswissenschaften tun sich aber naturgem¨ aß mit st¨ arker ¨ formal ausgerichteten Vorlesungen und Ubungen schwer. Daher ist es um so wichti¨ ger, dass gen¨ ugend Ubungsmaterial zur Verf¨ ugung gestellt wird. Dieses Arbeitsbuch soll dazu beitragen die vorhandene L¨ ucke zu schließen. Die pr¨ asentierten L¨ osungen zu den Aufgaben verstehen sich als L¨ osungsvorschl¨ age, soweit mehr die verbale Seite der empirischen Wirtschaftsforschung gefordert ist. Insgesamt sind die L¨ osungen ausf¨ uhr¨ ¨ licher als in den meisten existierenden Ubungsb¨ uchern zur Okonometrie und Statistik. An vergleichbaren B¨ uchern zur empirischen Wirtschaftsforschung fehlt es bisher. Die Aufgaben sind so angelegt, dass nach dem Verst¨ andnis empirisch ¨ okonomisch relevanter Tatbest¨ande und nach Methoden gefragt wird. Es geht sowohl um die Anwendung der Methoden unter Heranziehung realer Datens¨ atze als auch um die Entwicklung der Methoden und die Ableitung formaler Zusammenh¨ ange. Die Struktur der Aufgaben orientiert sich an dem Lehrbuch: H¨ ubler, O. (2005), Einf¨ uhrung in die empirische Wirtschaftsforschung, M¨ unchen: Oldenbourg-Verlag. In den L¨ osungen werden an verschiedenen Stellen Seitenhinweise hierzu gegeben. Ein weniger umfangreicher Teil der Aufgaben bezieht sich auf die Grundlagen der empirischen Wirtschaftsforschung. Hier wird in erster Linie auf das verbale Verst¨ andnis abgestellt. Ungef¨ ahr gleichgewichtig ist der Umfang der Aufgaben, die sich auf das klassische lineare Regressionsmodell und auf Erweiterungen beziehen. Nicht alle Aufgaben lassen sich vollst¨ andig mit Hilfe des genannten Textbuches l¨ osen. Soweit die Aufgaben u ¨ber diesen Stoff hinausgehen, finden sich in verschiedenen F¨ allen Hinweise auf H¨ ubler, O. (1989), ¨ Okonometrie, Stuttgart: Gustav Fischer Verlag, aber auch auf andere Lehrb¨ ucher zum atze BeVertiefen der angewandten Methoden. In einigen Aufgaben wird auf Datens¨ zug genommen, die unter www.wiwi.uni-hannover.de/oemetrie/ht-datensaetze zu finden sind. Wir danken dem DIW, insbesondere Rainer Pischner und Gert Wagner, die daf¨ ur ge¨ sorgt haben, dass Daten des Sozio-¨ okonomischen Panels f¨ ur Ubungsaufgaben verwendet werden konnten, sowie Ulrich Kohler, dessen Programm zum Ziehen einer anonymisierten Teilstichprobe aus dem SOEP benutzt wurde. Unserer weiterer Dank gilt Juliane Parys, Gregor Wagner und Thomas Walter, die wesentliche Teile des Manuskripts in LATEX geschrieben und Korrektur gelesen haben sowie an der Erstellung der L¨ osungen beteiligt waren. Dem Oldenbourg-Verlag und insbesondere Herrn Dr. Schechler danken wir f¨ ur die sehr gute Zusammenarbeit. Hannover

Olaf H¨ ubler und Georgi Tsertsvadze

Inhaltsverzeichnis Abbildungsverzeichnis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . VII 1

Grundlagen

1

1.1

Einf¨ uhrung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

1

1.2

Modellspezifikation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

2

1.3

Daten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

4

1.4

L¨ osungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

5

2

Klassisches Regressionsmodell

2.1

Modellannahmen und Koeffizientensch¨ atzungen . . . . . . . . . . . . . . . . . . . . . . . . 15

2.2

Modellbildung, Tests und G¨ utemaße . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18

2.3

Wirtschaftspolitische Effekte und Prognosen . . . . . . . . . . . . . . . . . . . . . . . . . . . 44

2.4

L¨osungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47

3

Erweiterungen des Regressionsmodells

3.1

Verallgemeinerte lineare Modelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 147

3.2

Mehrgleichungsmodelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 152

3.3

Nichtnormalverteilte St¨ orgr¨ oßen und nichtlineare Modelle . . . . . . . . . . . . . . 157

3.4

Modelle mit diskreten und zensierten Variablen . . . . . . . . . . . . . . . . . . . . . . . . 159

3.5

Dynamische Modelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 164

3.6

Paneldatenmodelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 168

3.7

Datenprobleme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 170

3.8

L¨ osungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 172

Literaturverzeichnis

15

147

259

Abbildungsverzeichnis 2.1

Methode der kleinsten Quadrate . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50

2.2

Lowess-Sch¨ atzung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69

2.3

Scatter-Diagramm . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 138

3.1

Histogramm . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 204

3.2

Rechteck- und Dreieckskerndichtesch¨ atzer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 205

3.3

Drei Kerndichtesch¨ atzer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 206

3.4

Kerndichtesch¨ atzer und Dichtefunktion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 207

3.5

Zeitreihe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 236

3.6

Realisierte und prognostizierte Zeitreihe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 239

3.7

Zeitplot der Variable y . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 240

3.8

Autokorrelation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 243

3.9

Partielle Autokorrelation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 244

3.10 Zeitplot . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 247

1

Grundlagen

1.1

Einfu¨hrung

Aufgabe 1: Welche Aufgaben hat die empirische Wirtschaftsforschung? Welche Unterschiede bestehen gegen¨ uber einer rein theoretischen Analyse wirtschaftlicher Zusammenh¨ ange?

Aufgabe 2: Was spricht f¨ ur die Verwendung einfacher und was f¨ ur komplexe empirische Beziehungen?

Aufgabe 3: Welche Formen von Beziehungen werden in der empirischen Wirtschaftsforschung unterschieden? Nennen Sie jeweils ein ¨ okonomisches Beispiel. Worin bestehen aus ¨ okonomischer und o ¨konometrischer Sicht die Unterschiede zwischen diesen Beziehungen?

Aufgabe 4: ¨ Außern Sie sich kurz zu folgenden Behauptungen: ¨ a) Okonometrische Beziehungen ohne St¨ orgr¨ oßen sind wertlos. b) Paneldaten weisen immer Vorteile gegen¨ uber aggregierten Zeitreihendaten auf.

2

1.2

1 Grundlagen

Modellspezifikation

Aufgabe 5: Welche Bedeutung besitzen Definitionsgleichungen in ¨ okonometrischen Modellen? Erl¨ autern Sie dies anhand eines Beispiels.

Aufgabe 6: Was versteht man unter einer St¨ orgr¨ oße? Warum sind in empirisch zu bestimmenden Beziehungen im Gegensatz zu rein theoretischen ¨ okonomischen Beziehungen St¨ orgr¨ oßen zu ber¨ ucksichtigen? Was k¨ onnen Gr¨ unde f¨ ur St¨ orgr¨ oßen sein? Welche Motivation steckt hinter den Annahmen, dass die St¨ orgr¨ oßen normalverteilt sind und einen Erwartungswert von Null besitzen?

Aufgabe 7: Weshalb pr¨ aferiert die empirische Wirtschaftsforschung lineare Beziehungen? Wann sollten nichtlineare Beziehungen ber¨ ucksichtigt werden?

Aufgabe 8: Welche Arten von Nichtlinearit¨ aten k¨ onnen in zu sch¨ atzenden empirischen Beziehungen auftreten? Welche M¨ oglichkeiten der Linearisierung nichtlinearer Beziehungen gibt es?

Aufgabe 9: H¨ aufig werden in Produktionsfunktionen, die mit Hilfe von Zeitreihendaten zu sch¨ atzen sind, die Inputfaktoren durch eine Zeitvariable als erkl¨ arende Gr¨ oße erg¨ anzt. Was soll damit gemessen werden? Wo liegen Probleme? Welche Alternativen bieten sich an?

1.2 Modellspezifikation

3

Aufgabe 10: Welche Annahme trifft man u orgr¨ oße im Modell ¨blicherweise u ¨ber die St¨ y = a · xb · eu ? Demonstrieren Sie, dass diese Annahme nicht kompatibel ist mit der Annahme u ¨ber die St¨orgr¨ oßen des dazugeh¨ origen logarithmierten Modells lny = lna + b · lnx + u.

Aufgabe 11: Anstelle des Modells y = βo · xβ1 · eu wird vorgeschlagen, y = βo · xβ1 + u zu sch¨ atzen. Was k¨ onnte der Grund sein? Welche Probleme treten bei dem zweiten Modell auf?

Aufgabe 12: ¨ Okonomische Variablen k¨ onnen in unterschiedlicher Form gemessen werden. Welche Formen kennen Sie? Welche Unterschiede bestehen zwischen den verschiedenen Formen? Lassen sich Messungen einzelner Formen in andere u uhren? Geben Sie jeweils ein ¨berf¨ ur die unterschiedlichen Messarten an. ¨okonomisches Beispiel f¨

Aufgabe 13: Unter welchen Bedingungen kann die marginale Konsumneigung in makro¨ okonomischen Konsumfunktionen als konstant angenommen werden, wenn aggregierte mikro¨ okonomische Daten bei der Sch¨ atzung verwendet werden und die mikro¨ okonomischen marginalen

4

1 Grundlagen

Konsumneigungen als konstant vorausgesetzt werden? Erscheinen Ihnen diese Bedingungen realistisch? Welche Konsequenz haben Aggregationsfehler in der makro¨ okonomischen Konsumfunktion?

1.3

Daten

Aufgabe 14: Erl¨ autern Sie die Begriffe Validit¨ at, Reliabilit¨ at und Objektivit¨ at in Verbindung mit Anforderungen an Daten. Beschreiben Sie anhand von ¨ okonomischen Beispielen die Bedeutung der Begriffe und zeigen Sie Probleme auf, diese Anforderungen bei realen Daten einzuhalten.

Aufgabe 15: Welche Arten von Daten sind in der empirischen Wirtschaftsforschung zu unterscheiden? Nennen Sie Beispiele.

1.4 L¨ osungen

1.4

5

L¨osungen

L¨osung zu Aufgabe 1: In der empirischen Wirtschaftsforschung sollen quantitative und qualitative Aussagen u ange gemacht werden, die auf Beobachtungen realer Ge¨ber o ¨konomische Zusammenh¨ schehnisse basieren. Bezogen auf einen Zeitraum kann man zwischen folgenden drei Bereichen unterscheiden: 1) Empirische Untersuchung der Entwicklungen in der Vergangenheit: ¨ · Uberpr¨ ufung theoretischer Modelle auf ihre F¨ ahigkeit, die Beobachtungen zu erkl¨aren, · Widerlegung/Best¨ atigung von Hypothesen, Generierung von Hypothesen. 2) Analyse der aktuellen Situation. Dabei steht die Diagnose als wesentliche Voraussetzung wirtschaftspolitischer Empfehlungen und Maßnahmen im Vordergrund. 3) Prognose zuk¨ unftiger Entwicklungen. Daneben geht es um die Entwicklung ad¨ aquater Untersuchungsmethoden. W¨ ahrend die rein theoretische Analyse sich auf die Wirkungsrichtung beschr¨ ankt und Gleichgewichtsbedingungen ableitet, trifft die empirische Wirtschaftsforschung auch Aussagen u ¨ber die Gr¨ oßenordnung der Effekte.

L¨osung zu Aufgabe 2: F¨ ur einen einfachen empirischen Ansatz spricht: - leichte Handhabbarkeit, - leichtere/einfachere Erfassung von Daten, - Kostengesichtspunkte (Erfassung einer geringeren Zahl an ¨ okonomischen Variablen ist billiger), - gr¨ oßere Wahrscheinlichkeit, dass die notwendigen Daten auch erfassbar sind, - einfachere Interpretierbarkeit der Ergebnisse. ¨ Bei einfachen Ans¨ atzen sind jedoch Uberlegungen zur Auswahl der Variablen besonders wichtig. F¨ ur einen komplexen Ansatz spricht, dass er wahrscheinlich auch realistischer sein wird.

6

1 Grundlagen

Nachteil eines komplexen ¨ okonomischen Ansatzes ist, dass das Modell instabil werden kann.

L¨ osung zu Aufgabe 3: Verhaltensbeziehungen erfassen Zusammenh¨ ange zwischen verschiedenen ¨ okonomischen Gr¨ oßen oder Wirtschaftsakteuren. Ein Beispiel ist die Abh¨ angigkeit der gesamtwirtschaftlichen Geldnachfrage Md vom Zins i und dem volkswirtschaftlichen Einkommen Y M d = M d (i, Y ). Durch technologische Beziehungen werden Zusammenh¨ ange zwischen Input- und Outputfaktoren abgebildet. Ein typisches Beispiel ist die Cobb-DouglasProduktionsfunktion Y = βLα · K 1−α . Der Output Y h¨ angt von der eingesetzten Arbeit L und dem Kapital K ab. Durch eine okonometrische Sch¨ atzung sind die partiellen Produktionselastizit¨ aten α, (1 − α) und ¨ der Effizienzparmeter β zu ermitteln. Definitionsbeziehungen beschreiben feste ¨ okonomische Zusammenh¨ ange, die keine variablen Parameter enthalten. F¨ ur eine offene Volkswirtschaft gilt z.B. S = I + EX, wobei S-Sparvolumen, I-Investitionsvolumen und EX-Außenbeitrag. Institutionelle Beziehungen beschreiben die staatlichen, gesetzlichen und rechtlichen Rahmenbedingungen des Wirtschaftsgeschehens. Ein Beispiel ist das u ¨ber den Steuersatz t und die Steuerbasis Y definierte Steueraufkommen T = t · Y . Aus ¨okonometrischer Sicht interessieren vor allem die Verhaltensbeziehungen und die technologischen Beziehungen, da hier unter Verwendung realer Daten Parametersch¨ atzungen durchgef¨ uhrt werden k¨ onnen und darauf aufbauend Interpretationen und Implikationen abgeleitet werden. Definitionsbeziehungen sowie institutionelle Beziehungen sind aus ¨ okonometrischer Sicht zun¨ achst weniger interessant, da keine Sch¨ atzungen vorgenommen werden m¨ ussen. Jedoch k¨onnen die Definitionsbeziehungen die Wahl der ¨ okonometrischen Sch¨ atzmethode beeinflussen, wenn sie in Verbindung mit Verhaltensbeziehungen analysiert werden. Institutionelle Beziehungen gewinnen an Bedeutung, wenn die ¨ okonomische Wirkung von exogen vorgegebenen institutionellen Determinanten, wie die H¨ ohe des Arbeitslosengeldes, u ¨ber die Zeit hinweg untersucht werden soll.

1.4 L¨ osungen

7

L¨osung zu Aufgabe 4: a) Im Prinzip wird in jeder ¨ okonometrischen Gleichung eine St¨ orgr¨ oße ben¨ otigt. Auf die Aufnahme der St¨ orgr¨ oße k¨ onnte man nur dann verzichten, wenn die Ber¨ ucksichtigung aller relevanten Einflussfaktoren in der Gleichung m¨ oglich ist. Dies scheint jedoch unrealistisch zu sein. Eine Ausnahme bilden die Definitionsgleichungen. Diese Gleichungen kommen ohne eine St¨ orgr¨ oße aus. Sie sind aus o ¨konometrischer Sicht allerdings wenig interessant und werden f¨ ur die empirische Analyse erst in Verbindung mit anderen Gleichungen bedeutsam. b) Paneldaten haben gegen¨ uber aggregierten Zeitreihendaten verschiedene Vorteile: - Die gr¨ oßere Anzahl an Beobachtungen f¨ uhrt zu einer erh¨ ohten statistischen Effizienz. - Es kann zwischen Kohorten-, Alters- und Periodeneffekten unterschieden werden. - Intra- und interindividuelle Effekte lassen sich getrennt ermitteln. - Zeitinvariante unbeobachtete Heterogenit¨ at kann erfasst oder eliminiert werden. Diese Vorteile beinhalten allerdings zugleich einige Nachteile. So ist die Erhebung von Paneldaten mit hohen Kosten verbunden. Die h¨ ohere statistische Effizienz kann dazu f¨ uhren, dass bei Sch¨ atzungen fast nur noch signifikante Einfl¨ usse ausgemacht werden k¨ onnen. Zudem besteht bei Paneldaten eine besondere Problematik im Ausfall von Daten, da dann ungleichgewichtige Stichprobenumf¨ ange in verschiedenen Perioden vorliegen.

L¨osung zu Aufgabe 5: Werden Definitionsgleichungen zusammen mit Verhaltensgleichungen analysiert, kann es zu Sch¨ atzproblemen kommen. Ein in diesem Zusammenhang h¨ aufig diskutiertes Beispiel geht von der Definitionsgleichung Y = C + I mit Y als Einkommen, C als Konsum und I als Investitionen aus. Wird das betrachtete Modell um zwei Verhaltensgleichungen C = C(Y ) = cY + u und I = I(Y, i) erg¨ anzt (i ist der Zinssatz), kann die urspr¨ ungliche Definitionsgleichung wie folgt dargestellt werden: Y = cY + I(Y, i) + u. Somit h¨ angt Y von der St¨ orgr¨ oße u ab und die Kovarianz zwischen Y und u ist nicht Null: Cov(Y u) = 0. In dieser Situation ist eine OLS-Sch¨ atzung der Verhaltensgleichung C = C(Y ) = cY + u wegen der Inkonsistenz der Koeffizientensch¨atzung (ˆ c) unzul¨ assig.

8

1 Grundlagen

L¨ osung zu Aufgabe 6: okonometrische Unter der St¨ orgr¨ oße versteht man einen Zufallsfehler ui , der in das ¨ Modell neben endogenen und exogenen Variablen aufgenommen wird, z.B. im Zweivariablenmodell yi = α + βxi + ui . Die St¨orgr¨ oße gleicht die Diskrepanz zwischen Daten und ¨ okonomischem Modell aus. Die Aufnahme von ui ist aus unterschiedlichen Gr¨ unden notwendig: 1) Bestimmte ¨ okonomische Einflussgr¨ oßen sind nicht beobachtbar. In der realen Welt werden die rein ¨ okonomischen Zusammenh¨ ange durch Sondereinfl¨ usse gest¨ ort, die schlecht oder nicht direkt beobachtbar sind. 2) Fehler jeglicher Art: - Die Daten k¨ onnen unsystematische Erhebungs- und Messfehler enthalten. Eine m¨ ogliche Ursache daf¨ ur ist z.B. die Nutzung von N¨ aherungs- oder Proxyvariablen, weil f¨ ur die eigentlich relevanten Variablen keine Beobachtungen vorliegen. - Einige Einfl¨ usse k¨ onnen im ¨ okonometrischen Modell nicht ber¨ ucksichtigt werden, weil sie gar nicht oder nur mit sehr hohen Kosten erfassbar w¨ aren. Diese unterdr¨ uckten Einfl¨ usse m¨ ussen durch eine St¨ orgr¨ oße aufgefangen werden. - Das ¨ okonomische Modell kann falsch spezifiziert sein, indem es eine andere funktionale Abh¨ angigkeit unterstellt, als die, die tats¨ achlich wirksam ist. - Es k¨ onnen instabile, sich im Zeitablauf ¨ andernde Zusammenh¨ ange vorliegen. Das menschliche Verhalten, das Grundlage der meisten ¨ okonomischen Modelle ist, l¨ asst sich nur innerhalb gewisser Grenzen erfassen, es enth¨ alt selbst ein Zufallselement. Der Grundgedanke f¨ ur E(u) = 0 ist, dass die St¨ orgr¨ oße nur individuell wirksam ist, aber nicht im Mittel. Große Abweichungen vom Mittelwert nach oben und nach unten sollten jedoch auch individuell nur selten auftreten. Die Normalverteilung ist mit dieser Forderung kompatibel.

L¨osung zu Aufgabe 7: F¨ ur die Verwendung linearer Beziehungen spricht, dass - lineare Modelle einfacher handhabbar sind als nichtlineare Modelle; - in vielen F¨ allen nichtlineare Funktionen linearisiert werden k¨ onnen, z.B. durch Logarithmierung, Umdefinition der Variablen oder durch Approximation mit Hilfe einer Taylorreihe oder eines Polynoms.

1.4 L¨ osungen

9

Nichtlineare Beziehungen sollten ber¨ ucksichtigt werden, wenn eine Linearisierung nicht m¨oglich ist oder zu großen Fehlern f¨ uhrt. Auch wenn durch nichtlineare Funktionstypen mehr Informationen verwertet werden k¨ onnen als es bei einem linearen Ansatz der Fall w¨are, ist ein nichtlineares Modell zu w¨ ahlen. Als Entscheidungshilfe k¨ onnen graphische Verfahren, statistische Tests oder Indikatoren der Anpassungsg¨ ute verwendet werden.

L¨ osung zu Aufgabe 8: Nichtlinearit¨ aten k¨ onnen auftreten bei - endogenen Variablen, z.B. ln y, 1/y - einzelnen exogenen Variablen, z.B. 1/x, ln x, xi · xj - der Gesamtheit aller exogenen Variablen, z.B. y = exp(x β) - Koeffizienten, z.B. β1 in y = β0 + β1 x1 + β2 xβ2 1 + ... + βk xk + u. Wenn die wahren ¨ okonomischen Zusammenh¨ ange nichtlinearer Natur sind, ist es h¨ aufig m¨ oglich, sie in linearer Funktionsform auszudr¨ ucken: - durch Umdefinition zu linearen Beziehungen: y = a + bx2 ⇒ y = a + bz, wobei z = x2 - durch die Taylor-Approximation: ln(1 + x) = x −

x3 x4 x2 + − + ... 2 3 4

- durch Logarithmierung: 1) Logarithmisches Modell: y = A · f β , wobei A > 0 und β > 0. Nach Logarithmierung ergibt sich y ∗ = A∗ + β · x∗ mit y ∗ = ln y, A∗ = ln A und x∗ = ln f . 2) Semilogarithmisches Modell: eyi = eα+ui · xβi . Nach Logarithmierung ergibt sich yi = α + β ln xi + ui . uhrt zu ln yi = 3) Exponentielles Modell: yi = eα+βxi +ui . Logarithmierung f¨ α + βxi + ui .

10

1 Grundlagen

L¨ osung zu Aufgabe 9: Zeitreihendaten sind vielfach trendbehaftet. So l¨ asst sich f¨ ur die meisten gesamtwirtschaftlichen Gr¨ oßen im Zeitablauf ein bestimmtes Entwicklungsmuster ausmachen. Es kann dazu kommen, dass die Trendentwicklung andere Zusammenh¨ ange u ¨berlagert und ihre Sch¨ atzung erschwert. Um hier Abhilfe zu schaffen, wird h¨ aufig die Zeitvariable als eine zus¨ atzliche erkl¨ arende Variablen in das Modell aufgenommen, um auf diese Weise den Trend zu erfassen. Problematisch ist hier, dass der exakte funktionale Zusammenhang zwischen der Zeitreihe, der Trendkomponente und zyklischen Komponenten nicht bekannt ist. Als Alternative bietet sich an, die betrachtete Zeitreihe zu Beginn der Untersuchung vom Trend zu bereinigen und f¨ ur weitere Sch¨ atzungen eine trendbereinigte Zeitreihe zu verwenden.

L¨ osung zu Aufgabe 10: Im Modell y = a · xb · eu wird u ¨blicherweise E(eu ) = 1 angenommen, wohingegen im Modell ln y = ln a + b · ln x + u unterstellt wird, dass der Erwartungswert der St¨ orgr¨ oße Null ist (E(u) = 0). Beide Annahmen sind nicht kompatibel. Die Jensensche Ungleichung besagt, dass bei einer konvexen Funktion g(u) im Wertebereich (u1 , u2 ), bezogen auf den Ursprung, g(E(u)) < E(g(u)) gilt. Da eu = g(u) eine konvexe Funktion ist, folgt aus E(eu ) = 1 nach Logarithmierung ln E(eu ) = ln 1 = 0 > ln eE(u) = E(u). Wenn also im Ursprungsmodell E[eu ] = 1 gesetzt wird, gilt im logarithmierten Modell E(u) < 0.

L¨ osung zu Aufgabe 11: ¨ Durch den Ubergang vom Modell y = β0 ·xβ1 ·eu zum alternativen Modell y = β0 ·xβ1 +u wird versucht, die Verletzung der Annahme E(u) = 0 zu umgehen (vgl. L¨ osung der Aufgabe 10) Das Modell y = β0 · xβ1 + u ist insofern problematisch, weil hier keine einfache KleinstQuadrate-Sch¨ atzung (OLS) vorgenommen werden kann. Das Vorliegen eines nichtlinearen Modells mit additivem St¨ orterm macht komplexere Sch¨ atzmethoden wie beispielsweise die Maximum-Likelihood-Sch¨ atzung f¨ ur nichtlineare Modelle erforderlich oder es atzmodell wird ln(y − u) = ln[y(1 − uy )] ∼ lny − uy = ln β0 + β1 ln x gebildet und als Sch¨ yˆ ln y = yˆ ln β0 + β1 yˆ ln x + u verwendet, um Heteroskedastie zu vermeiden.

1.4 L¨ osungen

11

L¨osung zu Aufgabe 12: Zum einen kann zwischen quantitativen und qualitativen Variablen unterschieden werden: 1) Bei quantitativen Variablen werden den Merkmalsauspr¨ agungen reelle Zahlen zugeordnet. Es wird dabei zwischen diskreten und stetigen Merkmalen unterschieden: - Diskrete Merkmalsauspr¨ agungen k¨ onnen nur bestimmte Werte annehmen, z.B. Zahl der Personen in einem Haushalt. - Stetige Merkmale k¨ onnen als Auspr¨ agungen alle reellen Zahlen aus einem Intervall annehmen, z.B. Alter, Einkommen. 2) Bei qualitativen Variablen k¨ onnen die Merkmalsauspr¨ agungen lediglich in Kategorien beobachtet werden. F¨ ur die weitere Analyse werden qualitative Variablen quantifiziert, indem den beobachtbaren Kategorien willk¨ urlich oder auch intuitiv naheliegende Zahlenwerte zugeordnet werden. Zum anderen ist es m¨ oglich, sich bei der Kategorisierung von Variablen am Aussagegehalt von Zahlenwerten zu orientieren. Bei dieser Form der Kategorisierung wird zwischen nominal-, ordinal- und kardinalskalierten Variablen unterschieden: 1) Bei nominalskalierten Daten werden den Merkmalsauspr¨ agungen Zahlen zugeordnet, die lediglich der Unterscheidung der Auspr¨ agung dienen. Die Zahlen haben dar¨ uber hinaus keine inhaltliche Bedeutung. Beispiel: - Variable bevorzugte Autofarbe“ mit: schwarz=1, weiß=2, rot=3, blau=4, ” gr¨ un=5 - Variable Geschlecht“ mit: Mann=0 und Frau=1 ” 2) Bei ordinalskalierten Daten besitzen die Merkmalsauspr¨ agungen eine nat¨ urliche Rangordnung, die durch die zugeordneten Zahlenwerte widergespiegelt wird. Die den R¨ angen zugeordneten Zahlen sagen nichts u ande zwischen den ¨ber die Abst¨ Auspr¨ agungen aus. Beispiel: - Variable Schulnoten“ mit: sehr gut=1, gut=2, befriedigend=3, ausreichend ” =4, mangelhaft=5, ungen¨ ugend=6 - Variable Beurteilung des Obst- und Gem¨ useangebots in einem Supermarkt“ ” mit: sehr gut=1, gut=2, weniger gut=3 und schlecht=4 3) Bei kardinalskalierten Daten l¨ asst sich zus¨ atzlich zur Rangfolge bestimmen, in welchem Ausmaß sich zwei Auspr¨ agungen unterscheiden (intervallskalierte Daten). Ist zus¨atzlich ein nat¨ urlicher Nullpunkt definiert, spricht man von verh¨ altnisskalierten

12

1 Grundlagen Daten. Kardinalskalierten Daten liegt ein Maßsystem zugrunde. Sie entsprechen den quantitativ gemessenen Merkmalen. Beispiel: - intervallskalierte Daten: Temperatur - verh¨ altnisskalierte Daten: Alter, Einkommen

Kardinalskalierte Daten lassen sich in ordinalskalierte u uhren und letztere in nomi¨berf¨ nalskalierte, aber nicht umgekehrt.

L¨ osung zu Aufgabe 13: Eine gesamtwirtschaftliche Konsumfunktion hat die Form C = a + b · Y. Dabei kann diese Funktion aus der Aggregation individueller Konsumfunktionen Ci hervorgehen C=

n  i=1

Ci =

n  i=1

ai +

n 

bi Yi .

i=1

Die beiden Gleichungen sind nur dann identisch, wenn a=

n 

ai =: a ˜ und b =

i=1

n 1  bi Yi =: ˜b Y i=1

gilt. Hier ist insbesondere die letzte Gleichung von Interesse. Sie ist nur erf¨ ullt, wenn b = bi

∀i oder

1 Yi = Y n

∀i

gilt. Nur wenn also alle Individuen die gleiche marginale Konsumneigung besitzen oder wenn alle das gleiche Einkommen erzielen, kann die marginale Konsumneigung in makro¨ okonomischen Konsumfunktionen als konstant angenommen werden. Diese Bedingungen sind allerdings wenig realistisch. Die Einkommen einzelner Individuen unterscheiden sich stark voneinander. Auch die individuellen Konsumneigungen variieren. Aus diesen Gr¨ unden ist mit einem Aggregationsfehler zu rechnen. Um den Aggregationsfehler zu erfassen, ist in diesem Fall die aggregierte Konsumfunktion durch eine St¨ orgr¨ oße zu erg¨ anzen C = a + bY + u.

1.4 L¨ osungen

13

L¨osung zu Aufgabe 14: Der Begriff der Objektivit¨ at besagt, dass das Erhebungsergebnis frei von subjektiver Wahrnehmung sein sollte. Die Reliabilit¨ at (Zuverl¨ assigkeit) der Daten ist dann gegeben, wenn unter gleichen Bedingungen das gleiche erfasst wird, d.h. wiederholte Messungen d¨ urfen die Ergebnisse nicht ver¨ andern. Der Begriff der Validit¨ at stellt auf den Zusammenhang zwischen einem theoretischen Konzept und empirischen Beobachtungen ab. Die Daten sollten das messen, was theoretisch beabsichtigt ist. Das theoretische Konstrukt sollte ad¨ aquat operationalisiert sein.

Je mehr Interpretationsm¨ oglichkeiten es bei einer Variablen gibt, um so schwieriger ist es, die Objektivit¨ at der Daten zu gew¨ ahrleisten. So kann z.B. der durchschnittliche Benzinverbrauch eines Autos je nach gefahrener Strecke, Geschwindigkeit oder Belastung unterschiedlich ausfallen. Zu einem Problem, die Anforderung der Reliabilit¨ at bei realen Daten einzuhalten, kann es kommen, wenn es Interaktionen zwischen Befragung, Antwortverhalten und ¨ okonomischem Verhalten gibt. Je detaillierter die Daten zu erheben sind, desto h¨ oher ist die Wahrscheinlichkeit, dass eine solche Interaktion eintritt: - Der Interviewte betrachtet die Fragen als zu intim und verweigert die Antwort (z.B. werden Einkommensangaben nicht immer wahrheitsgetreu gemacht). - Die Auseinandersetzung mit den Fragen f¨ uhrt beim Befragten zu einer Verhaltens¨ anderung (z.B. Haushalte, die im Auftrag des Statistischen Bundesamtes ein Haushaltsbuch f¨ uhren, in dem sie ihre Ausgaben und Einnahmen notieren, ¨ andern ihr Konsumverhalten). - Das Antwortverhalten wird durch den Interviewer beeinflusst. Der Befragte w¨ urde bei einem anderen Interviewer andere Angaben machen. Die Forderung nach Validit¨ at der Daten kann zu Problemen f¨ uhren, wenn ein theoretisches Konstrukt kein exaktes empirisches Gegenst¨ uck besitzt. Der technische Fortschritt ist in vielen ¨ okonomischen Modellen eine wichtige Einflussgr¨ oße. Je nachdem, ob der technische Fortschritt durch die Produktivit¨ at, die Zahl der Patente oder die Ausgaben f¨ ur Forschung & Entwicklung gemessen wird, kann es bei empirischen Unterschungen zu unterschiedlichen Ergebnissen kommen.

L¨osung zu Aufgabe 15: Zu unterscheiden ist zwischen Daten, die von der amtlichen und nichtamtlichen Statistik erhoben worden sind, experimentellen und simulierten Daten. Traditionell hat

14

1 Grundlagen

ersterer Typus die gr¨ oßte Bedeutung. Beispiele hierf¨ ur sind z.B. die Volksz¨ ahlung, der Mikrozensus, die Umsatzsteuerstatistik oder die Gehalts- und Lohnstrukturerhebung, die von amtlicher Seite erhoben werden, oder das Sozio-oekonomische Panel, das beim ¨ DIW Berlin angesiedelt ist. Einen sehr guten Uberblick u ¨ber die Vielfalt der Datenquellen in Deutschland liefert KVI (2001). In neuerer Zeit ist die Bedeutung experimentell gewonnener und simulierter Daten gestiegen. Nach der Erhebungsart ist zu trennen zwischen aggregierten Zeitreihen- und individuellen oder betrieblichen Querschnittsdaten, zwischen Paneldaten , Zeitdauerdaten sowie kombinierten Individual- und Betriebsdaten. Aggregierte Zeitreihendaten erfassen Ph¨ anomene wie das Bruttoinlandsprodukt, Zinsraten, Geldangebot und Arbeitslosenquoten. Je nach Periodizit¨ at (Jahre, Quartale, Monate, Tage) ist der Umfang der Daten unterschiedlich und es bedarf einer Saisonbereinigung. Querschnittsdaten stellen auf individuelle und betriebliche Einheiten ab. Der Umfang der Daten ist hier u ¨blicherweise gr¨oßer als bei Zeitreihendaten. Mehrere Tausend Beobachtungen sind keine Seltenheit. Erfasst wird z.B. die u ochentliche Arbeitszeit einzelner Besch¨ aftigter oder der ¨bliche w¨ Umsatz einzelner Betriebe pro Jahr. Bei den Querschnittsdaten werden h¨ aufig neben quantitativen Informationen auch qualitative erfasst. Hierzu z¨ ahlt z.B. das Geschlecht, der Beruf von Personen oder die Rechtsform von Unternehmen. Erfolgt die Querschnittserhebung wiederholt zu gleichen Tatbest¨ anden in vorgegebenen Zeitabst¨ anden (z.B. einmal pro Jahr), so wird von Paneldaten gesprochen. Paneldaten gibt es aber auch auf aggregierter Ebene, wenn z.B. f¨ ur die Bundesl¨ ander oder f¨ ur verschiedene Volkswirtschaften j¨ ahrlich die gleichen Variablen wie Zahl der Erwerbspersonen oder Umfang der Einkommenssteuer erfasst werden.

2

Klassisches Regressionsmodell

2.1

Modellannahmen und Koeffizientensch¨atzungen

Aufgabe 16: Welche Annahmen liegen dem klassischen Regressionsmodell zugrunde? Diskutieren Sie ultigkeit einzelner Annahmen sprechen. Weshalb ¨okonomische Beispiele, die gegen die G¨ besitzt das klassische Regressionsmodell auch dann seine Bedeutung, wenn bei vielen realen Datens¨atzen die Annahmen verletzt sind? Zeigen Sie f¨ ur eine Annahme, dass sie sich nicht direkt nachpr¨ ufen l¨ asst und diskutieren Sie eine indirekte M¨ oglichkeit der ¨ empirischen Uberpr¨ ufung.

Aufgabe 17: Welcher Gedanke liegt der Methode der kleinsten Quadrate zugrunde?

Aufgabe 18: Zeigen Sie, dass in der allgemeinen L¨ osung nach der Methode der kleinsten Quadrate βˆ = (X  X)−1 X  y der Zweivariablenfall mit ˆb0 = y¯ − ˆb1 x ¯ als Spezialfall enthalten ist.

und

¯y¯ ˆb1 = xy − x x2 − x ¯2

16

2 Klassisches Regressionsmodell

Aufgabe 19: Zeigen Sie die G¨ ultigkeit folgender Zusammenh¨ ange im klassischen Regressionsmodell: ˆ  X  X(β − β) ˆ a) u u = y  y − y  X(X  X)−1 X  y + (β − β) b) u ˆ u ˆ = y  y − βˆ X  y c) X  u ˆ=0 d) u ˆ yˆ = 0 e) X  P = 0, wobei P = I − X(X  X)−1 X  f) P yˆ = C u ˆ, wobei C = X(X  X)−1 X  g) yˆ y = yˆ yˆ. h) u ˆ = Pu i) u ˆ = Pu ˆ

Aufgabe 20: Im multiplen linearen Modell y = Xβ + u sei βˆ = (X  X)−1 X  y, yˆ = X βˆ und u ˆ = y − yˆ. Das Modell besitze ein absolutes Glied. Weiterhin sei ι = (1, ..., 1). Zeigen Sie, dass gilt: a) ι u ˆ=0 b) ι yˆ = ι y c) y¯ = y¯ ˆ

Aufgabe 21: Sch¨ atzen Sie isoliert das absolute Glied β0 der Regression

yt = β0 +

K  k=1

βk xkt + ut .

2.1 Modellannahmen und Koeffizientensch¨ atzungen

17

Aufgabe 22: Welcher Zusammenhang besteht zwischen der Residualvarianz σ ˆ 2 und der Varianz der n  1 endogenen Stichprobenvariablen n−1 (yi − y¯)2 , wenn als erkl¨ arende Variable nur die i=1

Scheinvariable auftritt?

Aufgabe 23:

Interpretieren Sie den gesch¨ atzten Regressionskoeffizienten eines Regressors. Weshalb h¨ angt die Interpretation erstens auch von anderen explizit aufgenommenen Regressoren ab und zweitens von dem Messniveau des betrachteten Regressors?

Aufgabe 24:

Was versteht man unter einer Dummy-Variablen und welche Verbindung besteht zu qualitativen Variablen? Wie lauten die standardisierten Werte einer Dummy-Variablen? Was ist mit dem Begriff “Dummy-Variablenfalle“ gemeint? Demonstrieren Sie das Problem anhand eines Beispiels.

Aufgabe 25:

Was versteht man unter einem BETA-Koeffizienten? Was sind Vor- und Nachteile gegen¨ uber dem normalen Regressionskoeffizienten? Unter welchen Bedingungen besteht ein eindeutiger Zusammenhang zwischen BETA-Koeffizient und Bestimmtheitsmaß? Bei u oglichkeiten, die BETA¨blichen Programmpaketen wie STATA gibt es mehrere M¨ Koeffizienten von Regressoren zu bestimmen. Beschreiben Sie diese. Weist ein Datensatz fehlende Werte auf, dann f¨ uhren die verschiedenen Wege zum Teil zu unterschiedlichen Ergebnissen. Woran liegt das? Wie l¨ asst sich diesem Problem begegnen? Ist es m¨ oglich, dass im multiplen linearen Modell der Regressionskoeffizient, der BETA-Koeffizient und der t-Wert eines Regressors gleich sind? Wenn ja, geben Sie die Bedingungen an. Wenn nein, warum nicht?

18

2 Klassisches Regressionsmodell

2.2

Modellbildung, Tests und Gu¨temaße

Aufgabe 26: a) Wann spricht man von einem signifikanten Einfluss? Gibt es einen Zusammenhang mit der Gr¨ oße des Koeffizienten? b) Welche der folgenden drei Behauptungen sind richtig? Je gr¨ oßer - der Regressionskoeffizient - der BETA-Koeffizient - der t-Wert eines Regressors ist, um so st¨ arker ist der Einfluss dieses Regressors auf den Regressanden.

Aufgabe 27: Angenommen, es liege folgendes Regressionsmodell vor y = β0 + β1 x + u. Wie sind β0 und β1 zu interpretieren, wenn a) y und x kontinuierliche Variablen sind; b) y eine kontinuierliche und x eine Dummy-Variable ist; c) y und x kontinuierliche, in nat¨ urlichen Logarithmen gemessene Variablen sind; d) y eine in nat¨ urlichen Logarithmen gemessene kontinuierliche Variable ist und x eine Dummy-Variable beschreibt?

Aufgabe 28: Der folgende Output in SHAZAM gibt eine OLS-Sch¨ atzung des Preisindexes f¨ ur das Bruttosozialprodukt (y) in Abh¨ angigkeit von der Arbeitslosenquote (X1) und der Verschuldung in Mrd. DM (X2) f¨ ur die Bundesrepublik Deutschland (alte Bundesl¨ ander) der Jahre 1962-1994 wieder:

2.2 Modellbildung, Tests und G¨ utemaße R-SQUARE = 0.9560 VARIABLE NAME X1 X2 CONSTANT

19

SUM OF SQUARED ERRORS-SSE= 4389.7 ESTIMATED COEFFICIENT 5.8892 0.81916E-01 84.638

STANDARD ERROR 1.149 0.8381E-02 3.659

T-RATIO 30 DF 5.125 9.775 23.13

Interpretieren Sie das Ergebnis. Wie lauten die Koeffizientensch¨ atzungen, die gesch¨ atzte St¨ orgr¨ oßenvarianz und das Bestimmtheitsmaß, wenn die Variable Verschuldung nicht in DM, sondern in Euro (1 EUR=1,95583 DM) ausgedr¨ uckt wird?

Aufgabe 29: Mit Hilfe eines anonymisierten Teildatensatzes des Sozio-oekonomischen Panels f¨ ur 2004 (Datei: SOEP 2004 anonym1.dta) ist zu analysieren, ob Verdienstunterschiede zwischen M¨ annern und Frauen bestehen. Schreiben Sie Ihre Auswertungsbefehle in einen Do-File. a) F¨ uhren Sie zun¨ achst eine Regression des logarithmierten Bruttogehalts auf das Geschlecht (=1, wenn die Person eine Frau ist, sonst 0) durch. Entspricht die Koeffizientensch¨ atzung der Geschlechtsvariablen Ihrer Erwartung? Ist die Koeffizientensch¨ atzung signifikant? b) Erweitern Sie Ihre Regression um zus¨ atzliche Erkl¨ arungsfaktoren wie die Schulbildung und die Betriebsgr¨ oße. Kann das Ergebnis aus a) weiter aufrechterhalten werden? Interpretieren Sie die Koeffizientensch¨ atzung der neuen Variablen. c) Kodieren Sie die Geschlechtsvariable so um, dass sie den Wert Eins annimmt, falls es sich bei der betreffenden Person um einen Mann handelt, und sonst den Wert Null aufweist. F¨ uhren Sie die Sch¨ atzung aus b) erneut durch. Wie haben sich die Koeffizientensch¨ atzungen ver¨ andert? Transformieren Sie zus¨ atzlich auch die abh¨ angige Variable so, dass sie statt in Euro in Tsd. Euro gemessen wird. F¨ uhren Sie die Sch¨ atzung erneut durch. Erkl¨ aren Sie, warum es zur Ver¨ anderung der Koeffizientensch¨ atzungen kommt.

Aufgabe 30: Auf Basis der Daten des SOEP sind mit Hilfe von STATA folgende Sch¨ atzungen f¨ ur die Mincersche Schooling-Funktion durchgef¨ uhrt worden

20

2 Klassisches Regressionsmodell lnW = 1, 8328 + 0, 0485 · S (47, 22) (12, 25) (lnW )/S = 0, 0593 + 1, 7189 · (1/S) (11, 02) (33, 91),

wobei W - Lohn, S - Zahl der Schuljahre. Interpretieren Sie die Ergebnisse. Welcher Gedanke k¨onnte der zweiten Spezifikation zugrunde liegen? Wie l¨ asst sich u ufen, ¨berpr¨ ¨ ob Ihre Uberlegung mit den Daten vereinbar ist? Skizzieren Sie den Test.

Aufgabe 31: Es sei folgende Sch¨ atzgleichung gegeben lnW = b0 + b1 · SEX + b2 · T EN U RE + b3 · T EN U RE 2 + u, wobei W das Bruttogehalt, T EN U RE die Betriebszugeh¨ origkeitsdauer und SEX das Geschlecht (=1, wenn Frau; =0, wenn Mann) sind. a) F¨ uhren Sie die OLS-Sch¨ atzung durch (Datensatz SOEP 2004 a.dta). Welche Variablen sind signifikant? ucksichtigt? b) Warum wird außer der Variablen T EN U RE auch T EN U RE 2 ber¨ Verdeutlichen Sie graphisch, welche gesch¨ atzte Abh¨ angigkeit zwischen dem logarithmierten Bruttogehalt und der Betriebszugeh¨ origkeitsdauer besteht. Bei welcher TENURE ist das Bruttogehalt am h¨ ochsten?

Aufgabe 32: Nutzen Sie die OLS-Sch¨ atzung der Gleichung lnW = b0 + b1 · SEX + b2 · T EN U RE + b3 · T EN U RE 2 + u, aus Aufgabe 31. a) Welche Nullhypothese wird durch die t-Werte getestet? b) Erl¨ autern Sie, wie die t-Werte mit Hilfe von gesch¨ atzten Koeffizienten und Standardfehlern ermittelt werden k¨ onnen. c) Welche Bedeutung hat die (Varianz-)Kovarianz-Matrix f¨ ur die Sch¨ atzung? Welcher Zusammenhang besteht zwischen der Kovarianz-Matrix und den Standardfehlern der Koeffizientensch¨ atzungen sowie den t-Werten? Durch welchen Befehl k¨ onnen Sie sich in STATA und SHAZAM die Kovarianz-Matrix anzeigen lassen? Wie sind die Elemente auf den Nebendiagonalen dieser Matrix zu interpretieren?

2.2 Modellbildung, Tests und G¨ utemaße

21

d) Außer den t-Werten werden in STATA oder SHAZAM auch p-Werte ausgewiesen. Erl¨ autern Sie, wie die p-Werte zu interpretieren sind. Vergleichen Sie, zu welcher Entscheidung bez¨ uglich der Signifikanz der Variablen SEX der t-Wert und der pWert f¨ uhrt. Ist die Testentscheidung auf Basis von t-Werten und p-Werten immer die gleiche? Warum ist das so? e) Bei der Sch¨ atzung werden 95%-Konfidenzintervalle der Koeffizientensch¨ atzungen ausgewiesen. Wie k¨ onnen diese Konfidenzintervalle interpretiert werden? Welcher Zusammenhang besteht zu den Koeffizientensch¨ atzungen, den t- und p-Werten? Finden Sie heraus, durch welche Befehlsoption 99%-Konfidenzintervalle bei der Sch¨atzung ausgegeben werden. Bei welchen Variablen k¨ onnen Sie ohne Berechnung des 99%-Konfidenzintervalls angeben, dass das Konfidenzintervall den Wert Null nicht u ¨berdeckt?

Aufgabe 33: Betrachten Sie die Sch¨ atzung aus Aufgabe 32. Außer den Koeffizientensch¨ atzungen, Standardfehlern, t-Werten, p-Werten und Konfidenzintervallen wird bei einer Sch¨ atzung ein Varianzblock ausgewiesen. Bei STATA findet man ihn in der linken oberen Ecke. a) Im Varianzblock sind insgesamt neun Elemente in drei Spalten zu finden. Erl¨ autern Sie die Bedeutung der Elemente in den ersten beiden Spalten und erkl¨ aren Sie, wie die Elemente der dritten Spalte zustande kommen. b) In der rechten oberen Ecke sind die Anzahl der Beobachtungen, das Ergebnis des F-Tests und unterschiedliche G¨ utemaße ausgewiesen. Erl¨ autern Sie, wie sich R2 und adjusted R2 durch die Elemente des Varianzblocks berechnen lassen.

Aufgabe 34: Zeigen Sie, dass der Schnittpunkt zwischen einer Ausgangsregression eines Zweivariablenmodells y = a + b · x + u und der dazugeh¨ orenden Umkehrregression x = e + f · y + v im Datenmittelpunkt (¯ x, y¯) liegt.

Aufgabe 35: Aufgrund einer Studentenbefragung ergaben sich folgende mit STATA durchgef¨ uhrte OLS-Sch¨atzungen des monatlich verf¨ ugbaren Betrages (MVB) in Abh¨ angigkeit von der

22

2 Klassisches Regressionsmodell

w¨ ochentlichen Stundenzahl (AZEIT), die f¨ ur Erwerbst¨ atigkeit aufgewendet wird, sowie die deskriptiven Statistiken, getrennt nach Geschlecht (SEX=1, wenn Mann (M); SEX=2, wenn Frau (F)). . regress MVB AZEIT if SEX==1

MVB AZEIT cons

Number of obs = 288 Coef. Std. Err. t 12.76262 2.105669 6.06 446.8894 18.13372 24.64

P¿—t— 0.000 0.000

. regress MVB AZEIT if SEX==2

MVB AZEIT cons

Number of obs = 163 Coef. Std. Err. t 14.91666 4.565824 3.27 429.375 37.90466 11.33

P¿—t— 0.001 0.000

. sum AZEIT MVB if SEX==1 Variable AZEIT MVB

Obs 288 288

Mean 4.831597 508.5532

Std. Dev. 7.141205 270.1381

Obs 163 163

Mean 4.797546 500.9383

Std. Dev. 6.796113 406.5663

. sum AZEIT MVB if SEX==2 Variable AZEIT MVB

a) Interpretieren Sie die Ergebnisse und bestimmen Sie die BETA-Koeffizienten sowie die Elastizit¨ aten von MVB in Bezug auf AZEIT. b) Gegen¨ uber den ausgewiesenen Regressionssch¨ atzungen k¨ onnte auch ein umgekehrter Zusammenhang bedeutsam sein, n¨ amlich dass AZEIT mit steigendem MVB sinkt. L¨ asst sich auch ohne Ermittlung der Umkehrregression sagen, dass diese Hypothese durch das Datenmaterial nicht best¨ atigt wird? Bestimmen Sie die Koeffizienten der Umkehrregression AZEIT = e + f · M V B + ν.

Aufgabe 36: Gegeben sei der Preisindex f¨ ur ein Gut A (y), der Preisindex von Gut B (x1 ) und der ur 9 Jahre: Mengenindex f¨ ur Gut A (x2 ) f¨

2.2 Modellbildung, Tests und G¨ utemaße t 1 2 3 4 5 6 7 8 9

y 100 106 107 120 110 116 123 133 137

23 x1 100 104 106 111 111 115 120 124 126

x2 100 99 110 126 113 103 102 103 98

a) Sch¨ atzen Sie die lineare Regressionsgleichung y = b0 + b1 x1 + b2 x2 + u und geben Sie R2 an. b) Wie ist die Regressionsgleichung und wie sind deren gesch¨ atzte Koeffizienten zu interpretieren? Welche Aussage l¨ asst sich mit R2 treffen? c) Geben Sie einen unverzerrten Sch¨ atzwert f¨ ur die St¨ orgr¨ oßenvarianz an. d) Wie lautet die gesch¨ atzte (Varianz-)Kovarianz-Matrix der Sch¨ atzvariablen ˆb0 , ˆb1 , ˆb2 ?

Aufgabe 37: Welche Eigenschaften besitzen OLS-Sch¨ atzer eines klassischen linearen Regressionsmodells? Warum sind diese Eigenschaften w¨ unschenswert? Warum sind Sch¨ atzfunktionen u atzeigenschaften zu beurteilen? ¨berhaupt anhand von Sch¨

Aufgabe 38: Formulieren Sie die Likelihoodfunktion f¨ ur das klassische lineare Regressionsmodell und leiten Sie den ML-Sch¨ atzer f¨ ur den Koeffizientenvektor und die St¨ orgr¨ oßenvarianz ab. Welche Unterschiede und Gemeinsamkeiten ergeben sich gegen¨ uber dem OLS-Sch¨ atzer? H¨angen diese von den Modellannahmen ab?

24

2 Klassisches Regressionsmodell

Aufgabe 39: Weshalb ist es wichtig, neben der getrennten Betrachtung von Konfidenzintervallen f¨ ur einzelne Regressionskoeffizienten auch Konfidenzbereiche f¨ ur verschiedene Koeffizienten gemeinsam zu analysieren? Machen Sie an einem Beispiel klar, worin die Unterschiede der beiden Betrachtungsweisen liegen? Der Konfidenzbereich f¨ ur zwei Koeffizienten gemeinsam entspricht dem einer Ellipse. Welche Schlussfolgerungen k¨ onnen Sie ziehen, wenn Sie feststellen, dass die Ellipse nahezu den Verlauf eines Kreises hat?

Aufgabe 40: Gegeben seien die Werte von 32 Variablen f¨ ur die Bundesrepublik Deutschland der Jahre 1962-1994 (Datei: Auf gabe40.dta): a) Welche theoretischen Ans¨ atze zur Erkl¨ arung der Inflation sind Ihnen bekannt? Welche der gegebenen Variablen sollten Ihrer Meinung nach zur Erkl¨ arung der Preisentwicklung herangezogen werden und welchem Theorieansatz sind sie zuzuordnen? b) Ermitteln Sie folgende einfache Regressionsbeziehungen zur Erkl¨ arung der Preisentwicklung in der BR Deutschland sowie die Konfidenzintervalle der Koeffizienten b1 bis b6 . ba) P I bsp = b0 + b1 LOHN + u bb) P I bsp = b0 + b2 IM P ORT + u bc) P I bsp = b0 + b3 P ROD + u bd) P I bsp = b0 + b4 KAP AU SL svr + u be) P I bsp = b0 + b5 ALQ + u bf) P I bsp = b0 + b6 M 1 + u Stimmen die Sch¨ atzungen von b1 bis b6 mit den theoretischen Erwartungen u ¨berein? c) Welche alternativen Funktionstypen bieten sich zur Bestimmung der Preisentwicklung an?

Aufgabe 41: In welchen F¨allen wird die Hypothese H0 : βk = 0 f¨ ur das Modell y = Xβ +u abgelehnt?

2.2 Modellbildung, Tests und G¨ utemaße

25

a) α = 0, 01

n = 20

K=5

und

t = −2, 5

b) α = 0, 05

n = 20

K=5

und

t = −2, 5

c) α = 0, 05

n = 250

K=6

und

t = 2, 1

K entspricht der Zahl der Regressoren.

Aufgabe 42: In einem Unternehmen werden in elf Wochen an unterschiedlichen Wochentagen Daten u ¨ber den Einsatz an Produktionsfaktoren und das Produktionsergebnis erhoben, die der Datei Aufgabe42.dta zu entnehmen sind. Den Symbolen sind folgende Variablen zuzuordnen: Produktionsausstoß (y - in t), Arbeitseinsatz (a - Besch¨ aftigtenzahl), Kapitaleinsatz (k - in 1000 DM) und der Wochentag (tag), an dem produziert wurde (Datei: Aufgabe42.dta). Mit den Daten soll eine Cobb-Douglas-Produktionsfunktion gesch¨ atzt werden. Folgende Teilaufgaben sind zu l¨ osen: a) Leiten Sie aus der allgemeinen Cobb-Douglas-Produktionsfunktion Y = γ · K α · Lβ · eu einen linearen Sch¨ atzansatz ab. Dabei wird mit Y der Produktionsausstoß, mit L der Arbeitseinsatz und mit K der Kapitaleinsatz bezeichnet; α und β sind Parameter. b) Sch¨ atzen Sie den unter a) entwickelten Ansatz und interpretieren Sie die Koeffizienten. c) Sind die Koeffizienten der Gleichung einzeln signifikant von Null verschieden? Testen Sie f¨ ur die beiden Koeffizienten α und β, ob sie signifikant von Eins verschieden sind. Dabei ist von einer Irrtumswahrscheinlichkeit von α = 0, 05 auszugehen. In der ¨ okonomischen Theorie wird der Fall konstanter Skalenertr¨ age, d.h. α + β = 1, diskutiert. Was m¨ usste bei einem Test auf diese Hypothese ber¨ ucksichtigt werden? F¨ uhren Sie auch hier den Test bei einer Irrtumswahrscheinlichkeit von α=0,05 durch. d) In einem erweiterten Sch¨ atzansatz soll zus¨ atzlich der Wochentag aufgenommen werden, da davon ausgegangen wird, dass montags und freitags weniger produziert wird. In welcher Form k¨ onnte diese Information in die Sch¨ atzgleichung eingehen? F¨ uhren Sie eine solche Sch¨ atzung durch. Wie ver¨ andern sich die Einfl¨ usse der anderen Determinanten? Wie interpretieren Sie die Koeffizienten der neuen Variablen? Hat sich der Erkl¨ arungsgehalt des Modells verbessert?

26

2 Klassisches Regressionsmodell

Aufgabe 43: Wie m¨ ussen der Vektor α und der Skalar a bei einem Test auf eine Linearkombination von Regressionsparametern gew¨ ahlt werden, damit sich folgende Hypothesen testen lassen (Modell: y = Xβ + u), wenn 5 echte erkl¨ arende Variablen auftreten? (a = α β) a) H: β1 = 0, 85 b) H: β3 = 0 c) H: β1 = β4 d) H: β1 = 2β2

Aufgabe 44: OLS-Sch¨ atzungen mit Hilfe von SHAZAM f¨ ur ein klassisches lineares Modell mit N=51 Beobachtungen haben zu folgenden Ergebnissen gef¨ uhrt: ols

y

x1

x2

x3

x4

/

pcov

R-SQUARE = 0.9726 R-SQUARE ADJUSTED = 0.9702 VARIABLE NAME X1 X2 X3 X4 CONSTANT VARIANCE-COVARIANCE X1 0.219E-01 X2 -0.102E-02 X3 -0.161E-01 X4 -0.111E-02 CONSTANT -0.301E-02

ESTIMATED COEFFICIENT 0.25909 0.57605E-01 0.24411 0.38789 0.86040E-01

MATRIX OF COEFFICIENTS 0.785E-02 -0.322E-02 -0.554E-02 -0.269E-02

0.222E-01 -0.855E-02 0.528E-02

0.227E-01 -0.822E-03

0.244E-02

Aufgrund dieser Ergebnisse sind die nachfolgenden Hypothesen bei α=0,05 zu testen. a) H0 : β1 ≤ 0, 3 gegen H1 : β1 > 0, 3

2.2 Modellbildung, Tests und G¨ utemaße 



27 

b) H0 : β ∗ = (0, 0, 0, 0) gegen H1 : β ∗ = (0, 0, 0, 0), wobei β  = (β0 , β ∗ ) c) H0 : β1 + β3 = 0, 3 gegen H1 : β1 + β3 = 0, 3

Aufgabe 45: Wie lauten Hypothese, Gegenhypothese und Teststatistik f¨ ur den allgemeinen F-Test? Geben Sie verschiedene Spezialf¨ alle hierzu an und erl¨ autern Sie, welche Formen die einzelnen Bestandteile der Teststatistik jeweils annehmen. Begr¨ unden Sie, warum die Teststatistik F-verteilt ist und welches die Voraussetzungen daf¨ ur sind.

Aufgabe 46: klassischen linearen ReWelcher Gedanke liegt einem Test auf H0 : β ∗ = 0 in einem  gressionsmodell y = Xβ + u zugrunde, wobei β  = (β0 , β ∗ )? Welche Bedeutung haben in diesem Zusammenhang die Residuenquadratsummen? Wann wird die Nullhypothese abgelehnt?

Aufgabe 47: Gegeben sei eine Produktionsfunktion vom Typ Cobb-Douglas Y = γK α Lβ eu , wobei Y-Output, K-Kapital, L-Arbeit, u-St¨ orgr¨ oße. Angenommen wird E(eu ) = 1. a) Wie sind die Koeffizienten α und β zu interpretieren? b) Die Sch¨ atzung einer logarithmierten Cobb-Douglas-Produktionsfunktion mit Hilfe von SHAZAM und Produktionsdaten von 19 Teilbereichen der Investitions- oder Verbrauchsg¨ uterindustrie f¨ ur 10 Jahre habe zu nachfolgendem Ergebnis gef¨ uhrt. R-SQUARE = 0.9765 VARIANCE OF THE ESTIMATE-SIGMA**2 = 0.26399E-01 STANDARD ERROR OF THE ESTIMATE-SIGMA = 0.16248 SUM OF SQUARED ERRORS-SSE= 4.9102

28

2 Klassisches Regressionsmodell VARIABLE NAME

ESTIMATED COEFFICIENT

lnK lnL D CONSTANT

0.34883 0.70132 -0.21121 -2.2112

STANDARD ERROR 0.3613E-01 0.3657E-01 0.2533E-01 0.9999E-01

T-RATIO 186 DF 9.656 19.18 -8.338 -22.11

wobei K-Kapital, L-Arbeit, D=1(=0), wenn die Beobachtungswerte aus der Investitionsg¨ uterindustrie (Verbrauchsg¨ uterindustrie) stammen. ba) F¨ uhren Sie das gesch¨ atzte Modell auf die nichtlineare, entlogarithmierte Cobb-Douglas-Funktion zur¨ uck. bb) Wie ist der gesch¨ atzte Koeffizient von D zu interpretieren? Was sagt Ihnen das T-RATIO zu D? Was ist der Unterschied zum Chow-Test? bc) Ermitteln Sie, ob die beiden echten Regressoren lnK und D insgesamt einen statistisch signifikanten Einfluss auf Y aus¨ uben (α = 0, 05). Nutzen Sie die Information, dass sich aus dem gesch¨ atzten Modell lnY = β0 + β1 lnL + u ˆ = 14, 621 mit den gleichen Beobachtungen als Residuenquadratsumme u ˆ u ergeben hat.

Aufgabe 48: Es sei f¨ ur die Preisentwicklung des Bruttosozialproduktes (BSP) der Bundesrepublik Deutschland (y1 ) ein multiples lineares Regressionsmodell y1 = b0 + b1 x1 + b2 x2 + b3 x3 + b4 x4 + b5 x5 + b6 x6 + u ur BSP, x1 = unterstellt (Datei: Auf gabe40.dta), wobei y1 = P I bsp - Preisindex f¨ LOHN, x2 = IMPORT, x3 =PROD, x4 =KAPAUSL svr, x5 =ALQ, x6 =M1 - Geldmenge M1. F¨ ur dieses Modell sind nachfolgende Aufgaben zu l¨ osen. a) Es sind die Koeffizienten b0 , b1 , b2 , b3 , b4 , b5 und b6 mit Hilfe der KQ-Methode aufgrund der Daten f¨ ur die Bundesrepublik 1962-1994 zu sch¨ atzen. b) Es sind die Konfidenzintervalle f¨ ur die Koeffizienten des obigen Modells bei α = 0, 05 anzugeben. c) Es ist zu pr¨ ufen, ob die Variablen x1 , x2 , x3 , x4 , x5 und x6 insgesamt einen signifikanten Einfluss auf y1 haben (α = 0, 05). d) Es ist bei α = 0, 05 zu pr¨ ufen, ob

2.2 Modellbildung, Tests und G¨ utemaße da) db) dc) dd)

x1 x2 x5 x2

und und und und

29

x4 x6 x6 x5

einen signifikanten Einfluss auf y1 haben, wenn sie zus¨ atzlich als exogene Variablen zu den anderen Regressoren hinzugef¨ ugt werden. e) Es ist bei α = 0, 05 zu pr¨ ufen, ob die Hypothesen ea) eb) ec) ed)

b1 + b2 b5 + b6 b1 + b4 b2 + b5

=1 =0 =1 =0

zu verwerfen sind. f) Es ist bei α = 0, 05 zu pr¨ ufen, ob ⎛ ⎞ ⎛ ⎞ b1 0, 8 H0 : ⎝ b2 ⎠ = ⎝ 0, 2 ⎠ b4 0 zu verwerfen ist.

Aufgabe 49: a) Unter welchen Bedingungen ist eine Zufallsvariable χ2 -verteilt? b) Weshalb sind χ2 -verteilte Teststatistiken f¨ ur praktische Zwecke bei ¨ okonometrischen Ans¨ atzen h¨ aufig ungeeignet? c) Warum gilt: t2ν = Fν1 ? ussen die d) Welche Zusammenh¨ ange bestehen zwischen t-, χ2 - und F-Tests? Wie m¨ ahlt werden, damit z 2 = t2 = χ2 = F Parameter der t-, F- und χ2 -Verteilung gew¨ gilt? Demonstrieren Sie die G¨ ultigkeit f¨ ur α = 0, 05.

Aufgabe 50: Welche allgemeine Aussage macht der Satz von Cochran? Welche Voraussetzungen sind notwendig, damit der Satz von Cochran erf¨ ullt ist?

30

2 Klassisches Regressionsmodell

Aufgabe 51: ˆ −1 (βˆ − β) mit β aus dem klassischen a) Zeigen Sie, dass der Ausdruck (βˆ − β) V (β) 2 linearen Regressionsmodell χ -verteilt ist. b) Welchem Zweck dient dieser statistische Ausdruck? c) Warum ist er f¨ ur Anwendungen nicht geeignet? Welche Alternative bietet sich bei endlichen und unendlichen Stichprobenumf¨ angen an?

Aufgabe 52: Welche Auswirkungen ergeben sich bei der OLS-Sch¨ atzung der Koeffizienten eines linearen Modells, wenn die Annahme E(u) = 0 nicht erf¨ ullt ist? Diskutieren Sie eine Situation, in der E(u) = 0 f¨ ur die OLS-Sch¨ atzung des Koeffizientenvektors β ohne Bedeutung ist.

Aufgabe 53: ¨ a) Welche Schwierigkeiten treten beim Uberpr¨ ufen der Annahme E(u)=0 auf? b) Welches Problem existiert bei der Verteilung der OLS-Sch¨ atzfunktion f¨ ur die St¨ orgr¨ oßen? c) Was haben die Verteilung der endogenen Variablen und der St¨ orgr¨ oße im klassischen Regressionsmodells gemeinsam? Worin unterscheiden sie sich?

Aufgabe 54: a) Was spricht f¨ ur und was gegen die Annahme: E(u) = 0? Diskutieren Sie die Hypothese: Wenn ein lineares Regressionsmodell y = β0 + ΣK k=1 βk xk + u vorliegt, dann folgen aus der Annahme E(u) = cι mit c als Skalar und ι als Einsvektor keine wesentlichen negativen Konsequenzen gegen¨ uber dem klassischen Regressionsmodell. b) Zeigen Sie, dass bei E(u) = ξ = 0 mindestens einer der beiden Sch¨ atzer βˆ oder 1 2  ˆu ˆ verzerrt ist, wobei u = ξ + v und y = Xβ + u. Die St¨ orgr¨ oße v σ ˆ = n−K−1 u gen¨ ugt den klassischen Regressionsbedingungen.

2.2 Modellbildung, Tests und G¨ utemaße

31

Aufgabe 55: Eine Annahme des klassischen Regressionsmodells lautet: Die St¨ orgr¨ oßen sind f¨ ur alle Beobachtungen identisch, unabh¨ angig verteilt. Welche Konsequenzen hat diese Annahme? Inwiefern hat diese Annahme etwas mit Homoskedastie zu tun? Welche Auswirkungen hat die Verletzung der Homoskedastieannahme? Wie k¨ onnen Sie pr¨ ufen, ob bei einem Regressionsmodell f¨ ur zwei Zeitabschnitte Homoskedastie vorliegt? Wenn sich die Hypothese der Homoskedastie nicht aufrechterhalten l¨ asst, wird vorgeschlagen, beobachtungsweise den Regressanden, die Regressoren und die St¨orgr¨oße durch die individuelle St¨ orgr¨ oßenstandardabweichung zu teilen und dann nach OLS zu sch¨ atzen. Welcher Zweck wird damit verfolgt? Zeigen Sie, dass dieses Ziel ereicht wird. Welches Problem taucht bei der praktischen Anwendung auf? Wie ist es zu l¨ osen?

Aufgabe 56: Was versteht man unter einem Strukturbruch? Welche Arten kennen Sie? Beschreiben Sie diese und formulieren Sie statistische Tests (Hypothesen, Teststatistik, Entschei¨ dung) zur Uberpr¨ ufung der Hypothesen.

Aufgabe 57: Die Sch¨atzung eines linearen Zusammenhangs yt = a + bxt + ut , t = 1, . . . , T mit Hilfe des Programms SHAZAM ergibt f¨ ur T = 20 Zeitreihendaten der Variablen yt und xt : VARIANCE OF THE ESTIMATE-SIGMA**2 = 0.17983 STANDARD ERROR OF THE ESTIMATE-SIGMA = 0.42407 SUM OF SQUARED ERRORS-SSE= 3.2370 VARIABLE ESTIMATED STANDARD T-RATIO NAME COEFFICIENT ERROR 18 DF X 0.74055 0.3466E-01 21.36 CONSTANT 15.546 0.3086 50.37 Aus Teilsch¨ atzungen f¨ ur die Zeitr¨ aume t = 1, . . . , 12 und t = 13, . . . , 20 erh¨ alt man: VARIANCE OF THE ESTIMATE-SIGMA**2 STANDARD ERROR OF THE ESTIMATE-SIGMA SUM OF SQUARED ERRORS-SSE

Zeitraum 1 0.12645 0.35560 1.2645

Zeitraum 2 0.26620E-01 0.16316 0.15972

32

2 Klassisches Regressionsmodell a) Ist die Hypothese aufrecht zu erhalten, dass die St¨ ortermvarianz im ersten Zeitraum der im zweiten Zeitraum entspricht (α = 0, 01)? b) L¨ asst sich bei t = 12 ein Strukturbruch f¨ ur die Koeffizienten des linearen Modells ¨ vermuten (α = 0, 01)? Warum ist die Uberpr¨ ufung der Gleichheit der Varianzen f¨ ur den Test auf einen Strukturbruch wichtig?

Aufgabe 58: Zus¨ atzlich zu den Informationen aus der Aufgabe 35 sind die Varianzbl¨ ocke der OLSSch¨atzungen f¨ ur M¨ anner und Frauen bekannt: M¨anner Source Model Residual Total

SS 2383992.01 18559713.1 20943705.1

df 1 286 287

MS 2383992.01 64894.1018 72974.5823

Source Model Residual Total

SS 1664865.48 25113109.5 26777975

df 1 161 162

MS 1664865.48 155982.047 165296.142

Frauen

Testen Sie bei α = 0, 05 die Hypothese, dass die St¨ orgr¨ oßenvarianzen von Frauen und M¨ annern gleich sind.

Aufgabe 59: Nehmen Sie zu folgenden Behauptungen Stellung: a) Heteroskedastie ist ein Ph¨ anomen bei Querschnittsdaten. b) Tests auf Heteroskedastie sind Strukturbruchtests. c) Heteroskedastietests sind eigentlich Homoskedastietests und die Gegenhypothese ist nicht genau spezifiziert. d) Fehlspezifikation erzeugt Heteroskedastie.

2.2 Modellbildung, Tests und G¨ utemaße

33

Aufgabe 60: Wird in einem ¨ okonometrischen Modell eine monet¨ are Gr¨ oße als Regressand verwendet, so zeigt sich h¨aufig Heteroskedastie. Zur L¨ osung des Problems wird vorgeschlagen, die monet¨ aren Variablen zu deflationieren. Wie beurteilen Sie diesen Vorschlag?

Aufgabe 61: Angenommen, der Koeffizientenvektor (βi ) im linearen Modell bestehe elementeweise aus einem konstanten (β) und einem stochastischen, individuell variierenden (vi ) Teil βi = β + vi . Zeigen Sie, dass in diesem Fall ein heteroskedastisches Modell vorliegt, wenn von y = Xβ + u f¨ ur die Sch¨ atzung ausgegangen wird.

Aufgabe 62:

a) Aus den Daten des SOEP f¨ ur die Jahre 1991-1997 wurden Arbeitszeitfunktionen f¨ ur Manager nach OLS mit Hilfe von STATA gesch¨ atzt, wobei die endogene Variable AZEIT in Stunden pro Woche gemessen ist. Dabei ergab sich folgendes Bild:

Variable SEX ALT ER T EN U RE SCHU LJAHRE F IRM SIZE Constant N R2 x ¯AZEIT sAZEIT

alle βˆ |t| -3,3662(18,40) -0,0026(0,27) -0,0013(0,13) -0,1709(5,09) -0,2671(4,09) 44,4768(75,34) 4367 0,0828 37,7877 5,0988

M¨ anner βˆ |t|

Frauen βˆ |t|

0,0243(2,83) -0,0122(1,48) -0,0655(2,13) -0,4054(6,80) 39,5605(81,24) 3480 0,0182 38,5043 3,9868

-0,1134(3,40) 0,0626(1,52) -0,4722(4,47) 0,1519(0,73) 43,1709(25,04) 887 0,0377 35,7808 6,9896

34

2 Klassisches Regressionsmodell Interpretieren Sie die Ergebnisse. Pr¨ ufen Sie bei α = 0, 05, ob das Geschlecht (SEX=1, wenn Mann; =2, wenn Frau) eine heteroskedastieerzeugende Variable ist. b) Um die G¨ ute des Ansatzes in a) zu testen, wurde bei der Sch¨ atzgleichung f¨ ur die Arbeitszeit aller Manager in STATA nach dem Befehl zur Sch¨ atzung der Testbefehl ovtest hinzugef¨ ugt. Dabei ergab sich F (3; 4359) = 14, 63. Danach wurde die urspr¨ ungliche Gleichung um den aus a) ermittelten k¨ unstli2  erweitert und das Modell nach OLS gesch¨ atzt. F¨ ur den chen Regressor AZEIT gesch¨ atzten Koeffizienten des neuen Regressors und die dazugeh¨ orige t-Statistik wurden βˆAZEIT  2 = −0, 1674 |t| = 3, 23. ausgewiesen. Welche Schlussfolgerungen k¨ onnen Sie aus diesen Ergebnissen ziehen? Was haben die beiden Ergebnisse gemeinsam? Welches der beiden Ergebnisse halten Sie f¨ ur aussagef¨ ahiger?

Aufgabe 63: Skizzieren Sie den Goldfeld-Quandt-Test (Vorgehensweise, Annahmen, Teststatistik, Pr¨ ufverteilung, Probleme). Welche Vor- und Nachteile besitzt im Vergleich dazu der Breusch-Pagan-Test?

Aufgabe 64: Betrachtet werde ein homogenes klassisches Dreivariablenmodell y = x1 β1 + x2 β2 + u a) Welche Strukturbruchtests lassen sich f¨ ur das obige Regressionsmodell durchf¨ uhren? Wie lauten die dazugeh¨ origen Hypothesen und Gegenhypothesen?

2.2 Modellbildung, Tests und G¨ utemaße

35

b) Welches Problem taucht bei dem Bestimmtheitsmaß dieses Modells auf?

Aufgabe 65: Mit Hilfe des Programms SHAZAM werden f¨ ur die gew¨ ohnliche Kleinst-QuadrateSch¨ atzung des Zweivariablenmodells yt = a + bxt + ut , t = 1, . . . , T , aus T = 20 Beobachtungen folgende Angaben erzielt: DURBIN-WATSON STATISTIC = 1.02143 DURBIN-WATSON P-VALUE = 0.008197 VARIANCE OF THE ESTIMATE-SIGMA**2 = 1.9511 STANDARD ERROR OF THE ESTIMATE-SIGMA = 1.3968 SUM OF SQUARED ERRORS-SSE= 35.120 VARIABLE NAME X CONSTANT

ESTIMATED COEFFICIENT 0.76298 1.9630

STANDARD ERROR 0.1395 0.3126

T-RATIO 18 DF 5.468 6.279

P-VALUE 0.000 0.000

PARTIAL CORR. 0.790 0.829

a) Testen Sie ausgehend von der Beziehung ut = ρut−1 +εt die Hypothese H0 : ρ ≤ 0 gegen H1 : ρ > 0 zum Signifikanzniveau α = 0, 05. b) Welche Annahme des klassischen linearen Regressionsmodells ist bei G¨ ultigkeit von H1 verletzt, und wie bezeichnet man diesen Fall? Warum wird dieses Problem eher bei Zeitreihen- als bei Querschnittsdaten festgestellt?

Aufgabe 66: Nach der Kleinst-Quadrate-Sch¨ atzung des linearen Modells yt = b0 + b1 x1t + b2 x2t + b3 x3t + ut mit T = 100 Beobachtungen wurden die ermittelten Residuen u ˆt auf die um eine Periode verz¨ ogerten Residuen u ˆt−1 regressiert. ˆ Die gesch¨ atzte Regressionsgleichung lautet: u ˆt = 0, 79ˆ ut−1 . Als Sch¨ atzwert f¨ ur den Standardfehler der Koeffizientensch¨ atzung wurde 0,32 ermittelt. a) Erl¨ autern Sie, wie anhand der Regression von u ˆt auf u ˆt−1 auf Autokorrelation erster Ordnung gepr¨ uft werden kann. Testen Sie, ob von positiver Autokorrelation erster Ordnung auszugehen ist (α=0,01).

36

2 Klassisches Regressionsmodell ¨ b) Uberpr¨ ufen Sie die Annahme des klassischen Regressionsmodells, dass keine Autokorrelation vorliegt, alternativ mit Hilfe des Durbin-Watson-Tests (α=0,01). c) Mit welchen Konsequenzen ist zu rechnen, falls die Autokorrelation der St¨ orterme bei einer Kleinst-Quadrate-Sch¨ atzung vernachl¨ assigt wird?

Aufgabe 67: Was ist der Unterschied zwischen einem einfachen und einem multiplen Bestimmtheitsmaß? Warum ist die Summe der einfachen Bestimmtheitsmaße u ¨blicherweise ungleich dem multiplen Bestimmtheitsmaß?

Aufgabe 68: ur das klassische Regressionsmodell fora) Wie lautet das Bestimmtheitsmaß (R2 ) f¨ mal. Geben Sie zwei Formulierungen an. F¨ uhren diese immer zum gleichen Ergebnis? Wie l¨ asst sich R2 interpretieren? b) Warum wird ein korrigiertes Bestimmtheitsmaß eingef¨ uhrt? Wird dieses Ziel erreicht? Welcher Unterschied besteht zwischen R2 und dem korrigierten Bestimmtheitsmaß? Warum werden beide Maße zur G¨ utebeurteilung eines Regressionsmodells herangezogen? c) Weshalb kann das multiple Bestimmtheitsmaß auch als einfaches Bestimmtheitsmaß interpretiert werden? d) Zeigen Sie, dass das multiple Bestimmtheitsmaß im inhomogenen klassischen Regressionsmodell nur Werte zwischen Null und Eins annehmen kann. e) Zeigen Sie auf, welcher Zusammenhang zwischen dem multiplen Bestimmtheits¨ maß (R2 ) und der Teststatistik zur Uberpr¨ ufung auf Signifikanz der Koeffizienten der echten Regressoren im inhomogenen klassischen linearen Regressionsmodell besteht.

Aufgabe 69: Zeigen Sie, dass durch Hinzunahme einer weiteren erkl¨ arenden Variablen das Bestimmtheitsmaß steigt oder konstant bleibt. Wann bleibt es konstant?

2.2 Modellbildung, Tests und G¨ utemaße

37

Aufgabe 70: Aufgrund sektoraler Daten des Deutschen Instituts f¨ ur Wirtschaftsforschung wurde folgende Beziehung lnBW S = β0 + β1 lnB + β2 lnBAV + u mit SPSS gesch¨ atzt. Dependent Variable: lnBW S Multiple R R Square Standard Error

0,85973 0,73914 0,48561

Analysis of Variance

Regression Residual F = 477,44347;

DF 2 337

Sum of Squares 225,17725 79,46986

Mean Square 112,58862 0,23582

Signif F = 0,0000

Variable lnB lnBAV Constant

B 0,312482 0,580583 -1,031747

SE B 0,044500 0,047992 0,132178

Beta 0,330936 0,570127

T 7,022 12,097 -7,806

Sig T 0,0000 0,0000 0,0000

Symbole: lnBW S - logarithmierte Bruttowertsch¨ opfung; lnB - logarithmierte Zahl der Besch¨ aftigten; lnBAV - logarithmiertes Bruttoanlageverm¨ ogen. Interpretieren Sie die vorliegenden Sch¨ atzungen und die G¨ ute des Modells. Welche wei¨ teren Uberpr¨ ufungen des Modells sollten vorgenommen werden?

Aufgabe 71: ¨ Zur Uberpr¨ ufung, ob das multiple Bestimmtheitsmaß signifikant von Null verschieden ist, sei folgender Ausschnitt einer Tabelle gegeben. Wenn das empirische R2 den entsprechenden Tabellenwert u ¨bersteigt, ist das Bestimmtheitsmaß signifikant von Null verschieden (α = 0, 05).

38

2 Klassisches Regressionsmodell Anzahl der K echten Regressoren 1 2 3 4

5 0,77 0,95 1,00 -

Stichprobenumfang 6 10 20 0,66 0,40 0,20 0,86 0,58 0,30 0,97 0,70 0,38 1,00 0,89 0,51

100 0,04 0,06 0,08 0,11

a) Welcher Zusammenhang besteht zwischen den Tabellenwerten und den Werten einer F −Verteilung? b) Was l¨ asst sich aufgrund des Tabellenausschnitts u ¨ber die systematische Entwicklung der F −Statistik sagen? Warum enth¨ alt ein Feld keinen Wert? ¨ c) Uberpr¨ ufen Sie, ob bei den folgenden Konstellationen die Hypothese, dass das Bestimmtheitsmaß (ρ2 ) den Wert Null annimmt, abzulehnen ist. Formulieren Sie zuvor eine alternative, v¨ ollig ¨ aquivalente Hypothese, wenn das Modell y = K  xk βk + u lautet. k=0

ca) cb) cc)

α = 0, 05 α = 0, 05 α = 0, 05

n=5 n = 20 n = 100

K=1 K=6 K=5

R2 = 0, 48 R2 = 0, 48 ∗ =2 Femp

Aufgabe 72: a) Was versteht man unter einem partiellen Korrelationskoeffizienten? b) Unter welchen Bedingungen gilt im Dreivariablenmodell: ba) Das multiple Bestimmtheitsmaß ist gleich der Summe der quadrierten einfachen Korrelationskoeffizienten. bb) Einfache Korrelations- und dazugeh¨ orige Regressionskoeffizienten stimmen u ¨berein.

Aufgabe 73: Bei einer Stichprobe von n = 100 f¨ ur die Bundesrepublik Deutschland wurde f¨ ur die ahrlichen Ausgaben f¨ ur Kartoffeln j¨ahrlichen Ausgaben f¨ ur Luxusartikel (x1 ) und die j¨

2.2 Modellbildung, Tests und G¨ utemaße

39

(x2 ) eine negative Korrelation von -0,7 errechnet. Unter Heranziehung der entsprechenden Jahreseinkommen (x3 ) wurde weiterhin festgestellt: rx1 x3 = 0, 3 und rx2 x3 = −0, 6 . Berechnen Sie den partiellen Korrelationskoeffizienten rx1 x2 ·x3 , das heißt, der sich bei Ausschaltung des Einflusses des Jahreseinkommens zwischen x1 und x2 ergibt.

Aufgabe 74: Unter Verwendung der gleichen Beobachtungen liegen die OLS-Sch¨ atzergebnisse eines Dreivariablenmodells vor:

yˆ = 0, 9752 − 0, 01484x1 + 0, 0116x2

R2 = 0, 0051

und eines Zweivariablenmodells yˆ ˆ = 1, 0349 − 0, 0109x1

2 ry,x = 0, 0021 1

2 vor. Ermitteln Sie α0 , α1 und ry,x der Regression 2

y = α0 + α1 x2 + u2 sowie γ0 , γ1 und rx21 ,y der Umkehrregression x1 = γ0 + γ1 y + v, orgr¨ oßen sind, die den klassischen Bedingungen gen¨ ugen. Außerwobei u2 und v St¨ dem sind folgende Ergebnisse bekannt: rx1 ,x2 = 0, 2903; y¯ = 0, 86424, d2y = 3, 9586; x ¯1 = 15, 651, d2x1 = 70, 407; x ¯2 = 10, 459, d2x2 = 96, 23.

Aufgabe 75: Aus dem klassischen Regressionsmodell y = β0 + β1 x1 + β2 x2 + u

40

2 Klassisches Regressionsmodell

wurden auf Basis von 20 Werten folgende Gr¨ oßen berechnet: r=

ry1 ry2



=

0, 3 0, 2



;R =

r11 r12 r21 r22



=

1 0, 2 0, 2 1



y¯ = 20; x ¯1 = 7; x ¯2 = 10; d2y = 10; d2x1 = 2; d2x2 = 4; βˆ1 = 2; βˆ2 = 3 a) Berechnen Sie das korrigierte multiple Bestimmtheitsmaß. b) Testen Sie, ob die Regressoren x1 und x2 zusammen einen statistisch gesicherten Einfluss auf y aus¨ uben (α=0,05). c) Bestimmen Sie bei α=0,05 das zentrale Konfidenzintervall f¨ ur die St¨ orgr¨ oßenvarianz. d) Wie lautet die OLS-Sch¨ atzung f¨ ur das absolute Glied β0 ?

Aufgabe 76: Leiten Sie den Zusammenhang zwischen allen einfachen Korrelationskoeffizienten und dem multiplen Bestimmtheitsmaß eines klassischen linearen Regressionsmodells ab.

Aufgabe 77: atzt worden: Auf Basis standardisierter Variablen (xs ) seien folgende Beziehungen gesch¨ C s = 0, 99013 · Yvs s C s = 0, 97015 · PBSP s Yvs = 0, 93877 · PBSP , ugbares Einkommen, PBSP - Preisindex f¨ ur das wobei C - privater Konsum, Yv - verf¨ Bruttosozialprodukt. Was versteht man unter standardisierten Variablen? Was ist der Vor- und was der Nachteil der Verwendung standardisierter Variablen gegen¨ uber nichtstandardisierter Variablen? Ermitteln Sie das multiple Bestimmtheitsmaß und die Regressionskoeffizienten der Regressionsbeziehung s +u C s = βos + β1s · Yvs + β2s · PBSP

2.2 Modellbildung, Tests und G¨ utemaße

41

auf Basis der vorliegenden obigen Sch¨ atzergebnisse.

Aufgabe 78: Worin sehen Sie Probleme, ¨ okonometrische Sch¨ atzergebnisse anhand theoretischer ¨ okonomischer Plausibilit¨ atstests zu u ufen? Wie l¨ asst sich statistisch u ufen, ob ¨berpr¨ ¨berpr¨ ein Modell korrekt spezifiziert ist?

Aufgabe 79: Was versteht man unter einer Sensitivit¨ atsanalyse im Sinne von Leamer? Welche Schritte sind durchzuf¨ uhren? Welche Schlussfolgerungen lassen sich aus einer solchen Analyse ziehen?

Aufgabe 80: Aufgrund einer Studentenbefragung (N=60) wurden OLS-Sch¨ atzungen f¨ ur drei Modelle (1)-(3), jeweils mit der Statistik-2-Note (STAT2) als endogene Variable, durchgef¨ uhrt.

EXOGENE VARIABLEN ↓ STATISTIK-1-NOTE VWL-VERTIEFER SEX(=0 Frau;=1 Mann) ALTER ABITURNOTE PC-NUTZUNG in Std. (nicht zum Studium) KONSTANTE R2 u ˆ u ˆ ST AT 2(1)  ST AT 2(2) ST AT 2(3) · ST AT 2(3)

(1) β 0,8039 -1,3644

1,6080 0,30 237,6 0,5343

(t-Wert) (1,47) (-2,04)

(2,98)

(2) β

(t-Wert)

-0,0702 -0,0956 0,2238

(-2,37) (-1,88) (1,23)

3,5167 0,15 285,2

(4,24)

0,9564

(4,14)

(3) β 0,8217 -1,8058 -0,0637

(t-Wert) (4,48) (-2,90) (-2,78)

0,1348

(3,15)

1,3292 0,43 190,9

(2,25)

0,0289

(0,32)

(1,76)

42

2 Klassisches Regressionsmodell

Die Werte in den letzten drei Zeilen der Tabelle wurden ermittelt durch erneute Sch¨ atzung der Modelle (1)-(3) wie oben, jeweils erg¨ anzt um eine k¨ unstliche Variable, wobei die k¨ unstlichen Variablen (KV) Ergebnisse der ersten Sch¨ atzungen sind. Die Indizes (.) geben an, aus welchem Modell die KV entstammen. Entscheiden Sie anhand von Tests, ob eines der drei Modelle aus statistisch-¨ okonometrischer Sicht zu akzeptieren ist (α = 0, 01).

Aufgabe 81: a) Zeigen Sie, welche Auswirkungen das Unterdr¨ ucken der Regressoren X1 im linearen Modell y = X1 β1 + X2 β2 + u. hat. Gibt es Situationen, in denen die Vernachl¨ assigung von X1 keine Auswirkungen auf die Sch¨ atzung der Koeffizienten β2 hat? b) Angenommen, es werden im linearen Modell y = X1 β1 + X2 β2 + u ba) anstelle von X1 falsche Regressoren bb) neben X1 und X2 zus¨ atzlich irrelevante Regressoren bc) neben X1 und X2 zus¨ atzlich u ussige Regressoren ¨berfl¨ aufgenommen. Wie wirkt sich dies auf die Sch¨ atzung von β2 aus? c) Beschreiben Sie die Ihnen bekannten Auswahlverfahren zur Bestimmung einer geeigneten Spezifikation eines linearen Regressionsmodells aus einer bekannten Menge an Variablen. Wie sind diese Verfahren zu beurteilen?

Aufgabe 82: Es soll ermittelt werden, warum die durchschnittliche Wohnfl¨ ache pro Einwohner (WF) zwischen den Bundesl¨ andern in Deutschland variiert. Folgende Einflussgr¨ oßen werden vermutet:

2.2 Modellbildung, Tests und G¨ utemaße Y ALQ AA ZWG M S ABL

-

43

Bruttoinlandsprodukt pro Kopf der Bev¨ olkerung Arbeitslosenquote Ausl¨ anderanteil Zahl der Wohngeb¨ aude pro Einwohner Miete pro qm Stadtstaat(S=1) oder Fl¨ achenstaat (S=0) altes (ABL=1) oder neues Bundesland (ABL=0)

a) Ermitteln Sie die Daten dieser Variablen f¨ ur die 16 Bundesl¨ ander. Verwenden Sie die aktuellsten Angaben, die verf¨ ugbar sind. Legen Sie eine Datei an. Welche inhaltlichen Begr¨ undungen lassen sich f¨ ur die angegebenen Einflussgr¨ oßen geben? b) Ermitteln Sie die Regressionskoeffizienten und das multiple Bestimmtheitsmaß f¨ ur das lineare Modell WF in Abh¨ angigkeit von Y, ALQ, AA, ZWG, M, S und ABL mit Hilfe eines Programmpakets. c) Wie groß sind die BETA-Koeffizienten? d) Es wird argumentiert, Einkommen pro Einwohner und Arbeitslosenquote liefern Begr¨ undungen, warum die Wohnfl¨ ache pro Einwohner zwischen den Bundesl¨andern schwankt, die sich beide letztlich auf das Wohlstandsniveau zur¨ uckf¨ uhren lassen. Einer der beiden Regressoren sollte daher unber¨ ucksichtigt bleiben. F¨ uhren Sie die Sch¨ atzungen unter b) zum einen ohne ALQ und zum anderen ohne Y durch. Halten Sie das Argument aus theoretischer und empirischer Sicht f¨ ur gerechtfertigt? e) Kritisieren Sie das gesch¨ atzte Modell aus theoretischer und statistischer Sicht. Sch¨ atzen Sie das Ihrer Meinung nach beste Modell. f) Anstelle von WF soll die gesamte Wohnfl¨ ache (W) eines Bundeslandes als endogene Variable herangezogen und die Bev¨ olkerungszahl (B) als weiterer Regressor aufgenommen werden. F¨ uhren Sie die Sch¨ atzung durch. Was halten Sie von diesem Vorschlag?

44

2 Klassisches Regressionsmodell

2.3

Wirtschaftspolitische Effekte und Prognosen

Aufgabe 83: a) Welche Probleme tauchen bei der empirischen Bestimmung wirtschaftspolitischer Effekte auf? b) Angenommen, es soll untersucht werden, wie sich eine Mehrwertsteuererh¨ ohung auf den Konsum auswirkt. Formulieren Sie ein einfaches lineares Regressionsmodell, um diesen Effekt zu erfassen. Welche Probleme ergeben sich bei Verwendung des von Ihnen verwendeten Modells, den kausalen Effekt zu bestimmen? Diskutieren Sie Alternativen.

Aufgabe 84: Inwiefern unterscheiden sich Ex-post- und Ex-ante-Prognosen?

Aufgabe 85: Was versteht man unter einer Tendenzanalyse bei Prognosen?

Aufgabe 86: Diskutieren Sie Maße zur Beurteilung der Prognoseg¨ ute ¨ okonometrischer Modelle.

Aufgabe 87: Gegeben seien 10 Jahreswerte der Zufallsvariablen X und Y (gespeichert in Datei: Auf gabe87.dta):

2.3 Wirtschaftspolitische Effekte und Prognosen x y

9 2

21 5

18 3

23 5

25 6

10 2

45 15 3

18 4

22 5

20 4

a) Das Scatter-Diagramm ist zu zeichnen. b) Es sind die Koeffizienten a und b des linearen Modells y = a + bx + u zu sch¨ atzen. c) Wie lauten die Konfidenzintervalle f¨ ur a und b bei α = 0, 05? d) Wie lautet das Konfidenzintervall f¨ ur σ 2 bei α = 0, 05? e) Wie lautet das Bestimmtheitsmaß? f) Angenommen, es stehen noch f¨ unf weitere Jahreswerte zur Verf¨ ugung: x y

22 6

24 7

25 7

27 8

30 9

fa) F¨ uhren Sie einen Test auf Ho : σ12 = σ22 bei α = 0, 10 durch, wobei σ12 die St¨ orgr¨ oßenvarianz aus der Regression y = a + bx + u der ersten 10 Werte und unf neuen Jahreswerte ist. σ22 der entsprechende Wert der f¨ fb) L¨ asst sich ein Strukturbruch zwischen dem ersten Zeitraum (t = 1, ..., 10) und dem zweiten Zeitraum (t = 11, ..., 15) bei α = 0, 05 feststellen? g) Angenommen, es wird ein weiterer Regressor (z) dem linearen Modell hinzugef¨ ugt. F¨ ur den Zeitraum t = 1, ..., 10 seien daf¨ ur folgende Werte gegeben: z: 6, 3, 9, 4, 3, 7, 8, 5, 4, 7. 2 2 und ryz.x ? ga) Wie lauten die partiellen Bestimmtheitsmaße ryx.z

gb) Wie lautet das totale Bestimmtheitsmaß? gc) Wie lauten die gesch¨ atzten Koeffizienten b1 und b2 des linearen Modells y = b0 + b1 x + b2 z + u?

Aufgabe 88: F¨ ur die Bundesrepublik Deutschland wurden in den Jahren 1964 - 1989 die Werte f¨ ur den Kaffeeimport (x) und die Importpreise (p) f¨ ur Kaffee registriert (Datei: Auf gabe88.dta)

a) Sch¨ atzen Sie die Parameter a und b f¨ ur die Kaffeeimportfunktion x = a + bp + u.

46

2 Klassisches Regressionsmodell b) Ermitteln Sie die Konfidenzintervalle f¨ ur a und b (α = 0.05) sowie den Korrelationskoeffizienten. c) F¨ ur die Jahre 1990 - 1992 lagen die durchschnittlichen Kaffeeimportpreise je 100 kg bei 376,10 DM; 412,30 DM bzw. 373,80 DM. Welche Nachfragemengen h¨ atten sich f¨ ur diese Jahre ergeben m¨ ussen, wenn die auf der Basis der Daten 1964 - 1989 ermittelte Kaffeeimportfunktion auch G¨ ultigkeit f¨ ur die Jahre 1990 - 1992 gehabt h¨ atte? ¨ d) Uberdeckt bei α = 0, 05 das Prognosekonfidenzintervall f¨ ur 1992 den wahren Wert an Kaffeeimport in H¨ ohe von 806200 t, wenn die Sch¨ atzungen aus b) verwendet werden? e) Wie ist die Ex-ante-Prognoseg¨ ute des gesch¨ atzten Modells f¨ ur die Jahre 1990 1992 im Vergleich zur Ex-post-Prognoseg¨ ute der Jahre 1987 - 1989 zu beurteilen, wenn man die realisierten Kaffeeimportmengen in t von 1990 - 1992 heranzieht: 771500; 777300 und 806200? f) Pr¨ ufen Sie, ob 1976 ein statistisch signifikanter Strukturbruch vorliegt fa) f¨ ur die Regressionsparameter (α = 0, 05); fb) f¨ ur die St¨ orgr¨ oßenvarianz (α = 0, 10). Wie sind Strukturbr¨ uche gegebenenfalls inhaltlich zu begr¨ unden? g) Kritisieren Sie den obigen Modellansatz f¨ ur eine Kaffeeimportfunktion.

2.4 L¨ osungen

2.4

47

L¨osungen

L¨osung zu Aufgabe 16: Das klassische Regressionsmodell yi = β0 + β1 x1i + ... + βK xKi + ui

i = 1, ..., n

basiert auf folgenden Annahmen: i) Die St¨ orgr¨ oßen sind normalverteilt ui ∼ N (·). Diese Annahme ist verletzt, wenn in den St¨ orgr¨ oßen systematische Einfl¨ usse enthalten sind, die dazu f¨ uhren k¨ onnen, dass die ui einer anderen Verteilung als der Normalverteilung folgen. ii) Die St¨ orgr¨ oßen haben einen Erwartungswert von Null (E(ui ) = 0) f¨ ur alle i=1,...,n. Zur Verletzung dieser Annahme kann es kommen, wenn eine relevante Variable im Regressionsmodell nicht ber¨ ucksichtigt wird. Angenommen, der Lohn w einer Person h¨ angt von ihrer Ausbildung (S, gemessen in Schuljahren) und dem Geschlecht (SEX) ab. Angebracht w¨ are das Modell w = β0 + β1 S + β2 SEX + u,

(1)

wobei E(u) = 0 gilt. Wenn jedoch die Variable SEX nicht ber¨ ucksichtigt wird und statt (1) folgendes Modell w = β˜0 + β˜1 S + ε

(2)

gesch¨atzt wird, ¨ andert sich der Erwartungswert des St¨ orterms. Der Erwartungswert des St¨ orterms im Modell (2) lautet E(ε) = E(β2 SEX + u) = β2 E(SEX) + E(u) = 0. iii) Die Varianz aller St¨ orgr¨ oßen ist gleich V (ui ) = σ 2

f¨ ur alle

i = 1, ..., n.

Die Verletzung dieser Annahme wird als Heteroskedastie bezeichnet. Es ist z.B. denkbar, dass die Streuung der St¨ orgr¨ oßen beim Einkommen bei Selbstst¨ andigen und Beamten voneinander abweicht. Wenn eine Person mit gegebenen Eigenschaften als Selbstst¨ andiger eine gr¨ oßere Variation beim Einkommen zu erwarten hat als ein ansonsten gleicher Beamter, w¨ urde es bei einer gemeinsamen Betrachtung dieser beiden Gruppen zu heteroskedastischen St¨ ortermen kommen.

48

2 Klassisches Regressionsmodell

iv) Die St¨ orgr¨ oßen sind untereinander unkorreliert. Es gilt E(ui us ) = 0

f¨ ur alle

i = s.

Die Verletzung dieser Annahme wird als Autokorrelation bezeichnet. Bei Autokorrelation h¨ angen die St¨ orgr¨ oßen eines Beobachtungstr¨ agers von den St¨ orgr¨ oßen anderer Beobachtungstr¨ ager ab. Dies ist vor allem bei zeitlich aufeinander folgenden Beobachtungen der Fall. Der Kurs einer Aktie kann von bestimmten Nachrichten positiv oder negativ beeinflusst werden. Wenn dieser Einfluss in den folgenden Perioden bestehen bleibt und diese Nachrichten nicht durch Regressoren erfasst werden k¨ onnen, ergeben sich autokorrelierte St¨ orterme. v) Die Regressoren sind unabh¨ angig von den St¨ orgr¨ oßen. Daraus folgt E(xi ui ) = 0. Die Endogenit¨ at der Variablen x f¨ uhrt z.B. zur Verletzung dieser Annahme. Die Lebenszufriedenheit eines Menschen Z (gemessen auf einer Skala von 1 bis 10) kann von der Anzahl der Stunden abh¨ angen, die die Person t¨ aglich fernsieht (T V ) Z = β0 + β1 T V + u.

(3)

Wenn gleichzeitig argumentiert wird, dass Personen mit geringerer Lebenszufriedenheit mehr fernsehen, ergibt sich ein weiteres Modell T V = α0 + α1 Z + ν.

(4)

Wird (3) in (4) eingesetzt, ergibt sich T V = α0 + α1 (β0 + β1 T V + u) + ν TV =

α0 + α1 β0 α1 1 1 + u+ ν = γ0 + γ1 u + ν. 1 − α 1 β1 1 − α1 β1 1 − α1 β1 1 − α1 β1

Auch dann, wenn ν und u nicht korreliert sind, besteht eine von Null verschiedene Korrelation zwischen T V und u 1 Cov[T V, u] = Cov[(γ0 + γ1 u + ν), u] 1 − α1 β1 = E(γ0 u + γ1 u2 +

1 1 νu) − E(γ0 + γ1 u + ν) · E(u)  1 − α1 β1 1 − α1 β1 =0

1 = γ0 E(u) +γ1 E(u2 ) + · E(νu)  1 − α1 β1  = 0, falls ν und u unabh¨ angig

=0

= γ1 E(u ) = 0. 2

In diesem Fall ist in (3) die Annahme E(T V, u) = 0 verletzt.

2.4 L¨ osungen

49

Das klassische Regressionsmodell besitzt seine Bedeutung auch dann, wenn einige Annahmen nicht erf¨ ullt sind. Es dient als Referenzmodell f¨ ur Sch¨ atzungen, die auf anderen Annahmen oder anderen Spezifikationen basieren. Ein Vergleich mit dem Referenzmodell erm¨ oglicht die Entscheidung, welches Modell letztendlich zu verwenden ist. Die Annahme E(u) = 0 l¨ asst sich wegen der Unbeobachtbarkeit der St¨ orgr¨ oßen ui ¨ nicht explizit nachpr¨ ufen. Der Versuch, f¨ ur die Uberpr¨ ufung der Annahme Residuen u ˆi statt der wahren St¨ orgr¨ oßen ui zu verwenden, schl¨ agt fehl. Der Grund daf¨ ur ist, dass bei ur die Residuen immer  der Sch¨atzung nach der Methode der kleinsten Quadrate f¨ u ˆi = 0 gilt. ¨ Eine M¨oglichkeit der Uberpr¨ ufung besteht darin, die Stichprobe in s = 1, ..., S Teile zu zerlegen (z.B. nach der Gr¨ oße der Residuen) und innerhalb der Teilstichproben zu pr¨ ufen, ob die Summe der Residuen oder ihr Durchschnitt gleich Null ist. Falls E(u) = 0 ¯ gilt, muss auch in allen Teilstichproben u ˆs = 0 gelten.

L¨ osung zu Aufgabe 17: Das Ziel der Methode der kleinsten Quadrate ist die Bestimmung von β0 , β1 , ..., βK , d.h. der Sch¨ atzwerte im linearen Modell y = β0 + β1 x1 + ... + βK xK + u. Das Prinzip der Sch¨ atzung wird anhand des Zweivariablenmodells y = a + bx + u veratzwerte a ˆ und ˆb f¨ ur die unanschaulicht. Aus den n Wertepaaren (yi ; xi ) sollen die Sch¨ bekannten Parameter a und b bestimmt werden. Dabei sollen die Wertepaare m¨ oglichst genau durch die resultierende gesch¨ atzte lineare Beziehung yˆ = a ˆ +ˆbx angepasst werden. Die Abweichungen der Beobachtungen von der gesch¨ atzten Geraden, gemessen durch oglichst klein sein. Bei der Methode der kleinsten Quadrate werden die yi − yˆi , sollen m¨ Quadrate der vertikalen Abst¨ ande zwischen allen Beobachtungspunkten (yi ) und der Sch¨ atzgeraden (ˆ y ) ermittelt. Als Sch¨ atzgerade yˆ = a ˆ + ˆbx wird die Gerade ausgew¨ ahlt, f¨ u r die die Summe der Quadrate der vertikalen Abst¨ ande zu den Beobachtungspunkten ( (yi − yˆi )2 ) minimal ist.

Graphische Darstellung - Abb. 2.1: Gegeben seien zwei Punkte A und B. Sie entsprechen zwei Beobachtungspaaren (x1 ; y1 ) atzgeraden entspricht dem und (x2 ; y2 ). Der vertikale Abstand von Punkt A zu der Sch¨ ˆ + ˆbx1 ). Somit ist die L¨ ange Abschnitt AC. Die Koordinaten von Punkt C lauten (x1 ; a a + ˆbx1 ). Der vertikale Abstand von Punkt des Abschnitts AC gleich y1 − yˆ1 = y1 − (ˆ A zu der Sch¨ atzgeraden wird als Residuum (ˆ u) bezeichnet: u ˆ1 = y1 − yˆ1 . Das Quadrat des vertikalen Abschnitts entspricht der Fl¨ ache des Quadrates AA’C’C und ist gleich a + ˆbx1 )]2 = u ˆ21 . [y1 − (ˆ

50

2 Klassisches Regressionsmodell

Analog gilt f¨ ur das Quadrat des vertikalen Abstands von Punkt B zu der Sch¨ atzgeraden (Abschnitt BD) a + ˆbx2 )]2 = u ˆ22 . (y2 − yˆ2 )2 = [y2 − (ˆ ache des Quadrates DD’B’B. Aus allen m¨ oglichen Geraden yˆ = a ˆ +ˆbx u ˆ22 entspricht der Fl¨ wird nun diejenige Gerade ausgew¨ ahlt, f¨ ur die die Summe der Fl¨ achen der Quadrate AA’C’C und DD’B’B am geringsten ist. Formal entspricht das der Minimierung von u21 + u22 . Bei n Beobachtungen lautet die Zielfunktion  M in(u21 + ... + u2n ) = M in u2i . 







































 

















Abb. 2.1: Methode der kleinsten Quadrate

L¨ osung zu Aufgabe 18: Im Zweivariablenfall y = b0 + b1 x + u gilt ⎛ ⎞ 1 x1 ⎜ ⎟ X = ⎝ ... ... ⎠ 1 xn







2.4 L¨ osungen

51

und  βˆ =

ˆb0 ˆb1

 = (X  X)−1 X  y

⎡ ⎞⎤−1 ⎛ ⎛ ⎞

1 x1

y1 1 ... 1 ⎜ . ⎟ ⎢ 1 . . . 1 ⎜ .. .. ⎟⎥ . =⎣ x1 . . . xn ⎝ . . ⎠⎦ x1 . . . xn ⎝ . ⎠ 1 xn yn

 −1  y n x  i =   2i xi xi xi yi

βˆ = = =

=

=

=

=

 2

  yi xi − xi  n n x2i − xi · xi − xi xi yi



¯ 2 1 n · y¯ x nx −n¯ x n n · xy ¯ n2 x¯2 − n2 x ¯2 −n¯



¯ 2 y¯ 1 x x −¯ x 1 xy ¯ x¯2 − x ¯2 −¯ ⎞ ⎛ ¯2 ¯ · xy ¯ x y¯ − x ⎟ ⎜ x¯2 − x 2 ¯ ⎟ ⎜ ⎝ xy ¯ −x ¯y¯ ⎠ x¯2 − x ¯2 ⎞ ⎛ ¯2 x y¯ − x ¯2 y¯ + x ¯2 y¯ − x ¯xy ¯ ⎟ ⎜ x¯2 − x ¯2 ⎟ ⎜ ⎠ ⎝ xy ¯ −x ¯y¯ ¯ 2 2 x −x ¯ ⎛ ⎞ x ¯ · (xy ¯ −x ¯ · y¯) ⎜ y¯ − ⎟ x¯2 − x ¯2 ⎜ ⎟ ⎝ ⎠ xy ¯ −x ¯y¯ ¯ 2 2 x −x ¯   ˆ y¯ − x ¯b1 . ˆb1 

1 



L¨osung zu Aufgabe 19: a) ˆ  X  X(β − β) ˆ y  y − y  X(X  X)−1 X  y + (β − β)

52

2 Klassisches Regressionsmodell = y  y − y  X(X  X)−1 X  y + β  X  Xβ − β  X  X βˆ − βˆ X  Xβ + βˆ X  X βˆ = y  y − y  X(X  X)−1 X  y + β  X  Xβ − β  X  X(X  X)−1 X  y− −y  X(X  X)−1 X  Xβ + y  X(X  X)−1 X  X(X  X)−1 X  y Wegen [(X  X)−1 ] = (X  X)−1 gilt weiter y  y − y  X(X  X)−1 X  y + β  X  Xβ − β  X  y − y  Xβ + y  X(X  X)−1 X  y = y  y − y  Xβ − β  X  y + β  X  Xβ = y  (y − Xβ) − β  X  (y − Xβ) = (y  − β  X  )(y − Xβ) = (y − Xβ) (y − Xβ) = u u b) y  y − βˆ X  y = y  y − y  X(X  X)−1 X  y = y  y − y  X(X  X)−1 X  X(X  X)−1 X  y   



yˆ 

yˆ 

= y y − yˆ yˆ = y y − yˆ yˆ + yˆ yˆ − yˆ yˆ

Wegen yˆ y = y  yˆ und yˆ y = yˆ yˆ folgt y  y − βˆ X  y = = = =

y  y − yˆ y − yˆ y + yˆ yˆ y  y − y  yˆ + yˆ y − yˆ yˆ (y − yˆ) (y − yˆ) ˆ u ˆ u

c) ˆ = X u = = = =

X  (y − yˆ) X  y − X  yˆ X  y − X  X(X  X)−1 X  y X y − X y 0



2.4 L¨ osungen

53

d) u ˆ X (X  X)−1 X  y = 0 u ˆ yˆ =  =0

e) P ist definiert als P = I − X(X  X)−1 X  . ⇒ X P = = = =

X  (I − X(X  X)−1 X  ) X  − X  X(X  X)−1 X  X − X 0

f) C ist definiert als C = X(X  X)−1 X  Cu ˆ = X(X  X)−1  X u ˆ=0 =0

P yˆ = (I − X(X  X)−1 X  )(y − u ˆ)  −1  X u ˆ = y−u ˆ − X(X X) X y + X(X  X)−1  =0

= y−u ˆ − X(X  X)−1 X  y   yˆ



=0 g) y+u ˆ) = yˆ yˆ + yˆ y = yˆ (ˆ

yˆ u ˆ 

= yˆ yˆ

=0 (vgl. d))

h) u ˆ = = = = = =

y − yˆ = y − X βˆ = y − X(X  X)−1 X  y (I − X(X  X)−1 X  )y = P y = P (Xβ + u) (I − X(X  X)−1 X  )(Xβ + u) Xβ + u − X(X  X)−1 X  Xβ − X(X  X)−1 X  u Xβ − Xβ + u − X(X  X)−1 X  u (I − X(X  X)−1 X  )u = P u

54

2 Klassisches Regressionsmodell i) Pu ˆ = (I − X(X  X)−1 X  )ˆ u=u ˆ − X(X  X)−1  X u ˆ=u ˆ =0

L¨ osung zu Aufgabe 20: a) Aus X  u ˆ = X  P u = X  (I − X(X  X)−1 X  ) = 0 folgt wegen ⎞ ⎛ 1 ... 1 ⎜ x11 . . . x1n ⎟ ⎟ ⎜ X = ⎜ . .. ⎟ ⎝ .. . ⎠ xK1 . . . xKn direkt f¨ ur das innere Produkt der ersten Zeile von X  unud u ˆ ⎛ ⎞ u ˆ1 n ⎜ .. ⎟   ι ·u ˆ = (1 . . . 1) ⎝ . ⎠ = u ˆi = 0 u ˆ1

i=1

b) ι yˆ = ι (y − u ˆ) = ι y −  ι u ˆ = ι y =0

c) y¯ =

1  1 1 1  1 y+u ˆ) = ι yˆ +  ˆ = ι yˆ = y¯ ˆ ι y = ι (ˆ ιu n n n n n =0

L¨ osung zu Aufgabe 21: Es handelt sich um einen Spezialfall des partitionierten linearen Modells y = X1 β˜1 + X2 β˜2 + u mit X1 = (1, ..., 1) ∼ 1 × n, X2 ∼ n × K, β˜1 = β0 und β˜2 = (β1 , ..., βK ). Die Minimierung der Summe der quadrierten St¨ orgr¨ oßen u u = y  y − 2y  X1 β˜1 − 2y  X2 β˜2 + β˜1 X1 X1 β˜1 + 2β˜2 X2 X1 β˜1 + β˜2 X2 X2 β˜2

2.4 L¨ osungen

55

nach β0 ergibt ∂u u ˆ ˆ = −2X1 y + 2X1 X1 β˜1 + 2(β˜2 X2 X1 ) = 0. ∂β0 Daraus folgt die Normalgleichung ˆ ˆ X1 y = X1 X1 β˜1 + X1 X2 β˜2 .

(1)

Analog f¨ uhrt die Minimierung von u u nach β˜2 zu der zweiten Normalgleichung ˆ ˆ X2 y = X2 X2 β˜2 + X2 X1 β˜1 .

(2)

Wird (2) mit X1 X2 (X2 X2 )−1 pr¨ amultipliziert und von (1) abgezogen, ergibt sich nach einigen Umformungen ˆ X1 (I − X2 (X2 X2 )−1 X2 )y = X1 (I − X2 (X2 X2 )−1 X2 )X1 β˜1 . Daraus folgt unmittelbar  ˆ βˆ0 = β˜1 = (X1 P2 X1 )−1 X1 P2 y = y¯ − ¯k βˆk x K

k=1

mit P2 = I − X2 (X2 X2 )−1 X2 .

L¨osung zu Aufgabe 22: Das betrachtete Modell lautet yi = β0 + ui . n  Es gilt: βˆ0 = (ι ι)−1 ι y = n−1 yi = y¯ i=1

1 u ˆ u ˆ n−1 n 1 1  1 (y − yˆ) (y − yˆ) = (y − βˆ0 ) (y − βˆ0 ) = (yi − y¯)2 . = n−1 n−1 n − 1 i=1

σ ˆ2 =

56

2 Klassisches Regressionsmodell

L¨ osung zu Aufgabe 23: Ausgegangen wird von folgendem Modell y = β0 + β1 x1 + ... + βK xK + u. Interpretation der Sch¨ atzung von β1 : andert, wenn sich x1 um eine βˆ1 gibt an, um wieviele Einheiten sich y im Durchschnitt ¨ Einheit ver¨ andert. Dabei wird davon ausgegangen, dass sich die restlichen unabh¨ angiandern. Anders ausgedr¨ uckt, βˆ1 gibt die gesch¨ atzte gen Variablen (x2 , ..., xK ) nicht ¨ ¨ ¨ durchschnittliche Anderung von y bei einer Anderung von x1 um eine Einheit unter Konstanthaltung von x2 , ..., xK an. atzter marginaler Effekt der In einem linearen Regressionsmodell kann βˆ1 auch als gesch¨ ¨ uglich der Variablen y interpretiert werden Anderung der Variablen x1 bez¨ ∂ yˆ . βˆ1 = ∂x1 Bei der Interpretation von βˆ1 wird angenommen, dass sich alle anderen Regressoren nicht a¨ndern. Oft wird die Konstanthaltung der anderen Regressoren als Kontrolle ” f¨ ur“ diese Regressoren bezeichnet. Die Interpretation von βˆ1 macht deutlich, dass das Messniveau des betrachteten Regressors eine wichtige Rolle spielt. Die Gr¨ oße von β1 h¨angt von den Dimensionen der Variablen y und x1 ab. Wenn es sich z.B. bei x1 um eine Variable handelt, die in Jahren gemessen wird, und y eine Variable ist, die in Euro atzt, um wieviel Euro sich y ¨ andert, wenn x1 sich gemessen wird, wird durch βˆ1 gesch¨ urde sich ¨ andern, wenn die Messung zum ein Jahr ver¨ andert. Der Sch¨ atzwert von βˆ1 w¨ von x1 statt in Jahren in Monaten oder Tagen erfolgte.

L¨osung zu Aufgabe 24: Bei Dummy-Variablen handelt es sich um Variablen, die zwischen zwei sich ausschließenden Zust¨ anden unterscheiden. Dabei kann das Merkmal, das die Grundlage der DummyVariablen bildet, sowohl kardinal als auch ordinal oder nominal sein. Bei dem Merkmal “Einkommen“ ist es m¨ oglich, dass zwischen Einkommen bis unter 2000 EUR und Einkommen von mindestens 2000 EUR unterschieden wird. Bei dem Merkmal “Farbe“ kann z.B. unterschieden werden, ob ein Auto schwarz ist oder nicht. ¨ Ublicherweise werden Dummy-Variablen mit den Werten 1 und 0 kodiert. Jeder der beiden Zust¨ ande erh¨ alt einen Wert. Dabei spielt es keine Rolle, welcher Wert f¨ ur welchen Zustand vergeben wird. Einerseits ist es m¨ oglich, dass die Dummy-Variable “Farbe“ den Wert 1 erh¨ alt, wenn das betrachtete Auto schwarz lackiert ist, und den Wert Null, wenn die Farbe des Autos nicht schwarz ist. Andererseits kann f¨ ur die Farbe “schwarz“ der Wert 0 und f¨ ur die Farbe “nicht schwarz“ der Wert 1 vergeben werden. Qualitative Variablen besitzen ein nominales Messniveau und k¨ onnen durch Dummy-Variablen als Zufallsvariable dargestellt werden.

2.4 L¨ osungen

57

Die Vergabe der Werte muss allerdings bei der Interpretation der Koeffizientensch¨ atzung beachtet werden. Angenommen, es soll untersucht werden, ob die Zufriedenheit eines Autofahrers von der Farbe seines Autos abh¨ angt. Eine positive Koeffizientensch¨ atzung bei der ersten Kodierungsm¨ oglichkeit (1, wenn schwarz, und 0, wenn nicht schwarz) w¨ urde dann besagen, dass Fahrer schwarzer Autos zufriedener sind als die Fahrer von nicht schwarzen Fahrzeugen. Positive Koeffizientensch¨ atzung bei der zweiten Kodierungsm¨ oglichkeit (1, wenn nicht schwarz, und 0, wenn schwarz) w¨ urde entsprechend bedeuten, dass Fahrer von nicht schwarzen Fahrzeugen zufriedener sind als Fahrer schwarzer Fahrzeuge. Bei Standardisierung wird von der Variablen der Mittelwert abgezogen und diese Differenz wird durch die Wurzel aus der mittleren quadratischen Abweichung geteilt. Angenommen, bei n Beobachtungen einer Dummy-Variablen besitzen m Beobachtungen den Wert 1 und n − m Beobachtungen den Wert 0. Der Mittelwert ist dann gegeben durch m/n = p. Die mittlere quadratische Abweichung ist gegeben durch p(1 − p). Damit ergeben sich zwei m¨ ogliche Werte der standardisierten Dummy-Variablen:   ur Beobachtungen mit dem Wert 1, und (1 − p)/ p(1 − p) = 1−p p f¨ (0 − p)/



p(1 − p) =

√ − p √ 1−p

f¨ ur Beobachtungen mit dem Wert 0.

Formal gesehen, handelt es sich bei der “Dummy-Variablenfalle“ um einen Fall der perfekten Multikollinearit¨ at. Diese Situation entsteht, wenn bei zwei oder mehr aufgenommenen Dummy-Variablen eine der aufgenommenen Dummy-Variablen als Linearkombination anderer Dummy-Variablen dargestellt werden kann. Bei perfekter Multikollinearit¨ at kann die OLS-Sch¨ atzung nicht mehr durchgef¨ uhrt werden, (X  X)−1 ist singul¨ ar. Als Beispiel f¨ ur eine “Dummy-Variablenfalle“ sei eine Situation mit zwei DummyVariablen betrachtet. Die erste Dummy-Variable (variable1) erh¨ alt den Wert 1, falls das Einkommen einer Person mindestens 2000 EUR betr¨ agt und den Wert 0, falls das Einkommen unter 2000 EUR liegt. Die zweite Dummy-Variable (variable2) wird umgekehrt kodiert. Sie ist gleich 1, falls das Einkommen unter 2000 EUR liegt, und ist gleich 0, falls das Einkommen mindestens 2000 EUR betr¨ agt. Werden sowohl die variable1 als auch variable2 in ein Regressionsmodell aufgenommen, kann keine OLS-Sch¨ atzung durchgef¨ uhrt werden. Der Grund ist perfekte Kollinearit¨ at zwischen variable1 und variable2. Jede Variable kann als Linearkombination der anderen Variablen dargestellt werden: variable1 = 1 − variable2. Aus dem gleichen Grund k¨ onnen in einer Regression nicht gleichzeitig Dummy-Variablen f¨ ur Frauen und f¨ ur M¨ anner ber¨ ucksichtigt werden, solange das Modell auch ein absolutes Glied besitzt. ¨ Diese Uberlegungen besitzen auch f¨ ur die Variable “Farbe“ G¨ ultigkeit. Es sei angenommen, dass ein Auto in nur vier unterschiedlichen Farben erh¨ altlich ist. Auf Basis dieser Variablen k¨ onnen insgesamt vier Dummy-Variablen formuliert werden. So w¨ urde die erste Dummy-Variable erfassen, ob ein Auto weiß lackiert ist (weiß), die weiteren Variablen w¨ urden erfassen, ob die Farbe eines Autos rot, blau oder schwarz ist (Variablen: rot, blau, schwarz). Es ist nicht m¨oglich, alle vier Dummy-Variablen in einer

58

2 Klassisches Regressionsmodell

inhomogenen Regression aufzunehmen. Andernfalls w¨ aren die aufgenommenen Variablen perfekt kollinear oder anders ausgedr¨ uckt, die Designmatrix X h¨ atte nicht den vollen Rang. Wenn bei einer bestimmten Beobachtung Informationen zu drei beliebigen Dummy-Variablen bekannt sind, dann ist der Wert der vierten Dummy-Variablen eindeutig festgelegt. Wenn z.B. ein Auto weder weiß, noch rot und noch blau ist (also die ersten drei Dummy-Variablen den Wert Null besitzen), dann muss es sich um schwarzes Auto handeln (die vierte Dummy-Variable hat den Wert 1). Formal gesehen muss f¨ ur jede Beobachtung folgender Zusammenhang erf¨ ullt sein: weiß+rot+blau+schwarz=1. Wenn drei beliebige Dummy-Variablen in der Regression aufgenommen werden, ist die Information der vierten Dummy-Variablen u ussig. Bei der Interpretation der Er¨berfl¨ gebnisse muss ber¨ ucksichtigt werden, welche Dummy-Variable nicht in die Regression aufgenommen wurde. Die Interpretation der Koeffizientensch¨ atzungen der aufgenommenen Dummy-Variablen stellt darauf ab, den Unterschied zu der ausgeschlossenen Dummy-Variablen anzugeben. Statt eine der vier Dummy-Variablen zu unterdr¨ ucken, kann auch eine homogene Regression gesch¨ atzt werden.

L¨osung zu Aufgabe 25: Ein BETA-Koeffizient ist ein dimensionsloser, d.h. ein skalenunabh¨ angiger Regressionskoeffizient. Im Unterschied zu normalen Regressionskoeffizienten, die vom Messniveau der exogenen und endogenen Variablen abh¨ angen, erm¨ oglichen BETA-Koeffizienten einen Vergleich der Wirksamkeit einzelner Regressoren auf den Regressanden. Der Nachteil der BETA-Koeffizienten ist, dass sie die Ber¨ ucksichtigung des absoluten Glieds in der Regression nicht mehr zulassen. In einem Zweivariablenmodell y = a + bx + u besteht ein eindeutiger Zusammenhang zwischen dem BETA-Koeffizienten und dem Bestimmtheitsmaß. Der BETA-Koeffizient und der Korrelationskoeffizient zwischen y und x stimmen u ¨berein. Es gilt ˆb = dxy d2x

dx ˆ dx dxy dxy und ˆbBET A = · = = r. b= dy dy d2x dy dx

Somit folgt auch 2 ˆb2 BET A = r .

Die Ermittlung von BETA-Koeffizienten kann in STATA direkt durch den folgenden Befehl vorgenommen werden regress y x1 ... xK , beta Eine andere M¨ oglichkeit zur Ermittlung von BETA-Koeffizienten besteht in der Standardisierung der endogenen und exogenen Variablen ys =

y − y¯ dy

;

xsk =

¯k xk − x . dx k

2.4 L¨ osungen

59

Die lineare Regression mit y s als endogene und xsk als exogene Variablen f¨ uhrt zu BETAKoeffizienten. Falls im Datensatz fehlende Werte enthalten sind, kann es dazu kommen, dass die beiden beschriebenen Wege zu unterschiedlichen Ergebnissen f¨ uhren. Der Grund daf¨ ur ist, dass die Standardisierung der Variablen bei den Verfahren voneinander abweicht. Bei dem STATA-Befehl regress y x1 ... xK , beta werden in die Standardisierung nur Beobachtungen einbezogen, die auch bei der Regression ber¨ ucksichtigt werden. Diese Beobachtungen haben bei keiner der ber¨ ucksichtigten Variablen einen fehlenden Wert. Bei dem zweiten Verfahren werden alle Beobachtungen einer Variable ber¨ ucksichtigt, die bei dieser Variablen keine fehlenden Werte aufweisen. Dadurch kann es dazu kommen, dass unterschiedliche Werte von y¯ bzw. x ¯k und dy bzw. dxk verwendet werden. Um diese Differenz zu vermeiden, m¨ usste beim zweiten Verfahren f¨ ur die Berechnung der deskriptiven Statistiken eine Restriktion auferlegt werden, die sicher stellt, dass nur die Beobachtungen in die Berechnung eingehen, die auch bei der OLS-Sch¨atzung Verwendung finden. Im multiplen linearen Modell sind der Regressionskoeffizient, der BETA-Koeffizient und der t-Wert eines Regressors xk gleich, wenn die Standardabweichung dieses Regressors der Standardabweichung der endogenen Variable entspricht (sxk = sy bzw. dxk = dy ) und der Standardfehler der Koeffizientensch¨atzung gleich Eins ist (ˆ σβˆk = 1).

L¨ osung zu Aufgabe 26: a) Von einem signifikanten Einfluss einer Variable xk spricht man, wenn die zugeh¨ orige Nullhypothese H0 : βk = 0 abgelehnt wird und aus diesem Grund anzunehmen ist, dass die exogene Variable xk die endogene Variable y beeinflusst. Die Ablehnung der Nullhypothese H0 : βk = 0 ist immer mit einem gewissen Grad an Unsicherheit verbunden. Es kann z.B. vorkommen, dass man sich gegen H0 : βk = 0 entscheidet, obwohl in Wirklichkeit H0 : βk = 0 gilt. Die Wahrscheinlichkeit eines solchen Fehlers wird durch α angegeben. Der Fehler wird als Fehler 1.Art oder α-Fehler bezeichnet. Statistische Signifikanz l¨ asst sich u oße des Koeffi¨blicherweise nicht aus der Gr¨ zienten ablesen. Die Signifikanz gibt an, ob der Einfluss der Variablen von Null verschieden ist, nicht jedoch, wie groß der Einfluss ist. In der Gruppe der statistisch signifikanten Variablen unterscheidet man oft nach Variablen, die entweder okonomisch signifikant sind oder nicht. Von ¨ okonomisch signifikanten Variablen ¨ spricht man, wenn der Einfluss einer unabh¨ angigen Variablen auf die endogene Variable eine gewisse Gr¨ oße aufweist und ¨ okonomisch relevant ist. Bei ¨ okonomisch nicht signifikanten Variablen handelt es sich um Variablen, die die endogene Variable beeinflussen, dieser Einfluss aber gering ist und ¨ okonomisch (fast) keine Rolle spielt. Liegen die in der L¨ osung zu Aufgabe 25 angegebenen Bedingungen uhren, dann kann aus der Gr¨ oße des Koeffizienten auf vor, die zu βˆ = βˆBET A = t f¨ Signifikanz geschlossen werden. b) Richtig: Je gr¨ oßer der Regressionskoeffizient, um so st¨ arker ist der Einfluss dieses Regressors auf den Regressanden. Dabei ist zu ber¨ ucksichtigen, dass es sich

60

2 Klassisches Regressionsmodell um eine maßstabsabh¨ angige Zahl handelt. Ein Vergleich der St¨ arke des Einflusses zwischen unterschiedlichen Variablen ist nicht m¨ oglich. Auch die St¨ arke ein und derselben Variablen in Modellen mit unterschiedlichen Regressanden kann mit Hilfe der Regressionskoeffizienten nur unter Beachtung der Messeinheiten der Variablen verglichen werden. Richtig: Je gr¨ oßer der BETA-Koeffizient, um so st¨ arker ist der Einfluss des Regressors. Im Unterschied zum u oglicht der ¨blichen Regressionskoeffizienten erm¨ BETA-Koeffizient einen Vergleich der St¨ arke des Einflusses unterschiedlicher Variablen. Falsch: Die Gr¨ oße des t-Wertes sagt nur etwas dar¨ uber, ob ein Regressor den Regressanden statistisch gesichert beeinflusst. Sie l¨ asst außer in Spezialf¨ allen keine Aussage u arke des Einflusses zu. ¨ber die St¨

L¨ osung zu Aufgabe 27: a)

- β0 entspricht dem erwarteten Wert von y, wenn x den Wert Null besitzt. ¨ - β1 gibt die erwartete Anderung von y an, wenn sich x um eine Einheit ¨ andert.

b) Auch in diesem Fall entspricht β0 dem erwarteten Wert von y, wenn x den Wert Null besitzt: β0 = E(y|x = 0); andert, wenn x statt den Wert Null β1 gibt an, wie sich der erwartete Wert von y ¨ den Wert Eins besitzt: β1 = E(y|x = 1) − E(y|x = 0). Zur Veranschaulichung wird folgendes Beispiel betrachtet: Sei y eine Variable, die das Einkommen einer Person misst. Weiter sei x eine Dummy-Variable, die den Wert Eins annimmt, falls es sich bei der Person um einen Mann handelt, und den Wert Null besitzt, wenn die Person eine Frau ist:  1, falls die Person ein Mann ist x= 0, falls die Person eine Frau ist. Dann gibt β0 = E(y|x = 0) das erwartete Einkommen von Frauen an. β1 = E(y|x = 1) − E(y|x = 0) misst den Unterschied zwischen dem erwarteten Einkommen von M¨ annern und dem erwarteten Einkommen von Frauen. c) Angenommen, es gelten y = ln y ∗ und x = ln x∗ . Dann kann das Modell y = β0 + β1 x + u wie folgt geschrieben werden: ln y ∗ = β0 + β1 ln x∗ + u. Eine weitere Umformung f¨ uhrt zu y ∗ = eβ0 · x∗

β1

· eu ;

2.4 L¨ osungen

61

β0 entspricht dem erwarteten Wert von y = ln y ∗ , wenn x = ln x∗ = 0 bzw. x∗ = 1 gilt. anderung von y interpretiert β1 kann wie auch in a) und b) als erwartete Ver¨ werden, wenn sich x um eine Einheit ¨ andert. Interessanter ist jedoch eine Interat von pretation, die auf y ∗ und x∗ abstellt: β1 gibt die durchschnittliche Elastizit¨ asst sich durch y ∗ in Bezug auf x∗ an. Dies l¨ β1 =

d ln y ∗ dy ∗ /y ∗ = ∗ ∗ = y∗ ,x∗ ∗ d ln x dx /x

ausdr¨ ucken. d) Angenommen, es gilt y = ln y ∗ . Soll eine Aussage bez¨ uglich des Zusammenhangs zwischen y ∗ und x getroffen werden, sind die Interpretationen von β0 und β1 aus a) zu modifizieren. Das Modell kann wie folgt geschrieben werden y = ln y ∗ = β0 + β1 x + u y ∗ = eβ0 · eβ1 x · eu mit E(y ∗ |x = 0) = eβ0 und E(y ∗ |x = 1) = eβ0 +β1 . ur β1 gilt Der erwartete Wert von y ∗ entspricht eβ0 , falls x = 0. F¨ β1 = β0 + β1 − β0 = ln eβ0 +β1 − ln eβ0 eβ0 +β1 = ln β0 e

eβ0 +β1 = ln 1 + − 1 eβ0

eβ0 +β1 − eβ0 = ln 1 + eβ0 eβ0 +β1 − eβ0 eβ0 E(y ∗ |x = 1) − E(y ∗ |x = 0) . = E(y ∗ |x = 0) ≈

Somit entspricht β1 n¨ aherungsweise der erwarteten Wachstumsrate von y ∗ , wenn sich x von Null auf Eins ver¨ andert.

L¨ osung zu Aufgabe 28: Es wurden insgesamt 33 Jahre, d.h. 33 Beobachtungen, in die Sch¨ atzung einbezogen. Zu sch¨atzen waren 3 Parameter:

62

2 Klassisches Regressionsmodell - Der Koeffizient f¨ ur die Arbeitslosenquote lautet 5,8892. - Der Koeffizient f¨ ur die Verschuldung X2 lautet 0,081916. - Die Konstante wird mit 84,638 gesch¨ atzt.

Die Koeffizientensch¨ atzungen werden im klassischen Regressionsmodell als marginale ∂ yˆ Ertragsraten der entsprechenden exogenen Variablen interpretiert: βˆk = ∂x k - Der Koeffizient von X1 in H¨ ohe von 5,8892 besagt, dass eine Steigerung von ALQ um eine Messeinheit (in diesem Fall um einen Prozentpunkt) zu einer Vergr¨ oßerung des Preisindex um 5,8892 Einheiten f¨ uhrt. - Die Zunahme der Verschuldung um eine Milliarde DM f¨ uhrt zu einer Steigerung des Preisindex um 0,081916 Einheiten. - Wenn die ALQ gleich Null ist und auch keine Verschuldung vorliegt, wird der Preisindex mit 84,638 gesch¨ atzt. Dies ist ein wenig aussagekr¨ aftiges Ergebnis, da X1 = 0 und X2 = 0 nicht in der N¨ ahe der beobachteten Datenpunkte (X1i , X2i ) liegen. - In der Spalte Standard Error sind die Sch¨ atzungen von Standardabweichungen der Koeffizientensch¨ atzungen aufgef¨ uhrt. Nach Division der gesch¨ atzten Koeffizienten durch die Werte aus der Spalte Standard Error ergeben sich die t-Werte der Koeffizientensch¨ atzungen (T-Ratio). Richtwert f¨ ur die Signifikanz des Einflusses ist |t| ≥ 2. Die t-Werte betragen 5,125; 9,775 und 23,13. Das bedeutet, die Nullhypothese, dass die wahren Koeffizienten von X1 und X2 gleich Null sind (d.h., dass X1 und X2 im Mittel keinen linearen Einfluss auf y aus¨ uben), muss nach der vorliegenden Stichprobe abgelehnt werden. Die Stichprobendaten sprechen also daf¨ ur, dass die beiden Regressoren einen Einfluss auf y haben. Das Bestimmtheitsmaß der Sch¨ atzung ist mit R2 = 0, 9560 sehr hoch. Ein so hohes 2 onnte es R bedeutet nicht automatisch, dass auch das Modell sehr gut ist. Vielmehr k¨ ¨ ein Hinweis f¨ ur die Notwendigkeit weiterer Uberpr¨ ufungen sein (z.B. Scheinkorrelation, Random-Walk-Prozesse, Kointegration zwischen y und X1, X2). ¨ Nach der Umskalierung der Variablen X2 ergeben sich folgende Anderungen (vgl. zur formalen Darstellung H¨ ubler 2005, S. 89): y neu = cy y + dy = y



cy = 1 ;

X1neu = cX1 X1 + dX1 = X1 X2neu = cX2 X2 + dX2

mit

⇒ cX2 =

dy = 0

cX1 = 1 ; 1 1, 95583

dX1 = 0 ;

dX2 = 0

2.4 L¨ osungen

63

Koeffizientensch¨ atzungen:

K  cy dk ck k=1

1ˆ 1 ˆ ˆ · β2 1 · β0 + 0 − 0 · β1 + 0 · 1 1/1, 95583 βˆ0 cy ˆ · β1 cX1 1 ˆ · β1 1 βˆ1 cy ˆ · β2 cX2 1 · βˆ2 1/1, 95583 1, 95583βˆ2 .

βˆ0neu = cy βˆ0 + dy − = = neu ˆ β1 = = = βˆ2neu

= = =

andern sich nicht. Die alte Sch¨ atzung von β2 wird mit Die Sch¨atzungen von β0 und β1 ¨ dem Faktor 1,95583 multipliziert, um die neue Sch¨ atzung zu erhalten. Gesch¨ atzte St¨ orgr¨ oßenvarianz:

2 = σ ˆneu

= = = =

  1 1 u ˆ2i(neu) = (yineu − yˆineu )2 n−K −1 n−K −1  1 [yineu − (βˆ0neu + βˆ1neu X1 + βˆ2neu X2neu )]2 n−K −1  1 X2 [yi − (βˆ0 + βˆ1 X1 + 1, 95583βˆ2 · )]2 n−K −1 1, 95583  1 [yi − (βˆ0 + βˆ1 X1 + βˆ2 · X2)]2 n−K −1   1 1 (yi − yˆi )2 = u ˆ2i = σ ˆ2. n−K −1 n−K −1

Die gesch¨ atzte St¨ orgr¨ oßenvarianz ¨ andert sich nicht. Das Bestimmtheitsmaß bleibt ebenfalls unver¨ andert: 

2 Rneu

 2 u ˆ2i(neu) u ˆi   =1− =1− = R2 . (yineu − y¯neu )2 (yi − y¯)2

64

2 Klassisches Regressionsmodell

L¨ osung zu Aufgabe 29: a) Die Informationen zum Bruttogehalt und Geschlecht sind in der Variablen bruttogehalt und sex enthalten. Die Sch¨ atzung des Modells bruttogehalt = β0 + β1 sex + u ergibt in STATA: regress bruttogehalt sex Source | SS df MS ----------+-----------------------------Model | 33276298.6 1 33276298.6 Residual | 1.4457e+09 533 2712447.88 ----------+-----------------------------Total | 1.4790e+09 534 2769683.55

Number of obs = F( 1, 533) = Prob > F = R-squared = Adj R-squared = Root MSE =

535 12.27 0.0005 0.0225 0.0207 1647

---------------------------------------------------------------------bruttogehalt | Coef. Std. Err. t P>|t| [95% Conf. Interval] -------------+-------------------------------------------------------sex |-498.8988 142.4379 -3.50 0.000 -778.7073 -219.0902 _cons | 2539.851 101.749 24.96 0.000 2339.973 2739.729 ----------------------------------------------------------------------

Oft werden die Sch¨ atzergebnisse in Form einer Gleichung angegeben, wobei in Klammern die Betr¨ age der t-Werte der Koeffizientensch¨ atzungen enthalten sind. Das Sch¨ atzergebnis lautet:  bruttogehalt = 2539.851 − 498.8988 · sex (24, 96) (3, 50) n = 535,

R2 = 0, 0225

Das Vorzeichen der Koeffizientensch¨ atzung der Variablen sex ist negativ. Dies entspricht der Erwartung. Bei Frauen ist der gesch¨ atzte durchschnittliche Monatsverdienst um 498,90 EUR geringer als bei M¨ annern. Die Koeffizientensch¨ atzung ist mit einem t-Wert von 3,50 hochsignifikant. b) Die Sch¨ atzung der Gleichung bruttogehalt = β0 + β1 sex + β2 · schuljahre + β3 · betriebsgroesse + u ergibt in STATA: regress bruttogehalt sex schuljahre betriebsgroesse Source | SS df MS ----------+-----------------------------Model | 144098451 3 48032817.1 Residual | 1.0894e+09 386 2822181.82 ----------+-----------------------------Total | 1.2335e+09 389 3170849.95

Number of obs F( 3, 386) Prob > F R-squared Adj R-squared Root MSE

= = = = = =

390 17.02 0.0000 0.1168 0.1100 1679.9

------------------------------------------------------------------------

2.4 L¨ osungen

65

bruttogehalt | Coef. Std. Err. t P>|t| [95% Conf. Interval] -------------+---------------------------------------------------------sex | -614.554 170.2714 -3.61 0.000 -949.329 -279.778 schuljahre | 176.6303 31.89243 5.54 0.000 113.925 239.334 betriebsgr~e | 121.0167 48.00835 2.52 0.012 26.626 215.407 _cons | 64.4572 430.1785 0.15 0.881 -781.329 910.243 ------------------------------------------------------------------------

Die Sch¨ atzgleichung lautet:  bruttogehalt = 64.4572 − 614, 554 · sex + 176, 6303 · schuljahre (0, 15) (3, 61) (5, 54) +121, 0167 · betriebsgroesse (2, 52) n = 390, R2 = 0, 1168 Der gesch¨ atzte Einkommensunterschied hat sich in dieser Sch¨ atzung auf 614,66 EUR vergr¨ oßert und ist weiterhin signifikant. Die Koeffizientensch¨ atzung des Regressors Schuljahre besagt, dass mit jedem weiteren Ausbildungsjahr das gesch¨ atzte monatliche Bruttogehalt um ca. 177 EUR ansteigt (der t-Wert ist 5,54). Bei der Variablen Betriebsgroesse handelt es sich um eine kategoriale Variable. Die deskriptive Statistik ergibt: tab betriebsgroesse if e(sample) betriebsgroesse | Freq. Percent Cum. --------------------------+----------------------------------weniger als 5 | 55 14.10 14.10 von 5 bis 19 | 75 19.23 33.33 von 20 bis 99 | 60 15.38 48.72 von 100 bis 199 | 36 9.23 57.95 von 200 bis 1999 | 80 20.51 78.46 gleich oder mehr als 2000 | 84 21.54 100.00 --------------------------+----------------------------------Total | 390 100.00 Die Koeffizientensch¨ atzung der Variablen Betriebsgroesse besagt, dass ein Wechsel in eine n¨ achsth¨ ohere Kategorie mit einem Einkommenszuwachs von durchschnittlich 121,02 EUR verbunden ist. Der entsprechende t-Wert ist 2,52 und somit signifikant. Nachteil einer solchen Modellierung der Betriebsgr¨ oße ist, dass der gesch¨ atzte Einkommenszuwachs immer gleich ausf¨ allt, unabh¨ angig davon aus welcher Kategorie eine Person in die n¨ achstgr¨ oßere Kategorie wechselt. So f¨ uhrt ein Wechsel aus einem Betrieb mit weniger als 5 Arbeitskr¨ aften in einen Betrieb mit gr¨ oßer oder gleich 5 und weniger als 20 Arbeitskr¨ aften zum gleichen Einkommenszuwachs wie ein Wechsel von der Kategorie von 200 bis 1999“ Arbeitskr¨ afte in einen Betrieb ” mit 2000 oder mehr Arbeitskr¨ aften.

66

2 Klassisches Regressionsmodell ¨ Eine M¨ oglichkeit, f¨ ur jeden m¨ oglichen Ubergang eine unterschiedliche Einkommensver¨ anderung zu modellieren, besteht in der Aufnahme von Dummy-Variablen in die Sch¨ atzgleichung, wobei jede Dummy-Variable einer bestimmten Betriebsgr¨ oße entspricht. Sollen alle Dummy-Variablen in die Sch¨ atzung aufgenommen werden, ist die Konstante auszuschließen. Wird die Konstante weiterhin in die Sch¨ atzgleichung aufgenommen, muss eine Dummy-Variable als Vergleichsgruppe aus der Sch¨ atzung ausgeschlossen werden, um die Dummy-Variablenfalle zu vermeiden. c) Umkodierung der Geschlechtsvariablen: recode sex 1 = 0 0 = 1 oder replace sex = 1 − sex Die Sch¨ atzung mit der umkodierten Geschlechtsvariablen ergibt: Source | SS df MS ----------+-----------------------------Model | 144098451 3 48032817.1 Residual | 1.0894e+09 386 2822181.82 ----------+-----------------------------Total | 1.2335e+09 389 3170849.95

Number of obs F( 3, 386) Prob > F R-squared Adj R-squared Root MSE

= = = = = =

390 17.02 0.0000 0.1168 0.1100 1679.9

----------------------------------------------------------------------bruttogehalt | Coef. Std. Err. t P>|t| [95% Conf. Interval] -------------+--------------------------------------------------------sex | 614.554 170.2714 3.61 0.000 279.7785 949.3295 schuljahre | 176.6303 31.89243 5.54 0.000 113.9257 239.3349 betriebsgr~e | 121.0167 48.00835 2.52 0.012 26.62607 215.4073 _cons | -550.0968 433.9708 -1.27 0.206 -1403.339 303.1457 -----------------------------------------------------------------------

Bei der Koeffizientensch¨ atzung der Variablen sex hat sich das Vorzeichen ge¨ andert. Das Ergebnis besagt, dass das gesch¨ atzte Einkommen von M¨ annern das gesch¨ atzte Einkommen von Frauen im Durchschnitt um 614,55 Euro u ¨bersteigt. Dieses Ergebnis stimmt mit dem Ergebnis aus b) u ¨berein. Außerdem hat sich die Konstante ge¨ andert (βˆ0,neu = βˆ0,alt + βˆSEX,alt = 64, 4572 − 614, 554 = −550, 0968). Die Koeffizientensch¨ atzungen der Variablen Schuljahre und Betriebsgroesse haben sich nicht ge¨ andert. Nach der Transformation der Variablen bruttogehalt werden alle Koeffizientensch¨ atzungen durch den Faktor 1000 geteilt. Die inhaltlichen Aussagen bleiben jedoch identisch. So ist ein zus¨ atzliches Schuljahr mit 0,177 Einheiten mehr Bruttogehalt verbunden. Da das Bruttogehalt in Tausend EUR gemessen wird, entsprechen 0,177 Einheiten 177 EUR. Die inhaltliche Interpretation hat sich durch die Transformation nicht ge¨ andert. Analog sind die Ver¨ anderungen bei Koeffizientensch¨ atzungen anderer Variablen zu interpretieren.

2.4 L¨ osungen

67

L¨osung zu Aufgabe 30: In der ersten Gleichung wird der Zusammenhang zwischen dem logarithmierten Lohn als abh¨angige Variable und der Zahl der Schuljahre als unabh¨ angige Variable modelliert. Die Sch¨ atzergebnisse lassen sich folgendermaßen interpretieren: - Eine Person mit keiner Schulbildung kann einen logarithmierten Lohn in H¨ ohe von 1,8328 erwarten. Das entspricht einem Betrag von e1,8328 = 6, 2514. Die Aussagekraft dieses Ergebnisses h¨ angt davon ab, ob im Datensatz Personen vorhanden sind, die keine oder eine sehr geringe Schulbildung besitzen. Falls solche Personen nicht im verwendeten Datensatz enthalten sind, hat die Sch¨ atzung der Konstanten lediglich eine Hilfsfunktion und keine inhaltliche Bedeutung. - Jedes Schuljahr ist mit einer Steigerung des logarithmierten Lohns in H¨ ohe von 0,0485 verbunden. Der Lohn nimmt somit mit jedem zus¨ atzlichen Schuljahr durchschnittlich um e0,0485 = 1, 049695 Einheiten zu. - Sowohl die Sch¨ atzung der Konstanten als auch die Koeffizientensch¨ atzung der Variablen S weisen hohe t-Werte auf. Es kann davon ausgegangen werden, dass Personen mit keiner Schulbildung einen von Null verschiedenen Lohn beziehen und dass jedes zus¨ atzliche Schuljahr einen Lohnzuwachs mit sich bringt. Aus ¨ okonometrischer Sicht ist die zweite Gleichung von Bedeutung, wenn vermutet wird, dass in der ersten Gleichung Heteroskedastie vorliegt, die durch S in der Form V (˜ u) = V (S · u) = S 2 V (u) erzeugt wird. Ist diese Hypothese korrekt, dann sollte ein Test auf Homoskedastie, z.B. der Goldfeld-Quandt-Test, H0 : V (ui ) = σ 2 ∀i bei der ersten Gleichung verwerfen und bei der zweiten Gleichung nicht ablehnen.

L¨ osung zu Aufgabe 31: a) In STATA ergibt sich folgender Output: regress lnw sex tenure tenure2 Source | SS df MS ----------+---------------------------Model | 11.7439217 3 3.91464056 Residual | 309.050577 424 .728892871 ----------+---------------------------Total | 320.794499 427 .751275174

Number of obs F( 3, 424) Prob > F R-squared Adj R-squared Root MSE

= = = = = =

428 5.37 0.0012 0.0366 0.0298 .85375

-------------------------------------------------------------------lnw | Coef. Std. Err. t P>|t| [95% Conf. Interval] ----------+--------------------------------------------------------sex | -.2483947 .0825388 -3.01 0.003 -.4106309 -.0861585 tenure | .02583 .0125388 2.06 0.040 .0011841 .050476 tenure2 | -.0004914 .0003757 -1.31 0.192 -.0012299 .0002471 _cons | 7.409739 .0881662 84.04 0.000 7.236442 7.583036 --------------------------------------------------------------------

68

2 Klassisches Regressionsmodell Alle Variablen außer tenure2 u ¨ben einen statistisch signifikanten Einfluss auf ln W aus. Getrennt f¨ ur M¨ anner und Frauen ergeben sich:

ˆ M = 7, 410 + 0, 02583 · tenure − 0, 0004914 · tenure2 ln W ˆ F = 7, 161 + 0, 02583 · tenure − 0, 0004914 · tenure2 ln W

b) Die Variable tenure2 wird aufgenommen, da davon ausgegangen wird, dass ein nichtlinearer Zusammenhang zwischen dem (logarithmierten) Einkommen und der Betriebszugeh¨ origkeitsdauer besteht. Inhaltlich ist damit der Gedanke verbunden, dass ab einer bestimmten Betriebszugeh¨ origkeitsdauer die Produktivit¨ at kaum noch zunimmt oder gar r¨ uckl¨ aufig ist. Daraus resultieren sinkende Wachstumsraten des Einkommens (∂ ln W/∂tenure). Aus der obigen Sch¨ atzung lassen sich die marginalen Effekte bestimmen: ∂ ln W = 0, 02583 − 2 · 0, 0004914 · tenure ∂tenure = 0, 02583 − 0, 0009828 · tenure Das gesch¨ atzte Bruttogehalt ist bei einer Betriebszugeh¨ origkeitsdauer von 26,28 ∂ ln W Jahren am gr¨ oßten. An dieser Stelle ist ∂tenure gleich Null. Statt einen speziellen nichtlinearen funktionalen Zusammenhang zu unterstellen und diesen zu sch¨ atzen, lassen sich auch Verfahren anwenden, die von einem unspezifischen nichtlinearen Zusammenhang ausgehen. Ein Ansatz ist das “locally weighted scatter plot smoothing - LOWESS“ (vgl. H¨ ubler 2005, S.221f). Mit STATA kann hierf¨ ur die graphische Darstellung durch folgenden Befehl gewonnen werden: graph twoway lowess lnW tenure if welle==2003 & tenure 40 wurde verzichtet, da in diesem Bereich relativ wenige Beobachtungen vorliegen und damit die Aussagen unsicher werden.

2.4 L¨ osungen

69

Nichtlinearer Zusammenhang

7

7.2

lowess lnW tenure 7.4 7.6 7.8

8

zwischen (log)Lohn und Betriebszugehörigkeitsdauer

0

10

20 tenure

30

Quelle: Sozio−ökonomisches Panel 2003

Abb. 2.2: Lowess-Sch¨ atzung

L¨osung Aufgabe 32: In STATA ergibt sich (vgl. Aufgabe 31): regress lnw sex tenure tenure2 Source | SS df MS ----------+---------------------------Model | 11.7439217 3 3.91464056 Residual | 309.050577 424 .728892871 ----------+---------------------------Total | 320.794499 427 .751275174

Number of obs F( 3, 424) Prob > F R-squared Adj R-squared Root MSE

= = = = = =

428 5.37 0.0012 0.0366 0.0298 .85375

-------------------------------------------------------------------lnw | Coef. Std. Err. t P>|t| [95% Conf. Interval] ----------+--------------------------------------------------------sex | -.2483947 .0825388 -3.01 0.003 -.4106309 -.0861585 tenure | .02583 .0125388 2.06 0.040 .0011841 .050476 tenure2 | -.0004914 .0003757 -1.31 0.192 -.0012299 .0002471 _cons | 7.409739 .0881662 84.04 0.000 7.236442 7.583036 --------------------------------------------------------------------

40

70

2 Klassisches Regressionsmodell a) Durch die t-Werte wird u uft, ob eine exogene Variable einen linearen Einfluss ¨berpr¨ auf die endogene Variable aus¨ ubt. Formal gesehen, handelt es sich bei t-Werten um Pr¨ ufgr¨ oßen f¨ ur den Test: H0 : βk = 0. Es kommt zur Ablehnung von H0 , falls der Betrag des t-Wertes den entsprechenden kritischen Wert der t-Verteilung u ¨berschreitet. b) Die t-Werte erh¨ alt man, indem aus dem Output einer Zeile der Quotient Coef./Std.Err. gebildet wird. So ergibt sich z.B. f¨ ur die Zeile sex: -0,2483947/0,0825388=-3,01. ˆ enth¨ c) Die gesch¨ atzte (Varianz-)Kovarianz Matrix Vˆ (β) alt Sch¨ atzungen f¨ ur die Varianzen der Koeffizientensch¨ atzungen. Sie finden sich auf der Hauptdiagonale der ˆ Alle u ˆ sind Sch¨ Matrix Vˆ (β). atzungen f¨ ur die Ko¨brigen Elemente der Matrix Vˆ (β) varianzen der dazugeh¨ origen Koeffizientensch¨ atzungen. Beispielsweise entspricht ˆ der ein Element in der dritten Zeile und in der zweiten Spalte der Matrix Vˆ (β) gesch¨ atzten Kovarianz der Koeffizientensch¨ atzungen zwischen der dritten und der zweiten exogenen Variablen. F¨ ur die Ermittlung der t-Werte f¨ ur einzelne exogene Variablen werden die dazuˆ ben¨ geh¨ origen Hauptdiagonalelemente der Matrix Vˆ (β) otigt. So ergibt sich der t-Wert der Variablen tenure in der obigen Sch¨ atzung als βˆtenure . tβˆtenure =  Vˆ (βˆtenure ) In jedem ¨ okonometrischen Programmpaket wird bei Durchf¨ uhrung der OLS-Regression auch die Sch¨ atzung der (Varianz-)Kovarianz-Matrix ermittelt. STATA speichert diese Matrix programmintern unter dem Namen e(V ). Nach Durchf¨ uhrung der Regression l¨ asst sich die Liste der gespeicherten Ergebnisse durch folgenden Befehl anzeigen: ereturn list Der Inhalt der Matrix e(V ) kann dann durch den Befehl: matrix list e(V) ausgegeben werden: symmetric e(V)[4,4] sex sex .00681265 tenure -7.905e-06 tenure2 1.998e-07 _cons -.00334762

tenure

tenure2

_cons

.00015722 -4.397e-06 -.00076824

1.412e-07 .0000181

.00777327

Bei SHAZAM kann durch die Option PCOV, d.h. durch OLS lnw SEX tenure tenure2 / PCOV

2.4 L¨ osungen

71

ˆ ausgewiesen werden. die gesch¨atzte Kovarianzmatrix Vˆ (β) d) Im Prinzip sagen p-Werte, auch als empirische Signifikanzniveaus oder P rob.values bezeichnet, das gleiche aus wie die t-Werte. Sie erm¨ ogliche eine Entscheidung dar¨ uber, ob eine Nullhypothese H0 : βk = 0 zu einem bestimmten α-Niveau abgelehnt werden kann. Formal gesehen, entspricht der p-Wert bei einem zweiseitigen Test der Wahrscheinlichkeitsmasse außerhalb des Intervalls [−tβˆk ; tβˆk ]. Wenn diese Wahrscheinlichkeitsmasse gleich dem vorgegebenen α-Wert ist oder ihn u oglich. Wenn aber ¨berschreitet, ist eine Ablehnung der Nullhypothese nicht m¨ diese Wahrscheinlichkeitsmasse kleiner ist als der vorgegebene α-Wert, wird die Nullhypothese abgelehnt. Somit gibt ein p-Wert das α-Niveau an, zu dem die Nullhypothese gerade noch nicht abgelehnt wird. Entspricht der p-Wert z.B. 0,1, ur α = 0, 1 gerade noch aufrechterhalten werden. F¨ ur α < 0, 1 ist dann k¨ onnte H0 f¨ keine Ablehnung m¨ oglich. F¨ ur alle Werte α > 0, 1 muss eine Ablehnung erfolgen. Analog bedeutet ein p-Wert von 0,05, dass H0 bei α = 0, 05 oder kleiner als 0,05 nicht abzulehnen ist. F¨ ur α > 0, 05 muss die Nullhypothese abgelehnt werden. F¨ ur die Variable sex lautet der t-Wert -3,01. F¨ ur α = 0, 01 f¨ uhrt dieser t-Wert zur Ablehnung der Nullhypothese. Der zugeh¨ orige p-Wert ist kleiner als 0,01 und f¨ uhrt ebenfalls zur Ablehnung der Nullhypothese. Ausgewiesen wird 0.003, f¨ ur den p-Wert gilt somit: p < 0, 01. Die Entscheidungen anhand des t-Werts und des p-Werts f¨ uhren immer zum gleichen Ergebnis. Zur Veranschaulichung kann zwischen zwei Situationen unterschieden werden. Angenommen, der obere kritische Wert tβˆk ,1−α/2 ist kleiner als der ausgewiesene absolute t-Wert, dann wird die Nullhypothese abgelehnt. Der p-Wert ist in dieser Situation kleiner als α und f¨ uhrt ebenfalls zur Ablehnung. Wenn jedoch der kritische Wert tβˆk ,1−α/2 > |t|, kann die Nullhypothese nicht abgelehnt werden. Der p-Wert ist in dieser Situation gr¨ oßer als α und f¨ uhrt auch nicht zur Ablehnung von H0 . e) Ein Konfidenzintervall gibt das Intervall an, welches den wahren Parameter u ¨berdeckt. Es wird so konstruiert, dass in (1 − α) ∗ 100% der F¨ alle der wahre Wert tats¨ achlich u ¨berdeckt wird. Die Mitte eines Konfidenzintervall entspricht der Koeffizientensch¨ atzung. Ein Konfidenzintervall zum (1 − α)-Niveau erm¨ oglicht eine Entscheidung dar¨ uber, ob die Nullhypothese H0 : βk = 0 abgelehnt werden kann. Das Ergebnis der Entscheidung anhand des Konfidenzintervalls ist identisch mit der Entscheidung anhand des t-Werts oder des p-Werts bei einem zweiseitigen Test. Bei dem Regressionsbefehl regress kann das Niveau der ausgegebenen Konfidenzintervalle durch die Option level(niveau) festgelegt werden. F¨ ur die Ausgabe 99%-Konfidenzintervall muss in STATA folgender Befehl eingegeben werden: regress lnW SEX tenure tenure2, level(99) Bei der betrachteten Sch¨ atzung sind die p-Werte f¨ ur die Variable sex und die Konstante kleiner als 0,01. Das bedeutet, dass f¨ ur diese Variablen die dazugeh¨ orige Nullhypothese bei α = 0, 01 abgelehnt wird. Eine Testentscheidung anhand

72

2 Klassisches Regressionsmodell der Konfidenzintervalle muss zum gleichen Ergebnis f¨ uhren. Die dazugeh¨ origen Konfidenzintervalle zum Niveau 99% werden den Wert Null nicht u ¨berdecken.

L¨osung zu Aufgabe 33: ¨ a) Die Uberschrift der Zahlenspalte SS steht f¨ ur Sum of Squares, df bedeutet Degrees of Freedom und MS steht f¨ ur Mean Square. In der ersten Spalte (SS) wird die Summe der Abweichungsquadrate der beobachteten endogenen Variablen vom Mittelwert (Zeile Total) in die entsprechende Summe der gesch¨ atzten Werte der endogenen Variablen (Model) und in die Residuenquadratsumme (Residual) zerlegt. Die Grundlage dieser Zerlegung ist die Beziey − yˆ ¯)2 + Σˆ u2 mit Σ(y − y¯)2 = 320, 794, Σ(ˆ y − yˆ ¯)2 = 11, 744 hung: Σ(y − y¯)2 = Σ(ˆ 2 origen und Σˆ u = 309, 051. In der zweiten Spalte (df) finden sich die dazugeh¨ Freiheitsgrade. Die Freiheitsgrade f¨ ur den Term Σ(y − y¯)2 entsprechen der Anzahl der Beobachtungen verringert um die Anzahl der gesch¨ atzten Parameter. Bei ˆ atzt (E(y) = y¯), so dass im dem Term Σ(y − y¯)2 wird nur ein Parameter gesch¨ Beispiel df=428-1. Die Freiheitsgrade des Terms Σ(ˆ y − yˆ ¯)2 entsprechen der Zahl der echten exogenen Variablen und schließlich entfallen die restlichen Freiheitsgrade (df=428-4) auf die Residuenquadratsumme Σˆ u2 . Die Elemente der dritten Spalte (MS) ergeben sich durch Teilen der Elemente in SS durch die in df. b) Das multiple Bestimmtheitsmaß R2 wird im rechten oberen Zahlenblock durch R-squared angegeben. Es l¨ asst sich errechnen durch R2 =

Σ(ˆ y − yˆ ¯)2 11, 744 = 0, 0366. = 2 Σ(y − y¯) 320, 794

Die Bestimmung von adjusted R2 erfolgt durch Adj R-squared = 1 −

dfTotal SSResidual · dfResidual SSTotal

Adj R-squared = 1 −

0, 7289 = 0, 0298. 0, 7513

L¨ osung zu Aufgabe 34: Zwei Geraden k¨ onnen entweder a) parallel verlaufen bzw. zusammenfallen oder

2.4 L¨ osungen

73

b) einen und nur einen Schnittpunkt haben. Die gesch¨ atzte Gleichung des Ausgangsmodells lautet yˆ = a ˆ + ˆbx mit

ˆb =

dxy d2x

und

(1) a ˆ = y¯ − ˆb¯ x.

Die gesch¨ atzte Gleichung der Umkehrregression ist dementsprechend x ˆ = eˆ + fˆy mit

fˆ =

dxy d2y

und

eˆ = x ¯ − fˆy¯.

Nach Umformung der gesch¨ atzten Gleichung der Umkehrregression ergibt sich y=−

1 eˆ + x ˆ. ˆ f fˆ

(2)

Die Geraden (1) und (2) verlaufen weder parallel noch fallen sie zusammen, da im Allgemeinen ˆb = 1 fˆ gilt, d.h. die Steigungen der Geraden sind unterschiedlich. Die Geraden (1) und (2) haben somit einen und nur einen Schnittpunkt. Der Punkt (¯ x; y¯) liegt auf der Geraden (1), da yˆ = a ˆ + ˆb¯ x = y¯ − ˆb¯ x + ˆb¯ x = y¯. Der Punkt (¯ x; y¯) liegt auch auf der Geraden (2), da x ˆ = eˆ + fˆy¯ = x ¯ − fˆy¯ + fˆy¯ = x ¯. Somit stellt (¯ x; y¯) den Schnittpunkt der Geraden (1) und (2) dar.

L¨ osung zu Aufgabe 35: a) Sowohl die durchschnittlich f¨ ur Erwerbst¨ atigkeit aufgewendete Arbeitszeit als auch der durchschnittlich verf¨ ugbare Betrag im Monat unterscheiden sich bei

74

2 Klassisches Regressionsmodell m¨ annlichen und weiblichen Studenten kaum. Der durchschnittlich verf¨ ugbare Betrag liegt bei m¨ annlichen Studenten bei 508,55 EUR und bei weiblichen Studenten bei 500,94 EUR. Die durchschnittlich aufgewendete Arbeitszeit liegt bei m¨ annlichen Studenten bei 4,83 Stunden pro Woche, bei weiblichen Studenten betr¨ agt sie 4,80 Stunden. W¨ ahrend die Standardabweichung von AZEIT bei M¨ annern (7,14) und Frauen (6,80) ¨ahnlich ausf¨ allt, ist die Standardabweichung von MVB bei Frauen mit 406,57 EUR deutlich h¨ oher als bei M¨ annern mit 270,14 EUR. Die gesch¨ atzten Koeffizienten, die alle hoch signifikant sind, lassen den Schluss zu, dass m¨annliche Studenten mit 446,89 EUR monatlich mehr Geld zur Verf¨ ugung haben als weibliche Studenten mit 429,38 EUR, das nicht durch Erwerbst¨ atigkeit zustande gekommen ist. Der BETA-Koeffizient der Variablen AZEIT f¨ ur SEX=1 ist sAZEIT 7, 141205 = 0, 3374 = 12, 76262 · βˆ∗ = βˆAZEIT · sM V B 270, 1381 und der f¨ ur SEX=2 sAZEIT 6, 796113 = 0, 2493. βˆ∗ = βˆAZEIT · = 14, 91666 · sM V B 406, 5663 Die Elastizit¨ at von MVB in Bezug auf Arbeitszeit ist wie folgt definiert

M V B,AZEIT =

dM V B AZEIT dM V B/M V B = · . dAZEIT /AZEIT dAZEIT MV B

dM V B Da dAZEIT dem gesch¨ atzten Koeffizienten der Variablen AZEIT entspricht, l¨ asst sich die Elastizit¨ at an der Stelle der Mittelwerte der Variablen AZEIT und MVB bestimmen. Somit folgt

AZEIT .

M V B,AZEIT = βˆAZEIT · MV B F¨ ur SEX=1 errechnet sich

M V B,AZEIT = 12, 76262 ·

4, 831597 = 0, 1213 508, 5532

und f¨ ur SEX=2

M V B,AZEIT = 14, 91666 ·

4, 797546 = 0, 1429. 500, 9383

b) Die Ausgangsregression M V B = a + b · AZEIT + u f¨ uhrt zu ˆb = sAZEIT,M V B . s2AZEIT

2.4 L¨ osungen

75

F¨ ur die Umkehrregression AZEIT = e + f · M V B + ν gilt ensprechend sAZEIT,M V B . fˆ = s2M V B Da s2AZEIT > 0 und s2M V B > 0, besitzen ˆb und fˆ das gleiche Vorzeichen. Die gesch¨ atzten Koeffizienten von AZEIT in der Ausgangsregression sind positiv, somit werden auch die gesch¨ atzten Koeffizienten von MVB in der Umkehrregression positiv sein. Es gilt s2 fˆ = ˆb · AZEIT s2M V B

und eˆ = AZEIT − fˆM V B.

Die gesch¨ atzte Umkehrregression f¨ ur SEX=1 entspricht 7, 1412052 fˆ = 12, 76262 · = 0, 00892 270, 13812 eˆ = 4, 831597 − 0, 00892 · 508, 5532 = 0, 2953. F¨ ur SEX=2 folgt 6, 7961132 = 0, 00417 fˆ = 14, 91666 · 406, 56632 eˆ = 4, 797546 − 0, 00417 · 500, 9383 = 2, 7086.

L¨ osung zu Aufgabe 36: a) Die Sch¨ atzung der Regressionsgleichung wurde mit dem Programmpaket STATA vorgenommen. Es ergibt sich folgender Output: regress y x1 x2 Source | SS df MS ----------+-----------------------------Model | 1183.34735 2 591.673674 Residual | 77.5415405 6 12.9235901 ----------+-----------------------------Total | 1260.88889 8 157.611111

Number of obs F( 2, 6) Prob > F R-squared Adj R-squared Root MSE

= = = = = =

9 45.78 0.0002 0.9385 0.9180 3.5949

---------------------------------------------------------------------y | Coef. Std. Err. t P>|t| [95% Conf. Interval] ----------+----------------------------------------------------------x1 | 1.364238 .1431529 9.53 0.000 1.013955 1.71452 x2 | .1138806 .1433736 0.79 0.457 -.236942 .4647033 _cons | -49.34134 24.06089 -2.05 0.086 -108.2162 9.53353 ----------------------------------------------------------------------

76

2 Klassisches Regressionsmodell Die gesch¨ atzte Regression lautet somit yˆ = −49, 34134 + 1, 364238x1 + 0, 1138806x2 . F¨ ur das Bestimmtheitsmaß hat sich R2 = 0, 9385 ergeben. b) Erh¨ oht sich der Preisindex von Gut B um eine Einheit, so steigt unter Konstanthaltung von x2 der Preisindex von Gut A um 1, 364238 Einheiten. Der Preisindex von Gut B hat dabei mit einem t-Wert von 9, 53 einen hoch signifikanten Einfluss auf den Preisindex von Gut A. Der Mengenindex von Gut A hat keinen signifikanten Einfluss auf den Preisindex. Die Konstante gibt den gesch¨ atzten Wert von y wieder, wenn x1 = 0 und x2 = 0. Dieser Punkt liegt weit außerhalb des Beobachtungsbereichs. Aus diesem Grund besitzt die Konstante in diesem Fall keine sinnvolle Interpretation und erf¨ ullt lediglich eine Hilfsfunktion bei der Regressionssch¨ atzung. Das Bestimmtheitsmaß R2 gibt an, welcher Anteil der Varianz von y durch das Modell erkl¨ art wird. In diesem Fall werden 93, 85% der Varianz von y erkl¨ art. c) Mit Hilfe der Formel zur Sch¨ atzung der St¨ orgr¨ oßenvarianz σ ˆ2 =

 1 u ˆ2 n−K −1

l¨asst sich aus obigem Output σ ˆ 2 berechnen σ ˆ2 =

77, 5415405 = 12, 9235901. 6

d) Mit Hilfe von STATA erh¨ alt man folgende (Varianz-)Kovarianz-Matrix: matrix list e(V) symmetric e(V)[3,3] x1 x2 x1 .02049275 x2 .00354196 .020556 _cons -2.6911285 -2.5791774

_cons

578.92628

Da es sich um eine symmetrische Matrix handelt, werden bei der Ausgabe die Elemente oberhalb der Hauptdiagonale nicht ausgewiesen. Die Hauptdiagonalelemente stellen die gesch¨ atzten Varianzen der Koeffizientensch¨atzungen dar. Sie entsprechen den quadrierten Standardfehlern der Koeffizientensch¨ atzungen, z.B. 0, 14315292 = 0, 02049275.

2.4 L¨ osungen

77

L¨osung zu Aufgabe 37: Im klassischen Regressionsmodell f¨ uhrt die Sch¨ atzung nach der Methode der kleinesten Quadrate zu unverzerrten Sch¨ atzungen des Koeffizientenvektors. Wegen E(u) = 0 gilt E(βˆOLS ) = E[(X  X)−1 X  y] = E[(X  X)−1 X  (Xβ + u)] = β + (X  X)−1 X  E(u) = β. Bei βˆ handelt es sich um eine lineare Sch¨ atzfunktion bez¨ uglich y und u, d.h. βˆ = β + Zu atzer βˆ die mit Z = (X  X)−1 X  . Im klassischen Regressionsmodell weist der OLS-Sch¨ kleinsten Varianzen f¨ ur die Koeffizientensch¨ atzungen unter allen m¨ oglichen linearen und unverzerrten Sch¨ atzern auf. Formal bedeutet dies, dass die Differenz zwischen der (Varianz-)Kovarianz-Matrix der OLS-Koeffizientensch¨ atzungen V (βˆOLS ) und der (Varianz-)Kovarianz-Matrix V (βˆ∗ ) eines anderen beliebigen linearen und unverzerrten Sch¨ atzers βˆ∗ (V (βˆOLS ) − V (βˆ∗ )) negativ definit ist. Damit ist der OLS-Sch¨ atzer im klassischen Regressionsmodell der beste lineare unverzerrte Sch¨atzer. OLS-Sch¨ atzer werden im klassischen Regressionsmodell als BLUE (best linear unbiased estimator ) bezeichnet. Dar¨ uber hinaus ist der OLS-Sch¨ atzer ein konur sistenter Sch¨atzer: βˆOLS ist unverzerrt und damit auch asymptotisch unverzerrt. F¨ n → ∞ geht die (Varianz-)Kovarianz-Matrix gegen die Nullmatrix: lim V (βˆOLS ) = 0.

n→∞

Die Eigenschaft der Unverzerrtheit ist w¨ unschenwert, da unverzerrte Sch¨ atzfunktionen im Durchschnitt exakt den wahren Parameter treffen. Die Linearit¨ at der Sch¨ atzfunktion ist vorteilhaft, da dadurch die Ermittlung der Sch¨ atzwerte bisweilen vereinfacht wird. Kleinere Varianzen sind w¨ unschenwert, da sie f¨ ur ein gegebenes α-Niveau zu engeren Konfidenzintervallen f¨ uhren. Dadurch werden die Intervallsch¨ atzungen pr¨ aziser. Die Betrachtung der Sch¨ atzeigenschaften erm¨ oglicht die Beurteilung der Frage, ob ein Sch¨ atzverfahren geeignet ist. Da ein Parameterwert durch eine Sch¨ atzfunktion nur in Ausnahmef¨ allen exakt gesch¨ atzt werden kann, ist es wichtig zu wissen, ob die Sch¨ atzfunktion den wahren Parameter im Durchschnitt korrekt trifft und wie stark die einzelnen Sch¨ atzwerte um den wahren Parameter streuen.

L¨ osung zu Aufgabe 38: Die Grundlage f¨ ur die Formulierung der Likelihoodfunktion im klassischen Regressionsmodell ist die Normalverteilungsannahme der St¨ orgr¨ oßen. F¨ ur eine St¨ orgr¨ oße ui ∼ N (0; σ 2 ) lautet die Dichtefunktion

78

2 Klassisches Regressionsmodell

f (ui ) = √

1 2πσ 2

· exp(−

1 ui 2 ). 2σ 2

Wegen ui = yi − xi  β, wobei xi  der i-ten Zeile der Designmatrix X entspricht, kann die Dichtefunktion f¨ ur die St¨ orgr¨ oße ui wie folgt geschrieben werden

f (ui ) = √

1 2πσ 2

· exp[−

1 (yi − xi  β)(yi − xi  β)]. 2σ 2

Im klassischen Regressionsmodell wird von der Unabh¨ angigkeit der einzelnen St¨ orgr¨ oßen ausgegangen. Aus diesem Grund entspricht die gemeinsame Dichtefunktion des Vektors der St¨ orgr¨ oßen u = (u1 , . . . , un ) dem Produkt der einzelnen Dichtefunktionen

f (u) =

n 

f (ui ) =

i=1

n  i=1



1 2πσ 2

· exp[−

1 (yi − xi  β)(yi − xi  β)]. 2σ 2

Nach einfachen Umformungen ergibt sich die Likelihoodfunktion L = f (u) = (

1 1 n/2 ) exp[− 2 (y − Xβ) (y − Xβ)]. 2 2πσ 2σ

¨ Ublicherweise wird statt L die logarithmierte Likelihoodfunktion ln L verwendet. Die Maximierung von ln L ist einfacher als die der urspr¨ unglichen Likelihoodfunktion L. Das Sch¨ atzergebnis ¨ andert sich dadurch nicht. Die logarithmierte Likelihoodfunktion ln L lautet lnL =

n 

n n 1 lnf (ui ) = − ln2π − lnσ 2 − 2 (y − Xβ) (y − Xβ). 2 2 2σ i=1

Die Maximum-Likelihood-Sch¨ atzer f¨ ur β und σ 2 ergeben sich durch die Maximierung der logarithmierten Likelihoodfunktion bez¨ uglich des Parametervektors β und der St¨ orgr¨ oßenur sind die partiellen Ableitungen von ln L nach β und σ 2 zu bilden und varianz σ 2 . Daf¨ gleich Null zu setzen

1 ∂lnL ˆ =0 = 2 X  (y − X β) ∂β σ ˆ

∂lnL n 1 ˆ  (y − X β) ˆ = 0. = − 2 + 4 (y − X β) ∂σ 2 2ˆ σ 2ˆ σ

2.4 L¨ osungen

79

Daraus erh¨alt man

βˆM L = (X  X)−1 X  y

2 σ ˆM L =

1  u ˆu ˆ. n

Es wird deutlich, dass die ML-Sch¨ atzung f¨ ur den Parametervektor β der OLS-Sch¨ atzung entspricht

βˆM L = βˆOLS . Im Unterschied zum ML-Ansatz f¨ uhrt die OLS-Methode zu keiner expliziten Sch¨ atzung f¨ ur die St¨ orgr¨ oßenvarianz. Es kann gezeigt werden, dass der ML-Sch¨ atzer der St¨ orgr¨ oßenvarianz verzerrt, jedoch asymptotisch erwartungstreu ist

2 E(ˆ σM L) =

n−K −1 2 σ = σ 2 . n

Schließlich ist anzumerken, dass die Normalverteilungsannahme eine notwendige Voraussetzung f¨ ur die Durchf¨ uhrung der ML-Sch¨ atzung ist. Bei der OLS-Sch¨ atzung ist die Normalverteilungsannahme jedoch nicht erforderlich. Sie wird aber bei Parametertests ben¨ otigt. Werden die Annahmen des klassischen Regressionsmodells aufgegeben, wird atzer nicht z.B. V (u) = σ 2 I durch V (u) = σ 2 Ω ersetzt, so stimmen OLS- und ML-Sch¨ mehr u ¨berein.

L¨ osung zu Aufgabe 39: Betrachtet sei das Zweivariablenmodell y = a + bx + u. Das Konfidenzintervall f¨ ur a lautet: a ˆ±σ ˆaˆ tn−2;1−α/2 . Analog ist das Konfidenzintervall ˆ f¨ ur b zu bilden: b ± σ ˆˆb tn−2;1−α/2 . Es liegt der Gedanke nahe, f¨ ur den gemeinsamen Bereich der Parameter a und b den ¨ Uberschneidungsbereich der beiden Konfidenzintervalle zu verwenden. Man k¨ onnte argumentieren, dass das sich ergebende Rechteck mit einer vorgegebenen Wahrscheinlichkeit die Kombinationen der wahren Parameter (a, b) u ¨berdeckt.

80

2 Klassisches Regressionsmodell

Im Prinzip ist gegen diese Argumentation nichts einzuwenden. Es l¨ asst sich allerdings zeigen, dass es m¨ oglich ist, f¨ ur die gleiche Wahrscheinlichkeit eine kleinere Region anzugeben, die die Kombination der wahren Parameter (a, b) u ¨berdeckt. Die Form dieser Region h¨ angt von der Kovarianz zwischen den Koeffizientensch¨ atzungen a ˆ und ˆb ab. Angenommen, die Kovarianz zwischen a ˆ und ˆb ist positiv. Das bedeutet, dass bei gr¨ oßerer (kleinerer) Koeffizientensch¨ atzung von b auch die Koeffizientensch¨ atzung von a gr¨ oßer (kleiner) ausf¨ allt. Die Kombinationen mit großen (kleinen) Werten von ˆb und kleinen (großen) Werten von a ˆ sind weniger wahrscheinlich. ¨ Die Fl¨ache des Rechtecks k¨ onnte bei gleichbleibender Uberdeckungswahrscheinlichkeit verringert werden, wenn Bereiche links oben und rechts unten entfernt werden (da sie wenig wahrscheinliche Kombinationen (a, b) enthalten) und statt dessen kleinere Bereiche links unten und rechts oben hinzugef¨ ugt werden. Formal l¨asst sich der entstandene Bereich durch  [(ˆ a − a) + (ˆb − b)xi ]2 ≤ σ 2 χ22;1−α beschreiben. Er entspricht einer Ellipse. Wenn die Kovarianz zwischen der Koeffizientensch¨ atzung von a und b Null ist und damit die beiden Sch¨ atzer unkorreliert sind, geht die Ellipse in einen Kreis u ¨ber (vgl. Goldberger 1991, S. 211f.) .

L¨ osung zu Aufgabe 40: a) Zu Theorien der Inflation vgl. z.B. Str¨ obele, W.: Inflation. Einf¨ uhrung in Theorie und Praxis. 4. Auflage, M¨ unchen 1995. Die zentralen Erkl¨ arungsans¨ atze der Inflation sind realwirtschaftlich und zielen auf Angebots- und Nachfragefaktoren (cost push, demand pull). Im ersten Fall gilt der Lohn (LOHN) als Hauptursache. Die Inflation kann aber auch importiert werden. Empirisch l¨ asst sich diese Determinante u ¨ber die Importpreise (IMPORT) erfassen. F¨ ur eine spezielle Erkl¨ arung w¨ aren z.B. Rohstoffeinfuhrpreise zu verwenden. Zur Messung der nachfrageinduzierten Inflation wird meist die Kapazit¨ atsauslaandigenratsgutachten) herstung (KAPAUSL svr - hier entnommen den Sachverst¨ angezogen. Alternativ l¨ asst sich ein Index f¨ ur das Produktionsvolumen (PROD) oder die Arbeitsproduktivit¨ at benutzen. Die Phillipskurve gilt als h¨ aufigster Erkl¨ arungsansatz f¨ ur die Inflation. Je h¨ oher die Arbeitslosigkeit ist, gemessen durch Arbeitslosenquote (ALQ), umso schwerer lassen sich Preiserh¨ ohungen durchsetzen. Neben den realwirtschaftlichen Erkl¨ arungen der Inflation gibt es auch geldmen¨ geninduzierte. Ubersteigt der Zuwachs der Geldmenge das Realeinkommen bei konstanter Umlaufgeschwindigkeit des Geldes, so ergibt sich ein Anstieg des Preisniveaus. Die Geldmenge kann durch M1, M2 oder M3 erfasst werden, d.h. durch die verschiedenen Abgrenzungen der Geldmenge. b) Die Ergebnisse der OLS-Sch¨ atzungen der Regressionsgleichungen in ba)-bf) mit

2.4 L¨ osungen

81

dem Preisindex des Bruttosozialprodukts (P I bsp) und die 95%-Konfidenzintervalle (KI) f¨ ur die Koeffizienten b1 bis b6 lauten: ba) PI bsp = −12, 71293 + 1, 110044 · LOHN mit KI f¨ ur LOHN :

[1, 063526; 1, 156563]

bb) PI bsp = −3, 023885 + 1, 017599 · IM P ORT mit KI f¨ ur IM P ORT :

[0, 8001189; 1, 235079]

bc) PI bsp = −64, 28239 + 1, 758021 · P ROD mit KI f¨ ur P ROD :

[1, 637618; 1, 878425]

bd) PI bsp = −34, 16646 + 1, 962958 · KAP AU SL svr mit KI f¨ ur KAP AU SL svr :

[−7, 393859; 11, 31977]

be) PI bsp = 84, 04321 + 15, 1903 · ALQ mit KI f¨ ur ALQ :

[12, 54558; 17, 83502]

bf) PI bsp = 83, 00751 + 0, 2603737 · M 1 mit KI f¨ ur M 1 :

[0, 227016; 0, 2937315]

Alle Variablen außer KAP AU SL svr u ¨ben einen signifikanten Einfluss auf den Preisindex P I bsp aus. Die Befunde aus den Zweivariablenmodellen stimmen außer f¨ ur ALQ mit den theoretischen Erwartungen u ¨berein. Lohnkosten, Importpreise, Arbeitsproduktivit¨ at und die Geldmenge sind positiv mit dem Preisindex des Bruttosozialprodukts verbunden. c) Einerseits ist es naheliegend, statt eines Zweivariablenmodells ein multiples Regressionsmodell zu sch¨ atzen. Andererseits k¨ onnen nichtlineare Abh¨ angigkeiten zwischen P I bsp und den exogenen Variablen angenommen werden. So kann z. B. mit logarithmierten Gr¨ oßen gearbeitet werden. Nach einer geeigneten Transformation der Gleichung l¨ asst sich dann im Allgemeinen eine lineare Regression sch¨ atzen. F¨ ur den Phillipskurvenansatz wird h¨ aufig von P I bsp = a+b(1/ALQ)+u ausgegangen.

82

2 Klassisches Regressionsmodell

L¨ osung zu Aufgabe 41: Die Nullhypothese wird dann abgelehnt, wenn der Betrag des empirischen t-Werts den Betrag des theoretischen t-Werts (kritischer Wert) u ¨bersteigt. a) Der theoretische t-Wert lautet tn−K−1;1− α2 = t14;0,995 = 2, 9769 Da |t| = | − 2, 5| < |2, 9769| = |t14;0,995 |, wird H0 nicht abgelehnt. b) Der theoretische t-Wert lautet t14;0,975 = 2, 1448 Da |t| = | − 2, 5| > |2, 1448| = |t14;0,975 |, wird H0 abgelehnt. c) Der theoretische t-Wert lautet t243;0,975 = 1, 9698 Da |t| = |2, 1| > |1, 9698| = |t243;0,975 |, wird H0 abgelehnt. Hinweis: In STATA lassen sich theoretische t-Werte durch den folgenden Befehl angeben display invttail (FG;p) Dabei sind FG die Freiheitsgrade, die n − K − 1 entsprechen, und p ist die Wahrscheinlichkeitsmasse rechts des t-Werts. Um t14;0,995 zu erhalten, muss der folgende Befehl in STATA eingegeben werden display invttail (14; 0,005)

L¨ osung zu Aufgabe 42: a) Nach der Logarithmierung der Produktionsfunktion ergibt sich ln Y = ln γ + α ln K + β ln L + u. b) F¨ ur die Sch¨ atzung m¨ ussen die Variablen Y , K und L zun¨ achst logarithmiert werden. Die Programmbefehle in STATA lauten gen lnY=ln(y) gen lnK=ln(k) gen lnL=ln(a) atzung Alternativ kann auch log(·) statt ln(·) geschrieben werden. Die Regressionssch¨ mit den logarithmierten Variablen f¨ uhrt zu regress lnY lnK lnL

2.4 L¨ osungen

83

Source | SS df MS ----------+--------------------------Model | 4.84895792 2 2.42447896 Residual | 1.05142575 51 .020616191 ----------+--------------------------Total | 5.90038368 53 .111327994

Number of obs F( 2, 51) Prob > F R-squared Adj R-squared Root MSE

= = = = = =

54 117.60 0.0000 0.8218 0.8148 .14358

-----------------------------------------------------------------lnY | Coef. Std. Err. t P>|t| [95% Conf. Interval] --------+--------------------------------------------------------lnK | .4470784 .0863342 5.18 0.000 .2737553 .6204015 lnL | .6390896 .0417441 15.31 0.000 .5552847 .7228944 _cons | 3.44539 .504264 6.83 0.000 2.433038 4.457743 ------------------------------------------------------------------

In der Sch¨ atzung werden insgesamt n = 54 Beobachtungen ber¨ ucksichtigt. Bei der Variablen y und bei ln Y fehlt jeweils ein Wert. Das Bestimmtheitsmaß der Sch¨atzung ist mit R2 = 0, 8218 relativ hoch. Die Ausweitung des (logarithmierten) Kapitalbestands um 1% f¨ uhrt zu einer Zunahme der (logarithmierten) Produktionsmenge um 0, 447%. Die Outputelastizit¨ at der Arbeit ist gr¨ oßer als die Outputelastizit¨ at des Kapitals. Die Zunahme der (logarithmierten) Besch¨ aftigtenzahl um 1% f¨ uhrt zu einer Vergr¨ oßerung des (logarithmierten) Outputs um ca. 0, 64%. Die Konstante entspricht der logarithmierten Produktionsmenge f¨ ur den Fall: k = 1 und a = 1. Diese Wertekombination ist von allen Kombinationen f¨ ur Kapital und Arbeit im Datensatz weit entfernt. Der niedrigste Wert f¨ ur das Kapital ist 65 und der niedrigste Wert f¨ ur Arbeit ist 15. Aus diesem Grund wird auf eine inhaltliche Interpretation der Konstanten verzichtet. c) Die gesch¨ atzten Parameter α ˆ und βˆ sind signifikant, d.h. statistisch betrachtet sind sie deutlich von Null verschieden. Die t-Werte 5,18 und 15,31 liegen deutlich u ¨ber dem Wert von 2, der als grober Anhaltspunkt f¨ ur die Ablehnung der Nullhypothese dienen kann. Auch die F-Statistik ist mit einem F -Wert= 117, 60 hochsignifikant. Der p-Wert f¨ ur die F-Statistik ist kleiner als 0,01, d.h. die beiden Regressoren u ¨ben zusammen einen statistisch gesicherten Einfluss auf den Regressanden aus. uber H1 : α = 1 abgelehnt, da Die Hypothese H0 : α = 1 wird gegen¨ t=

0, 4470784 − 1 = −6, 404433 < −2, 0075838 = −t51,0,975 . 0, 0863342

uber H1 : β = 1 abgelehnt, da Auch die Hypothese H0 : β = 1 wird gegen¨ t=

0, 6390896 − 1 = −8, 645783 < −2, 0075838 = −t51,0,975 . 0, 0417441

Ein Test auf lineare Restriktionen der Koeffizienten kann in STATA durch den Befehl test durchgef¨ uhrt werden. F¨ ur den Test H0 : α = 1 gegen H1 : α = 1 ergibt sich test lnK=1

84

2 Klassisches Regressionsmodell ( 1)

lnK = 1 F( 1, 51) = Prob > F =

41.02 0.0000

Der p-Wert f¨ ur die Pr¨ ufgr¨ oße ist kleiner als 0,05 und die Hypothese muss abgelehnt ¨ werden. In STATA wird ein F -Test zur Uberpr¨ ufung der Hypothese durchgef¨ uhrt. 1 = 41, 02 = (−6.404433)2 = t251 ist dieser Test identisch mit dem zuvor Wegen F51 durchgef¨ uhrten t-Test. Der Test H0 : β = 1 gegen H1 : β = 1 wird in STATA ebenfalls abgelehnt test lnL=1 ( 1)

lnL = 1 F( 1, 51) = Prob > F =

74.75 0.0000

F¨ ur den Test H : α+β = 1 wird die Kovarianz zwischen den Koeffizientensch¨ atzungen α ˆ und βˆ ben¨ otigt. Die Teststatistik lautet t=

α ˆ + βˆ − 1 α ˆ + βˆ − 1 . = Vˆ (ˆ α + βˆ − 1) ˆ + Vˆ (β) ˆ  α, β) Vˆ (ˆ α) + 2Cov(ˆ

F¨ ur die gesch¨ atzte Kovarianz zwischen den Koeffizientensch¨ atzungen α ˆ und βˆ gilt:  ˆ Cov(ˆ α, β) = 0, 00141449 Mit STATA erh¨ alt man die ben¨ otigten Nennerwerte u ¨ber die Kovarianzmatrix matrix list e(V) symmetric e(V)[3,3] lnK lnL lnK .00745359 lnL .00141449 .00174257 _cons -.04078282 -.01447269

_cons

.25428221

Wegen t= √

0, 4470784 + 0, 6390896 − 1 0, 00745359 + 2 × 0, 00141449 + 0, 00174257

= 0, 78577995 < 2, 0075838 = t51,0,975

oder aufgrund von −t51,0,975 = −2, 0075838 < 0, 78577995 < 2, 0075838 = t51,0,975 wird die Hypothese H : α + β = 1 nicht abgelehnt.

2.4 L¨ osungen

85

d) Die Ber¨ ucksichtigung der Wochentage ist durch Dummy-Variablen m¨ oglich. Durch den STATA-Befehl tab tag, gen(tag) k¨ onnen die erfassten Wochentage angezeigt werden. Gleichzeitig werden dabei f¨ unf Dummy-Variablen tag1, tag2, tag3, tag4, tag5 f¨ ur die Wochentage montag bis f reitag erstellt tab tag, gen(tag) wochentag | Freq. Percent Cum. ------------+----------------------------------montag | 11 20.00 20.00 dienstag | 11 20.00 40.00 mittwoch | 11 20.00 60.00 donnerstag | 11 20.00 80.00 freitag | 11 20.00 100.00 ------------+----------------------------------Total | 55 100.00 Um die Dummy-Variablenfalle zu vermeiden, k¨ onnen in der Sch¨ atzung lediglich vier Dummy-Variablen ber¨ ucksichtigt werden. Als Kontrollgruppe wird die Dummy-Variable tag1 f¨ ur montag verwendet. Das Ergebnis der Regressionssch¨ atzung lautet: regress lnY lnK lnL tag2 tag3 tag4 tag5 Source | SS df MS ----------+---------------------------Model | 4.89747425 6 .816245708 Residual | 1.00290943 47 .021338498 ----------+---------------------------Total | 5.90038368 53 .111327994

Number of obs F( 6, 47) Prob > F R-squared Adj R-squared Root MSE

= = = = = =

54 38.25 0.0000 0.8300 0.8083 .14608

--------------------------------------------------------------------lnY | Coef. Std. Err. t P>|t| [95% Conf. Interval] ----------+---------------------------------------------------------lnK | .4330163 .0908163 4.77 0.000 .2503175 .6157151 lnL | .6342679 .0441722 14.36 0.000 .5454049 .7231309 tag2 |-.0051727 .065107 -0.08 0.937 -.1361512 .1258057 tag3 | .0639375 .0639126 1.00 0.322 -.064638 .192513 tag4 | .0433837 .0673601 0.64 0.523 -.0921273 .1788947 tag5 |-.0116814 .0653295 -0.18 0.859 -.1431074 .1197446 _cons | 3.513738 .5288078 6.64 0.000 2.449914 4.577562 ---------------------------------------------------------------------

Zun¨ achst ist anzumerken, dass sich die Koeffizientensch¨ atzungen von ln K und ln L nur geringf¨ ugig ¨ andern und signifikant bleiben. Die Koeffizienten f¨ ur die einzelnen Dummy-Variablen der Wochentage sind nicht signifikant. Es besteht somit kein Anhaltspunkt daf¨ ur, dass an anderen Wochentagen im Vergleich zu Montag weniger oder mehr produziert wird. Ein F -Test auf Gesamtsignifikanz aller hinzugenommenen Dummy-Variablen ist ebenfalls insignifikant

F =

(1, 05142575 − 1, 00290943)/4 4 = 0, 568413 < 3, 7469645 = F47;0,99 . 1, 00290943/47

86

2 Klassisches Regressionsmodell Die Werte f¨ ur die F-Teststatistik, d.h. die Residuenquadratsumme und die Freiheitsgrade sind den Outputs f¨ ur das restringierte und das erweiterte Modell zu entnehmen - Zeile Residual. Auch eine lediglich minimale Vergr¨ oßerung des Bestimmtheitsmaßes von 0,8218 auf 0,8300 spricht gegen die Ber¨ ucksichtigung der Dummy-Variablen. Somit ist das restringierte Modell ln Y = ln γ + α ln K + β ln L + u dem erweiterten Modell ln Y = ln γ + α ln K + β ln L + γ2 tag2 + γ3 tag3 + γ4 tag4 + γ5 tag5 + u vorzuziehen.

L¨ osung zu Aufgabe 43: In einem Regressionsmodell mit 5 echten exogenen Variablen besteht der Koeffizientenvektor β aus 6 Elementen β  = (β0 , β1 , β2 , β3 , β4 , β5 ). Aus diesem Grund muss auch der Vektor α aus 6 Elementen bestehen. a) α = (0, 1, 0, 0, 0, 0) und a = 0, 85. b) α = (0, 0, 0, 1, 0, 0) und a = 0. c) α = (0, 1, 0, 0, −1, 0) und a = 0. d) α = (0, 1, −2, 0, 0, 0) und a = 0.

L¨ osung zu Aufgabe 44: a) Die Pr¨ ufgr¨ oße lautet 0, 25909 − 0, 3 βˆ1 − β10 √ = = −0, 27644. t=  2 0, 0219 σ ˆβˆ 1

Als kritischer Wert ist aus der t-Verteilungstabelle t46;0,95 = 1, 6786604

2.4 L¨ osungen

87

abzulesen. Da t < t46;0,95 kann die Hypothese H0 nicht abgelehnt werden. Anmerkung: Da der gesch¨ atzte Koeffizient der Variablen X1 kleiner ist als 0, 3, ergibt sich eine negative Pr¨ ufgr¨ oße. H0 kann bei einem rechtsseitigen Test nicht abgelehnt werden, wenn die Pr¨ ufgr¨ oße negativ ist. In dieser Situation ist H0 eine triviale Hypothese. Die Testentscheidung ist ohne Ermittlung der Pr¨ ufgr¨ oße und des kritischen Werts m¨ oglich. ¨ b) Es handelt sich um den F-Test auf Uberpr¨ ufung der gemeinsamen Signifikanz aller echten exogenen Variablen. Die Pr¨ ufgr¨ oße lautet F =

0, 9726/4 n−K −1 R2 = = 408, 208. · 2 1−R K (1 − 0, 9726)/(51 − 4 − 1)

Der kritische Wert lautet 4 F46;0.95 = 2, 574035. 4 Da F > F46;0,95 , ist H0 abzulehnen. Die echten exogenen Variablen u ¨ben somit gemeinsam einen signifkanten Einfluss auf die endogene Variable aus.

c) Die Pr¨ ufgr¨ oße lautet 0, 25909 + 0, 24411 − 0, 3 βˆ1 + βˆ3 − 0, 3 =√ = 1, 8627. t=  0, 0219 + 0, 0222 − 2 · 0, 0161 Vˆ (βˆ1 + βˆ3 ) Der kritische Wert ist gegeben durch t46;0,75 = 2, 0128956. Da t < t46;0,75 , wird die Hypothese H0 nicht abgelehnt.

L¨ osung zu Aufgabe 45: Die Nullhypothese und die Gegenhypothese f¨ ur den allgemeinen F-Test im linearen Regressionsmodell y = β0 + β1 x1 + . . . + βK xK + u lauten H0 : Rβ = r

H1 : Rβ = r.

Dabei ist R eine (l × (K + 1)) Restriktionsmatrix mit l als Anzahl der Restriktionen. β ist der Koeffizientenvektor und r ein (l × 1) Vektor, der die Hypothesen f¨ ur die

88

2 Klassisches Regressionsmodell

verschiedenen Linearkombinationen wiedergibt. Durch den allgemeinen F -Test k¨ onnen l unterschiedliche lineare Restriktionen des Parametervektors β u uft werden. ¨berpr¨ Die Pr¨ ufgr¨oße ist gegeben durch F =

(RβˆOLS − r) [R(X  X)−1 R ]−1 (RβˆOLS − r)/l . σ ˆ2

Die Pr¨ ufverteilung ist die F -Verteilung mit l und (n − (K + 1)) Freiheitsgraden. Die Nullhypothese wird abgelehnt, falls l F > Fn−K−1,1−α .

F¨ ur die Teststatistik gilt F =

((RβˆOLS − r) [R(X  X)−1 R ]−1 (RβˆOLS − r)/σ 2 )/l . (ˆ u u ˆ/σ 2 )/(n − K − 1)

Wegen (RβˆOLS − r) [R(X  X)−1 R ]−1 (RβˆOLS − r)/σ 2 ∼ χ2l und (ˆ u u ˆ/σ 2 ) ∼ χ2n−K−1 l folgt aus der Definition der F -Verteilung direkt, dass F ∼ Fn−K−1 , da Z¨ ahler und Nenner von F unabh¨ angig χ2 -verteilt sind, jeweils geteilt durch die Freiheitsgrade.

Je nach Spezifikation der Restriktionsmatrix R und des Vektors r sind verschiedene Spezialf¨ alle m¨ oglich (vgl. z.B. H¨ ubler 1989, S. 68-72). Hier wird nur auf zwei Spezialf¨ alle eingegangen. a) Test auf Signifikanz einer exogenen Variablen: H0 : βk = 0. Da lediglich eine Restriktion vorliegt, besteht die Restriktionsmatrix R aus einer Zeile (0, . . . , 0, 1, 0, . . . , 0) ∼ (1 × (K + 1)). R enth¨ alt an der k-ten Stelle eine Eins. Alle anderen Elemente sind gleich Null. Der Vektor r reduziert sich zum Skalar Null. σ 2 ist unter der Nullhypothese F -verteilt mit 1 und Die Pr¨ ufgr¨ oße F = βˆ2 /ˆ k

βˆk

1 (n − K − 1) Freiheitsgraden: Fn−K−1 . 1 Wegen Fn−K−1 = t2n−K−1 gilt außerdem t = βˆk /ˆ σβˆk ∼ tn−K−1 .

b) Test auf Gesamtsignifikanz aller exogenen Variablen einschließlich der Scheinvariablen H0 : β = 0

H1 : β = 0.

2.4 L¨ osungen

89

Die Restriktionsmatrix R ist in diesem Fall eine Einheitsmatrix und der Vektor r ist ein Nullvektor. Die Pr¨ ufgr¨ oße kann wie folgt umgeformt werden

F =

ˆ ˆr − u ˆu u ˆu )/(K + 1) (ˆ ur u + 1) βˆ (X  X)−1 β/(K . = σ ˆ2 u ˆu u ˆu /(n − K − 1)

Dabei ist u ˆr u ˆr die Residuenquadratsumme bei Ber¨ ucksichtigung der Restriktion ˆu u ˆu entspricht der Residuenquadratsumme ohne die Restriktion H0 : β = 0 und u ufverteilung ist auch hier F -verteilt mit (K +1) und (n−K −1) H0 : β = 0. Die Pr¨ Freiheitsgraden.

L¨osung zu Aufgabe 46: uft werden, ob Durch den Test H0 : β ∗ = 0 soll im klassischen Regressionsmodell u ¨berpr¨ die echten exogenen Variablen zusammen einen signifikanten Einfluss auf die endogene Variable aus¨ uben. F¨ ur die Durchf¨ uhrung des Tests werden zwei Modelle einander gegen¨ ubergestellt. Im ersten Modell werden alle echten exogenen Variablen ausgeschlossen und es wird nur die Scheinvariable als erkl¨ arende Variable ber¨ ucksichtigt: y = β0 + v. Dieses Modell wird als restringiertes Modell bezeichnet. Bei dem zweiten Modell handelt es sich um ein klassisches Regressionsmodell mit allen betrachteten exogenen Variablen: y = β0 + x∗ β ∗ + u. Dieses Modell wird als unrestringiertes Modell bezeichnet. Die Idee des Tests ist einfach. Es wird u uft, ob die Ber¨ ucksichtigung der echten ¨berpr¨ exogenen Variablen dazu f¨ uhrt, dass die unerkl¨ arte Streuung der endogenen Variablen im unrestringierten Modell im Vergleich zum restringierten Modell signifikant sinkt. Die nicht erkl¨ arte Streuung der endogenen Variable wird in beiden Modellen bis auf die Freiheitsgrade jeweils durch die Residuenquadratsumme gemessen. Im restringierten  2 gegeben. Die ResiduModell ist die Residuenquadratsumme durch den Ausdruck v ˆ  2 enquadratsumme des unrestringierten Modells lautet u ˆ . Im unrestringierten Modell oßer sein als im  2die Residuenquadratsumme nie gr¨  2 kann vˆ . restringierten Modell: u ˆ ≤  2  2 vˆ . Als F¨ ur den Test ist jedoch entscheidend, ob u ˆ signifikant kleiner ist als Pr¨ ufgr¨ oße wird folgender Ausdruck verwendet   2 ( vˆ2 − u ˆ )/K . F = 2 u ˆ /(n − K − 1) Falls H0 : β ∗ = 0 zutreffend ist, wird trotz der Ber¨ ucksichtigung der echten exogenen Variablen die unerkl¨ arte Streuung der endogenen Variablen in beiden Modellen nicht  2  2 vˆ . In diesem Fall wird auch die Pr¨ ufgr¨ oße zu stark voneinander abweichen: u ˆ ≈ F tendenziell klein ausfallen.

90

2 Klassisches Regressionsmodell

Falls jedoch H0 : β ∗ = 0 nicht zutreffend ist und echte exogene Variablen die endogene Variable beeinflussen, wird ihre Ber¨ ucksichtigung im unrestringierten Modell dazu f¨ uhren, dass die unerkl¨ arte Streuung vergleichsweise stark sinkt. In diesem Fall ergibt sich tendenziell ein großer Wert f¨ ur F . Als kritischer Wert wird der Wert der F-Verteilung mit K und (n − K − 1) FreiheitsK . graden an der Stelle (1 − α) herangezogen: Fn−K−1,1−α K Falls F > Fn−K−1,1−α , wird von einer signifikanten Verringerung der unerkl¨ arten Streuung der endogenen Variablen ausgegangen und H0 : β ∗ = 0 wird abgelehnt. K , hat die Ber¨ ucksichtigung echter exogener Variablen die ResiduFalls F ≤ Fn−K−1,1−α enquadratsumme nicht signifikant verringert. Aus diesen Grund wird H0 : β ∗ = 0 nicht abgelehnt.

Da im inhomogenen linearen Regressionsmodell   (y − y¯)2 u ˆ2 = (1 − Ru2 ) und



vˆ2 = (1 − Rr2 )

 (y − y¯)2

gelten, kann die Pr¨ ufgr¨ oße alternativ folgendermaßen ermittelt werden F =

(Ru2 − Rr2 )/K , (1 − Ru2 )/(n − K − 1)

wobei Ru2 das Bestimmtheitsmaß des unrestringierten und Rr2 des restringierten Modells ist. Dabei wird u uft, ob durch die Aufnahme der echten exogenen Variablen ¨berpr¨ oher ist als der Erder Erkl¨ arungsgehalt des unrestringierten Modells Ru2 signifikant h¨ kl¨ arungsgehalt des restringierten Modells Rr2 . K K herangezogen. Falls F > Fn−K−1,1−α , Als kritischer Wert wird auch hier Fn−K−1,1−α hat die Ber¨ ucksichtigung der echten exogenen Variablen zu einer signifikanten Vergr¨ oßerung des Bestimmtheitsmaßes und damit des Erkl¨ arungsgehalts gef¨ uhrt. Die Hypothese H0 : β ∗ = 0 ist abzulehnen. K , wird durch die Aufnahme von echten exogenen Variablen Falls jedoch F ≤ Fn−K−1,1−α das Bestimmtheitsmaß nicht signifikant gesteigert. In dieser Situation ist nicht auszuschließen, dass die echten exogenen Variablen keinen Einfluss aus¨ uben. Die Hypothese H0 : β ∗ = 0 kann nicht abgelehnt werden.

L¨ osung zu Aufgabe 47: a) α und β k¨ onnen als partielle Produktionselastizit¨ aten interpretiert werden. α gibt an, wie stark sich ln Y ¨ andert, wenn sich ln K um eine Einheit ¨ andert. Analog ¨ ist β definiert, β gibt die prozentuale Anderung von Y bei einer einprozentigen ¨ Anderung von L an.

2.4 L¨ osungen

91

b) ba) Gesch¨ atzt wurde lnYˆ = −2, 2112 + 0, 34883 ln K + 0, 70132 ln L − 0, 21121D R2 = 0, 9765

n = 190

2

σ ˆ = 0, 026399 σ ˆ = 0, 16248



u ˆ2 = 4, 9102.

Die R¨ uckf¨ uhrung auf den nichtlinearen Ansatz bedeutet Yˆ = e−2,2112 · K 0,34883 · L0,70132 · e−0,21121D = 0, 10957 · e−0,21121D · K 0,34883 · L0,70132 . bb) F¨ ur die Investitionsg¨ uterindustrie gilt YˆD=1 = 0, 10957·0, 8096·K 0,34883 ·L0,70132 = 0, 0887·K 0,34883 ·L0,70132 . F¨ ur die Verbrauchsg¨ uterindustrie gilt YD=0 = 0, 10957 · K 0,34883 · L0,70132 . - Der gesch¨ atzte Koeffizient von D kann n¨ aherungsweise als prozentuale ¨ Anderung von Y interpretiert werden, wenn die gleichen Mengen von K und L statt in der Verbrauchsg¨ uter- in der Investitionsg¨ uterindustrie eingesetzt werden. - Das T-Ratio zu D sagt aus, dass der Einsatz gleicher Mengen von K und L in der Investitionsg¨ uterindustrie mit großer Sicherheit zu einem geringeren Y f¨ uhrt als in der Verbrauchsg¨ uterindustrie. Also, der Effizienzparameter ist in ersterer niedriger. Die beiden Industrien haben unterschiedliche Effizienzparameter. Es wird aber angenommen, dass die partiellen Produktionselastizit¨ aten von K und L in beiden Industrien gleich sind. Der Chow-Test stellt u ¨blicherweise auf Zeitreihendaten ab und testet auf einen Strukturbruch, wobei der Zeitpunkt des Strukturbruchs vorgegeben ist. Es kann jedoch im vorliegenden Fall auch auf den Unterschied zwischen den Parametern der Verbrauchs- und Investitionsg¨ uterindustrie abgestellt werden. Damit w¨ urde u uft, ob es Unterschiede bei ¨berpr¨ den Elastizit¨ aten der beiden Industrien gibt. Der Chow-Test ist damit allgemeiner. H1 : α = 0 oder γD = 0, wobei γD der Koeffizient der bc) H0 : α = γD = 0 Variablen D ist. Wegen  u ˆ2 = 14, 621 ln Y = β0 + β1 ln L + u mit lautet die Pr¨ ufgr¨ oße F =

(14, 621 − 4, 9102)/2 = 183, 92. 4, 9102/186

92

2 Klassisches Regressionsmodell Der kritische Wert ist 2 F186;0,95 = 3, 0445041. 2 , wird H0 abgelehnt, d.h. ln K und D u Da F > F186;0,95 ¨ben zusammen einen statistisch gesicherten Einfluss auf lnY aus.

L¨ osung zu Aufgabe 48: a) Die OLS-Sch¨ atzung mit STATA lautet regress

PI_bsp LOHN IMPORT PROD KAPAUSL_svr ALQ M1

Source | SS df MS ---------+-----------------------------Model | 99618.3458 6 16603.0576 Residual | 66.1991707 26 2.54612195 ---------+-----------------------------Total | 99684.545 32 3115.14203

Number of obs F( 6, 26) Prob > F R-squared Adj R-squared Root MSE

= 33 = 6520.92 = 0.0000 =0.9993 = 0.9992 = 1.5957

-------------------------------------------------------------------PI_bsp | Coef. Std. Err. t P>|t| [95% Conf.Interval] ------------+------------------------------------------------------LOHN | .6170685 .0670759 9.20 0.000 .4791921 .754945 IMPORT | .0183124 .0222975 0.82 0.419 -.0275208 .064146 PROD | .1232739 .0775438 1.59 0.124 -.0361196 .282668 KAPAUSL_svr | .8755638 .1810519 4.84 0.000 .5034062 1.247721 ALQ | 2.098268 .2782368 7.54 0.000 1.526344 2.670192 M1 | .0742681 .0051734 14.36 0.000 .0636341 .084902 _cons | -70.93918 15.9436 -4.45 0.000 -103.7117 -38.166630 --------------------------------------------------------------------

b) Die Konfidenzintervalle werden im Output der Sch¨ atzung ausgewiesen. c) Das Ergebnis des F-Tests auf die gemeinsame Signifikanz aller echten exogenen Variablen findet sich ebenfalls im Output. Der Wert der F-Statistik ist gegeben durch F = 6520, 92. Mit einem p-Wert von 0, 0000 ist die F-Statistik hochsignifikant. Die Variablen x1 , x2 , x3 , x4 , x5 und x6 u ¨ben einen signifikanten Einfluss auf y1 aus. d) Es handelt sich um einen F-Test, wobei die gemeinsame Signifikanz von zwei exogenen Variablen u uft wird. In STATA kann der Test auf die Signifikanz einer ¨berpr¨ oder mehrerer exogener Variablen mit Hilfe des Befehls test durchgef¨ uhrt werden. da) STATA-Output:

( 1) ( 2)

test LOHN =KAPAUSL_svr=0 LOHN - KAPAUSL_svr = 0 LOHN = 0 F( 2, 26) = 42.36 Prob > F = 0.0000

2.4 L¨ osungen

db) dc) dd) e) Die ea)

93

Zum gleichen Ergebnis f¨ uhrt der STATA-Befehl test (LOHN=0)(KAPAUSL_svr=0) Der Wert der F-Statistik ist mit F = 42, 36 hochsignifikant: x1 und x4 u ¨ben einen signifikanten Einfluss auf y1 aus. Analog erh¨ alt man f¨ ur x2 und x6 mit dem Befehl test IMPORT= M1=0 einen F-Wert von 186, 63, der ebenfalls hochsignifikant ist. Der Befehl test ALQ= M1=0 ergibt mit 166,15 ebenfalls einen hochsignifikanten F-Wert. Auch die Hypothese H0 : βIM P ORT = βALQ = 0 wird abgelehnt: F=44,90 und Prob ¿F=0,0000. Hypothesen k¨ onnen auch mit dem Befehl test u uft werden. ¨berpr¨ STATA-Output: test LOHN +IMPORT=1 ( 1) LOHN + IMPORT = 1 F( 1, 26) = 43.05 Prob > F = 0.0000

=⇒ H0 ablehnen. eb) test ALQ +M1=0 ergibt: F=61,49 und Prob ¿ F =0,0000. =⇒ H0 ablehnen. ec) test LOHN +KAPAUSL svr=1 ergibt: F=4,91 und Prob ¿ F = 0,0356. =⇒ H0 ablehnen. ed) test IMPORT+ALQ=0 ergibt: F=62,85 und Prob ¿ F =0,0000. =⇒ H0 ablehnen. f) Der Programmbefehl f¨ ur diesen Test lautet: test

(LOHN=0.8) ( IMPORT=0.2) ( KAPAUSL_svr=0)

Dabei ergibt sich ein F-Wert von 71.09 mit Prob ¿ F=0,0000. H0 ist abzulehnen.

L¨ osung zu Aufgabe 49: a) Gegeben seien n unabh¨ angige und standardisiert normalverteilte Zufallsvariablen X1 , . . ., Xn . Die Summe der Quadrate dieser Zufallsvariablen folgt einer χ2 -Verteilung mit n Freiheitsgraden Y = X12 + . . . + Xn2 ∼ χ2n . Außerdem gilt: E(χ2 ) = n und V (χ2 ) = 2n. b) Damit eine Pr¨ ufgr¨ oße einer χ2 -Verteilung folgt, muss sie sich als Summe von quadrierten, unabh¨ angig und standardisiert normalverteilten Zufallsvariablen darstellen lassen. F¨ ur die Standardisierung der Zufallsvariablen wird die zugeh¨ orige Varianz ben¨ otigt, die u atzung ¨blicherweise nicht bekannt ist. Die Verwendung der Sch¨

94

2 Klassisches Regressionsmodell

der Varianz statt der wahren Varianz f¨ uhrt dazu, dass die Pr¨ ufgr¨ oße nicht mehr einer χ2 -Verteilung folgt. c) Eine t-Verteilung mit ν Freiheitsgraden ergibt sich als Quotient einer standardisiert normalverteilten Zufallsvariablen Z und der Wurzel aus einer davon unabh¨ angig χ2 -verteilten Zufallsvariablen Yν , die durch die Zahl der Freiheitsgrade ν dividiert wird 

Z Yν /ν

∼ tν .

Eine F -Verteilung mit w und v Freiheitsgraden ergibt sich als Quotient von zwei unabh¨angig χ2 -verteilten Zufallsvariablen Yw und Yv , jeweils dividiert durch die Anzahl der dazugeh¨ origen Freiheitsgrade w und v Yw /w ∼ Fvw . Yv /v F¨ ur eine Fv1 -Verteilung (w = 1) gilt Fv1 =

Y1 , Yv /v

wobei Y1 eine quadrierte, standardisiert normalverteilte Zufallsvariable ist: Y1 = Z 2 mit Z ∼ N (0, 1). Somit folgt Y1 Z Z2 = = Fv1 )2 = t2v = (  Yv /v Yv /v Yv /v . d) Der Zusammenhang zwischen t- und F-Verteilung wurde bereits in c) erl¨ autert. Die ur ν2 → ∞ gegen eine χ2 -Verteilung mit ν1 FreiheitsgraF-Verteilung (Fνν21 ) geht f¨ den und damit ist auch die Verbindung zwischen t- und χ2 -Verteilung hergestellt. Die folgenden Angaben zeigen beispielhaft die Verbindungen 2 1 = t2∞; 0,975 = χ21; 0,95 = F∞; z0,975 0,95

1, 962 = 1, 962

= 3, 841 = 3, 841.

L¨ osung zu Aufgabe 50: Die Voraussetzung f¨ ur die G¨ ultigkeit des Satzes von Cochran ist, dass n unabh¨ angig und standardisiert normalverteilte Zufallsvariablen X = (X1 , . . . , Xn ) existieren und sich durch folgende lineare Transformationen die Zufallsvariablen Y1 , . . . , Yn und Z1 , . . . , Zn ergeben: Y = AX und Z = BX. Dabei soll gelten: rg(A) = vy und rg(B) = vz mit n = vy + vz .

2.4 L¨ osungen

95

Falls folgender Zusammenhang n 

Xi2 =

i=1

n 

Yi2 +

i=1

n

n 

Zi2

i=1

n

2 2 erf¨ ullt ist, sind angig χ2 -verteilte Zufallsvariablen i=1 Yi und i=1 Zi zwei unabh¨ mit den Freiheitsgraden vy und vz .

L¨ osung zu Aufgabe 51: ˆ = σ 2 (X  X)−1 und βˆ = (X  X)−1 X  y gilt f¨ ur die Teststatistik X 2 : a) Wegen V (β) ˆ −1 (βˆ − β) = X 2 = (βˆ − β) V (β)

1  −1  Xy σ 2 ((X X)

− β) (X  X)((X  X)−1 X  y − β).

Nach Ausmultiplizieren ergibt sich X 2 = σ −2 (βˆ X  X βˆ − βˆ X  Xβ − β  X  X βˆ + β  X  Xβ). Wegen Xβ = y − u und X βˆ = y − u ˆ kann X 2 wie folgt geschrieben werden u) (y−ˆ u)−(y−ˆ u) (y−u)−(y−u) (y−ˆ u)+(y−u) (y−u)]. X 2 = σ −2 [(y−ˆ Nach Vereinfachung ergibt sich ˆ  u − u u ˆ+u ˆ u ˆ]. X 2 = σ −2 [u u − u ˆ (y − yˆ) = u ˆ (ˆ y+u ˆ) = u ˆ u ˆ und u u ˆ=u ˆ u gilt schließlich Wegen u ˆ u = u ˆ u ˆ], X 2 = σ −2 [u u − u so dass ˆ u ˆ u u u = 2 + X 2. 2 σ σ Mit Hilfe des Satzes von Cochran kann gezeigt werden, dass der Ausdruck X 2 einer χ2 -Verteilung folgt.

96

2 Klassisches Regressionsmodell Im klassischen linearen Regressionsmodell sind die St¨ orgr¨ oßen ui voneinander unabh¨ angig normalverteilt mit ui ∼ N (0, σ 2 ). Daraus folgt unmittelbar, dass der Ausdruck n 2 u u i=1 ui = σ2 σ2 einer χ2 -Verteilung mit n-Freiheitgraden folgt. Wie bereits gezeigt wurde, gilt ˆ ˆ βˆ X  X βˆ − βˆ X  Xβ − β  X  X βˆ + β  X  Xβ u u u ˆ u u ˆ u = 2 + X2 = 2 + . 2 σ σ σ σ2 Da beide Terme der rechten Seite lineare Funktionen des St¨ orgr¨ oßenvektors u darstellen, ist die Anwendung des Satzes von Cochran m¨ oglich. Danach sind sowohl    ˆ ˆ  ˆ ˆ  X  X β+β X  Xβ χ2 -verteilt. Dader Ausdruck uˆσ2uˆ als auch X 2 = β X X β−β X Xβ−β σ2 bei entspricht die Anzahl der Freiheitsgrade des ersten Ausdrucks (n − K − 1) und ˆ die von X 2 der Anzahl der Elemente K + 1 im Vektor β. 















ˆ ˆ ˆ ˆ X X β+β X Xβ ¨ dient der Uberpr¨ ufung der b) Der Ausdruck X 2 = β X X β−β X Xβ−β σ2 ufgr¨ oße dieses Tests. Hypothese H0 : β = 0. Er entspricht der Pr¨

c) Bei praktischen Anwendungen kann der Ausdruck nicht verwendet werden, da die St¨ orgr¨oßenvarianz σ 2 nicht bekannt ist und aus diesem Grund der Ausdruck nicht atzfunktion σ ˆ 2 zu berechnet werden kann. Es ist jedoch m¨ oglich, statt σ 2 die Sch¨ verwenden. Der sich ergebende Ausdruck βˆ X  X βˆ − βˆ X  Xβ − β  X  X βˆ + β  X  Xβ σ ˆ2 ist bei endlichen Stichprobenumf¨ angen nicht mehr χ2 -verteilt, sondern folgt der F -Verteilung mit K + 1 und n − K − 1 Freiheitsgraden, wenn der Z¨ ahler zus¨ atzlich durch K + 1 geteilt wird. F¨ ur n → ∞ geht, wie unter Aufgabe 49 d) erl¨ autert, die F-Verteilung gegen eine χ2 -Verteilung.

L¨ osung zu Aufgabe 52: Die Verletzung der Annahme E(u) = 0 im klassischen Regressionsmodell f¨ uhrt zu verzerrten Koeffizientensch¨ atzungen. Sei βˆ der Vektor des Koeffizientensch¨ atzers, dann gilt ˆ = E[(X  X)−1 X  y] = E[(X  X)−1 X  (Xβ + u)] = β + (X  X)−1 X  E(u) = β. E(β) Zur Verletzung der Annahme E(u) = 0 kann es z.B. durch Ausschluss von Variablen kommen, die die endogene Variable beeinflussen. Diese Variablen, auch als relevante Variablen bezeichnet, finden sich in der St¨ orgr¨ oße wieder und k¨ onnen die Sch¨ atzergebnisse verzerren. Es sei angenommen, dass das wahre ¨ okonometrische Modell durch folgende Gleichung gegeben ist

2.4 L¨ osungen

97

y = β0 + β1 x1 + β2 x2 + β3 x3 + u

(1)

mit E(u) = 0. Nun kann es sein, dass keine Informationen u ¨ber die Variable x3 vorliegen oder vor der Analyse nicht bekannt ist, dass die Variable x3 eine relevante Variable ist. Statt des wahren Modells wird ein Modell mit zwei echten exogenen Variablen gesch¨ atzt y = β0 + β1 x1 + β2 x2 + v

(2)

orgr¨ oße des Modells mit v = β3 x3 + u. In dieser Situation ist der Erwartungswert der St¨ atzer f¨ ur β0 , β1 und β2 sind (2) nicht Null, sondern E(v) = β3 x3 = 0 und die OLS-Sch¨ u ¨blicherweise verzerrt. Wenn jedoch die ausgeschlossene relevante Variable (x3 ) mit den aufgenommenen Variaatzungen blen (ι, x1 , x2 ) nicht korreliert ist, wobei ι = (1, ..., 1), sind die Koeffizientensch¨ unverzerrt. Man erh¨ alt ˆ = β + (X  X12 )−1 X  E(β3 x3 + u) = E(β) 12 12     = β + β3 (X12 X12 )−1 X12 x3 + (X12 X12 )−1 X12 E(u) mit β = (β0 , β1 , β2 ) und X12 = (ι, x1 , x2 ). Da die Variable x3 mit den aufgenommenen Variablen (ι, x1 , x2 ) nicht korreliert ist,   X12 )−1 X12 x3 = 0 aufgrund der OLS-Sch¨ atzung von x3 = X12 γ + v, gilt (X12   x3 , so dass d. h. γˆ = (X12 X12 )−1 X12 ˆ = β. E(β) Somit wurde gezeigt, dass beim Ausschluss von relevanten Variablen, solange diese Variablen mit den verbliebenen Variablen nicht korreliert sind, die Koeffizientensch¨ atzungen unverzerrt sind.

L¨osung zu Aufgabe 53: a) Erstens sind die St¨ orgr¨ oßen nicht beobachtbar und zweitens hat die OLS-Sch¨ atzfunktion der St¨ orgr¨ oßen im inhomogenen klassischen Regressionsmodell immer den ¯ ¨ Durchschnittswert Null (u ˆ = 0 - vgl. Aufgabe 20a). Daran scheitert die Uberpr¨ ufung der Annahme E(u) = 0. Hypothesen bez¨ uglich des Erwartungswerts werden u uft. Die Heran¨blicherweise durch den empirischen Durchschnittswert u ¨berpr¨ ¯ ¯ ziehung von u ˆ ist wenig hilfreich, da auch dann, wenn E(u) = 0 gilt, u ˆ = 0 erf¨ ullt ist. ˆ normalverteilt, da u ˆ eine Linearb) Bei der Annahme u ∼ N (0, σ 2 ) ist zwar auch u kombination der St¨ orgr¨ oßen ist (ˆ u = P u = (I − X(X  X)−1 X  )u), aber es handelt sich um eine singul¨ are Normalverteilung, denn P aus u ˆ = P u hat nicht den vollen Rang, d.h. rg(P ) = n − K − 1 = n. Somit l¨ asst sich keine u ¨bliche Inverse von P ˆ ben¨ otigt (f (ˆ u|0, σ 2 P ). bilden. P −1 wird aber bei der Dichtefunktion von u

98

2 Klassisches Regressionsmodell

c) Die endogene Variable im klassischen Regressionsmodell ist eine lineare Funktion der St¨orgr¨ oße des Modells. Da die exogenen Variablen deterministisch sind, also keine Zufallsvariablen darstellen, h¨ angt die Verteilung der endogenen Variablen mit der Verteilung der St¨ orgr¨ oßen zusammen. Im klassischen Regressionsmodell y = Xβ + u mit u ∼ N (0, σ 2 ) und E(X  u) = 0 orgr¨ oße folgt unmittelbar, dass y ∼ N (Xβ, σ 2 ). Die endogene Variable und die St¨ sind beide normalverteilt und besitzen die gleiche Varianz σ 2 , haben jedoch verschiedene Erwartungswerte.

L¨ osung zu Aufgabe 54: a) Die St¨ orgr¨ oße soll Faktoren erfassen, die die endogene Variable nicht systematisch beeinflussen und deren Wirkung sich im Durchschnitt ausgleicht. Unter diesen Bedingungen ist die Annahme E(u) = 0 plausibel. Gegen die Annahme spricht z.B., dass es nicht immer m¨ oglich ist, alle relevanten Variablen zu ber¨ ucksichtigen, weil entweder keine entsprechenden Daten vorliegen oder das n¨ otige theoretische Fundament fehlt. Außerdem ist es m¨ oglich, dass bei der Messung der exogenen Variablen systematische Fehler auftreten, die sich im Erwartungswert der St¨ orgr¨ oße niederschlagen. Angenommen, die St¨ orgr¨ oße des Modells setzt sich zusammen aus u = c + v, wobei v die klassischen Regressionsbedingungen erf¨ ullt. Dann kann das Ausgangsmodell wie folgt geschrieben werden y = β0 +

K 

βk xk + c + v.

k=1

Das transformierte Modell, welches sich nach Abzug der Konstanten c auf beiden Seiten der Gleichung ergibt, erf¨ ullt die klassischen Regressionsbedingungen y − c = β0 +

K 

βk xk + v.

k=1

Die Sch¨ atzung des letzten Modells liefert unverzerrte Koeffizientensch¨ atzungen. Bei Sch¨ atzung des Ausgangsmodells erg¨ abe sich lediglich bei der Konstanten eine Ver¨ anderung. Die Koeffizientensch¨ atzungen der echten exogenen Variablen blieben unver¨ andert. Der Grund daf¨ ur ist, dass in beiden Modellen identische Werte der exogenen Variablen verwendet werden und die endogene Variable folgendermaßen linear transformiert wird: y = cy y + dy = y − c, mit cy = 1 und dy = −c. Wie in H¨ ubler (2005, S. 89) gezeigt wird, betrifft eine solche Transformation ausschließlich die Konstante. ˆ = β, wenn (X  X)−1 X  ξ = 0 - vgl. L¨ osung Aufgabe b) Wenn u = ξ + υ, dann ist E(β) 52. Dies ist der Fall, wenn X  ξ = 0. Außerdem gilt

1 ξP ξ 2  u ˆu E(ˆ σ )=E ˆ = σ2 + n−K −1 n−K −1

2.4 L¨ osungen

99 









P ξ+2υ P ξ u P Pu wegen σ ˆ 2 = n−K−1 = υ P υ+ξ und E(υ  P υ) = (n − K − 1)σ 2 sowie n−K−1  2 2 σ ) = σ , wenn ξ  P ξ/(n − K − 1) = 0. Dies ist nicht E(υ P ξ) = 0. Somit ist E(ˆ  m¨ oglich, wenn X ξ = 0, denn ξ  P ξ = ξ  ξ − ξ  X(X  X)−1 X  ξ = ξ  ξ > 0. Also ist ˆ = β oder beide Sch¨ atzer sind verzerrt. entweder E(ˆ σ 2 ) = σ 2 oder E(β)

L¨osung zu Aufgabe 55: Die Annahme von identisch und unabh¨ angig verteilten St¨ orgr¨ oßen impliziert, dass einerseits die Kovarianz zwischen den St¨ orgr¨ oßen gleich Null ist. Aus diesem Grund k¨ onnen die St¨ orgr¨ oßen nicht autokorreliert sein. Andererseits sind wegen der Verteilungsgleichheit der St¨ orgr¨ oßen die Varianzen der St¨ orgr¨ oßen identisch. Die Gleichheit der Varianzen ur alle i = 1, . . . , n wird als Homoskedastie bezeichnet. der St¨orgr¨ oßen V (ui ) = σ 2 f¨ Eine Verletzung der Homoskedastieannahme f¨ uhrt dazu, dass OLS-Sch¨ atzungen nicht mehr effizient sind. Aus diesem Grund sind trotz unverzerrter Koeffizientensch¨ atzungen die Konfidenzintervalle, die sich bei der OLS-Sch¨ atzung ergeben, verzerrt. ¨ Eine Uberpr¨ ufung der Homoskedastieannahme f¨ ur zwei Zeitabschnitte entspricht dem Test auf einen Strukturbruch bei den Varianzen der St¨ orgr¨ oßen. Die Pr¨ ufgr¨ oße lautet σ ˆ12 2 2 ˆ1 die gesch¨ atzte Varianz der St¨ orgr¨ oßen im ersten und σ ˆ2 die gesch¨ atzte F = σˆ 2 , wobei σ 2 Varianz der St¨ orgr¨ oßen im zweiten Zeitraum ist. Die Pr¨ ufverteilung von F ist die F Verteilung mit T1 − (K + 1) und T − T1 − (K + 1) Freiheitsgraden. Dabei entspricht T1 der Anzahl der Beobachtungen im ersten und T2 = T − T1 im zweiten Zeitraum. K ist die Anzahl der echten exogenen Variablen. H0 : σ12 = σ22 wird abgelehnt, falls T −(K+1)

1 F > FT −T 1 −(K+1),1−α/2

oder T −(K+1)

1 F < FT −T . 1 −(K+1),α/2

Die Division des Regressanden, der Regressoren und der St¨ orgr¨ oße durch die individuelle St¨ orgr¨oßenstandardabweichung f¨ uhrt dazu, dass die OLS-Sch¨ atzung effizient wird. Angenommen, das betrachtete Regressionsmodell lautet yi = β0 + β1 x1i + . . . + βk xki + ui mit V (ui ) = σi2 . Alle Annahmen des klassischen Regressionsmodells bis auf die Homoskedastieannahme seien erf¨ ullt. Da das betrachtete Modell heteroskedastische St¨ orgr¨ oßen enth¨ alt, ist die OLS-Sch¨ atzung nicht effizient. Nach der vorgeschlagenen Transformation ergibt sich yi 1 x1i xki ui = β0 + β1 + . . . + βk + . σi σi σi σi σi

100

2 Klassisches Regressionsmodell

F¨ ur die Varianzen der St¨ orgr¨ oßen des transformierten Modells folgt V(

ui σ2 ) = i2 = 1. σi σi

Somit haben die St¨ orgr¨ oßen des transformierten Modells identische Varianzen. Sie sind also homoskedastisch. Die anderen Annahmen des klassischen Regressionsmodells bleiben erhalten. Aus diesem Grund ist der OLS-Sch¨ atzer des transformierten Modells BLUE. Bei praktischen Anwendungen sind die Werte von σi2 nicht bekannt und m¨ ussen durch unden ist es nicht sinnvoll, f¨ ur jeSch¨ atzwerte (ˆ σi2 ) ersetzt werden. Aus formalen Gr¨ asst sich aber de Beobachtung einen individuellen Sch¨ atzwert σ ˆi2 zu bestimmen. Es l¨ ein zweistufiges Verfahren anwenden. In der ersten Stufe wird der Datensatz in zwei oder mehr Teildatens¨ atze p = 1, . . . , P eingeteilt. F¨ ur jeden einzelnen Teildatensatz p wird eine OLS-Sch¨ atzung durchgef¨ uhrt und eine Sch¨ atzung der St¨ orgr¨ oßenvarianz σ ˆp2 ermittelt. Anschließend werden die Beobachtungen in jedem Teildatensatz p = 1, . . . , P durch den f¨ ur diesen Teildatensatz spezifischen Wert σ ˆp geteilt. In der zweiten Stufe wird eine OLS-Sch¨ atzung mit den transformierten Beobachtungswerten durchgef¨ uhrt. Dieser zweistufige OLS-Sch¨ atzer ist konsistent. Werden diese beiden Stufen wiederholt, wird also ein iterativer EGLS-Sch¨ atzer angewandt, so stimmen die asymptotischen Eigenschaften mit denen des zweistufigen Sch¨ atzers u allen konvergiert ¨berein. In einigen F¨ der iterative Sch¨ atzer aber gegen den ML-Sch¨ atzer. Einen konsistenten Sch¨ atzer liefert ˆ bereits der heteroskedastierobuste White-Sch¨ atzer f¨ ur die Kovarianzmatrix von β.

L¨ osung zu Aufgabe 56: Im klassischen Regressionsmodell wird implizit vorausgesetzt, dass die Regressionsparameter konstant sind, unabh¨ angig von der verwendeten Stichprobe oder dem betrachteten Zeitraum. Bei Querschnittsdaten werden f¨ ur unterschiedliche Gruppen von Beobachtungen, wie z.B. Frauen und M¨ anner, identische Parameter in den Regressionsgleichungen unterstellt. Bei Zeitreihen wird davon ausgegangen, dass die Regressionsbeziehung unver¨andert in unterschiedlichen Zeitperioden G¨ ultigkeit besitzt. Ein Strukturbruch liegt vor, wenn nicht mehr von der Konstanz der Regressionspara¨ meter ausgegangen werden kann. Einerseits kann es im Zeitablauf zur Anderung von Verhaltensmustern kommen, die sich in ver¨ anderten Regressionsparametern niederschlagen. Andererseits k¨ onnen bei Querschnittsdaten Verhaltensmuster oder ¨ okonomische Abh¨ angigkeiten in verschiedenen Gruppen von Merkmalstr¨ agern voneinander abweichen. In diesem Fall unterscheiden sich auch die Regressionsparameter in den entsprechenden Gruppen. Ob ein Strukturbruch vorliegt, kann mit Hilfe eines Chow-Tests u uft werden. ¨berpr¨ Durch den Chow-Test wird gepr¨ uft, ob sich die Regressionsparameter zu unterschiedlichen Zeitpunkten oder in verschiedenen Gruppen systematisch voneinander unterscheiden. Im Folgenden wird der Test f¨ ur die Zeitreihendaten vorgestellt. Der Test ist auch auf Gruppen bei Querschnittsdaten u ¨bertragbar.

2.4 L¨ osungen

101

Die Pr¨ ufgr¨oße des Chow-Tests basiert auf einem Vergleich von Residuenquadratsummen zu unterschiedlichen Perioden. Damit dieser Vergleich aussagekr¨ aftig ist, muss vorher gepr¨ uft werden, ob die Streuung der St¨ orgr¨ oßen im Zeitablauf konstant ist. Hat sich die Varianz der St¨ orgr¨ oßen im Zeitablauf ver¨ andert, kann der Chow-Test in der unten beschriebenen Form nicht angewendet werden. Zum Chow-Test mit ungleichen St¨ orgr¨ oßenvarianzen vergleiche z.B. Greene (2003, S. 133 f.). Angenommen, es liegen Beobachtungen f¨ ur T Perioden vor und es wird ein Struk¨ ur die Uberpr¨ ufung der Hypothese, dass kein turbruch zum Zeitpunkt T1 vermutet. F¨ Strukturbruch vorliegt, ist die Sch¨ atzung von drei verschiedenen Regressionen notwendig. In der ersten Regressionssch¨ atzung werden alle Beobachtungen ber¨ ucksichtigt yt = Xt β + ut ,

t = 1, . . . , T.

In zwei weiteren Regressionen werden jeweils Beobachtungen bis einschließlich T1 und nach T1 herangezogen yt = Xt β1 + u1t ,

t = 1, . . . , T1

yt = Xt β2 + u2t ,

t = T1 + 1, . . . , T.

Die exogenen Variablen sind in allen Regressionen identisch. Ihre Zahl betr¨ agt K + 1. Als Voraussetzung f¨ ur den Chow-Test muss zun¨ achst u uft werden, ob die Streuung ¨berpr¨ der St¨ orgr¨ oßen in den beiden Zeitr¨ aumen 1, . . . , T1 und T1 + 1, . . . , T gleich ist. Die Hypothesen lauten H0 : σ12 = σ22

H1 : σ12 = σ22 .

Als Pr¨ ufgr¨ oße wird folgender Ausdruck verwendet F =

σ ˆ12 , σ ˆ22

wobei σ ˆ12 die gesch¨ atzte Varianz der St¨ orgr¨oßen im Zeitraum 1, . . . , T1 ist. Analog ist 2 atzte Varianz der St¨ orgr¨ oßen aus dem Zeitraum T1 + 1, . . . , T . σ ˆ2 die gesch¨ F¨ ur die Gleichheit von σ12 und σ22 w¨ urde sprechen, wenn die Pr¨ ufgr¨ oße F nicht zu stark von Eins abweicht. Werte der Pr¨ ufgr¨ oße F , die entweder deutlich gr¨ oßer oder deutlich ufverteilung kleiner als Eins sind, sprechen gegen die Gleichheit von σ12 und σ22 . Die Pr¨ von F ist die F -Verteilung mit T1 − (K + 1) und T − T1 − (K + 1) Freiheitsgraden. H0 wird abgelehnt, falls T −(K+1)

1 F > FT −T 1 −(K+1),1−α/2

oder T −(K+1)

1 F < FT −T . 1 −(K+1),α/2

102

2 Klassisches Regressionsmodell

Falls T −(K+1)

T −(K+1)

1 1 FT −T ≤ F ≤ FT −T , 1 −(K+1),α/2 1 −(K+1),1−α/2

wird H0 nicht abgelehnt. In diesem Fall kann ein Vergleich der Koeffizientenvektoren β1 und β2 erfolgen. Die Hypothesen lauten H0 : β1 = β2

H1 : β1 = β2 .

Die Pr¨ ufgr¨ oße ist gegeben durch  2  2  2 ( u ˆ − uˆ1 − uˆ2 )/(K + 1) F =  2  2 . ( uˆ1 + uˆ2 )/(T − 2(K + 1)) Die Pr¨ ufverteilung ist die F -Verteilung mit (K + 1) und (T − 2(K + 1)) Freiheitsgraden. H0 wird angelehnt, falls F > FTK+1 −2(K+1),1−α . In diesem Fall ist von einem Strukturbruch zum Zeitpunkt T1 auszugehen.

L¨ osung zu Aufgabe 57: a) Es soll ein Test auf Strukturbruch bei der St¨ orgr¨ oßenvarianz durchgef¨ uhrt werden H0 : σ12 = σ22

H1 : σ12 = σ22

bei α = 0, 01. Die Teststatistik lautet F =

0, 12645 σ ˆ12 = = 4, 7502. 2 σ ˆ2 0, 02662

Bei G¨ ultigkeit von H0 ist die Teststatistik Fνν21 verteilt mit ν1 = T1 − K − 1 = 12 − 2 = 10, ν2 = T2 − K − 1 = 8 − 2 = 6. 10 6 10 = 1/F10;0,995 = 1/6, 54 = 0, 153 und F6;0,995 = Die kritischen Werte sind F6;0,005 10 10 10, 3. Da F6;0,005 < F < F6;0,995 , kann H0 nicht abgelehnt werden. Alternativ l¨ asst sich der zur Teststatistik F geh¨ orende p-Wert mit SHAZAM bestimmen. Als Output folgt

|_smpl 1 20 |_gen1 c=4.7502 |_distrib c / type=F DF1=10, DF2=6 F DISTRIBUTION- DF1= 10.000 DF2=

6.0000

2.4 L¨ osungen MEAN=

103 1.5000

VARIANCE= DATA

C ROW

1

3.1500

PDF

4.7502

MODE= CDF

0.17200E-01 0.96514

0.60000 1-CDF 0.34855E-01

..INPUT FILE COMPLETED..TYPE A NEW COMMAND OR TYPE: STOP TYPE COMMAND Da 1 − CDF = 0, 034855 > 1 − (α/2) = 0, 005, wird H0 nicht abgelehnt. b) Die Hypothesen lauten: H0 : Kein Strukturbruch in den Koeffizienten zwischen t=12 und t=13 H1 : Strukturbruch in den Koeffizienten zwischen t=12 und t=13 Die Pr¨ ufgr¨ oße ist  2  2  2 1 ( u ˆ − u ˆ − u ˆ ) F = 2 1 i  2 1i  2 2i u ˆ1i + u ˆ2i ) T −4 ( 0, 5 · (3, 2370 − 1, 2645 − 0, 15972) 1 20−4 · (1, 2645 + 0, 15972) 16 1, 81278 · = 10, 1826. = 2 1, 42422

=

Unter G¨ ultigkeit von H0 ist die Teststatistik F-verteilt mit 2 Z¨ ahler- und 16 Nennerfreiheitsgraden. 2 2 = 6, 23. Da F > F16;0,99 , muss H0 abgelehnt Der kritische Wert lautet F16;0,99 ¨ werden. Beim Ubergang von t = 12 auf t = 13 ist es zu einem Strukturbruch in den Koeffizienten gekommen.

L¨ osung zu Aufgabe 58: 2 = σF2 H0 : σM

2 H1 : σM = σF2

Die Pr¨ ufgr¨oße ist gegeben durch F =

2 σ ˆM 64894, 1018 = 0, 4160. = σ ˆF2 155982, 047

Die kritischen Werte lauten 286 F161;0,025 = 0, 76445766

und 286 F161;0,975 = 1, 3220858.

104

2 Klassisches Regressionsmodell

286 Da F < F161;0,025 , wird H0 abgelehnt. Die St¨ orgr¨ oßenvarianzen von Frauen und M¨ annern sind nicht gleich.

L¨osung zu Aufgabe 59: a) Heteroskedastie ist h¨ aufiger bei Querschnittsdaten anzutreffen. Bei Zeitreihendaten ist Heteroskedastie eher selten, jedoch nicht v¨ ollig ausgeschlossen. Die Varianz der St¨orgr¨ oße kann sich im Zeitablauf ¨ andern. In diesem Fall sind die St¨ orgr¨ oßen heteroskedastisch (vgl. Strukturbruch bei St¨ orgr¨ oßenvarianzen - L¨ osung Aufgabe 56). b) Diese Behauptung ist f¨ ur einen Spezialfall richtig. Sie trifft zu, wenn die Heteroskedastie eine zeitliche Struktur aufweist. Wenn die Varianz der St¨ orgr¨ oßen sich im Zeitablauf zwischen zwei Perioden ¨ andert, kommt es zu einem Strukturbruch bei der St¨ orgr¨ oßenvarianz. Die St¨ orgr¨ oßen zwischen den beiden Perioden sind heteroskedastisch. In dieser Situation entspricht der Strukturbruchtest bei den Varianzen dem Goldfeld-Quandt-Test auf Heteroskedastie mit der Zeit als heteroskedastieerzeugende Variable. Die St¨ orgr¨ oßenvarianz kann sich jedoch auch kontinuierlich, zu jedem vorliegenden Beobachtungszeitpunkt ¨ andern und hierf¨ ur k¨ onnen verschiedene Einfl¨ usse gleichzeitig verantwortlich sein. orgr¨ oßen sind hoc) Beim Heteroskedastietest lautet die Nullhypothese H0 : Die St¨ moskedastisch. Die Alternativhypothese ist allgemein gegeben durch H1 : Die St¨ orgr¨ oßen sind heteroskedastisch. Spezielle Heteroskedastietests engen jedoch H1 ein. In der Alternativhypothese kann genau spezifiziert werden, um welche Art der Heteroskedastie es sich handelt. Es kann einerseits vermutet werden, dass die Heteroskedastie von einer oder mehreren exogenen Variablen verursacht wird. Andererseits ist es m¨ oglich, dass Heteroskedastie von Einflussgr¨ oßen bestimmt wird, die nicht explizit im Modell ber¨ ucksichtigt werden. So wird beim Goldfeld-Quandt-Test die Heteroskedastie u ¨blicherweise durch eine spezielle Variable erzeugt (H1 : σi2 = σ 2 x2i ) oder beim onnen die Breusch-Pagan-Test wird H1 : σi2 = σ 2 f (α + α z) formuliert. Außerdem k¨ St¨ orgr¨ oßen aus verschiedenen Perioden heteroskedastisch sein. Der durchgef¨ uhrte Test h¨ angt also von der Art der vermuteten Heteroskedastie ab. d) Fehlspezifikation eines Regressionsmodells kann zu verschiedenen Problemen f¨ uhren. Unter anderem kann es auch zu Heteroskedastie kommen. Wenn die Koeffizienten eines Modells nicht konstant sind, sondern stochastisch variieren, wird Heteroskedastie erzeugt (vgl. Aufgabe 61).

2.4 L¨ osungen

105

L¨osung zu Aufgabe 60: Ob die Deflationierung der monet¨ aren Variablen die Heteroskedastie beseitigt, h¨ angt von folgenden Faktoren ab: Erstens m¨ usste die Heteroskedastie von dem Deflationierungsindex abh¨ angen. Es ist z.B. m¨ oglich, dass die Varianz der St¨ orgr¨ oße bei Preissteigerungen zunimmt: V (ut ) = f (pt )σ 2 mit f  (pt ) > 0, wobei pt durch einen Preisindex gemessen werden kann. Zweitens m¨ usste die Heteroskedastie folgende Form haben: V (ut ) = p2t σ 2 . Dann w¨ urde durch die Deflationierung (Teilung der Variablen durch pt ) die Heteroskedastie beseitigt werden. Wenn die Heteroskedastie eine andere Form besitzt oder durch weitere Determinanten erzeugt wird, f¨ uhrt die Deflationierung bestenfalls teilweise zur L¨ osung des Problems. In diesem Fall ist eine andere, je nach Art der Heteroskedastie unterschiedliche Modelltransformation notwendig. Falls im Modell außer monet¨ aren Variablen auch nicht-monet¨ are Variablen enthalten sind und diese Variablen nicht durch pt dividiert werden, wird die Deflationierung nicht zur vollst¨ andigen Beseitigung der Heteroskedastie f¨ uhren.

L¨ osung zu Aufgabe 61: Das wahre Modell sei gegeben durch yi = xi βi + εi , wobei V (εi ) = σε2 und xi der Vektor der exogenen Variablen der Beobachtung i ist. Wird statt von stochastischen Koeffizienten βi von konstanten Koeffizienten β ausgegangen, erh¨ alt man f¨ ur das Modell yi = xi β + ui ui = xi βi − xi β + εi = xi (βi − β) + εi = xi vi + εi . Daraus folgt unmittelbar V (ui ) = V (xi vi + εi ) =

K 

2 x2ik σkv + σε2 .

k=0

Die Varianz der St¨ orgr¨ oße ui h¨ angt von dem beobachtungsspezifischen Vektor der exogenen Variablen ab und ist damit heteroskedastisch.

106

2 Klassisches Regressionsmodell

L¨ osung zu Aufgabe 62: a) Es wurden drei Regressionsgleichungen gesch¨ atzt. In der ersten Gleichung wurden M¨ anner und Frauen gemeinsam in der Sch¨ atzung ber¨ ucksichtigt (n = 4367). Die zwei weiteren Regressionsgleichungen beziehen sich ausschließlich auf m¨ annliche unf echte exogene Variablen (nM = 3480) oder weibliche Manager (nF = 887). F¨ finden Ber¨ ucksichtigung. In der ersten Sch¨ atzung ist der Einfluss der Variablen SEX negativ und mit einem t-Wert von 18,40 signifikant. M¨ annliche Manager arbeiten im Durchschnitt 3,3662 Stunden mehr pro Woche als weibliche Manager. Auch der Bildungsstand spielt eine Rolle. Der entsprechende t-Wert betr¨ agt 5,09. Der Einfluss ist ebenfalls signifikant. Mit jedem zus¨ atzlichen Ausbildungsjahr nimmt die gesch¨ atzte w¨ ochentliche Arbeitszeit im Durchschnitt um 0,1709 Stunden bzw. 10,3 Minuten ab. Ein Manager mit einem Hochschulabschluss (18 Ausbildungsjahre) arbeitet damit fast eine Stunde weniger pro Woche als ein Manger ohne einen Hochschulabschluss mit 13 Ausbildungsjahren. Außer den pers¨ onlichen Eigenschaften von Managern spielen auch Betriebsmerkmale eine Rolle. In gr¨ oßeren Betrieben ist die w¨ ochentliche Arbeitszeit der Manager geringer als in kleineren Betrieben. Der t-Wert der Variablen F IRM SIZE ist mit 4,09 wiederum signifikant. Der Einfluss der Variablen ALT ER und T EN U RE erweist sich in der gemeinsamen Sch¨ atzung der M¨ anner und Frauen nicht als statistisch signifikant. Eine Ursache dieses Ergebnisses kann sein, dass das Alter und die Dauer der Betriebszugeh¨ origkeit bei M¨ annern und Frauen unterschiedlich wirken. In diesem Fall kann ¨ die Uberlappung der gegenseitigen Wirkungszusammenh¨ ange zu insignifikanten Sch¨ atzkoeffizienten f¨ uhren. Die getrennten Sch¨ atzungen f¨ ur M¨ anner und Frauen best¨ atigen diese Vermutung. Die Variable ALT ER ist in getrennten Sch¨ atzungen sowohl bei M¨ annern als auch bei Frauen f¨ ur α = 0, 01 signifikant. W¨ ahrend M¨ anner mit zunehmendem Alter l¨ angere w¨ ochentliche Arbeitszeiten haben, nimmt bei weiblichen Managern mit zunehmendem Alter die w¨ ochentliche Arbeitszeit ab. Obwohl bei der Variablen atzung in den getrennten Sch¨ atzungen T EN U RE die t-Werte der Koeffizientensch¨ im Vergleich zur gemeinsamen Sch¨ atzung stark zunehmen, bleibt der Einfluss der Variablen sowohl bei M¨ annern als bei Frauen insignifikant. Der negative Einfluss der Ausbildungsdauer ist bei weiblichen Managern st¨ arker ausgepr¨ agt. Die Betriebsgr¨ oße beeinflusst bei M¨ annern ihre Arbeitszeit nach wie vor negativ, w¨ ahrend bei Frauen kein statistisch gesicherter Einfluss mehr festgestellt werden kann. ¨ F¨ ur die Uberpr¨ ufung, ob die Variabe SEX eine heteroskedastieerzeugende Variable ist, werden die gesch¨ atzten St¨ orgr¨ oßenvarianzen der M¨ anner und Frauen miteinan2 = σF2 der verglichen. Falls SEX keine Heteroskedastie verursacht, muss H0 : σM 2 2 gelten. Ansonsten ist von H1 : σM = σF auszugehen. Die Pr¨ ufgr¨ oße lautet F =

2 15, 6233 σ ˆM = 0, 3308, = σ ˆF2 47, 2259

2.4 L¨ osungen

107

wobei (vgl. z. B. Greene 2003, S. 33) σ ˆi2 =

1 (1 − R2 )(n − 1)s2AZEIT,i n−K −1

mit i=M¨ anner oder Frauen. Daraus folgt: 2 = σ ˆM

σ ˆF2 =

1 · (1 − 0, 0182) · (3480 − 1) · 3, 98682 = 15, 6233 3480 − 4 − 1 1 · (1 − 0, 0377) · (887 − 1) · 6, 98962 = 47, 2259. 887 − 4 − 1

Die kritischen Werte lauten 3475 = 0, 9022 F883;0,025 3475 F883;0,975 = 1, 1119985. 3475 Da F < F883;0,025 , muss H0 abgelehnt werden. Es ist also davon auszugehen, dass die Variable SEX Heteroskedastie erzeugt. b) Der Testbefehl ovtest f¨ uhrt einen Test auf Spezifikationsfehler durch (RESET). Es werden verschiedene Potenzen der gesch¨ atzten Werte der endogenen Variablen (k¨ unstliche Variablen) in die Sch¨ atzgleichung aufgenommen und ihre Signifikanz wird durch den F-Test u uft. Das Ergebnis des Tests zeigt, dass drei k¨ unstliche ¨berpr¨ 3 = 14, 63 ist hochsignifikant Variablen ber¨ ucksichtigt wurden. Der F-Wert mit F4359 - display F(3, 4359,14.63)ergibt 1. Ein ¨ ahnlicher Test wird durch die Ber¨ uck2  uhrt. Auch in diesem Fall sichtigung der k¨ unstlichen Variablen AZEIT durchgef¨ ist das Testergebnis mit einem t-Wert von 3,23 signifikant. Beide Tests deuten auf eine Fehlspezifikation der Regressionsgleichung hin. F¨ ur eine gute Erkl¨ arung der w¨ ochentlichen Arbeitszeit der Manager ist die Spezifikation der Gleichung durch die ber¨ ucksichtigten Variablen nicht ausreichend. 2 3   , AZEIT und Man sollte meinen, dass bei der RESET-Version mit AZEIT 4

 AZEIT mehr Information eingeht, dass eine flexiblere Form der Nichtlinearit¨ at 2  erfasst wird als bei der alleinigen Hinzuf¨ ugung des k¨ unstlichen Regressors AZEIT und damit der erste Test vorzuziehen ist. Monte Carlo Studien (Leung, Yu 2000) kommen jedoch zu einem gegenteiligen Ergebnis.

L¨osung zu Aufgabe 63: Dem Goldfeld-Quandt-Test liegt die Annahme zugrunde, dass die Heteroskedastie durch eine bestimmte exogene Variable xk verursacht wird. Die Nullhypothese und die Gegenhypothese lauten z. B. H0 : σi2 = σ 2

H1 : σi2 = σ 2 x2ik .

108

2 Klassisches Regressionsmodell

Falls die Gegenhypothese H1 : σi2 = σ 2 x2ik zutrifft, werden die St¨ orgr¨ oßen bei Beoboßere (kleinere) Streuung achtungen mit gr¨ oßeren (kleineren) Werten von xk eine gr¨ aufweisen. Falls jedoch die Nullhypothese H : σi2 = σ 2 zutreffend sein sollte, wird die angen. Streuung der St¨ orgr¨ oßen nicht von den Beobachtungswerten der Variablen xk abh¨ Zur Durchf¨ uhrung des Goldfeld-Quandt-Tests werden die Beobachtungen nach der Variablen xk sortiert. Anschließend werden die sortierten Beobachtungen in zwei Gruppen (g = 1, 2) mit n1 und n2 Beobachtungen eingeteilt. Die Beobachtungen mit großen Werten von xk seien der Gruppe g = 1 und die Beobachtungen mit kleinen Werten von ohung der Trennsch¨ arfe des Tests kann ein xk der Gruppe g = 2 zugeordnet. Zur Erh¨ ¨ Teil der mittleren Beobachtungen eliminiert werden. Ublicherweise liegt der Anteil der eliminierten Beobachtungen zwischen 1/3 und 2/5. Anschließend werden f¨ ur beide Beobachtungsgruppen (g = 1, 2) getrennt Regressiatzt. Der onssch¨ atzungen durchgef¨ uhrt und die St¨ orgr¨ oßenvarianzen σ12 und σ22 gesch¨ 2 2 ˆ2 . Test basiert auf dem Vergleich von σ ˆ1 und σ Die Pr¨ ufgr¨ oße ist  2 ( u ˆ )/(n1 − K − 1) σ ˆ2 F =  12 = 12 . ( u ˆ2 )/(n2 − K − 1) σ ˆ2 Bei G¨ ultigkeit von H0 : σi2 = σ 2 darf die Pr¨ ufgr¨ oße F nicht viel gr¨ oßer sein als Eins. Die Pr¨ ufverteilung folgt einer F -Verteilung mit (n1 −K −1) und (n2 −K −1) Freiheitsgraden: −K−1 Fnn21−K−1 . −K−1 . In diesem Fall muss von Die Hypothese H0 ist abzulehnen, falls F > Fnn21−K−1,1−α −K heteroskedastischen St¨ orgr¨ oßen ausgegangen werden. Falls F ≤ Fnn21−K,1−α , kann die Nullhypothese homoskedastischer St¨ orgr¨ oßen aufrechterhalten werden.

Falls ein Teil der mittleren Beobachtungen eliminiert wurde, sind die ver¨ anderten Freiheitsgrade sowohl bei Ermittlung der Pr¨ ufgr¨ oße als auch bei der Pr¨ ufverteilung zu ber¨ ucksichtigen. ¨ Wie der Goldfeld-Quandt-Test wird der Breusch-Pagan-Test zur Uberpr¨ ufung der Heteroskedastie bei St¨ orgr¨ oßen verwendet. Im Unterschied zum Goldfeld-Quandt-Test ist der Breusch-Pagan-Test lediglich ein asymptotischer Test. Heteroskedastie kann durch mehr als eine exogene oder andere, im Modell nicht enthaltene Variablen verursacht werden. Dar¨ uber hinaus reagiert der Breusch-Pagan-Test sensitiv auf die Verletzung der Normalverteilungsannahme der St¨ orgr¨ oßen. Durch eine Modifikation der Teststatistik kann allerdings die Abh¨ angigkeit von der Normalverteilungsannahme verringert werden (Koencker 1981).

L¨ osung zu Aufgabe 64: a) Angenommen, es wird zum Zeitpunkt T1 ein Strukturbruch vermutet. Die Strukuhrt werden. In diesen F¨ allen turbruchtests k¨ onnen einzeln f¨ ur β1 oder β2 durchgef¨

2.4 L¨ osungen

109

lauten die Nullhypothese und die Gegenhypothese beim zweiseitigen Test H1 : βk;t≤T1 = βk;t>T1

H0 : βk;t≤T1 = βk;t>T1

mit

k = 1, 2.

Außerdem ist es m¨ oglich, einen gemeinsamen Strukturbruchtest f¨ ur beide Koeffizienten durchzuf¨ uhren H0 : β1;t≤T1 = β1;t>T1

und

β2;t≤T1 = β2;t>T1

H1 : β1;t≤T1 = β1;t>T1

und/oder

gegen β2;t≤T1 = β2;t>T1 .

Voraussetzung zur Durchf¨ uhrung dieses Tests ist, dass die St¨ orgr¨ oßenvarianzen in beiden Perioden gleich sind (vgl. z. B. H¨ ubler 2005, S. 134-136). b) Bei homogenen Regressionsmodellen ist 0 ≤ R2 ≤ 1 nicht gesichert, da hier y  y = ˆ u ˆ, weil im Gegensatz zum inhomogenen Modell - vgl. L¨ osung Aufgabe 20a yˆ yˆ + u  ˆ = 0. -ιu

L¨osung zu Aufgabe 65: a) H0 : ρ ≤ 0

H1 :ρ > 0

mit

α = 0, 05

Die Pr¨ ufgr¨ oße des exakten Durbin-Watson-Tests, die bei SHAZAM mit der Option EXACT DW ausgewiesen wird, ist gegeben durch d = 1, 02143. Zur Entscheidung f¨ ur oder gegen H0 k¨onnte die Durbin-Watson-Tabelle herangezogen werden. Als Werte f¨ ur den Unbestimmtheitsbereich ergeben sich bei einer echten exogenen Variable, T = 20 Beobachtungen und α = 0, 05: du = 1, 20 und do = 1, 41. Da d < du , wird H0 abgelehnt. Es liegt positive Autokorrelation erster Ordnung vor. SHAZAM weist aufgrund der Option EXACT DW aber auch den empirischen α-Wert (p-Value) aus, so dass auf die Werte der DW-Tabelle zu verzichten ist. Der p-Wert f¨ ur die Durbin-Watson-Teststatistik lautet 0, 008197 < 0, 05. Da die Pr¨ ufgr¨oße d kleiner als 2 ist, ist die Wahrscheinlichkeitsmasse der Durbin-WatsonVerteilung links von der Pr¨ ufgr¨ oße gleich 0, 008197. Die Nullhypothese, dass keine positive Autokorrelation erster Ordnung vorliegt, ist in diesem Fall abzulehnen. ur t = s des klassischen b) Bei G¨ ultigkeit von H1 ist die Annahme Cov(ut us ) = 0 f¨ linearen Modells verletzt. Bei Verletzung dieser Annahme kann nicht mehr von Unkorreliertheit zwischen den St¨ orgr¨ oßen unterschiedlicher Zeitpunkte ausgegangen werden. In diesem Fall spricht man von positiver Autokorrelation erster Ordnung.

110

2 Klassisches Regressionsmodell F¨ ur die Autokorrelation ist eine eindeutige Rangfolge von Beobachtungen notwendig. Dies ist bei der Dimension Zeit“, aber nicht ohne weiteres bei anderen ” Variablen gegeben. Aus diesem Grund ist Autokorrelation eher bei Zeitreihendaten als bei Querschnittsdaten zu beobachten.

L¨ osung zu Aufgabe 66: a) Positive Autokorrelation erster Ordnung liegt vor, wenn f¨ ur die St¨ orgr¨ oßen die atzwert ρˆ = 0, 79 kann f¨ ur den Beziehung ut = ρut−1 + ξt mit ρ > 0 gilt. Der Sch¨ Test auf Autokorrelation verwendet werden. Zu testen ist H0 : ρ ≤ 0 gegen

H1 : ρ > 0.

Die Pr¨ ufgr¨ oße lautet t=

ρˆ 0, 79 = = 2, 46875. σ ˆρˆ 0, 32

Der kritische Wert ist t99−1;0,99 = t98;0,99 = 2, 3650024. Da t > t98;0,99 , wird H0 : ρ ≤ 0 abgelehnt. Es kann bei α = 0, 01 von positiver Autokorrelation erster Ordnung ausgegangen werden. b) Zu testen ist H0 : ρ = 0

gegen

H1 : ρ = 0

Die Pr¨ ufgr¨ oße des Durbin-Watson-Tests ist gegeben durch DW ≈ 2 − 2ˆ ρ = 0, 42. Der kritische Wert der Durbin-Watson-Verteilung am unteren Verteilungsende lautet dl = 1, 482. Da DW < dl , muss H0 : ρ = 0 abgelehnt werden. c) Die Koeffizientensch¨ atzungen werden nicht beeinflusst, wenn die Autokorrelation der St¨ orterme bei der OLS-Sch¨ atzung vernachl¨ assigt wird. Die OLS-Sch¨ atzfunktion f¨ ur die Koeffizienten bleibt unverzerrt. Im Unterschied dazu werden die Varianzen der Koeffizientensch¨ atzfunktion verzerrt gesch¨ atzt. Sie sind u ¨blicherweise nach unten verzerrt, d. h. die sich ergebenden Konfidenzintervalle sind k¨ urzer als die wahren Konfidenzintervalle. Dadurch wird eine gr¨ oßere Sch¨ atzgenauigkeit vorgespielt als tats¨ achlich gerechtfertigt ist.

2.4 L¨ osungen

111

L¨osung zu Aufgabe 67: Das Bestimmtheitsmaß misst den Anteil der Varianz der endogenen Variablen, der auf die ber¨ ucksichtigten Regressoren zur¨ uckzuf¨ uhren ist. Das Bestimmtheitsmaß in einem Zweivariablenmodell y = a + bx + u wird als einfaches Bestimmheitsmaß und im multiplen Regressionsmodell y = β0 + β1 x1 + . . . + βK xK + u als multiples oder totales Bestimmtheitsmaß bezeichnet. 2 im Regressionsmodell y = β0 + β1 x1 + Das multiple Bestimmtheitsmaß Ry;x 1 ,...,xK  2 . . . + βK xK + u ist ungleich der Summe der einfachen Bestimmtheitsmaße ryxk der Regressionsmodelle

y = β01 + β11 x1 + u1 .. . y = β0K + β1K xK + uK . 2 < Im Allgemeinen gilt: Ry;x 1 ,...,xK

K  k=1

2 ryx . Im Dreivariablenmodell folgt bei Unkorrek

2 2 2 liertheit der beiden echten Regressoren: Ry;x = ryx + ryx - vgl. Aufgabe 72 ba). 1 ,x2 1 2

L¨ osung zu Aufgabe 68: a) Das Bestimmtheitsmaß R2 ist im klassischen Regressionsmodell folgendermaßen definiert  2 u ˆi 2 . R =1−  (yi − y¯i )2 Alternativ kann R2 auch wie folgt dargestellt werden  ˆ)2 (ˆ yi − y¯ R2 =  . (yi − y¯i )2 Beide Definitionen f¨ uhren im inhomogenen Regressionsmodell zum gleichen Wert von R2 . R2 kann als der Anteil der Varianz der endogenen Variablen interpretiert werden, der durch das lineare Regressionsmodell erkl¨ art wird. b) Mit Aufnahme zus¨ atzlicher exogener Variablen in das Regressionsmodell nimmt der Wert von R2 u ¨blicherweise zu. R2 bleibt nur dann konstant, wenn die Koeffizientensch¨ atzung der zus¨ atzlich aufgenommenen Variablen genau Null entspricht. Auch die Aufnahme einer Variablen, deren Koeffizientensch¨ atzung insignifikant, jedoch nicht genau Null ist, erh¨ oht immer das Bestimmtheitsmaß R2 . Aus diesem Grund kann aus einer Zunahme von R2 nicht geschlossen werden, dass die Aufnahme zus¨ atzlicher Variablen gerechtfertigt ist.

112

2 Klassisches Regressionsmodell 2

Das korrigierte Bestimmtheitsmaß R ist eine Maßzahl, die mit zus¨ atzlichen exo2 genen Variablen nicht automatisch zunimmt. R ist folgendermaßen definiert  2 u ˆi n−1 2  R =1− n − K − 1 (yi − y¯i )2 wobei K die Anzahl der echten Regressionen ist. Bei Ber¨ ucksichtigung von zus¨ atzlichen exogenen Variablen, d. h. Zunahme von K, ergibt sich durch K ein negativer 2 Effekt auf arker ist als die Abnahme der ResiduenquadratR2 . Wenn dieser Effekt st¨ summe u ˆi , kommt es zur Verringerung des korrigierten Bestimmtheitsmaßes. Durch die Stichprobenfunktion R2 wird das wahre Bestimmtheitsmaß verzerrt atzfunktionen f¨ ur σ 2 und gesch¨ atzt. Bei der Ermittlung von R2 werden verzerrte Sch¨ 2 ur das korrigierte Bestimmtheitsmaß spricht die Verwendung f¨ ur σy verwendet. F¨ unverzerrter Sch¨ atzfunktionen f¨ ur σ 2 und f¨ ur σy2 . Dadurch wird die Verzerrung bei der Sch¨ atzung des wahren Bestimmtheitsmaßes verringert, jedoch nicht vollst¨ andig 2 2 beseitigt. R macht eine Aussage u ¨ber den Fit des Regressionsmodells, R hilft bei der Entscheidung, ob weitere Regressoren aufzunehmen sind. Daher sind R2 und 2 R n¨ utzliche Indikatoren. c) Das Bestimmtheitsmaß R2 entspricht dem quadrierten Korrelationskoeffizienten zwischen y und yˆ. Aus diesem Grund stimmt das einfache Bestimmtheitsmaß des Zweivariablenmodells y = a + bˆ y + v mit dem multiplen R2 u ¨berein. 2 d) Aus beiden Definitionen von R (s. o.) folgt unmittelbar die G¨ ultigkeit von 0 ≤ ˆ u ˆ und dies ist im inhomogenen R2 ≤ 1, wenn y ∗ y ∗ = (y − y¯) (y − y¯) = yˆ∗ yˆ∗ + u klassischen Regressionsmodell gegeben. e) Das multiple Bestimmtheitsmaß R2 l¨asst sich durch R2 =

βˆ∗ X ∗ X ∗ βˆ∗ nd2y

ˆ ist der gesch¨ ermitteln. β∗ atzte Koeffizientenvektor der echten Regressoren. Die ¨ Teststatistik zum Uberpr¨ ufen von H0 : β ∗ = 0 ist F =

βˆ∗ X ∗ X ∗ βˆ∗ /K . u ˆ u ˆ/(n − K − 1)

Daraus folgt F = R2 ·

nd2y n − K − 1 · . u ˆ u ˆ K

L¨ osung zu Aufgabe 69: Betrachten wir folgendes lineares Regressionsmodell y = β0 + β1 x1 + . . . + βK xK + u.

2.4 L¨ osungen

113

Das Bestimmtheitsmaß des Modells sei durch R12 und die Residuenquadratsumme durch  ugt. Das u ˆ21 bezeichnet. Zu dem Modell wird eine weitere exogene Variable z hinzugef¨ erweiterte Modell lautet y = β0 + β1 x1 + . . . + βK xK + βz z + u.  2 Analog zu dem Ausgangsmodell sei R22 das Bestimmtheitsmaß und u ˆ2 die Residuenquadratsumme des erweiterten Modells. Weiter sei ryz·x1 ,...,xK der partielle Korrelationskoeffizient zwischen y und z. Es gilt folgende Beziehung (vgl. Greene 2003, S. 36): 2 R22 = R12 + (1 − R12 )ryz·x . 1 ,...,xk

ultigkeit von Da 0 ≤ R12 ≤ 1, folgt daraus unmittelbar die G¨ R22 ≥ R12 . Die Gleichheit zwischen R12 und R22 gilt dann, wenn ryz·x1 ,...,xk = 0, also wenn die Variable z nichts zur Erkl¨ arung der endogenen Variable y beitr¨ agt oder wenn R12 = 1. Intuitiv l¨ asst sich der Zusammenhang R22 ≥ R12 leicht begr¨ unden. Wird das Ausgangsmodell in der Form y = β0 + β1 x1 + . . . + βK xK + 0 · z + u geschrieben, so wird deutlich, dass das Ausgangsmodell ein Spezialfall des erweiterten Modells ist. Bei einer OLS-Sch¨ atzung wird die Residuenquadratsumme minimiert. Die Residuenquadratsumme im erweiterten Modell wird bei der OLS-Sch¨ atzung h¨ ochstens der Residuenquadratsumme im Ausgangsmodell entsprechen. Der Grund daf¨ ur ist, dass ahlt werden kann, w¨ ahrend imAusim erweiterten Modell der Parameter βz frei gew¨  2  2 u ˆ21 gangsmodell die Restriktion βz = 0 gilt. Aus u ˆ1 ≥ u ˆ2 folgt wegen R12 = 1−  (y−¯ y )2 und R22 = 1 −





u ˆ22 (y−¯ y )2

unmittelbar R22 ≥ R12 .

L¨ osung zu Aufgabe 70: Die gesch¨ atzte Regressionsgleichung lautet ln BW S = −1, 031747 + 0, 312482 ln B + 0, 580583 ln BAV. Interpretation der Sch¨ atzergebnisse: - Wenn ln B um eine Einheit steigt, nimmt ln BW S gesch¨ atzt um 0,3125 Einheiten zu. - Wenn ln BAV um eine Einheit steigt, nimmt ln BW S gesch¨ atzt um 0,5806 Einheiten zu.

114

2 Klassisches Regressionsmodell

M¨ochte man Aussagen u anderungen von B auf BWS und von ¨ber den Einfluss der Ver¨ BAV auf BWS treffen, k¨ onnen die Koeffizientensch¨ atzungen als Elastizit¨ aten interpretiert werden: - Die partielle Outputelastizit¨ at der Besch¨ aftigung B lautet 0,3125. - Die partielle Outputelastizit¨ at des Bruttoanlageverm¨ ogens BAV betr¨ agt 0,5806. Die gesch¨ atzten Koeffizienten sind signifikant von Null verschieden. Die Betr¨ age der t-Werte sind deutlich gr¨ oßer als 2. Der BETA-Koeffizient der Variablen ln BAV ist gr¨ oßer als der BETA-Koeffizient der Variablen ln B. Das bedeutet, dass der Einfluss der Variablen ln BAV als bedeutsamer einzustufen ist als der Einfluss der Variablen ln B. Der F-Wert betr¨ agt 477,44. Dieser Wert ist hochsignifikant. Somit u ¨ben beide echten Regressoren einen gemeinsamen signifikanten Einfluss auf die endogene Variable aus. Daf¨ ur, dass das Modell einen signifikanten Erkl¨ arungsgehalt besitzt, spricht auch die atzte Modell werden Gr¨ oße des Bestimmtheitsmaßes: R2 = 0, 73914. Durch das gesch¨ 73,914% der Streuung von ln BW S erkl¨ a rt. Die Standardabweichung der St¨ orgr¨ oßen √ atzt. wird mit σ ˆ = 0, 23582 = 0, 48561 gesch¨ Es sollte u uft werden, ob Heteroskedastie vorliegt. Bei sektoralen Daten ist es ¨berpr¨ wahrscheinlich, dass die St¨ orgr¨ oßenvarianzen je nach Sektor verschieden ausfallen. Außerdem sind Tests zur Modellg¨ ute notwendig. Es ist zu u ufen, ob weitere Va¨berpr¨ riablen wie eingesetzte Energie als Inputfaktor in das Modell aufzunehmen sind, ob die funktionale Form zu ver¨ andern ist, ob allgemein Fehlspezifikation vorliegt, ob ein alternatives Modell vorzuziehen ist.

L¨osung zu Aufgabe 71: a) Der Test auf die Signifikanz des Bestimmtheitsmaßes entspricht dem F-Test auf die Signifikanz aller echten exogenen Variablen, denn die F-Teststatistik l¨ asst sich durch das Bestimmtheitsmaß beschreiben (vgl. Aufgabe 68e). Die in der Tabelle 2 ). Zwischen den Tabellenwerten angegebenen Zahlen sind kritische R2 -Werte (RC und den Prozentpunkten einer F-Verteilung besteht folgender Zusammenhang K = Fn−K−1,1−α

2 RC n−K −1 . · 2 1 − RC K

Eine gegen¨ uber Aufgabe 71 erweiterte Tabelle findet sich z. B. bei Bamberg/Schittko (1979, S. 197). b) Der Zusammenhang zwischen den Werten der F-Verteilung und den Werten von 2 RC kann auch wie folgt dargestellt werden 1 K Fn−K−1,1−α

=(

1 K . − 1) · 2 RC n−K −1

2.4 L¨ osungen

115

Es ist sofort zu sehen, dass große (kleine) R2 -Werte mit großen (kleinen) F-Werten verbunden sind. Die kritischen Werte der F-Verteilung entwickeln sich ¨ ahnlich wie die Tabellenwerte. Einerseits nehmen bei einer gegebenen Anzahl der Regressoren die kritischen Werte der R2 -Statistik mit einem zunehmenden Stichprobenumfang ab. Andererseits werden die R2 -Werte bei einem gegebenen Stichprobenumfang mit einer zunehmenden Anzahl der Regressoren gr¨ oßer. Bei einem Stichprobenumfang von n = 5 und K = 4 echten Regressoren, d.h. n = K + 1, ist die F-Verteilung nicht definiert und kann aus diesem Grund nicht ¨ zur Uberpr¨ ufung der Signifikanz verwendet werden. c) Zu testen ist H0 : β1 = . . . = βK = 0 ca) Da R2 = 0, 48 < 0, 77, kann H0 nicht abgelehnt werden. cb) Der kritische Wert f¨ ur die Kombination n=20, K=6 ist in der Tabelle nicht enthalten. Er ist jedoch gr¨ oßer als der kritische Wert f¨ ur die Kombination n=20, K=4. Dieser entspricht 0,51. Da R2 = 0, 48 < 0, 51, kann H0 nicht abgelehnt werden. cc) Einem empirischen F-Wert von 2 bei K = 5 und n − K − 1 = 94 entspricht ein Bestimmtheitsmaß in H¨ ohe von R2 =

K · Femp = 0, 0962. n − K − 1 + K · Femp

Aus der Tabelle ist ersichtlich, dass der kritische Wert f¨ ur R 2 u ¨ber 0,11 liegt (vgl. cb)) und damit gr¨ oßer ist als das Bestimmtheitsmaß in der Stichprobe. Aus diesem Grund kann H0 auch in dieser Situation nicht abgelehnt werden.

L¨ osung zu Aufgabe 72: a) Betrachtet seien die Variablen y, x1 und x2 . Werden y und x1 von dem Einfluss von x2 bereinigt, entspricht der partielle Korrelationskoeffizient zwischen y und x1 dem Korrelationskoeffizienten zwischen den bereinigten Variablen y und x1 . Die uhrt: Bereinigung von dem Einfluss von x2 wird folgendenmaßen gef¨ 1) F¨ uhre eine lineare Regression von y auf eine Konstante und x2 durch. Die Residuen dieser Regression u ˆ1 sind die bereinigten Werte von y. 2) F¨ uhre eine lineare Regression von x1 auf eine Konstante und x2 durch. Die Residuen dieser Regression u ˆ2 sind die bereinigten Werte von x1 . ˆ2 ist der partielle KorrelationskoefDer Korrelationskoeffizient zwischen u ˆ1 und u fizienten zwischen y und x1 , jeweils bereinigt von dem Einfluss von x2 : ryx1 .x2 = ruˆ1 uˆ1

116

2 Klassisches Regressionsmodell

b) ba) In einem Dreivariablenmodell y = b0 + b1 x1 + b2 x2 + u gilt 2 + R2 = ryx 1

(ryx2 − ryx1 rx1 x2 )2 . 1 − rx21 x2

Falls x1 und x2 nicht miteinander korreliert sind und damit rx1 x2 = 0 gilt, ergibt sich 2 2 + ryx . R2 = ryx 1 2

bb) In einem Dreivariablenmodell gilt ˆb1 = ryx1 − ryx2 rx1 x2 · sy . 1 − rx21 x2 sx1 ullt sind, ergibt sich: ˆb1 = ryx1 . Falls sy = sx1 und rx1 x2 = 0 erf¨ ˆ Analog gilt b2 = ryx2 , wenn sy = sx2 und rx1 x2 = 0 erf¨ ullt sind. Im Zweivariablenmodell y = a + bx + u gilt immer ˆb = rxy , wenn y und x standardisiert sind.

L¨ osung zu Aufgabe 73: F¨ ur die Korrelationskoeffizienten der drei Variablen x1 , x2 und x3 gilt folgender Zusammenhang rx21 x2 .x3 =

(rx1 x2 − rx1 x3 rx2 x3 )2 . (1 − rx21 x3 )(1 − rx22 x3 )

Daraus folgt unmittelbar rx21 x2 .x3 =

(−0, 7 + 0, 3 · 0, 6)2 = 0, 4643. (1 − 0, 32 )(1 − 0, 62 )

Das Vorzeichen von rx1 x2 .x3 entspricht dem Vorzeichen der Koeffizientensch¨ atzung ˆbx2 im Dreivariablenmodell x1 = b0 + bx2 x2 + bx3 x3 + u. Es gilt ˆbx = rx1 x2 − rx1 x3 · rx2 x3 · sx1 = −0, 52 · sx1 < 0. 2 1 − rx2 x3 sx2 0, 64 sx2 √ Da ˆbx2 < 0, folgt rx1 x2 < 0, d.h. genauer rx1 x2 = − 0, 4643 = −0, 6814.

2.4 L¨ osungen

117

L¨osung zu Aufgabe 74: Gegeben sind: yˆ = 0, 9752 − 0, 01484x1 + 0, 0116x2

yˆ ˆ = 1, 0349 − 0, 0109x1

R2 = 0, 0051

2 ryx = 0, 0021 1

rx1 x2 = 0, 2903

y¯ = 0, 86424

d2y = 3, 9586

x ¯1 = 15, 651

d2x1 = 70, 407

x ¯2 = 10, 459

d2x2 = 96, 23.

Im Dreivariablenmodell gilt (vgl. z. B. H¨ ubler 2005, S. 144)

ˆb1 ry,x1 − ry,x2 rx1 ,x2 dx2 = · . ˆb2 ry,x2 − ry,x1 rx1 ,x2 dx1

Daraus folgt unter Verwendung der vorliegenden Ergebnisse

0,5 ry,x1 − 0, 2903 · ry,x2 −0, 01484 96, 23 = · 0, 0116 ry,x2 − 0, 2903 · ry,x1 70, 407 −0, 0458 − 0, 2903 · ry,x2 · 1, 169 −1, 279 = ry,x2 + 0, 0133 −1, 279ry,x2 − 0, 017 = −0, 0535 − 0, 399ry,x2 −0, 94ry,x2 = −0, 0365 ry,x2 = 0, 03883 2 = 0, 0015. ry,x 2

118

2 Klassisches Regressionsmodell

Weiterhin ist von folgenden Zusammenh¨ angen auszugehen γˆ1 = ry,x1 = dyx1 = γˆ1 = = = = γˆ0 = = =

dx 1 y d2y dyx1 dy dx1 ry,x1 · dy · dx1 ry,x1 · dy · dx1 d2y ry,x1 · dx1 dy √ −0, 0458 · 70, 407 √ 3, 9586 −0, 1932. x ¯1 − γˆ1 · y¯ 15, 651 + 0, 1932 · 0, 86424 15, 818

2 alt man rx1 ,y = ry,x1 , so dass rx21 ,y = ry,x = 0, 0021. Außerdem Aufgrund von rx21 ,y erh¨ 1 gelten

α ˆ1 =

α ˆ1 = = = = α ˆ0 = = =

dyx2 d2x2

und

ry,x2 =

dyx2 d y dx 2

ry,x2 · dy dx2 d2x2 ry,x2 · dy dx2 √ 0, 03883 · 3, 9586 √ 96, 23 0, 00788 y¯ − α ˆ1 · x ¯2 0, 86424 − 0, 00788 · 10, 459 0, 7818.

Zusammenfassung der Ergebnisse: α0 = 0, 7818 α1 = 0, 00788

γ0 = 15, 818 γ1 = −0, 1932

2.4 L¨ osungen

119

2 ry,x = 0, 0015 2

rx21 ,y = 0, 0021

L¨ osung zu Aufgabe 75: a) Das multiple Bestimmtheitsmaß l¨ asst sich durch die einfachen Korrelationskoeffizienten ausdr¨ ucken (vgl. z. B. H¨ ubler 1989, S. 53) R2 = r R−1 r =



0, 3 0, 2



1 0, 2 0, 2 1

−1

0, 3 0, 2

= 0, 11042.

F¨ ur das korrigierte Bestimmtheitsmaß gilt (vgl. z. B. H¨ ubler 1989, S. 56) 2

R =1−

n−1 20 − 1 (1 − R2 ) = 1 − (1 − 0, 11042) = 0, 0576. n−K −1 20 − 3

b) Die Pr¨ ufgr¨ oße f¨ ur den Test auf die Signifikanz der beiden echten exogenen Variablen ubler 1989, S. 72) x1 und x2 lautet (vgl. z. B. H¨ F =

0, 11042/2 = 1, 0550709. (1 − 0, 11042)/(20 − 2 − 1)

Der kritische Wert ist 2 F17;0,95 = 3, 5915. 2 , kann die Nullhypothese, dass x1 und x2 zusammen keinen statiDa F < F17;0,95 stisch gesicherten Einfluss auf y aus¨ uben, nicht abgelehnt werden.

c) Das zentrale Konfidenzintervall f¨ ur die St¨ orgr¨ oßenvarianz bei α = 0, 05 lautet (vgl. z. B. H¨ ubler 2005, S. 132)  2  2 u ˆi u ˆ ; ]. [ 2 i χ17;0,975 χ217;0,025 Es gilt 

u ˆ2i = (1 − R2 ) · n · d2y = (1 − 0, 11042) · 20 · 10 = 177, 916

χ217;0,025 = 7, 5641864 χ217;0,975 = 30, 191009. Das zentrale Konfidenzintervall ist damit: [5, 8930; 23, 5208].

120

2 Klassisches Regressionsmodell

d) Die gesch¨ atzte Regressionsgleichung lautet yˆ = βˆ0 + 2x1 + 3x2 . Wird die Summe f¨ ur alle Beobachtungen gebildet, ergibt sich    yˆi = n · βˆ0 + 2 · x1i + 3 · x2i = nβˆ0 + 2n¯ x1 + 3n¯ x2 x1 + 3¯ x2 . y¯ ˆ = βˆ0 + 2¯ Da außerdem y¯ ˆ = y¯ gilt, folgt unmittelbar βˆ0 = 20 − 2 · 7 − 3 · 10 = −24.

L¨ osung zu Aufgabe 76: Sei R die Matrix der einfachen Korrelationskoeffizienten zwischen allen Paaren der echten exogenen Variablen x1 , x2 , . . ., xK : ⎞ ⎛ 1 rx1 x2 . . . rx1 xK ⎜ rx2 x1 1 . . . rx2 xK ⎟ ⎟ ⎜ R=⎜ . .. .. ⎟ . ⎝ .. . . ⎠ rxK x1 rxK x2 . . . 1 Weiter sei r der Vektor der Korrelationskoeffizienten zwischen der endogenen Variablen y und allen echten exogenen Variablen x1 , x2 , . . ., xK   r = ryx1 ryx2 . . . ryxK . Es kann leicht gezeigt werden, dass R=

1 s s X X n

gilt, wobei X s eine Matrix mit standardisierten ⎛ x11 −¯x1 x12 −¯x2 −¯ xK . . . x1K dx1 dx2 dxK ⎜ ⎜ x21 −¯x1 x22 −¯x2 . . . x2K −¯xK ⎜ dx2 dxK X s = ⎜ dx1 .. .. .. ⎜ ⎝ . . . xnK −¯ xK xn1 −¯ x1 xn2 −¯ x2 . . . dx dx dx 1

2

Werten der exogenen Variablen ist ⎞ ⎟ ⎟ ⎟ ⎟. ⎟ ⎠

K

Außerdem l¨ asst sich der Vektor r wie folgt schreiben r=

1 s s X y n

2.4 L¨ osungen

121

mit y s =

y1 −¯ y y2 −¯ y dy dy

...

yK −¯ y dy

! .

 (yi −¯y)2 Unter Ber¨ ucksichtigung von y s y s = = n und der Invarianz des Bestimmtd2y heitsmaßes gegen¨ uber der Standardisierung der Variablen erh¨ alt man R2 =

yˆs yˆs yˆ yˆ 1 = s s = yˆs yˆs .  yy y y n

Nach Umformungen ergibt sich yˆs 

yˆs

  1 1 R2 = yˆs yˆs = y s X s (X s X s )−1 X s X s (X s X s )−1 X s y s n n 1 s s s s −1 s s = y X (X X ) X y n 1 1 = (X s y s ) · n(X s X s )−1 · X s y s = r R−1 r. n n

L¨ osung zu Aufgabe 77: Unter standardisierten Variablen versteht man Variablen, die ein arithmetisches Mittel von Null und eine Varianz von Eins besitzen. Dies erreicht man, indem von der urspr¨ unglichen Variablen das arithmetische Mittel abgezogen und die Differenz durch die Standardabweichung dieser Variablen geteilt wird. Sei xk eine nicht standardisierte Variable. Dann ist die Variable xsk standardisiert, wenn xsk =

¯k xk − x sxk

gebildet wird. Der Vorteil der Standardisierung besteht darin, dass die Koeffizientensch¨atzungen von standardisierten Variablen miteinander vergleichbar sind. Die standardisierten Variablen sind dimensionslos. Diesem Vorteil steht der Nachteil gegen¨ uber, dass das absolute Glied entf¨ allt. F¨ ur ein Zweivariablenmodell y s = as + bs xs + us mit standardisierten Variablen gilt: - Die Koeffizientensch¨ atzung der Konstanten ist gleich Null. Aus a ˆs = y¯s − bˆs x ¯s , y¯s = 0 s s ˆ = 0. und x ¯ = 0 folgt sofort a - Die Koeffizientensch¨ atzung bˆs stimmt mit dem Korrelationskoeffizienten r zwischen y und x u ubler 2005, S. 144). Da ein Korrelationskoeffizient invariant ¨berein (vgl. H¨

122

2 Klassisches Regressionsmodell

gegen¨ uber einer linearen Transformation ist (vgl. H¨ ubler 2005, S. 140), entspricht r auch dem Korrelationskoeffizienten zwischen y s und xs : bˆs = ryx = rys xs . Somit folgen die nachstehenden Ergebnisse Cs Cs Yvs

= = =

0,99013·Yvs v 0,97015·PBSP s 0,93877·PBSP

und und und

rC s Yvs s rC s PBSP s rYvs PBSP

= = =

0,99013 0,97015 0,93877

F¨ ur das Bestimmtheitsmaß gilt (vgl. H¨ ubler 2005, S. 139ff.) 2 2 = rC R 2 = rC s .Y s P s sY s + v BSP v

s s (rC s PBSP − rC s Yvs rYvs PBSP )2 1 − rY2 vs P s BSP

(0, 97015 − 0, 99013 · 0, 93877)2 = 0, 990132 + = 0, 9943. 1 − 0, 938772 F¨ ur die Koeffizientensch¨ atzungen lassen sich aufgrund der vorhandenen Angaben (vgl. H¨ ubler 2005, S. 144) βˆ1s =

s s rC s Yvs − rC s PBSP rYvs PBSP sC s · 2 1 − rYvs P s sYvs BSP

0, 99013 − 0, 97015 · 0, 93877 1 = · = 0, 6687 1 − 0, 938772 1 und βˆ2s =

s s rC s PBSP − rC s Yvs rYvs PBSP sC s · 2 s 1 − rYvs P s sPBSP BSP

0, 97015 − 0, 99013 · 0, 93877 1 = · = 0, 3424. 1 − 0, 938772 1 ermitteln. Schließlich folgt noch wegen scons = 0 f¨ ur die Koeffizientensch¨ atzung der s ˆ Konstanten β0 = 0.

L¨ osung zu Aufgabe 78: Aus ¨ okonomischen Theorien lassen sich u ¨blicherweise keine numerischen Anhaltspunk¨ te u angigkeit der Variablen gewinnen. Dadurch wird die Uberpr¨ ufung die¨ber die Abh¨ ser Theorien erschwert. Man k¨ onnte versuchen, eine Plausibilit¨ ats¨ uberpr¨ ufung anhand des Vorzeichens der Koeffizientensch¨ atzung vorzunehmen. Dieser Ansatz greift zu kurz, wenn die Theorie sowohl Erkl¨ arungen f¨ ur einen positiven als auch f¨ ur einen negativen

2.4 L¨ osungen

123

Zusammenhang liefert und die Sch¨ atzungen je nach Spezifikation positive und negative Vorzeichen erbringen. Aus diesen Gr¨ unden ist eine erg¨ anzende statistische Absicherung des gesch¨ atzten Modells notwendig. Erste Hinweise liefern das Bestimmtheitsmaß (R2 ) und die t-Werte. unschenwert. Ein besserer Indikator zur Signifikante t-Werte und ein hohes R2 sind w¨ ¯ 2 . Weiterhin kann Beurteilung der Modellg¨ ute ist das korrigierte Bestimmtheitsmaß R z. B. mit Hilfe des regression specif ication error tests (RESET) gepr¨ uft werden, ob das Modell korrekt spezifiziert ist. Der Nullhypothese H0 : “Das Modell y = Xβ + u ist korrekt spezifiziert“ wird die Alternativhypothese H1 : “Das Modell ist fehlspezifiziert“ ¨ gegen¨ ubergestellt. Die Uberpr¨ ufung erfolgt in drei Schritten (vgl. H¨ ubler 2005, S. 153): Im ersten Schritt wird das Ausgangsmodell gesch¨ atzt und die Prognosewerte yˆ werden ermittelt. Im zweiten Schritt wird das Ausgangsmodell um yˆ2 oder noch weitere Potenzen von yˆ anzt. (ˆ y 3 , yˆ4 usw.) erg¨ Im dritten Schritt wird u uft, ob die Koeffizientensch¨ atzungen der Potenzen von ¨berpr¨ yˆ im erweiterten Modell signifikant sind. Ist das der Fall, so muss das Ausgangsmodell als fehlspezifiziert bezeichnet werden. Wenn die Potenzen von yˆ insignifikant sind, gilt das Ausgangsmodell als korrekt spezifiziert. Alternativ zu Potenzen von yˆ kann das Ausgangsmodell um die Potenzen der einzelnen x-Variablen aus der Matrix X oder um ihre Kreuzprodukte erg¨ anzt werden.

L¨osung zu Aufgabe 79: Bei der Sensitivit¨ atsanalyse im Sinne von Leamer (1985) wird die Robustheit der Sch¨ atzergebnisse u uft. Es steht die Frage im Vordergrund, ob und wie stark sich die ¨berpr¨ Sch¨ atzergebnisse durch Variation der Spezifikation ver¨ andern. Angenommen, es wird ein positiver Einfluss des Regressors z auf den Regressanden y vermutet. Diese Vermutung wird best¨ atigt, falls der gesch¨ atzte Koeffizient des Regressors z positiv und signifikant ist. Die Sensitivit¨ atsanalyse u uft, ob dieser positive ¨berpr¨ Zusammenhang bestehen bleibt, wenn die Spezifikation der Regressionsgleichung variiert wird. Falls zwischen z und y tats¨ achlich ein positiver Zusammenhang besteht, ¨ werden die Anderungen der Modellspezifikation nicht zu einem Vorzeichenwechsel des gesch¨atzten Koeffizienten und auch nicht zum Verlust der Signifikanz f¨ uhren. Allgemein wird zur Analyse die Sch¨ atzung der Gleichung y = zα + X1 β1 + X2 β2 + u herangezogen. Die Variable z steht im Mittelpunkt. Es soll herausgearbeitet werden, in welchem Bereich die zugeh¨ orige Koeffizientensch¨ atzung α ˆ schwankt bei sehr verschiedenen Spezifikationen der Regressionsgleichung. In der Matrix X1 sind Variablen alt zusammengefasst, die in jeder Spezifikation aufzunehmen sind. Die Matrix X2 enth¨

124

2 Klassisches Regressionsmodell

¨ Variablen, die als m¨ ogliche Determinanten gelten und durch die die Anderung der Spezifikation zum Ausdruck kommt. atzt Zun¨ achst wird die Regressionsgleichung ohne die Matrix X2 gesch¨ y = zα + X1 β1 + v. Anschließend werden einzelne oder mehrere Variablen aus der Matrix X2 in die Regressionsgleichung aufgenommen. Wenn α ˆ durchgehend positiv und signifikant bleibt, kann der Zusammenhang zwischen z und y als robust bezeichnet werden. Wenn es allerdings zu einem Vorzeichenwechsel oder zum Verlust der Signifikanz kommt, gilt der Zusammenhang als fragil. Außerdem sind auch die Variablen aus der Matrix X2 zu identifizieren, die zur Insignifikanz oder zu einem Vorzeichenwechsel bei α ˆ f¨ uhren. M¨ ogliche Multikollinearit¨ aten k¨ onnen die Aussagef¨ ahigkeit der Sensitivit¨ atsanalyse einschr¨ anken.

L¨ osung zu Aufgabe 80: Zun¨achst werden die Modelle (1) und (2) miteinander verglichen. Es handelt sich um nicht genestete Modelle. Die Auswahl zwischen den Modellen kann mit Hilfe des Davidson/MacKinnon-Tests erfolgen (vgl. H¨ ubler 2005, S. 153, (ii)). Die k¨ unstliche Variable atzST AT 2(1) aus dem Modell (1) ist signifikant, wenn sie in das Modell (2) als zus¨ licher Regressor aufgenommen wird. Im Unterschied dazu ist die k¨ unstliche Variable ST AT 2(2) aus dem Modell (2) nicht signifikant, wenn sie als zus¨ atzlicher Regressor in das Modell (1) aufgenommen wird. Die Variablen Statistik − 1 − N ote und V W L − V ertief er u ¨ben durch die Variable ST AT 2(1) einen Einfluss im Modell (2) aus. Im Unterschied dazu, haben die Variablen SEX, ALT ER und ABIT U RN OT E, deren Wirkung durch Aufnahme der Variable ST AT 2(2) ber¨ ucksichtigt wird, keinen Einfluss im Modell (1). In diesem Fall ist das Modell (1) dem Modell (2) vorzuziehen. Im n¨achsten Schritt werden die Modelle (1) und (3) miteinander verglichen. Das Modell (1) ist im Modell (3) genestet. Aus diesem Grund kann die Auswahl zwischen diesen Modellen anhand eines F-Tests erfolgen (vgl. H¨ ubler 2005, S.153, (i)). Daf¨ ur ist zu pr¨ ufen, ob die Variablen SEX und P C-N utzung, die im Modell (3), aber nicht in (1) enthalten sind, gemeinsam einen signifikanten Einfluss auf die endogene Variable aus¨ uben. Die Nullhypothese lautet H0 : βSEX = βP C−N utzung = 0. Die Pr¨ ufgr¨ oße ist gegeben durch F =

(237, 6 − 190, 9)/2 = 6, 727 . 190, 9/(60 − 4 − 1)

2.4 L¨ osungen

125

2 Bei dem kritischen Wert F55;0,99 = 5, 0132 ist die Nullhypothese abzulehnen. Die Variablen SEX und P C-N utzung u ¨ben somit gemeinsam einen signifikanten Einfluss auf die endogene Variable aus. Aus diesem Grund ist Modell (3) gegen¨ uber Modell (1) zu pr¨ aferieren.

Modell (3) ist aus statistisch-¨ okonometrischer Sicht besser als die Modelle (1) und (2). Weiterhin bleibt zu fragen, ob sich Modell (3) als befriedigend einstufen l¨ asst oder ¨ nach weiteren Spezifikationen zu suchen ist. Diese Uberpr¨ ufung kann mit dem RESETVerfahren erfolgen (vgl. H¨ ubler 2005, S. 153, (iii)). Bei diesem Verfahren werden Proxys f¨ ur unterdr¨ uckte Variablen in die Regressionsgleichung aufgenommen. Wenn diese Proxies keinen signifikanten Einfluss auf die endogene Variable aus¨ uben, geht man von einer korrekten Spezifikation aus. F¨ ur das Modell (3) wurde als Proxy f¨ ur unterdr¨ uckte 2  ucksichtigt. Die Koeffizientensch¨ atzung Variablen die k¨ unstliche Variable ST AT 2(3) ber¨ dieser Proxy-Variablen ist mit einem t-Wert von 0,32 nicht signifikant. Dieses Ergebnis spricht nicht daf¨ ur, dass im Modell (3) Variablen unterdr¨ uckt worden sind. Modell (3) kann aufgrund der durchgef¨ uhrten Tests als korrekt spezifiziert eingestuft werden.

L¨ osung zu Aufgabe 81: a) Wird statt des wahren Modells y = X1 β1 +X2 β2 +u

(1)

das Modell y = X2 β2 +v

(2)

gesch¨ atzt, dann besitzt die Sch¨ atzung des Koeffizientenvektors β˜2 des Modells (2) folgenden Erwartungswertvektor (vgl. H¨ ubler 1989, 108) E(β˜2 ) = β2 + (X2 X2 )−1 X2 X1 β1 . Der gesch¨ atzte Koeffizientenvektor ist nur dann erwartungstreu, wenn (X2 X2 )−1 X2 X1 β1 = 0 gilt. Daf¨ ur muss eine der beiden Bedingungen erf¨ ullt sein: - β1 = 0, d.h. die Variablen aus der Matrix X1 u ¨ben keinen linearen Einfluss auf y aus. - X2 X1 = 0, d.h. die Variablen der Matrix X1 und die Variablen der Matrix X2 sind nicht miteinander korreliert. Modell (2) liefert im Unterschied zum Modell (1) verzerrte Sch¨ atzungen, falls keine der beiden Bedingungen erf¨ ullt ist.

126

2 Klassisches Regressionsmodell Wie sich zeigen l¨ asst (H¨ ubler 1989, S. 109-110), sind die Varianzen der gesch¨ atzten Koeffizienten im Modell (2) nicht gr¨ oßer als die Varianzen im Modell (1). Aus dieser Sicht k¨ onnte auf den ersten Blick Modell (2) gegen¨ uber Modell (1) vorgezogen werden. F¨ ur eine endg¨ ultige Beurteilung sind die mittleren quadratischen Fehler (MQF) dieser Modelle zu vergleichen. Im MQF wird sowohl der Grad der Verzerrung als auch die Gr¨ oße der Varianz ber¨ ucksichtigt. Es lassen sich spezielle Bedingungen angeben, unter denen Modell (1) einen geringeren MQF besitzt als Modell (2) (vgl. H¨ ubler 1989, S. 112).

b) ba) Angenommen, anstelle von X1 werden falsche Regressoren, dargestellt in der atzte Modell Matrix X3 , in die Regressionsgleichung aufgenommen. Das gesch¨ lautet dann y = X2 β2 +X3 β3 +ε .

(3)

˜ Der Erwartungswertvektor der OLS-Sch¨ atzung β˜2 des Koeffizientenvektors β2 lautet (vgl. H¨ ubler 1989, S. 113-114) ˜ E(β˜2 ) = β2 + (X2 P3 X2 )−1 X2 P3 X1 β1 mit P3 = In − X3 (X3 X3 )−1 X3 . Der Bias wird eliminiert, falls β1 = 0 oder X2 P3 X1 = 0. bb) Irrelevante Regressoren u ¨ben keinen Einfluss auf y aus. Angenommen, die ur das Modell irrelevante Regressoren sind in Matrix X3 zusammengefasst. F¨ y = X1 β1 + X2 β2 + X3 β3 + ε

(4)

gilt dann β3 = 0. Es kann gezeigt werden, dass in diesem Fall die Sch¨ atzung des Koeffizientenvektor β2 unverzerrt ist. Es werden jedoch die Varianzen der Koeffizientensch¨ atzungen der Regressoren aus X2 beeinflusst, die mit irrelevanten Regressoren korreliert sind. Die Varianzen der Regressoren aus X2 , andern sich die nicht mit den irrelevanten Regressoren aus X3 korreliert sind, ¨ nicht (H¨ ubler 1989, S. 113-114). ¨ bc) Uberfl¨ ussige Regressoren u ¨ben keinen Einfluss auf y aus und sie sind mit anderen Regressoren nicht korreliert. Diese Variablen beeinflussen weder die Sch¨ atzungen f¨ ur den Erwartungswert noch die f¨ ur die Varianz der anderen Regressoren. c) Unterschieden werden Verfahren (i) der Vorw¨ artsselektion (ii) der R¨ uckw¨ artsselektion (iii) der schrittweisen Selektion

2.4 L¨ osungen

127

(vgl. Draper/Smith 1998, S. 327 ff., Schneeweiß 1990, S. 148ff.). Bei (i) wird mit einem Zweivariablenmodell begonnen und die Variable als Regressor aufgenommen, die aufgrund eines F-Tests den gr¨ oßten F-Wert liefert. Im n¨ achsten Schritt wird die Variable unter den verbleibenen hinzugef¨ ugt, die zum gr¨ oßten Anstieg des F-Wertes f¨ uhrt. Das Verfahren ist solange fortzusetzen, wie der Zuwachs des F-Wertes statistisch gesichert ist. Verfahren (ii) geht umgekehrt vor. Es ber¨ ucksichtigt zun¨ achst alle vorhandenen Variablen und schließt schrittweise diejenigen aus, die keinen statistisch gesicherten Beitrag zur F-Teststatistik liefern. Verfahren (iii) kombiniert die Verfahren (i) und (ii). Auf jeder Stufe wird nicht nur die Aufnahme zus¨ atzlicher Regressoren gepr¨ uft, sondern auch, ob bereits ber¨ ucksichtigte wieder auszuschließen sind. Die R¨ uckw¨ artsselektion hat eine Tendenz, mehr Variablen in die endg¨ ultige Spezifikation aufzunehmen als die Vorw¨ artsselektion. Die schrittweise Selektion tendiert zur Spezifikation der Vorw¨ artsselektion. Probleme ergeben sich bei allen drei Auswahlverfahren bei Vorliegen von Multikollinearit¨ at. In diesen F¨ allen ist es schwierig zu entscheiden, was der tats¨ achliche Einfluss einer Variablen auf den Regressanden ist und was auf andere Einflussgr¨ oßen zur¨ uckzuf¨ uhren ist. Es kann daher leicht dazu kommen, dass inhaltlich falsche, nicht kausale, aber statistisch signifikante Variablen ausgew¨ ahlt werden. Zudem k¨ onnen unterschiedlich viele fehlende Werte bei den einzelnen Variablen die Auswahl beeinflussen. Alternativen zu den bereits genannten Auswahlverfahren bilden Informationskriahlen, die zum kleinsten Wert terien (AIC, BIC, Cp ). Es ist die Spezifikation zu w¨ des jeweiligen Informationskriteriums f¨ uhrt. Egal welches Auswahlverfahren verwendet wird, das Modell kann immer noch fehlspezifiziert sein. Um dies zu pr¨ ufen, sind Fehlspezifikationstests wie das RESET-Verfahren oder der Hausman-Test heranzuziehen.

L¨ osung zu Aufgabe 82: a) Die Variablen WF, Y, ALQ, AA, ZWG, M, S und ABL sind in Datei Auf gabe82.dta zusammengefasst. Es wird erwartet, dass die durchschnittliche Wohnfl¨ ache pro Einwohner (WF) positiv durch die H¨ ohe des Bruttoinlandsprodukts pro Kopf (Y) und durch die Zahl der Wohngeb¨ auden (ZWG) beeinflusst wird. Von der Arbeitslosenquote (ALQ) und der Mieth¨ ohe (M) wird ein negativer Einfluss erwartet. Weiter wird erwartet, dass die durchschnittliche Wohnfl¨ ache pro Einwohner in Stadtstaaten geringer ist andern geringer ist als in alten als in Fl¨ achenstaaten (βS < 0) und in neuen Bundesl¨ anderquote sollte negativ Bundesl¨andern (βABL > 0). Auch der Einfluss der Ausl¨

128

2 Klassisches Regressionsmodell

sein, da Personen aus dieser Gruppe h¨ aufig in kleineren Wohnungen wohnen als Deutsche. b) Die OLS-Sch¨ atzung in STATA ergibt: regress WF Y ALQ AA ZWG M S ABL Source | SS df MS --------+-----------------------------Model | 116.239036 7 16.6055766 Residual | 17.9809496 8 2.2476187 0.8660 --------+-----------------------------Total | 134.219986 15 8.94799904

Number of obs = F( 7, 8) = Prob > F = R-squared =

16 7.39 0.0057

Adj R-squared = Root MSE =

0.7488 1.4992

---------------------------------------------------------------------WF | Coef. Std. Err. t P>|t| [95% Conf. Interval] ---------+-----------------------------------------------------------Y | .1931758 .2580022 0.75 0.475 -.4017784 .78813 ALQ | -.0956153 .3543542 -0.27 0.794 -.9127576 .721527 AA | -.5202121 .3839822 -1.35 0.213 -1.405677 .3652524 ZWG | -8.75e-07 6.16e-07 -1.42 0.193 -2.30e-06 5.45e-07 M | -3.850183 2.116966 -1.82 0.106 -8.731916 1.03155 S | -3.896044 3.434097 -1.13 0.289 -11.81509 4.022997 ABL | 14.38566 5.843668 2.46 0.039 .9101422 27.86119 _cons | 48.37649 8.503628 5.69 0.000 28.76709 67.98589

c) Die BETA-Koeffizienten lassen sich in STATA durch die Option beta des Befehls regress berechnen: regress WF Y ALQ AA ZWG M S ABL, beta --------------------------------------------------------WF | Coef. Std. Err. t P>|t| Beta ------+-------------------------------------------------Y | .1931758 .2580022 0.75 0.475 .4992786 ALQ | -.0956153 .3543542 -0.27 0.794 -.162484 AA | -.5202121 .3839822 -1.35 0.213 -.7734341 ZWG | -8.75e-07 6.16e-07 -1.42 0.193 -.2970166 M | -3.850183 2.116966 -1.82 0.106 -1.358999 S | -3.896044 3.434097 -1.13 0.289 -.5250342 ABL | 14.38566 5.843668 2.46 0.039 2.302198 _cons | 48.37649 8.503628 5.69 0.000 . d) Die Ergebnisse der Sch¨ atzungen der beiden reduzierten Regressionsgleichungen sind nachfolgend ausgewiesen.

2.4 L¨ osungen

129

Sch¨ atzung ohne ALQ regress WF Y AA ZWG M S ABL Source | SS df MS Number of obs = 16 ---------+-----------------------------F( 6, 9) = 9.60 Model | 116.075391 6 19.3458986 Prob > F = 0.0017 Residual | 18.1445943 9 2.01606604 R-squared = 0.8648 ---------+-----------------------------Adj R-squared = 0.7747 Total | 134.219986 15 8.94799904 Root MSE = 1.4199 ---------------------------------------------------------------------WF | Coef. Std. Err. t P>|t| [95% Conf. Interval] ---------+-----------------------------------------------------------Y | .239811 .1814222 1.32 0.219 -.1705945 .6502164 AA | -.5441705 .3538093 -1.54 0.158 -1.344543 .2562017 ZWG | -8.80e-07 5.83e-07 -1.51 0.166 -2.20e-06 4.39e-07 M | -4.021353 1.912823 -2.10 0.065 -8.348459 .3057519 S | -4.631962 1.976365 -2.34 0.044 -9.102809 -.1611142 ABL | 15.4704 4.016772 3.85 0.004 6.383826 24.55697 _cons | 46.2799 3.272336 14.14 0.000 38.87736 53.68244

Sch¨ atzung ohne Y regress WF ALQ AA ZWG M S ABL Source | SS df MS ---------+-----------------------------Model | 114.979005 6 19.1631675 Residual | 19.2409804 9 2.13788671 0.8566 ---------+-----------------------------Total | 134.219986 15 8.94799904

Number of obs = F( 6, 9) = Prob > F = R-squared =

16 8.96 0.0022

Adj R-squared = Root MSE =

0.7611 1.4622

---------------------------------------------------------------------WF | Coef. Std. Err. t P>|t| [95% Conf. Interval] ---------+-----------------------------------------------------------ALQ | -.2733479 .2565928 -1.07 0.314 -.8538012 .3071054 AA | -.3324677 .2836176 -1.17 0.271 -.9740553 .3091199 ZWG | -9.58e-07 5.91e-07 -1.62 0.140 -2.30e-06 3.79e-07 M | -2.545473 1.172401 -2.17 0.058 -5.197629 .1066821 S | -2.552033 2.855243 -0.89 0.395 -9.011042 3.906977 ABL | 10.47969 2.568159 4.08 0.003 4.670112 16.28927 _cons | 51.13678 7.473542 6.84 0.000 34.23045 68.04311

Der Ausschluss einer der beiden Variablen ALQ oder Y verbessert zwar in den meisten F¨ allen die Signifikanz der verbleibenden Variablen. Es kann jedoch kein signifikanter Einfluss weder von Y noch von ALQ auf die Variable WF nachgewiesen werden. Der Korrelationskoeffizient zwischen ALQ und Y betr¨ agt -0,6157. Dieser starke Zusammenhang l¨ asst vermuten, dass diese Variablen tats¨ achlich statistisch eine ¨ ahnliche Gr¨ oße messen. Die verbleibende Insignifikanz der Effekte von ALQ und Y auf WF bleibt erkl¨ arungsbed¨ urftig. Der Zusammenhang zwischen ALQ und Y ist weder aus theoretischer noch aus empirischer Sicht vollst¨ andig. Ein

130

2 Klassisches Regressionsmodell

Unterdr¨ ucken einer der beiden Regressoren sollte daher aufgrund des vergleichsweise hohen Korrelationskoeffizienten nicht automatisch erfolgen. Weitere Tests sind notwendig. e) Das Ergebnis des Tests auf Fehlspezifikation (RESET) bei der Regression in a) ist nicht signifikant. ovtest Ramsey RESET test using powers of the fitted values of WF Ho: model has no omitted variables F(3, 5) = 0.75 Prob > F = 0.5660 Aus statistischer Sicht scheinen die aufgenommenen Variablen ausreichend f¨ ur die Erkl¨ arung der Schwankungen der Variablen WF zu sein. Aus diesem Grund wird nach keinen neuen Variablen gesucht. Es ist aber noch zu analysieren, ob sich durch Ausschluss von Variablen aus dem Referenzmodell W F = β0 +βY Y +βALQ ALQ+βAA AA+βZW G ZW G+βM M +βS S+βABL ABL+u die Signifikanz der verbleibenden Variablen erh¨ oht. Das Ergebnis dieser R¨ uckw¨ artsselektion ist in der folgenden Tabelle zusammengefasst. Ausgeschlossene Variable keine Y ALQ AA ZWG M S ABL

(1) (2) (3) (4) (5) (6) (7) (8)

Y

ALQ ALQ

Signifikante Variablen - M S M, ZWG AA - M, -

ABL ABL ABL ABL ABL ABL -

Es l¨asst sich festhalten, dass keines der Modelle eindeutig allen anderen vorzuziehen ist. Einige Modelle k¨ onnen allerdings aus der weiteren Betrachtung ausgeschlossen werden. So ist Modell (3) den Modellen (1) und (2) vorzuziehen. Auch Modell (6) kann im Weiteren vernachl¨ assigt werden. Nach dem Ausschluss der Modelle (1), (2) und (6) ist die Anzahl der verbliebenen Modelle immer noch hoch. Es f¨ allt auf, dass die Variable ABL immer signifikant ist. Sie ist somit eine wichtige Determinante von WF. Außerdem f¨ uhrt der Ausschluss der Variablen ABL in Regression (8) dazu, dass die Variablen Y und ALQ signifikant werden. Dieses Ergebnis ist ein Hinweis daf¨ ur, dass die Variable ABL ¨ahnlich wie Y und ALQ die Wohlstandsunterschiede zwischen alten und neuen Bundesl¨ ander misst. Ansonsten sind die Variablen Y und ALQ fast nie signifikant. Es liegt der Eindruck nahe, dass bei den gegebenen Daten die Wohlstandsunterschiede zwischen den Bundesl¨ andern durch die Variable ABL besser erfasst werden

2.4 L¨ osungen

131

als durch die Variablen Y und ALQ. Aus diesem Grund wird zus¨ atzlich ein Modell ohne die Variablen Y und ALQ gesch¨ atzt (Modell (9)). Im Modell (9) sind vier Regressoren: ZWG, S, M und ABL signifikant und ein Regressor AA ist insignifikant. Der Ausschluss der Variablen AA aus dem Modell (9) f¨ uhrt dazu, dass alle weiteren enthaltenen Regressoren signifikant werden. Aus diesem Grund wird das Modell W F = γ0 + γZW G ZW G + γS S + γM M + γABL ABL + ε zus¨ atzlich zu den Modellen (3), (4), (5) und (7) f¨ ur die weitere Modellselektion verwendet (Modell (10)). Zun¨ achst werden die Modelle (3) und (10) miteinander verglichen. Das Modell (10) ist in (3) genestet. In diesem Fall ist die Modellselektion anhand des F-Tests m¨ oglich. Das Bestimmtheitsmaß des Modells (10) ist 0,8273 und das des Modells (3) ist 0,8648. Die F-Statistik ist gegeben durch F =

0, 8648 − 0, 8273 16 − 6 − 1 · = 1, 2482. 1 − 0, 8648 2

F¨ ur jeden u atzlichen Variablen ¨blichen α-Wert kann die Nullhypothese, dass die zus¨ im Modell (3) keinen gemeinsamen Einfluss auf die endogene Variable aus¨ uben, nicht abgelehnt werden (p-Wert ist 0,3324). Aus dem gleichen Grund ist Modell (10) auch dem Modell (4) vorzuziehen. Somit verbleiben drei Modelle: (5), (7) und (10). Das Modell (5) enth¨ alt drei insignifikante Variablen: Y, ALQ und S. Die F-Statistik f¨ ur die gemeinsame Signifikanz dieser Variablen ist F =

0, 8322 − 0, 7524 16 − 6 − 1 · = 1, 4267. 1 − 0, 8322 3

F¨ ur Werte α < 0, 1 kann die Nullhypothese, dass Y, ALQ und S keinen gemeinsamen signifikanten Einfluss aus¨ uben, nicht abgelehnt werden. Das sparsamere Modell W F = α0 +αAA AA+αM M +αABL ABL+ν

(5a)

ist dem Modell (5) vorzuziehen. Obwohl die Variablen Y, ALQ und S gemeinsam keinen signifikanten Einfluss auf WF aus¨ uben, kann von einer einzelnen oder von zwei Variablen zusammen ein sigifikanter Einfluss ausgehen. Aus diesem Grund werden dem Modell (5a) aus der Variablengruppe {Y ; ALQ; S} jeweils zwei Variablen oder nur eine hinzugef¨ ugt. Die entsprechenden Werte der F-Statistiken und die p-Werte sind in der folgenden Tabelle zusammengefasst: hinzugef¨ ugte Variable Y ALQ S Y und ALQ Y und S ALQ und S

F-Statistik 1,49 3,67 1,53 2,15 2,31 1,69

P-Wert 0,2478 0,0819 0,2412 0,1670 0,1497 0,2339

132

2 Klassisches Regressionsmodell F¨ ur α = 0, 10 wird das Modell (5a) durch die Variable ALQ signifikant verbessert. Alle anderen Kombinationen sind nicht signifikant. Aus diesem Grund wird Modell (5a) um die Variable ALQ erg¨ anzt (Modell (5b)). Modell (5b) ist im Modell (7) genestet. Somit k¨ onnen diese Modelle mit Hilfe des F-Tests miteinander verglichen werden. Modell (7) enth¨ alt im Vergleich zum Modell (5b) zwei Variablen mehr: Y und ZWG. Die Bestimmtheitsmaße der Modelle (7) und (5b) betragen jeweils 0,8445 und 0,8143. Die F-Statistik ist gegeben durch F =

0, 8445 − 0, 8143 16 − 6 − 1 · = 0, 8740 . 1 − 0, 8445 2

Mit einem p-Wert von 0,45 kann die Nullhypothese, dass die Variablen Y und ZWG ohne Einfluss auf WF sind, nicht abgelehnt werden display Ftail(2,9,0.8740) .44990087 Der Erkl¨ arungsgehalt des Modells (5b) wird auch dann nicht verbessert, wenn entweder nur Y oder nur ZWG hinzugef¨ ugt werden. In diesem Fall sind beide Variablen insignifikant. Somit ist Modell (5b) dem Modell (7) vorzuziehen. Es bleibt die Wahl zwischen den Modellen (5b) und (10) zu treffen W F = α01 +α11 ALQ+α21 AA+α31 M +α41 ABL+u1

(5b)

W F = α02 +α12 ZW G+α22 S+α32 M +α42 ABL+u2 .

(10)

Ein Vergleich zwischen den nicht genesteten Modellen kann mit Hilfe des DavidsonMacKinnon-Tests durchgef¨ uhrt werden (vgl. H¨ ubler 2005, S. 153, Punkt (ii)). Die entsprechenden Programmbefehle lauten regress WF

ALQ AA M ABL

predict WF5b regress WF

ZWG S M ABL

predict WF10 Anschließend wird die Variable WF5b in das Modell (10) und die Variable WF10 in das Modell (5b) aufgenommen. Weder WF5b noch WF10 sind signifikant. In diesem Fall ist keine eindeutige Entscheidung hinsichtlich der Modellg¨ ute m¨ oglich. Auch das Testergebnis f¨ ur Fehlspezifikation (RESET) ist in beiden Modellen insignifikant. Aus statistischer Sicht scheinen beide Modelle gleichwertig zu sein. f) Zun¨ achst muss der Datensatz um die Variable B erg¨ anzt werden und die Variable W bestimmt werden.

2.4 L¨ osungen gen

133

B=.

replace B=10717419 if bundesland=="Baden-Wuerttemberg" replace B=12443893 if bundesland=="Bayern" replace B=3387828 if

bundesland=="Berlin"

replaceB=2567704 if bundesland=="Brandenburg" replace B=663213 if bundesland=="Bremen" replace B=1734830 if bundesland=="Hamburg" replace B=6097765 if bundesland=="Hessen" replace B=1719653 if bundesland=="Mecklenburg-Vorpommern" replace B=8000909 if bundesland=="Niedersachsen" replace B=18075352 if bundesland=="Nordrhein-Westfalen" replace B=4061105 if bundesland=="Rheinland-Pfalz" replace B=1056417 if bundesland=="Saarland" replace B=4296284 if bundesland=="Sachsen" replace B=2494437 if bundesland=="Sachsen-Anhalt" replace B=2828760 if bundesland=="Schleswig-Holstein" replace B=2355280 if bundesland=="Thueringen" gen W=WF*B Wird z.B. die urspr¨ ungliche Regressionsbeziehung (5b) mit B multipliziert, so erh¨ alt man (5b’) W = α01 · B + α11 AL + α21 A + α31 M · B + α41 ABL · B + B · u1 . Eine Alternative zu dem vorgestellten Modell mit W als Regressand und B als zus¨ atzlichem Regressor bildet (5b”) W = α03 + α13 ALQ + α23 AA + α33 M + α43 ABL + α53 B + u3 . Da ALQ=AL/B und AA=A/B, wobei AL Zahl der Arbeitslosen und A Zahl der Ausl¨ ander in einem Bundesland, folgt eine starke negative Korrelation zwischen

134

2 Klassisches Regressionsmodell ALQ und B sowie AA und B. Dieses Problem entf¨ allt in (5b’). Dort ergibt sich allerdings der Nachteil eines homogenen Regressionsmodells. Die Modellierung von (5b) weist sowohl gegen¨ uber (5b’) als auch gegen¨ uber (5b”) Vorteile auf. Aufgrund von (5b’) ist zu erwarten, dass die Variable B heteroskedastische St¨ orgr¨ oßen erzeugt und somit eine transformierte Sch¨ atzung notwendig macht. Dies k¨ onnte auch f¨ ur (5b”) bedeutsam sein. Heteroskedastieprobleme, die durch B hervorgerufen werden, sind ¨ ahnlich denen, die durch Preissteigerungen zustande kommen (vgl. hierzu Maddala 1988, S.172ff).

L¨osung zu Aufgabe 83: a) Wirtschaftspolitische Maßnahmen k¨ onnen Verhaltens¨ anderungen nach sich ziehen. Ergebnis ist, dass sich die empirisch ermittelten Zusammenh¨ ange zwischen den o ¨konomischen Variablen a ¨ndern. Dies ist vor allem dann wahrscheinlich, wenn es ¨ sich bei einer Maßnahme nicht um eine marginale Anderung einer wirtschaftspolitischen Variablen handelt. So ist zu erwarten, dass eine marginale Steuererh¨ ohung das Verhalten der Wirtschaftssubjekte nicht oder nur unwesentlich beeinflusst, eine Erh¨ ohung um mehrere Prozentpunkte jedoch zu Verhaltens¨ anderungen f¨ uhrt. Formal gesehen bedeutet dies, dass die Koeffizienten variieren. Die Prognosequalit¨ at des Modells verringert sich damit erheblich. Dar¨ uber hinaus k¨ onnen Vorzieh- und Substitutionseffekte auftreten. So k¨ onnen Wirtschaftssubjekte bei einer geplanten Mehrwertsteuererh¨ ohung bestimmte Anschaffungen vorziehen oder sie durch andere Produkte substituieren, die von der Steuererh¨ ohung in einem geringeren Maße betroffen sind. Weiter ergibt sich das Problem der kontrafaktischen Situation. Dabei geht es um die korrekte Messung des Effekts einer wirtschaftspolitischen Maßnahme. Daf¨ ur ist es notwendig, dass auch die Situation bekannt ist, die sich ohne die Durchf¨ uhrung der betrachteten Maßnahme ergeben h¨ atte. Da dies in der Regel nicht m¨ oglich ist, muss die ¨ okonomische Entwicklung, die sich ohne die Maßnahme ergeben h¨ atte, gesch¨ atzt werden (vgl. H¨ ubler 2005, S.161 ff). b) Das einfachste Regressionsmodell zur Erfassung des Effekts der Mehrwertsteuererh¨ ohung auf den Konsum ist C = β0 + β1 t + β2 Y + u, wobei C der Konsum, t der Mehrwertsteuersatz und Y das verf¨ ugbare Einkommen ist. ¨ Eine Anderung der Mehrwertsteuer kann dazu f¨ uhren, dass sich der Anteil des Einkommens, der f¨ ur den Konsum ausgegeben wird, ebenfalls ¨ andert. In diesem ¨ ¨ Fall w¨ urde eine Anderung der Variablen t auch zu einer Anderung des Koeffiuhren. Diese indirekte Abh¨ angigkeit zwischen t und C k¨ onnte durch zienten β2 f¨ eine zus¨ atzliche Regressionsgleichung ber¨ ucksichtigt werden. Außerdem ist es sinnvoll, die dynamische Natur des Modells zu ber¨ ucksichtigen. So sind die zeitlichen Abh¨angigkeiten zwischen den Variablen C, t und Y genauer zu spezifizieren.

2.4 L¨ osungen

135

L¨osung zu Aufgabe 84: Ex-post- und Ex-ante-Prognosen unterscheiden sich hinsichtlich des Zeitraums, f¨ ur den die Prognose erstellt wird. Bei der Ex-ante-Prognose werden Variablenwerte außerhalb des Sch¨ atzzeitraums prognostiziert. Hierbei ist zwischen Quasi-Ex-ante- und reiner Exante-Prognose zu trennen. Im ersten Fall liegen beobachtete Werte der Regressoren zugrunde, w¨ahrend sie im letzteren Fall vorher zu sch¨ atzen sind. Bei der Ex-post-Prognose werden Variablenwerte innerhalb des Sch¨ atzzeitraums prognostiziert. Angenommen, bei einer Sch¨ atzung werden Jahresdaten von 1990-2000 ber¨ ucksichtigt. Es handelt sich um eine Ex-ante-Prognose, wenn anhand der Sch¨ atzergebnisse Variablenwerte f¨ ur das Jahr 2001 prognostiziert werden. Wenn sich die Prognose auf ein oder mehrere Jahre zwischen 1990 und 2000 bezieht, spricht man von einer Ex-post-Prognose. L¨ osung zu Aufgabe 85: Unter der Tendenzanalyse wird ein graphisches Verfahren zur Beurteilung der Prognoseg¨ ute verstanden. Dabei werden in einem Koordinatensystem die prognostizierten Wachstumsraten den realisierten Wachstumsraten gegen¨ ubergestellt. Sie sind wie folgt definiert. Prognostizierte Wachstumsraten: yˆt − yt−1 Pˆt = yt−1 Realisierte Wachstumsraten: ˆ t = yt − yt−1 . R yt−1 Bei einer perfekten Prognose weisen die prognostizierten und die realisierten Wachstumsraten identische Werte auf. Sie befinden sich auf der Winkelhalbierenden, die durch den ersten und den dritten Quadranten verl¨ auft. Durch die beiden Koordinatenachsen und die Winkelhalbierende wird das Koordinatensystem in sechs Segmente eingeteilt. Je nachdem, in welches dieser Segmente ein Punktepaar f¨ allt, sind unterschiedliche Aussagen hinsichtlich der Prognoseg¨ ute m¨ oglich. Dabei ¨ kann unterschieden werden, ob es sich bei der Prognose um eine Ubersch¨ atzung oder eine Untersch¨ atzung von positiven oder von negativen Wachstumsraten handelt oder ob ein Vorzeichenfehler bei der Prognose gemacht wurde (wenn z.B. positives Wachstum prognostiziert, aber negatives Wachstum realisiert wurde). Die H¨aufung von Punktepaaren in einem bestimmten Segment ist ein Hinweis auf eine verzerrte Prognosefunktion.

136

2 Klassisches Regressionsmodell

L¨ osung zu Aufgabe 86: Ein wichtiges Maß f¨ ur die Prognosebeurteilung ist der mittlere quadratische Prognosefehler 1 (yi − yˆi )2 . n i=1 n

M QP F =

Der MQPF f¨ allt umso kleiner aus, je kleiner die Abweichungen zwischen den beobachteten (yi ) und den prognostizierten Werten (ˆ yi ) sind. Beim MQPF werden durch die Quadrierung des Terms (ˆ yi − yi ) große Prognosefehler st¨ arker gewichtet als kleine Prognosefehler. Außerdem ist der MQPF von der Dimension der endogenen Variablen y abh¨ angig. Aus diesem Grund ist ein Vergleich der Prognoseg¨ ute zwischen verschiedenen Modellen mit unterschiedlichem Messniveau der endogenen Variablen nicht m¨ oglich. Der MQPF reagiert stark auf einzelne Prognosefehler. Bereits eine geringe Anzahl an großen Prognosefehlern kann zu hohen Werten des MQPF bei einem ansonsten guten Modell f¨ uhren. Bei dem mittleren absoluten Prognosefehler werden im Unterschied zum MQPF alle Prognosefehler gleich gewichtet 1 |yi − yˆi |. M AP F = n i=1 n

Die gleiche Gewichtung der Prognosefehler ist nachteilig in Situationen, in denen kleinere Prognosefehler weniger gravierend sind, große Prognosefehler aber besonders kostspielig. Falls bei einem Modell alle Prognosewerte genau mit den realisierten Werten u ¨bereinstimmen, sind sowohl der MQPF als auch der MAPF gleich Null. In allen anderen F¨ allen nehmen sie von Null verschiedene Werte an. In diesen F¨ allen ist es wegen der Abh¨ angigkeit vom Messniveau der endogenen Variable nicht m¨ oglich zu sagen, ob es sich um eine gute oder um eine eher mittelm¨ aßige Prognose handelt. Nur wenn zwei oder mehr Prognosewerte vorliegen, kann der MQPF oder der MAPF zur Beurteilung der Prognoseg¨ ute herangezogen werden (vgl. Winker, 2007, Kapitel 13). F¨ ur Vergleiche der Prognoseg¨ ute zwischen verschiedenen Modellen mit unterschiedlichem Messniveau der endogenen Variablen ist weder der MQPF noch der MAPF geeignet. Die Abh¨angigkeit vom Messniveau wird bei dem Theilschen Ungleichheitskoeffizienten U beseitigt "  (yi − yˆi )2 . U=  (yi − yi−1 )2 Aufgrund der Konstruktion kann beim Theilschen Ungleichheitskoeffizienten allerdings die erste Beobachtung nicht ber¨ ucksichtigt werden.

2.4 L¨ osungen

137

Bei einer naiven Prognose gilt U = 1. Die Prognoseg¨ ute eines Modells ist genau dann besser als die Prognoseg¨ ute des naiven Modells, wenn U < 1. Es ist auch m¨ oglich, die Prognoseg¨ ute eines Modells durch eine Regression der prognosur eine hohe Qualit¨ at tizierten Werte yˆi auf die realisierten Werte yi zu untersuchen. F¨ der Prognose spricht z.B., wenn im Zweivariablenmodell yˆ = α0 + α1 y + ε die Hypothese H0 : α0 = 0 und α1 = 1 nicht abgelehnt wird. In diesem Fall liegen keine aferierung systematischen Abweichungen zwischen yˆi und yi vor. Keine eindeutige Pr¨ eines von zwei Modellen aufgrund der Prognoseg¨ ute ist m¨ oglich, wenn bei beiden Modellen die Hypothese H0 abgelehnt oder nicht abgelehnt wird.

L¨ osung zu Aufgabe 87: a) Zun¨achst werden die Daten in das Statistik-Progamm STATA eingegeben. Daf¨ ur wird durch den Klick auf das Bild Data Editor in der Men¨ uleiste der Dateneditor aufgerufen. Die Daten k¨ onnen wie in einer Excel-Tabelle in diesen Dateneditor eingegeben werden. In der ersten Spalte geben wir die Werte von x und in der zweiten Spalte die Werte von y ein. STATA vergibt automatisch die Variablennamen var1 und var2. Durch den Befehl rename k¨ onnen die Variablen in x und y umbenannt werden: rename var1 x rename var2 y Nun liegt der Datensatz im STATA-Format vor. Der Datensatz kann u ¨ber die Men¨ u-Leiste File→ Save As... an der gew¨ unschten Stelle gespeichert werden. Jetzt ist es m¨ oglich, das Scatter-Diagramm zu erstellen (Abbildung 2.3). In STATA kann ein Scatter-Diagramm u u-Leiste ¨ber die Men¨ Graphics → easy graphs → Scatter plot erzeugt werden. Es wird dabei ein Dialogfenster aufgerufen, in dem die Variablen und Einstellungen des gew¨ unschten Scatter-Diagramms eingegeben werden k¨ onnen. Nach Dr¨ ucken der Taste OK wird das Diagramm erzeugt und der zugeh¨ orige Stata-Befehl wird im Results-Fenster angezeigt. Zum Speichern oder Ausdrucken der Graphik ist die rechte Maustaste zu dr¨ ucken, um dann entsprechend den Vorgaben weiter zu verfahren. Das Scatter-Diagramm l¨ asst sich auch durch folgenden Befehl erzeugen. scatter y x, title(Scatter-Diagramm von x und y) xtitle(x) xlabel(5(5)25) ytitle(y) ylabel(0(2)10)

138

2 Klassisches Regressionsmodell

b) Lineare Regression von y auf x: regress y x Source | SS df MS ----------+-----------------------------Model | 15.4986765 1 15.4986765 Residual | 1.40132347 8 .175165434 ----------+-----------------------------Total | 16.9 9 1.87777778

Number of obs F( 1, 8) Prob > F R-squared Adj R-squared Root MSE

= = = = = =

10 88.48 0.0000 0.9171 0.9067 .41853

2

3

y 4

5

6

----------------------------------------------------------------------y | Coef. Std. Err. t P>|t| [95% Conf. Interval] ----------+-----------------------------------------------------------x | .2456209 .0261121 9.41 0.000 .1854062 .3058355 _cons | -.5457376 .4908106 -1.11 0.298 -1.677549 .5860737 -----------------------------------------------------------------------

10

15

x

Abb. 2.3: Scatter-Diagramm

c) Bei α = 0, 05 lautet das Konfidenzintervall f¨ ur a: [0, 1854062; 0, 3058355] und f¨ ur b: [−1, 677549; 0, 5860737]

20

25

2.4 L¨ osungen

139

d) Das Konfidenzintervall f¨ ur σ 2 bei α = 0, 05 ist gegeben durch  2  2 u ˆi u ˆ , ]. [ 2 i χ8;0,025 χ28;0,975 Die Werte der χ2 -Verteilung sind u ¨ber die Befehle display invchi2(8,0.025) → χ28;0,025 = 2, 1797307 display invchi2(8,0.975) → χ28;0,975 = 17, 534546  2 zu gewinnen. Außerdem erh¨ alt man aus dem obigen Output u ˆi = 1, 40132347. Somit ergibt sich folgendes Konfidenzintervall f¨ ur σ 2 bei α = 0, 05 [0, 0799

;

0, 6429].

e) R2 = 0, 9171 f) Die zus¨atzlichen Werte werden, wie unter a) beschrieben, in den Dateneditor eingegeben. Dar¨ uber hinaus kann eine Trendvariable t erstellt werden gen t= n Die Variable t erh¨ alt fortlaufend die Werte von 1 bis 15. Anschließend f¨ uhren wir die OLS-Sch¨ atzung getrennt f¨ ur beide Zeitr¨ aume durch: Zeitraum 1 regress y x if t F R-squared Adj R-squared Root MSE

= = = = = =

10 88.48 0.0000 0.9171 0.9067 .41853

---------------------------------------------------------------------y | Coef. Std. Err. t P>|t| [95% Conf. Interval] ----------+----------------------------------------------------------x | .2456209 .0261121 9.41 0.000 .1854062 .3058355 _cons | -.5457376 .4908106 -1.11 0.298 -1.677549 .5860737 ----------------------------------------------------------------------

Zeitraum 2 regress y x if t>10 Source | SS df MS ----------+----------------------------Model | 5.11935484 1 5.11935484 Residual | .080645161 3 .02688172 ----------+----------------------------Total | 5.2 4 1.3

Number of obs F( 1, 3) Prob > F R-squared Adj R-squared Root MSE

= = = = = =

5 190.44 0.0008 0.9845 0.9793 .16396

---------------------------------------------------------------------y | Coef. Std. Err. t P>|t| [95% Conf. Interval] ----------+----------------------------------------------------------x | .3709677 .0268817 13.80 0.001 .2854181 .4565174 _cons | -2.096774 .6920673 -3.03 0.056 -4.299241 .1056927 ----------------------------------------------------------------------

140

2 Klassisches Regressionsmodell fa) Die Pr¨ ufgr¨ oße f¨ ur den Test H0 : σ12 = σ22 lautet F =

0, 175165434 σ ˆ12 = = 6, 51615. 2 σ ˆ2 0, 02688172

8 8 = 0, 24593104 und F3;0,95 = Die kritischen Werte f¨ ur α = 0, 10 lauten: F3;0,05 8 8 2 2 8, 8452385. Da F3;0,05 < F < F3;0,95 , kann H0 : σ1 = σ2 nicht abgelehnt werden. fb) F¨ ur den Strukturbruchtest bei den Koeffizienten wird zus¨ atzlich die Regression f¨ ur den gesamten Zeitraum ben¨ otigt

regress y x Source | SS df MS ----------+----------------------------Model | 56.1199336 1 56.1199336 Residual | 6.81339978 13 .524107675 ----------+----------------------------Total | 62.9333333 14 4.4952381

Number of obs F( 1, 13) Prob > F R-squared Adj R-squared Root MSE

= = = = = =

15 107.08 0.0000 0.8917 0.8834 .72395

--------------------------------------------------------------------y1 | Coef. Std. Err. t P>|t| [95% Conf. Interval] ----------+----------------------------------------------------------x1 | .3413621 .0329888 10.35 0.000 .2700941 .4126302 _cons | -1.965393 .7048092 -2.79 0.015 -3.488041 -.4427455 ----------------------------------------------------------------------

Die Pr¨ ufgr¨ oße f¨ ur den Test H0 : a1 = a2 , F =

b1 = b2 lautet

(6, 81339978 − 1, 40132347 − 0, 080645161)/2 = 19, 786432. (1, 40132347 + 0, 080645161)/(15 − 4)

2 2 Der kritische Wert ist F11;0,95 = 3, 982298. Da F > F11;0,95 , wird die Hypothese, dass kein Strukturbruch vorliegt, verworfen. g) Es wird wieder der Data Editor aufgerufen, um die Werte der Variablen z eingeben zu k¨ onnen. 2 m¨ ussen die Variablen y und x von dem Einfluss der ga) Zur Ermittlung von ryx.z Variablen z bereinigt werden. Daf¨ ur werden y und x auf z regressiert und es werden f¨ ur beide Regressionen die Residuen ermittelt. Die Residuen k¨ onnen nach den Regressionen mit dem Befehl predict u, resid ermittelt werden.

regress y z predict uy, resid regress x z predict ux, resid 2 ist gleich dem Bestimmtheitsmaß der Regression ryx.z 2 uy = β0 + β1 ux + v: =⇒ ryx.z = 0, 9769. 2 = 0, 3325 ermittelt werden. Analog kann ryz.x

2.4 L¨ osungen

141

gb) Das Bestimmtheitsmaß der Regression y = a+bx+cz +u lautet: R2 = 0, 9910. Statt diesen Wert dem Output von gc) zu entnehmen, k¨ onnte er auch aufgrund der einfachen Bestimmtheitsmaße aus den drei Zweivariablenmodellen aus 87b) und 87ga) berechnet werden. gc) regress y x z Source | SS df MS ----------+---------------------------Model | 16.7476548 2 8.37382738 Residual | .152345238 7 .021763605 ----------+---------------------------Total | 16.9 9 1.87777778

Number of obs F( 2, 7) Prob > F R-squared Adj R-squared Root MSE

= = = = = =

10 384.76 0.0000 0.9910 0.9884 .14752

--------------------------------------------------------------------y | Coef. Std. Err. t P>|t| [95% Conf. Interval] --------+-----------------------------------------------------------x | .1953242 .0113489 17.21 0.000 .1684883 .2221601 z | -.216799 .0286184 -7.58 0.000 -.2844707 -.1491272 _cons | 1.578707 .3295064 4.79 0.002 .799548 2.357866 ---------------------------------------------------------------------

L¨osung zu Aufgabe 88: a) Die OLS-Sch¨ atzung in STATA ergibt: regress x p Source | SS df MS ----------+-----------------------------Model | 76346.5307 1 76346.5307 Residual | 333645.4 24 13901.8917 ----------+-----------------------------Total | 409991.931 25 16399.6772

Number of obs F( 1, 24) Prob > F R-squared Adj R-squared Root MSE

= = = = = =

26 5.49 0.0277 0.1862 0.1523 117.91

-----------------------------------------------------------------------x | Coef. Std. Err. t P>|t| [95% Conf. Interval] ----------+-------------------------------------------------------------p | .2210792 .0943388 2.34 0.028 .0263736 .4157849 _cons | 277.7735 67.40236 4.12 0.000 138.6618 416.8851 -------------------------------------------------------------------------

Die gesch¨ atzte Regressionsgleichung lautet x ˆ = 277, 7735 + 0, 2211p. b) Der STATA-Ausdruck weist die Konfidenzintervalle f¨ ur a und b aus. Sie kommen folgendesmaßen zustande: Konfidenzintervall f¨ ur a: ˆaˆ ] = 277, 7735 ± 2, 0638986 · 67, 40236] = 138, 6618; 416, 8851 a ˆ ± t24;0,975 σ

142

2 Klassisches Regressionsmodell Konfidenzintervall f¨ ur b: ˆb±t24;0,975 σ ˆˆb = 0, 2210792±2, 0638986·0, 0943388 = 0, 0263736; 0, 4157849. F¨ ur den Korrelationskoeffizienten zwischen x und p gilt: rxp = 0, 4315. corr x p (obs=26) | x p -------------+-----------------x | 1.0000 p | 0.4315 1.0000 √ Der Wert f¨ ur rxp ist auch u ¨ber 0, 1862 aus dem Stata-Output in a) zu ermitteln. Die Abweichungen ergeben sich aufgrund von Rundungsfehlern.

c) x ˆ1990 = 277, 7735 + 0, 2210792 · 376, 10 = 360, 9214 x ˆ1991 = 277, 7735 + 0, 2210792 · 412, 30 = 368, 9245 x ˆ1992 = 277, 7735 + 0, 2210792 · 373, 80 = 360, 4129 d) Das Prognoseintervall f¨ ur den wahren Wert der Kaffeeimportmenge f¨ ur 1992 ist gegeben durch (α = 0, 05) ˆ1992 , yˆ1992 ± t24;0,975 σ wobei 2 σ ˆ1992 =σ ˆ2 +

1 2 σ ˆ +σ ˆˆb2 (p1992 − p¯) T

gilt (vgl. z.B. H¨ ubler 2005, S. 165). Als numerischer Wert ergibt sich 2 σ ˆ1992 = 13901, 8917+

1 ·13901, 8917+0, 09433882 ·(373, 80−671, 1115) 26

= 14433, 93383. Somit lautet das Prognosekonfidenzintervall  [360, 4129 ± 2, 0638986 · 14433, 93383] = [112, 4534; 608, 3724]. Der tats¨ achlich realisierte Wert x1992 = 806, 2 (in 1000t) wird vom Prognosekonfidenzintervall nicht u ¨berdeckt. e) Die Kaffeeimportpreise f¨ ur die Jahre 1987-1989 sind 549,40 DM, 690,20 DM und 507,90 DM. Die Ex-post-Prognosewerte f¨ ur die Kaffeeimportmengen f¨ ur die Jahre 1987-1989 lauten damit x ˆ1987 = 277, 7735 + 0, 2210792 · 549, 40 = 399, 2344

2.4 L¨ osungen

143 x ˆ1988 = 277, 7735 + 0, 2210792 · 690, 20 = 430, 3624 x ˆ1989 = 277, 7735 + 0, 2210792 · 507, 90 = 390, 0596.

Die tats¨ achlichen realisierten Kaffeeimportmengen f¨ ur die Jahre 1987-1989 sind x1987 = 632 x1988 = 657, 3 x1989 = 691, 1. Der mittlere quadratische Prognosefehler f¨ ur 1987-1989 ist gegeben durch (vgl. H¨ ubler 2005, S. 166) 1 [(632 − 399, 2344)2 + (657, 3 − 430, 3624)2 3 + (691, 1 − 390, 0596)2 ] = 65435, 274.

M QP F1987/89 =

Wie bereits in c) ermittelt, sind die Prognosewerte f¨ ur die Jahre 1990-1992 gegeben durch x ˆ1990 = 360, 9214 x ˆ1991 = 368, 9245 x ˆ1992 = 360, 4129. Die realisierten Werte f¨ ur den gleichen Zeitraum lauten x1990 = 771, 5 x1991 = 777, 3 x1992 = 806, 2. Als mittlerer quadratischer Prognosefehler f¨ ur 1990-1992 ergibt sich 1 [(771, 5 − 360, 9214)2 + (777, 3 − 368, 9245)2 3 + (806, 2 − 360, 4129)2 ] = 178023, 82.

M QP F1990/92 =

Da M QP F1990/92 > M QP F1987/89 , ist die Ex-ante-Prognoseg¨ ute f¨ ur den Zeitraum 1990-1992 schlechter als die Ex-post-Prognoseg¨ ute f¨ ur den Zeitraum 1987-1989. Alternative Maße der Prognoseg¨ ute wie der mittlere absolute Prognosefehler oder der Theilsche Ungleichheitskoeffizient f¨ uhren zur gleichen Einsch¨ atzung. f) fa) Getrennte Regressionssch¨ atzungen f¨ ur die Zeitr¨ aume 1964-1975 (T1 = 12) und 1976-1989 (T2 = 14) ergeben:

144

2 Klassisches Regressionsmodell regress x p if t>=1964 & t F = 0.0069 Residual | 6453.64957 10 645.364957 R-squared = 0.5341 ----------+-----------------------------Adj R-squared = 0.4875 Total | 13851.8101 11 1259.25546 Root MSE = 25.404 ----------------------------------------------------------------------x | Coef. Std. Err. t P>|t| [95% Conf. Interval] ----------+-----------------------------------------------------------p | -.6198832 .1830841 -3.39 0.007 -1.02782 -.2119464 _cons | 598.656 84.67266 7.07 0.000 409.9936 787.3185

regress x p if t>=1976 & t F = 0.0058 Residual | 57371.627 12 4780.96892 R-squared = 0.4836 ----------+-----------------------------Adj R-squared = 0.4406 Total | 111108.754 13 8546.82727 Root MSE = 69.145 ----------------------------------------------------------------------x | Coef. Std. Err. t P>|t| [95% Conf. Interval] ----------+-----------------------------------------------------------p | -.3107381 .0926862 -3.35 0.006 -.512684 -.1087921 _cons | 787.6498 81.05052 9.72 0.000 611.0559 964.2438

Die Pr¨ ufgr¨ oße f¨ ur den Test auf einen Strukturbruch bei den Regressionsparametern lautet (vgl. H¨ ubler 2005, S. 137) F =

(333645, 4 − 6453, 64957 − 57371, 627)/2 = 46, 50229. (6453, 64957 + 57371, 627)/(26 − 4)

Der kritische Wert bei α = 0, 05 ist 2 F22;0,95 = 3, 4433568 . 2 Da F > F22;0,95 , wird die Nullhypothese abgelehnt. Somit ist 1976 auf einen Strukturbruch in den Regressionsparametern zu schließen. fb) Die Pr¨ ufgr¨ oße f¨ ur den Test auf einen Strukturbruch bei der St¨ orgr¨ oßenvarianz ist gegeben durch (vgl. H¨ ubler 2005, S. 133)

F =

645, 364957 = 0, 13499. 4780, 96892

Die kritischen Werte bei α = 0, 10 lauten 10 F12;0,05 = 0, 34329145 10 F12;0,95 = 2, 7533868.

2.4 L¨ osungen

145

10 Da F < F12;0,05 , muss die Nullhypothese f¨ ur α = 0, 10 abgelehnt werden. Somit liegt 1976 auch ein Strukturbruch bei der St¨ orgr¨ oßenvarianz vor. Zum gleichen Ergebnis gelangt man auch f¨ ur α = 0, 05. In diesem Fall lauten die kritischen Werte 10 = 0, 27617096 F12;0,025 10 F12;0,975 = 3, 3735528 . 10 muss auch bei α = 0, 05 von einem Strukturbruch bei der Wegen F < F12;0,025 St¨orgr¨ oßenvarianz ausgegangen werden. Somit ist der Test auf einen Strukturbruch bei den Regressionsparametern in fa) nicht zul¨ assig. Ein m¨ oglicher inhaltlicher Grund f¨ ur den Strukturbruch k¨ onnte die verz¨ ogerte Wirkung der ¨ ersten Olpreiskrise sein. Wahrscheinlicher ist aber, dass die sehr schlechte Kaffeeernte in Brasilien 1976 zu dem ganz deutlichen Preisanstieg gef¨ uhrt hat.

g) Das Ergebnis des Tests in fb) weist auf heteroskedastische St¨ orgr¨ oßen hin. Es ist zu pr¨ ufen, ob die Heteroskedastie von der exogenen Variablen verursacht wird. Falls dies zutrifft, sind die Daten vor der Sch¨ atzung entsprechend zu transformieren (vgl. H¨ ubler 2005, S. 175). Bei den Untersuchungsdaten handelt es sich um Jahresdaten. Aus diesem Grund sollte u uft werden, ob die Annahme keine Autokorrelation“ verletzt ist. ¨berpr¨ ” Ferner ist die Ber¨ ucksichtigung nur einer echten exogenen Variable nicht befriedigend. Wenn keine Informationen u ¨ber andere Determinanten (z.B. Transportkosten, Preise f¨ ur Tee) verf¨ ugbar sind, kann durch die Ber¨ ucksichtigung der Zeittrendvariablen die Varianz der St¨ orgr¨ oßen verringert und die Prognoseg¨ ute des Modells verbessert werden.

3

Erweiterungen des Regressionsmodells

3.1

Verallgemeinerte lineare Modelle

Aufgabe 89: Im verallgemeinerten linearen Modell wird im Unterschied zum klassischen Regressionsmodell von nichtsph¨ arischen St¨ orgr¨ oßen ausgegangen. Die Kovarianzmatrix ist gegeben durch ⎞ σ11 σ12 · · · σ1n ⎜ σ21 σ22 · · · σ2n ⎟ ⎟ ⎜ V (u) = σ 2 Ω = ⎜ . . ⎟. .. ⎝ .. . .. ⎠ σn1 σn2 · · · σnn ⎛

a) Erl¨ autern Sie, warum ohne weitere Annahmen bez¨ uglich der Kovarianzmatrix V (u) keine EGLS-Sch¨ atzung der Modellparameter m¨ oglich ist. b) Zeigen Sie, dass bei heteroskedastischen, jedoch nicht autokorrelierten St¨ orgr¨ oßen dieses Problem nicht besteht. c) Zeigen Sie, wie die Annahme der Autokorrelation erster Ordnung die Anzahl der zu sch¨ atzenden Parameter beeinflusst. d) Zeigen Sie, dass im verallgemeinerten Regressionsmodell die GLS-Quadrate-Sch¨ atzung zu unverzerrten Koeffizientensch¨ atzungen f¨ uhrt.

Aufgabe 90: a) Angenommen, es liege ein verallgemeinertes lineares Regressionsmodell vor. Welchem Zweck dient die Transformation der Ausgangsgleichung? Wie muss die Transformationsmatrix beschaffen sein, damit dieses Ziel erreicht wird? Zeigen Sie dies. Warum sind OLS- und GLS-Sch¨ atzer im klassischen Modell identisch? Welches Problem taucht bei GLS-Sch¨ atzern u ¨blicherweise auf?

148

3 Erweiterungen des Regressionsmodells

b) Weshalb gibt es f¨ ur das verallgemeinerte lineare Regressionsmodell (VLR) kein totales Bestimmtheitsmaß, das die gleiche Bedeutung besitzt wie im klassischen Modell? Welche Vorschl¨ age existieren f¨ ur ein Bestimmtheitsmaß im VLR? Wo liegen die Probleme?

Aufgabe 91: a) Was versteht man unter einem partitionierten linearen Modell? Formulieren Sie dieses Modell. Liefern Sie Begr¨ undungen, warum eine partitionierte KQ-Sch¨ atzung von Vorteil sein kann. Nennen Sie Beispiele, bei denen eine partitionierte Sch¨ atzung naheliegend ist. b) Leiten Sie in einem verallgemeinerten partitionierten linearen Modell y = X1 β1 + X2 β2 + u mit u ∼ N (0; σ Ω) einen GLS-Sch¨ atzer f¨ ur β1 ab. 2

c) Skizzieren Sie den Grundgedanken eines Tests auf einen Teilvektor der Koeffizienten im linearen Regressionsmodell. Wie lauten die Hypothesen und die Teststatistik? Wann lehnen Sie die Nullhypothese ab?

Aufgabe 92: Die GLS-Sch¨atzung bei heteroskedastischen St¨ ortermen wird oft als gewichtete KleinstQuadrate-Sch¨ atzung bezeichnet. a) Erl¨ autern Sie, was mit dem Begriff gewichtet gemeint ist. b) H¨ aufig wird bei Heteroskedastie davon ausgegangen, dass die Varianz der St¨ orgr¨ oßen angt, wobei unterschiedliche (σ 2 ) von einer bestimmten exogenen Variable (xk ) abh¨ Formen funktionaler Abh¨ angigkeit m¨ oglich sind. Wie l¨ asst sich entscheiden, ob die Heteroskedastie durch σi2 = xik σ 2 oder durch σi2 = x2ik σ 2 zu modellieren ist? c) In einigen Situationen kann die exogene Variable, die die Heteroskedastie verursacht, nicht eindeutig identifiziert werden. Welche Vorgehensweise schlagen Sie in diesen F¨ allen vor? Welcher Zusammenhang besteht dabei zu der Kleinst-QuadrateSch¨ atzung?

Aufgabe 93: Wird eine individuelle Einkommensfunktion in Abh¨ angigkeit von der Betriebsgr¨ oße gesch¨ atzt, dann lassen sich sowohl inhaltliche als auch methodische und datenbedingte

3.1 Verallgemeinerte lineare Modelle

149

Gr¨ unde anf¨ uhren, dass dieser Ansatz heteroskedastisch ist. Welche sind dies? Welche Schlussfolgerungen sind aus den Argumenten zu ziehen?

Aufgabe 94: Angenommen, Sie vermuten f¨ ur das Modell y = Xβ + u Heteroskedastie in der Form asst sich diese Hypothese testen? Welche Probleme tauchen σi2 = σ 2 · ziδ · exp( i ). Wie l¨ auf, wenn Sie die Heteroskedastie-Beziehung sch¨ atzen wollen? Welchen Nutzen besitzt eine Sch¨ atzung f¨ ur σ 2 und δ?

Aufgabe 95: Gegeben sei die Regressionsgleichung y = Xβ + u. F¨ ur die St¨ orgr¨ oßen sollen die Annahmen des verallgemeinerten linearen Regressionmodells gelten. a) Welchen Nachteil weist die OLS-Sch¨ atzung im Vergleich zur GLS-Sch¨ atzung auf? b) Erl¨autern Sie, wie die GLS-Sch¨ atzung durchgef¨ uhrt wird. c) Mit welchem praktischen Problem ist die GLS-Sch¨ atzung verbunden? Welche L¨ osungsm¨oglichkeiten gibt es?

Aufgabe 96: In einem Regressionsmodell wird die Variable y durch die exogenen Variablen x1 , x2 und x3 erkl¨art. Die nach OLS gesch¨ atzte Regressionsgleichung lautet y = 0, 8 + 0, 6x1 + 1, 1x2 + 2, 3x3 + u ˆ mit n = 117 und R2 = 0, 45. Es soll untersucht werden, ob der St¨ orterm des gesch¨ atzten Modells heteroskedastisch ist. Daf¨ ur werden zwei unterschiedliche Vorgehensweisen vorgeschlagen: a) Die Residuen der Sch¨ atzgleichung sollen auf einzelne oder auf alle exogenen Variablen regressiert werden, um Abh¨ angigkeiten zwischen dem St¨ orterm und den exogenen Variablen festzustellen. Ist dieses Vorgehen sinnvoll? b) Statt der Residuen sollen quadrierte Residuen als abh¨ angige Variable verwendet ˆ werden. Das Sch¨ atzergebnis lautet: u ˆ2 = 0, 02 + 0, 1x1 + 2x2 + 0, 7x3 , R2 = 0, 3. Kann von einem heteroskedastischen St¨ orterm ausgegangen werden?

150

3 Erweiterungen des Regressionsmodells

c) Welche Transformation des Ausgangsmodells schlagen Sie aufgrund der Ergebnisse in b) vor?

Aufgabe 97: Angenommen, es liege ein lineares Regressionsmodell mit Autokorrelation erster Ordnung vor yt = xt β + ρut−1 + t =: xt β + ut . Leiten Sie hierf¨ ur den Erwartungswert und die Varianz der St¨ orgr¨ oße ut sowie die Kovarianz Cov(ut ut−2 ) ab.

Aufgabe 98: a) Entwickeln Sie die Kovarianzmatrix der St¨ orgr¨ oßen bei Vorliegen von Autokorrelation erster Ordnung. b) Angenommen, f¨ ur z gelte zt = α0 + α1 · z˜t + ωt ; ωt = ρω ωt−1 + t , orgr¨ oßen, α0 , α1 und ρω Parawobei z˜t eine beobachtbare Variable, ωt und t St¨ meter. Die Variable z u ¨be einen Einfluss auf y aus, bleibe aber bei dem Regressionsmodell y = Xβ + u als Regressor unber¨ ucksichtigt. Folgt hieraus Autokorrelation erster Ordnung f¨ ur u? Wenn ja, zeigen Sie dies. Wenn nein, begr¨ unden Sie warum? Welche Konsequenzen sollten aus dem Ergebnis gezogen werden? ¨ c) Der Durbin-Watson-Test dient der Uberpr¨ ufung, ob die St¨ orgr¨ oßen eines Regressionsmodells autokorreliert sind. Welche Form der Autokorrelation kann damit getestet werden? Welche Probleme weist der Durbin-Watson-Test auf?

Aufgabe 99: Entwickeln Sie zwei Ans¨ atze zur Sch¨ atzung der Koeffizienten in einem Modell mit Autokorrelation erster Ordnung. Wie beurteilen Sie die beiden Vorgehensweisen? Ist eines

3.1 Verallgemeinerte lineare Modelle

151

der beiden Verfahren eindeutig zu pr¨ aferieren oder wovon h¨ angt es ab, welche Vorgehensweise zu bevorzugen ist?

Aufgabe 100: In der Datei Auf gabe100.dta sind 50 simulierte Beobachtungen der Variablen y und x auf Basis der Vorgaben yt = 2 + 0, 3xt + ut und ut = 0, 7ut−1 + et mit et ∼ N (0, 1) erzeugt worden. Es soll u uft werden, zu welchen Ergebnissen unterschiedliche Sch¨ atz- bzw. Test¨berpr¨ verfahren bei autokorrelierten St¨ orgr¨ oßen der vorliegenden Daten f¨ uhren. a) F¨ uhren Sie den Durbin-Watson-Test auf Autokorrelation erster Ordnung durch. b) Sch¨ atzen Sie das Zweivariablenmodell y = a + bx + u : ba) nach der Kleinst-Quadrate-Methode, bb) mit dem Cochrane-Orcutt-Verfahren, bc) mit dem Prais-Winsten-Verfahren. c) Vergleichen Sie die Ergebnisse aus b) miteinander. K¨ onnen Sie anhand der Sch¨ atzergebnisse aus b) entscheiden, welches Sch¨ atzverfahren bei autokorrelierten Daten allgemein vorzuziehen ist?

Aufgabe 101: Beschreiben Sie das Durbin-Sch¨ atzverfahren. Angenommen, es liegen die Ergebnisse der beiden Stufen dieses Ansatzes vor. Kann auf Basis der gegebenen Informationen ein Test auf Autokorrelation erster Ordnung durchgef¨ uhrt werden? Wenn nein, warum nicht? Wenn ja, beschreiben Sie das Vorgehen und diskutieren Sie m¨ ogliche Probleme.

152

3.2

3 Erweiterungen des Regressionsmodells

Mehrgleichungsmodelle

Aufgabe 102: Welche Arten von Mehrgleichungssystemen werden in der empirischen Wirtschaftsforschung unterschieden? Charakterisieren Sie die Unterschiede. Angenommen, es werde folgendes allgemeines Zweigleichungssystem betrachtet y1 = β01 + β11 y2 + β21 x1 + u1 y2 = β02 + β12 y1 + β22 x1 + u2 .

Um welchen Typ von Gleichungssystem handelt es sich? Zeigen Sie, dass bei diesem Modell u1 und y2 korreliert sind. Welche Konsequenzen hat dies, falls die Koeffizienten nach der OLS-Methode gesch¨ atzt werden?

Aufgabe 103: Gegeben sei ein System mit zwei Regressionsgleichungen y1 = X1 β1 + u1 y2 = X2 β2 + u2 . Zeigen Sie, dass sich bei der OLS- und der GLS-Sch¨ atzung des Gleichungssystems gleiche Sch¨ atzkoeffizienten ergeben, falls a) u1 und u2 nicht miteinander korreliert sind oder b) die Designmatrizen X1 und X2 gleiche Variablen enthalten.

Aufgabe 104: Gegeben sei ein System mit zwei Regressionsgleichungen y1 = γ1 y2 + β01 + β11 x1 + β21 x2 + β31 x3 + u1 y2 = γ2 y1 + β02 + β12 x1 + β22 x2 + β32 x3 + u2 .

3.2 Mehrgleichungsmodelle

153

a) Warum ist eine separate Sch¨ atzung der Gleichungen nicht zul¨ assig? b) Da keine separate Sch¨ atzung der Regressionsgleichungen angebracht ist, soll eine Sch¨ atzung durchgef¨ uhrt werden, die den simultanen Charakter des Gleichungssystems ber¨ ucksichtigt. Welches Problem ergibt sich hierbei? c) Welche zus¨ atzlichen Annahmen sind erforderlich, um eine Sch¨ atzung durchf¨ uhren zu k¨ onnen, die die Simultanit¨ at des Gleichungssystems ber¨ ucksichtigt? Durch welche Tests kann die G¨ ultigkeit dieser Annahmen u uft werden? ¨berpr¨

Aufgabe 105: Die beiden folgenden Regressionsgleichungen y1 = β01 + β11 x1 + u1

y2 = β02 + β12 y1 + β22 x2 + u2 .

seien nach der OLS-Methode unter Verwendung von n=100 Beobachtungen gesch¨ atzt worden. Auf dieser Basis sind unter anderem folgende Gr¨ oßen ermittelt worden: (y1 − y¯1 ) (y1 − y¯1 ) = 26, 7498; (y2 − y¯2 ) (y2 − y¯2 ) = 9493, 11; System-R2 = 0, 2881; ˆ1 = 22, 287; u ˆ2 u ˆ2 = 6983, 9; u ˆ1 u ˆ2 = −44, 463. u ˆ1 u a) Was versteht man unter einem System-R2 ? ur beide Gleichungen. b) Ermitteln Sie die u ¨blichen Bestimmtheitsmaße R2 f¨ c) Pr¨ ufen Sie, ob sich die Hypothese, dass die Kovarianzmatrix der St¨ orgr¨ oßen beider Gleichungen zusammen eine Diagonalmatrix ist, bei α = 0, 05 aufrechterhalten l¨ asst. d) Testen Sie die Hypothese H0 : β = 0 bei α = 0, 05, wobei β = (β01 , β11 , β02 , β12 , β22 ) .

Aufgabe 106: ¨ a) Uberpr¨ ufen Sie anhand des Abz¨ ahl- und Rangkriteriums, ob folgendes Gleichungssystem identifiziert ist y1 = β01 + β11 x1 + β21 x2 + u1 y2 = β02 + β22 x2 + β32 y1 + u2 .

154

3 Erweiterungen des Regressionsmodells

b) Das Gleichungssystem aus a) wird um eine zus¨ atzliche Gleichung erweitert x2 = β03 + β13 x3 + u3 . Ist das Modell mit drei Gleichungen identifiziert?

Aufgabe 107: Angenommen, es werde folgendes Zweigleichungssystem betrachtet ALQ = α0 + α1 P I + α2 N ACH + u1 P I = β0 + β1 ALQ + β2 LOHN + u2 , wobei ALQ - Arbeitslosenquote, PI - Preisindex, LOHN - Lohn pro Besch¨ aftigten, NACH - G¨ uternachfrage. Pr¨ ufen Sie nach dem Abz¨ ahlkriterium, ob die beiden Gleichungen identifiziert sind? ¨ Liegt eine Unter-, Uberoder exakte Identifikation vor? Bestimmen Sie die strukturellen Koeffizienten mit Hilfe der Koeffizienten der reduzierten Form (π01 , π11 , π21 , π02 , π12 , π22 ) nach der indirekten Methode der kleinsten Quadrate, wobei ALQ = π01 + π11 N ACH + π21 LOHN + ν1 P I = π02 + π12 N ACH + π22 LOHN + ν2 .

Aufgabe 108: Gegeben sei folgendes Gleichungssystem y1 = a1 y2 + a2 x2 + a3 x3 + u1 y2 = b1 y1 + b2 x1 + u2 . Die Matrix der gesch¨ atzten Koeffizienten der reduzierten Form lautet ⎛

⎞ 5 4 ˆ = ⎝ 2 −3 ⎠ . Π −1 6 ˆ konsistent gesch¨ a) Koeffizienten welcher Gleichung k¨ onnen mit Hilfe der Matrix Π atzt werden?

3.2 Mehrgleichungsmodelle

155

b) Ermitteln Sie die konsistenten Koeffizientensch¨ atzungen dieser Gleichung. Zeigen Sie, dass f¨ ur die andere Gleichung keine eindeutige Sch¨ atzung der Koeffizienten m¨oglich ist.

Aufgabe 109: Gegeben sei folgendes Gleichungssystem y1 = a1 y2 + a2 x1 + u1 y2 = b1 y1 + b2 x2 + b3 x3 + u2 . a) Wie lautet die reduzierte Form des Gleichungssystems? b) Ermitteln Sie die Koeffizientensch¨ atzungen der ersten Gleichung nach dem 2SLSVerfahren. Es sei ⎛ ⎞ ⎛ ⎞ 5 4 20 0 ˆ = ⎝ 2 −3 ⎠ und X  X = ⎝ 0 4 0 ⎠ mit X = (x1 |x2 |x3 ) Π −1 6 0 0 20 bekannt. Außerdem gelte

 Zˆ1 y1 =



700 10



  , wobei Zˆ1 = yˆ2 | x1 .

Aufgabe 110: F¨ ur die Zufallsvariablen x1 , y1 und y2 gelte das folgende Regressionsmodell y1 = a0 + a1 x1 + u1 y2 = b0 + b1 y1 + u2 .

(1) (2)

Eine Stichprobe ergibt 100 Realisationen f¨ ur den Vektor wi = (1, x1i , y1i , y2i ) , aus denen folgende Summen errechnet werden ⎛

100, 0 −6, 7 ⎜ wi wi = ⎝ 89, 0 i=1 52, 3

100 

−6, 7 104, 8 48, 6 −0, 9

89, 0 48, 6 202, 5 71, 1

⎞ 52, 3 −0, 9 ⎟ . 71, 1 ⎠ 106, 0

156

3 Erweiterungen des Regressionsmodells

a) Die Varianz-Kovarianz-Matrix des St¨ ortermvektors u = (u1 , u2 ) sei 2

σ1 0 E(uu ) = =: ΣD . 0 σ22 aa) Um welchen Spezialfall eines Mehrgleichungsmodells handelt es sich? ab) Ermitteln Sie Sch¨ atzwerte f¨ ur die unbekannten Koeffizienten b0 und b1 i) nach der gew¨ ohnlichen Methode der kleinsten Quadrate (OLS), ii) nach dem ILS-Verfahren. ac) Testen Sie die Hypothese H0 : b1 = 0 gegen H1 : b1 = 0 i) unter Verwendung der OLS-Sch¨ atzwerte (α = 0, 05), ii) unter Nutzung der ILS-Sch¨ atzwerte (α = 0, 05). Hinweis: Es ist σ ˆ22,OLS = 0, 378 und σ ˆ22,ILS = 0, 963. ad) Wie erkl¨ aren Sie die Unterschiede zwischen den OLS- und ILS-Ergebnissen in ab) und ac)? Welche Sch¨ atzmethode w¨ urden Sie nutzen, wenn Sie die Wahl h¨ atten? Begr¨ unden Sie Ihre Antwort. b) Angenommen, u besitze eine beliebige Varianz-Kovarianz-Matrix E(uu ) = Σ. ba) Testen Sie zum Signifikanzniveau α = 0, 05 die Exogenit¨ at der Variablen y1 in Gleichung (2). Um welchen Test handelt es sich? bb) Wof¨ ur ist die Information der Exogenit¨ at bzw. Endogenit¨ at der Variablen y1 von Bedeutung? bc) Warum ist der Test in ba) unter der in a) gegebenen Information E(uu ) = ΣD nicht sinnvoll?

Aufgabe 111: Gegeben sei das Dreigleichungsmodell y1 = a0 + a1 y2 + u1 y2 = b0 + b1 y3 + b2 x1 + u2 y3 = c0 + c1 y1 + c2 x1 + c3 x2 + u3

(1) (2) (3)

a) Sind die Gleichungen (1) bis (3) identifiziert? Pr¨ ufen Sie sowohl die notwendige als auch die hinreichende Bedingung f¨ ur die Identifikation. b) ba) Lassen sich alle Koeffizienten der strukturellen Form konsistent sch¨ atzen? Begr¨ unden Sie Ihre Antwort. bb) Beschreiben Sie f¨ ur die konsistent sch¨ atzbaren Koeffizienten geeignete Sch¨ atzverfahren. Ist die dreistufige Methode der kleinsten Quadrate anwendbar? bc) Sind alle Koeffizienten der reduzierten Form konsistent sch¨ atzbar? Begr¨ unden Sie Ihre Antwort.

3.3 Nichtnormalverteilte St¨ orgr¨ oßen und nichtlineare Modelle

157

c) Das n-fache des unzentrierten Bestimmtheitsmaßes einer Regression der Residuen von Gleichung (1), d.h. von u ˆ1 , auf die vorherbestimmten Variablen X = (ι|x1 |x2 ), ι = Einsvektor, ergibt 2 =n n Runzentriert

ˆ1 u ˆ1 X(X  X)−1 X  u = 1, 32 u ˆ1 u ˆ1

Welche Schlussfolgerungen ziehen Sie daraus f¨ ur die Spezifikation der Gleichung (1)?

3.3

Nichtnormalverteilte St¨orgr¨oßen und nichtlineare Modelle

Aufgabe 112: Im klassischen Regressionsmodell wird von normalverteilten St¨ orgr¨ oßen ausgegangen. In der Praxis l¨asst sich die Normalverteilungsannahme h¨ aufig nicht aufrechterhalten. a) Welche Gr¨ unde k¨ onnen dazu f¨ uhren, dass die St¨ orgr¨ oße nicht normalverteilt ist? b) Wie kann u uft werden, ob die Normalverteilungsannahme gerechtfertigt ist? ¨berpr¨ c) Wie ist bei der Sch¨ atzung von Koeffizienten zu verfahren, falls ein Test die Normalverteilungsannahme ablehnt? d) Wie w¨ urden Sie entscheiden, ob eine OLS- oder eine robuste Sch¨ atzung vorzuziehen ist?

Aufgabe 113: In einem Regressionsmodell soll untersucht werden, wie das Alter einer Person die Dauer der gef¨ uhrten Telefongespr¨ ache bestimmt. a) Entwickeln Sie einen formalen Ansatz, der unterschiedliche Steigungsparameter f¨ ur Personen unter 20 Jahren und mindestens 20 Jahren zul¨ asst. b) Erweitern Sie den Ansatz in der Weise, dass auch unterschiedliche Konstanten f¨ ur beide Gruppen m¨ oglich sind. c) Wie kann getestet werden, ob die Annahme unterschiedlicher Konstanten gerechtfertigt ist? d) Welches Problem taucht bei dem beschriebenen Verfahren auf? Welche L¨ osungsm¨oglichkeiten gibt es?

158

3 Erweiterungen des Regressionsmodells

Aufgabe 114: Im Datensatz Auf gabe114.dta sind 200 simulierte Werte zusammengefasst. Die zugrunde liegende wahre Dichtefunktion sei f (y), wobei y ∼ N (2, 4) gelte. Die Dichtefunktion einer Zufallsvariablen kann mit Hilfe eines Histogramms oder eines Kerndichtesch¨ atzers bestimmt werden. a) Diskutieren Sie kurz die Vor- und Nachteile dieser Verfahren. b) Erstellen Sie ein Histogramm mit jeweils 2, 5, 10, 15, 20 und 40 Klassen. c) Erstellen Sie eine Kerndichtesch¨ atzung, indem Sie folgende Kernfunktionen verwenden -Rechteckkern, -Dreieckskern, -Epanechnikovkern. Vergleichen Sie die Ergebnisse unterschiedlicher Kerndichtesch¨ atzungen mit der wahren Dichtefunktion. d) W¨ahlen Sie die Ihrer Meinung nach optimale Kernfunktion und erstellen Sie Kerndichtesch¨ atzungen mit unterschiedlichen Bandbreiten h = 0, 1; 0, 2; 0, 5; 1; 1, 5; 2, 5. e) Spielt die Wahl der Kernfunktion oder der Bandbreite bei der Kerndichtesch¨ atzung eine gr¨oßere Rolle?

Aufgabe 115: Erl¨autern Sie, welche Idee der nichtparametrischen Sch¨ atzung mit Hilfe von Regressionssplines zugrunde liegt. Welche Bedeutung kommt in diesem Zusammenhang der Bestimmung der Position und der Anzahl der Knotenpunkte zu? Durch welches Kriterium l¨ asst sich die G¨ ute der Anpassung der gesch¨ atzten Funktion an die Daten u ¨berpr¨ ufen? Wie wird die Wahl der optimalen Anpassung durch den Gl¨ attungsparameter λ beeinflusst? Welche nichtparametrischen Alternativen zu der Sch¨ atzung mit Hilfe von Regressionssplines kennen Sie? Beschreiben Sie ein Verfahren kurz.

Aufgabe 116: Was versteht man unter additiven Modellen? Welcher Unterschied besteht zu Sch¨ atzans¨ atzen mit Hilfe von Gl¨ attungssplines und zur linearen Regression? Was wird unter dem ”Fluch der Dimensionalit¨ at” verstanden? Stellen Sie ein additives Modell mit zwei

3.4 Modelle mit diskreten und zensierten Variablen

159

unabh¨ angigen Variablen auf. Beschreiben Sie anhand dieses Beispiels den ”backfitting”Algorithmus zur Sch¨ atzung von additiven Modellen.

3.4

Modelle mit diskreten und zensierten Variablen

Aufgabe 117: a) Welche Probleme tauchen auf, wenn eine [0;1]-Variable als endogene Variable genauso wie eine kontinuierliche Variable im klassischen Regressionsmodell behandelt wird? b) Wie l¨asst sich im linearen Wahrscheinlichkeitsmodell, im Logit- und Probitansatz ∂E(y|x)/∂x bestimmen? Welche Daumenregeln existieren, um die gesch¨ atzten Koeffizienten der drei Modelle vergleichbar zu machen? c) Warum werden beim Testen von Probitmodellen bevorzugt LM-Tests herangezogen? Warum ist Testen bei Probitmodellen z.T. noch wichtiger als bei linearen Regressionsmodellen? Warum ist ein Probitmodell ein nichtlineares Modell? Was versteht man unter verallgemeinerten Residuen? Welche Bedeutung besitzen sie im Rahmen von Probitmodellen?

Aufgabe 118: Es soll untersucht werden, welche Determinanten die Durchf¨ uhrung von Investitionen im Bereich der Informations- und Kommunikationstechnologie in Betrieben beeinflussen. Zu Untersuchungszwecken wurde eine Dummy-Variable erfasst, die angibt, ob ein Betrieb Investitionen in Informations- und Kommunikationstechnologie (IKT ) t¨ atigt. Es wurde ein Probit- und ein Logitmodell mit der Variablen IKT als endogene Variable gesch¨atzt. Als exogene Variablen wurden folgende Determinanten ber¨ ucksichtigt: FSIZE (logarithmierte Anzahl der Arbeitskr¨afte im Betrieb), QUAL (Anteil qualifizierter Arbeitskr¨ afte), TARIF (1, wenn im Betrieb ein Tarifvertrag gilt, sonst 0), SERVICE (1, wenn der Betrieb dem Dienstleistungssektor angeh¨ ort, sonst 0). Die STATA-Ergebnisse der Sch¨ atzungen sind in der folgenden Tabelle zusammengefasst:

160

3 Erweiterungen des Regressionsmodells

Probit regression Number of obs = 935, LR chi2(4) = 149.67 Prob ¿ chi2 = 0.0000, Pseudo R2 = 0.1157 Log likelihood = -572.07521

ikt fsize qual tarif service cons

Coef. .2906099 .4851568 -.117833 .143932 -1.280772

Std. Err. .0280219 .1590547 .0946166 .0884975 .1484053

z 10.37 3.05 -1.25 1.63 -8.63

P¿—z— 0.000 0.002 0.213 0.104 0.000

Logistic regression Number of obs = 935, LR chi2(4) = 150.51 Prob ¿ chi2 = 0.0000, Pseudo R2 = 0.1163 Log likelihood = -571.65372 ikt fsize qual tarif service cons

Coef. .4819939 .8160966 -.1952273 .2353159 -2.124429

Std. Err. .0482721 .264251 .1554446 .1457649 .2539435

z 9.98 3.09 -1.26 1.61 -8.37

P¿—z— 0.000 0.002 0.209 0.106 0.000

a) Wie sind die gesch¨ atzten Koeffizienten beider Modelle zu interpretieren? b) Welche Aussagen lassen sich im Vergleich zwischen den gesch¨ atzten Koeffizienten und den asymptotischen t-Werten beider Modelle treffen? c) Wie w¨ urden sich die Ergebnisse ¨ andern, wenn die Variable QUAL statt des Anteils den Prozentsatz qualifizierter Arbeitskr¨ afte angibt?

Aufgabe 119: Aufgrund des anonymisierten SOEP-Datensatzes SOEP 2004 anonym2.dta sollen Determinanten untersucht werden, die f¨ ur die Wahrscheinlickeit bedeutsam sind, dass eine Person Mitglied einer Gewerkschaft ist. Im Datensatz ist eine Dummy-Variable GEW ERK enthalten, die angibt, ob die Person Mitglied einer Gewerkschaft ist. a) Warum ist bei dieser Fragestellung die Probit- oder die Logit-Sch¨ atzung der OLSSch¨ atzung vorzuziehen? b) Erstellen Sie deskriptive Statistiken der abh¨ angigen Variablen. Wie viel Prozent der Personen aus dem Datensatz sind Mitglied einer Gewerkschaft? Untersuchen

3.4 Modelle mit diskreten und zensierten Variablen

161

Sie durch zweidimensionale Kontingenztabellen, ob die Mitgliedschaft in einer Gewerkschaft vom Alter der Person (ALT ER), dem Geschlecht (SEX), der Unternehmensgr¨ oße (BET RIEBS− GROESSE), der Stellung im Beruf (BERU F ) oder dem Industriezweig (BRAN CHE) abh¨ angt. c) Sch¨atzen Sie ein Probit- und ein Logitmodell mit GEW ERK als abh¨ angige und ALT ER, SEX, BET R und SCHU LJAHRE als unabh¨ angige Variablen. Welche Transformationen der unabh¨ angigen Variablen sind durchzuf¨ uhren, damit die Sch¨atzergebnisse aussagekr¨ aftig sind? F¨ uhren Sie diese Transformationen durch. d) Interpretieren Sie die Sch¨ atzergebnisse. K¨ onnen die Ergebnisse aus b) bei der multivariaten Untersuchung aufrechterhalten werden? Wie viel Prozent der abh¨ angigen Variablen kann Ihr Modell korrekt voraussagen? Durch welche Kriterien kann die G¨ ute Ihres Sch¨ atzmodells beurteilt werden? e) Ermitteln Sie die Wahrscheinlichkeit der Gewerkschaftsmitgliedschaft f¨ ur eine m¨ annliche Person, die eine 9-j¨ ahrige Schulausbildung besitzt und als Angestellter in einem Unternehmen mit 200 bis 1999 Arbeitskr¨ aften besch¨ aftigt ist. Wie ¨ andert sich die Wahrscheinlichkeit, wenn eine ansonsten identische Person als Arbeiter besch¨ aftigt ist?

Aufgabe 120: a) Skizzieren Sie den Grundgedanken eines diskreten multiplen Wahlmodells auf Nutzenbasis. Welche Annahmen liegen zugrunde? Welche Unterschiede bestehen zum multinomialen Logitmodell? b) Zeigen Sie auf Basis der ML-Sch¨ atzung, dass im inhomogenen multinomialen Logitmodell gilt: Die in der Stichprobe beobachtete H¨ aufigkeit einer Auspr¨ agung l einer multinomialen Variablen ist gleich der Summe der Wahrscheinlichkeiten, dass ein Beobachtungstr¨ ager die Auspr¨ agung l aufweist, summiert u ¨ber alle Beobachtungen der Stichprobe. c) Was versteht man unter “independence of irrelevant alternatives“? Erl¨ autern Sie diese Eigenschaft anhand eines Beispiels und demonstrieren Sie, dass diese Eigenschaft h¨ aufig nicht erf¨ ullt ist. Welche Probleme treten beim Testen dieser Eigenschaft auf?

Aufgabe 121: In der Welle 2004 des Hannoveraner Firmenpanels wurde erfasst, ob in einem Betrieb entweder ein Branchentarifvertrag (T ARIF = 1) oder ein Haustarif- bzw. ein Firmentarifvertrag (T ARIF = 2) gilt oder ob der Betrieb nicht tarifgebunden (T ARIF = 3) ist.

162

3 Erweiterungen des Regressionsmodells

a) Die Wahrscheinlichkeit f¨ ur die Art der Tarifbindung eines Betriebes soll durch folgende Variablen erkl¨ art werden: ALTER (1, wenn der Betrieb vor 1990 gegr¨ undet wurde, sonst 0), BRAT (1, wenn im Betrieb ein Betriebsrat existiert, sonst 0), FSIZE (logarithmierte Anzahl der Arbeitskr¨ afte im Betrieb), QUAL (Anteil qualifizierter Arbeitskr¨ afte), SERVICE (1, wenn der Betrieb dem Dienstleistungssektor angeh¨ ort, sonst 0). Die ML-Sch¨ atzung des multinomialen Logitmodells mit der Basisgruppe TARIF=3 hat mit Hilfe von STATA Folgendes ergeben: Multinomial logistic regression Number of obs = 935, LR chi2(10) = 207.06 Prob ¿ chi2 = 0.0000, Pseudo R2 = 0.1241 Log likelihood = -730.95125 tarif 1 fsize qual service alter brat cons 2 fsize qual service alter brat cons

Coef.

Std. Err.

z

P¿—z—

.1596778 .2996217 -.3604033 .6617491 1.014923 -.9536692

.0591493 .2758213 .15458 .1766331 .2093532 .267733

2.70 1.09 -2.33 3.75 4.85 -3.56

0.007 0.277 0.020 0.000 0.000 0.000

.1991791 -.3962933 -.1925294 .6664791 2.758443 -3.966346

.1010544 .5329633 .2849787 .3862673 .436699 .5954534

1.97 -0.74 -0.68 1.73 6.32 -6.66

0.049 0.457 0.499 0.084 0.000 0.000

(tarif==3 is the base outcome) aa) Welche Annahme ist die Voraussetzung f¨ ur die Sch¨ atzung eines multinomialen Logitmodells? ¨ ab) Welche Anderungen ergeben sich bei Interpretation der Koeffizientensch¨ atzungen im multinomialen Modell im Vergleich zu einem bin¨ aren Logitmodell? Interpretieren Sie die Ergebnisse der Sch¨ atzung. ac) Sind die Koeffizientensch¨ atzungen und die asymptotischen t-Werte von der Wahl der Basisgruppe abh¨ angig? b) Ist es m¨ oglich, die Frage nach den Determinanten der Wahrscheinlichkeit, dass ein Betrieb tarifgebunden ist, im Rahmen eines bin¨ aren Probit- oder Logitmodells zu untersuchen?

Aufgabe 122: a) Was ist der Unterschied zwischen einer abgeschnittenen und einer zensierten Stichprobe? Nennen Sie jeweils ein ¨ okonomisches Beispiel.

3.4 Modelle mit diskreten und zensierten Variablen

163

b) Erl¨autern Sie, zu welchen Problemen eine Kleinst-Quadrate-Sch¨ atzung der Koeffizienten in einer abgeschnittenen oder in einer zensierten Stichprobe f¨ uhrt. c) Welche Sch¨ atzverfahren k¨ onnen bei Modellen mit abgeschnittenen oder zensierten Stichproben angewendet werden?

Aufgabe 123: a) Worin besteht der wesentliche Unterschied eines ML-Ansatzes f¨ ur ein Modell mit zensierter endogener Variablen gegen¨ uber dem ML-Ansatz f¨ ur ein Probitmodell und gegen¨ uber dem ML-Ansatz eines u ¨blichen Regressionsmodells mit einer unbeschr¨ ankten, kontinuierlichen Variablen? Formulieren Sie die Log-Likelihood-Funktion f¨ ur ein Modell mit zensierter endogener Variablen und leiten Sie die notwendige Bedingung f¨ ur das Maximum der Likelihood-Funktion in Bezug auf den Koeffizientenvektor β ab. Warum kann daraus nicht direkt der Sch¨ atzer f¨ ur β angegeben werden? b) Entwickeln Sie den Heckman-Ansatz f¨ ur ein Modell mit zensierter endogener Variablen. Wann ist dieser Ansatz angemessen? Welchen Nachteil besitzt er gegen¨ uber einer Tobitsch¨ atzung?

Aufgabe 124: a) Wenn die endogene Variable eines Regressionsmodells eine Z¨ ahlvariable ist, warum ist dann die OLS-Sch¨ atzung nicht optimal? b) Welche Eigenschaften besitzt die Poissonverteilung? Wie realistisch sind diese? Ist ¨ eine Uberpr¨ ufung m¨ oglich? c) Entwickeln Sie die ML-Sch¨ atzung f¨ ur den Koeffizientenvektor eines Poissonmodells.

Aufgabe 125: Wenn die endogene Variable eine Z¨ ahlvariable darstellt, kann die Sch¨ atzung auf Grundlage einer Poisson- oder einer negativen Binomialverteilung erfolgen. a) Bei welchen Daten ist die Modellierung durch eine negative Binomialverteilung der Modellierung durch eine Poissonverteilung vorzuziehen? b) Wie kann getestet werden, welches der beiden Verteilungsmodelle zu pr¨ aferieren ist? c) Wie sind die Koeffizientensch¨ atzungen einer Poisson- und einer negativen Binomialregression zu interpretieren?

164

3.5

3 Erweiterungen des Regressionsmodells

Dynamische Modelle

Aufgabe 126: a) Bei welchen Bestandteilen ¨ okonometrischer Modelle k¨ onnen dynamische Elemente auftreten? Nennen Sie Ursachen f¨ ur eine dynamische Betrachtungsweise und demonstrieren Sie anhand von zwei ¨okonomischen Beispielen die Bedeutung einer dynamischen Modellierung. Welche Konsequenzen haben verz¨ ogerte endogene und exogene Variablen bei einer Sch¨ atzung nach OLS? b) Was versteht man unter einem Almon-Lag-Modell? Welche Elemente eines derartigen Modells sind vor der Sch¨ atzung festzulegen? Was versteht man in diesem Zusammenhang unter Anfangs- und Endpunktrestriktion? Wenn Sie diese zugrunde legen und von einem Polynom 2. Grades ausgehen, wie lautet dann die vereinfachte zu sch¨ atzende Regressionsgleichung? c) Angenommen, es sei folgendes Modell spezifiziert yt = β0 + β1 yt−1 + β2 xt + ut und es soll auf Autokorrelation 1. Ordnung getestet werden. Welchen Test schlagen Sie vor? Begr¨ unden Sie Ihre Wahl, beschreiben Sie den Test (Teststatistik, Testverteilung, Nullhypothese, Gegenhypothese, Entscheidung). Welche Probleme k¨onnen gegebenenfalls auftreten?

Aufgabe 127: a) Was ist ein station¨ arer Prozess? Welche Arten gibt es? Welche Bedeutung haben station¨ are Prozesse bei Modellen mit Autokorrelation 2. Ordnung? Formulieren Sie ein Modell mit Autokorrelation 2. Ordnung und geben Sie Bedingungen an, unter denen der Prozess station¨ ar ist. b) Formulieren Sie ein Sch¨ atzverfahren f¨ ur ein Modell mit Autokorrelation 2. Ordnung. Beschreiben Sie die einzelnen Schritte zur Ermittlung (Sch¨ atzung) der Autoregressionskoeffizienten.

Aufgabe 128: Gegeben sei ein Modell mit einer verz¨ ogerten endogenen Variablen yt = a0 +a1 yt−1 +ut . uhrt? a) Welche Restriktion wird u uglich des Parameters a1 eingef¨ ¨blicherweise bez¨ Aus welchem Grund ist diese Restriktion sinnvoll? Ist es m¨ oglich, bei Verletzung dieser Restriktion eine konsistente Sch¨ atzung durchzuf¨ uhren?

3.5 Dynamische Modelle

165

b) y0 gibt den Anfangswert der endogenen Variablen y zum Zeitpunkt t = 0 an. Stellen andert sich die Darstellung, wenn Sie das Modell in Abh¨ angigkeit von y0 dar. Wie ¨ der Anfangswert nicht bekannt ist? c) Was wird unter dem Begriff einer Autokorrelationsfunktion verstanden? Leiten Sie die Autokorrelationsfunktion f¨ ur yt her.

Aufgabe 129: Mit Hilfe von SHAZAM wurde eine Konsumfunktion nach OLS aufgrund der Daten f¨ ur die Bundesrepublik Deutschland f¨ ur die Jahre 1962-1994 (nur alte L¨ ander) gesch¨ atzt ugbares reales Einkommen; ALQ - Arbeitslosenquote) (C - Konsum (real); Yv - verf¨ OLS C Yv ALQ R-SQUARE = 0.9939 R-SQUARE ADJUSTED = 0.9935 VARIABLE NAME Yv ALQ CONSTANT

ESTIMATED COEFFICIENT 0.735 7.983 -57.794

STANDARD ERROR 0.017 0.973 9.365

T-RATIO 30 DF 42.29 8.203 -6.171

Danach l¨asst sich aufgrund des Befehls DIAGN OS/ACF die Autokorrelationsstruktur testen. Dies f¨ uhrt zu nachfolgendem Output. LAG 1 2 3 4 5 6 7 8 9 10

RHO 0.4616 -0.0465 -0.2995 -0.4280 -0.1255 0.1489 0.1718 -0.0483 -0.1794 -0.2377

STD ERR 0.1741 0.1741 0.1741 0.1741 0.1741 0.1741 0.1741 0.1741 0.1741 0.1741

T-STAT 2.6514 -0.2673 -1.7205 -2.4586 -0.7211 0.8553 0.9869 -0.2773 -1.0309 -1.3653

LM-STAT 2.8378 0.3502 2.2728 3.1725 0.9890 1.5023 1.6591 0.4564 1.7255 2.4928

DW-TEST 1.0064 1.9227 2.3925 2.6456 1.8872 1.0952 1.0277 1.4341 1.6804 1.7615

BOX-PIERCE-LJUNG 7.6890 7.7697 11.2233 18.5185 19.1684 20.1168 21.4279 21.5356 23.0853 25.9217

LM CHI-SQUARE STATISTIC WITH 10 D.F. IS 21.335 Interpretieren Sie die Ergebnisse. Gehen Sie insbesondere auf die Testergebnisse ein. Welche Bedeutung haben die einzelnen Spalten und die LM CHI-SQUARE STATISTIC? Was l¨ asst sich u ogliche Autokorrelation sagen? ¨ber m¨

166

3 Erweiterungen des Regressionsmodells

Aufgabe 130: Im Datensatz Auf gabe130.dta finden sich 100 Werte einer Zeitreihe X, die auf Basis des autoregressiven Prozesses 1. Ordnung xt = 0, 3+0.8xt−1 +ut , ut ∼ N (0, 1) simuliert wurden. a) Erstellen Sie einen Zeitplot der Variablen X. Entspricht die Graphik dem Verlauf einer station¨ aren Zeitreihe? b) Wie kann mit Hilfe der Autokorrelations- und der partiellen Autokorrelationsfunktion die Ordnung des zugrunde liegenden Datengenerierungsprozesses bestimmt werden? Ermitteln Sie beide Funktionen. c) Durch welche Tests und durch welche Kriterien k¨ onnen die Hypothesen u ¨ber den Typ des Datengenerierungsprozesses u uft werden? Welches Modell erscheint ¨berpr¨ Ihnen angemessen? d) Erstellen Sie Prognosewerte f¨ ur die Zeitreihe anhand des von Ihnen gew¨ ahlten Sch¨ atzmodells und stellen Sie diese Werte den tats¨ achlichen Werten von xt gegen¨ uber. Wie beurteilen Sie die G¨ ute Ihrer Sch¨ atzung auf Basis der Prognosewerte?

Aufgabe 131: Zur Veranschaulichung eines Sch¨ atzverfahrens k¨ onnen Simulationsdaten n¨ utzlich sein. ¨ Zum Uben soll zun¨ achst eine Zeitreihe durch Simulation erzeugt. Im zweiten Schritt sollen unterschiedliche Modelle gesch¨ atzt und miteinander verglichen werden. a) Erstellen Sie 100 Werte einer Zeitreihe {yt }, wobei ein ARMA(1,1)-Prozess yt = ur gehen Sie wie folgt vor. 0, 7yt−1 + ut + 0, 3ut−1 zugrundegelegt wird. Daf¨ aa) Erstellen Sie mit Hilfe eines Zufallszahlengenerators 150 Werte des St¨ orterms ut , wobei von ut ∼ N (0; 9) ausgegangen wird. ab) Erstellen Sie die zusammengesetzte St¨ orgr¨ oße vt = ut + 0, 3ut−1 . ac) Legen Sie als Anfangswert der Zeitreihe {yt } mit y0 = 0 fest. ad) Bilden Sie durch die Addition von vt und 0, 7yt−1 die gew¨ unschte Zeitreihe oschen Sie die ersten 50 Beobachtungen. {yt }. L¨ b) Es soll untersucht werden, zu welchen Ergebnissen unterschiedliche Modelle bei der erstellten Zeitreihe f¨ uhren. ba) Erstellen Sie einen Zeitplot der Variablen yt . bb) Ermitteln Sie die Autokorrelations- und die partielle Autokorrelationsfunktion. Ist eine eindeutige Entscheidung f¨ ur ein bestimmtes AR(p)-, MA(q)- oder ARMA(p,q)-Modell m¨ oglich? bc) Sch¨ atzen Sie das AR(1)-, AR(2)-, MA(1)-, MA(2)- und das ARMA(1,1)-Modell. bd) Vergleichen Sie diese Modelle hinsichtlich der Koeffizientensch¨ atzungen, ihrer Signifikanzen und der Modellauswahlkriterien miteinander.

3.5 Dynamische Modelle

167

Aufgabe 132: Im Datensatz Auf gabe132.dta sind 200 Werte einer Zeitreihe gegeben. a) Sch¨ atzen Sie ein geeignetes AR-, MA- bzw. ARMA-Modell. ¨ b) Uberpr¨ ufen Sie nach der Sch¨ atzung in a), ob bei den St¨ ortermen von einem ARCHProzess ausgegangen werden kann. c) Bestimmen Sie gegebenenfalls die Ordnung des ARCH-Prozesses und f¨ uhren Sie die Sch¨ atzung der Zeitreihe unter Annahme einer ARCH-St¨ orgr¨ oße durch. d) Falls Sie ein Modell mit ARCH-St¨ ortermen gesch¨ atzt haben, bilden Sie die Prognosewerte und die Konfidenzintervalle f¨ ur die betrachtete Zeitreihe und vergleichen Sie diese mit den tats¨ achlichen Zeitreihenwerten.

Aufgabe 133: Zwischen zwei Zeitreihen {yt } und {xt } (Datei: Auf gabe133.dta) wird ein linearer Zusammenhang vermutet. a) Welche Voraussetzungen m¨ ussen erf¨ ullt sein, damit eine Regression von {yt } auf {xt } zul¨assig ist? Welche Probleme treten auf, falls diese Voraussetzungen nicht erf¨ ullt sind? ¨ b) Uberpr¨ ufen Sie, ob eine Regression yt = a0 + a1 xt + ut bei den vorliegenden Daten zul¨ assig ist. c) Wie ist zu verfahren, wenn entweder eine oder beide Variablen eine Einheitswurzel besitzen?

Aufgabe 134: Wie bei simultanen Gleichungssystemen werden in vektorautoregressiven Modellen ¨ okonomische Beziehungen mit Hilfe von mehr als einer Gleichung modelliert. a) Stellen Sie ein vektorautoregressives Modell zweiter Ordnung mit drei Variablen Y , X und Z auf. b) Erl¨ autern Sie, was mit Granger-Kausalit¨ at gemeint ist und wie sich das VARModell in a) a uglich Z ist. ¨ndert, wenn Y nicht grangerkausal bez¨ c) Welche Gemeinsamkeiten und Unterschiede bestehen zwischen einem vektorautoregressiven Modell und einem simultanen Gleichungssystem? Verdeutlichen Sie Ihre Ausf¨ uhrungen anhand des Beispiels mit drei Variablen.

168

3.6

3 Erweiterungen des Regressionsmodells

Paneldatenmodelle

Aufgabe 135: a) Entwickeln Sie einen Koeffizientensch¨ atzer f¨ ur ein lineares Modell bei Vorliegen von Paneldaten, wenn keine unbeobachteten Individual- und Zeiteffekte vorliegen, aber individuelle Autokorrelation 1. Ordnung zwischen den St¨ orgr¨ oßen zeitlich aufeinanderfolgender Perioden und Heteroskedastie zwischen den Individuen existiert. b) Was ist der Unterschied zwischen einem Within- und einem Between-Sch¨ atzer? Leiten Sie den Within-Sch¨ atzer ab und geben Sie Sch¨ atzwerte f¨ ur die variablen absoluten Glieder an.

Aufgabe 136: Mit Hilfe des Fixed-Effects- (FEM) oder des Random-Effects-Modells (REM) k¨ onnen bei Paneldaten o ucksichtigt ¨konometrisch unbeobachtbare zeitinvariante Merkmale ber¨ werden. a) Welcher grunds¨ atzliche Unterschied besteht zwischen einem FE- und einem REModell? b) Aus welchem Grund k¨ onnen bei einem FEM keine zeitinvarianten beobachtbaren Variablen ber¨ ucksichtigt werden? Warum ist dies in einem RE-Modell m¨ oglich? Ist daher ein RE-Modell einem FE-Modell grunds¨ atzlich vorzuziehen? c) Mit einem Hausman-Test kann u uft werden, ob ein FEM oder ein REM ¨berpr¨ vorzuziehen ist. Welcher Gedanke liegt diesem Test zugrunde?

Aufgabe 137: Die endogene Variable Y soll durch die exogenen Variablen X1, X2 und X3 im Rahmen einer Paneldatenanalyse erkl¨ art werden. Die Sch¨ atzung eines FE- und eines RE-Modells mit STATA hat folgendes ergeben: xtreg Y X1 X2 X3, i(idnummer) f e Fixed-effects (within)regression Number of obs = 2635 Number of groups = 463 corr(ui d, Xb) = 0.1452 F( 4, 2169) =567,44

3.6 Paneldatenmodelle

169

Prob > F = 0.0000

Y X1 X2 X3 cons

Coef. .0445145 -.031514 -.2118323 .753601

Std. Err. .0082295 .0144921 .0794277 .0277621

t 5.41 -2.17 -2.67 27.14

P¿—t— 0.001 0.066 0.032 0.000

t 5.49 -3.30 -2.91 27.09

P¿—t— 0.001 0.013 0.023 0.000

F test that all ui =0: F(462,2169) = 10,68 Prob > F = 0.0000 xtreg Y X1 X2 X3, i(idnummer) re Random-effects GLS regression Number of obs = 2635 Number of groups = 463 corr(ui d, X) = 0 (assumed) Wald chi2(4) = 1143,24 Prob > F = 0.0000

Y X1 X2 X3 cons

Coef. .0450477 -.041472 -.2309371 .7421763

Std. Err. .0082019 .012549 .0793138 .0274011

a) Außer der Sch¨ atzung des FEMs und des REMs ist es m¨ oglich, eine OLS-Sch¨ atzung mit gepoolten Daten durchzuf¨ uhren. Erl¨ autern Sie, wann dieses Vorgehen angebracht ist. Welches Ergebnis spricht bei den vorliegenden Daten gegen die gepoolte OLS-Sch¨ atzung? b) Welche Bedeutung kommt bei Durchf¨ uhrung der Sch¨ atzungen der Variablen idnummer zu? ¨ c) Uberpr¨ ufen Sie mit Hilfe des Hausman-Tests, ob das FEM oder das REM vorzuziehen ist. Nehmen Sie an, dass die Kovarianzen zwischen den Koeffizientensch¨ atzungen gleich Null sind.

170

3.7

3 Erweiterungen des Regressionsmodells

Datenprobleme

Aufgabe 138: Was versteht man unter einem Ausreißer und was unter einer einflussreichen Beobachtung? Wie lassen sie sich ermitteln? Welche Konsequenzen k¨ onnen Ausreißer haben?

Aufgabe 139: a) Was bedeutet totale Multikollinearit¨ at? Welche Konsequenz hat sie? b) Was versteht man unter einem Varianzinflationsfaktor (VIF)? Welche Bedeutung besitzt dieser Faktor? Geben Sie den Zusammenhang zwischen dem VIF und der Varianz f¨ ur die Sch¨ atzfunktion des k-ten Regressionskoeffizienten an.

Aufgabe 140: a) Wie sind folgende Behauptungen zu beurteilen? (i) Beseitigen von Multikollinearit¨ at bedeutet Fehlspezifikation. (ii) Die negativen Konsequenzen von Multikollinearit¨ at lassen nicht beseitigen. b) Es wird vorgeschlagen, Multikollinearit¨ at dadurch zu beseitigen, dass die Koeffizienten von zwei multikollinearen Regressoren getrennt (x1 , x2 ) bestimmt werden aufgrund von Paneldaten, und zwar ein Koeffizient (β1 ) u ¨ber die Zeitreihendaten und der andere (β2 ), nachdem die endogene Variable y vom Einfluss x1 bereinigt worden ist, u ¨ber die Querschnittsdaten. Was halten Sie von diesem Vorschlag? Welche Probleme k¨ onnen auftreten? c) F¨ ur eine Produktionsfunktion lnBW S = βo + β1 · lnB + β2 · lnBAV + u (BWS - Bruttowertsch¨ opfung, B - Besch¨ aftigtenzahl, BAV - Bruttoanlageverm¨ ogen, ln - nat¨ urlicher Logarithmus) wurde eine Multikollinearit¨ atsanalyse mit Hilfe von Eigenwerten (EV), Konditionsindizes (CI) und Varianzinflationsfaktoren (VIF) durchgef¨ uhrt. Dabei ergab sich:

3.7 Datenprobleme lfd.Nr. 1 2 3 VIF

Eigenwert 2,947 0,044 0,009 -

171 Konditionsindex 1,000 8,140 18,117 -

Varianzanteil absol.Glied lnB 0,0039 0,0096 0,4065 0,0002 0,5896 0,9983 2,7570

lnBAV 0,0036 0,3417 0,6548 2,7570

Welche Schlussfolgerungen sind aus diesen Ergebnissen zu ziehen? Welche Bedeutung besitzen EV und CI allgemein bei der Multikollinearit¨ atsanalyse? Ist das Ergebnis, dass VIF f¨ ur lnB und lnBAV u allig oder l¨ asst sich ¨bereinstimmt, zuf¨ daf¨ ur eine Erkl¨ arung geben? Was bringen die Varianzanteile in der Tabelle zum Ausdruck? Wie werden sie ermittelt?

172

3.8

3 Erweiterungen des Regressionsmodells

L¨osungen

L¨ osung zu Aufgabe 89: a) Bei einer EGLS-Sch¨ atzung ˆ −1 X)−1 X  Ω ˆ −1 y βˆEGLS = (X  Ω wird eine Sch¨ atzung der Matrix Ω ben¨ otigt. Die Matrix Ω enth¨ alt (n2 + n)/2 un2 terschiedliche Elemente, die sich wegen (n + n)/2 > n nicht aus n Beobachtungen sch¨ atzen lassen. Die Zahl der zu sch¨ atzenden Parameter darf nicht gr¨ oßer sein als die Zahl der Beobachtungen. Daf¨ ur werden Restriktionen der Matrix Ω ben¨ otigt. b) Bei heteroskedastischen, jedoch nicht V = σ 2 Ω folgende Form ⎛ σ11 0 · · · 0 ⎜ 0 σ22 · · · 0 ⎜ σ2 Ω = ⎜ . . .. ⎝ .. . .. 0

autokorrelierten St¨ orgr¨ oßen hat die Matrix ⎞ ⎟ ⎟ ⎟. ⎠

0 · · · σnn

Die Anzahl der zu sch¨ atzenden Parameter betr¨ agt n. In diesem Fall lassen sich die Varianzen aus n Beobachtungen sch¨ atzen. ¨ Ublicherweise werden zus¨ atzliche Restriktionen eingef¨ uhrt, die die Anzahl der zu sch¨ atzenden Parameter weiter verringern und damit die Freiheitsgrade der Sch¨ atzung erh¨ ohen. Oft wird z.B. f¨ ur eine oder mehrere Beobachtungsgruppen die gleiche Varianz angenommen. So k¨ onnen bei Frauen (F) und M¨ annern (M) unterschiedliche Varianzen angenommen werden, wobei innerhalb der Gruppe der Frauen und der der M¨ anner die Annahme konstanter Varianzen aufrechterhalten 2 zu sch¨ atzen und die Matrix V nimmt wird. In diesem Fall sind lediglich σF2 und σM folgende Form an ⎞ ⎛ 2 σF 0 · · · · · · · · · 0 ⎜ .. . . .. ⎟ ⎜ . . . ⎟ ⎟ ⎜ 2 ⎜ 0 · · · σF · · · · · · 0 ⎟ 2 ⎟. ⎜ σ Ω=⎜ 2 ⎟ ⎜ 0 · · · · · · σM · · · 0 ⎟ ⎜ .. . . . . .. ⎟ ⎠ ⎝ . 2 0 · · · · · · · · · · · · σM c) Bei Autokorrelation erster Ordnung wird f¨ ur die St¨ orgr¨ oßen folgende Beziehung angenommen ui = ρui−1 + εi

mit

|ρ| < 1

f¨ ur

i = 1, . . . , n,

3.8 L¨ osungen

173

wobei ε den klassischen Bedingungen gen¨ ugt. Es kann gezeigt werden (vgl. z.B. H¨ ubler 1989, S. 173-175), dass die beiden folgenden Beziehungen V (ui ) = E(u2i ) =

σε2 1 − ρ2

σε2 1 − ρ2 gelten. Die Matrix V nimmt folgende Form an ⎛ ⎞ 1 ρ · · · ρn−1 ⎜ ⎟ .. . σε2 ⎜ ρn−2 ⎟ ⎜ ρ ⎟ σ2 Ω = . . ⎟. .. 1 − ρ2 ⎜ ⎝ .. . .. ⎠ ρn−1 · · · · · · 1 Cov(ui ui−s ) = E(ui ui−s ) = ρs

Um die Matrix V zu sch¨ atzen, sind nur zwei Parameter σε2 und ρ zu bestimmen. d) Die GLS-Sch¨ atzung im verallgemeinerten Regressionsmodell lautet βˆGLS = (X  Ω−1 X)−1 X  Ω−1 y. F¨ ur den Erwartungswert folgt E(βˆGLS ) = E((X  Ω−1 X)−1 X  Ω−1 (Xβ + u)) = E(β + (X  Ω−1 X)−1 X  Ω−1 u) = β + (X  Ω−1 X)−1 X  Ω−1 E(u) = β.  =0

L¨ osung zu Aufgabe 90: a) Durch die Transformation der Ausgangsgleichung soll erreicht werden, dass f¨ ur die St¨orgr¨ oßen der transformierten Regressionsgleichung die Bedingungen des klassischen Regressionsmodells erf¨ ullt sind. Die Ausgangsgleichung sei gegeben durch y = Xβ + u, are n × n Matrix, mit deren Hilfe wobei V (u) = σ 2 Ω gilt. Weiter sei T eine regul¨ eine Zerlegung in Ω−1 = T  T m¨ oglich ist. Wird die Ausgangsgleichung mit der Matrix T pr¨ amultipliziert, sind f¨ ur die St¨ orgr¨ oßen der sich ergebenden transformierten Regressionsgleichung T y = T Xβ + T u = X ∗ β + u∗

174

3 Erweiterungen des Regressionsmodells die klassischen Annahmen erf¨ ullt E(u∗ ) = E(T u) = T E(u) = 0 und V (u∗ ) = V (T u) = T V (u)T  = T σ 2 ΩT  = = σ 2 T (T  T )−1 T  = σ 2 T T −1 T



−1

T  = σ 2 I.

Wird im klassischen Regressionsmodell eine GLS-Sch¨ atzung durchgef¨ uhrt, ergibt sich βˆGLS = (X  Ω−1 X)−1 X  Ω−1 y = (X  (σ 2 I)−1 X)−1 X  (σ 2 I)−1 y = = σ 2 (X  X)−1 σ −2 X  y = (X  X)−1 X  y = βˆOLS . Eine GLS-Sch¨ atzung setzt die Kenntnis der Matrix Ω voraus. Da in der Praxis die Matrix Ω unbekannt ist, kann in der Regel keine GLS-Sch¨ atzung durchgef¨ uhrt werden. Statt dessen wird eine EGLS-Sch¨ atzung ermittelt, bei der die Sch¨ atzung der Matrix Ω verwendet wird ˆ ˆ −1 X)−1 X  Ω ˆ −1 y = βˆEGLS . βˆGLS = (X  Ω b) Im klassischen Modell gibt R2 an, wie groß der durch das lineare Modell erkl¨ arte Anteil der Varianz des Regressanden y ist, und dieser Wert liegt im Bereich [0; 1], wenn ein inhomogenes Modell vorliegt. Durch die Transformation des Ausgangsmodells im verallgemeinerten Ansatz geht das inhomogene Modell u ¨blicherweise in ein homogenes Modell u ¨ber, so dass der Wertebereich nicht mehr auf [0; 1] beschr¨ankt bleibt. Buse (1973) hat zwar ein alternatives Maß entwickelt, f¨ ur das der Wertebereich [0;1] gilt, allerdings ist die inhaltliche Interpretation dann eine andere als im klassischen Modell.

L¨ osung zu Aufgabe 91: a) Bei einem partitionierten linearen Modell wird der Koeffizientenvektor β in zwei oder mehr Teile aufgespalten β  = (β1 , β2 ). Dieses Vorgehen kann sinnvoll sein, wenn lediglich ein Teil des Koeffizientenvektors β von Interesse ist. Beispiele: – Modell mit Trend und Saisonkomponenten, wenn z.B. nur der Trend von Interesse ist. – Fixed-Effects-Paneldatenmodelle mit variablen, individuellen absoluten Gliedern und echten Regressoren, wenn nur die Koeffizienten der echten Regressoren ermittelt werden sollen.

3.8 L¨ osungen

175

b) Wird die Ausgangsgleichung mit der Matrix T pr¨ amultipliziert, wobei Ω−1 = T  T gilt, erf¨ ullt die transformierte Regressionsgleichung die klassischen Annahmen T y = T X1 β1 + T X2 β2 + T u bzw. y ∗ = X1∗ β1 + X2∗ β2 + u∗ . Die OLS-Sch¨ atzung des Koeffizientenvektors β1 in der partitionierten transformierten Regressionsgleichung entspricht der GLS-Sch¨ atzung in der Ausgangsgleichung βˆ1 = (X1∗  P2∗ X1∗ )−1 X1∗  P2∗ y ∗ , wobei X1∗ = T X1 ,

y∗ = T y

und P2∗ = I − T X2 (X2 Ω−1 X2 )−1 X2 T. Zu dieser L¨ osung kommt man auch, wenn die Ausgangsgleichung zun¨ achst mit P1 und danach mit T pr¨ amultizipiert wird. Nicht die gleiche L¨ osung ergibt sich, wenn atzer ist im Allgemeinen erst mit T und dann mit P1 transformiert wird. Dieser Sch¨ weniger effizient. c) Bei diesem Test wird gepr¨ uft, ob ein Teil der exogenen Variablen gemeinsam keinen signifikanten Einfluss auf die endogene Variable aus¨ ubt. Angenommen, die Anzahl der zu testenden exogenen Variablen ist l und die Koeffizienten dieser Variablen sind im Teilvektor β1 zusammengefasst. Die Nullhypothese und Gegenhypothese lauten H0 : β1 = β10

und H1 : β1 = β10 ,

wobei β10 ein Nullvektor mit l Elementen ist. H0 muss abgelehnt werden, falls (βˆ1 − β10 ) X1 P2 X1 (βˆ1 − β10 )/l l > Fn−K−1,1−α σ ˆ2 gilt.

L¨osung zu Aufgabe 92: a) Bei einer GLS-Sch¨ atzung mit heteroskedastischen St¨ ortermen wird die transformierte St¨ orgr¨ oßenquadratsumme minimiert. Dabei werden die St¨ orgr¨ oßen durch die eigene Standardabweichung dividiert. Dadurch wird erreicht, dass St¨ orgr¨ oßen mit gr¨ oßerer Varianz weniger stark ins Gewicht fallen und solche mit geringer Varianz st¨arker als bei der OLS-Sch¨ atzung ber¨ ucksichtigt werden. Gewichtet wird also mit dem Kehrwert der Standardabweichungen der St¨ orgr¨ oßen.

176

3 Erweiterungen des Regressionsmodells

b) Je nachdem, welche Form der Heteroskedastie angenommen wird, sind die St¨ orgr¨ oßen des Ausgangsmodells vor der Sch¨ atzung unterschiedlich zu transformieren. √ orgr¨ oßen ui durch xik und bei σi2 = x2ik σ 2 durch xik Bei σi2 = xik σ 2 sind die St¨ zu dividieren. Nach der Sch¨ atzung werden die Residuen ermittelt. Sie m¨ ussen homoskedastisch sein, falls die Heteroskedastie korrekt modelliert wurde. Das beschriebene Verfahren ist sowohl f¨ ur σi2 = xik σ 2 als auch f¨ ur σi2 = x2ik σ 2 durchzuf¨ uhren. Die Form, die zu homoskedastischen Residuen f¨ uhrt, ist zu pr¨ aferieren. Falls in beiden F¨ allen die Hypothese der Homoskedastie nicht abgelehnt werden kann, sollte die Form gew¨ ahlt werden, die beim Test auf Heteroskedastie einen gr¨ oßeren p-Wert hat. Alternativ l¨ asst sich der Park-Test anwenden (vgl. H¨ ubler 1989, S. 166f.). Falls es in keinem Fall zu homoskedastischen St¨ orgr¨ oßen kommt, sind weitere funktionale Abh¨ angigkeiten oder andere exogene Variablen als Heteroskedastieursache zu u ufen. ¨berpr¨ c) In diesem Fall ist der White-Test anzuwenden. Bei dem White-Test werden die quadrierten Residuen aus der OLS-Sch¨ atzung auf die Quadrate und Kreuzprodukte der exogenen Variablen regressiert. Damit soll u uft werden, ob die exogenen ¨berpr¨ Variablen oder ihre Kreuzprodukte die St¨ orgr¨ oßenvarianz signifikant beeinflussen. Heteroskedastie liegt vor, falls von einem signifikanten Erkl¨ arungsgehalt ausgegangen werden kann. Als Pr¨ ufgr¨ oße dient nR2 der Regression. Der kritische Wert ist der Wert der χ2 -Verteilung an der Stelle (1 − α). Die Anzahl der Freiheitsgrade entspricht der Anzahl der Regressoren in der Testgleichung. Wird die Nullhypothese Homoskedastie“ abgelehnt, so nutzt man die in Pro” grammpaketen wie STATA vorhandene Option robust“, die zwar die gleichen ” Koeffizientensch¨ atzungen wie OLS ausweist, aber andere t-Werte angibt. Sie werˆ im den unter Verwendung der OLS-Sch¨ atzung f¨ urdie Kovarianzmatrix (V˜ (β)) ˆ wobei ˆ V˜ (β), heteroskedastischen Modell gebildet, d.h t = β/ n  ˆ = (X  X)−1 ( V˜ (β) u ˆ2i xi xi )(X  X)−1 i=1

der Whiteschen Kovarianzmatrix entspricht und bei Heteroskedastie ein konsistenˆ ist. ter Sch¨atzer f¨ ur V (β)

L¨ osung zu Aufgabe 93: Es ist zu erwarten, dass in großen Betrieben L¨ ohne st¨ arker streuen als in kleineren Betrieben. Daf¨ ur gibt es unterschiedliche Gr¨ unde. Einerseits kann eine gr¨ oßere Anzahl der Hierarchieebenen oder eine gr¨ oßere Anzahl verschiedener Qualifikationsgruppen die Lohnstreuung positiv beeinflussen. Andererseits besitzen gr¨ oßere Unternehmen eine gr¨oßere Marktmacht als kleinere Unternehmen und k¨ onnen gr¨ oßere Renten am Markt erzielen. Falls verschiedene Arbeitskr¨ aftegruppen im unterschiedlichen Maße an

3.8 L¨ osungen

177

der Rentenverteilung beteiligt werden, steigt die Varianz der L¨ ohne zus¨ atzlich. Wenn Großbetriebe aufgrund ihrer Marktmacht h¨ ohere Renten erzielen und diese an ihre Mitarbeiter zum Teil in Form h¨ oherer L¨ ohne weitergeben, so k¨ onnen sich bereits daraus gr¨ oßere Streuungen der Einkommen ergeben. Angenommen, bei gleicher Qualifikationsstruktur in Groß- und Kleinbetrieben (G, K) zahlen erstere 10% h¨ ohere L¨ ohne, dann oglich w¨ are auch, dass ist unter sonst gleichen Bedingungen s2G = 1, 12 · s2K > s2K . M¨ die Messfehler mit der Betriebsgr¨ oße zunehmen und daraus betriebsgr¨ oßenabh¨ angige St¨ orgr¨ oßenvarianzen folgen. Die erste Konsequenz muss nicht sein, eine heteroskedastierobuste Sch¨ atzung anstelle einer OLS-Sch¨ atzung durchzuf¨ uhren, sondern m¨ ogliche Spezifikations¨ anderungen wie z.B die Ber¨ ucksichtigung der ability to pay“, der H¨ ohe ” der erzielten Renten oder der Qualifikationsstruktur k¨ onnen bereits die Heteroskedastie beseitigen oder zumindest abmildern. Aber auch Methoden, die Fehler in den Variablen ber¨ ucksichtigen, wie Instrumentalvariablensch¨ atzungen, k¨ onnen zur Folge haben, dass Heteroskedastie verschwindet.

L¨ osung zu Aufgabe 94: Durch die Logarithmierung der beiden Seiten der Gleichung ergibt sich ln σi2 = ln σ 2 + δ ln zi + εi . Es ist nun zu testen, ob die Koeffizientensch¨ atzung von δ signifikant von Null verschieden ist. Wenn dies nicht der Fall ist, kann von Homoskedastie ausgegangen werden. Falls δ signifikant von Null abweicht, liegt Heteroskedastie vor. Die St¨ arke der Heteroskedastie h¨ angt von der Gr¨ oße von δ ab. Bei gr¨ oßeren (kleineren) Werten von δ ist von einer starken (schwachen) Heteroskedastie auszugehen. Das Problem bei der Sch¨ atzung ist allerdings, dass die Werte der endogenen Variablen ln σi2 nicht bekannt sind. Erschwerend kann hinzukommen, dass auch die Variable z spezifiziert werden muss. In der Regel wird anstelle von z eine der exogenen Variablen verwendet. F¨ ur die Entscheidung der Frage, ob die Heteroskedastie durch die Beziehung σi2 = atzung von σ 2 wichtig. Falls σ 2 · ziδ · exp(εi ) korrekt modelliert wird, ist auch die Sch¨ 2 asst sich das als ein die Sch¨ atzung von σ nicht signifikant von Null verschieden ist, l¨ Hinweis auf eine fehlspezifizierte Modellierung der Heteroskedastie interpretieren.

L¨osung zu Aufgabe 95: a) Die OLS-Sch¨ atzung eines Regressionsmodells z.B. mit autokorrelierten St¨ ortermen erster Ordnung liefert zwar unverzerrte Koeffizientensch¨ atzungen. Die Sch¨ atzungen sind allerdings nicht mehr effizient. Die gesch¨ atzten Varianzen der Koeffizientensch¨ atzungen sind nicht korrekt und f¨ uhren zu falschen Konfidenzintervallen sowie zu falschen Ergebnissen der Hypothesentests. Wie auch bei der OLS-Sch¨ atzung

178

3 Erweiterungen des Regressionsmodells

ergeben sich bei der GLS-Sch¨ atzung unverzerrte Koeffizientensch¨ atzungen, letztere sind jedoch außerdem effizient. b) Bei der GLS-Sch¨ atzung spielt die Kovarianzmatrix der St¨ orgr¨ oßen V (u) = σ 2 Ω eine wichtige Rolle. Die Annahme, dass Ω symmetrisch und positiv definit ist, f¨ uhrt dazu, dass die inverse Matrix Ω−1 existiert und sich folgendermaßen zerlegen l¨ asst: Ω−1 = T  T . Wird die Ausgangsgleichung mit der Matrix T pr¨ amultipliziert, erh¨ alt man T y = T Xβ + T u. Der GLS-Sch¨ atzer entspricht der OLS-Sch¨ atzung der transformierten Regressionsgleichung. Dieser Sch¨ atzer f¨ uhrt zu unverzerrten und effizienten Koeffizientensch¨ atzungen βˆ = [(T X) (T X)]−1 (T X) (T y) = [X  T  T X]−1 X  T  T y = [X  Ω−1 X]−1 X  Ω−1 y = βˆGLS . c) Das Problem der GLS-Sch¨ atzung ist, dass die Matrix Ω nicht bekannt ist. Aus diesem Grund kann auch die Matrix T nicht bestimmt werden. F¨ ur praktische Zwecke kann nur eine Sch¨ atzung der Matrix Ω verwendet werden. Dieser Sch¨ atzer ˆ −1 X)−1 X  Ω ˆ −1 y wird als EGLS-Sch¨ atzer (estimated GLS ) bezeichβˆEGLS = (X  Ω net. ˆ statt der Matrix Ω k¨ Durch die Verwendung der Matrix Ω onnen jedoch die Vorteile der GLS-Sch¨ atzung verloren gehen. Es l¨ asst sich aber zeigen, dass unter bestimmten Bedingungen auch βˆEGLS konsistent ist und asymptotisch den gleichen Verteilungsgesetzen folgt wie βˆGLS (vgl. Schmidt 1976, S. 69).

L¨ osung zu Aufgabe 96: a) Bei der OLS-Sch¨ atzung wird der Vektor βˆ derart bestimmt, dass E(X  u ˆ) = 0 gilt. Dies f¨ uhrt dazu, dass die Residuen orthogonal zu den exogenen Variablen sind, also mit ihnen nicht korrelieren. Aus diesem Grund wird eine Regression der Residuen auf die exogenen Variablen dazu f¨ uhren, dass alle exogenen Variablen eine Koeffizientensch¨ atzung von Null aufweisen und somit keine Abh¨ angigkeiten zwischen den Residuen und exogenen Variablen bestehen. b) In dieser Situation kann der White-Test zur Bestimmung der Heteroskedastie anorterme u sind gewendet werden. Die zu u ufende Hypothese lautet H0 : St¨ ¨berpr¨ homoskedastisch. Als Pr¨ ufgr¨ oße dient nR2 = 117·0, 3 = 35, 1. Als Testverteilung ist die χ2 -Verteilung mit 3 Freiheitsgraden zu verwenden. F¨ ur α = 0, 01 lautet der kritische Wert: χ23;0,99 = 11, 34.

3.8 L¨ osungen

179

Die Nullhypothese ist somit abzulehnen, und es ist von heteroskedastischen St¨ ortermen auszugehen. ˆ c) Aus der gesch¨ atzten Regressionsgleichung in b) k¨ onnen die Prognosewerte u ˆ2 ermittelt werden (vgl. Wooldridge 2003, S. 276ff.). Bei Ermittlung dieser Prognosewerte ucksichtigt. Die absoluten werden alle drei exogenen Variablen x1 , x2 und x3 ber¨ ˆ Werte von u ˆ stellen die Sch¨ atzung der Standardabweichung der St¨ orgr¨ oßen dar und k¨ onnen f¨ ur die Transformation der Ausgangsgleichung verwendet werden. Statt der Regressionsgleichung y = β0 + β1 x1 + β2 x2 + β3 x3 + u ist die transformierte Regressionsgleichung zu sch¨ atzen 1 u x1 x2 x3 y = β0 + β1 + β2 + β3 + . ˆ ˆ ˆ ˆ ˆ ˆ |u ˆ| |u ˆ| |u ˆ| |u ˆ| |u ˆ | |u ˆ| Optimal ist dieses Vorgehen jedoch auch noch nicht, wenn in u ˆ2 = α0 + α1 x1 + ˆ atzung unber¨ ucksichtigt bleibt, dass vi den Term u ˆ −σi2 α2 x2 +α3 x3 +v bei der Sch¨ enth¨ alt und somit ebenfalls heteroskedastisch ist.

L¨osung zu Aufgabe 97: F¨ ur den Erwartungswert der St¨ orgr¨ oße gilt E(ut ) = E(ρut−1 + εt ) = E[ρ(ρut−2 + εt−1 ) + t ]. Nach sukzessivem Einsetzen ergibt sich = E[

∞ 

∞ 

ρτ εt−τ ] =

τ =0

ρτ E(εt−τ ) = 0.

τ =0

F¨ ur die Kovarianz gilt Cov(ut ut−2 ) = E(ut ut−2 ) − E(ut ) E(ut−2 ) = E(ut ut−2 ).   =0

=0

Durch Einsetzen und Aufl¨ osen folgt Cov(ut ut−2 ) = E[(

∞ 

τ =0

=

ρτ εt−τ )(

∞ 1  τ 1 1 ρ εt−τ − 2 εt − εt−1 )] ρ2 τ =0 ρ ρ

∞  1 1 E( ρ2τ ε2t−τ ) − 2 E(ε2t ) − E(ε2t−1 ) ρ2 τ =0 ρ

180

3 Erweiterungen des Regressionsmodells

=

2 2 2 1 1 1 2 2 2 2 1 − (1 − ρ ) − ρ (1 − ρ ) · σ − σ − σ = σ [ ] ε ε ε ε ρ2 1 − ρ2 ρ2 ρ2 (1 − ρ2 )

= σ 2 ρ2 . Da bei εt keine Autokorrelation unterstellt wird, k¨ onnen bei Ermittlung von Cov(ut ut−2 ) assigt werden: E(εt−s εt−l ) = 0 alle Kreuzprodukte von εt−s und εt−l mit s = l vernachl¨ mit s = l. Wenn weiter ber¨ ucksichtigt wird, dass σ 2 = E(u2t ) = E(εt + ρεt−1 + ρ2 εt−2 + ρ3 εt−3 + . . .) = E(ε2t ) + ρ2 E(ε2t−1 ) + ρ4 E(ε2t−2 ) + ρ6 E(εt−3 ) + . . . = 1 = σε2 (ρ2 + ρ4 + ρ6 + . . .) = σε2 1 − ρ2 2

ρ gilt, ergibt sich - wie oben angegeben - f¨ ur die Kovarianz Cov(ut ut−2 ) = ρ2 σ 2 = σ2 1−ρ 2.

L¨ osung zu Aufgabe 98: a) Wie in Aufgabe 97 gezeigt wird, gilt f¨ ur die Varianz der St¨ orgr¨ oßen σ 2 = E(u2t ) = E(εt + ρεt−1 + ρ2 εt−2 + ρ3 εt−3 + . . .) = E(ε2t ) + ρ2 E(ε2t−1 ) + ρ4 E(ε2t−2 ) + ρ6 E(εt−3 ) + . . . 1 = σε2 (ρ2 + ρ4 + ρ6 + . . .) = σε2 . 1 − ρ2 Analog zu Cov(ut ut−2 ) = ρ2 σ 2 (vgl. die L¨ osung zu Aufgabe 97) kann gezeigt werden, dass Cov(ut ut−s ) = ρs σ 2 gilt. Damit ergibt sich f¨ ur die Kovarianzmatrix ⎛ ⎞ 1 ρ · · · ρn−1 ⎜ ⎟ .. . σε2 ⎜ ρn−2 ⎟ ⎜ ρ ⎟ V (u) = σ 2 Ω = . . ⎟. .. 1 − ρ2 ⎜ ⎝ .. . .. ⎠ ρn−1 · · · · · · 1 b) Angenommen, das wahre Modell lautet yt = xt β + γzt + νt . F¨ ur u gilt dann ut = γzt + νt = γ(α0 + α1 · z˜t + ωt ) + νt = γα0 + γα1 · z˜t + γρω ωt−1 + γεt + νt .

3.8 L¨ osungen

181

Analog dazu gilt f¨ ur ut−1 ut−1 = γα0 + γα1 · z˜t−1 + γρω ωt−2 + γεt−1 + νt−1 . Weiter sei angenommen, dass E(ωt ) = E(εt ) = E(νt ) = 0 gilt und dass die St¨ orgr¨ oßen ωt , εt und νt nicht miteinander korreliert sind. Außerdem sei weder die St¨orgr¨ oße εt noch νt autokorreliert. F¨ ur die Kovarianz zwischen ut und ut−1 folgt Cov(ut ut−1 ) = E(ut ut−1 ) = E(γ 2 ρ2ω ωt−1 ωt−2 ) = γ 2 ρ3ω σω2 = 0. Somit ist die St¨ orgr¨ oße ut autokorreliert. Bevor gleich anstelle einer OLS-Sch¨ atzung eine EGLS-Sch¨ atzung verwendet wird, sollte zun¨ achst auf Fehlspezifikation gepr¨ uft werden. Eine alternative Spezifikation, ein nichtlinearer Modelltyp, die Ber¨ ucksichtigung verz¨ ogerter endogener Variablen oder die Aufnahme weiterer Regressoren k¨onnen in vielen F¨ allen zur Beseitigung der Autokorrelation f¨ uhren. c) Der Durbin-Watson-Test pr¨ uft H0 : keine Autokorrelation gegen H1 : Autokorrelation erster Ordnung. Die Pr¨ ufverteilung des Durbin-Watson-Tests variiert je nach Anzahl der exogenen Variablen und Anzahl der Beobachtungen. Sie l¨ asst sich außerdem nur schwer allgemein ermitteln. Eine einfache Darstellung in Abh¨ angigkeit von der Designmatrix X ist nicht m¨ oglich. Aus diesem Grund k¨ onnen keine allgemeinen exakten kritischen Werte angegeben werden. F¨ ur bestimmte Werte der Teststatistik ist keine eindeutige Testentscheidung m¨ oglich. Kleine Stichproben sind von diesem Problem st¨ arker betroffen, da hier der Bereich, in dem keine Testentscheidung getroffen werden kann, besonders groß ist. Die Durbin-Watson-Tabelle f¨ ur die kritischen Werte beginnt daher auch erst ab n = 15. In Regressionsmodellen, in denen zus¨ atzlich zur Autokorrelation erster Ordnung die verz¨ ogerte endogene Variable als erkl¨ arende Variable verwendet wird (z.B. yt = α1 yt−1 + α2 xt + ut mit ut = ρut−1 + εt ) liefert der Durbin-Watson-Test verzerrte Testergebnisse. In dieser Situation ist die Teststatistik verzerrt in Richtung 2 und zeigt auch dann keine Autokorrelation an, wenn die St¨ orterme autokorreliert sind. Eine Alternative bietet ein von Durbin (1970) entwickelter Test.

L¨ osung zu Aufgabe 99: F¨ ur die Koeffizientensch¨ atzung bei autokorrelierten Daten spielt die Bestimmung des Sch¨atzwerts f¨ ur ρ zentrale Rolle. Es ist m¨ oglich, in der ersten Stufe eine OLS-Sch¨ atzung der Regressionsgleichung durchzuf¨ uhren und anhand der ermittelten Residuen einen Sch¨atzwert f¨ ur ρ zu erhalten n u ˆt u ˆt−1 . ρˆ = t=2 n ˆ2t−1 t=2 u Dieses Vorgehen ist zul¨ assig, da das OLS-Verfahren zu konsistenten, wenn auch zu ineffizienten Koeffizientensch¨ atzungen f¨ uhrt. Im zweiten Schritt kann die Ausgangsgleichung

182

3 Erweiterungen des Regressionsmodells

so transformiert werden, dass die Autokorrelation beseitigt wird yt − ρyt−1 =

K 

βk (xtk − ρxt−1,k ) + ut − ρut−1

t = 2, . . . , n.

k=0

Die transformierte Regressionsgleichung kann, wenn ρ durch ρˆ ersetzt wird, erneut nach OLS gesch¨ atzt werden. Diese erneute Sch¨ atzung erm¨ oglicht die Berechnung eines neuen Sch¨ atzwerts f¨ ur ρ. Die Ausgangsgleichung ist nun mit dem neuen Sch¨ atzwert f¨ ur ρ zu transformieren und wiederum nach OLS zu sch¨ atzen. Dieses Verfahren kann iterativ fortgesetzt werden, bis sich die Sch¨ atzergebnisse nur noch marginal ¨ andern. Das beschriebene Sch¨ atzverfahren ist unter dem Namen Cochrane-Orcutt-Verfahren bekannt. Ein Nachteil dieses Vorgehens ist, dass die erste Beobachtung t = 1 bei Sch¨ atzungen nicht ber¨ ucksichtigt werden kann. Bei dem Prais-Winsten-Verfahren wird auch die erste Beobachtung bei der Transformation ber¨ ucksichtigt y1

K     1 − ρ2 = βk (x1k 1 − ρ2 ) + u1 1 − ρ2 . k=0

Bis auf die Transformation der ersten Gleichung ist das Vorgehen bei beiden Verfahren identisch. Das Cochrane-Orcutt-Verfahren ist wegen des Auslassens der ersten Beobachtung weniger rechenaufwendig als das Prais-Winsten-Verfahren. Dieser Vorteil spielt aber wegen der erheblichen Vergr¨ oßerung der PC-Rechenkapazit¨ aten heute praktisch keine Rolle mehr. Das Verfahren von Prais-Winsten verwendet mehr Informationen und ist vor allem in kleinen Stichproben dem Verfahren von Cochrane-Orcutt vorzuziehen.

L¨ osung zu Aufgabe 100: a) Nach dem Einlesen des Datensatzes und der Regression y = a + bx + u kann der Durbin-Watson-Test auf Autokorrelation erster Ordnung mit STATA durchgef¨ uhrt werden: estat dwat Durbin-Watson d-statistic(

2,

50) =

.7514022

Die kritischen Werte bei einem echten Regressor und n = 50 Beobachtungen lauten dl = 1, 50 und du = 1, 59 (α = 0, 05). Somit liegt die Pr¨ ufgr¨ oße im linken Ablehnungsbereich und die Nullyhypothese H0 : “Es liegt keine positive Autokorrelation erster Ordnung vor“ ist abzulehnen. b) ba) Die Sch¨ atzung nach der Kleinst-Quadrate-Methode lautet regress y x Source |

SS

df

MS

Number of obs =

50

3.8 L¨ osungen

183

----------+-----------------------------Model | 661.394704 1 661.394704 Residual | 70.9902212 48 1.47896294 ----------+-----------------------------Total | 732.384925 49 14.9466311

F( 1, 48) Prob > F R-squared Adj R-squared Root MSE

= = = = =

447.20 0.0000 0.9031 0.9011 1.2161

---------------------------------------------------------------------y | Coef. Std. Err. t P>|t| [95% Conf. Interval] ----------+----------------------------------------------------------x | .3002891 .0142 21.15 0.000 .2717381 .3288401 _cons | 2.414812 .356929 6.77 0.000 1.697159 3.132466 ----------------------------------------------------------------------

bb) Vor dem Cochrane-Orcutt-Verfahren und dem Prais-Winsten-Verfahren ist eine Zeitvariable explizit zu definieren. Daf¨ ur kann der Befehl tsset verwendet werden tsset t time variable: time, 1 to 50 F¨ ur beide Sch¨ atzverfahren wird der Befehl prais verwendet. Dieser Befehl muss bei dem Cochrane-Orcutt-Verfahren um die Option corc erg¨ anzt werden. In diesem Fall wird die erste Beobachtung bei der Sch¨ atzung nicht ber¨ ucksichtigt. prais

y x, corc

Cochrane-Orcutt AR(1) regression -- iterated estimates Source | SS df MS ----------+----------------------------Model | 789.808988 1 789.808988 Residual | 42.6193457 47 .906794589 ----------+----------------------------Total | 832.428334 48 17.342257

Number of obs F( 1, 47) Prob > F R-squared Adj R-squared Root MSE

= = = = = =

49 870.99 0.0000 0.9488 0.9477 .95226

--------------------------------------------------------------------y | Coef. Std. Err. t P>|t| [95% Conf. Interval] ----------+---------------------------------------------------------x | .30602 .0103692 29.51 0.000 .28516 .32688 _cons | 2.331958 .4172778 5.59 0.000 1.492504 3.171413 ----------+---------------------------------------------------------rho | .6171096 --------------------------------------------------------------------Durbin-Watson statistic (original) 0.751402 Durbin-Watson statistic (transformed) 1.950304

bc) Die Sch¨ atzung nach dem Prais-Winsten-Verfahren lautet prais

y x

Prais-Winsten AR(1) regression -- iterated estimates Source | SS df MS ----------+-----------------------------Model | 815.686875 1 815.686875 Residual | 43.6377097 48 .909118952 ----------+------------------------------

Number of obs F( 1, 48) Prob > F R-squared Adj R-squared

= = = = =

50 897.23 0.0000 0.9492 0.9482

184

3 Erweiterungen des Regressionsmodells Total |

859.324584

49

17.5372364

Root MSE

=

.95348

--------------------------------------------------------------------y | Coef. Std. Err. t P>|t| [95% Conf. Interval] ----------+---------------------------------------------------------x | .3050464 .0103333 29.52 0.000 .2842699 .325823 _cons | 2.246139 .4113647 5.46 0.000 1.419035 3.073243 ----------+---------------------------------------------------------rho | .6191244 --------------------------------------------------------------------Durbin-Watson statistic (original) 0.751402 Durbin-Watson statistic (transformed) 1.958899

c) Die Ergebnisse aller drei Sch¨ atzungen fallen ¨ ahnlich aus. Die gesch¨ atzten Koeffizienten a ˆ und ˆb liegen ziemlich nah an den wahren Werten a = 2 und b = 0, 3. Die Koeffizientensch¨ atzungen sind in allen Sch¨ atzungen signifikant. Bemerkenswert ist, dass sich bei Ber¨ ucksichtigung der Autokorrelation erster Ordnung der t-Wert des Regressors x gegen¨ uber der OLS-Sch¨ atzung erh¨ oht. Im Unterschied zu den Koeffizientensch¨ atzungen sollte das Bestimmtheitsmaß der OLS-Sch¨ atzung nicht mit dem Bestimmtheitsmaß der Prais-Winsten- bzw. der Cochrane-Orcutt-Sch¨ atzung verglichen werden (vgl. H¨ ubler 2005, S. 177). Welches Sch¨ atzverfahren bei autokorrelierten Daten allgemein vorzuziehen ist, l¨ asst sich aufgrund der Sch¨ atzergebnisse in b) nicht entscheiden. Die Frage, ob bessere oder schlechtere Eigenschaften einer Sch¨ atzung systematischer Natur oder zufallsbedingt sind, l¨ asst sich auf Basis einer Stichprobe und damit nur einer Sch¨ atzung nicht beantworten.

L¨ osung zu Aufgabe 101: Bei dem Durbin-Sch¨ atzverfahren wird versucht, im ersten Schritt durch Transformation der Regressionsgleichung die Autokorrelation des St¨ orterms zu beseitigen. Die Ausgangsgleichung sei gegeben durch yt = β0 + β1 x1,t + · · · + βK xK,t + ut , wobei f¨ ur den St¨ orterm ut = ρut−1 + εt gelte. Die Regressionsgleichung zum Zeitpunkt (t − 1) wird mit ρ multipliziert ρyt−1 = ρβ0 + ρβ1 x1,t−1 + · · · + ρβK xK,t−1 + ρut−1 . ost, Wird die zweite Gleichung von der ersten Gleichung abgezogen und nach yt aufgel¨ ergibt sich yt = (1 − ρ)β0 + β1 x1,t − ρβ1 x1,t−1 + · · · + βK xK,t − ρβK xK,t−1 + ρyt−1 + εt . Der St¨ orterm der letzten Regressionsgleichung ist annahmegem¨ aß nicht mehr autokorreliert. Die OLS-Sch¨ atzung liefert konsistente Koeffizientensch¨ atzungen.

3.8 L¨ osungen

185

Im zweiten Schritt der Sch¨ atzung wird mit Hilfe des gesch¨ atzten Koeffizienten ρ die Transformationsmatrix Tˆ gebildet (vgl. H¨ ubler 1989, S. 183). Die Ausgangsgleichung wird mit Tˆ pr¨amultipliziert Tˆy = TˆXβ + Tˆu. Der Durbin-Sch¨ atzer entspricht der OLS-Sch¨ atzung der letzten transformierten Gleichung βD = (X  Tˆ TˆX)−1 X  Tˆ Tˆy. Auf der ersten Stufe der Durbin-Sch¨ atzung entspricht die Koeffizientensch¨ atzung von yt−1 dem Sch¨ atzwert von ρ. Der Test auf Signifikanz von ρˆ kann f¨ ur die Beantwortung der Frage verwendet werden, ob Autokorrelation erster Ordnung vorliegt. Die orgr¨ oßen sind nicht autokorreliert. Bei einer signifikanten Nullhypothese lautet H0 : St¨ Koeffizientensch¨ atzung von ρ ist die Nullhypothese abzulehnen. In diesem Fall ist von Autokorrelation erster Ordnung auszugehen und ein geeignetes Sch¨ atzverfahren anzuwenden. Problematisch bei diesem Vorgehen ist jedoch, dass außer der Koeffizientensch¨ atzung atzwerte f¨ ur ρ existieren. Die Sch¨ atzwerte f¨ ur ρ ergeben von yt−1 noch K weitere Sch¨ sich, wenn die Koeffizientensch¨ atzungen von xt−1 und xt durcheinander geteilt werden ρˆk =

k ρβ βk

k = 1, . . . , K.

In der Regel werden die Werte ρˆk voneinander und von ρˆ abweichen. Somit ist es nicht eindeutig, welcher Sch¨ atzwert von ρ f¨ ur den Test oder f¨ ur die Bildung der Matrix T verwendet werden sollte. Empirische Erfahrungen zeigen, dass ρˆ zu plausibleren Werten ur ρˆk ergeben sich h¨ aufig Werte, f¨ uhrt als ρˆk und aus diesem Grund ρˆ vorzuziehen ist. F¨ die außerhalb des Intervalls [0; 1] liegen.

L¨ osung zu Aufgabe 102: Die strukturelle Form eines Mehrgleichungsmodells mit G Gleichungen l¨ asst sich in folgender Form angeben Γy = Bx + u. Je nach Gestaltung der Matrix Γ und der Kovarianzmatrix der St¨ orgr¨ oßen Σ lassen sich sechs unterschiedliche Arten von Mehrgleichungsmodellen unterscheiden. 1) Die Matrix Γ ist eine Einheitsmatrix und die Kovarianzmatrix eine Diagonalmatrix ⎛ ⎞ 1 0 ··· 0 ⎜0 1 0⎟ ⎜ ⎟ Γ=⎜. .. ⎟ . . . ⎝. . .⎠ 0 ··· ··· 1

186

3 Erweiterungen des Regressionsmodells und ⎞ σ12 0 · · · 0 ⎜ 0 σ22 0 ⎟ ⎟ ⎜ . Σ=⎜ . . . . ... ⎟ ⎠ ⎝ .. 2 0 · · · · · · σG ⎛

In diesem Fall tauchen die gemeinsam abh¨ angigen Variablen y in keiner Gleichung als erkl¨arende Variablen auf und die St¨ orterme der Gleichungen sind nicht miteinander korreliert. Ein solches Gleichungssystem wird als ein System unverbundener Gleichungen bezeichnet. 2) Falls nach wie vor Γ = I gilt, die Kovarianzmatrix Σ allerdings beliebig ist, sind die Gleichungen durch die Korrelationen der St¨ orterme miteinander verbunden. Es liegt ein System scheinbar unverbundener Gleichungen vor. 3) Ist Γ eine obere Dreiecksmatrix und Σ eine Diagonalmatrix, ergibt sich ein rekursives System. 4) Ist im Unterschied zu 3) die Matrix Σ beliebig, wird das Gleichungssystem als triangul¨ ares System bezeichnet. 5) Bei beliebiger Matrix Γ und einer Diagonalmatrix Σ liegt ein im Erkl¨ arungsansatz interdependentes Modell vor. 6) Sind sowohl Γ als auch Σ beliebig, handelt es sich um ein echt interdependentes Modell . Bei dem betrachteten Gleichungssystem ist von einem echt interdependenten Zweigleichungssystem auszugehen, da u orgr¨ oßen keine einschr¨ ankenden Annahmen ¨ber die St¨ vorliegen. asst sich zeigen, wenn y1 aus der ersten Gleichung Die Korrelation zwischen u1 und y2 l¨ in die zweite Gleichung eingesetzt wird y2 = β02 + β12 (β01 + β11 y2 + β21 x1 + u1 ) + β22 x1 + u2 . Die Aufl¨ osung nach y2 ergibt y2 =

β02 + β12 β01 β12 β21 + β22 β12 1 + x1 + u1 + u2 . 1 − β11 1 − β11 1 − β11 1 − β11

F¨ ur die Kovarianz zwischen u1 und y2 gilt Cov(y2 u1 ) = E(y2 u1 ) − E(y2 ) E(u1 ) = E(y2 u1 ).  =0

3.8 L¨ osungen

187

Selbst wenn der Einfachheit halber von E(u1 u2 ) = 0 ausgegangen wird, ist β02 + β12 β01 β12 β21 + β22 β12 u1 + x1 u1 + u2 1 − β11 1 − β11 1 − β11 1 1 + u2 u1 ] 1 − β11 β12 u2 ] = E[ 1 − β11 1 β12 E(u21 ) = 1 − β11 β12 σ 2 = 0. = 1 − β11 u1

Cov(y2 u1 ) = E[

Somit ist in der ersten Gleichung die erkl¨ arende Variable y2 mit der St¨ orgr¨ oße u1 korreliert. Eine Annahme des klassischen Regressionsmodells, die Unkorreliertheit zwischen den Regressoren und dem St¨ orterm, ist verletzt. Eine Sch¨ atzung mit der OLS-Methode f¨ uhrte zu einer inkonsistenten Koeffizientensch¨ atzung von β11 .

L¨ osung zu Aufgabe 103: a) Falls u1 und u2 nicht miteinander korreliert sind, handelt es sich um ein System unverbundener Gleichungen. Die Korrelationsmatrix der St¨ orterme ist gegeben durch

2 σ1 0 . Σ= 0 σ22 Das Gleichungssystem kann in Matrixform wie folgt dargestellt werden



X1 0 u1 β1 y1 = + . y2 β2 u2 0 X2     Y

X

β

U

Die OLS-Sch¨ atzung des Gleichungssystems ergibt βˆOLS = (X  X)−1 X  Y = =



X1 0 y1 y2 0 X2



X 1 y1 0 X2 y2 (X2 X2 )−1

0 (X1 X1 ) 0 (X2 X2 ) (X1 X1 )−1 0

−1

188

3 Erweiterungen des Regressionsmodells =

(X1 X1 )−1 X1 y1 (X2 X2 )−1 X2 y2

.

Die GLS-Sch¨ atzung des Gleichungssystems lautet βˆGLS = (X  (Σ ⊗ I)−1 X)−1 X  (Σ ⊗ I)−1 Y = (X  (Σ−1 ⊗ I)X)−1 X  (Σ−1 ⊗ I)Y



−2 −2 σ1 I 0 σ1 I 0  −1  X) X Y = (X 0 σ2−2 I 0 σ2−2 I

−1  −2



 X1 σ1 y1 X1 X1 σ1−2 0 0 = y2 0 X2 X2 σ2−2 0 X2 σ2−2 2 





σ1 (X1 X1 )−1 X1 σ1−2 y1 0 0 = y2 0 σ22 (X2 X2 )−1 0 X2 σ2−2



 y1 0 (X1 X1 )−1 X1 = y2 0 (X2 X2 )−1 X2



 y1 0 (X1 X1 )−1 X1 = y2 0 (X2 X2 )−1 X2

 (X1 X1 )−1 X1 y1 = (X2 X2 )−1 X2 y2 = βˆOLS . b) Die Kovarianzmatrix Σ ist beliebig und X1 = X2 = X. Das Gleichungssystem kann wie folgt dargestellt werden



y1 X 0 β1 u1 = + y2 β2 u2 0 X    Y

β

u

bzw. Y = (I ⊗ X)β + u. Die OLS-Sch¨ atzung des Gleichungssystems lautet βˆOLS = [(I ⊗ X) (I ⊗ X)]−1 (I ⊗ X) Y = (I ⊗ (X  X)−1 )(I ⊗ X  )Y = (I ⊗ (X  X)−1 X  )Y. Die GLS-Sch¨ atzung des Gleichungssystems lautet βˆGLS = [(I ⊗ X) (Σ ⊗ I)−1 (I ⊗ X)]−1 (I ⊗ X) (Σ ⊗ I)−1 Y

3.8 L¨ osungen

189 = [(I ⊗ X) (Σ−1 ⊗ I)(I ⊗ X)]−1 (I ⊗ X) (Σ−1 ⊗ I)Y.

Nach weiterer Ber¨ ucksichtigung der Rechenregeln mit dem Kronecker-Produkt ergibt sich βˆGLS = [Σ ⊗ (X  X)−1 ](Σ−1 ⊗ X  )Y = (I ⊗ (X  X)−1 X  )Y = βˆOLS .

L¨ osung zu Aufgabe 104: a) Es kann gezeigt werden, dass in der ersten Gleichung die erkl¨ arende Variable y2 mit arende dem St¨ orterm u1 korreliert ist. Analog ist in der zweiten Gleichung die erkl¨ orterm u2 korreliert. Bei einer separaten Sch¨ atzung der Variable y1 mit dem St¨ Gleichungen, z.B. mit OLS oder GLS, w¨ urde es wegen der Korrelation zwischen den gemeinsam abh¨ angigen Variablen und den St¨ orgr¨ oßen zu inkonsistenten Koeffizientensch¨ atzungen kommen. b) Die Ber¨ ucksichtigung des simultanen Charakters des Gleichungssystems bei Sch¨ atzung in einer Gleichung oder in beiden setzt voraus, dass die betreffende Gleichung oder beide Gleichungen identifiziert sind. In dem vorliegenden System w¨ are eine Gleichung dann identifiziert, wenn sie mindestens eine Variable aus der anderen Gleichung nicht enthielte. Beide Gleichungn weisen jedoch identische Variablen auf. Aus diesem Grund ist keine der beiden Gleichungen identifiziert und keine Gleichung kann konsistent gesch¨ atzt werden. c) Um eine Sch¨ atzung durchf¨ uhren zu k¨ onnen, muss die Identifizierbarkeit der Gleichungen erreicht werden. Einerseits ist es m¨ oglich, jede Gleichung um eine gleichungspezifische Variable zu erg¨ anzen. Wenn z.B. eine Variable x4 existiert, die in der ersten, jedoch nicht in der zweiten Gleichung aufgenommen wird, dann ist die Sch¨ atzung der zweiten Gleichung m¨ oglich. Analog dazu kann die erste Gleichung gesch¨ atzt werden, wenn die zweite Gleichung, jedoch nicht die erste Gleichung um eine weitere Variable x5 erweitert wird. Andererseits kann u uft werden, ob eine der aufgenommenen Variablen ausge¨berpr¨ schlossen werden kann. Beide Gleichungen sind identifiziert, wenn aus jeder Gleichung eine unterschiedliche Variable ausgeschlossen werden kann (z.B. Variable x1 aus der ersten und x2 aus der zweiten Gleichung). Bei den beschriebenen M¨ oglichkeiten handelt es sich um sogenannte Ausschlussrestriktionen, die sich hier auf die Koeffizienten beschr¨ ankt haben. M¨ oglich sind aber auch noch Restriktionen in der Kovarianzmatrix der St¨ orgr¨ oßen . Ob die angenommenen Restriktionen korrekt sind, kann mit Hilfe eines Tests auf ¨ Uberidentifikationsrestriktionen u uft werden (vgl. Baltagi 1998, S. 288). ¨berpr¨

190

3 Erweiterungen des Regressionsmodells

L¨ osung zu Aufgabe 105: ˜ 2 ) versteht man ein G¨ a) Unter einem System-R2 (R utemaß (vgl. Berndt 1991, S. 468), welches in Analogie zum Bestimmtheitsmaß aus dem klassischen Regressionsmodell definiert wird ˆ ˆ ˜ 2 = 1 − detU U . R detYˆ  Yˆ ˆ die Kreuzproduktmatrix der Residuen und Yˆ  Yˆ die Kreuzproduktˆ U Dabei ist U matrix der gemeinsam abh¨ angigen Variablen. b) F¨ ur das Bestimmtheitsmaß der ersten Gleichung ergibt sich R12 = 1 −

22, 287 ˆ1 u ˆ1 u =1− = 0, 1668. (y1 − y¯1 ) (y1 − y¯1 ) 26, 7498

F¨ ur das Bestimmtheitsmaß der zweiten Gleichung gilt R12 = 1 −

6983, 9 ˆ2 u ˆ2 u =1− = 0, 2643.  (y2 − y¯2 ) (y2 − y¯2 ) 9493, 11

¨ c) F¨ ur die Uberpr¨ ufung der Diagonalit¨ at der Kovarianzmatrix der St¨ orgr¨ oßen kann der Test nach Breusch und Pagan (1980) verwendet werden. Die Teststatistik lautet (vgl. H¨ ubler 2005, S. 184-185) λ=n

l−1 L  

a

rll2  ∼ χ2L(L−1)/2 ,

l=2 l =1

rll2  sind die Korrelationskoeffizienten zwischen den Residuen der Gleichungen l und l . F¨ ur das vorliegende Zweigleichungssystem ergibt sich λ=

2 nr12

σ ˆ2 = n 12 = 100 · σ ˆ11 σ ˆ22

(−44,463)2 1002 22,287 6983,9 100−1 · 100−2

= 1, 2322.

Der kritische Wert lautet χ21;0,95 = 3, 8415. Da λ < χ21;0,95 , wird die Nullhypothese, dass die Kovarianzmatrix der St¨ orgr¨ oßen diagonal ist, nicht abgelehnt. d) Die Hypothese, dass alle Koeffizienten des Systems Null sind, wird getestet durch die Pr¨ ufgr¨ oße (vgl. H¨ ubler 2005, S. 199) a

˜ 2 )) ∼ χ2m , χ2 = −n(ln(1 − R wobei m der Zahl der Koeffizienten des Gesamtsystems entspricht. Die Pr¨ ufgr¨ oße lautet χ2 = −100(ln(1 − 0, 2881)) = 33, 9818. Der kritische Wert lautet χ25;0,95 = 11, 0705. Da χ2 > χ25;0,95 , wird die Nullhypothese, dass alle Koeffizienten des Gleichungssystems Null sind, abgelehnt.

3.8 L¨ osungen

191

L¨osung zu Aufgabe 106: a) Gemeinsam abh¨ angige Variablen sind y1 und y2 . Vorherbestimmte Variablen sind 1, x1 und x2 . Die Anzahl der ausgeschlossenen vorherbestimmten Variablen in der angigen Variablen in der gleichen Gleichung i sei ki∗ . Die Anzahl der gemeinsam abh¨ Gleichung sei gi . Abz¨ ahlkriterium f¨ ur die erste Gleichung: - Anzahl der ausgeschlossenen vorherbestimmten Variablen ist gleich Null (k1∗ = 0). - Die um eins verminderte Zahl der gemeinsam abh¨ angigen Variablen ist ebenfalls gleich Null (g1 − 1 = 0). Somit ist f¨ ur die erste Gleichung das Abz¨ ahlkriterium erf¨ ullt (k1∗ ≥ g1 − 1). Abz¨ ahlkriterium der zweiten Gleichung: - Anzahl der ausgeschlossenen vorherbestimmten Variablen ist gleich Eins (k2∗ = 1). - Die um eins verminderte Zahl der gemeinsam abh¨ angigen Variablen ist ebenfalls gleich Eins (g2 − 1 = 1). Somit ist auch f¨ ur die zweite Gleichung das Abz¨ ahlkriterium erf¨ ullt (k2∗ ≥ g2 − 1). ¨ F¨ ur die Uberpr¨ ufung des Rangkriteriums soll das Gleichungssystem zun¨ achst in Matrixform dargestellt werden ⎛ ⎞

β01 β02 1 −β32 = ( ι x1 x2 ) ⎝ β11 0 ⎠ + ( u1 u2 ). ( y1 y2 ) 0 1 β21 β22 Im Weiteren sind die Teilmatrizen der zusammengesetzten Matrix A zu analysieren (vgl. Greene 2003, S. 392) ⎞ 1 −β32 1 ⎟ ⎜ 0 ⎟ ⎜ A = ⎜ β01 β02 ⎟ . ⎝β 0 ⎠ 11 β21 β22 ⎛

Rangkriterium der ersten Gleichung: Hier ist der Rang der Teilmatrix   A12 = 1 zu ermitteln. Die Teilmatrix A12 ergibt sich, indem aus A alle Zeilen gestrichen werden, die in der ersten Spalte keine Null aufweisen. Im betrachteten Beispiel werden die Zeilen 1, 3, 4 und 5 gestrichen. Anschließend wird auch die erste Spalte entfernt. Der Rang ist gleich Eins. Da der Rang dieser Teilmatrix genau der um eins verminderten Zahl der Gleichungen entspricht, ist auch das Rangkriterium erf¨ ullt.

192

3 Erweiterungen des Regressionsmodells Rangkriterium der zweiten Gleichung: Hier ist der Rang der Teilmatrix   A41 = β11 zu ermitteln. A41 ergibt sich analog zu A12 . Zun¨ achst werden alle Zeilen gestrichen, die in der zweiten Spalte keine Nullen enthalten. Dann wird die zweite Spalte gestrichen. Der Rang ist hier ebenfalls gleich Eins. Da der Rang dieser Teilmatrix genau der um eins verminderten Zahl der Gleichungen entspricht, ist das Rangkriterium auch bei der zweiten Gleichung erf¨ ullt. Beide Gleichungen sind (genau) identifiziert. Aus diesem Grund ist auch das gesamte Gleichungssystem identifiziert.

b) Die Erweiterung des Gleichungssystems um eine zus¨ atzliche Gleichung ver¨ andert die Gruppen der gemeinsam abh¨ angigen und vorherbestimmten Variablen. In dem System mit drei Gleichungen sind folgende Variablen gemeinsam abh¨ angig: y1 , y2 und x2 . Vorherbestimmte Variablen sind: 1, x1 und x3 . Abz¨ ahlkriterium: ahlkriterium - Erste Gleichung: k1∗ = 1 und g1 − 1 = 1. Da k1∗ ≥ g1 − 1, ist das Abz¨ erf¨ ullt. ahlkriterium - Zweite Gleichung: k2∗ = 2 und g2 −1 = 2. Da k2∗ ≥ g2 −1, ist das Abz¨ erf¨ ullt. ahlkriterium - Dritte Gleichung: k3∗ = 1 und g3 − 1 = 0. Da k3∗ ≥ g3 − 1, ist das Abz¨ erf¨ ullt. Da alle drei Gleichungen identifiziert sind, kann ein Systemsch¨ atzverfahren f¨ ur die simultane Sch¨ atzung des Gleichungssystems verwendet werden. Es ist jedoch auch m¨ oglich, die Gleichungen mit Hilfe von Einzelgleichungssch¨ atzverfahren (z.B. 2SLS) zu sch¨ atzen.

L¨ osung zu Aufgabe 107: Die gemeinsam abh¨ angigen Variablen sind: ALQ und P I. Die vorherbestimmten Variablen sind: LOHN und N ACH. In der ersten Gleichung ist eine vorherbestimmte Variable ausgeschlossen (LOHN ): angigen Variablen ist g1 = 2. Wegen k1∗ = g1 − 1 k1∗ = 1. Die Anzahl der gemeinsam abh¨ ist die erste Gleichung exakt identifiziert. Analog zu der ersten Gleichung ist in der zweiten Gleichung eine vorherbestimmte Variable ausgeschlossen (N ACH) und die Zahl der gemeinsam abh¨ angigen Variablen ist zwei. Auch die zweite Gleichung ist exakt identifiziert. Wird die reduzierte Form aus dem Gleichungssystem hergeleitet, ergibt sich ALQ = α0 + α1 (β0 + β1 ALQ + β2 LOHN + u2 ) + α2 N ACH + u1

3.8 L¨ osungen

193

P I = β0 + β1 (α0 + α1 P I + α2 N ACH + u1 ) + β2 LOHN + u2 . Nach einer einfachen Umformung ergeben sich ALQ =

α0 + α1 β0 α2 α1 β2 1 + N ACH + LOHN + u1 1 − α1 β1 1 − α1 β1 1 − α1 β1 1 − α1 β1 α1 + u2 1 − α1 β1

und PI =

β0 + α0 β1 β1 α2 β2 β1 + N ACH + LOHN + u1 1 − α1 β1 1 − α1 β1 1 − α 1 β1 1 − α1 β1 1 + u2 . 1 − α1 β1

Die Aufl¨ osung des folgenden Gleichungssystems f¨ uhrt zu den Koeffizientensch¨ atzungen nach der indirekten Methode der kleinsten Quadrate α0 +α1 β0 1−α1 β1 = π01 α2 1−α1 β1 = π11 α1 β2 1−α1 β1 = π21

(1) (2) (3)

β0 +α0 β1 1−α1 β1 = π02 β1 α2 1−α1 β1 = π12 β2 1−α1 β1 = π22

(4) (5) (6)

Zun¨ achst folgt durch die Division von (5) durch (2): β1 = π12 /π11 . Analog ergibt sich nach Division von (3) durch (6): α1 = π21 /π22 . Aus (6) folgt β2 = π22 (1 − α1 β1 ) = π22 (1 −

π21 π12 π11 π22 − π12 π21 )= . π22 π11 π11

Aus (2) folgt α2 = π11 (1 − α1 β1 ) =

π11 π22 − π12 π21 . π22

Die Aufl¨ osung von (1) und (4) liefert die Werte von α0 und β0 .

L¨ osung zu Aufgabe 108: a) Um herauszufinden, Koeffizienten welcher Gleichung konsistent gesch¨ atzt werden k¨ onnen, muss u uft werden, welche Gleichung identifiziert ist. Aus Einfach¨berpr¨ heitsgr¨ unden beschr¨ anken wir uns nur auf das Abz¨ ahlkriterium.

194

3 Erweiterungen des Regressionsmodells Die gemeinsam abh¨ angigen Variablen im Gleichungssystem sind y1 und y2 . Die Variablen x1 , x2 und x3 sind vorherbestimmte Variablen. In der ersten Gleichung ist eine vorherbestimmte Variable x1 ausgeschlossen (k1∗ = 1). Die erste Gleichung enth¨ alt zwei gemeinsam abh¨ angige Variablen (g1 = 2). Da k1∗ = g1 − 1, ist die erste Gleichung exakt identifiziert. In der zweiten Gleichung sind zwei vorherbestimmte Variablen ausgeschlossen angigen Variablen ist ebenfalls zwei (g2 = 2). (k2∗ = 2). Die Zahl der gemeinsam abh¨ Wegen k2∗ > g2 − 1 ist die zweite Gleichung u ¨beridentifiziert. Mit Hilfe der Matrix Π k¨ onnen die Koeffizienten einer exakt identifizierten Gleichung konsistent gesch¨ atzt werden. Die Koeffizienten von u ¨beridentifizierten Gleichungen k¨ onnen jedoch nicht eindeutig ermittelt werden. Aus diesem Grund k¨ onnen nur die Koeffizienten der ersten Gleichung konsistent gesch¨ atzt werden.

b) Zwischen den Koeffizienten der reduzierten Form und den Koeffizienten der Strukturform gilt folgender Zusammenhang ⎛ ⎞ ⎛ ⎞

0 b2 5 4 1 −b1 ⎝ 2 −3 ⎠ = ⎝ a2 0 ⎠ . −a1 1 a3 0 −1 6 F¨ ur die Koeffizienten der ersten Strukturgleichung ergibt sich 5 − 4a1 = 0 2 + 3a1 = a2 −1 − 6a1 = a3 . Daraus folgt a1 = 1, 25

a2 = 5, 75

a3 = −8, 50.

F¨ ur die Koeffizienten der zweiten Strukturgleichung ergibt sich −5b1 + 4 = b2 −2b1 − 3 = 0 b1 + 6 = 0. Daraus ergeben sich zwei unterschiedliche L¨ osungen f¨ ur b1 und somit auch f¨ ur b2 . F¨ ur die zweite Strukturgleichung existiert keine eindeutige L¨ osung.

L¨ osung zu Aufgabe 109: a) Wird die zweite Strukturgleichung in die erste und die erste Strukturgleichung in die zweite eingesetzt, ergibt sich y1 = a1 (b1 y1 + b2 x2 + b3 x3 + u2 ) + a2 x1 + u1

3.8 L¨ osungen

195 y2 = b1 (a1 y2 + a2 x1 + u1 ) + b2 x2 + b3 x3 + u2 .

Die Aufl¨ osung nach y1 und y2 f¨ uhrt zur reduzierten Form y1 =

a2 a1 b2 a1 b3 1 a1 x1 + x2 + x3 + u1 + u2 1 − a1 b1 1 − a1 b1 1 − a1 b1 1 − a1 b1 1 − a1 b1

y2 =

a2 b1 b2 b3 b1 1 x1 + x2 + x3 + u1 + u2 . 1 − a1 b1 1 − a1 b1 1 − a1 b1 1 − a1 b1 1 − a1 b 1

b) Aus der reduzierten Form Y = XΠ + V ergeben sich die Prognosewerte f¨ ur Y = (y1 |y2 )     ˆ ˆ 1 |Π ˆ2 . yˆ1 |ˆ y2 = X Π Yˆ = X Π bzw. ˆ 1 und yˆ2 = X Π ˆ2 yˆ1 = X Π ˆ 1 ist die erste Spalte und Π ˆ 2 die zweite Spalte der Matrix Π. ˆ Π F¨ ur die Koeffizientensch¨ atzungen nach dem 2SLS-Verfahren gilt =⇒



a ˆ1 a ˆ2

2SLS

# = ⎡⎡ =

=

=

= = =

ˆ Z ˆ −1 Z ˆ  y1 = = (Z 1 1) 1

ˆ 2 ) (X Π x1

ˆ 2 |x1 ) (X Π

$ −1

#

yˆ2 x1

(ˆ y2 |x1 )

$ −1

ˆ  y1 Z 1

ˆ  y1 Z 1

⎤ ⎞⎤ ⎛ ⎞ ⎡ ⎤ −1 x1 4 ⎢ ⎢ (4 − 3 6) ⎝ x ⎠ ⎥ ⎥ 2 ˆ  y1 ⎢⎢ ⎥ ⎣ (x1 |x2 |x3 ) ⎝ −3 ⎠ | x1 ⎦ ⎥ Z 1 ⎣⎣ ⎦ x3 ⎦ 6  x1 # $ −1

(4x1 − 3x2 + 6x3 ) ˆ  y1 Z ((4x1 − 3x2 + 6x3 )|x1 )  1 x1 ⎞ −1 ⎛ 4x1 x1 − 3x2 x1 + 6x3 x1 16x1 x1 + 9x2 x2 + 36x3 x3 ⎟ ⎜ +Kreuzprodukte zwischen x1 , x2 , x3 ˆ  y1 ⎟ Z ⎜ 1 ⎠ ⎝     4x1 x1 − 3x1 x2 + 6x1 x3 x1 x1



−1 700 16 · 2 + 9 · 4 + 36 · 20 4 · 2 10 4·2 2

−1

788 8 700 8 2 10

0, 87301587 . 1, 5079365 ⎛

196

3 Erweiterungen des Regressionsmodells

L¨ osung zu Aufgabe 110: a) aa) Es handelt sich um ein rekursives System. ab) i) OLS:  OLS ˆb0 = (z  z)−1 z  y2 ˆb1 # 

$−1 

ι y2 ι (ι, y = ) 1  y1 y1 y2

 −1  y2 n  y1   = y1 y12 y1 y2

−1

52, 3 100 89 = 89 202, 5 71, 1



52, 3 1 202, 5 −89 = −89 100 71, 1 100 · 202, 5 − 892



4262, 85 0, 346 1 = = 12329 2455, 3 0, 199 ii) ILS:  ILS ˆb0 = (x z)−1 x y2 ˆb1 # 

$−1 

ι y2 ι (ι, y = ) 1  x1 x1 y2

−1 

 y2 n  y1   = x1 x1 y 1 xy2



−1 52, 3 100 89 = −6, 7 48, 6 −0, 9



52, 3 1 48, 6 −89 = 100 · 48, 6 + 6, 7 · 89 6, 7 100 −0, 9



2621, 88 0, 481 1 = = 5456, 3 260, 41 0, 048 ! ILS ˆ Der Vektor ˆbb01 kann auch durch indirekte Berechnung bestimmt werden. Sch¨ atze die reduzierte Form des Systems nach OLS, d.h. y1 = a0 + a1 x1 + u1 zun¨ achst einsetzen y2 = b0 + b1 (a0 + a1 x1 + u1 ) + u2 y2 = b0 + b1 a0 + a1 b1 x1 + b1 u1 + u2 . L¨ ose dann nach den gemeinsam abh¨ angigen Variablen auf y1 = a0 + a1 x1 + u1

(1)

3.8 L¨ osungen

197 y2 = b0 + b1 a0 + a1 b1 x1 + b1 u1 + u2 ,    c0

c1

v2

um schließlich (2) nach OLS zu sch¨ atzen # 

$−1 

OLS ι ι y2 cˆ0 = (x x)−1 x y2 = ) (ι, x 1 cˆ1 x1 x1 y2

 −1  y2 n  x1   = x1 x21 x1 y2



−1 52, 3 100 −6, 7 = −6, 7 104, 8 −0, 9



52, 3 1 104, 8 6, 7 = 6, 7 100 100 · 104, 8 − 6, 72 −0, 9



5475, 01 0, 525 1 = = 10435, 11 260, 41 0, 025 # 



$−1 

ι ι a ˆ0 = (ι, x1 ) · y1  a ˆ1 x1 x1

 −1  y1 n  x1  =  x1 x21 x1 y1



−1 89 100 −6, 7 = −6, 7 104, 8 48, 6



89 1 104, 8 6, 7 · = 6, 7 100 104, 8 · 100 − 6, 72 48, 6



9652, 82 0, 925 1 = . = 10435, 11 5456, 3 0, 523 Somit gilt





a ˆ0 0, 925 = a ˆ1 0, 523  

 b0 + b1 a0 0, 525 = . 0, 025 a 1 b1

Hieraus folgt  ˆb1 = a1 b1 = 0, 025 = 0, 048 a ˆ1 0, 523  ˆb0 = (b0 + b1 a0 ) − ˆb1 · a ˆ0 = 0, 525 − 0, 048 · 0, 925 = 0, 4814 

ˆb0 ˆb1

ILS

=

0, 481 0, 048

.

(2)

198

3 Erweiterungen des Regressionsmodells ac) H0 : b 1 = 0 H1 : b1 = 0   ˆbOLS Vˆ ˆ0OLS = σ ˆ22 (z2 z2 )−1 b1 

ι (ι, y1 )]−1 =σ ˆ22 [ y1  −1 n  y1 2  =σ ˆ2 y1 y12

−1 100 89 = 0, 378 89 202, 5

0, 378 202, 5 −89 = −89 100 100 · 202, 5 − 892

0, 378 202, 5 −89 = −89 100 12329 Daraus ergibt sich z.B. 0, 378 = 0, 0031 Vˆ (ˆbOLS ) = 100 · 1 12329 



ˆbILS 0 ˆbILS 1



= σ ˆ22 ((x z2 )−1 (x x)(z2 x)−1 )







ι ι ι −1  )] )[ = 0, 963 · [ (ι, y (ι, x (ι, x1 )]−1 1 1 x1 x1 y1

−1  n  y1 = 0, 963  x1 x1 y1



−1   n  x1 n  x12 · . y1 y1 x1 x1 x1 Die entsprechenden Werte eingesetzt, f¨ uhren zu  

−1 ˆbILS 100 89 0 Vˆ = 0, 963 ˆbILS −6, 7 48, 6 1



−1 100 −6, 7 100 −6, 7 · −6, 7 104, 8 89 48, 6

1 48, 6 −89 = 0, 963 · 6, 7 100 (100 · 48, 6 + 89 · 6, 7)2



100 −6, 7 48, 6 6, 7 · −6, 7 104, 8 −89 100



0, 963 5456, 3 −9652, 82 48, 6 6, 7 = 0 10435, 11 −89 100 (5456, 3)2

0, 963 1124277, 6 −928724, 79 = (5456, 3)2 −928724, 79 1043511

0, 0364 −0, 03 = . −0, 03 0, 0338

3.8 L¨ osungen

199

Daraus ergibt sich z.B. Vˆ (ˆbILS ) = 0, 0338 1 ˆbOLS 0, 199 tOLS =  1 = 3, 574 =√ 0, 0031 Vˆ (ˆbOLS )

=⇒

H0 wird abgelehnt.

1

ˆbILS 0, 048 tILS =  1 = 0, 261 =√ 0, 0338 Vˆ (ˆbILS )

=⇒

H0 wird nicht abgelehnt.

1

ad) Die OLS- und ILS-Sch¨ atzwerte unterscheiden sich, da es sich dabei um zufallsabh¨ angige Realisationen verschiedener Sch¨ atzfunktionen handelt. Die Differenz zwischen den Sch¨ atzwerten d¨ urfte mit wachsendem Stichprobenumfang abnehmen. Die OLS-Sch¨ atzfunktion ist im rekursiven System effizient und aus diesem Grund der ILS-Sch¨ atzfunktion vorzuziehen. b) ba) H0 : y1 ist exogen ˆbOLS = 0, 199 1 ˆbILS = 0, 048 1

H1 : y1

ist nicht exogen

Vˆ (ˆbOLS ) = 0, 0031 1 Vˆ (ˆbILS ) = 0, 0338 1

¨ Die Uberpr¨ ufung kann mit Hilfe des Hausman-Tests vorgenommen werden. ¨ Ublicherweise werden beim Hausman-Test auf Exogenit¨ at OLS- und 2SLSSch¨ atzer miteinander verglichen (vgl. H¨ ubler 1989, S. 320). Wenn eine Gleichung aber exakt identifiziert ist, dann stimmen ILS- und 2SLS-Sch¨ atzer u ¨berein (vgl. H¨ ubler 1989, S. 287). Gleichung (2) ist hier exakt identifiziert. Die Pr¨ ufgr¨ oße ist gegeben durch X 2 = (0, 048 − 0, 199) · (0, 0338 − 0, 0031)−1 · (0, 048 − 0, 199) = 0, 7427. Der kritische Wert ist χ21;0,95 = 3, 8414588. Da X 2 < χ21;0,95 , kann H0 nicht abgelehnt werden. y1 ist somit als exogen anzunehmen. bb) Falls y1 exogen ist, kann b1 mit OLS gesch¨ atzt werden. bc) y1 ergibt sich als Linearkombination aus x1 und u1 . Im rekursiven System ist x1 weder mit u1 noch mit u2 korreliert. Aus diesem Grund ist auch y1 nicht mit u2 korreliert und somit exogen. Der Test auf H0 :“y1 ist in der zweiten Gleichung exogen“ ist u ussig. ¨berfl¨

200

3 Erweiterungen des Regressionsmodells

L¨ osung zu Aufgabe 111: a) In der Matrixschreibweise eines allgemeinen Gleichungssystems Y B = XΓ + U lassen sich die Koeffizientenmatrizen auf Basis von (1) bis (3) wie folgt darstellen ⎛ ⎞ 1 0 −c1 0 ⎠ B = ⎝ −a1 1 0 −b1 1 ⎛ ⎞ a0 b0 c0 Γ = ⎝ 0 b2 c2 ⎠ . 0 0 c3 ¨ Uberpr u ¨ fung der Identifikation: 1. Gleichung Abz¨ ahlkriterium: k1∗ = 1, g1 − 1 = 1 → k1∗ > g1 − 1 ⎞ ⎛ −b1 1 Rangkriterium: Rang ⎝ b2 c2 ⎠ = 2 = G − 1 0 c3 Die erste Gleichung ist u ¨beridentifiziert. 2. Gleichung Abz¨ ahlkriterium: k2∗ = 1, g2 − 1 = 1 → k2∗ = g2 − 1

1 −c1 =2=G−1 Rangkriterium: Rang 0 c3 Die zweite Gleichung ist exakt identifiziert. 3. Gleichung Abz¨ ahlkriterium: k3∗ = 0, g3 − 1 = 1 → k3∗ = g3 − 1 Die dritte Gleichung ist unteridentifiziert. b) ba) - Koeffizienten der Gleichung (3) k¨ onnen wegen der Unteridentifikation nicht konsistent gesch¨ atzt werden. - Da die Gleichung (1) u ¨beridentifiziert und die Gleichung (2) exakt identifiziert sind, k¨ onnen die Koeffizienten der Gleichungen (1) und (2) konsistent gesch¨ atzt werden. bb) - Die Gleichung (1) l¨ asst sich nach der zweistufigen Methode der kleinsten Quadrate sch¨ atzen (2SLS).

3.8 L¨ osungen

201

- Die Gleichung (2) kann entweder nach der indirekten Methode der kleinsten Quadrate (ILS) oder nach der zweistufigen Methode der kleinsten Quadrate gesch¨ atzt werden (2SLS). Beide Methoden f¨ uhren zum gleichen Ergebnis. - Die dreistufige Methode der kleinsten Quadrate (3SLS) ist wegen der Unteridentifikation der Gleichung (3) nicht anwendbar. bc) Reduzierte Formen sind immer identifiziert. Im Gegensatz zur OLS-Sch¨ atzung der strukturellen Form sind OLS-Sch¨ atzungen der reduzierten Form immer konsistent, da die St¨ orgr¨ oßen dann nicht mit den vorherbestimmten Variablen korrelieren. ¨ c) Es handelt sich bei dem Ausdruck um die Pr¨ ufgr¨ oße des Tests auf Uberidentifikationsrestriktionen bzw. um Sargans Test auf Exogenit¨ at der Instrumente (vgl. Cameron/Trivedi 2005, S.277). ¨ der Gleichung (1) sind korrekt. H0 : Uberidentifikationsrestriktionen ¨ H1 : Uberidentifikationsrestriktionen der Gleichung (1) sind nicht korrekt. Die Pr¨ ufgr¨ oße ist 2 n · Runzentriert =n·

ˆ1 u ˆ1 X(X  X)−1 X  u = 1, 32. u ˆ1 u ˆ1

Der kritische Wert lautet χ21;0,95 = 3, 84. ¨ F¨ ur y2 werden x1 und x2 als Instrumente genutzt. Die Zahl der Uberidentifikationsinstrumente ist Eins, so dass nR2 als χ2 -verteilte Zufallsvariable einen Freiheitsgrad besitzt. Da 1, 32 < 3, 84 kann H0 nicht abgelehnt werden. Das Ergebnis des Tests spricht daf¨ ur, dass in der Gleichung (1) keine Fehlspezi¨ fikation vorhanden ist (Uberidentifikation, Endogenit¨ at der Instrumente, fehlende Variablen, Fehler in den Variablen, Heteroskedastie, Autokorrelation).

L¨ osung zu Aufgabe 112: a) Die Annahme normalverteilter St¨ orgr¨ oßen ist gerechtfertigt, wenn eine Vielzahl unabh¨ angiger Zufallseinfl¨ usse auf die St¨ orgr¨ oße einwirkt. Das Vorhandensein von Ausreißern oder extremen Beobachtungswerten, aber auch Fehlspezifikation kann zur Verletzung der Normalverteilungsannahme f¨ uhren. ¨ b) Die Uberpr¨ ufung kann entweder graphisch oder durch Tests vorgenommen werden. ¨ Graphische Uberpr¨ ufungsm¨ oglichkeiten sind in vielen ¨ okonometrischen Programmpaketen implementiert. In STATA k¨ onnen mit den Programmbefehlen pnorm und qnorm der P-P Plot und der Q-Q Plot erstellt werden. Bei diesen Plots wird u ¨berpr¨ uft, wie gut sich die Residuen einer Normalverteilung anpassen. Als Referenzzustand gilt dabei die Winkelhalbierende im Koordinatensystem. Die Anpassung

202

3 Erweiterungen des Regressionsmodells

wird mit Hilfe der Abweichungen von der Winkelhalbierenden beurteilt. Bei starken Abweichungen wird angenommen, dass die Normalverteilungsannahme verletzt ist. Als Tests kommen vor allem der Jarque-Bera- und der Shapiro-Wilk-Test in Betracht. Obwohl der Jarque-Bera-Test einige Nachteile aufweist (vgl. H¨ ubler 2005, S. 120), gilt er im Allgemeinen als gut und wird sehr h¨ aufig angewandt. In kleinen Stichproben wird der Jarque-Bera-Test von dem Shapiro-Wilk-Test dominiert. Als weitere Tests kommen der χ2 -Anpassungstest, der Kolmogorov-Smirnov- und der Momente-Test in Frage. c) Die BLUE-Eigenschaft der OLS-Sch¨atzung gilt unabh¨ angig von der Normalverteilungsannahme. Aus diesem Grund ist der OLS-Sch¨ atzer auch bei nicht normalverteilten St¨ orgr¨ oßen unverzerrt und effizient in der Klasse der linearen Sch¨ atzer. Bei gr¨ oßeren Stichproben kann wegen des zentralen Grenzwertsatzes davon ausgegangen werden, dass der OLS-Sch¨ atzer asymptotisch normalverteilt ist. Aus diesem Grund sind in großen Stichproben die u ¨blichen Hypothesentests, wie der t-Test oder der F-Test, auch dann m¨ oglich, wenn die St¨ orgr¨ oßen nicht normalverteilt sind. In kleinen Stichproben ist dies nicht der Fall. In dieser Situation kann man bisweilen durch eine Modelltransformation (z.B. Logarithmierung) erreichen, dass die St¨orgr¨ oßen einer Normalverteilung folgen. Weitere M¨ oglichkeiten bei nicht normalverteilten St¨ orgr¨ oßen bestehen darin, die wahre“ Verteilung zu verwenden oder ” auf nichtparametrische Verfahren auszuweichen. d) Die Frage, ob eine robuste Sch¨ atzung der OLS-Sch¨ atzung vorzuziehen ist, l¨ asst sich nicht eindeutig beantworten. Es bietet sich an, Ergebnisse beider Sch¨ atzverfahren miteinander zu vergleichen. Wenn die Unterschiede zwischen den Ergebnissen klein sind, ist der OLS-Ansatz zu pr¨ aferieren. Wenn jedoch die Ergebnisse stark voneinander abweichen, sollte die robuste Sch¨ atzung der OLS-Sch¨ atzung vorgezogen werden.

L¨ osung zu Aufgabe 113: a) F¨ ur Personen unter 20 Jahren gelte folgende Regressionsgleichung y = β0 + β11 x + u. F¨ ur Personen, mit mindestens 20 Jahre alt sind, sei die entsprechende Regressionsbeziehung gegeben durch y = β0 + β12 x + u. Weiter sei eine Dummy-Variable D wie folgt definiert  1, falls x < 20 D= 0, falls x ≥ 20 Mit Hilfe der Dummy-Variablen k¨ onnen beide Gleichungen in einer Regressionsgleichung zusammengefasst werden y = β0 + β11 x + (β12 − β11 )Dx + u.

3.8 L¨ osungen

203

b) Angenommen, die separate Regressionsgleichung f¨ ur Personen unter 20 lautet y = β01 + β11 x + u. F¨ ur Personen mit einem Alter von mindestens 20 Jahren gelte die Regressionsgleichung y = β02 + β12 x + u. Mit Hilfe der Dummy-Variablen D lassen sich beide Regressionsgleichungen zusammenfassen y = β01 + (β02 − β01 )D + β11 x + (β12 − β11 )Dx + u. c) Falls sich die Koeffizientensch¨ atzung β02 − β01 der Variablen D in b) als signifikant von Null verschieden erweist, ist die Annahme unterschiedlicher Konstanten gerechtfertigt. d) Bei der Vorgehensweise unter a) - c) wird implizit davon ausgegangen, dass die St¨ orgr¨ oßen f¨ ur beide Gruppen identisch sind. Diese Annahme erscheint jedoch in den meisten F¨ allen als zu restriktiv. Dieses Problem wird umgangen, wenn getrennte Gleichungen gesch¨ atzt werden.

L¨ osung zu Aufgabe 114: a) Histogramme haben den Vorteil, dass sie einfach zu berechnen und darzustellen sind. Nachteilig ist, dass die Sch¨ atzfunktion f¨ ur die Dichtefunktion nicht stetig ist und das Ergebnis stark von der Wahl der Klassenbreite und der Klassenanzahl abh¨angt. Im Unterschied zu Histogrammen erm¨ oglichen Kerndichtesch¨ atzungen stetige Sch¨ atzfunktionen. Die Abh¨ angigkeit von der Bandbreite spielt jedoch auch bei Kerndichtesch¨ atzungen eine wichtige Rolle. b) In STATA lassen sich Histogramme durch den Befehl histogram erstellen. Die Anzahl der gew¨ unschten Klassen kann durch die Option bin(#) angegeben werden, wobei # die Zahl der Klassen angibt. Die STATA-Befehle f¨ ur Histogramme mit 2 und 40 Klassen werden nachfolgend angegeben: histogram y, bin(2) histogram y, bin(40) In Abbildung 3.1 ist der Fall mit 40 Klassen dargestellt. kdensity y, rectangle addplot(kdensity y, triangle lpattern(solid) lwidth(medthick))

c) Die Kerndichtesch¨ atzung erfolgt in STATA mit dem Befehl kdensity. Die zu verwendende Kernfunktion ist durch eine Option festzulegen. Als Befehl f¨ ur die Kerndichtesch¨atzung mit einem Rechteckkern ist folgender Befehl zu verwenden

3 Erweiterungen des Regressionsmodells

0

.1

Dichte

.2

.3

204

−5

0

5

10

Variable Y

Abb. 3.1: Histogramm

kdensity y, rectangle Außerdem ist es m¨ oglich, in einer Graphik mehrere Kerndichtesch¨ atzungen zusammen auszuweisen. Daf¨ ur kann die Option addplot verwendet werden. Die zus¨ atzlichen Plots sind durch || voneinander zu trennen. Um verschiedene Kerndichtesch¨ atzungen auf einer Graphik auch erkennen zu k¨ onnen, sind zus¨ atzliche Optionen zu Farben lcolor oder Linienst¨ arken lpattern anzugeben. So kann der Kerndichtesch¨ atzung mit dem Rechteckkern eine Kerndichtesch¨ atzung mit dem Dreieckskern hinzugef¨ ugt werden (vgl. Abbildung 3.2) In einem weiteren Schritt wird der Graphik auch die Kerndichtesch¨ atzung mit dem Epanechnikovkern hinzugef¨ ugt. In Abbildung 3.3 sind der Rechteck-, Dreiecks- und Epanechnikovkernsch¨ atzer dargestellt.

205

.1 0

.05

Kerndichte

.15

.2

3.8 L¨ osungen

−5

0

5

10

Variable Y Rechteckkern

Dreieckskern

Abb. 3.2: Rechteck- und Dreieckskerndichtesch¨ atzer

kdensity y, rectangle addplot(kdensity y, triangle lpattern(solid) lwidth(medthick) || kdensity y, epanechnikov lpattern(dash) lwidth(medthick))

Als letztes soll der Graphik die zugrundeliegende Dichtefunktion f (y) hinzugef¨ ugt werden (vgl. Abbildung 3.4). F¨ ur die Zufallsvariable y gilt E(y) = 2 und σy = 2. ¨ Um eine gute Ubereinstimmung mit der erstellten Graphik der Kerndichtesch¨ atzungen zu erreichen, soll die Dichtefunktion f¨ ur Werte von -4 bis 6 erstellt werden. Daf¨ ur wird im ersten Schritt eine neue Variable p eingef¨ uhrt, deren erster Wert gleich -4 ist und die in 0,05-Schritten zunimmt. gen p=-4 in 1 replace p=p[_n-1]+0.05 if _n>=2 Anschließend wird f¨ ur jeden Wert der Variablen p der zugeh¨ orige Wert der Dichtefunktion ermittelt. Dies kann mit dem Befehl normalden(p,m,s) geschehen, wobei p die Zufallsvariable, m der Erwartungswert und s die Standardabweichung bezeichnet. gen density=normalden(p,2,2)

3 Erweiterungen des Regressionsmodells

.1 0

.05

Kerndichte

.15

.2

206

−5

0

5

10

Variable Y Rechteckkern

Dreieckskern

Epanechnikovkern

Abb. 3.3: Drei Kerndichtesch¨ atzer

Die Dichtefunktion kann graphisch dargestellt werden, wenn die Werte der neu erstellten Variablen density mit einer Linie verbunden werden. Diese Linie kann der Graphik der Kerndichtesch¨ atzung mit der Option addplot hinzugef¨ ugt werden. kdensity y, rectangle addplot(kdensity y, triangle lpattern(solid) lwidth(medthick) || kdensity y, epanechnikov lpattern(dash) lwidth(medthick) || line density p, lwidth(medthick))

Mit der wahren Dichtefunktion stimmt die Dichtesch¨ atzung mit dem Epanechnikovkern am besten u ¨berein. Durch die Optionen ytitle, xtitle und title k¨ onnen die Achsen und die Graphik nach Wunsch beschriftet werden. d) Zur weiteren Analyse wird die Dichtefunktion mit dem Epanechnikovkern gew¨ ahlt. Da der Epanechnikovkern von STATA automatisch bei Kerndichtesch¨ atzungen gew¨ahlt wird, braucht es im Folgenden als Option nicht mehr angegeben zu werden. Die Bandbreite bei Dichtesch¨ atzungen kann mit der Option width(#) gew¨ ahlt werden. Mit der zunehmenden Breite werden die Kerndichtesch¨ atzungen glatter. Gleichzeitig nimmt die Datentreue ab. Die Graphiken hierzu sind nicht wiedergegeben. e) Die erstellten Graphiken f¨ ur unterschiedliche Kernfunktionen und Bandbreiten zei-

207

.1 0

.05

Kerndichte

.15

.2

3.8 L¨ osungen

−5

0

5

10

Variable Y Rechteckkern

Dreieckskern

Epanechnikovkern

f(p)

Abb. 3.4: Kerndichtesch¨ atzer und Dichtefunktion

gen, dass die Form einer Kerndichtesch¨ atzung st¨ arker auf die Wahl der Bandbreite als auf die Wahl der Kernfunktion reagiert.

L¨ osung zu Aufgabe 115: Bei einer Sch¨ atzung mit Regressionssplines wird die x-Achse in Teilintervalle eingeteilt. F¨ ur jedes Teilintervall wird ein separates Polynom gesch¨ atzt. An den Grenzen der Teilintervalle, die auch als Knotenpunkte bezeichnet werden, sollen die Polynome m¨ oglichst glatt aneinander anschließen. Die Anpassung der Daten durch die Regressionsplines h¨ angt von der Anzahl und der Position der Knotenpunkte ab. Bei einer geeigneten Wahl der Zahl und der Position der Knotenpunkte kann die Anpassung der Daten durch die Regressionssplines verbessert werden. Die G¨ ute der Datenanpassung kann z.B. durch eine penalisierte Residuenquadratsumme u uft werden. In die penalisierte Residuenquadratsumme Sλ gehen ¨berpr¨ einerseits die Residuenquadrate und andererseits die mit dem Parameter λ gewichtete

208

3 Erweiterungen des Regressionsmodells

lokale Variation ein Sλ =

n 

% = (yi − f (xi ))2 + λ

g  (x)dx.

i=1

Die G¨ ute der Datenanpassung h¨ angt stark von der Wahl des Parameters λ ab. Tendenziell ergeben sich bei kleinen Werten von λ datentreue, jedoch rauhe Sch¨ atzer. Bei gr¨ oßeren Werten von λ werden die Sch¨ atzer glatter, gleichzeitig verringert sich jedoch die Datentreue. Eine Alternative zu Regressionssplines besteht in der Sch¨ atzung lokalgewichteter Gl¨ attungslinien oder in einer lokal polynomialen Regression. Bei den lokalgewichteten Gl¨ atangigen Variablen eine tungslinien wird um einen Beobachtungspunkt x0 der unabh¨ Nachbarschaft definiert. Je nach Entfernung von dem Beobachtungswert x0 werden anderen Beobachtungen in der Nachbarschaft Gewichte zugeordnet. Auf der Basis der zugeordneten Gewichte erfolgt in der Nachbarschaft die Kleinst-Quadrate-Regression. attungswert f¨ ur y verwendet. Das beschriebene Der Prognosewert f¨ ur x0 wird dann als Gl¨ Verfahren wird f¨ ur jeden Beobachtungswert der unabh¨ angigen Variablen durchgef¨ uhrt. Am Ende werden die Prognosewerte f¨ ur y miteinander verbunden.

L¨ osung zu Aufgabe 116: Additive Modelle stellen eine Verallgemeinerung des linearen Regressionsmodells dar. Der Zusammenhang zwischen exogenen Variablen xk wird im Unterschied zum linearen Regressionsmodell nicht mehr durch die Koeffizienten βk , sondern durch eine nichtlineare Funktion fk modelliert. Statt des linearen Regressionsmodells y = β0 + β1 x1 + · · · + βK xK + u wird y = β0 + f1 (x1 ) + · · · + fK (xK ) + modelliert. Im Unterschied zu Regressionssplines wird nicht mehr von einer unabh¨ angigen Variablen, sondern von K unabh¨ angigen Variablen ausgegangen. Das Ziel ist es, durch die Sch¨ atzung der Funktionen f1 , · · · , fK eine bestm¨ ogliche Anpassung zwischen der endogenen Variablen y und den exogenen Variablen x1 , · · · , xK zu erreichen. Additive Modelle l¨ osen den sogenannten Fluch der Dimensionalit¨ at“ auf. Unter diesem ” Begriff werden Probleme zusammengefasst, die mit der Sch¨ atzung von nichtlinearen Modellen der Art y = f (x1 , x2 , . . . , xK ) + ε verbunden sind. Die exogenen Variablen xk spannen einen K-dimensionalen Raum auf. Um eine gute Anpassung zwischen y und den Sch¨ atzwerten fˆ zu erreichen, werden f¨ ur jeden Teilraum des K-dimensionalen Raums hinreichend viele Beobachtungspunkte ben¨ otigt. Dabei steigt der Datenbedarf exponentiell mit der Dimension K des aufgespannten Raums. Bei

3.8 L¨ osungen

209

einem großen K kommt es dazu, dass bestimmte Teilr¨ aume nur wenige Beobachtungen enthalten. Dadurch steigt die Varianz der Sch¨ atzung. Eine M¨ oglichkeit zur Verringerung der Varianz besteht darin, die betrachteten Teilr¨ aume zu vergr¨ oßern. Dies f¨ uhrt jedoch zur Erh¨ ohung des Sch¨ atzbias. Das additive Modell f¨ ur zwei exogene Variablen x1 und x2 lautet y = β0 + f1 (x1 ) + f2 (x2 ) + . Die Sch¨ atzung des Modells kann mit Hilfe des backfitting“-Algorithmus erfolgen. Dabei ” handelt es sich um ein iteratives Sch¨ atzverfahren. Zu Beginn geht man von bestimmten ¨ Startwerten aus. Ublicherweise wird βˆ0 = y¯

(0)

und

f1

(0)

= f2

=0

angenommen. Im zweiten Schritt werden zun¨ achst die sogenannten partiellen Residuen f¨ ur f1 ermittelt (1) (0) u1 = y − β0 − fˆ2 . (1)

atzt. Daf¨ ur kann man auf parametrische Mit den Werten u1 wird die Funktion f1 gesch¨ (1) oder nichtparametrische Verfahren zur¨ uckgreifen. Nach Ermittlung von fˆ1 werden die partiellen Residuen f¨ ur f2 ermittelt (1) (1) u2 = y − β0 − fˆ1 . (1) (1) atzen (fˆ2 ), wird auf die partiellen Residuen u2 analog zu Um die Funktion f2 zu sch¨ (1) attungsverfahren oder ein parametrischer Sch¨ atzansatz fˆ1 ein nichtparametrisches Gl¨ angewendet. (1) (1) Sowohl die Sch¨ atzwerte fˆ1 als auch fˆ2 werden um den Wert Null zentriert. Die zentrierten Werte ergeben sich durch

1  ˆ(1) (1z) (1) f (x1i ) fˆ1i = fˆ1i − n i=1 1 n

und 1  ˆ(1) (1z) (1) fˆ2i = fˆ2i − f (x2i ). n i=1 2 n

(1z) (2z) F¨ ur die Werte fˆ1i und fˆ2i wird das beschriebene Verfahren wiederholt. Die Wiederholung erfolgt so lange, bis ein vorher festgelegtes Kriterium nicht mehr verringert werden kann. Bei dem betrachteten Kriterium kann es sich z.B. in Anlehnung an die Kleinst-Quadrate-Sch¨ atzung um folgenden Ausdruck handeln

1 (yi − β0 − f1 (x1i ) − f2 (x2i ))2 . n i=1 n

210

3 Erweiterungen des Regressionsmodells

L¨ osung zu Aufgabe 117: a) Ein Modell mit einer [0; 1]-Variablen als endogene Variable, bei dem der Regressand wie eine kontinuierliche Variable behandelt wird, bezeichnet man als lineares Wahrscheinlichkeitsmodell. Lineare Wahrscheinlichkeitsmodelle weisen einige Nachteile auf. Die prognostizierten Werte der endogenen Variablen yˆ k¨ onnen als gesch¨ atzte Wahrscheinlichkeit daf¨ ur interpretiert werden, dass die endogene Variable den Wert Eins annimmt yˆ = Pˆ (y = 1). Es ist jedoch nicht sichergestellt, dass die prognostizierten Werte yˆ im Bereich [0; 1] liegen. Man kann somit gesch¨ atzte Wahrscheinlichkeiten f¨ ur P (y = 1) erhalten, die gr¨ oßer als Eins oder negativ sind. Außerdem sind die St¨orgr¨ oßen im linearen Wahrscheinlichkeitsmodell zwangsweise heteroskedastisch (vgl. Greene 2003, S. 665). Im Modell y = x β + u

mit

y = 0, 1

sind die St¨ orgr¨ oßen entweder (−x β) mit Wahrscheinlichkeit P (y = 0) oder (1 −  ur die Varianz x β) mit Wahrscheinlichkeit P (y = 1). Es kann gezeigt werden, dass f¨ der St¨orgr¨ oße V (u|x) = x β(1 − x β) gilt. Die Varianz von u h¨ angt von x ab. Die Annahme der Homoskedastie ist somit verletzt. Es ist aber m¨ oglich mit Hilfe der EGLS-Sch¨ atzung die Heteroskedastie der St¨orgr¨ oßen zu ber¨ ucksichtigen. Aus diesem Grund ist Heteroskedastie weniger gravierend als der Umstand, dass die Prognosewerte yˆ außerhalb des Intervalls [0;1] liegen k¨ onnen. b) Im linearen Wahrscheinlichkeitsmodell entspricht ∂E(y|X)/∂x wie auch in einem klassischen Regressionsmodell dem gesch¨ atzten Koeffizienten. Diese Beziehung ¨ andert sich sowohl im Probit- als auch im Logitmodell. F¨ ur das Probitmodell gilt ∂E(y|x)/∂x = φ(x β)β, wobei φ(·) die Dichtefunktion der Standardnormalverteilung ist. Da φ(·) immer positiv ist, stimmen die Vorzeichen der Koeffizientensch¨ atzung und des entsprechenden marginalen Effekts u ¨berein. Im Logitmodell gilt ∂E(y|x)/∂x = Λ(x β)[1 − Λ(x β)]β, wobei Λ(·) die logistische Verteilungsfunktion ist. Wegen 0 ≤ Λ(·) ≤ 1 stimmen auch im Logitmodell die Vorzeichen einer Koeffizientensch¨ atzung und des entsprechenden marginalen Effekts u ¨berein. F¨ ur die Berechnung konkreter Werte f¨ ur ∂E(y|x)/∂x werden die Mittelwerte der x β) exogenen Variablen verwendet. F¨ ur diese Werte werden dann φ(¯ x β) bzw. Λ(¯ ermittelt.

3.8 L¨ osungen

211

Wenn die Koeffizienten eines √ Logitmodells durch die Standardabweichung einer logistischen Verteilung (π/ 3) dividiert werden, lassen sich diese mit den Koeffizienten des Probitmodells vergleichen. Alternativ schl¨ agt Amemiya (1981) vor, die Logitkoeffizienten mit 0, 625 zu multiplizieren. Anzumerken ist, dass keine der beiden Methoden eindeutig der anderen Methode vorzuziehen ist (vgl. H¨ ubler 2005, S. 234-235). Um die gesch¨ atzten Logit- und Probitkoeffizienten der echten Regressoren mit denen des linearen Wahrscheinlichkeitsmodells vergleichen zu k¨ onnen, sind erstere mit 0, 25 und letztere mit 0, 4 zu multiplizieren. c) F¨ ur nichtlineare Modelle wie dem Probitmodell erhalten LM-Tests gegen¨ uber LRTests und Wald-Tests u ¨blicherweise den Vorzug, da sich die Verteilung unter H1 bisweilen nur schwer angeben l¨ asst. Die LM-Tests in einem Probitmodell sind leicht zu berechnen (vgl. Greene 2003, S. 678). Angenommen, es soll getestet werden, ob bestimmte exogene Variablen X2 in das Modell aufzunehmen sind. Die Nullhypothese und die Alternativhypothese lauten H0 : y = x1 β1 + H1 : y = x1 β1 + x2 β2 + . Die Teststatistik l¨ asst sich als nR2 der k¨ unstlichen Regression ri = Xi∗ β + ν angeben, wobei & & 1 − Φi Φi + (1 − yi ) ri = yi Φi 1 − Φi gilt und φi xi . x∗i =  Φi (1 − Φi ) φ ist die Dichtefunktion und Φ die Verteilungsfunktion der Standardnormalvertei2 2 lung. H0 wird abgelehnt, falls nRN Z > χL,1−α , wobei L die Anzahl der Variablen 2 in der Matrix X2 und RN Z das nichtzentrierte Bestimmtheitsmaß ist. Bei Probitmodellen ist vor allem die Durchf¨ uhrung von Spezifikationstest und diagnostischen Tests wichtig. Der Grund daf¨ ur ist, dass bei Verletzung bestimmter Annahmen (Homoskedastie, Normalverteilung der St¨ orgr¨ oße im latenten Modell) sich nicht nur ineffiziente, sondern auch inkonsistente Koeffizientensch¨ atzungen ergeben. Die Sch¨ atzung des Probitmodells basiert auf der Maximierung der LikelihoodFunktion L = Π[Φ(xi β)]yi [Φ(1 − xi β)]1−yi . ¨ Ublicherweise verwendet man statt L die logarithmierte Likelihood-Funktion ln L:  ln L = [yi [ln Φ(xi β)] + (1 − yi )[ln Φ(1 − xi β)]].

212

3 Erweiterungen des Regressionsmodells F¨ ur die Ermittlung der Sch¨ atzwerte f¨ ur β, die den Wert von ln L maximieren, muss ein nichtlineares Gleichungssystem ∂ ln L =0 ∂β gel¨ost werden. Die Regressoren treten als Argumente der nichtlinearen Funktionen φ(·) und Φ(·) auf. F¨ ur ein latentes Modell wie beim Probitansatz lassen sich keine u ¨blichen Residuen ˆ ermitteln, da die endogene Variable y ∗ nicht beobachtbar ist. Statt(ˆ u = y − X β) dessen werden bedingte St¨ orgr¨ oßen u ˜ = E(u|y = 1) oder u ˜E(u|y = 0) gebildet u ˜=

φ(·) (y − φ(·)), Φ(·)[1 − Φ(·)]

 ˆ die verallgemeinerte St¨ orgr¨ oßen heißen und zu sch¨ atzen sind (u ˜=u ˜(β M L ) - verallgemeinerte Residuen). Der Gradient (g = ∂ ln L/∂β) und die Hesse-Matrix ˆ (∂ 2 ln L/∂β∂β  ), die zur Bestimmung von βˆ und der Kovarianzmatrix von β, ˆ ben¨ d.h. Vˆ (β), otigt werden, lassen sich durch die verallgemeinerten Residuen ausdr¨ ucken  ˆ gˆ = u ˜i x ˆ = H



ˆ ˆ (u ˜2i + u ˜i (xi β))xi xi .

L¨ osung zu Aufgabe 118: a) In beiden Modellen k¨ onnen die Vorzeichen der Koeffizientensch¨ atzungen interpretiert werden. Bei positiven Koeffizientensch¨ atzungen ist davon auszugehen, dass die Zunahme der zugeh¨ origen exogenen Variablen zur Zunahme der Wahrscheinlichkeit f¨ uhrt, dass die endogene Variable den Wert Eins annimmt. Die positive Koeffizientensch¨ atzung der Variablen F SIZE bedeutet, dass in einem gr¨ oßeren Betrieb die Wahrscheinlichkeit f¨ ur die Durchf¨ uhrung der Investitionen in IKT = 1 zunimmt. Analog ist die negative Koeffizientensch¨ atzung der Variablen T ARIF zu interpretieren. In tarifgebundenen Betrieben ist die Wahrscheinlichkeit f¨ ur die Durchf¨ uhrung der Investitionen in IKT kleiner als in nicht tarifgebundenen Betrieben. Im Unterschied zum klassischen linearen Modell entspricht die Gr¨ oße der Koeffizientensch¨ atzung nicht dem marginalen Effekt der zugeh¨ origen exogenen Variablen. Es ist jedoch m¨ oglich, die Einflussst¨ arke der exogenen Variablen untereinander zu vergleichen. Das Verh¨ altnis der marginalen Effekte von zwei Variablen entspricht altnis der Koeffizientensch¨ atzungen dem Verh¨ β1 ∂E(y)/∂x1 = . ∂E(y)/∂x2 β2

3.8 L¨ osungen

213

b) Da im Probit- und Logitmodell die gleichen Regressoren verwendet wurden, sollten die gesch¨ atzten Koeffizienten einer exogenen Variablen auch die gleichen Vorzeichen aufweisen. In der vorliegenden Form lassen sich die gesch¨ atzten Koeffizienten des Probit- und Logitmodells nicht miteinander vergleichen, da beim Probitmodell von der Standardnormalverteilung ausgegangen wird, aber den Sch¨ atzungen des Logitmodells keine standardisierten St¨ orgr¨ oßen zugrunde liegen. F¨ ur die Umrechnung der Koeffizientensch¨ atzungen des Logitmodells lassen sich folgende Daumenregel angeben √ 3 ˆ · βLogit π oder 1 ˆ · βLogit . 1, 6 Danach zeigen sich durchaus ¨ ahnliche Werte f¨ ur die Koeffizienten der Probit- und Logit-Sch¨ atzung. F¨ ur die asymptotischen t-Werte kann der Vergleich ohne Umrechnung direkt vorgenommen werden. Die Werte des Probit- und Logitmodells liegen dicht beieinander. Bei univariaten Ans¨ atzen sind die Unterschiede zwischen den beiden Modelltypen allgemein gering. c) Die neue Koeffizientensch¨ atzung entspricht der alten Koeffizientensch¨ atzung, geteilt durch 100. Die t-Werte und die Koeffizientensch¨ atzungen der anderen exogenen Variablen bleiben unver¨ andert.

L¨ osung zu Aufgabe 119: a) Bei der Variablen GEW ERK handelt es sich um eine [0; 1]-Variable. Die OLSSch¨atzung ist mit Problemen verbunden, falls eine [0; 1]-Variable als endogene Variable verwendet wird. Bei der OLS-Sch¨ atzung wird die Heteroskedastie der St¨ orgr¨ oßen nicht ber¨ ucksichtigt und die prognostizierten Werte k¨ onnen außerhalb des [0; 1]-Intervalls liegen. Bei der Probit- bzw. der Logit-Sch¨ atzung ist jedoch sichergestellt, dass sich die prognostizierten Werte im Intervall [0; 1] befinden. Sie k¨onnen dann als Wahrscheinlichkeit daf¨ ur interpretiert werden, dass die betrachtete Person Mitglied einer Gewerkschaft ist. b) Deskriptive Statistiken lassen sich in STATA unter anderem mit dem Befehl tab erstellen. tab gewerk gewerk | Freq. Percent Cum. ------------+----------------------------------0 | 901 90.83 90.83 1 | 91 9.17 100.00 ------------+----------------------------------Total | 992 100.00

214

3 Erweiterungen des Regressionsmodells 9% der erfassten Personen sind Mitglied einer Gewerkschaft. Dieses Ergebnis kann je nach Alter, Geschlecht usw. variieren. Aus diesem Grund werden zweidimensionale Kontigenztabellen erstellt. Zun¨ achst unterscheiden wir nach dem Alter der Person. Im Datensatz sind Personen mit 18 bis 92 Jahren vertreten. Um die Darstellung der Ergebnisse u ¨bersichtlich zu halten, werden 5 verschiedene Altersgruppen (von 18 bis 29, von 30 bis 44, von 45 bis 54, von 55 bis 64 und von 65 bis 92) gebildet: gen altersgruppe=alter recode altersgruppe 18/29=1 30/44=2 45/54=3 55/64=4 65/92=5 tab altersgruppe gewerk, row chi2 altersgrup | gewerk pe | 0 1 | Total -----------+----------------------+---------1 | 147 10 | 157 | 93.63 6.37 | 100.00 -----------+----------------------+---------2 | 309 26 | 335 | 92.24 7.76 | 100.00 -----------+----------------------+---------3 | 161 26 | 187 | 86.10 13.90 | 100.00 -----------+----------------------+---------4 | 114 14 | 128 | 89.06 10.94 | 100.00 -----------+----------------------+---------5 | 170 15 | 185 | 91.89 8.11 | 100.00 -----------+----------------------+---------Total | 901 91 | 992 | 90.83 9.17 | 100.00 Pearson chi2(4) =

8.0355

Pr = 0.090

Es ist wenig u ahrigen der Anteil ¨berraschend, dass in der Gruppe der 45 bis 54-J¨ der Gewerkschaftsmitglieder am gr¨ oßten ist. Deutlich geringer ist dieser Anteil bei j¨ ungeren (von 18 bis 29) und bei a uber 64) Personen. Das Ergebnis des χ2 ¨lteren (¨ Unabh¨ angigkeitstests weist darauf hin, dass die Gewerkschaftsmitgliedschaft und das Alter nicht voneinander unabh¨ angig sind (α = 0, 1). ¨ Durch den Befehl tab beruf bzw. tab beruf, nolabel l¨ asst sich ein Uberblick u unden wird auf ¨ber die erfassten beruflichen Positionen verschaffen. Aus Platzgr¨ ¨ die Ausgabe der Ergebnisse verzichtet. Um die Ubersichtlichkeit der nachfolgenden Darstellung zu erh¨ ohen, werden die verschiedenen Untergruppen der Arbeiter, Landwirte, Freiberufler, Selbstst¨ andigen, Angestellten und Beamten zu neuer Variablen berufsgruppe zusammengefasst.

3.8 L¨ osungen

215

gen berufsgruppe=beruf recode berufsgruppe 10=1 11=2 12=3 13=4 15=5 110 120 =6 120/250=7 410/413=8 420/423=9 430/440=10 510/550=11 610/640=12 999=. tab berufsgruppe Anschließend k¨ onnen mit den Befehlen label define und label values die einzelnen Werte der Variablen beruf sgruppe durch entsprechende verbale Begriffe etikettiert werden: label define berufsgruppe 1 "nicht erwerbstaetig" 2 "in Ausbildung" 3 "arbeitslos - nicht erwerbstaetig" 4 "Rentner" 5 "Wehr-, Zivildienst" 6 "Azubi, Prakt. Volont. Aspir." 7 "Arbeiter" 8 "Landwirt" 9 "Freiberufler" 10 "Selbststaendiger" 11 "Angestellter" 12 "Beamter" label values berufsgruppe berufsgruppe Die neu etikettierte Variable berufsgruppe kann erneut getrennt nach Gewerkschaftsmitgliedschaft betrachtet werden: tab berufsgruppe gewerk, row chi2 | gewerk berufsgruppe | 0 1 | Total ----------------------+----------------------+---------nicht erwerbstaetig | 74 5 | 79 | 93.67 6.33 | 100.00 ----------------------+----------------------+---------in Ausbildung | 30 1 | 31 | 96.77 3.23 | 100.00 ----------------------+----------------------+---------arbeitslos - nicht er | 66 4 | 70 | 94.29 5.71 | 100.00 ----------------------+----------------------+---------Rentner | 192 18 | 210 | 91.43 8.57 | 100.00 ----------------------+----------------------+---------Wehr-, Zivildienst | 4 0 | 4 | 100.00 0.00 | 100.00 ----------------------+----------------------+---------Azubi, Prakt. Volont. | 8 2 | 10 | 80.00 20.00 | 100.00 ----------------------+----------------------+---------Arbeiter | 175 16 | 191 | 91.62 8.38 | 100.00 ----------------------+----------------------+----------

216

3 Erweiterungen des Regressionsmodells Landwirt | 1 0 | 1 | 100.00 0.00 | 100.00 ----------------------+----------------------+---------Freiberufler | 19 0 | 19 | 100.00 0.00 | 100.00 ----------------------+----------------------+---------Selbststaendiger | 30 1 | 31 | 96.77 3.23 | 100.00 ----------------------+----------------------+---------Angestellter | 276 33 | 309 | 89.32 10.68 | 100.00 ----------------------+----------------------+---------Beamter | 23 10 | 33 | 69.70 30.30 | 100.00 ----------------------+----------------------+---------Total | 898 90 | 988 | 90.89 9.11 | 100.00 Pearson chi2(11) =

27.1623

Pr = 0.004

Bei Beamten ist der Anteil der Gewerkschaftsmitglieder am gr¨ oßten. Er betr¨ agt 30,3%. Deutlich geringer ist der Anteil der Gewerkschaftsmitglieder unter Arbeitern und Angestellten. Auch andere Gruppen weisen kleinere Anteile auf als Beamte. Aus Platzgr¨ unden werden die Kontingenztabellen f¨ ur die weiteren Variablen SEX, ¨ BET R und BRAN CHE nicht ausgewiesen. Zu Ubungszwecken sollten die entsprechenden Auswertungen jedoch selbstst¨ andig durchgef¨ uhrt werden. c) Wenn die Variable BET R unver¨ andert in die Regression aufgenommen wird, geht man implizit davon aus, dass ein Wechsel in die n¨ achsth¨ ohere Betriebsgr¨ oßenklasse die Wahrscheinlichkeit der Gewerkschaftsmitgliedschaft immer gleich stark beeinflusst, unabh¨ angig davon, wie groß die urspr¨ ungliche Firma war. So ist der Unterschied der Wahrscheinlichkeit der Gewerkschaftsmitgliedschaft zwischen einer Firma mit 5-19 und einer Firma mit 20-99 Arbeitskr¨ aften genauso groß wie der Unterschied zwischen einer Firma mit 20-99 und 100-199 Arbeitskr¨ aften. Um diese Einschr¨ ankung aufzuheben, wird f¨ ur jede Betriebsgr¨ oßenklasse eine separate Dummy-Variable gebildet. tab betr, gen(betr) Nach diesem Befehl werden sechs Dummy-Variablen betr1 bis betr6 erstellt. Dadurch wird erreicht, dass die Besch¨ aftigung in jeder Betriebsgr¨ oßenklasse die Gewerkschaftsmitgliedschaft unterschiedlich beeinflussen kann. In der Sch¨ atzung muss eine Dummy-Variable als Kontrollgruppe ausgeschlossen werden, um perfekte Multikollinearit¨ at zu vermeiden. ¨ Analog wird mit der Variablen BERU F vorgegangen. Aus Gr¨ unden der Ubersichtlichkeit werden in der Sch¨ atzung nur Arbeiter, Angestellte und Beamte ber¨ ucksichtigt.

3.8 L¨ osungen drop if berufsgruppe chi2 Pseudo R2

= 396 = 39.25 = 0.0000 = 0.1360

--------------------------------------------------------------------gewerk | Coef. Std. Err. z P>|z| [95% Conf. Interval] ------------+-------------------------------------------------------alter | .0126138 .0069766 1.81 0.071 -.0010602 .0262877 sex | -.2875005 .1810524 -1.59 0.112 -.6423567 .0673557 betr2 | .18228 .5670514 0.32 0.748 -.9291204 1.29368 betr3 | .7549223 .5186971 1.46 0.146 -.2617053 1.77155 betr4 | .9636557 .532169 1.81 0.070 -.0793763 2.006688 betr5 | .9509487 .5070762 1.88 0.061 -.0429023 1.9448 betr6 | 1.40473 .4952839 2.84 0.005 .4339916 2.375469 beruf1 | -.8604324 .3308945 -2.60 0.009 -1.508974 -.2118911 beruf2 | -.7055179 .3095263 -2.28 0.023 -1.312178 -.0988575 schuljahre | -.0415044 .0369146 -1.12 0.261 -.1138556 .0308468 _cons | -1.308639 .7838236 -1.67 0.095 -2.844905 .2276273 ---------------------------------------------------------------------

Logit-Sch¨ atzung logit gewerk alter sex betr2-betr6 beruf1 beruf2 schuljahre Logistic regression

Log likelihood = -124.79044

Number of obs LR chi2(10) Prob > chi2 Pseudo R2

= 396 = 38.95 = 0.0000 = 0.1350

----------------------------------------------------------------------gewerk | Coef. Std. Err. z P>|z| [95% Conf. Interval]

218

3 Erweiterungen des Regressionsmodells ------------+---------------------------------------------------------alter | .0233289 .0127811 1.83 0.068 -.0017216 .0483794 sex | -.5802459 .3410385 -1.70 0.089 -1.248669 .0881773 betr2 | .2255891 1.248946 0.18 0.857 -2.222301 2.673479 betr3 | 1.372992 1.106321 1.24 0.215 -.7953562 3.541341 betr4 | 1.847304 1.114838 1.66 0.098 -.3377374 4.032346 betr5 | 1.812593 1.075265 1.69 0.092 -.2948883 3.920075 betr6 | 2.621767 1.05268 2.49 0.013 .5585526 4.684982 beruf1 | -1.460793 .5740987 -2.54 0.011 -2.586005 -.3355798 beruf2 | -1.204746 .5265731 -2.29 0.022 -2.23681 -.1726818 schuljahre | -.0750085 .069663 -1.08 0.282 -.2115454 .0615285 _cons | -2.409924 1.548383 -1.56 0.120 -5.444699 .6248507 ------------------------------------------------------------------------

d) Die Ergebnisse der Probit- und Logit-Sch¨ atzungen sind sehr ¨ ahnlich. Aus diesem Grund beschr¨ anken wir uns auf die Interpretation der Ergebnisse der ProbitSch¨ atzung. Insgesamt wurden 369 Personen in der Sch¨ atzung ber¨ ucksichtigt. Das G¨ utemaß Pseudo-R2 ist gleich 0,1360. Das Ergebnis des Likelihood-Ratio-Tests ist mit 39,25 auf dem 1%-Niveau signifikant. Die aufgenommenen exogenen Variablen u ¨ben gemeinsam einen signifikanten Einfluss auf die endogene Variable aus. Jedoch sind einige Koeffizientensch¨ atzungen nicht signifikant. Die Wahrscheinlichkeit der Gewerkschaftsmitgliedschaft steigt mit dem Alter an. Im Unterschied dazu nimmt diese Wahrscheinlichkeit mit gr¨ oßerer Ausbildungsdauer ab. Sowohl bei Arbeitern als auch bei Angestellten ist die Wahrscheinlichkeit, dass sie Mitglied einer Gewerkschaft sind, geringer als bei Beamten. Alle Dummy-Variablen der Betriebsgr¨ oße sind positiv. Da die Kontrollgruppe aus Firmen mit weniger als 5 Arbeitskr¨ aften besteht, bedeutet dieses Ergebnis, dass Arbeitskr¨ afte in gr¨ oßeren Firmen eine h¨ ohere Wahrscheinlichkeit der Gewerkschaftsmitgliedschaft haben als Arbeitskr¨ afte in Firmen mit weniger als 5 Besch¨ aftigten. Außerdem ist zu beachten, dass die Koeffizientensch¨ atzungen mit jeder Betriebsgr¨oßenklasse sukzessiv zunehmen. Somit ist auch davon auszugehen, dass P rob(GEW ERK = 1) um so h¨ oher ausf¨ allt, je gr¨ oßer die Firma ist. Eine Ausnah¨ me ergibt sich beim Ubergang von betr4 zu betr5. Schließlich ist darauf hinzuweisen, dass Frauen eine geringere Wahrscheinlichkeit f¨ ur die Mitgliedschaft in einer Gewerkschaft besitzen als M¨ anner (SEX = 1, falls die Person eine Frau ist und SEX = 0, falls die Person ein Mann ist). Um die Frage, wie viel Prozent der abh¨ angigen Variablen vom Modell korrekt vorausgesagt wird, zu beantworten, sind zun¨ achst die prognostizierten Wahrscheinlichkeiten P rob(GEW ERK = 1) zu ermitteln (Variable gewerk prog). keep if e(sample) predict gewerk_prog Anschließend wird bei Personen, die einen Wahrscheinlichkeitswert von 0,5 oder gr¨ oßer besitzen, die Mitgliedschaft prognostiziert (Variable prognose). Bei Personen mit einem Wahrscheinlichkeitswert kleiner als 0,5 wird keine Mitgliedschaft prognostiziert. gen prognose=.

3.8 L¨ osungen

219

replace prognose=1 if gewerk_prog>=0.5 & gewerk_prog 0.

Die logarithmierte Maximum-Likelihood-Funktion des zensierten Modells lautet (vgl. Greene 2003, S. 767) ln L =

 1 (yi − xi β)2 x β − [ln(2π) + ln σ 2 + ]+ ln[1 − Φ( i )]. 2 2 σ σ >0 y =0

 yi

i

Die logarithmierte Maximum-Likelihood-Funktion ist f¨ ur den Koeffizientenvektor β zu maximieren. Die Bedingung erster Ordnung lautet  1  1 φi ∂ ln L  = (y − x β)x + − · xi = 0. i i i 2 x β ∂β σ σ 1 − Φ( σi ) yi >0 yi =0 Es handelt sich hierbei um ein nichtlineares Gleichungssystem. Die L¨ osung ist durch ein iteratives N¨ aherungsverfahren zu bestimmen. b) Bei dem Heckman-Ansatz handelt es sich um eine Alternative zur direkten Maximum-Likelihood-Sch¨ atzung. Durch diesen Ansatz wird die Inkonsistenz der OLSSch¨ atzung bei zensierter endogener Variablen beseitigt, indem zus¨ atzlich ein Korrekturterm in die Regressionsgleichung aufgenommen wird. Die Untersuchung beschr¨ ankt sich auf nichtzensierte Werte. F¨ ur die zensierten Werte wird angenommen,

3.8 L¨ osungen

225

dass keine Beobachtungen vorliegen. Im Prinzip handelt es sich hierbei um eine abgeschnittene Stichprobe. Der Ansatz ist zweistufig aufgebaut. Zun¨ achst werden Faktoren modelliert, die die Zensierung bei einer Beobachtung beeinflussen. Angenommen, eine Beobachtung wird nicht zensiert, wenn folgende Ungleichung erf¨ ullt ist zi γ + i > 0, wobei z  der Vektor der Variablen ist, die die Zensierung beeinflussen. In der zweiten Stufe wird der Ansatz, bei dem die endogene Variable nur nichtzensierte Werte enth¨alt, modelliert. F¨ ur diese Beobachtungen lautet die Regressionsgleichung yi = xi β + ui . Der Vektor xi erfasst die Variablen, die die endogene Variable beeinflussen. Um das Modell sch¨ atzen zu k¨ onnen, werden außerdem folgende Annahmen getroffen u ∼ N (0, σ 2 )

∼ N (0, 1)

corr(u, ) = ρ = 0. Die Sch¨ atzung des Heckman-Ansatzes kann mit Hilfe der ML-Methode durchgef¨ uhrt werden. Alternativ kann auch ein zweistufiges Vorgehen gew¨ ahlt werden (vgl. Greene 2003, S. 782ff.). In der ersten Stufe wird durch ein Probitmodell die Wahrscheinlichkeit daf¨ ur bestimmt, dass eine Beobachtung nicht zensiert ist. Als Ergebnis erh¨ alt man Sch¨ atzwerte f¨ ur den Parametervektor γ. Mit Hilfe des ˆ gebildet: Vektors γˆ und der Variablenwerte in zi wird eine k¨ unstliche Variable λ  φ(z γ ˆ ) i ˆi = unstliche λ Φ(zi γ ˆ ) . Die Regressionsgleichung auf der zweiten Stufe wird um die k¨ ˆ erg¨ Variable λ anzt. Die OLS-Sch¨ atzung dieses erweiterten Modells f¨ uhrt dann zum ˆ Parametervektor β. Gleichzeitig wird auch die Parametersch¨ atzung der k¨ unstlichen ˆ ermittelt. Dieser Parameter entspricht dem Produkt aus der StandardVariablen λ abweichung von multipliziert mit ρˆ. Die Signifikanz der Koeffizientensch¨ atzung ˆ kann als Hinweis auf die Angemessenheit des Heckman-Ansatzes interpretiert von λ werden. Bei einer Tobitsch¨ atzung werden alle Beobachtungen bei der Maximierung der ML-Funktion ber¨ ucksichtigt. Im Unterschied dazu ist die ML-Sch¨ atzung bei dem Heckman-Ansatz nicht so leicht durchzuf¨ uhren. Außerdem werden in der zugrunde liegenden Regressionsgleichung nur nichtzensierte Beobachtungen ber¨ ucksichtigt. Dieser Ansatz ist angemessen, wenn f¨ ur die zensierten Werte des Regressanden keine Beobachtungen f¨ ur die Regressoren vorliegen.

L¨osung zu Aufgabe 124: a) Eine OLS-Sch¨ atzung w¨ urde nicht ber¨ ucksichtigen, dass bei einer Z¨ ahlvariablen nur die Werte 0, 1, 2, . . . als Realisationen m¨ oglich sind, dass meist u ¨berwiegend kleine

226

3 Erweiterungen des Regressionsmodells Werte wie Null und Eins realisiert werden und dass f¨ ur Prognosewerte yˆ = x βˆ die Eigenschaft der Z¨ ahldaten nicht sichergestellt ist. M¨ ogliche Konsequenzen sind ineffiziente, verzerrte und sogar inkonsistente Koeffizientensch¨ atzungen (Cameron/Trivedi 1998, S. 89).

b) Betrachtet wird eine Zufallsvariable Yi , die nur nichtnegative ganze Zahlen als Auspr¨ agungen annehmen kann. Beispiele daf¨ ur sind die Zahl der Arztbesuche in einer bestimmten Periode, die ben¨ otigte Zahl der Semester bis zum Studienabschluss oder die Zahl der geborenen Kinder einer Frau. Die Wahrscheinlichkeit, dass die agung yi annimmt, wird wie folgt modelliert Zufallsvariable Yi eine konkrete Auspr¨ P (Yi = yi ) =

e−λi λyi i yi !

mit yi = 0, 1, 2, . . . ,

wobei λi ein Parameter ist. Es kann gezeigt werden, dass E(Yi ) = V (Yi ) = λi gilt. Diese Eigenschaft der Gleichheit des Erwartungswertes und der Varianz wird als equidispersion“ bezeichnet und ist bei vielen Datens¨ atzen nicht erf¨ ullt. H¨ aufig ” ¨ ist die Varianz gr¨ oßer als der Erwartungswert (Uberdispersion): E(Yi ) < V (Yi ). Mit Hilfe eines zweistufigen Vorgehens oder eines Likelihood-Ratio-Tests kann u uft werden, ob f¨ ur vorliegende Daten die Annahme der equidispersion erf¨ ullt ¨berpr¨ ist (zu Einzelheiten vgl. L¨ osung zu Aufgabe 125). c) Die Grundlage der Poissonregression ist die Sch¨ atzung der erwarteten Realisation von yi in Abh¨ angigkeit von den Regressoren X: E(yi |xi ) = λi . λi wird als exponentielle Funktion modelliert λi = exp(xi β). F¨ ur die Likelihood-Funktion ergibt sich L=

n  e−λi λyi i

i=1

yi !

.

Nach der Logarithmierung ergibt sich die Log-Likelihood-Funktion, die f¨ ur den Parametervektor β zu maximieren ist ln L =

n  i=1

(yi ln λi − λi − ln yi !) =

n  (yi xi β − exp(xi β) − ln yi !). i=1

Die Maximum-Likelihood-Sch¨ atzung der Poissonregression βˆP maximiert den Aus ∂ ln L asst sich n¨ aherungsweise nach dem Gauss-Newton druck ∂β = (yi −λi )xi und l¨ oder dem Newton-Raphson-Verfahren ermitteln.

3.8 L¨ osungen

227

L¨osung zu Aufgabe 125: a) Bei der Poissonverteilung gilt, dass Erwartungswert und Varianz der Zufallsvariablen gleich sind. F¨ ur viele Datens¨ atze ist diese Annahme zu restriktiv. Wenn bei vorliegenden Daten die Varianz gr¨ oßer als der Erwartungswert ist, spricht man ¨ von Uberdispersion. In diesem Fall f¨ uhrt die Modellierung durch die Poissonverteilung zur Untersch¨ atzung der Varianzen der Koeffizientensch¨ atzungen. Daher werden die t-Werte und das Signifikanzniveau zu hoch ausgewiesen. In diesem Fall ist eine Modellierung durch das Modell der negativen Binomialverteilung vorzuziehen. Bei der negativen Binomialverteilung wird die Annahme der Gleichheit des Erwartungswertes und der Varianz aufgehoben. ¨ b) Welches der beiden Modelle zu pr¨ aferieren ist, h¨ angt davon ab, ob Uberdispersion ¨ vorliegt. Falls keine Uberdispersion (oder Unterdispersion) vorliegt, sollte die Pois¨ sonregression gew¨ ahlt werden. Beim Vorliegen der Uberdispersion ist das Modell der negativen Binomialverteilung vorzuziehen. F¨ ur die Varianz der Poissonverteilung gilt V (yi |xi ) = λi , wobei λi die erwartete Anzahl der Realisationen bei der i-ten Beobachtung ist. Die Varianz der negativen Binomialverteilung wird durch V (yi |xi ) = g(λi ) + α modelliert, wobei g(λi ) = λi oder g(λi ) = λ2i (vgl. Cameron/Trivedi 2005, S. 670ff.). Die Hypothesen f¨ ur den ¨ Test auf Uberdispersion lauten H0 : α = 0

H1 : α = 0

oder H1 : α > 0.

Der Test wird in zwei Schritten durchgef¨ uhrt. Im ersten Schritt wird eine Poisˆ i werden ermittelt. Anschließend sonregression gesch¨ atzt und die Prognosewerte λ wird die k¨ unstliche Regression ˆi) g(λ (yi − λˆi )2 − yi =α + ui . ˆi λˆi λ durchgef¨ uhrt. F¨ ur den Signifikanztest auf α kann die t-Statistik verwendet werden. ¨ In STATA wird das Ergebnis des Tests auf Uberdispersion automatisch nach dem Befehl nbreg (f¨ ur negative Binomialregression) ausgewiesen. Daf¨ ur wird auf einen Likelihood-Ratio-Test zur¨ uckgegriffen. Bei diesem Test werden die LikelihoodFunktionswerte der Poissonregression (LP ) und der negativen Binomialregression (LN B ) miteinander verglichen. Falls der Unterschied zwischen diesen beiden Werten nicht zu groß ist, kann von H0 : α = 0 ausgegangen werden. Falls jedoch oßer ist als LP , muss H0 : α = 0 abgelehnt werden. Die Pr¨ ufgr¨ oße LN B deutlich gr¨ ufverteilung dient die modifizierte χ2 -Verteilung (vgl. ist 2(LN B − LP ) und als Pr¨ Long/Freese 2003, S. 266ff.). c) Die Interpretation der Koeffizientensch¨ atzungen ist sowohl in der Poissonregression als auch in der negativen Binomialregression gleich. F¨ ur den Erwartungswert der endogenen Variablen gilt in beiden Modellen E(y|x) = exp(x β).

228

3 Erweiterungen des Regressionsmodells ¨ Es ist einfach zu zeigen, dass bei einer Anderung der exogenen Variablen xk um den Betrag Δxk E(y|x−k , xk + Δxk ) = eβk Δxk E(y|x−k , xk ) gilt, wobei die Matrix X−k der Matrix X nach der Eliminierung der Variablen xk ¨ andert sich der Erwarentspricht. Bei einer Anderung der Variablen xk um Δxk ¨ ¨ tungwert der endogenen Variablen um das eβk Δxk -fache. Eine Anderung um eine ¨ uhrt zur Anderung der endogenen Variablen um das Einheit bei der Variablen xk f¨ eβk -fache. Analog zum Probit-Modell gilt ∂E(y|x) = exp(x β)βk . ∂xk Somit folgt βk =

∂E(y|x) ∂lnE(y|x) ∂E(y|x) 1 1 = = · · . ∂xk exp(x β) ∂xk E(y|x) ∂xk

Wenn statt x in lnx gemessen wird, l¨ asst sich der Koeffizient βk l¨ asst sich als Elastizit¨ at von E(y|x) in Bezug auf lnxk interpretieren (Cameron/Trivedi 2005, S. 669).

L¨ osung zu Aufgabe 126: a) Dynamische Elemente k¨ onnen in ¨ okonometrischen Modellen unterschiedlich modelliert werden. Einerseits ist es m¨ oglich, bei den exogenen und endogenen Variablen zeitliche Verz¨ ogerungen zu ber¨ ucksichtigen. Andererseits k¨ onnen Abh¨ angigkeiten zwischen den St¨ orgr¨ oßen verschiedener Perioden bestehen. Schließlich k¨ onnen die Modellparameter im Zeitverlauf variieren. F¨ ur Ursachen von dynamischen Elementen in ¨ okonometrischen Modellen kommen erstens psychologische Gr¨ unde in Frage. Wirtschaftssubjekte reagieren auf Ver¨anderungen h¨ aufig nicht sofort. Sie ben¨ otigen Zeit, um ihr Verhalten umzustellen. Das Verhalten wird erst nach einem Lernprozess an neue Gegebenheiten angepasst. Zweitens k¨ onnen technische Gr¨ unde f¨ ur Zeitverz¨ ogerungen verantwortlich sein. Dabei ist der Zeitaufwand gemeint, der f¨ ur Vorarbeiten und technische Umstellungen auf eine neue Situation notwendig ist. Als dritter Grund kommt der Zeitaufwand f¨ ur Informationsbeschaffung in Betracht. Es dauert eine gewisse Zeit, ¨ bis die Wirtschaftssubjekte Kenntnis u okonomischer Variablen ¨ber die Anderung ¨ erlangen. Viertens k¨ onnen institutionelle Gr¨ unde zu Verz¨ ogerungen f¨ uhren. Es vergeht Zeit, bis neue Gesetze oder Beschl¨ usse in Kraft treten und ihre ¨ okonomische Wirkung entfalten. Als ein ¨ okonomisches Beispiel f¨ ur die dynamische Modellierung kann man die Effekte einer Steuer¨ anderung betrachten. Es ist zu erwarten, dass eine Mehrwertsteuererh¨ ohung nicht genau bei ihrer Einf¨ uhrung das Verhalten der Verbraucher

3.8 L¨ osungen

229

beeinflusst. Realistischerweise ist davon auszugehen, dass einige Verbraucher bereits vor der Mehrwertsteuererh¨ ohung ihr Verhalten ¨ andern und einige Ausgaben vorziehen. Die Verhaltens¨ anderung nach der Mehrwertsteuererh¨ ohung wird von der Preispolitik der Unternehmen abh¨ angen und wird erst nach einer bestimmten Zeit sichtbar. Ein weiteres Beispiel sind die Produktivit¨ atswirkungen von Investitionen in Unternehmen. Investitionen in bestimmte Anlagen oder Maschinen wirken nicht sofort produktivit¨ atserh¨ ohend, da die Mitarbeiter erst den Umgang mit neuen Produktionstechniken erlernen m¨ ussen. Je nachdem wie groß der damit verbundene Zeitaufwand ist, werden sich die Investitionen erst mit einer Zeitverz¨ ogerung auf die Produktivit¨ at auswirken. Bei Ber¨ ucksichtigung von verz¨ ogerten exogenen Variablen ¨ andern sich die Eigenschaften eines OLS-Sch¨ atzers nicht. Im Unterschied dazu ist der OLS-Sch¨ atzer bei Ber¨ ucksichtigung von verz¨ ogerten endogenen Variablen verzerrt. F¨ ur ihn gilt jedoch asymptotische Erwartungstreue und Konsistenz. Inkonsistent wird die OLSSch¨ atzung dann, wenn neben verz¨ ogerten endogenen Variablen auch Autokorrelation vorliegt (vgl. Schneeweiß 1990, S. 213f.). b) Betrachten wir ein lineares Regressionsmodell mit einer exogenen Variablen xt , arende wobei auch verz¨ ogerte Werte der exogenen Variablen xt−1 bis xt−c als erkl¨ Variablen auftreten. Das Regressionsmodell lautet dann yt = β0 xt + β1 xt−1 + · · · + βc xt−c + ut . Im Modell sind (c + 1) Parameter zu sch¨ atzen. Das Almon-Lag-Modell f¨ uhrt Restriktionen f¨ ur die Parameter β0 bis βc ein, wodurch die Zahl der zu sch¨ atzenden Parameter sinkt. Besonders hilfreich ist dieses Vorgehen dann, wenn ein Regressionsmodell mehrere exogene Variablen enth¨ alt, die auch verz¨ ogert auftreten. Es wird angenommen, dass sich die Koeffizienten β0 bis βc als Polynome vom Grad m darstellen lassen. m ist vor der Sch¨ atzung festzulegen. F¨ ur m = 2 bedeutet dies βi = αo + α1 i + α2 i2 . Nach dem Einsetzen in die Ausgangsgleichung ergibt sich yt =

c 

(αo + α1 i + α2 i2 )xt−i + ut

i=0

= α0 z0t + α1 z1t + α2 z2t + ut mit z0t =

c 

xt−i = xt + xt−1 + · · · + xt−c

i=0

z1t =

c 

ixt−i = xt−1 + 2xt−2 + 3xt−3 + · · · + cxt−c

i=0

z2t =

c  i=0

i2 xt−i = xt−1 + 22 xt−2 + 32 xt−3 + · · · + c2 xt−c .

230

3 Erweiterungen des Regressionsmodells Diese Umformung des Modells hat den Vorteil, dass statt (c + 1) Parameter lediglich m + 1 = 3 Parameter zu sch¨ atzen sind. Die Sch¨ atzungen von α0 , α1 und unstlichen Variablen z0t , z1t und z2t regressiert α2 erh¨alt man, wenn yt auf die k¨ ˆ 1 und α ˆ 2 die Sch¨ atzungen der urspr¨ unglichen wird. Anschließend k¨ onnen aus α ˆ0, α Regressionskoeffizienten β0 bis βc ermittelt werden. H¨ aufig werden sogenannte Anfangs- und Endpunktrestriktionen eingef¨ uhrt. Dadurch wird es m¨ oglich, die Zahl der zu sch¨ atzenden Parameter weiter zu senken. ur den entIm Modell u ogerte Variable xt−(c+1) keinen Einfluss aus. F¨ ¨bt die verz¨ sprechenden Koeffizienten βc+1 wird deswegen βc+1 = 0

mit

i=c+1

angenommen. Analog u ¨bt die exogene Variable xt+1 ebenfalls keinen Einfluss auf ur den zugeh¨ origen Koeffizienten β−1 wird von yt aus. F¨ β−1 = 0

i = −1

mit

ausgegangen. Werden diese beiden Restriktionen zusammen mit βi = αo + α1 i + α2 i2 betrachtet, ergeben sich zwei Gleichungen f¨ ur i = c + 1 und i = −1: α0 − α1 + α2 = 0 und α0 + α1 (c + 1) + α2 (c + 1)2 = 0. Die Vereinfachungen f¨ uhren zu α0 = −α2 (c + 1) α1 = −α2 c. Jetzt k¨onnen die beiden Restriktionen in die Almon-Regressionsgleichung eingesetzt werden. Nach Umformungen ergibt sich yt = α0 z0t + α1 z1t + α2 z2t + ut = α2 zt + ut

mit

zt =

c 

(i2 − ci − c − 1)xt−i .

i=0

Somit verringert sich die Zahl der zu sch¨ atzenden Parameter um die Zahl der uhren dazu, dass Restriktionen. Die beiden Restriktionen β−1 = 0 und βc+1 = 0 f¨ atzen ist. Den Sch¨ atzwert f¨ ur α2 erh¨ alt man, statt α0 , α1 und α2 nur noch α2 zu sch¨ unstliche Variable zt regressiert wird. Mit indem die endogene Variable yt auf die k¨ onnen dann α ˆ 0 und α ˆ 1 ermittelt werden. Anschließend werden die Hilfe von α ˆ 2 k¨ Sch¨ atzwerte f¨ ur die urspr¨ unglichen Koeffizienten β0 bis βc ermittelt.

3.8 L¨ osungen

231

c) Der Durbin-Watson-Test auf Autokorrelation 1. Ordnung ist in dieser Situation nicht zu empfehlen (vgl. H¨ ubler 1989, S. 220-221). Der Grund liegt in der verzerrten Teststatistik des Durbin-Watson-Tests, die in Modellen mit verz¨ ogerten endogenen Variablen gegen 2 geht und tendenziell keine Autokorrelation anzeigt. Als Alternative kommt der Durbin-h-Test in Frage, der speziell f¨ ur derartige Modelle entwickelt wurde. Die Null- und Gegenhypothese sind gegeben durch H0 :

Es liegt keine Autokorrelation 1. Ordnung vor. ut = ρut−1 + t

H1 :

Es liegt Autokorrelation 1. Ordnung vor.

Die Teststatistik lautet & n h = ρˆ , 1 − nVˆ (ˆ α1 ) wobei ρˆ eine Sch¨ atzung des Autokorrelationskoeffizienten 1. Ordnung, n der Stichα1 ) die gesch¨ probenumfang und Vˆ (ˆ atzte Varianz der OLS-Sch¨ atzung des Koeffizienten von yt−1 ist. Durbin hat gezeigt, dass f¨ ur große Stichproben die Teststatistik n¨ aherungsweise standardnormalverteilt ist. Es kommt zur Ablehnung der Nullhypothese, falls |h| > z1−α/2 , wobei z1−α/2 der Wert der Standardnormalverteilung an der Stelle (1−α/2) ist. Probleme k¨ onnen sich beim Durbin-h-Test dadurch ergeben, dass der Ausdruck α1 ) ≥ 1, kann der Test nicht durchgef¨ uhrt (1−nVˆ (ˆ α1 )) positiv sein muss. Falls nVˆ (ˆ werden. F¨ ur diesen Fall empfiehlt Durbin ein asymptotisch ¨ aquivalentes Verfahren (Durbin-m-Test), bei dem ˆt auf ˆt−1 , yt−1 und xt regressiert wird. Wenn der Koeffizient von ˆt−1 signifikant von Null verschieden ist, muss die Nullhypothese abgelehnt werden (vgl. Johnston/DiNardo 1997, S. 183).

L¨osung zu Aufgabe 127: a) Man spricht von einem station¨ aren Prozess, wenn sich der Erwartungwert, die Varianz und die Kovarianzen einer Zeitreihe im Zeitablauf nicht ¨ andern. Sei yt die betrachtete Zeitreihe. yt ist station¨ ar, falls f¨ ur t und (t − s) mit s = 1, 2, . . . folgende Bedingungen erf¨ ullt sind 1) E(yt ) = ... = E(yt−s ) = μ 2) E[(yt − μ)2 ] = ... = E[(yt−s − μ)2 ] 3) Cov(yt yt−s ) = ... = Cov(yt−j yt−j−s ). Bei einem station¨ aren Prozess hat die Periodenwahl t keine Bedeutung f¨ ur den Erwartungswert, die Varianz und die Kovarianzen. Oft wird die Zeitreihe yt , die die Bedingungen 1) - 3) erf¨ ullt, auch als schwach station¨ ar bezeichnet. Von einem stark station¨ aren Prozess spricht man dann, wenn zus¨ atzlich zu 1) - 3) davon ausgegangen wird, dass die gemeinsame Verteilung einer (Unter-)Menge an Beobachtungen

232

3 Erweiterungen des Regressionsmodells zu t1 , ..., tT zeitinvariant ist, d.h. sich gegen¨ uber t1+τ , ..., tr+τ nicht ¨ andert (Harvey 1993, S.11). Station¨ are Prozesse haben die Eigenschaft, dass tempor¨ are St¨ oreinfl¨ usse keine langfristige Wirkung haben. Die Zeitreihe kehrt nach einer Anpassungsperiode zu ihrem langfristigen Entwicklungspfad zur¨ uck. Autokorrelation zweiter Ordnung wird wie folgt modelliert ut = a1 ut−1 + a2 ut−2 + εt

mit

εt ∼ white noise.

Damit ut station¨ ar ist, m¨ ussen folgende drei Bedingungen erf¨ ullt sein (zur Herleitung vgl. Enders 2004, S. 22-30) 1) a1 + a2 < 1 2) a2 − a1 < 1 3) a2 > −1. b) Betrachtet werde das lineare Modell yt = xt β + ut , wobei ut = a1 ut−1 + a2 ut−2 + εt . F¨ ur die Sch¨ atzung kann das GLS-Verfahren mit der Matrix T ∗ ∼ (T − 2) × T als Transformationsmatrix verwendet werden (T ist die Anzahl der Beobachtungen) ⎞ ⎛ −a2 −a1 1 0 · · · · · · · · · 0 ⎜ 0 −a2 −a1 1 0 · · · · · · 0 ⎟ ⎟ ⎜ T∗ = ⎜ . .. .. ⎟ . ⎝ .. . .⎠ 0

0

· · · · · · . . . −a2 −a1 1

Die Sch¨ atzung des Koeffizientenvektors erfolgt durch   βˆGLS = (X  (T ∗ T ∗ )−1 X)−1 X  (T ∗ T ∗ )−1 y.

Um die Sch¨ atzung durchf¨ uhren zu k¨ onnen, werden die Sch¨ atzwerte f¨ ur die Autoregressionskoeffizienten a1 und a2 ben¨ otigt. Hierzu wird ein zweistufiges Vorgehen vorgeschlagen: atzt. Mit 1) Zun¨ achst wird das Ausgangsmodell yt = xt β + ut nach OLS gesch¨ den OLS-Residuen werden empirische Autokorrelationskoeffizienten ermittelt T ˆt u ˆt−s t=s+1 u mit s = 1, 2. ρˆs =  T ˆ2t t=s+1 u Daraus l¨ asst sich ableiten, dass der Autokorrelationskoeffizient ρs dem gleichen AR-Prozess folgt wie die St¨ orterme ut , aber ohne t ρs = a1 ρs−1 + a2 ρs−2 . Somit ergeben sich folgende Gleichungen ρ2 = a1 ρ1 + a2 ρ0 = a1 ρ1 + a2 ρ1 = a1 ρ0 + a2 ρ−1 = a1 + a2 ρ1

wegen wegen

ρ0 = 1 ρ−1 = ρ1 .

3.8 L¨ osungen

233

Wenn die Sch¨ atzwerte von ρ1 und ρ2 vorliegen, k¨ onnen auch die Sch¨ atzwerte f¨ ur a1 und a2 ermittelt werden a ˆ1 =

ρˆ1 (1 − ρˆ2 ) 1 − ρˆ21

a ˆ2 =

ρˆ2 − ρˆ21 . 1 − ρˆ21

atzung 2) In der zweiten Stufe kann die Matrix T ∗ gebildet und die EGLS-Sch¨ durchgef¨ uhrt werden   βˆEGLS = (X  (Tˆ ∗ Tˆ∗ )−1 X)−1 X  (Tˆ ∗ Tˆ∗ )−1 y.

Anschließend ist das Verfahren iterativ fortzusetzen. Mit den ermittelten Koeffizientensch¨ atzungen auf der zweiten Stufe βˆEGLS sind erneut Residuen zu berechnen, ˆ1 und a ˆ2 verwendet die dann ihrerseits f¨ ur die Berechnung neuer Werte von ρˆs , a werden. Danach lassen sich neue Sch¨ atzwerte f¨ ur den Vektor β ermitteln. Das Verfahren ist so oft zu wiederholen, bis Konvergenz erreicht wird. Die Berechnung der Autoregressionskoeffizienten kann alternativ ohne Ermittlung von ρˆs erfolgen. Statt dessen sind die Residuen aus der ersten Stufe auf die verz¨ ogerten Residuen zu regressieren. Zu sch¨ atzen ist ˆt−1 + a2 u ˆt−2 + νt . u ˆt = a1 u Ansonsten ist analog zu dem bereits beschriebenen Verfahren solange iterativ vorzugehen, bis Konvergenz erreicht ist.

L¨ osung zu Aufgabe 128: ar ist, wird u a) Damit die Zeitreihe yt station¨ ¨blicherweise |a1 | < 1 angenommen. Dadurch wird sichergestellt, dass die Zeitreihe einen konstanten unbedingten Erwartungswert hat und die unbedingte Varianz nicht gegen einen unendlichen Wert konvergiert. Nur wenn |a1 | < 1, entspricht α1 einem Autokorrelationskoeffizienten. Wenn a1 = 1, liegt ein Random-Walk-Modell vor Δyt = yt − yt−1 = α0 + ut und α0 l¨ asst sich konsistent nach OLS sch¨ atzen. b) Nach sukzessivem Einsetzen ergibt sich yt = a0 +a1 (a0 +a1 yt−2 +ut−1 )+ut = a0 +a0 a1 +a21 yt−2 +ut +a1 ut−1 = a0 + a0 a1 + a21 (a0 + a1 yt−3 + ut−3 ) + ut + a1 ut−1 .. .

234

3 Erweiterungen des Regressionsmodells t−1 t 2 = a0 (1+a1 +a22 +· · ·+at−1 1 )+a1 y0 +ut +a1 ut−1 +a1 ut−2 +· · ·+a1 u1

= a0

t−1 

ai1 + at1 y0 +

i=0

t−1 

ai1 ut−i .

i=0

Wenn der Anfangswert y0 nicht bekannt ist, kann das Einsetzen unendlich fortgesetzt werden. Wegen |a1 | < 1 geht der Koeffizient von y0 mit zunehmendem assigt t gegen Null. Aus diesem Grund kann f¨ ur t → ∞ der Term at1 y0 vernachl¨ werden. Es ergibt sich yt = a0

∞ 

ai1 +

i=0

=

∞ 

ai1 ut−i

i=0 ∞ 

a0 + ai ut−i . 1 − a1 i=0 1

Außerdem gilt E(yt ) =

a0 σ2 und V (yt ) = 1 − a1 1 − a21

mit V (ut ) = σ 2 . c) Unter der Autokorrelationsfunktion werden die Funktionswerte des Ausdrucks ρs =

Cov(yt yt−s ) V (yt )

f¨ ur s = 0, 1, 2, . . . verstanden. F¨ ur einen AR(1)-Prozess yt = a0 + a1 yt−1 + ut gilt ∞

V (yt ) = V (

 a0 + ai ut−i ) 1 − a1 i=0 1

∞  ai1 ut−i ) = V( i=0 ∞ 

= E[(

ai1 ut−i )2 ]

i=0

= σ2

∞ 

a2i 1

i=0

= σ2

1 1 − a21

mit

V (ut ) = σ 2 .

3.8 L¨ osungen

235

F¨ ur die Kovarianz folgt analog Cov(yt yt−s ) = E[(yt − E(yt ))(yt−s − E(yt−s ))] a0 a0 = E[(yt − )(yt−s − )] 1 − a1 1 − a1 ∞ ∞   = E[( ai1 ut−i )( ai1 ut−i−s )] = =

i=0 ∞  σ 2 as1 ( a2i 1 ) i=0 as1 σ2 . 1 − a21

i=0

Somit ist die Autokorrelationsfunktion ρs = as1

mit

s = 0, 1, 2, . . .

L¨ osung zu Aufgabe 129: Mit dem Befehl DIAGN OS/ACF wird in SHAZAM die Autokorrelationsfunktion der Residuen ermittelt. Im vorliegenden Fall werden Werte der Autokorrelationsfunktion f¨ ur 10 Perioden ermittelt. Die Werte finden sich in Spalte RHO. Zun¨ achst f¨ allt auf, dass die Autokorrelationskoeffizienten um die Nullachse oszillieren. Das ist ein Indiz f¨ ur einen AR(1)-Prozess mit einem negativen Koeffizienten der verz¨ ogerten Variablen. Betrachtet man die Spalte T-STAT, so zeigt sich, dass der Autokorrelationskoeffizient von LAG(1) signifikant ist. Dieses Ergebnis spricht zus¨ atzlich f¨ ur die AR(1)-Komponente. Außerdem ist der Autokorrelationskoeffizient auch bei LAG(4) signifikant. Vermutlich folgen die Residuen keinem reinen AR(1)-Prozess, sondern es ist auch eine andere ARKomponente, wie z.B. AR(4) vorhanden. Werden die Werte in der Spalte T-STAT quadriert und summiert, ergibt sich der Wert der LM CHI-SQUARE-STATISTIK. Der ur α = 0, 01 ist χ210;0,99 = 23, 21 und f¨ ur α = 0, 05 kritische Wert der χ2 -Verteilung f¨ 2 χ10;0,95 = 18, 31. Somit ist die Teststatistik auf dem 5%-Niveau, jedoch nicht auf dem 1%-Niveau signifikant. Dieses Ergebnis kann als ein Indiz daf¨ ur interpretiert werden, dass mindestens ein Autokorrelationskoeffizient von Null verschiedenen ist und die Residuen keinem white-noise-Prozess folgen. Die Werte in der Spalte LM-STAT sind die Pr¨ ufgr¨oßen f¨ ur die Nullhypothese, dass der entsprechende Autokorrelationskoeffizient ¨ gleich Null ist. Ahnlich wie bei T-STAT weisen die LM-STAT-Werte auf eine AR(1)und AR(4)-Komponente hin. Die Spalte DW-Test enth¨ alt die Ergebnisse der Durbin-Watson-Teststatistik. Dieser Test pr¨ uft auf Autokorrelation erster Ordnung. Aus diesem Grund betrachten wir nur den ersten Wert. Der Wert 1,0064 ist bei 33 Beobachtungen und 2 echten Regressoren signifikant und weist auf negative Autokorrelation erster Ordnung hin. Insofern stimmt das letzte Ergebnis mit dem Befund bei der Betrachtung der Spalte RHO u ¨berein.

236

3 Erweiterungen des Regressionsmodells

Die Spalte BOX-PIERCE-LJUNG gibt die sogenannten Q-Statistiken wieder. Mit Hilfe dieser Statistik kann u uft werden, ob alle Autokorrelationskoeffizienten bis zu ¨berpr¨ einem bestimmten LAG gleich Null sind. Als Pr¨ ufverteilung gilt die χ2 -Verteilung mit der Anzahl der Lags als Freiheitsgrade. F¨ ur den ersten Wert der Q-Statistik ergibt sich 7,6890. Der entsprechende kritische Wert lautet χ21;0,99 = 6, 6349 < 7, 6890. Somit zeigt auch die Q-Statistik, dass der erste Autokorrelationskoeffizient signifikant von Null verschieden ist. F¨ ur die beiden n¨ achsten Perioden wird die Nullhypothese nicht mehr abgelehnt. Die Residuen scheinen keine verz¨ ogerte Komponente aus (t − 2) und (t − 3) zu enthalten. Beginnend mit (t − 4) werden die Q-Statistiken wieder signifikant. Auch dieses Ergebnis deutet darauf hin, dass die Residuen nicht ausschließlich einem AR(1)Prozess folgen. Aus diesem Grund ist bei der Modellauswahl eine zus¨ atzliche verz¨ ogerte Komponente, d.h. LAG(p) mit p ≥ 4, zu ber¨ ucksichtigen.

L¨ osung zu Aufgabe 130:

−4

−2

0

X

2

4

6

Zeitplot der Variable X

0

20

40

60 t

Abb. 3.5: Zeitreihe

80

100

3.8 L¨ osungen

237

a) Der Zeitplot der Variablen X ist bei STATA durch den Befehl line X t, title(Zeitplot der Variablen X) zu erstellen. Die Zeitreihe schwankt um den Erwartungswert E(yt ) = 0, 3(1 − 0, 8) = 1, 5. Au¨ ßerdem ist keine systematische Anderung der Varianz im Zeitablauf zu beobachten. Die zugrunde liegenden Daten scheinen einer station¨ aren Zeitreihe zu entsprechen (vgl. Abbildung 3.5). b) Ein abruptes Absinken der Autokorrelationsfunktion nach LAG(q) auf Null deutet auf einen MA(q)-Prozess hin. Eine kontinuierliche Abnahme, die entweder exponentiell oder oszillierend verlaufen kann, ist ein Indiz f¨ ur einen AR-Prozess. Genau umgekehrt verh¨ alt es sich bei der partiellen Autokorrelationsfunktion. Ein abruptes Absinken nach LAG(p) auf Null deutet auf einen AR(p)-Prozess hin. Eine kontinuierliche Abnahme, die auch oszillierend verlaufen kann, ist ein Indiz f¨ ur einen MA-Prozess. Autokorrelations- und partielle Autokorrelationsfunktionen k¨ onnen in STATA mit dem Befehl corrgram ermittelt werden. Eine graphische Darstellung erfolgt mit den Befehlen ac und pac. Bei der betrachteten Zeitreihe sinkt die Autokorrelationsfunktion kontinuierlich ab und die partielle Autokorrelationsfunktion bricht nach LAG(1) abrupt ein. Dieses Muster weist auf einen AR(1)-Prozess hin. LAG AC PAC Q Prob>Q [Autocor.] [P.Autocor] ----------------------------------------------------------1 0.7999 0.8105 65.917 0.0000 |-----|-----2

0.5988

-0.1090 103.24

0.0000

|----

|

3

0.4275

-0.0522 122.46

0.0000

|---

|

4

0.2943

0.0104 131.66

0.0000

|--

|

5

0.1919

0.0021 135.61

0.0000

|-

|

6

0.0991

-0.0894 136.68

0.0000

|

|

7

-0.0027

-0.1436 136.68

0.0000

|

-|

8

-0.0858

-0.0509 137.50

0.0000

|

|

9

-0.0997

0.0793 138.61

0.0000

|

|

10 -0.0690

0.0524 139.15

0.0000

|

|

11 -0.0655

-0.1168 139.64

0.0000

|

|

12 -0.1033

-0.1439 140.88

0.0000

|

-|

13 -0.1149

0.1044 142.42

0.0000

|

|

238

3 Erweiterungen des Regressionsmodells

14 -0.1191

0.0453 144.11

0.0000

|

|

15 -0.0679

0.1415 144.66

0.0000

|

|-

16

0.0139

0.0954 144.68

0.0000

|

|

17

0.0701

0.0431 145.29

0.0000

|

|

18

0.0985

0.0032 146.50

0.0000

|

|

19

0.0824

-0.1474 147.35

0.0000

|

-|

0.0217 148.22

0.0000

|

|

20 0.0826

c) Zum einen ist es m¨ oglich, unterschiedliche ARMA(p,q)-Modelle zu sch¨ atzen und anhand der Koeffizientensch¨ atzungen und ihrer Signifikanzen die Modellg¨ ute zu beurteilen. Die Koeffizientensch¨ atzungen sollten dabei so ausfallen, dass das gesch¨ atzte Modell station¨ ar ist. Mit Hilfe der Q-Statistiken wird die Hypothese u uft, ¨berpr¨ ob alle Autokorrelationskoeffizienten signifikant von Null verschieden sind. Bei der Variablen X sind alle Werte der Q-Statistik signifikant. Aus diesem Grund ist anzunehmen, dass die Werte der Zeitreihe autokorreliert sind und es sich bei X um keinen white-noise-Prozess handelt. Das ausgew¨ ahlte Modell soll so beschaffen sein, dass die Residuen keine systematischen Abh¨ angigkeiten mehr aufweisen. In diesem Fall nimmt man an, dass das Modell den wahren Datengenerierungsprozess gut abbildet. Ob die Residuen einem white-noise-Prozess folgen, kann wiederum mit den Q-Statistiken u uft werden. Die Q-Statistiken der Residuen m¨ ussen ¨berpr¨ insignifikant sein. Außerdem kann die G¨ ute der unterschiedlichen Modelle mit Hilfe von Modellauswahlkriterien miteinander verglichen werden. Die popul¨ arsten Maße sind das Akaike (AIC)- und das Schwarz-(Bayes)-Kriterium (S(B)C). In beide Kriterien fließen die Residuenquadratsummen bzw. der Wert der Likelihoodfunktion, die Anzahl der Beobachtungen und die Anzahl der gesch¨ atzten Parameter ein. Das Modell mit dem kleinsten AIC- oder S(B)C-Wert ist den anderen Modellen vorzuziehen. ¨ Ublicherweise sind unterschiedliche Modelle zu sch¨ atzen und die Ergebnisse miteinander zu vergleichen. F¨ ur ein Beispiel hierf¨ ur siehe die L¨ osung der Aufgabe 131. An dieser Stelle wird auf die Sch¨ atzung mehrerer Modelle verzichtet und aufgrund der Ergebnisse aus b) wird nur ein AR(1)-Modell gesch¨ atzt. d) Die Sch¨ atzung des AR(1)-Modell lautet: AIC=286,998 AR(1): x ˆt = 1, 103 + 0, 804xt−1 (2,09) (10,78) SBC=292,209 Die Prognosewerte k¨ onnen mit dem Befehl predict ermittelt werden. predict X prognose Die graphische Darstellung der beiden Zeitreihen (vgl. Abbildung 3.6) zeigt eine ¨ gute Ubereinstimmung der realisierten und der prognostizierten Werte. twoway (line X t, lwidth(medthick)) (line X prognose t, lpattern(dash) lwidth(medthick)), title(Realisierte und prognostizierte Zeitreihe)

3.8 L¨ osungen

239

−4

−2

0

2

4

6

Realisierte und prognostizierte Zeitreihe

0

20

40

60

80

100

t Realisierte Zeitreihe

Prognostizierte Zeitreihe

Abb. 3.6: Realisierte und prognostizierte Zeitreihe

Auch insignifikante Q-Statistiken der Residuen weisen auf ein gutes Modell hin. predict res, res corrgram res

L¨osung zu Aufgabe 131: a) Die Simulation wird in STATA durchgef¨ uhrt. aa) Zun¨ achst wird die Anzahl der Beobachtungen festgelegt. set obs 150 Damit die Ergebnisse sp¨ ater reproduzierbar sind, verwenden wir f¨ ur die Nummer des Zufallsgenerators die Zahl 131. set seed 131 Mit dem Funktionsbefehl gen u=invnorm(uniform()) ist es m¨ oglich, aus der Standardnormalverteilung N(0;1) Zufallszahlen u zu ziehen. Wegen der zugrunde liegenden Verteilung N(0;9) ist in unserem Beispiel eine Multiplikation mit 3 notwendig.

240

3 Erweiterungen des Regressionsmodells gen u=3*invnorm(uniform()) ur die Kennab) Um die Variable vt zu bilden, ist die Anwendung eines Laufindex f¨ zeichnung von verz¨ ogerten Variablen notwendig. In STATA geschieht dies, indem der Variablen, f¨ ur die verz¨ ogerte Werte heranzuziehen sind, [ n − 1] angef¨ ugt wird. Dabei entspricht n dem Laufindex und −1 zeigt an, dass die um eine Periode verz¨ ogerten Werte zu verwenden sind. gen v=u+0.3*u[ n-1] ac) Mit dem Befehl gen t= n-1 l¨asst sich ein Zeitindex formulieren.

−10

−5

0

y

5

10

15

Zeitplot der Variable y

0

20

40

60

80

100

t

Abb. 3.7: Zeitplot der Variable y

Dieser Zeitindex wird sp¨ ater ben¨ otigt. Seine Werte entsprechen der Beobachtungsnummer minus eins. So hat die erste Beobachtung den Zeitindexwert Null, die zweite Beobachtung den Wert 1 usw. Anschließend wird die Variable y erstellt, die f¨ ur t = 0 den Wert Null zugewiesen bekommt und sonst keine weiteren Werte enth¨ alt. gen y=0 if t==0 ad) Die fehlenden Werte der Variablen y werden durch den Befehl replace y=0.3*y[ n-1]+v if t>=1

3.8 L¨ osungen

241

sukzessive aufgef¨ ullt. Die L¨ oschung der ersten 50 Beobachtungen erfolgt durch drop if tQ [Autocor] [P Autocor] ------------------------------------------------------------------------------1 0.8152 0.8202 68.474 0.0000 |-----|-----2

0.5662

-0.3090

101.84

0.0000

|----

--|

3

0.3880

0.1108

117.67

0.0000

|---

4

0.2376

-0.1497

123.67

0.0000

|-

-|

5

0.0897

-0.0697

124.53

0.0000

|

|

6

-0.0086

0.0381

124.54

0.0000

|

|

7

-0.0457

0.0259

124.77

0.0000

|

|

8

-0.0321

0.0639

124.89

0.0000

|

|

9

-0.0070

-0.0616

124.89

0.0000

|

|

10

0.0540

0.1928

125.22

0.0000

|

|-

11

0.0785

-0.1627

125.93

0.0000

|

-|

12

0.0735

0.0552

126.55

0.0000

|

|

13

0.0603

-0.0340

126.98

0.0000

|

|

14

0.0441

-0.0411

127.21

0.0000

|

|

15

-0.0057

-0.0798

127.21

0.0000

|

|

16

-0.0276

0.1193

127.31

0.0000

|

|

17

-0.0277

0.0325

127.40

0.0000

|

|

18

-0.0350

-0.0717

127.55

0.0000

|

|

19

-0.0496

0.0560

127.86

0.0000

|

|

20

-0.0107

0.1285

127.88

0.0000

|

|-

|

Die Autokorrelationsfunktion sinkt beginnend mit LAG(1) kontinuierlich. Bei der partiellen Autokorrelationsfunktion ist eine oszillierende Abnahme zu beobachten. Dieses Muster deutet auf einen ARMA(1,1)-Prozess hin (vgl. Enders

242

3 Erweiterungen des Regressionsmodells 2004, S. 66). bc) Die Sch¨ atzung erfolgt mit dem Befehl arima. Durch die Optionen ar(#) und ma(#) wird spezifiziert, welcher Prozess gesch¨ atzt werden soll. F¨ ur die Sch¨ atzung eines ARMA(1,1) lautet der Befehl arima y, ar(1) ma(1) Die Modellselektionskriterien, wie das Akaike- (AIC) und das Schwarz (Bayes)Kriterium (S(B)C), k¨ onnen mit dem Befehl arimafit nach durchgef¨ uhrter Modellsch¨ atzung ermittelt werden. Die Sch¨ atzergebnisse der verschiedenen Modelle sind nachfolgend dargestellt (t-Werte in Klammern): M odell1 − AR(1):

yˆt

=

M odell2 − AR(2):

yˆt

=

M odell3 − M A(1):

yˆt

=

M odell4 − M A(2):

yˆt

=

M odell5 − ARM A(1, 1):

yˆt

=

0, 861yt−1 (16,26) 1, 108yt−1 (9,72) 0, 762vt−1 (11,44) 1, 135vt−1 (11,14) 0, 763yt−1 (10,37)

-

0, 290yt−2 (-2,67)

+

0, 482vt−2 (4,76) 0, 404vt−1 (3,56)

+

AIC=512,892 SBC=518,103 AIC=506,360 SBC=514,175 AIC=560,154 SBC=565,364 AIC=525,530 SBC=533,345 AIC=503,917 SBC=511,732

bd) Die Koeffizientensch¨ atzungen sind in allen Modellen signifikant. Anhand der Signifikanzniveaus ist keine Modellauswahl m¨ oglich. Aufgrund des Akaikeund des Schwarz-Bayes-Kriteriums ist das ARMA(1,1)-Modell anderen Modellen vorzuziehen. Zur Modellbeurteilung sind außerdem die Q-Statistiken der Residuen der jeweiligen Modelle zu untersuchen. Bei dem ausgew¨ ahlten Modell sollten keine signifikanten Q-Statistiken mehr festzustellen sein. Nach der Sch¨ atzung des ARMA(1,1)-Modells werden mit dem Befehl predict res, res die Residuen res ermittelt. Wie das Ergebnis nach dem Befehl corrgram res zeigt, ist keine der QStatistiken signifikant. Das gesch¨ atzte ARMA(1,1)-Modell scheint den Datengenerierungsprozess gut abzubilden, so dass in den Residuen keine systematischen Abh¨ angigkeiten mehr verbleiben (white-noise-Prozess).

L¨ osung zu Aufgabe 132: a) Graphisch sind neben den ermittelten Autokorrelations- bzw. partiellen Autokorrelationskoeffizienten, die auch in der nachfolgenden Tabelle zu finden sind, die Konfidenzb¨ander in den Abbildungen 3.8 und 3.9 eingezeichnet. Dabei wird deutlich, dass die Autokorrelationsfunktion zun¨ achst kontinuierlich sinkt. Bei der partiellen Autokorrelationsfunktion ist LAG(1) signifikant von Null verschieden. corrgram

y

243

−0.40

−0.20

Autocorrelations of y 0.00 0.20 0.40

0.60

3.8 L¨ osungen

0

10

20 Lag

30

Bartlett’s formula for MA(q) 95% confidence bands

Abb. 3.8: Autokorrelation

-1 0 1 -1 0 1 LAG AC PAC Q Prob>Q [Autocor.][Part.Autocor] -----------------------------------------------------------1 0.6289 0.6297 80.292 0.0000 |----|----2

0.3465

-0.0825

3

0.2088

0.0406

4

0.0627

5

104.79

0.0000

|--

|

113.73 0.0000

|-

|

-0.1131

114.54

0.0000

|

|

0.0285

0.0736

114.71

0.0000

|

|

6

0.0453

0.0315

115.14

0.0000

|

|

7

-0.0536

-0.1578

115.74 0.0000

|

-|

8

-0.0314

0.1096

115.95

|

|

9

0.0179

0.0230

116.01 0.0000

|

|

10

0.0333

0.0398

116.25 0.0000

|

|

0.0000

40

244

3 Erweiterungen des Regressionsmodells

0.1158

0.1089

119.11 0.0000

|

|

12

0.0975

-0.0791

121.15 0.0000

|

|

13 -0.0011

-0.0654

121.15

0.0000

|

|

14 -0.0950

-0.1387

123.11

0.0000

|

-|

15 -0.1293

0.0250

126.76 0.0000

-|

|

16 -0.1308

-0.0068

130.52

0.0000

-|

|

17 -0.1414

-0.1034

134.94

0.0000

-|

|

18 -0.2056

-0.1297

144.32 0.0000

-|

-|

19 -0.2495

-0.1014

158.21 0.0000

-|

|

20 -0.3026

-0.1652

178.77 0.0000

--|

-|

−0.20

Partial autocorrelations of y 0.00 0.20 0.40

0.60

11

0

10

95% Confidence bands [se = 1/sqrt(n)]

Abb. 3.9: Partielle Autokorrelation

20 Lag

30

40

3.8 L¨ osungen

245

Andere Werte der partiellen Autokorrelationsfunktion liegen innerhalb der Konfidenzb¨ ander (Ausnahmen sind z.B. LAG(7), LAG (14), und LAG(20)). Insgesamt ist das Muster mit einem AR(1)-Prozess vereinbar. Aus diesem Grund soll ein AR(1)-Modell gesch¨ atzt werden. Das Sch¨ atzergebnis lautet (t-Werte in Klammern): AR(1) − M odell :

1, 114 + 0, 627yt−1 AIC=802,947 (3,00) (9,34) SBC=809,543 Die gesch¨ atzten Koeffizienten erf¨ ullen die Stabilit¨ atsbedingung und sind signifikant. yˆ1

=

b) Um zu u ufen, ob die St¨ orterme einem ARCH-Prozess folgen, werden zun¨ achst ¨berpr¨ quadrierte Residuen ressq ermittelt. predict res, res gen ressq=res^2 Anschließend wird f¨ ur die quadrierten Residuen mit Hilfe des Korrelogramms u ¨berpr¨ uft, ob sie einem white-noise-Prozess folgen. corrgram ressq Es zeigt sich, dass alle Q-Statistiken signifikant von Null verschieden sind (der Programmoutput wird aus Platzgr¨ unden nicht ausgewiesen). Dieses Ergebnis l¨ asst darauf schließen, dass die Residuenquadrate von den Werten der Vorperioden abh¨ angen und die St¨ orterme aus diesem Grund einem ARCH-Prozess folgen. c) Um die Ordnung des ARCH-Prozesses festzustellen, werden die verz¨ ogerten Werte der Variablen ressq erstellt (ressqt−1 , ressqt−2 , ressqt−3 und ressqt−4 ). gen ressq1=ressq[_n-1] gen ressq2=ressq[_n-2] gen ressq3=ressq[_n-3] gen ressq4=ressq[_n-4] Danach l¨ asst sich ressq auf die verz¨ ogerten Variablen regressieren ressqt = α0 + α1 ressqt−1 + α2 ressqt−2 + α3 ressqt−3 + α4 ressqt−4 + u. Lediglich α ˆ 1 ist signifikant von Null verschieden (ˆ α1 = 0, 531 mit einem t-Wert von 7,22). Das Ergebnis ¨ andert sich nicht, wenn noch weiter zur¨ uckliegende Werte der Variablen ressq in die Regression aufgenommen werden (ressqt−5 , ressqt−6 und ressqt−7 ). Somit kann von einem ARCH(1)-Prozess ausgegangen werden. ortermen F¨ ur die vorliegende Zeitreihe yt wird ein AR(1)-Modell mit ARCH(1)-St¨ gesch¨ atzt. Das Sch¨ atzergebnis in STATA lautet

246

3 Erweiterungen des Regressionsmodells arch y, ar(1) arch(1) ARCH family regression -- AR disturbances Sample:

1 to 200

Number of obs = 200 Wald chi2(1) = 206.17 Log likelihood = -344.4361 Prob > chi2 = 0.0000 -------------------------------------------------------------y | Coef. Std. Err. z P>|z| [95%Conf.Interval] -------------+------------------------------------------------y _cons | .9323345 .1990747 4.68 0.000 .5421552 1.32251 --------------+-----------------------------------------------ARMA L1. | .6841632 .0476487 14.36 0.000 .5907734 .777553 -------------+------------------------------------------------ARCH L1. | .860509 .1818201 4.73 0.000 .5041481 1.21687 _cons | .7793978 .1440132 5.41 0.000 .4971371 1.06165 --------------------------------------------------------------Das AR(1)-Modell mit ARCH(1)-St¨ ortermen (t-Werte in Klammern) ist mit Vˆ (ˆ

t ) = 0, 779 + 0, 861ˆ

2t−1 . yt = 0, 932 + 0, 684yt−1 + ˆt (4,68) (14,36) (4,73) (5,41) d) Zun¨ achst lassen sich die realisierten Werte der Zeitreihe yt den prognostizierten Werten gegen¨ ubergestellen. Dies ist, nachdem die Prognosewerte durch predict yhat ermittelt worden sind, mit Hilfe des Befehls twoway (line y time) (line yhat time) m¨ oglich.  onnen durch die nachsteDie prognostizierten Konfidenzb¨ ander yˆt ± 1, 96 V ( t ) k¨ henden STATA-Befehle ermittelt werden. predict var, variance gen up=yhat+1.96*sqrt(var) gen low=yhat-1.96*sqrt(var) twoway (line y time, lcolor(blue)) (line up time, lcolor(black) lpattern(dash)) (line low time, lcolor(black) lpatter(dash_dot))

3.8 L¨ osungen

247

L¨osung zu Aufgabe 133:

−4

−2

0

2

4

assig, wenn beide Zeitreihen staa) Eine Regression von {yt } auf {xt } ist dann zul¨ tion¨ ar sind. Falls die Zeitreihen nicht station¨ ar sind, kann die Regression dann allen durchgef¨ uhrt werden, wenn {yt } und {xt } kointegriert sind. In anderen F¨ handelt es sich h¨ aufig um sogenannte Scheinregressionen, deren Ergebnis keine Aussagekraft besitzt. b) Vor der Regression ist zun¨ achst zu pr¨ ufen, ob es sich um station¨ are Zeitreihen handelt. Zun¨ achst sollte man sich den Zeitplot der Daten anschauen - vgl. Abbildung 3.10. twoway (line y time, lpattern(dash) lwidth(medthick)) (linex time, lpattern(dash) lwidth(medthick))

0

20

40

60

80

100

time y

x

Abb. 3.10: Zeitplot

Beide Zeitreihen scheinen station¨ ar zu sein. Sie schwanken um den Nullpunkt und weisen keine deterministische Komponente und keine Driftkomponente auf. ¨ Anschließend kann der Dickey-Fuller-Test zur Uberpr¨ ufung der Stationarit¨ at durchgef¨ uhrt werden. Der Test auf Einheitswurzel bei {yt } ergibt: dfuller

y, noconst

248

3 Erweiterungen des Regressionsmodells Dickey-Fuller test for unit root Number of obs = 99 ---------- Interpolated Dickey-Fuller --------Test 1% Critical 5% Critical 10% Critical Statistic Value Value Value ------------------------------------------------------Z(t) -4.998 -2.600 -1.950 -1.610 F¨ ur den Test der Zeitreihe {xt } folgt dfuller

x, noconst

Dickey-Fuller test for unit root Number of obs = 99 ---------- Interpolated Dickey-Fuller --------Test 1% Critical 5% Critical 10% Critical Statistic Value Value Value ------------------------------------------------------Z(t) -5.934 -2.600 -1.950 -1.610 Beide Tests lehnen die Nullhypothese einer Einheitswurzel ab. Es kann davon ausgegangen werden, dass die Zeitreihen station¨ ar sind. Die Regression von {yt } auf assig. {xt } ist zul¨ c) Falls beide Variablen eine Einheitswurzel besitzen, ist zu testen, ob die Zeitreihen kointegriert sind. Falls Kointegration festgestellt wird, kann die Regression yt = uhrt werden. In diesem Fall ist keine Scheinregression zu a0 + a1 xt + ut durchgef¨ bef¨ urchten. Falls jedoch die Zeitreihen nicht kointegriert sind, aber beide eine Einheitswurzel besitzen, sind die ersten Differenzen der beiden Zeitreihen zu bilden: {Δyt } und ar sind, ist eine Regression Δyt = {Δxt }. Wenn {Δyt } und {Δxt } beide station¨ oglich. b0 + b1 Δxt + εt m¨

L¨ osung zu Aufgabe 134: a) In einem vektorautoregressiven Modell wird jede abh¨ angige Variable als lineare Funktion der eigenen verz¨ ogerten Werte und der verz¨ ogerten Werte der anderen abh¨angigen Variablen dargestellt yt = α0 +α1 yt−1 +α2 yt−2 +α3 xt−1 +α4 xt−2 +α5 zt−1 +α6 zt−2 +u1 xt = β0 +β1 yt−1 +β2 yt−2 +β3 xt−1 +β4 xt−2 +β5 zt−1 +β6 zt−2 +u2 zt = γ0 +γ1 yt−1 +γ2 yt−2 +γ3 xt−1 +γ4 xt−2 +γ5 zt−1 +γ6 zt−2 +u3 . b) Wenn Y nicht grangerkausal bez¨ uglich Z ist, bedeutet das, dass die Vergangenheitswerte der Variablen Y nicht f¨ ur die Prognose der gegenw¨ artigen und zuk¨ unftigen Werte der Variablen Z verwendet werden k¨ onnen. Formal bedeutet dies: achliche kausale Beziehung zwischen Y γ1 = γ2 = 0. Dabei steht weniger die tats¨ und Z im Vordergrund als die rein statistische.

3.8 L¨ osungen

249

c) Sowohl ein simultanes Gleichungssystem als auch ein vektorautoregressives Modell bildet ein System ¨ okonometrischer Regressionsgleichungen. In diesen Gleiangigkeit und in chungen werden die Variablen yt , xt und zt in gegenseitiger Abh¨ Abh¨ angigkeit von anderen Variablen dargestellt. Das simultane Gleichungssystem und das vektorautoregressive Modell unterscheiden sich jedoch in der Form, wie die Abh¨ angigkeiten in einzelnen Gleichungen modelliert werden. In einem simultanen Gleichungssystem wird davon ausgegangen, dass die abh¨ angigen Variablen von kontempor¨ aren Werten der anderen abh¨ angigen Variablen beeinflusst werden. atzprozedur steht die So h¨ angt yt von xt und zt ab usw. Im Vordergrund der Sch¨ Ermittlung der kausalen Abg¨ angigkeit, die auch als strukturelle Form bezeichnet wird. Ein solches Gleichungssystem k¨ onnte z.B. wie folgt aussehen (w1 , w2 und w3 sind vorherbestimmte Variablen) yt = α0 + α1 xt + α2 zt + α3 w1 + u1 xt = β0 + β1 yt + β2 zt + β3 w2 + u2 zt = γ0 + γ1 yt + γ2 xt + γ3 w3 + u3 . Simultane Gleichungssysteme haben den Nachteil, dass sie f¨ ur die Identifikation zus¨ atzliche Restriktionen ben¨ otigen, die h¨ aufig ohne eine theoretische Begr¨ undung eingef¨ uhrt werden. In vektorautoregressiven Modellen (VAR) wird jede abh¨ angige Variable, wie bereits erw¨ ahnt, als eine lineare Funktion der eigenen verz¨ ogerten Werte und der verz¨ ogerten Werte der anderen Variablen dargestellt. In VAR-Modellen wird nicht auf die Bestimmung der kausalen Effekte abgestellt. Hier steht die Prognose im Vorderur grund. Es wird z.B. untersucht, welche Wirkung ein Schock bei dem St¨ orterm u1 f¨ die zuk¨ unftigen Werte der Variablen yt , xt und zt entfaltet. Der Vorteil der VARModelle ist, dass keine zus¨ atzlichen Restriktionen zur Identifikation des Systems ben¨ otigt werden. Die Sch¨ atzung der Gleichungen ist auch weniger aufw¨ andig als in simultanen Gleichungssystemen. Allerdings bereitet eine ¨ okonomisch-theoretische Interpretation der gesch¨ atzten Koeffizienten Schwierigkeiten.

L¨ osung zu Aufgabe 135: a) Wenn keine beobachtungsspezifischen Konstanten vorliegen, kann statt eines Panelsch¨ atzers eine gepoolte Sch¨ atzung des Modells yit = xit β + it durchgef¨ uhrt werden. F¨ ur die St¨ orterme wird

it = ρ i,t−1 + νit

mit

2 νit ∼ N (0, σνi )

angenommen. Durch diese Modellierung weisen die St¨ orterme des Modells sowohl Autokorrelation erster Ordnung als auch Heteroskedastie auf. Zur Sch¨ atzung wird ein zweistufiges Verfahren vorgeschlagen (vgl. Baltagi 1998, S. 324-325). Auf der

250

3 Erweiterungen des Regressionsmodells ersten Stufe wird die Autokorrelation und auf der zweiten Stufe die Heteroskedastie beseitigt. Stufe 1: Nach der OLS-Sch¨ atzung des Ausgangsmodells wird mit Hilfe der Resiatzt duen ˆit der Autokorrelationskoeffizient ρ gesch¨ N T ˆit ˆi,t−1 i=1 t=2 , ρˆ =  N T ˆ2i,t−1 i=1 t=2 ρ wird f¨ ur die Sch¨ atzung nach dem Prais-Winsten-Verfahren verwendet. Daf¨ ur sind die Originalwerte yit folgendermaßen zu transformieren ∗ yit = yit − ρyi,t−1  ∗ = (1 − ρ2 )yi,1 yi,1

f¨ ur f¨ ur

t = 2, . . . , T t = 1.

Analog zu yit werden auch die xikt -Werte transformiert, wobei k = 1, ..., K. Der ∗ auf x∗it  . Die RePrais-Winsten-Sch¨ atzer entspricht der OLS-Regression von yit ∗ ur die Sch¨ atzung der St¨ orgr¨ oßenvarianzen siduen dieser Regression (ˆ

) finden f¨ Verwendung T ∗2 ˆit 2 t=1 . = σ ˆνi T −K −1 2 Stufe 2: Die gesch¨ atzten St¨ orgr¨ oßenvarianzen σ ˆνi werden f¨ ur die Beseitigung der ∗ und x∗itk erneut zu transHeteroskedastie verwendet. Daf¨ ur sind die Variablen yit formieren ∗∗ = yit

∗ yit σ ˆνi

und

x∗∗ ikt =

x∗ikt . σ ˆνi

∗∗  Anschließend wird die OLS-Regression von yit auf x∗∗ uhrt. Bei der iteit durchgef¨ rativen Anwendung konvergiert die zweistufige Sch¨ atzung gegen die MaximumLikelihood-Sch¨ atzung. F¨ ur die Iteration sind mit den Sch¨ atzergebnissen aus der 2. Stufe solange neue Werte f¨ ur den Autokorrelationskoeffizienten ρ und f¨ ur die 2 zu bilden, bis sich die Sch¨ atzergebnisse in der zweiten Stufe St¨ orgr¨ oßenvarianz σνi nur noch marginal ver¨ andern. Zu alternativen Sch¨ atzverfahren bei autokorrelierten und heteroskedastischen Paneldaten vgl. Baltagi (1998, S. 324-325). b) Bei Paneldaten werden f¨ ur ein und denselben Beobachtungstr¨ ager gleiche Informationen zu unterschiedlichen Zeitpunkten erhoben. Dadurch ist es m¨ oglich, f¨ ur jeden Beobachtungstr¨ ager die Abweichungen vom individuellen Mittelwert zu bestimmen. Diese Datentransformation wird als Within-Transformation bezeichnet. Die OLS-Sch¨ atzung des Regressionmodells mit den transformierten Werten ergibt den Within-Sch¨ atzer. Alternativ kann ein Regressionsmodell mit den Mittelwerten der Variablen jedes Beobachtungstr¨ agers gesch¨ atzt werden. Dieser Sch¨ atzer heißt Between-Sch¨ atzer. Angenommen, das wahre Modell sei gegeben durch

yit = xit β + αi + it .

3.8 L¨ osungen

251

Dabei bezeichnet der Index i den Beobachtungstr¨ ager und der Index t die Zeitperiode. Jeder Beobachtungstr¨ ager besitzt eine individuenspezifische Konstante αi . Die zeitinvariante Gr¨ oße αi macht den Unterschied zum klassischen Regressionsur alle Beobachtungstr¨ ager gleich ist, modell aus. Geht man davon aus, dass αi f¨ ergibt sich das klassische Regressionsmodell. Werden die Beobachtungen f¨ ur einen Beobachtungstr¨ ager f¨ ur alle Zeitpunkte summiert, ergibt sich T 

yit =

t=1

T 

xit β + T αi +

t=1

T 

it .

t=1

Die Division durch T f¨ uhrt zu ¯i β + αi + ¯i . y¯i = x Wird die letzte Gleichung, d.h. die des Between-Modells, von der Ausgangsgleichung abgezogen, folgt die Within-Regressionsgleichung W = yit − y¯i = (xit − x ¯i ) β + it − ¯i . yit

Die OLS-Sch¨ atzung dieser Gleichung ist der Within-Sch¨ atzer (βˆW ). Mit Hilfe der W onnen die Sch¨ atzwerte f¨ ur beobachtungsspezifische KonstanSch¨ atzwerte aus βˆ k¨ ten ermittelt werden yi − y¯) − (¯ xi − x ¯) βˆW , α ˆ i = (¯ wobei y¯ und x ¯ den Durchschnittswerten u ¨ber alle Individuen und alle Perioden entsprechen.

L¨ osung zu Aufgabe 136: a) Beim FE-Modell wird zugelassen, dass die zeitinvarianten individuellen Effekte mit den exogenen Variablen korreliert sind. Im Unterschied dazu geht man beim RE-Modell davon aus, dass zeitinvariante individuelle Effekte nicht mit exogenen Variablen korreliert sind. b) Bei dem FEM wird die Differenzen-, u atzung ¨berwiegend jedoch die Within-Sch¨ angewendet. Bei letzterem Sch¨ atzverfahren wird von jeder Variablen der individuenspezifische Mittelwert abgezogen. Dieses Vorgehen f¨ uhrt dazu, dass alle zeitinvarianten Variablen bei allen Beobachtungen den Wert Null erhalten und nicht mehr bei der Sch¨ atzung ber¨ ucksichtigt werden. Im REM werden die individuenspezifischen Mittelwerte mit δ = 1 multipliziert und erst dann von den Variablen abgezogen. Dabei entspricht δ δ =1− 

σ2

σ , + T σα2

252

3 Erweiterungen des Regressionsmodells σ2 ist die Varianz des St¨ ortermteils in der Regressionsgleichung, f¨ ur den die Bedingungen des klassischen Regressionsmodells angenommen werden, mit σα2 wird die Varianz der Individualeffekte charakterisiert. Bei diesem Vorgehen sind die Werte der zeitinvarianten Variablen ungleich Null. Somit finden diese Variablen in der RE-Sch¨ atzung Ber¨ ucksichtigung. F¨ ur die Entscheidung, ob ein FEM oder ein REM vorzuziehen ist, spielt der Wunsch nach der Verwendbarkeit der zeitinvarianten Variablen nicht die zentrale Rolle. Ausschlaggebend f¨ ur die Wahl des Modells ist, ob die Individualeffekte mit exogenen Variablen korreliert sind.

c) Bei diesem Test werden die Sch¨ atzungen des FE- und des RE-Modells miteinander verglichen. Falls die Individualeffekte nicht mit exogenen Variablen korreliert sind, f¨ uhren beide Sch¨ atzverfahren zu konsistenten Sch¨ atzergebnissen. Die empirischen Sch¨ atzwerte werden nicht zu stark voneinander abweichen. In dieser Situation ist atzer (βˆF E ) vorwegen der h¨ oheren Effizienz der RE-Sch¨ atzer (βˆRE ) dem FE-Sch¨ zuziehen. Falls jedoch die Korrelation von Null verschieden ist, f¨ uhrt eine RE-Sch¨ atzung zu inkonsistenten Sch¨ atzergebnissen, w¨ ahrend die FE-Sch¨ atzung nach wie vor konsistent ist. Es ist zu erwarten, dass die Sch¨ atzwerte beider Verfahren deutlich voneinander abweichen. In dieser Situation ist der FE-Sch¨ atzer zu w¨ ahlen. Der Hausman-Test u uft ausgehend von der Nullhypothese ¨berpr¨ H_0: Keine Korrelation zwischen Individualeffekten und exogenen Variablen ufgr¨ oße ist gedie Differenz zwischen den beiden Sch¨ atzern βˆF E und βˆRE . Die Pr¨ geben durch (βˆF E − βˆRE ) (Vˆ (βˆF E ) − Vˆ (βˆRE ))−1 (βˆF E − βˆRE ). Die χ2 -Verteilung mit K Freiheitsgraden dient als Pr¨ ufverteilung. K ist die Zahl der Elemente im Sch¨ atzvektor. Falls die Pr¨ ufgr¨ oße den kritischen Wert χ2K;1−α u atzer pr¨ aferiert. Sonst wird der RE-Sch¨ atzer gew¨ ahlt. ¨bersteigt, wird der FE-Sch¨ Voraussetzung f¨ ur eine korrekte Entscheidung mit Hilfe des Hausman-Tests ist, dass keine Fehlspezifikation des Modells vorliegt.

L¨ osung zu Aufgabe 137: a) Im Prinzip ist ein FE-Modell eine Erweiterung des klassischen Regressionsmodells. Im FE-Modell wird nicht mehr von der gleichen Konstanten f¨ ur alle Beobachtungen ausgegangen, sondern es wird ein individuenspezifischer Effekt modelliert. Falls diese Annahme jedoch nicht zutrifft und sich die Individualeffekte nicht unterscheiden, ist die OLS-Sch¨ atzung einer FE-Sch¨ atzung vorzuziehen. Die Gleichheit der Individualeffekte kann durch einen F-Test u uft werden. ¨berpr¨ Die Nullhypothese lautet: Alle Individualeffekte sind gleich. Das Ergebnis wird bei einer FE-Sch¨ atzung mit STATA am Ende des Outputs ausgewiesen. Die Pr¨ ufgr¨ oße

3.8 L¨ osungen

253

betr¨agt 10,68. Der p-Wert bei der F-Verteilung mit 462 und 2169 Freiheitsgraden lautet 0,0000. Somit ist die Nullhypothese abzulehnen. Ein Panelsch¨ atzer ist der OLS-Sch¨ atzung u onnte alternativ die Existenz von ¨berlegen. Beim RE-Modell k¨ Individualeffekten durch den Breusch-Pagan-Test gepr¨ uft werden. Hierzu m¨ usste bei STATA nach dem Sch¨ atzbefehl f¨ ur das RE-Modell xttest0 eingegeben werden. Wenn der ausgewiesene p-Wert kleiner als das u ¨bliche Signifikanzniveau ist, muss die Nullhypothese (H0 : keine Individualeffekte, d.h. V (αi ) = 0) abgelehnt werden. b) Die Variable idnummer bezeichnet ein Beobachtungsobjekt. Mit Hilfe dieser Variablen kann das Progamm die Individuen identifizieren. Diese Information ist f¨ ur die Ermittlung individuenspezifischer Sch¨ atzwerte unerl¨ asslich und muss im Sch¨ atzbefehl enthalten sein. c) Die Pr¨ ufgr¨ oße des Hausman-Tests ist gegeben durch (βˆF E − βˆRE ) (Vˆ (βˆF E ) − Vˆ (βˆRE ))−1 (βˆF E − βˆRE ). Aufgrund der ausgewiesenen Sch¨ atzungen l¨ asst sich ⎛ ⎞ −0, 0005332 ⎜ 0, 0099580 ⎟ (βˆF E − βˆRE ) = ⎝ 0, 0191048 ⎠ 0, 0114247 bilden. Außerdem folgt unter Verwendung der ausgewiesenen Standardfehler, die zu quadrieren sind, und bei G¨ ultigkeit der Annahme, dass die Kovarianzen der Koeffizientensch¨ atzer Null sind (Vˆ (βˆF E ) − Vˆ (βˆRE )) = ⎛ ⎞ 0, 0000677 0 0 0 0 0, 0002100 0 0 ⎜ ⎟ =⎝ ⎠ 0 0 0, 0063088 0 0 0 0 0, 0007707 ⎛ ⎞ 0, 0000673 0 0 0 0 0, 0001575 0 0 ⎜ ⎟ −⎝ ⎠= 0 0 0, 0062907 0 0 0 0 0, 0007508 ⎞ ⎛ 0 0 0 4 · 10−7 0 5, 25 · 10−5 0 0 ⎟ ⎜ =⎝ ⎠. 0 0 1, 81 · 10−5 0 −5 0 0 0 1, 99 · 10 Daraus ergibt sich die Inverse (Vˆ (βˆF E ) − Vˆ (βˆRE ))−1 =

254

3 Erweiterungen des Regressionsmodells ⎛

⎞ 2500000 0 0 0 0 19047, 619 0 0 ⎜ ⎟ =⎝ ⎠. 0 0 55248, 619 0 0 0 0 50251.256 Nach Ausmultiplizieren der Matrizen folgt als Pr¨ ufgr¨ oße ⎞ ⎞ ⎛ 2500000 0 0 0 −0, 0005332 0 19047, 619 0 0 ⎟ ⎜ 0, 0099580 ⎟ ⎜ ⎠· ⎝ 0, 0191048 ⎠ · ⎝ 0 0 55248, 619 0 0 0 0 50251, 256 0, 0114247 ⎛



⎞ −0, 0005332 ⎜ 0, 0099580 ⎟ ⎝ 0, 0191048 ⎠ = 29, 324235. 0, 0114247 ur Der kritische Wert ist der Wert der χ2 -Verteilung mit 4 Freiheitsgraden. F¨ ufgr¨ oße den kritischen Wert u α = 0, 01 ergibt sich χ24;0,99 = 13, 28. Da die Pr¨ ¨bersteigt, ist davon auszugehen, dass die Individualeffekte und die exogenen Variablen korreliert sind. In dieser Situation ist die FE-Sch¨ atzung der RE-Sch¨ atzung vorzuziehen. STATA bietet die M¨ oglichkeit, den Hausman-Test direkt durchzuf¨ uhren, wobei die Einschr¨ ankung der Nullkovarianzen nicht notwendig ist. Hierzu muss nach dem RE-Befehl, der vor dem FE-Befehl einzugeben ist, estimates starl random effects geschrieben werden, um dann nach dem FE-Befehl hausman. random effects einzuf¨ ugen. Wenn der ausgewiesene p-Wert kleiner als das u ¨bliche Signifikanzniveau ist, wenn der STATA-Output z.B. Prob > chi2 = 0, 0000 lautet, dann ist der FE-Sch¨ atzer vorzuziehen.

L¨osung zu Aufgabe 138: Als Ausreißer bezeichnet man Beobachtungen mit unplausiblen oder extremen Werten. Einerseits kann der Grund daf¨ ur in der fehlerhaften Datenaufbereitung liegen. So ist es z.B. m¨oglich, dass statt des richtigen Einkommens einer Person in H¨ ohe von 2000 EUR f¨ alschlicherweise 20000 EUR erfasst werden. Andererseits ist es auch m¨ oglich, dass

3.8 L¨ osungen

255

die erfassten Daten an sich korrekt, jedoch aufgrund eines besonderen Ereignisses sehr ungew¨ ohnlich sind. Werden die Ausreißer aus der Analyse nicht ausgeschlossen, k¨ onnen sie das Sch¨ atzergebnis in eine bestimmte Richtung beeinflussen oder auch verf¨ alschen. Es ist jedoch auch m¨oglich, dass die Ausreißer das Sch¨ atzergebnis nicht signifikant beeinflussen. In diesem Fall sollte die Beobachtung nicht aus dem Datensatz entfernt werden, falls es sich nicht um eine offensichtlich falsche Information handelt. Unter einflussreichen Beobachtungen versteht man Beobachtungen, die das Sch¨ atzergebnis stark beeinflussen. Einen Hinweis darauf erh¨ alt man, wenn die Sch¨ atzung mit und ohne die entsprechende Beobachtung durchgef¨ uhrt wird. Falls beide Sch¨ atzergebnisse signifikant voneinander abweichen, kann man annehmen, dass es sich um eine einflussreiche Beobachtung handelt. Zur Identifikation von Ausreißern und einflussreichen Beobachtungen k¨ onnen sowohl graphische als auch analytische Methoden verwendet werden. Bei graphischer Analyse ist zu pr¨ ufen, ob eine oder mehrere Beobachtungen von anderen Datenpunkten stark abweichen. Bei analytischen Methoden k¨ onnen einerseits verschiedene Transformationen der Residuen, wie z.B. standardisierte, extern studentisierte, rekursive oder BLUS-Residuen, zur Untersuchung genutzt werden. Andererseits kann f¨ ur die Bestimuckgegriffen mung von einflussreichen Beobachtungen auf die Matrix X(X  X)−1 X  zur¨ werden. Außerdem ist es m¨ oglich, durch Einf¨ uhrung von Dummy-Variablen den Einfluss von zweifelhaften Beobachtungen auf das Sch¨ atzergebnis zu untersuchen. Mittlerweile enthalten alle statistischen und o ¨konometrischen Programmpakete umfangreiche M¨ oglichkeiten zur Identifikation von Ausreißern und einflussreichen Beobachtungen.

L¨ osung zu Aufgabe 139: a) Die statistische Abh¨ angigkeit der exogenen Variablen untereinander wird als Multikollinearit¨ at bezeichnet. Von totaler Multikollinearit¨ at spricht man, wenn sich andig durch eine andere oder durch mehrere exoeine exogene Variable xk vollst¨ gene Variablen linear erkl¨ aren l¨ asst. In diesem Fall liefert die betrachtete exogene atzlichen Informationen f¨ ur die Erkl¨ arung der endogenen VaVariable xk keine zus¨ riablen. Formal gesehen, kann in dieser Situation die exogene Variable xk als eine Linearkombination von anderen exogenen Variablen dargestellt werden. Dies f¨ uhrt dazu, dass die Matrix X in der Regression y = Xβ+u keinen vollen Rang mehr hat. Aus diesem Grund existiert f¨ ur die Koeffizientensch¨ atzungen β = (X  X)−1 X  y die  −1 notwendige Matrix (X X) nicht mehr. b) F¨ ur die Varianz der Koeffizientensch¨ atzung βk gilt σ2 1 . · V (βˆk ) =  ¯ik )2 (1 − Rk2 ) (xik − x - vgl. H¨ ubler (1989, S. 91). Dabei ist Rk2 das Bestimmtheitsmaß einer Regression mit xk als endogene Variable auf alle anderen Variablen aus der Matrix X als

256

3 Erweiterungen des Regressionsmodells exogene Variablen. Dabei misst Rk2 den Grad der linearen Abh¨ angigkeit zwischen xk und allen anderen exogenen Variablen. Der Varianzinflationsfaktor (V IFk ) der exogenen Variable xk wird definiert als V IFk =

1 . 1 − Rk2

Je st¨ arker (schw¨ acher) die lineare Abh¨ angigkeit zwischen xk und anderen exogenen Variablen ist, um so gr¨ oßer (kleiner) ist V IFk und somit auch die V (βˆk ), da σ2 · V IFk . V (βˆk ) =  ¯ik )2 (xik − x Der Varianzinflationsfaktor gibt an, wie stark die Varianzen der Sch¨ atzfunktionen f¨ ur die Koeffizienten von Multikollinearit¨ at betroffen sind. Ein Varianzinflationsubler 1989, S. 99). faktor ist als hoch zu beurteilen, wenn V IFk > 10 (vgl. H¨

L¨ osung zu Aufgabe 140: a) Wenn man versucht, das Problem der Multikollinearit¨ at durch Unterdr¨ ucken einzelner, Multikollinearit¨ at (MK) erzeugender Regressoren zu beseitigen, dann kann dies in der Tat auf Fehlspezifikation hinauslaufen. Es gibt aber andere Verfahren, die negativen Konsequenzen von MK zu beseitigen, bei denen keine Fehlspezifikation resultiert wie z.B. bei der Verwendung externer Information. Anzumerken bleibt, dass MK selbst nicht zu beseitigen ist, sondern nur die negativen Konsequenzen, d.h. zum Beispiel große Varianzen der Koeffizientensch¨ atzer lassen sich reduzieren. Eine vollst¨ andige Beseitigung d¨ urfte nur im Ausnahmefall m¨ oglich sein. b) Bei dem vorgeschlagenen Verfahren werden keine Einflussgr¨ oßen unterdr¨ uckt, sondern nur die Koeffizienten mit unterschiedlichen Daten getrennt ermittelt. Ob auf diesem Weg unterschiedliche Ergebnisse gegen¨ uber der u ¨blichen multiplen Regressionssch¨ atzung aufgrund eines geeigneten Verfahrens im Umgang mit MK gewonnen werden oder ob abweichende Verhaltensweisen auf der Querschnittsebene und im Zeitablauf ausschlaggebend sind, l¨ asst sich nicht allgemein beantworten. c) Neben V IF werden auch Eigenwerte λ der Matrix X  X zur Beurteilung der Multikollinearit¨ at herangezogen. Da die Eigenwerte vom Messniveau der Variablen abh¨ angig sind, wird auf ihrer Basis ein dimensionsloser Konditionsindex definiert & λmax , κk = λk oßte Eigenwert ist. Je gr¨ oßer ein Konwobei λk der k-te Eigenwert und λmax der gr¨ ditionsindex ist, ein um so h¨ oherer Multikollinearit¨ atsgrad wird damit angezeigt. Als kritisch gilt κk > 30.

3.8 L¨ osungen

257

Aus der Tabelle ist ersichtlich, dass der Grad der Multikollinearit¨ at bei keiner der exogenen Variablen als kritisch zu beurteilen ist, da V IF (ln B) = 2, 755 < 10 und V IF (ln BAV ) = 2, 755 < 10. Nichtsdestotrotz weisen der zweite und der dritte Konditionsindex auf einen mittleren Multikollinearit¨ atsgrad hin . Die Gleichheit der Varianzinflationsfaktoren der Variablen ln B und ln BAV ist kein Zufall. In einem Modell mit zwei echten exogenen Variablen x1 und x2 sind die Varianzinflationsfaktoren dieser Variablen immer gleich. Der Varianzinflationsangt von Rk2 ab faktor der Variablen xk h¨ V IFk =

1 . 1 − Rk2

Rk2 ergibt sich, wenn die eine echte exogene Variable xk auf die andere exogene Variable regressiert wird. Bei der Regression von x1 auf x2 und bei der Regression von x2 auf x1 ergibt sich das gleiche Bestimmtheitsmaß: R12 = R22 . Aus diesem Grund sind auch die Varianzinflationsfaktoren gleich: V IF1 = V IF2 . Die Varianzanteile zeigen, welcher Anteil der Varianz eines Koeffizientensch¨ atzers origen quadrierten Element des Eigenvektors V (βˆk ) durch die mit dem dazugeh¨ gewichteten inversen Eigenwerte zustande kommt. Sie lassen sich u ¨ber die Singul¨arwertzerlegung wie folgt ermitteln φki =

2 λ−1 k gki −1 2 , ΣK i=1 λi gki

orenden Eigenvektors ist. wobei gki das i-te Element des zum Eigenwert λk geh¨ Die Betrachtung der Varianzanteile zeigt, dass der dritte und damit kleinste Eigenwert wesentlich zur Erkl¨ arung der Varianzen der Koeffizientensch¨ atzungen beitr¨ agt. Ca. 59% der Varianz des Sch¨ atzers f¨ ur das absolute Glied β0 , fast die gesamte Varianz des Sch¨ atzers f¨ ur β1 der Variablen ln B und mehr als 65% der Varianz des uckSch¨ atzers f¨ ur β2 der Variablen lnBAV ist auf den kleinsten Eigenwert zur¨ zuf¨ uhren.

Literaturverzeichnis Amemiya, T. (1981): Qualitative Response Models: A Survey, Journal of Economic Literature 19, 1483-1536. Baltagi, B.H. (1998):] Econometrics, New York: Springer. ¨ Bamberg, G. und U.K. Schittko (1979): Einf¨ uhrung in die Okonometrie, Stuttgart: Gustav Fischer. Berndt, E.R. (1991): The Practice of Econometrics, New York: Addison-Wesley Publishing. Breusch, T.S. und A.R. Pagan (1980): The Lagrange Multiplier Test and Its Applications to Model Specifications in Econometrics, Review of Economic Studies 47, 230 - 254. Buse, A. (1973): Goodness of Fit in Generalized Least Squares Estimation, American Statistician 27, 106 - 108. Cameron, A.C. und P.K. Trivedi (1998): Regression Analysis for Count Data, Cambridge University Press. Cameron, A.C. und P.K. Trivedi (2005): Microeconometrics, Cambridge University Press. Draper, N.R. und H. Smith (1998): Applied Regression Analysis, 3rd ed., New York: John Wiley & Sons. Durbin, J. (1970): Testing for serial Correlation in Least-Squares Regressions when some of the Regressors are Lagged Dependent Variables, Econometrica 38, 410 - 421. Enders, W. (2004): Applied Econometric Time Series, New York: John Wiley & Sons. Goldberger, A.S. (1991): A Course in Econometrics, Cambridge: University Press. Greene, W.E. (2003): Econometric Analysis, 5th ed., Upper Saddle River: Prentice Hall.

260

Literaturverzeichnis

Harvey, A.C. (1993): Time Series Models, New York: Harvester. ¨ H¨ ubler, O.(1989): Okonometrie, Stuttgart: Gustav Fischer. H¨ ubler, O. (2005): Einf¨ uhrung in die empirische Wirtschaftsforschung, M¨ unchen: Oldenbourg. Johnston, J. und J. DiNardo (1997): Econometric Methods, New York: McGraw Hill. Koenker, R. (1981): A Note on Studentizing a Test for Heteroscedasticity, Journal of Econometrics 17, 107 - 112. KVI (2001): Wege zu einer besseren informationellen Infrastruktur, Baden-Baden: Nomos Verlagsanstalt. Leamer, E.E. (1985): Sensitivity Analyses Would Help, American Economic Review 75, 308 - 313. Leung, S.F. und S. Yu (2000): How Effective Are the RESET Tests for Omitted Variables? Communications in Statistics 29, 879 - 902. Long, J.S. und J. Freese (2003): Regression Models for Categorial Dependent Variables Using Stata, College Station TX: Stata Press. Maddala, G.S. (1988): Introduction to Econometrics, New York: MacMillan. Ronning, G. (1991): Mikro¨ okonometrie, Berlin: Springer. Schmidt, P. (1976): Econometrics, New York, Basel: Marcel Dekker. ¨ Schneeweiß, H. (1990): Okonometrie, 2.Aufl., W¨ urzburg: Physica-Verlag. Str¨ obele, W. (1995): Inflation - Einf¨ uhrung in Theorie und Politik, M¨ unchen: Oldenbourg. ¨ Winker, P. (2007): Empirische Wirtschaftforschung und Okonometrie, 2. Aufl., Berlin: Springer. Wooldridge, J.M. (2006): Introductory Econometrics, 3rd. ed. Southern-Western College Publishing.