Vorhersage in linearen Modellen [Reprint 2021 ed.] 9783112597705, 9783112597699


173 12 39MB

German Pages 188 [196] Year 1976

Report DMCA / Copyright

DOWNLOAD PDF FILE

Recommend Papers

Vorhersage in linearen Modellen [Reprint 2021 ed.]
 9783112597705, 9783112597699

  • 0 0 0
  • Like this paper and download? You can publish your own PDF file online for free in a few minutes! Sign Up
File loading please wait...
Citation preview

HELGE TOUTENBURG

Vorhersage in linearen Modellen

Vorhersage in linearen Modellen Dr. rer. nat. HELGE T O U T E N B U R G Zentralinstitut für Mathematik und Mechanik der Akademie der Wissenschaften der DDR

Mit 3 Tabellen

AKADEMIE-VERLAG • BERLIN 1975

Erschienen im Akademie-Verlag, 108 Berlin, Leipziger Str. 3 —4 © Akademie-Verlag, Berlin, 1975 Lizenznummer: 202- 100/405/75 Gesamtherstellung: VEB Druckerei „Thomas Müntzer", 582 Bad Langensalza Bestellnummer: 761 884 4 (6143) • LSV 1075 Printed in GDR EVP 28,—

Yorwort Lineare Modelle nehmen eine zentrale Stellung sowohl in der Mathematischen Statistik selbst als auch in vielen Anwendungsbereichen statistischer Forschung ein, sei es in der Ökonomie, der Biologie aber auch in der Technik. Sie gestatten die Beschreibung und statistische Inferenz wesentlicher stochastischer Prozesse und zeichnen sich durch eine gute mathematische Handhabbarkeit, Flexibilität und ein hohes Niveau ihrer theoretischen Fundierung aus. In den letzten Jahren wurden die Forschungen insbesondere über das Regressionsmodell um eine Reihe neuer Ideen bereichert. Dazu zählen die Verwendung von a-priori-Restriktionen und Zusatzinformationen über die Modellparameter, die Erweiterung der Punktschätzungen auf Schätzbereiche verschiedener Typen und die einheitliche Behandlung verschiedener Komplikationen und Modellerweiterungen, die für die Belange der Praxis von Bedeutung sind. Von den Mitarbeitern des Berliner Seminars für Mathematische Statistik unter Leitung von Herrn Prof. Dr. 0 . B U N K E wurden die Probleme der Schätzung unter Zusatzinformation und der Vorhersage schon sehr lange intensiv erforscht, wobei zahlreiche neue Resultate erzielt wurden. Ausgehend von der Bedeutung linearer Modelle für die Praxis und unter Berücksichtigung der Tatsache, daß eine einheitliche Darstellung der Vorhersage- und Schätzmethodik bisher nur in Ansätzen existiert, hat der Verfasser sehr gern die Gelegenheit genutzt, das vorliegende Buch unter Verwendung der internationalen Literatur und eigener Originalarbeiten zu schreiben. Dabei wird das Hauptanliegen darin gesehen, das Aufspüren von Zusatzinformation und die Anwendung der restriktiven Techniken in Schätzung und Vorhersage bei Vorliegen linearer Modelle in der Ökonomie, Technik, Biologie, Landwirtschaft und Medizin zu unterstützen. Dementsprechend wird neben den theoretischen Darlegungen und den Beweisführungen auf die Praktikabilität der Schätzungen und Vorhersagen großer Wert gelegt. Für das Verständnis des Buches sind Grundkenntnisse in der Statistik und linearen Algebra, insbesondere der Matrixalgebra, erforderlich. Die Sätze werden, bis auf einige Ausnahmen, ausführlich bewiesen, so daß der vorliegende Band sowohl für Wissenschaftler der genannten Disziplinen als auch für Anwender und Studenten höherer Semester geeignet erscheint. Die im Text verwendeten Hilfssätze aus der linearen Algebra und der

VI

Vorwort

Matrizentheorie sowie über die Verteilung von Funktionen normalverteilter Variabler sind im Anhang enthalten. Es ist dem Verfasser ein Bedürfnis, Frau Prof. Dr. HELGA B U N K E und Frau Prof. em. Dr. Dr. h. c. E R N A W E B E R sowie den Herren Prof. Dr. H. A H E E N S , Prof. Dr. H . BANDEMER, Prof. Dr. 0 . B U N K E , Prof. Dr. M. P E SCHEL und Doz. Dr. habil. D. RASCH für ihre zahlreichen kritischen Hinweise und Vorschläge zu danken, die weitgehend noch im Druck Berücksichtigung finden konnten. Frau M. ZANDER sei hier für die Sorgfalt gedankt, mit der sie die Reinschrift des Manuskriptes besorgte. Schließlich möchte ich dem Akademie-Verlag und insbesondere Frau Dipl.-Math. R . H E L L E meinen Dank für die gute Zusammenarbeit aussprechen. Berlin, im November 1974

H . TOUTENBUEG

Inhaltsverzeichnis 1.

Allgemeine Probleme der Vorhersage

1

2. 2.1. 2.2. 2.3. 2.4. 2.5. 2.6.

Modelle der linearen Regression Begriffe und Definitionen der Ökonometrie Das ökonometrische Modell Die reduzierte Form Das multivariate lineare Regressionsmodell Das klassische multivariate lineare Regressionsmodell Das verallgemeinerte lineare Regressionsmodell

4 4 9 14 16 19 21

3. 3.1. 3.2. 3.3.

23 23 24

3.4. 3.5. 3.6. 3.7.

Das klassische lineare Regressionsmodell Deskriptive lineare Regression Prinzip der kleinsten Quadrate Geometrische Eigenschaften der Kleinste-Quadrat-Schätzung Schätzung) Beste lineare erwartungstreue Schätzung Multikollinearität Klassische Normalregression Prüfen von linearen Hypothesen

4. 4.1. 4.2. 4.3. 4.4.

Das verallgemeinerte lineare Regressionsmodell Optimale lineare Schätzungen von ß AiTKEN-Schätzung Fehlspezifikation der Kovarianzmatrix Heteroskedastie und Autoregression

5. 5.1. 5.2. 5.3. 5.4. 5.5.

Optimale Punktvorhersagen im verallgemeinerten linearen modell Das Vorhersagemodell Optimale inhomogene Vorhersage Optimale homogene Vorhersagen Zusammenhang Schätzung-Vorhersage Zusatzinformation in Gestalt von Abschätzungen

6. 6.1. 6.2. 6.3. 6.4. 6.5. 6.6.

Optimale Vorhersagen unter linearen Restriktionen Restriktionen und Zusatzinformation Stochastische Restriktionen Zusatzinformation über er2 E x a k t e Restriktionen Zusatzschätzung und schrittweise Regression Prüfen linearer Hypothesen

86 86 89 93 97 100 105

7. 7.1. 7.2.

Vorhersage und Modellwahl Restriktionen im nichtrestriktiven Modell Die Vergleichskriterien

109 109 112

(KQ27 34 40 45 47 55 55 60 62 64

Regressions67 67 69 71 73 75

Inhaltsverzeichnis

Vili 7.3. 7.4.

Das Entscheidungsproblem Schätzung und Modellwahl

117 121

8. 8.1. 8.2. 8.3. 8.4. 8.5. 8.6.

Optimale Bereichsvorhersagen Begriffe und Definitionen q-Vorhersageintervalle g-Bereiche im Regressionsmodell (p, j)-Vorhersageintervalle Lineare Nützlichkeitsfunktionen Maximale Nützlichkeit und optimale Tests

123 123 125 128 130 133 139

9. 9.1.

Vorhersage in ökonometrischen Modellen Optimale Vorhersagen im Modell der unabhängigen stochastischen Regression Vorhersage im multivariaten Regressionsmodell Das multivariate (klassische) gleichzeitig unkorrelierte Regressionsmodell Reduzierte Form und Vorhersage

141

9.2. 9.3. 9.4.

141 145 149 153

Tabellen

157

Anhang

160

Literaturverzeichnis

171

Sachverzeichnis

175

1.

Allgemeine Probleme der Vorhersage

Die gesellschaftliche Entwicklung in der Gegenwart ist gekennzeichnet durch eine ständig komplizierter werdende Struktur vieler Bereiche des gesellschaftlichen Lebens sowie durch eine intensivere Verflechtung von Einzelstrukturen, nicht zuletzt hervorgerufen durch das rasche Entwicklungstempo der Produktivkräfte und einen enormen Zuwachs an wissenschaftlichen und anderen Informationen, Ideen und Methoden. Die Beherrschung der materiellen und geistigen Prozesse bedingt ihre effektive Steuerung, die einerseits durch eine zunehmend effektivere Beherrschung von Einzelprozessen und andererseits durch eine ständig steigende Komplexität der häufig in stochastischer Wechselwirkung zueinander stehenden Prozesse charakterisiert wird. Die Fülle der zu steuernden Größen führt zu einem enormen Zeitdruck und erhöht die Menge möglicher Lösungswege (Varianten der Steuerung). Wenn man dabei nur von den Informationen ausgeht, die ein System in einem fixierten Zeitpunkt beschreiben und nicht die innere Dynamik des Systems (etwa zeitliche Trends) und Wechselbeziehungen zu anderen Systemen in der Zukunft berücksichtigt, so kann seine Steuerung nicht optimal sein. Im Prinzip wird das System dann überhaupt nicht steuerbar sein. Ein wesentlicher Bestandteil einer Steuerungsfunktion ist somit die Vorhersage der Entwicklung des Systems unter Berücksichtigung seiner inneren Dynamik und der Veränderung der äußeren Bedingungen, d. h. der Beeinflussung durch andere Systeme. Diese inneren und äußeren Bedingungen und Restriktionen sind in dem Modell des Systems zu berücksichtigen, für das eine Steuerung bestimmt werden soll. Die bereits entwickelten Vorhersagemethodiken sind von ihrer Aussagekraft und ihrem Anwendungsgebiet her recht differenziert, man kann sie jedoch in drei Klassen einteilen (DOBKOW [ 1 ] ) Extrapolationsverfahren, Methoden der Experimentbeurteilung und Modellierungsverfahren. Der von DOBBOW gegebene Katalog von Prognoseverfahren weist Mängel in der Hinsicht auf, daß die Grenzen der drei Klassen nicht scharf zu ziehen sind, so daß Überschneidungen im Sinne einer gegenseitigen Durchdringung der Methoden auftreten. So trägt etwa die Experiment-

2

1. Allgemeine Probleme der Vorhersage

beurteilung häufig aktiv zur Modellbildung bei. Vom Standpunkt der Erkenntnistheorie aus bietet sich folgende Klassifizierung als vorteilhaft an: Beschreibungsmodell, E rklärungsmodell und Evolutionsmodell, wobei letzteres im wesentlichen die Grundlage der Prognose darstellt und gewissermaßen den höchsten Grad an Weiterbildung eines kognitiven Prozesses repräsentiert. Ein kognitives Modell ist eine kombinierte theoretisch-empirische Konstruktion, dessen Dynamik man formal in der Kette erfassen kann, wobei E eine abgegrenzte Menge empirischer Beobachtungen, T ein Theoriengebilde und => einfestgelegtes (logisches) Schlußschema bedeuten. Die Dichotomie „beschreibend — erklärend" charakterisiert WOLD [1] wie folgt beschreibend

erklärend

univariat (jeweils eine Variable bzw. ein Zusammenhang beobachtet)

multivariat (Strukturen beobachtet)

passiv (erhält den modus videndi des Objekts)

aktiv (bis hin zur Steuerung)

Bestätigung der Bedingungen Stichprobe

Veränderung der Bedingungen Schlußschema (logisch im Sinne der Theorie)

Die Statistik liefert viele Beispiele für kognitive Modelle, etwa in der Schätztheorie. Von der Theorie her schließt man auf die Schätzbarkeit etwa des Parameters p der Binomialverteilung, von der Stichprobe (Empirie) mittels einer Schätzung p auf den unbekannten Parameter. Die meisten bekannten Verfahren tragen empirischen Charakter. Ein ausschließlich empirisches Herangehen an die Vorhersage ist jedoch völlig unzureichend, da es in der Regel auf früheren Erfahrungen beruht, die bei weitem nicht immer unter veränderten Bedingungen verwertbar, d. h. extrapolierbar sind. Deshalb ist eine wissenschaftliche Durchdringung der Vorhersageprobleme notwendig, die es erlaubt, systematisch an die Ausarbeitung von Vorhersagemethoden, an die Bewertung der Exaktheit

3

1. Allgemeine Probleme der Vorhersage

von Vorhersagen, die Festlegung der maximal möglichen und sachlogisch vertretbaren Spannweite von Vorhersagezeiträumen usw. heranzugehen. Die Formulierung und Lösung der mit der Vorhersage zusammenhängenden allgemeinen Probleme sind Gegenstand der Prognostik, einer in der Herausbildung befindlichen neuen Wissenschaftsdisziplin, in die Teilgebiete und Ergebnisse anderer Wissenschaften (z. B. Kybernetik, Ökonometrie, Mathematik) einfließen. Nach GWISCHIANI/LISITSCHKIN [1] ist die Prognostik „. . . eine wissenschaftliche Disziplin, die die allgemeinen Strukturprinzipien der Methoden für die Prognose der Entwicklung von beliebig gearteten Objekten und die •Gesetzmäßigkeiten für die Ausarbeitung von Prognosen untersucht". Für die Prognose wollen wir folgende D e f i n i t i o n geben: Eine P r o g n o s e ist eine Aussage, die ein zum Zeitpunkt der Erstellung der Prognose noch nicht beobachtbares Ereignis in den Termini irgendeines sprachlichen Systems fixiert und folgenden Bedingungen genügt: 1. Zum Zeitpunkt der Prognose kann man nicht eindeutig feststellen, ob die Prognose wahr oder falsch ist. 2. Zum Zeitpunkt der Prognose muß man über Verfahren zur a-priorischen Einschätzung der Wahrscheinlichkeit für das Eintreten des vorhergesagten Ereignisses bzw. über Verfahren zur Risikobestimmung bei Annahme einer Prognosevariante verfügen. 3. Eine Prognose muß einen Hinweis auf ein Raum- oder Zeitintervall für das Eintreten des vorhergesagten Ereignisses enthalten. [In der Statistik wird das Risiko häufig direkt mit einem Raum-ZeitIntervall verkettet, vgl. etwa die Konfidenztheorie (GOLDBERGER [1]).] Um zu einer inhaltlichen und sprachlichen Abgrenzung zu kommen, wollen wir im folgenden unter V o r h e r s a g e eine Prognose in einem festen, etwa durch Verteilungsannahmen und Parameterdefinitionen bzw. -restriktionen determinierten Modell verstehen. Wir werden uns später mit linearen Modellen der Ökonometrie und der Regression und der Ableitung von Vorhersagen in diesen Modellen beschäftigen. Bei den wissenschaftlichtechnischen Prognosen unterscheidet man generell zwischen zwei Klassen. 1. Erlcundungs- oder Orientierungsprognosen rechnung)

(prognostische Vorwärts-

Das Ziel besteht im Aufdecken künftiger Bedürfnisse (Probleme) der Wissenschaft, Technik oder Volkswirtschaft und der wissenschaftlichtechnischen Möglichkeiten zu ihrer Befriedigung. Mit diesen Prognosen werden folglich Ziele erarbeitet und Wege zu ihrer Realisierung angedeutet.

4

2. Modelle der linearen Regression

2. Normative Prognosen (prognostische Rückrechnung) Die Aufgabe besteht im Auffinden von Wegen zur Realisierung bereits prognostizierter oder auf anderem Wege erarbeiteter Zielstellungen. Im allgemeinen wird es konkurrierende Lösungswege geben, so daß die normative Prognose die Alternativen durch Konfrontation von Zielen und Ressourcen zu erarbeiten und zu bewerten hat. Normative Prognose führt also über Rückkopplung zur Analyse und Präzisierung der prognostizierten Zielstellung; sie wirkt damit ausgesprochen konstruktiv und stimulierend auf die Entwicklung des Prognoseobjektes. Eine wesentliche Bedeutung bei der Weiterentwicklung der Vorhersagemethodik kommt der Mathematik zu. Die Mathematik zeichnet sich gegenüber anderen Wissenschaften durch ihre Unabhängigkeit vom Sachgegenstand (Prognoseobjekt) aus, die durch Abstraktion von spezifischen Eigenschaften des Systems bzw. Objekts erreicht wird. Sie besitzt die Fähigkeit zur Formalisierung und kann auf Grund ihres hohen Abstraktionsgrades andere Sachverhalte formalisieren und vereinheitlichen. Wegen der erwähnten Beziehung der Prognostik zur Steuerung von Systemen oder Prozessen spielen bei ihrer mathematischen Durchdringung vor allem Methoden der Operationsforschung, der Wahrscheinlichkeitsrechnung, mathematischen Statistik, der Spieltheorie, Algorithmen- und Automatentheorie, der Kybernetik und die Datenverarbeitung eine Rolle. Die mathematische Statistik besitzt in der Vorhersagetechnik bereits gewisse Traditionen, etwa in der Modellierung, Schätzung und Extrapolation von Zeitreihenmodellen der Ökonomie oder den Verfahren der Trendabschätzung, wobei in der Modellbildung solche statistischen Disziplinen wie Versuchsplanung, Varianz- und Korrelationsanalyse, Regressionsanalyse, nichtparametrische und parametrische'Test- und Entscheidungstheorie komplex eingesetzt werden. Für viele Modelle, vor allem der Ökonometrie, existieren Punkt- und Bereichsvorhersagen, die durch Minimierung gewisser Risikofunktionen bzw. nach Prinzipien der Konfidenztheorie abgeleitet werden.

2.

Modelle der linearen Regression

2.1.

Begriffe und Definitionen der Ökonometrie

Die Methodik der Regressionsanalyse, einer der klassischen Bestandteileder mathematischen Statistik, bildete den Ansatzpunkt der modernen

4

2. Modelle der linearen Regression

2. Normative Prognosen (prognostische Rückrechnung) Die Aufgabe besteht im Auffinden von Wegen zur Realisierung bereits prognostizierter oder auf anderem Wege erarbeiteter Zielstellungen. Im allgemeinen wird es konkurrierende Lösungswege geben, so daß die normative Prognose die Alternativen durch Konfrontation von Zielen und Ressourcen zu erarbeiten und zu bewerten hat. Normative Prognose führt also über Rückkopplung zur Analyse und Präzisierung der prognostizierten Zielstellung; sie wirkt damit ausgesprochen konstruktiv und stimulierend auf die Entwicklung des Prognoseobjektes. Eine wesentliche Bedeutung bei der Weiterentwicklung der Vorhersagemethodik kommt der Mathematik zu. Die Mathematik zeichnet sich gegenüber anderen Wissenschaften durch ihre Unabhängigkeit vom Sachgegenstand (Prognoseobjekt) aus, die durch Abstraktion von spezifischen Eigenschaften des Systems bzw. Objekts erreicht wird. Sie besitzt die Fähigkeit zur Formalisierung und kann auf Grund ihres hohen Abstraktionsgrades andere Sachverhalte formalisieren und vereinheitlichen. Wegen der erwähnten Beziehung der Prognostik zur Steuerung von Systemen oder Prozessen spielen bei ihrer mathematischen Durchdringung vor allem Methoden der Operationsforschung, der Wahrscheinlichkeitsrechnung, mathematischen Statistik, der Spieltheorie, Algorithmen- und Automatentheorie, der Kybernetik und die Datenverarbeitung eine Rolle. Die mathematische Statistik besitzt in der Vorhersagetechnik bereits gewisse Traditionen, etwa in der Modellierung, Schätzung und Extrapolation von Zeitreihenmodellen der Ökonomie oder den Verfahren der Trendabschätzung, wobei in der Modellbildung solche statistischen Disziplinen wie Versuchsplanung, Varianz- und Korrelationsanalyse, Regressionsanalyse, nichtparametrische und parametrische'Test- und Entscheidungstheorie komplex eingesetzt werden. Für viele Modelle, vor allem der Ökonometrie, existieren Punkt- und Bereichsvorhersagen, die durch Minimierung gewisser Risikofunktionen bzw. nach Prinzipien der Konfidenztheorie abgeleitet werden.

2.

Modelle der linearen Regression

2.1.

Begriffe und Definitionen der Ökonometrie

Die Methodik der Regressionsanalyse, einer der klassischen Bestandteileder mathematischen Statistik, bildete den Ansatzpunkt der modernen

2.1. Begriffe und Definitionen der Ökonometrie

5

ökonometrischen Theorie, die Verallgemeinerungen der Regressionsanalyse sowohl im modelltheoretischen Aspekt als auch im Anwendungsbereich der Verfahren beinhaltet. Nach J . TINBERGEN [ 1 ] ist „Ökonometrie der Name für einen Wissenschaftszweig, in dem mathematisch-ökonomische und mathematisch-statistische Forschung kombiniert angewendet werden". Ökonometrie beinhaltet demnach sowohl Elemente der Ökonomie/Wirtschaftsmathematik als auch der mathematischen Statistik. Dabei wird die Modellbildung stets eine Einheit mit den Methoden bilden. Die in der Ökonometrie benutzten statistischen Verfahren sind in hohem Maße auf die spezifischen ökonometrischen Probleme ausgerichtet und infolgedessen stark spezialisiert. Diese ökonometrisch orientierte Akzentuierung des statistischen Instrumentariums setzt sich, angefangen von der Modellbildung und -prüfung bis hin zu den Schätz- und Testverfahren, einheitlich fort. In den ökonomischen Gesetzmäßigkeiten spielen stochastische Einflußfaktoren eine ausgeprägte Rolle, so daß der ökonomischen Realität angepaßte ökonometrische Modelle Hypothesen über Verteilungseigenschaften der Zufallsvariablen implizieren müssen. Die Spezifikation derartiger Hypothesen ist eine der Hauptaufgaben ökonometrischer Modellierung. Bei der Modellierung einer ökonomischen (oder etwa auch naturwissenschaftlichen) Relation setzen wir voraus, daß diese über einen genügend langen Zeitraum (d. h. über hinreichend viele Beobachtungsperioden) eine relative Konstanz besitzt, da sonst ihre allgemeine Gesetzmäßigkeit nicht erfaßbar wäre. Wir unterscheiden zwei Charakteristiken einer Gesetzmäßigkeit, die Variablen und die Parameter. Die Variablen, deren Einteilung wir noch spezifizieren, sind diejenigen Charakteristiken, deren Werte im Beobachtungszeitraum variieren können. Alle sich nicht verändernden Charakteristiken der Relation bilden ihre Struktur. Zur Struktur gehören die funktionale Gestalt der Relationen einschließlich der Beziehungen zwischen den wesentlichen Variablen, der Typ der Wahrscheinlichkeitsverteilung der Zufallsvariablen und die Parameter der Modellgleichungen. Eine gewisse Variation der Variablen des Modells ist notwendig, um die Gesetzmäßigkeit hervortreten zu lassen. Die Statistik hat mit der Versuchsplanung eine eigenständige Theorie über die im Sinne gewisser Kriterien optimale Variation der Modellvariablen entwickelt, deren Erkenntnisse sich wegen der meist passiven Stellung der ökonometriker zur ökonomischen Realität jedoch nur in Ausnahmefällen für ihre Zwecke verwerten lassen. Dies liegt in dem kbmplexen Charakter

6

2. Modelle der linearen Regression

der Volkswirtschaft begründet, bei der eine Versuchsplanung z. B. Eingriffe in den Ablauf der Produktion erforderlieh machen könnte. Ändert sich die Struktur der Relation im Beobachtungszeitraum, so spricht man von einem Strukturbruch (qualitativer Sprung). Als Gütekriterium eines ökonometrischen Modells wird man u. a. seine Prognosefähigkeit und ihre relative Stabilität bei Strukturschwankungen ansehen (Vgl. ScHNEEWEISS [ 1 ] ) .

Wir wollen nun die Begriffe ökonometrisches Modell und Struktur erläutern: „Das ökonometrische Modell ist der Inbegriff aller bezüglich des studierten ökonomischen Phänomens a priori getroffenen Hypothesen. Das Modell stellt sich demnach als ein Katalog von Modellannahmen (a-priori-Hypothesen, a-priori-Spezifikationen) dar. Diese Annahmen sind Ausdruck der a priori verfügbaren Informationen und Vermutungen über die ökonomischen und stochastischen Eigenschaften des Phänomens" (SCHÖNFELD [ 1 ] ) .

Zur klaren Definition des Strukturbegriffes benötigen wir die sachlogische Einteilung der Modellvariablen. Bei der Modellbildung werden Variablen unerklärt übernommen, man bezeichnet sie als exogene Variablen. Die vom Modell beschriebenen Variablen heißen endogen. Sie sind funktional oder zumindest statistisch von den exogenen Variablen abhängig. Die dritte Gruppe wird von den Fehlervariablen gebildet. Diese drei Typen von Variablen lassen sich für unsere Zwecke am besten durch ihre statistischen Eigenschaften unterscheiden: Exogene Variablen sind innerhalb des Modells nichtstochastisch, sie liegen als feste Zahlenwerte vor. Die Vorgabe der exogenen Variablen als nichtstochastisch besteht in vielen Fällen zu Recht, etwa im Bereich der experimentellen Wissenschaften (Vorgabe eines Versuchsplans) aber auch in der Ökonomie (Vorgabe von Fonds). I m allgemeinen werden zumindest einige exogene Variablen stochastisch sein, jedoch zum Zeitpunkt der Schätzung als Realisierungen vorliegen. Für das Ziel der Regressionsanalyse (Schätzung des Mittelwertes der endogenen Variablen bei beliebig gegebenen exogenen Variablen) ist zunächst eine Beschränkung auf nichtstochastische exogene Variablen gerechtfertigt. I m K a p . 9 werden dann auch stochastische exogene Variablen zugelassen. Endogene Variablen enthalten den Einfluß der zufälligen Fehler, sie sind also (vor ihrer Realisierung) stochastische Variablen. Die Gestalt der bedingten Verteilung der endogenen Variablen bei gegebenen Werten der exogenen Variablen wird durch die Verteilung der Fehler und die Modellgleichung bestimmt. Damit können wir folgende Definition geben: Eine ökonometrische Struktur ist eine Gesamtheit von Relationen und Annahmen, die die

2.1. Begriffe und Definitionen der Ökonometrie

7

gemeinsame bedingte Verteilung aller endogenen Variablen unter der Bedingung vorgegebener Werte der exogenen Variablen eindeutig bestimmt. Die Gesamtheit der Strukturen, die mit allen Modellannahmen verträglich sind, bildet die Menge der zulässigen Strukturen. Unter der „fundamentalen Arbeitshypothese" (SCHÖNFELD [1]), daß die dem gesamten Beobachtungsmaterial zugrundeliegende, unbekannte wahre Struktur in der Menge der zulässigen Strukturen enthalten ist, wird der Statistiker um eine möglichst gute Annäherung an die wahre Struktur durch Entwicklung geeigneter Schätz- und Prüfverfahren bemüht sein. Bei dynamischen Modellen (das sind Modelle, bei denen die endogenen Variablen zusätzlich einer zeitlichen Entwicklung unterworfen sind, die durch Relationen und Einflüsse außerhalb des Modells bestimmt wird) läßt sich die Einteilung der Variablen noch weiter verfeinern (vgl. Beispiel 3): Endogene Variablen werden unterteilt in die gemeinsam abhängigen Variablen (sie werden zum jeweils gegenwärtigen Zeitpunkt beobachtet) und in die verzögerten endogenen Variablen (sie sind bereits vor dem gegenwärtigen Zeitpunkt beobachtet worden). Die exogenen Variablen bilden gemeinsam mit den verzögerten endogenen Variablen die vorherbestimmten Variablen. Im linearen Regressionsmodell spricht man häufig von den Begressoren (vorherbestimmte Variablen) und den Regressanden (abhängige Variablen). Sind die Modellgleichungen nach den gemeinsam abhängigen Variablen aufgelöst (wie es in der linearen Regression als Normalfall vorausgesetzt wird) und als Funktion der vorherbestimmten Variablen und der Fehler dargestellt, so liegt das ökonometrische Modell in der reduzierten Form vor. Anderenfalls spricht man von der strukturellen Form der Gleichungen. Nach der Art des Auftretens der Variablen und der Parameter in den Gleichungen unterscheidet man folgenden Typen: lineare Gleichung: nichtlineare Gleichung:

linear in Parametern und Variablen sonst

Ein Modell heißt linear, wenn alle Gleichungen linear sind. Ein Modell heißt univariat, wenn es nur eine endogene Variable enthält. Ein Modell mit mehr als einer endogenen Variablen heißt multivariat. Eine Modellgleichung der reduzierten Form mit mehr als einer vorherbestimmten Variablen heißt multivariabel oder eine multiple Gleichung. Wir werden diese Begriffe in den folgenden Abschnitten eingehend an den konkreten Modellen kennenlernen.

8

2. Modelle der linearen Regression

Wegen der hohen mathematischen und speziell statistischen Schwierigkeiten in der Behandlung von Ökonometrisehen und Regressionsmodellen, die in Ungleichungsform oder noch allgemeineren mathematischen Relationen auftreten, beschränkt man sich fast ausschließlich auf Modelle in Gleichungsform. Eine bevorzugte Stellung nehmen dabei wiederum die linearen Modelle ein, da ihre Behandlung die Kompliziertheit des erforderlichen mathematischen Apparates in Grenzen hält und weil die Linearität günstige statistische Eigenschaften der Stichprobenfunktionen garantiert, insbesondere wenn die Fehler normalverteilt sind. Das (lineare) ökonometrische Modell stellt den hypothetisch formulierten statistischen Zusammenhang zwischen endogenen und exogenen Variablen einer komplexen ökonomischen Gesetzmäßigkeit dar. Wir müssen voraussetzen, daß durch sachlogische Überlegungen und auf Grund von Signifikanzund Identifikationsprüfungen die Wahl und Einteilung der Modellvariablen vorab geklärt ist. Auf diese Stufe der Modellierung, die wohl die komplizierteste Arbeit des Statistikers darstellt, soll hier nicht näher eingegangen werden (vgl. jedoch Kap. 7). B e i s p i e l 1. Zur Erläuterung der Definitionen und Begriffe der Ökonometrie soll folgendes typische Beispiel betrachtet werden* Es sei

A

der Arbeitsaufwand (etwa Arbeitszeitfonds oder Arbeitskräfteeinsatz),

B

der Finanzaufwand (etwa Einsatz von Grundfonds),

Y

das Produktionsvolumen.

Bezeichnen wir mit e die Basis des natürlichen Logarithmus und mit c •eine Konstante (die in gewisser Weise eine Umformung der Maßeinheiten von A, B in die von Y sichert), so hat die klassische COBB-DOTTGLASProduktionsfunktion für einen Industriezweig die Gestalt

Y =

cA^BP'e*.

Diese Funktion ist nichtlinear in den Parametern ß l t ßt und den Variablen A, B und e. Durch Logarithmierung erhalten wir l n r = lnc-|-/S1ln^l+/SalnJ5 + e. Dabei sind In Y In JB }

der Regressand oder die endogene Variable, ® , e g r e s s o r e n oder die exogenen Variablen,

2.2. Das ökonometrische Modell

9

/?!, ß2

die Regressionskoeffizienten,

In c

eine Maßstabskonstante,

e

der zufällige Fehler.

ßl und ß2 heißen auch P r o d u l r t i o m - e l a s t i z i t ä t e n ; sie messen Stärke und Richt u n g des Einflusses des Arbeits- und Finanzaufwandes auf den Produktionsumfang. Die Funktion ist nach der Logarithmierung linear in den P a r a metern ßlt ß2 und den Regressoren In A, In B. Die Modellannahmen lauten also: Das Produktionsvolumen Y h ä n g t gemäß der obigen multiplikativen Funktion n u r von den drei Variablen A, B und e (zufälliger Fehler) ab. E s treten drei P a r a m e t e r a u f : die Produktionselastizitäten ßu ßz und die Maßstabskonstante c. Alle drei P a r a m e t e r seien positiv. Zusätzlich könnte man noch annehmen, daß die Fehler st unabhängig u n d identisch mit dem Erwartungswert 0 u n d der Varianz a 2 und unabhängig von A und B verteilt sind. Das Modell ist multivariat und liegt in der reduzierten Form vor.

2.2.

Das ökonometrische Modell

Wir entwickeln zunächst das Modell in seiner ökonomisch relevanten Gestalt als System von M simultanen linearen stochastischen Gleichungen in M gemeinsam abhängigen Variablen Ylt..., YM u n d K vorherbestimmten Variablen X , , . . . , XK sowie den Fehlervariablen U1, ..., Uu. Der Beobachtungszeitraum soll stets T Beobachtungen aller Variablen zum Index t = 1 , . . . , T umfassen. Die Realisierungen jeder Variablen werden mit den entsprechenden kleinen Buchstaben ymt, xkt bzw. umt bezeichnet. Zum Index t lautet das System der strukturellen Gleichungen (i = 1,..., T) yuVn

H

VitVii

+

-

b VuiViM

+

» l A i H

VuiViM

+

«1A1 +

+

yiiYMi

( - VmYuu

b XRAK -

+

+ «lA/i

+ +

*KAK

1- x

M

%t

b

+

M K

u

m

=

0 ,

=

0 ,

= 0.

Die m-te strukturelle Gleichung h a t also die Gestalt

2

VltYml

+

(m

1,...,

=

— +

Toutenburg, Vorhersage

VattYmM

M ) .

+

«li^rnl

+

— +

XKtÖmK

+

Umt

= 0

(2.1)

10

2. Modelle der linearen Regression

Vereinbarung. Eine Matrix A mit m Zeilen und n Spalten bezeichnen wir als m X w-Matrix A und verwenden das Symbol A . Wir definieren zur Abkürzung folgende Vektoren und Matrizen: m x * V(1)'

Vil • •• y mi

Y=

Txil

Vit ••• ymi

=

y'(t)=

yIT'"VUT

y'(T) lxM .

•i'ii ••• XK1

ar'(l)

X = Xu

Tx K

=

••

Vi, - , Vm\-. \Tx 1 Tx 1/

(

( , ..., XE \ \t x i T xil

*'(«)

x'{T) 1 xK _

u

n

U=

TxM

r =

M x ili

D=

u

mi

«'(1)

11 "' uMt

u'(t)

ííjy ' " ííjyy

u'(T)

U

yn ••• y mi yiM'"yMM

( % , • uM \ VTxl Txll

lxM

/ yi

, - , YM\ \M X 1 M x il

l-ß\ß

l)-

Damit wird die reduzierte Form (vgl. (2.5))

y >

, , /«/(1 ~ ß)

)-Matrix ist. Wir nehmen die Aufspaltung in die Normalgleichungen (3.2) herein und erhalten p Ä [ X ^

/M x ; x j \b2J

=

(Ky\ \x'2y)

und weiter bei Berücksichtigung von X2 = /XiX, [L'X'.X, 3

X[XxL \ /öA L.'X'1X1L)\bJ

Toutenburg, Vorhersage

XxL

¡X\y \ \L'X[y) '

26

3. Das klassische lineare Regressionsmodell

Die p ersten Zeilen dieses Gleichungssystems sind +

= X[y .

(3.3)

Die (K — j>) letzten Zeilen gehen hieraus durch Linksmultiplikation mit L' hervor, so daß jede Lösung b der ersten Gleichungen auch eine Lösung der letzten Gleichungen ist. Wegen Rang Xx = p ist Z ^ Z j regulär; durch Linksmultiplikation von (3.3) mit ( Z i Z j ) " 1 erhalten wir b, = ( i ; ! , ) " 1 X[y - Lb2.

(3.4)

Wegen Rang X = p lassen sich die (K — p) Komponenten des Teilvektors b2 von b willkürlich wählen. Es ergibt sich also eine (K — p)-dimensionale Mannigfaltigkeit (d. h. eine (K — p)-fach unendliche Schar) von Lösungen b der Normalgleichungen. F ü r jede Wahl von b2 sind die p Komponenten von öj gemäß (3.4) eindeutig bestimmt. H a t die Matrix X vollen Rang, d. h., gilt Rang X = p = K, so wird X1 = X; Xa und Lb2 verschwinden. Nur in diesem Fall erhalten wir eine eindeutige Lösung der Normalgleichungen: b = (X'X)- 1 X'y .

(3.5)

F ü r den allgemeinen Fall Rang X — p spannen die Lösungen der Normalgleichungen dieselbe Hyperebene Xb auf, d. h., für je zwei Lösungen b und b* der Normalgleichungen gilt Xb = Xb* .

(3.6)

Der B e w e i s ist einfach: Sind b und b* Lösungen der Normalgleichungen, so gilt X'Xb

= X'y

und

X'Xb * = X'y .

Wir bilden die Differenz der Gleichungen X'X

(&-&*)

= 0 ,

woraus nach Satz A 1 X(b - b*) = 0

oder

Xb = Xb*

folgt. Mit (3.6) erhalten wir für die beiden Fehlerquadratsummen S(b) = ( y - Xb)' (y - Xb) = (y - Xb*)' {y - Xb*) = S(b*) . Damit haben wir folgenden Satz bewiesen. S a t z 3.1. Der Koeffizientenvektor ß = b minimiert die Fehlerquadratsumme genau dann, wenn er Lösung der Normalgleichungen X'Xb— X'y

3.3. Geometrische Eigenschaften der Kleinste-Quadrat-Schätzung

27

ist. Je zwei Lösungen b und b* der Normalgleichungen spannen dieselbe Hyperebene Xb = Xb* auf. Die Lösungen b der Normalgleichungen werden als empirische Regressionskoeffizienten oder als empirische Kleinste-Quadrat-Schätzung von ß und y = Xb als die empirische Regressionshyperebene bezeichnet. Folgende Zerlegung der Fehlerquadratsumme S(b) ist von Interesse. Die Residuen y — Xb bezeichnen wir mit £. D a n n gilt y'y = y'y + e ' c .

(3.7)

Die Quadratsumme der Beobachtungswerte y'y der abhängigen Variablen setzt sich also additiv zusammen aus der durch die empirische Regression erklärten Quadratsumme y'y u n d der durch die Regression nicht erklärten Quadratsumme e'e der Residuen. Die Beziehung (3.7) folgt aus b'X'Xb

— b'X'y

(Linksmultiplikation von (3.2) mit b')

und y'y = (Xb)' (Xb) = b'X'Xb

=

b'X'y

gemäß S(b) = t't = (y - Xb)' (y - Xb) = y'y - 2b'X'y = y'y — b'X'y

3.3.

+

b'X'Xb

= y'y — y'y .

Geometrische Eigenschaften der Kleinste-Quadrat-Schätzung (KQ-Schätzung)

Einleitend erläutern wir einige Grundbegriffe aus der Theorie linearer Vektorräume. W e n n x' = (xlt ...,«„) ein w-dimensionaler Vektor ist, so wird seine Länge mit ||a;|| bezeichnet und definiert als ||*|| = (x'x)1!* = (xt + - + xW

.

Zwei Vektoren x, y heißen orthogonal, wenn x y, d. h., x'y — 0 gilt. Eine Menge von Vektoren x1,..., xp heißt ein orthonormiertes System, wenn x'iXj = 0 und XjXi = 1 gilt. 3*

(»4= j, i, j = 1,..., p)

28

3. Das klassische lineare Regressionsmodell

Führen wir das KBONECKEit-Symbol

( y - c )

+

( c -

0)'

0)'

(c

-

0 )

( c - 0 ) .

8(0) wird also über 9i[X] minimal für 0 = c. Wegen 8(0) = S(ß) und der Minimumeigenschaft von b ist das optimale c = 0O — Xb. Wir wollen nun zeigen, daß sich die i?Q-Schätzung Xb von Xß direkt mit Hilfe von idempotenten Projektionsmatrizen gewinnen läßt. S a t z 3.3. die

die

E s

sei

P

orthogonale

Xb--=0o

=

eine

symmetrische

P r o j e k t i o n des

E

idempotente T

auf

P y .

Beweis. Nach Satz 3.2. ist ©o

=

c

=

S

« W

=

S

=

(Vi,

=

2

Vi(y'Vi)

v ^ y ) v

=

B B ' y

=

p

y

P

) (vu [.B

...,

M a t r i x vom

Rang

9 f [ X ] r e p r ä s e n t i e r t . Dann

vp)' y

= ( » „ . . . , » , ) ]

-

P ist offenbar symmetrisch und idempotent. Wir geben ohne Beweis folgenden Hilfssatz an.

p, gilt

3.3. Geometrische Eigenschaften der Kleinste-Quadrat-Schätzung

31

H i l f s s a t z . Eine TxT-Matrix P, sofern sie idempotent vom Bang p ^ T ist, stellt die orthogonale Projektionsmatrix des 2?T auf einen p-dimensionalen Véktorraum V dar. Wir bestimmen P für unseren linearen Ansatz unter der Voraussetzung Rang X = K. Die Spalten von B bilden eine Orthonormalbasis für SR[X] = {0:0 — Xß}. Da die Spalten von X ebenfalls eine Basis für 9Î[X] bilden, gilt X = BC (C eine reguläre Matrix). Damit wird p = bb' = x c ^ c ^ x ' = xic'cyix = X(C'B'BCJ-1 = Z(Z'Z)"

1

X'

[da B'B = I]

X',

und wir erhalten die bereits abgeleitete ÛTÇ-Sehâtzung von Xß als 0O = Py = XiX'X)-1

X'y = Xb .

Der Fall Rang X = p < K. Wie wir im Abschnitt 3.2. gesehen haben, sind die Normalgleichungen nur eindeutig lösbar, wenn X von vollem Rang K ist. Eine Methode zur Ableitung eindeutiger Lösungen für den Fall Rang X = p < K basiert auf der Verwendung von linearen Restriktionen, die eine Identifizierung des Parameters ß ermöglichen. Ohne auf die allgemeine Problematik näher einzugehen (vgl. hierzu 3.5.), geben wir unter Verwendung von Satz 3.3. eine algebraische Lösung des Problems. Es sei B eine (K — p)xK-Matrix mit Rang B = K — p und D = r sei ein bekannter (K — p)X 1-Vektor. Gilt Rang D = K, so heißen X und B komplementäre Matrizen. Wir führen über B zusätzlich (K — p) lineare Restriktionen an ß in den linearen Ansatz ein, d. h., wir fordern Bß =

r.

(3.8)

Die Minimierung von S(ß) unter den exakten linearen Restriktionen Bß = r erfordert die Minimierung der Zielfunktion S(ß) + 2A' (Bß - r) (A ein (K — p) X 1-Vektor aus Lagkange-Multiplikatoren), also die Lösung der Normalgleichungen X'Xß - X'y + B'K = 0 , Bß — r = 0 .

(3.9)

Wir beweisen dazu den folgenden Satz (vgl. auch Sebek [1] für den Fall r = 0). Satz 3.4. Unter den exakten linearen Bestriktionen Bß = r mit Bang B = K — p und Bang D = K gilt:

32

3. Das klassische lineare Regressionsmodell

a) Die Projelctionsmatrix des ET auf 9?[X] hat die Gestalt P — X{X'X + R'R)-1 X. b) Die bedingte KQ-Schätzung von ß ist b{R, r) = (X'X + R'R)-1 (X'y + + R'r) • Beweis. Aus den Voraussetzungen folgt, daß für jedes 0 e ein ß so existiert, daß 0 = Xß und Rß = r erfüllt sind. Wegen Rang D = K ist ß eindeutig. D. h., für jedes 0 6 9 t [ X ] ist der (T + K — p) X 1-Vektor j e 9i[Z>], es gilt

= Dß (ß eindeutig bestimmt).

Übertragen wir Satz 3.3. auf unser Modell, so erhalten wir die Projektionsmatrix des E ~ auf 9*[£>] als T

+

E

P

P* = DiD'D)'1 D'. D a die Projektion P * jedes Element von 9i[-D] auf sich selbst abbildet, gilt für jedes 0 e 9 i [ X ]

( ! ) = =

d

'

(!)

/XiD'D)-1 X' ^(D'D)-1 X'

XiD'D)'1 R'\ R(D'D)~1 R'j

(0\ \rf

also komponentenweise

0 = XiD'D)-1 X'0 + XiD'D)-1 R'r , r = RiD'D)-1 X'0 + RiD'D)-1 R'r .

(3.10) (3.11)

Die Gleichungen (3.10) und (3.11) gelten für jedes 0 € 9 i [ X ] und für alle r — Rß e 9i[i?]. Wählen wir in der Restriktion (3.8) speziell r — 0, so werden (3.10) und (3.11) zu

0 = XiD'D)'1 X'0 , 0 = RiD'D)-1 X'0 .

(3.10') (3.11')

Aus (3.11') folgt ^ X ^ ' Z » ) " 1 P']_L und wegen ^ X ^ ' D ) - 1

miXiD'D)-1 R']

R'] = {0:0 = Xß

mit

ß = iD'D)'1 R'ß}

gilt

e 8t[X],

so daß wir insgesamt

XiD'D)-1 R'

= 0

erhalten [vgl. auch TAN [1]].

(3.12)

3.3. Geometrische Eigenschaften der Kleinste-Quadrat-Schätzung

3a

Die Matrizen X(D'D)~1 X' und R(D'D)~1 R' sind idempotent (die Symmetrie ist evident): X(D'D)~1 = X(D'D)'1 = X(D'D)~1 = X(D'D)~1

X'X(D'D)-! X' (X'X + R'R - R'R) (D'D)-1 X' (X'X + R'R) (D'D) X' - X(D'D)~1 R'R(D'D)~1 X' X' ,

da D'D = X'X + R'R und (3.12) gelten. Der Beweis der Idempotenz von R(D'D)~1 R' verläuft entsprechend. Nach Satz A 5 ist D'D positiv definit, nach Satz A 6 ist (D'D)"1 ebenfalls positiv definit. Wegen Rang R = K — p ist dann auch R(D'D)~1 R' positiv definit und damit (Satz A 4) regulär. Eine idempotente reguläre Matrix ist aber gleich der Einheitsmatrix (Satz A 17): RiD'D)'1

R' = I ,

(3.13)

so daß (3.11) die Identität r = r beschreibt. Wegen ihrer Idempotenz ist die Matrix P = X(D'D)~~1 X' die orthogonale Projektionsmatrix des ET auf einen gewissen Vektorraum V c ET (siehe Hilfssatz zu Satz 3.3.). Nach (3.10)' gilt zunächst c V. Aus Satz A 2 folgt jedoch auch die Umkehrung V = WXiD'D)-1 X'] c 3t[X] , so daß V = ist, womit wir a) bewiesen haben. Wir lösen nun die Normalgleichungen (3.9). Mit Rß = r gilt auch R'Rß — R'r. Eingesetzt in die erste Gleichung von (3.9) ergibt (X'X + R'R) ß = X'y + R'r - R'X . Wir multiplizieren von links zunächst mit

(D'D)'1:

ß = (D'D)~X (X'y + R'r) - (D'D)'1 R'X und jetzt mit R (unter Beachtung der zweiten Gleichung von (3.9) und von (3.12) und (3.13)): Rß = R(D'D)~1 (X'y + R'r) - R(D'D)~1 R'X = r - X , woraus X = 0 folgt. Damit hat die Lösung der Normalgleichungen die Gestalt ß = b(R, r) = (X'X + R'R)'1 (X'y + R'r)

(3.14)

und b) ist bewiesen. Wir werden die bedingte .KQ-Schätzung b(R, r) (bedingt: unter der Bedingung Rß = r abgeleitet) von ß in 3.5. zur statistischen Behandlung der Multikollinearität einsetzen.

34 3.4.

3. Das klassische lineare Regressionsmodell

Beste lineare erwartungstreue Schätzung

I m Unterschied zur deskriptiven Regression, bei der die Regressionskoeffizienten ß als frei wählbar interpretiert und nach dem Prinzip der kleinsten Quadrate optimal bestimmt wurden, setzt das klassische lineare Regressionsmodell die Koeffizienten ß als feste Modellparameter voraus. Ihre Schätzung wird über die Minimierung von Risikofunktionen durchgeführt, wobei sich zeigen wird, daß die empirische -fiTQ-Schätzung b eine zentrale Rolle spielt. I m Abschnitt 2.6. haben wir das klassische lineare Regressionsmodell als einen Spezialfall des verallgemeinerten linearen Regressionsmodells in der Gestalt (2.18) hergeleitet. Die Annahmen über die P a r a m e t e r und die Modellvariablen l a u t e t e n : y = Xß + e,

| 2

Ee = 0 ,

Eee' = a I,

|

(3.15)

X nichtstochastisch, R a n g X = K . ) Da X als eine nichtstochastische Matrix vorausgesetzt wird, sind insbesondere X u n d e unabhängig, d. h., es gilt E{e\X) = Es = 0 ,

(3.16)

E{X'e\X)

(3.17)

= X'Es

= 0

und E(ee'\X)

= Eee' = ff2/ .

(3.18)

Die Rangbedingung an X besagt, d a ß zwischen den K Regressoren X j , ..., XK keine exakten linearen Beziehungen a u f t r e t e n ; insbesondere existiert die Inverse ( X ' X ) _ 1 (eine K x I T - M a t r i x ) . Mit (3.15) u n d (3.16) erhalten wir den bedingten Erwartungswert E(y\X)

=Xß

+ E(e\X) = Xß ,

(3.19)

und mit (3.18) gilt f ü r die Kovarianzmatrix von y E[{y - Ey) (y - Ey)'\X]

= E(ee'\X)

= oH .

(3.20)

Bei der weiteren Behandlung verzichten wir auf die gesonderte Betonung der Bedingung „X f e s t " ; die auftretenden Erwartungswerte sind sämtlich bedingte Erwartungswerte. Die Aufgabe des Statistikers ist es, den wahren aber unbekannten Wert des Vektors ß der Regressionsparameter auf Grund der vorliegenden, im Modell (3.15) zusammengefaßten ^Beobachtungen und Modellannahmen durch eine Stichprobenfunktion ß geeignet zu schätzen. D a r a u s erhält

3.4. Beste lineare erwartungstreue Schätzung

35

man eine Schätzung des bedingten Erwartungswertes E(y\X) — Xß und eine Schätzung für die Fehlervarianz c 2 . Wir wählen eine in y lineare Schätzfunktion ß, verwenden also den Ansatz ß=C

y + d.

KxT

(3.21)

Exl

C und d sind nichtstochastische Matrizen, die durch Minimierung der Risikofunktion R = Ee'e = E{y - Xß)' (y - Xß)

(3.22)

optimal zu bestimmen sind. Wir fordern zusätzlich die Erwartungstreue von ß, d. h., E(ß\ß) — ß soll immer erfüllt sein, wie auoh das wahre ß im Modell (3.15) sein möge. Da ß unbekannt ist, muß ß dieser Forderung f ü r alle im Modell möglichen ß (im allgemeinen gilt — oo < ßk < oo für k — 1, ..., K) genügen. Die Erwartungstreue fordert also E(ß\ß)

= C'Ey

+

d

= C'Xß + d=ß

für alle ß.

(3.23)

Wählt man speziell ß = 0, so folgt sofort d

= 0,

und die zu (3.23) äquivalente Bedingung lautet C'X = / .

(3.24)

Eingesetzt in (3.21) ergibt y -



= Xß

+ e -

= s — XC'e

XC'Xß

-

XC'e

.

Hieraus erhalten wir für die Risikofunktion R — E(s

— XC'e)'

(s -

= sp E{e - XC'e)

XC'e)

[Satz A 14]

{e — XC'e)'

= o-2 s p ( I + XC'CX'

-

2XC').

(3.25)

Das optimale C wird als Lösung des quadratischen Optimierungsproblems min {sp (XC'CX' c

— 2 XC')\C'X

- 1

=

0}

(3.26)

nach bekannten Sätzen (vgl. etwa K ü n z i / K r e l l e [1]) C' = ( P I ) - 1 ! ' .

(3.27)

Daraus erhalten wir entsprechend unserem Ansatz (3.21) die Schätzung ßovt =

C'y =

{X'X)~^

X'y

,

(3.28)

3. Das klassische lineare Regressionsmodell

36

die mit der empirischen .KQ-Schätzung b übereinstimmt. Die Schätzung b ist erwartungstreu (Bedingung (3.24)): C'X = ( X ' X ) - 1 X'X

= I

(3.29)

und besitzt die K X Ä'-Kovarianzmatrix Vb = E(b - ß ) { b - ßy = EiX'X)-1 =

X'ss'X(X'X)-! 1

(3.30)

o^X'X)' .

F ü r viele Probleme der Praxis ist die Erwartungstreue eine zu scharfe und schwer zu realisierende Forderung. Aus diesem Grunde wird d e r Verwendung nichterwartungstreuer Schätzungen u n d Vorhersagen ein breiter R a u m gewidmet (vgl. 5.5. u n d 7.). Der wesentliche Grund für die Bevorzugung der ÜTQ-Schätzung b gegenüber allen anderen linearen erwartungstreuen Schätzungen liegt in einer Minimumeigenschaft der Kovarianzmatrix Fj, nach der b u n t e r allen linearen erwartungstreuen Schätzungen ß die kleinste Varianz in folgendem Sinne besizt: S a t z 3.5. Es sei ß eine beliebige lineare erwartungstreue Schätzung von ß mit der Kovarianzmatrix V~ und a ein beliebiger K /1-Vektor. Mit var (bk) bzw. var (ßk) bezeichnen wir die Hauptdiagonalelemente von F j bzw. V~. Dann gelten folgende äquivalente Beziehungen: a) Die Differenz

V

F& ist stets eine nichtnegativ definite

Matrix.

b) Es ist var (ßk) — v a r (bk) 0 für alle Je. c) Die Varianz der Linearform a'b ist niemals größer als die Varianz Linearform a'ß: a'Vb a ^ a'Vß ®

oder

a'(Vß — Vi) a

der

0 .

B e w e i s . Die Äquivalenz der drei Formulierungen ist evident. beweisen hier a).

Wir

E s sei ß — G'y eine beliebige erwartungstreue Schätzung. O. B. d. A.. setzen wir C' = C' + D' = (Z'X)-1

X' +D'

.

Die Erwartungstreue von ß erfordert die Erfüllung von (3.24): C'X = C'X + D'X = I , woraus wegen (3.29) notwendig D'X = 0

37

3.4. Beste lineare erwartungstreue Schätzung

folgt. Damit wird die Kovarianzmatrix F - = E(C'y - ß) (C'y -

ß)'

= E(C'e) (e'C) =

^ [ ( Z ' X ) - 1 X' + D'] [ X ( X ' X ) - 1 +

D]

^[(Z'Z)-1

= + D'D] = Vb + a2D'D . Die Matrix a2D'D ist nach Satz A 9 nichtnegativ definit. Diese Minimumeigenschaft von b wird in der Literatur auch häufig in Gestalt des fundamentalen Gauss-Mabkoff-Theorems formuliert. S a t z 3.6. Gauss-Mabkoff-Theo rem. Im klassischen linearen Regressionsmodell ist die KQ-Schätzung b = (X'X)-* X'y mit der

Kovarianzmatrix Vb =

(3.51)

womit die behauptete Optimalität von b(R) bewiesen ist. b(R) ist also eine GM-Schätzung von ß im Modell (3.48).

3.6.

Klassische Normalregression

Die bisher abgeleiteten Ergebnisse im klassischen linearen Regressionsmodell haben Gültigkeit für alle Wahrscheinlichkeitsverteilungen der Fehlervariablen e, für die Ee = 0 und Eee' — a2I gilt. Wir spezifizieren nun den Typ der Verteilung von s, indem wir zusätzlich zu den Modellannahmen (3.15) die Annahme (K) mit W = / treffen: Annahme (K). Der Vektor e der zufälligen Fehler et besitzt eine Tdimensionale Normalverteilung N(0, ff2/), d. h., es ist e ~ N(0, ff2/). Damit besitzt e die Dichtefunktion /(E; 0,

ff2/)

=

(2^)-T/2

E X P

J _

¿ ¡ £ E ? J

= Ä (2^ff 2 )-i/2 exp ( - ±

,

(3.52)

so daß die Komponenten et (t = 1,..., T) unabhängig und identisch N(0, ff2)-verteilt sind. (3.52) ist ein Spezialfall der allgemeinen T-dimen-

46

3. Das klassische lineare Regressionsmodell

sionalen Normalverteilung N(fi, Z). Es sei f ~ N(/u, Z), d. h. E£ = ¡x, E(£ — fi) (| — jx)' = E. Dann besitzt | die Dichtefunktion E ' 1 (f - /*)} .

=

(3.53) Das klassische lineare Regressionsmodell mit normalverteilten Fehlern — kurz das klassische Modell der Normalregression — hat dann die Gestalt y = Xß + s ,

|

e ~ N(0, o I) ,

l

2

(3.54)

X nichtstochastisch, Rang X = K. . ) Maximum-Likelihood- (kurz ML-)Prinzip D e f i n i t i o n . E s sei £ — (| 15 ..., |„)' eine zufällige Variable mit der Dichtefunktion /(£; 0), wobei der Parametervektor 0 = (0 l 5 ..., 0m)' in dem Parameterraum Q der a-priori zulässigen Parameterwerte 0 liegt. Dann definiert die Dichtefunktion /(f; 0) für jede Realisierung (Stichprobe) | 0 von | eine Funktion von 0 : L(0)=L(01,

..., 0

m

) = m

o

\ 0 ) ,

die wir als Likelihood-Funktion von £0 bezeichnen. Das ML-Prinzip wählt als Schätzung von 0 in Abhängigkeit von £0 denjenigen Wert 0 i fl (falls er existiert), für den

L{0) ^ L{0) für alle 0eü gilt. Dabei braucht 0 nicht eindeutig bestimmt zu sein. Der Schätzwert 0 ist dann also so gewählt, daß die Realisierung £0 den dichtesten oder (bei einer diskreten Verteilung) den wahrscheinlichsten Wert der Verteilung von | darstellt, sofern man 0 als den wahren Parameter ansieht. Führt man die Maximierung von L(0) für alle Realisierungen £0 durch, so ist 0 eine Funktion von f und damit selbst eine Zufallsvariable, die wir als ML-Schätzung von 0 bezeichnen wollen. ML-Schätzung im Modell der klassischen Normalregression Nach Satz A 30 gilt für y aus (3.54) y = Xß +

£

~ N(Xß,

oH),

so daß die Likelihood-Funktion von y die Gestalt hat

L(ß, a 2 ) = (2jr (y - Xß) . Liegen keine a-priori-Restriktionen an die Parameter vor, so ist der Parameterraum Q = {ß; o2:ß e EK; ff2 > 0}. Wir erhalten die MLSchätzungen von ß, a2 durch Nullsetzen der ersten Ableitungen (I)

8

-^

= ^2X'(y-Xß) = 0

[Satz A 24],

aus den sog. Likelihood-Gleichungen (I)

X'Xß

= X>y,

(II)

o2 = ± r (

y

-Xßy(y-Xß).

(3>56)

Die Gleichung (I) ist die bekannte Normalgleichung (3.2), aus der wir auf Grund der Voraussetzung Rang X = K die ML-Schätzung ß= i =

(X'X)^X'y

erhalten. Ein Vergleich von (II) mit der erwartungstreuen Schätzung s (3.39) ergibt die Relation T-K «• = —jr~

„ s* ,

so daß ff2 nicht erwartungstreu ist. Für den asymptotischen Erwartungswert erhalten wir lim E(a2) = E(a2) = E(s2) = a2. T-+oo Damit gilt S a t z 3.8. Im Modell (3.54) der klassischen Normalregression stimmen die ML- und die KQ-Schätzung von ß überein. Die ML-Schätzung ff2 (3.56) von a2 ist asymptotisch erwartungstreu. 3.7.

Prüfen von linearen Hypothesen

Wir entwickeln in diesem Abschnitt Testverfahren zum Prüfen von linear homogenen und inhomogenen — kurz linearen Hypothesen im Modell (3.15) der klassischen Normalregression.

3. Das klassische lineare Regressionsmodell

48

Die allgemeine lineare Hypothese (3.57)

H0 : Rß = r ; 0 beliebig wird gegen die Alternativhypothese

(3.58)

H-, : Rß 4= r ; 0 beliebig getestet, wobei wir voraussetzen:

R eine {K — s) X ÜT-Matrix r ein (K — s) X 1-Vektor, (3.59)

R a n g R = K — s,

s e { 0 , 1 , . . . , K - 1}, R, r nichtstochastisch und bekannt. Die Hypothese H0 besagt, daß der P a r a m e t e r v e k t o r ß zusätzlich zu den Modellannahmen ( K — s) exakten linearen Restriktionen genügt, die wegen R a n g R — K — s linear unabhängig sind. (Die Rangbedingung an R sichert, daß keine Scheinrestriktionen geprüft werden.) Die allgemeine lineare Hypothese (3.57) läßt sich auf zwei wesentliche Spezialfälle ausrichten. F a l l 1: s = 0 N a c h Voraussetzung (3.59) ist dann die K X -K-Matrix R regulär, und wir können H0 und H1 wie folgt darstellen:

H0:ß

= jß _ 1 r = ß*;

H x : ß 4 = /3*;

0 beliebig ,

(3.60)

a > 0 beliebig .

(3.61)

2

F a l l 2: s > 0 Wir wählen eine zu R komplementäre s X -K-Matrix G derart, daß die vollen R a n g K besitzt. und

ft = Gß , Ä =Bß. SXl D a n n läßt sich folgende Umformung durchführen:

=

+ Xiß 2 + e •

Es

49

3.7. Prüfen von linearen Hypothesen

Dieses Modell genügt allen Voraussetzungen (3.15). Die Hypothesen H0 und H1 sind dann gleichwertig mit H0: ß2 = r\ ß1 und er2 > 0 beliebig ,

(3.62)

: ß2 4= r; ~ß1 undCT2> 0 beliebig .

(3.63)

Bezeichnen wir den vollen Parameterraum, d. h. den Raum, in dem entweder H0 oder H1 gilt, mit ü und den durch H0 eingeschränkten Parameterraum mit co, so gilt ( u e f l mit Ü = {ß-,a2:ß

€ EK,a2>

0} ,

co = {ß; a2:ß

e EK und Rß = r; 0} .

Als Teststatistik verwenden wir den Likelihood-Quotienten m a i L{@) = l

(3-64) ^ w ' a der für das Modell (3.15) der klassischen Normalregression folgende Gestalt hat. L(0) nimmt sein Maximum für die ML-Schätzung 0 an, es gilt also mit 0 = (ß, a2) max L{ß, er2) = L(ß, ff2)

= (2«o«)-*/« exp { - ¿ - 2 (y - Xß)< (y - Xß) j = ( 2 e x p

{ - -^J

und damit i - T/2

(3.65) « - I ) " wobei ff£ bzw. die ML-Schätzungen von er2 unter H0 bzw. im vollen Parameterraum Q sind. Wie aus dem Aufbau (3.64) ersichtlich, liegt A(|) und damit X(y) zwischen 0 und 1. X{y) ist selbst eine Zufallsvariable. Ist H0 richtig, so müßte der Zähler von X{y) bei wiederholter Stichprobennahme in der Mehrzahl der Fälle einen im Vergleich zum Nenner hinreichend großen Wert ergeben, so daß X(y) unter H0 einen Wert nahe 1 annehmen müßte. Umgekehrt müßte X(y) bei Gültigkeit von H1 vorwiegend Werte nahe 0 annehmen. Wir führen folgende monotone Transformation durch: F = { ( A ( y ) ) - 2 ' T - 1} (T - K ) ( K dl-dg Sa

T-K K —s

(3.66)

50

3. Das klassische lineare Regressionsmodell

Für A -*• 0 gilt F -* oo und für X -> 1 gilt F -»• 0, so daß eine Stichprobe im Bereich „F nahe 0 " für die Gültigkeit von H0 und im Bereich ,,F hinreichend groß" für die Gültigkeit von H1 spricht. Wir bestimmen nun F und seine Verteilung für die beiden Spezialfälle der allgemeinen linearen Hypothese. F a l l 1: s = 0 Die ML-Schätzungen unter H0 (3.60) sind ß — ß*

^d

al=±(y-Xß*)'

(y-Xß*).

Die ML-Schätzungen über dem vollen Parameterraum Q sind nach Satz 3.8. und

ß= b

A = Tf (y ~ Xby (y - Xb) .

Wir führen nacheinander folgende Umformungen durch: b - ß * = (X'X)- 1 X'(y - Xß*) , (b - ß*y X'X = {y - Xß*)' X , y - Xb=(y-

Xß*) - X(b - ß*) ,

{y - Xb)' (y - Xb) = (y - Xß*)' (y + (b-

Xß*)

ß*)' X'X {b -

ß*)

- 2(y - Xß*y X{b -

ß*)

= {y-

Xß*)' (y (b-

(3.67)

Xß*)

ß*y X'X (b -

ß*).

Hieraus folgt T{al -

al) = (6 - ß*y X'X {b -

ß*).

Somit erhalten wir als Teststatistik F =

(6 - ß*)' X'X (b-ß*) (;y - Xb)' (y - Xb)

T- K K

(3.68)

Verteilung von F a) Zähler Es gelten folgende Relationen: b - ß * = ( X ' X ) ' 1 X'[e + X{ß ~e = e + X(ß-ß*)~ X(X'X)~1X'

[nach (3.67)],

ß*)]

N(X(ß - ß%

idempotent vom Rang K

oH)

[Satz A 30], [Satz 3.3.],

3.7. Prüfen von linearen Hypothesen

51

(b - ß*)' X'X (b - ß*) = e'X(X'X)-1 ~

~ ß*Y X'X

bzw.

~

X's

(ß ~ ß*))

[Satz A 33]

unter H0 .

b) Nenner ( ; y — Xb)' ( y - Xb) = (T — K) s2 = s'Ms M = I — XiX'X^X'

[nach (3.37)],

idempotent vom Rang T — K

e'Me ~

ffVr-z

[Satz A 22], [Satz A 33].

Es gilt MXiX'Xy^X' = 0

[Satz A 22],

so daß Zähler und Nenner unabhängig verteilt sind [Sätze A 34, A 35]. Damit [Satz A 32] besitzt der Quotient F (3.68) unter H1 eine FKtT^K(a~i(ß — ß*)' X'X (ß — ß*))- Verteilung, unter H0: ß = ß* also eine zentrale Verteilung. Bezeichnen wir mit Fmnl_q das g-Quantil der Fm¡n-Verteilung (d. h. P(F Fmn l_q) = 1 — q), so erhalten wir auf Grund unserer eingangs geführten Überlegungen bei einer vorgegebenen Irrtumswahrscheinlichkeit erster Art a die Bereiche Annahmebereich für H0:

0 ^ F < FK

kritischer Bereich von H0:

F

T_Klx,

FK¡T_K

cL.

Die kritischen Werte der F-Verteilung sind in vielen Büchern tabelliert. Wir verweisen auf W E B E B [ 1 ] , Tafel 6 , S . 6 2 9 . Das gesuchte ( 1 — tx)Quantil FK>T-K,* wird dort als F(cn, K, T — K) bezeichnet. F a l l 2: s > 0 Um die ML-Schätzungen unter H0 (3.62) bestimmen und mit den MLSchätzungen über dem vollen Parameterraum Q vergleichen zu können, führen wir folgende Aufspaltung des Modells durch. Es sei/}' = / ß[ , ß'2 \ und entsprechend uxi ix(i-i)/ y = Xß + e = X1ß1 + X2ß2 + s . Wir setzen y = y — X2r. Wegen Rang X — K gilt Rang X1 = s T X B

und

Rang

X2

= K —s ,

T X ( K - S )

so daß insbesondere die Inversen (JLÍXJ) - 1 und (X^Xg) -1 existieren.

52

3. Das klassische lineare Regressionsmodell

Die ML-Schätzungen unter H0 sind und

ß2 = r ,

ß1

=

ol =

(Iii,)-'

Xjk)' (y -

X[y

X&).

Aufspaltung von b Wir erhalten zunächst entsprechend der Modellaufspaltung b = (X'Z)-i X'y iX jX,

XjX2W

^2^2/

/X',y\

V'yyJ

Nach der Formel der partiellen Inversion (Satz A 36) ergibt sich für die Inverse der Ausdruck / ( X ^ ) - ! [I + X ^ D - I x ^ x ; ^ ) - ! ] \ - D-iX^XiXJ-*-

-(I^)-'

X[X2D^\ D-i, /

wobei D =

X'^Xz

und M1 = I - X^XJ-i X[ gesetzt sind. M1 ist (analog zu M) idempotent vom Rang T — s, es gilt ferner J f j X j = 0. Die (K — s) x (K — ,s)-Matrix D = x ; x 2 - X^X^X^Xj)-! x ; x 2 ist symmetrisch und — auf Grund der eindeutigen Lösbarkeit der Normalgleichungen für b, woraus die eindeutige Lösung der partiellen Normalgleichungen für die Teilkomponente b2 folgt — notwendig auch regulär. Somit erhalten wir für die Teilschätzungen öj und 6a von b 6

=

•A

/(X^)-!

X[y -

(x;x,)-i

=

J l D~^Miy Daraus leiten wir die folgenden Relationen ab: b2 = D~iX'2Miy , b, = (X;X,)-i X[(y - X2b2) , b2-r = D-iX'sMj. (y - X2r) = D^X'2Miy = D^X'2Mx {e + X 2 (ß2 - r)) , .

XlX2D-iX'2Miy\ )•

(3 69)

"

(3.70)

3.7. Prüfen von linearen Hypothesen

53

h - ß i = K(y = - ( I I I , ) - » X[Xt = - (xixj-i

)

- y) (b2 - r) xlxjr-ix'tMj.J

(3.71)

Zerlegung von a% Wir schreiben (y - Xb) = ( y - X2r - X&) = u

-

(X^b,

- ß,) + X2(b2 -

r))

—v

und können mit diesem Ansatz die ML-Schätzung X (y — Xb) wie folgt zerlegen:

Ta% = (y — Xb)'

(y — Xb)' (y — Xb) = u'u + v'v — 2«'«;. E s gilt u = y - X

i

r - X & = y - X1 {X^X^ =

u'u =

X[y

MJ/,

y'M^y,

v = X j f h - Ä) + X 2 (i 2 -

r)

= - X^XlXJ-1 X ' ^ D - ^ M J / + XzD-iX'zMji =

M^D-^M.y,

v'v =

y'M1X2D~1X'2M1y

[nach (3.71)] [nach (3.70)]

= (&2 - r)' D(b2 - r) , u'v = v'v . D a m i t gilt insgesamt (y — Xb)' (y — Xb) = u'u — v'v = ( y - XJÄ)' (y - X Ä ) •oder, anders geschrieben, T f ä - ol) = (b2 - r)' D(b2 - r) . I m Fall 2 erhalten wir also als Teststatistik (b2 — r)' P(b2 — r) (y - Xb)' (y-Xb)'

T - K K-s '

(b2 - r)'

D(b2-r)

54

3. Das klassische lineare Regressionsmodell

Verteilung von F a) Zähler Es gelten folgende Relationen: A =

M1X2D~1XLAML

R a n g {A) =

ist idempotent ,

sp (A) =

sp (M^J)'1)

=

sp {X'2MX)

=

S

P JK-S

(X'^M^ (M^D-1)

[ S a t z A 13, d ]

= K —s ,

&2 — r = D-T-X'vMyE

[nach (3.70)],

e = e + X2(ß2 - r) ~ N(X2(ß2 - r), oH)

[Satz A 30],

(b2 - r)' D(b2 -r)

= s'As ~ o*x\-s{o~*{ß2

bzw. ~

- r)' D(ß2 - r)) [Satz A 33],

O2XK-S u n t e r H0 .

b) Nenner Der Nenner ist für beide Fälle gleich, es gilt ( (t =j= t') korreliert sind, so daß auch auf eine Korrelation der et mit den Fehlern eT des Vorhersagemodells geschlossen werden kann. Gemäß Definition 5.1. weisen wir den Gewinn an Wirksamkeit durch Vergleich der Risikofunktionen der iZ-optimalen und der klassischen Vorhersagen nach: a) inhomogen Mit (5.11) und (5.26) gilt R{fi) - R(Vi) = ^ spAW'oW-Wo = Ee'W-iWoAW'oW-1

s ^ 0 ,

da mit der Matrix W^WQAWQW'1 auch die entsprechende quadratische Form in e nichtnegativ definit ist und somit einen nichtnegativen Erwartungswert besitzt. b) homogen Mit (5.22), (5.27), der Beziehung C'2 = W'0(a~2Xßß'X' + W)~l + XtC' [Öl, aus (5.21) und C' aus (4.12)] und mit der nach bekannten Sätzen mög-

75

5.5. Zusatzinformation in Gestalt von Abschätzungen

liehen Darstellung (a~ 2 Xßß'X' + W)'1 = NN' gilt R(p2) - R{p2) = er2 sp AW'0 (o~*Xßß'X' + W)^ W0 = ff2 sp AW'0NN'W0 = Eu'N'W0AW'0Nu ^ 0 , wobei u eine fiktive zufällige Variable mit Euu' = er2/ sein soll. c) homogen erwartungstreu Mit (5.24), (5.28) und NN' = W'1 gilt R{p3) - R{p3) = o-2 sp AW'0 [W-1 = er sp AW'0(N 2

W^XS^X'W-1]

W0

W^XS^X'N)

X {N' - N'X'S^X'W-1)

W0 = Eü'Aü ^ 0 ,

wobei u' = u'(N' — IV0 und u eine fiktive zufällige Variable mit Euu' = a2I ist (vgl. auch G O L D B E B G E R [ 1 ] ) .

5.5.

Zusatzinformation in Gestalt von Abschätzungen

Das Ziel der folgenden Untersuchungen wird darin liegen, ausgehend von der homogenen iü-optimalen Vorhersage p2 (5.21), die den unbekannten Vektor a~xß enthält und somit nicht unmittelbar für die Praxis verwertbar ist, bekannte Vorhersagen durch Verwendung geeigneter Zusatzinformation abzuleiten. Wir gehen dabei in zwei Richtungen vor, indem wir inhomogene Vorhersagen p1 mit R^) iS R{Pi) iS i?(p2) und homogene Vorhersagen p2 mit R(p2) R{Vi) ^ -ß(p3) unter Einsatz praktisch nachprüfbarer Einschränkungen an den Vektor er-1ß anstreben. Dabei wollen wir uns o. B. d. A. auf den Fall n = 1, d. h. T = { T*}, konzentrieren und geben zunächst die entsprechenden Formeln für die .B-optimalen Vorhersagen an. Für den Spezialfall r = T* wird die Risikofunktion R(p) =E(p-y*)*

(5.29)

und das Vorhersagemodell V* = + e* Ee+ = 0 , Ee% = a% ,

1 Eee* = o* w , f (5-30) Txl J wobei der KX 1-Vektor der Regressoren zum Index T* und y^, e^ Skalare sind. 6*

76

5. Punktvorhersagen im verallgemeinerten linearen Regressionsmodell

Die Vorhersagen haben dann die Gestalt Vi = **ß + W W-i (y - Xß), -ß(Pi) = o % ~ f t = %V= IxT R(h) = 0% +

(5.31)

,

(5.32)

(«'•+ o-*x'Jß'X')

1

(,a~*Xßß'X' + W)- y ,

x j ßß' (X'ct

o*ZWc2 -

(5.33)

2a%w , (5.34)

1

p3 = x'+b + w'W-

(y - Xb) , 1

(5.35) 1

R(ß 3 ) = ^ ( p j ) + ctV* - w ' i r - ^ ) Ä- ( X ' f f - % - x*) .

(5.36)

Inhomogener Ansatz Ähnlich wie beim Problem der Verbesserung von P 3 ( T O U T E N B U R G [ 1 ] und Kapitel 6), so hängt auch hier die Möglichkeit der Verbesserung von p2 durch Verwendung von Zusatzinformation in starkem Maße von der Information selbst als auch von der Methode der Ausnutzung dieser Informationen bei der Ableitung neuer Vorhersagen ab. L A U T E R [ 1 ] wies z. B . nach, daß sich bei alleiniger Einschränkung der Richtung von Xß keine inhomogene Vorhersage p + d finden läßt, die besser als die (beliebige) homogene Vorhersage p = c'y ist. Mit anderen Worten, in diesem Fall der Information existiert kein d derart, daß R(p + d) < R{p) gilt. Die Information muß also wesentlich größer sein, um die angestrebte Verbesserung zu garantieren. F ü r den Fall K = 1 schlug T H I E L E [ 1 ] eine Lösung vor, die im folgenden verallgemeinert werden soll (vgl. T O U T E N B U R G [3] sowie weitere inhomogene Ansätze bei L Ä U T E R [ 1 ] ) . Voraussetzung für unser Vorgehen ist das Vorliegen starker Zusatzinformation in Form der Auszeichnung eines Vektors ß0 in der Menge EK der möglichen Parameterwerte derart, daß sich der Vektor \ — y* = (c'-i — x*)

.

(5.40) 1

Wir nehmen an, uns sei folgende Zusatzinformation über a ' 3 gegeben: Es existiere ein Kx 1-Vektor A mit bekannten Komponenten derart, daß

[(c AX gilt, wobei

c

- z'J a-^df ^ {{c AX - x'm ) A? A

=

(w' +

x'+AA'X')

( X A A ' X ' +

(5.41) W)'

1

ist.

Diese Beziehung ist in ihrer Gestalt sehr unübersichtlich und für praktische Probleme ungeeignet. Wir nehmen deshalb an, uns sei stärkere a-priori-Information über gegeben, die für die Erfüllung von (5.41) hinreichend ist. Diese Information besagt, daß ein V e k t o r = (fix, ..., fi K ) mit / ( ¡ ^ O V i bekannt sei, so daß Iff-^tl ^fü

(i = 1,..., K)

erfüllt ist. Wenn das Modell (genauer: X, mindestens ein Vektor A mit 2 i

\{C- 4X

-

x ' j i \ fli ^

i

(5.42)

W,w) dann so beschaffen ist, daß {c' AX

(5.43)

AiI

-

existiert, so wird mit (5.42) und (5.43) die Beziehung (5.41) erfüllt: |(c*X

-

^ ^

2

|{c AX

2 A

= \(c X-xjA\

-

z ' j i O - W

-

x'^i^

^

{c' AX

-

z'jtAtl

,

wobei {c' AX — die i-te Komponente des Vektors (c äX — x'^.) bezeichnet. [Mit A erfüllt trivialerweise auch —A (5.43).] Über die Erfüllbarkeit der Bedingung (5.43) läßt sich allgemein nichts aussagen, sie hängt in starkem Maße vom Modell selbst als auch von der Stärke der Zusatzinformation über |x(T+J) und die Nebenbedingung der Erwartungstreue wird ~ V*) =

-Xt)ß

= 0

gdw. C'X -

X, = 0 .

(6.13)

Wir wählen als Risikofunktion wieder

B{p) = E{p - y*)' A(p - y,) und erhalten mit (6.13) und

Eis* =

=

( o j

B{p) B(C) = (T2 sp A[C'0C + W* - 2C'tp]. Die Minimierung von B(C) unter der Nebenbedingung (6.13) der Erwartungstreue entspricht dem (zu (5.18) analogen) quadratischen Optimierungsproblem min B* = min \ b ( C ) c c (

2 ZK r=l

(< X - a^'J , J

(6.14)

6.2. Stochastische Restriktionen

91

dessen Lösung wir sofort aus Satz 5.2. erhalten, wenn wir in (5.18) folgende Ersetzung vornehmen: X ->• X, W -> ®, W0 -> 4 und Vbi aus Satz 6.2). Wir übertragen die Sätze 4.1. und 4.4 auf unser restriktives Modell (6.10) und erhalten S a t z 6.2. Im restriktiven Modell (6.10) hat die in y homogene treue B-Optimale Schätzung von ß die Gestalt % = h =

erwartungs-

S-^X'®-*y

= (o~2S + B'V^B)-1

+ B'V^r)

(6.17)

= a2{S + a^B'V^B)-1

(6.18)

(p-*X'W-1y

mit Eb4 = ß , Vbi = (fr*S + B'V^B)-1 und ap ( 4 F».). 64 ist GM-Schätzung im Modell (6.10). 7*

(6.19)

92

6. Optimale Vorhersagen unter linearen Restriktionen

Wir bemerken, daß bi eine spezielle, in 'y inhomogene Schätzung im Modell (4.1), ist. &4 ist im Modell (4.1) bedingt erwartungstreu: E[bt\r = Rß + d, Ed = 0] = ß . Schätzung bei Multikollinearität Wir verzichten auf die Rangbedingung an X und betrachten das (3.45) entsprechende verallgemeinerte restriktive Modell y = Xß + e ,

Ee = 0 ,

Rang X = p < K , 0 = Rß , Rang

W'1 =

Ese' = a2W , NN',

Rang R = J = K — p ,

(6.20)

(XN\

Dann gilt analog zu Satz 3.7. Satz 6.8. Im Modell (6.20) ist die bedingte (restriktive) KQ-Schätzung b(R) = {S + R'R)'1

(6.21)

X'W^y

mit der Kovarianzmatrix F 6 ( Ä ) = 0

B' F - V ,

(6.38)

Vfc = (R'V^R)- 1,

(6.39)

so daß die Schätzung im Grenzfall nur noch die Zusatzinformation berücksichtigt. Die Ersetzung v o n a' % in bi durch c ist natürlich n u r dann sinnvoll, A

i

wenn die Vorhersage p(ße) R-hessev als die n u r auf der Stichprobeninformation basierende Vorhersage ist. W i r führen die Bezeichnungen

A(c) = V

b

-

Z = X* 0. W i r beachten

Mß-'Mc

= c 28 + (B'V^B)

S-^B'V^R)

+ 2c

{B'V^B)

und erhalten mit (6.30)

A (c) = M~\a iMcS- iMe = M~\R'V-iR)

- c 2a 2S -

R'V^R]

B(c; o~2 monoton wachsend in c. Damit ist ff-2 monoton fallend in c. Wenn wir beachten, daß mit i?(0; c0(a) ist, so haben wir den folgenden Satz bewiesen. S a t z 6.3. Es sei a priori eine Abschätzung 0 < ct2 < 0 positiv definit, und wir erhalten Kc = {ße; c ^ 0} = Kc. Mit B{0; o\) ist auch B(0; o2) nichtnegativ definit. S a t z 6.4. Es sei a-priori eine Abschätzung 0 0 beliebig)

Dann ist B regulär und mit B_1r = ß* wird (r - Bb)' (BS-W)-1 F a l l 2: J < K und B =

(r - Bb) = iß* - b) S{ß* - b) [vgl. (3.68)]. (0,1)

Dann wird H0: ß1 = 0; BS^B'

ß2 und a2 > 0 beliebig,

= . i x i lxjr lixxli Eee^

= a2 w .

e

~N(0,o*W),

e* ~ #(0, . i x i lxjr lixxli Eee^

= a2 w .

e

~N(0,o*W),

e* ~ #(0, 0 mit g = o\ +

= o\-g.

2o2w'W-1XS~1B'z

= o2x'tS-1R'(BS-1E')-1

RS'1*:*

- o2w'W-1XS-1R'(RS-1R')-1

RS^X'W^w

(7.12)

gilt. Das Vorzeichen von g ist durch das Modell determiniert. Vergleicht man die beiden klassischen Vorhersagen p3 = x'^b und ji 5 = x'%bs, so gelten alle bisherigen Beziehungen mit w = 0. Es sei g = g[w). Dann gilt max g(w) = g(0) = a\ < 0 w

(7.13)

und damit min a\{w) = a\ - a\ < er*. w

Nach diesen Betrachtungen läßt sich die Problemstellung wie folgt formulieren :

112

7. Vorhersage und Modell wähl

Bei Voraussetzung der Gültigkeit des nichtrestriktiven Modells (7.1) ist die Vorhersage f 3 erwartungstreu und besitzt innerhalb der Klasse der erwartungstreuen Vorhersagen die Minimalvarianz a\. Die restriktive Vorhersage ps ist nicht erwartungstreu mit dem Bias y (y =j= 0 für r =j= Rß und x'^ 4= w ' W ^ X ) , besitzt aber im Fall 0 eine kleinere Varianz als p3. Der Statistiker ist an einer Vorhersage von (bzw. bei w = 0 an einer Schätzung des Erwartungswertes von y^) interessiert, die den unbekannten Wert y* möglichst gut schätzt. Dabei kann bei praktischen Problemen ein systematischer Fehler (Bias) weniger ins Gewicht fallen als eine große Varianz. Wir wollen den Vergleich von p3 und p5 (bzw. von j53 und p. bei w = 0) unter Voraussetzung des Modells (7.1) anhand von drei Kriterien durchführen, die die Vor- und Nachteile der beiden Vorhersagen, genauer gesagt, den Bias y und den Anteil GR der Varianzdifferenz g gegeneinander abwägen. Eine Bevorzugung der restriktiven Vorhersage und damit des restriktiven Modells y = Xß + e, r = Rß, e~N(0,o*W) (7.14) hängt, wie sieh zeigen wird, von einer Parameterbedingung ab, über deren Erfüllung ein nichtzentraler .F-Test entscheidet. 7.2.

Die Yergleichskriterien

Die folgenden Kriterien sind mathematische Äquivalente des Wunsches, mit einer Schätzung ß möglichst „nahe" an die zu schätzende Größe fi heranzukommen. Kriterium 1 ß1 heißt eine Schätzung von ¡1 mit um a kleinerer mittlerer quadratischer Abweichung als ß2, wenn E{ß1 -/x)* + a< E(ßs - fif (7.15) gilt. Wir nennen ß 1 dann auch ÜTJ-besser als fi2. Bei erwartungstreuen Schätzungen fa, '¡ii und a = 0 wirkt (7.15) wie das Minimum-Varianz-Prinzip, bei a = 0 und beliebigen Schätzungen ist Kriterium 1 das bekannte MSE-Prinzip (Teekens [1]). a ist hier ein Steuerparameter; durch die Wahl a < 0 wird die Annahmebedingung für ßx abgeschwächt und damit ß1 vom Statistiker von vornherein bevorzugt behandelt (bei a > 0 gilt dies entsprechend für fo). Im Fall a 0 besitzt Kriterium 1 die Eigenschaft der Transitivität: {[E(ßi -f*)2+a< [E(ß1

E(ß2-fif] a [E(ß2-fif + a < E(fi3 - fi)*].

+ a < E(ß3 - 0)»]}

113

7.2. Die Vergleichskriterien

In Worten bedeutet das: Ist /ij üTJ-besser als /i2 und ¡w2 ^"-besser als jii3, so ist fix auch X°-besser als fi3. Das Kriterium K " definiert also eine Halbordnung über der Klasse zugelassener Schätzungen. Somit läßt sich aus einer Klasse zugelassener Schätzungen {/i} die ifj-optimale (a 0 fest) Schätzung auswählen. Parameterbedingung Auf unser Problem angewendet, ergibt sich folgende Parameterbedingung: p5 ist eine ^"-bessere Vorhersage von als p3, wenn (für ¡i = x'+ß) m*

-fi)*

+ a
T_KiX_q

E(s) [o^X*

,

(8.28) F ^

+ FF*] 1 '-

(8.29)

und damit S a t z 8.3. In den restriktiven Modellen der Normalregression liefern in der Klasse der erwartungstreuen Schätzungen die jeweiligen R^-optimalen Schätzungen ß von ß q-Vorhersagebereiche B[z(ß)] mit minimalem Volumen V(ß) (8.29). 8.4.

(p, q)-Vorhersageintervalle

Die Überdeckung P%[B(Zlr ..., ZT)] des Bereiches B besitzt unter allgemeinen Annahmen über das Wahrscheinlichkeitsmaß P f eine komplizierte Verteilung. Wir beschränken uns deshalb auf normalverteilte Stichproben und betrachten speziell das Modell (8.15) der Normalregression. Wir wählen als Statistik z = (x'^b, sw%) aus (8.16) und konstruieren für die zufällige

8.4. (p, q)-Vorhersageintervalle

131

(unbekannte) Realisierung y^ des Regressanden ein symmetrisches Intervall dix'jfi, sw*)

= (x'^b — ksw%, x'^b

(8.30)

k s w ,

•wobei k = k(q, p) gemäß Definition 8.6. so zu bestimmen ist, daß P{F\y+

e 6(xjb,

sw*)

^ q]} = p

(8.31)

für alle 0 = (ß, a 2) gilt. Es sei u* = «(1-^/2 das (1 + 2)/2-Quantil der N(0, 1)-Verteilung. wa ist definiert durch P(u ^ ua) = r] .

Diese Funktionen haben im Fall r = m — kxs bzw. r = m (8.43) analoge) Gestalt

„ ,

^

[X{z* — m + hs)

= {(1 _ V - **)

[ 2 * < m — 1

m- M,}

k2s die (zu

-

(8 47)

8.5. Lineare Xützlichkeitsfunktionen

{

2*



TO



137 kaS

\z* < m 4-

1

(8'48) A(TO + V - Z * ) [z*>« + i ] . } Die Optimierung gemäß Definition 8.7. liefert die unter (8.47) bzw. (8.48) F-opti Vorhersageintervalle für z* als ( T o u t e n b ü r g [7]): 3 =

(M = Z J .

(9.23) ) wird (9.24)

\b2,

Es gilt = E(pa - y*)' (Ä -

=

(9.25)

148

9. Vorhersage in ökonometrischen Modellen.

Die S y s t e m vorhersage p 3 (9.16) wird Vinter unseren modifizierten Modellannahmen (JF 0 = 0 )

Pz = Z*b mit

¡Vi

R(p a ) = a 2 sp W t + sp Z * i

0\ # 1Z* .

(9.26)

Dabei sind Vlt V2 die K o v a r i a n z m a t r i z e n der ßlt ß2 entsprechenden 1 K o m p o n e n t e n bu b2 der Systemschätzung b = {Z'&^Zy Z'&~hj. W i r berechnen aus (9.19) zunächst

= (a ü")®' \«2

«3/

und damit aus (6.83) r2 =

[x;x2 -

a*o*

=

V1 = =

fft1

q ^ x , ( x { x i r ^ x;z2]->

[ z 2 z 2 + (1 -

CT2«"1 ( X ^ X , ) " 1 +

o*oi

(i -

o*(x:2x2 c%a~ (X'^yi Z 2

z;z\

(XIXJ-I xix2)]-i,

^ Z ^ Z ^

(Z^)-

1

Q2) ( i ; i , ) - '

+ Q 2 o^O\ ( X j Z / ) - ! X ^ ^ Z ^

(ZiZj)-i .

F ü r den Vergleich der Vorhersagen p 3 und p 3 erhalten wir My — I — Z ^ Z ^ ) "

1

ist idempotent,

X[

A = Z2Z2 — Z2Zj (ZjZJ)-1 ZjZ2 = (X'^M-L) ( Z Ô J f j ) ' aus F " 1 =

2

a~ a~-

2

a a\ (ZÔZ 2

)_1

(Z2Z2) +

(1 -

p 2 )" 1

q*A

folgt nach Satz A l l

ist nichtnegativ définit , )_1

= Z 2 Z 2 + (1 -

(Z.;Z 2 )-1 -

a~ a~2

— V2

M2 = I — Z 2 ( Z ^ Z 2 B-i

ist nichtnegativ définit, 2

B = C'C

(9-2~)

ist idempotent,

X'2

e2)-i

e

2

A

,

ist nichtnegativ définit

[Satz A 11],

•9.3. Das multivariate (klassische) unkorrelierte Regressionsmodell

aVf M)"*

-

V, = a-ay

(i;!,)"1

X[[I - X2BX'2]

= a^fe ^^)2

X\[M2M2 +

1

X I^IÄ)-

149

X^X,)^

X2C'CX'2] (9.28)

1

ist nichtnegativ definit [Satz A9]. Mit (9.25) bis (9.28) gilt dann JKÄ) -

5 ( A ) = sp z . (

>

^

( Z Ä r l

_

F i

) .^

0. (9.29)

wenn

=)= 0 vorausgesetzt, steht in (9.29) das Gleichheitszeichen genau dann, Q= 0

oder

X1 = X2 = X

(9.30)

gilt, woraus = cr~ 2 F 2 = emEm. - ( T -

s'mX (X.'X)-i

X') sm.

X'en.

. (9.36)

wmm. ist konsistent [Satz A38, (9.31g), (9.31 f)]: V

lim

"W

- V lim

(T — K)'1 e'mem-

- [p lim (T - K)'1 e'mX] \p lim T - H ^ ' ^ ) ] " 1 X [p lim T^X'em'] = «W - 0 • = w mm' '

•0

(Da K fest ist, gilt z. B. mit p lim T-iX'e*

= 0

auch

p lim (T - K)'1 X'em = 0 .)

Damit können wir auch V(bm, bmi) konsistent schätzen: S(bm,bm-) = ™mm,{X'X)-i

(9.37)

mit p lim S(bm, bm.) = T~^wmm.

= V{bm, bm.) .

S a t z 9.4. Im multivariaten (klassischen) gleichzeitig unkorrelierten gressionsmodell (9.32) sind die klassischen KQ-Schätzungen b=

= (Z'Zyi

W={T-

K)-* (y - Zb)' (,y - Zb) ,

S{b, b) = W gj

Z'y ,

(Z'X)"1

Re-

9. Vorhersage in ökonometrischen Modellen

152

konsistent (und folglich asymptotisch erwartungstreu), und es gilt p lim b = ß , V(b, b) = Ë(b - Ëb) (b - Ëb)' = T-W

¡8 Z7x -,

p lim W = W , p\m\S(b,b) =

V(b,b).

Bemerkung. Die Eigenschaft der Konsistenz einer Schätzung sagt noch nichts über ihre Güte aus. Man benötigt auch im Fall über alle Grenzen wachsender Stichprobenlänge ein zusätzliches Kriterium zur Auswahl einer besten Schätzung aus einer Klasse zulässiger Schätzungen. Beschränkt man sich auf die Klasse der konsistenten Schätzungen ß von ß, so erhält man das folgende K r i t e r i u m der a s y m p t o t i s c h e n E f f i z i e n z . Eine Schätzung ß des Parametervektors ß heißt asymptotisch effizient, wenn ß konsistent ist und für jede andere konsistente Schätzung ß die Differenz der asymptotischen Kovarianzmatrizen E(ß -ß)Cß-

ßy - Kß - ß ) ( ß - ßr

nichtnegativ définit ist. Wie man beweisen kann, ist b in der Klasse {ß = C'y\p lim ß = ß) eine asymptotisch effiziente Schätzung von ß im Modell (9.32). Wählen wir als Risikofunktion \

=j5P E(ß -ß)Cß-

ßy,

so ist b also -ßj-optimal. Wenn wir beachten, daß die Fehler etnt zeitlich unkorreliert sind (Eee' = W I) und wenn T* als fest vorausgesetzt wird, so hat das (9.32) entsprechende Vorhersagemodell analog zu (9.14) die Gestalt: 2/* = Z* ß + e* > M x 1 M x ME Mx1 Z^ nichtstochastisch, Ee* = 0 ,

(9.38)

Ee^e'* = W Eee* =

0

[nach (9.31c)], [wegen Eee' — W

/].

Wir schätzen y.% durch die klassische Vorhersage (vgl. auch Satz 9.3.) P3 = %J> mit (vgl. (9.34)) p lim p3 = Z* p lim 6 = Z*ß = Ëp3 .

153

9.4. Reduzierte Form und Vorhersage

Definieren wir als asymptotische Risikofunktion einer Vorhersage p B(P) = E(P - y*Y (P - y*) = T - i lim E[]/T(p T-voo

(9.39)

- y*)]' [p(p

— y*)],

so gilt für p3 & — V* = z*(b B(p3) = sp z

— ß) ~ > - ß) (b - ß')]

+ sp Ee^

-

z;

2 sp Z^[E(b - £)

,

also nach Satz 9.4. und mit den Annahmen aus (9.38) B(p3) = sp W + sp Zm{T~*W

g SZ1) Z* -

(9.40)

gj ( Z ' Z ) - i ) z ;

(9.41)

Das Risiko läßt sich also durch B(p3) = sp W + sp Z^T^W konsistent schätzen: p lim B(p3) = ~B(ps)

[Satz 9.4.]

S a t z 9.5. Im multivariaten (klassischen) gleichzeitig Begressionsmodell ist die Vorhersage von y% aus (9.38)

unkorrelierten

p3 = Z%b mit Ä(Ä) = s p i F . +

spZ*F(M)Z;

konsistent, asymptotisch erwartungstreu und wegen der B^Optimalität von b auch B-optimal in der Klasse {p = C'y\p lim C'X = 1} aller homogenen konsistenten linearen Vorhersagen. 9.4.

Reduzierte Form und Vorhersage

Unter der Voraussetzung der Vollständigkeit des ökonometrischen Modells (2.4) wurde in 2.3. die reduzierte Form in der Gestalt [(2.7), (2.8)] abgeleitet. Die endogenen Variablen Ylt ..., Yu hängen linear von den vorherbestimmten Variablen Xlt ..., XK ab: Y

TxM

=

X

TxK

n

KxM

+

V .

(9.42)

TxM

Die m-te Gleichung der reduzierten Form ist ym Txl 11

= X nm + Ixl

loutenburg, Vorhersage

vm Txl

{m = l,...,M).

(9.43)

154

9. Vorhersage in ökonometrischen Modellen

Mit den Annahmen (2.7) gilt für die Kovarianzmatrizen der Fehler v„: (9.44) da die Fehler zeitlich unkorreliert vorausgesetzt wurden. Dabei ist ammdas (m, m')-te Element der Matrix =

MxM

Ev(t)

Vit).

Ordnen wir die M Gleichungen (9.43) untereinander an, so ergeben sich die zu (9.42) äquivalenten Darstellungen der reduzierten Form

oder zusammengefaßt y =

Zn

+

v

{y: M T x l , Z ; M T x M K , n : M K x l , v: M T x l )

.

Aus (9.44) folgt =

EW

&

I .

Die in (2.7) getroffene Voraussetzung y l i m T'1X'V = 0 impliziert, daß die Prozesse {x(t)} und { f ( Ew\ = 0 . Damit gelten die Aussagen über die Schätzung und Vorhersage im multivariaten klassischen gleichzeitig unkorrelierten Regressionsmodell. Die konsistente Vorhersage des Vektors der M endogenen Variablen hat also nach Satz 9.5. die Gestalt p3 = Z*7t3

(9.47)

mit a3=(Z'Z)~iZ'y, V(n3, Ä3) = T - 1 Z«, !Si Z * > R{$3) = sp Zw + SP z * V £3) Z\* • p3 ist ü-optimal, sofern keine weitere als die im Modell (9.45) enthaltene Information zur Verfügung steht. Bei der Vorhersage in ökonometrischen Modellen spielt im Gegensatz zu den Schätzproblemen die Frage der Identifizierbarkeit der Parameter insofern eine andere Rolle, als sie nur Einfluß auf die Güte der Vorhersagen nimmt, die Vorhersagbarkeit von y* selbst jedoch nicht in Frage stellt. Die Berücksichtigung der a-priori-Information, die zur Identifizierung der Parametermatrizen F und D der strukturellen Form (2.4) notwendig ist, führt zu einem Gewinn an Wirksamkeit bei der Vorhersage von wenn wir statt der Reduzierten-Form-Schätzung n3 — (Z'Z)'1 Z'y konsistente strukturelle Parameterschätzungen heranziehen. Die Parameter der reduzierten und der strukturellen Form stehen in folgendem Zusammenhang (vgl. ( 2 . 5 ) ) : n =

-dt-1

Es seien t> und F konsistente Schätzungen, etwa nach der KQ-Methode in 2 oder 3 Schritten (GOLDBEBGEB [1]) abgeleitet. Dann können wir II durch n = -bfschätzen. Wegen

1

p lim II = — (p lim D) (p lim /")- 1 li*

156

9. Vorhersage in ökonometrischen Modellen

ist 77 konsistent, sofern D und F konsistent sind. Die lineare homogene Vorhersage

P

=

mit n' = (jri, •••> ^m) und 77 = (n lt ..., n M ) wäre dann ebenfalls konsistent, und es gilt

E(p) = sp £ „ + sp Z * V (n, h)

.

Die Schwierigkeit liegt nun in der Berechnung der asymptotischen Kovarianzmatrix F(Ä, n) aus den asymptotischen Kovarianzmatrizen der strukturellen

Schätzungen

D , JT ( v g l . h i e r z u GOLDBERGER, NAGAR

und

ODEH [1]). Da sich z. B. die Minimum-Varianz-Eigenschaft einer strukturellen Schätzung nicht auf die damit gewonnene Reduzierte-FormSchätzung (9.48) überträgt, sind Aussagen etwa im Sinne der ii-Optimalität nicht möglich. Für spezielle Schätzungen und Modelle gibt es jedoch bereits Effektivitätsuntersuchungen über die Rangordnung im Sinne der Effizienz (vgl. K A D I Y A L A [1] für die ¿-Klassen-Schätzungen) bzw. der a s y m p t o t i s c h e n E f f i z i e n z ( v g l . W I C K E N S [ 1 ] u n d AMEMIYA [ 1 ] f ü r s i m u l -

tane Gleichungen mit autokorrelierten Fehlern). Die strukturellen Schätzungen sind im allgemeinen asymptotisch wirksamer als die ReduziertenForm-Schätzungen, so daß nach unseren bisherigen Erfahrungen über den Einfluß von Zusatzinformation eine abgewandelte Reduzierte-FormSchätzung der Form (9.48) zumindest asymptotisch gleichwertig mit h 3 sein dürfte. Analoges gilt für die entsprechenden Vorhersagen.

157

Tabellen

Tabelle 1 Kritische Werte 0 ,

ist, dann gilt

Rang A — n und A regulär.

B e w e i s . Siehe GOLDBEBGEB [1], S. 34—35.

Satz A 5. Es sei A eine positiv definite nXn-Matrix und P eine nXmMatrix vom Bang P = m. Dann ist P'AP positiv definit. (Speziell gilt also P ' P positiv definit). Beweis. Es sei «/=)= 0 ein beliebiger Vektor. Dann wird y'(P'AP) y = (Py)' A(Py) — x'Ax > 0, da A positiv definit ist. Wegen Rang P = m ist nach bekannten Sätzen über lineare inhomogene Gleichungen x = Py = 0 genau dann, wenn y — 0.

161

Anhang

S a t z A 6. Mit A ist auch A~x positiv definit. B e w e i s . Wir setzen in A 5 P = A'1, so daß P'AP — Awird. D e f i n i t i o n A 7. Eine symmetrische Matrix A ist nichtnegativ definit (oder positiv semidefinit) genau dann, wenn x'Ax ¡ä: 0

für alle x.

S a t z A 8. Es sei A eine positiv definite nxn-Matrix und P eine nxmMatrix. Dann ist P'AP mindestens nichtnegativ definit. Im Fall m — n und Bang P = n ist P'AP positiv definit. B e w e i s . Es ist x'P'APx — (Px)' A{Px) = y'Ay ^ 0, da A positiv definit ist und somit y' Ay > 0 für t/ =j= 0 und y'Ay = O.für y = 0 gilt. S a t z A 9. Ist P eine beliebige Matrix, so ist P'P nichtnegativ definit. B e w e i s . Setze in Satz A 8 speziell A = I. S a t z A 10. Es sei A eine positiv definite nXn-Matrix und B eine nichtnegativ definite n X n-Matrix. Dann ist C = A + B positiv definit. B e w e i s . x'Cx = x'(A + B) x = x'Ax -f- x'Bx > 0 für x =)= 0. S a t z A 11. Wenn C = A + B mit A positiv d&finit und B nichtnegativ definit ist, so gilt a) . ) \ den 1

und damit imit x'C'A

(

T

K

T K

\

Z Z xAiatl> —= Z Z xAiTt) i=1 »=1 (=1 i =l / Cx) = Z xixxctiatt

= £ XiXxcHatk t,i

(da A symmetrisch)

ACx. (öCM X ^ ) £ XiXxct.fltk ist aber gerade das (k, A)-te Element der Matrix ACxx'. t.i ~~

165

Anhang

S a t z A27. Es sei A = A{x) eine n X n-Matrix, deren Elemente a^(x) reelle Funktionen des Skalars x sind. B sei eine n X n-Matrix, deren Elemente nicht von x abhängen. Dann gilt k BP (AB) = sp ( M ß ) . Beweis. n

sp {AB) = 2 1

=

S

P

n

X

ijbji,

a

*)>

wobei

^ = (5)ist-

Verteilung von Funktionen normalverteilter Variablen S a t z A28.

Es

sei x' = (y'i, .Tn) (¡71 Vektor aus unabhängig und identisch N( 0, l)-verteilten Komponenten x;, d.h. x ~ .¿V(0, 1). Dann besitzt n w — x'x — £ x\ eine (zentrale) yf-Verteilung

mit n Freiheitsgraden,

d. h.

S a t z A29. Es sei x ~ N(fi, I). Dann ist n W = X'X = £ xi ¿=1 nichtzentral ^-verteilt mit dem Nichtzentralitätsparameter n

?. —fi'/i = Z/A> d.h. Wr^ . »=i S a t z A30. Es sei x ~ N(/x, Z) und Z positiv definit. A sei eine n X nMatrix und b ein n X 1 -Vektor (A, b nichtstochastisch). Dann gilt y = Ax + b~ N(Afi + b, AZA') . B e w e i s . Nach bekannten Sätzen sind lineare Funktionen normalverteilter Variablen wieder normalverteilt. Wir berechnen Eij = AEx + b = A/i + b E{y - Ey) {y - Ey)' = AE (x - p) (x - /*)' A' = AZA' . S a t z A31. Es sei x ~ N(fi,

Z ) und Z positiv definit. nxn a) (x — ju)' Z~\x — p) ~ y% , b) x'Z~Yx ~ xKß'Z-Y)

.

Dann gilt

166

Anhang

Beweis. a) Nach bekannten Sätzen existiert für die positiv definite und damit (Satz A4) reguläre Matrix £ eine Produktdarstellung E = RR' (R regulär). Damit wird {X - n)' Z-\x - p) = (X - pY R'^R-1 [B-*(x - p)]'

{X -

p)

[B-^x-fi)]

= y'y = AyM2 ' da nach Satz A28 y =

- R~*p ~ N(R~1p - -R-i«,

R^IR''1)

= N(0, I) • b) Entsprechend gilt x'Ir^x = [R^x]'

[ii"1«]

= y'y = XrA/*'^1/*) > da nach Satz A28 y = R~*x ~ NiR^fi, I) , S a t z A32. Es sei Q1 ~ z„(X) seien unabhängig.

also ( % ) ' ( % ) = X = ^ " V * . Qi ~ Z»

und

beide Variablen Q1} Q2

a) Dann besitzt der Quotient F

__ Qiln QJm

eine nichtzentrale F-Verteilung mit (n, m)-Freiheitsgraden Nichtzentralitätsparameter X, d. h. F Fn'm{k) •

und dem

b) Ist X = 0, so ist F ~ Fn 0) = (0, 0)

und damit D1 = 0. Daraus erhalten wir (Cx = y wie in A33)

= Dy = (0, Dt) Q

Bx = BCC'x Wegen

= D#t .

sind alle Komponenten von Bx = D2y2 und x'Ax — y'1y1 unabhängig verteilt sind. y ~

N(C'fi,

I)

y

unabhängig, so daß

168

Anhang

S a t z A 3 5 . Es sei

x ~ N(0, I). A bzw. B seien idempotente n x n»xl Matrizen vom Rang r bzw. s, und es gelte BA = 0. Dann sind die quadratischen Formen x'Ax und x'Bx unabhängig verleilt. B e w e i s . E s sei C die Matrix a u s A33. Wir setzen D = C'BC, D ist offenbar symmetrisch, und wir erhalten mit der Voraussetzung BA = 0 : DG'AC

=

C'BCC'AC

= C'BAC

= 0 .

(D1 Unterteilen wir D in D = I , \D 2

DA J , wobei die Teilmatrizen von D und

D3J

C'AC jeweils die gleiche Dimension besitzen, so läßt sich diese Beziehung wie folgt darstellen:

^HSSMooHäoHoo)

woraus Dx = 0 und X>2 = 0 folgt. D a m i t erhalten wir

x'Bx = x'(CC')

B(CC')

= x'C(C'BC)

x

C'x

= ( o IJ ( 3 = •

Hieraus folgt, daß auf Grund der Unabhängigkeit der Teilvektoren yl und y2 von y die beiden quadratischen F o r m e n

x'Bx =

y'2D3y2

und

x'Ax = y[y1 (Satz A33) voneinander unabhängig verteilt sind. Partielle Inversion einer Matrix S a t z A 3 6 ( G O L D B E B G E B [1], S. 27). Es sei A eine reguläre n trix, die wie folgt unterteilt wird: a

_ lE \

x

n-Ma-

F -\oh)'

wobei E vom Typ Wj X n^, F : nx X n.2, G: n2 X nt und II: n2 X w2 sind (Wj + n2 = n)- E und D = H — GE~ 1 F werden als regulär vorausgesetzt.

169

Anhang

Dann gilt A'1

I E ' 1 (/ + FD^GE-1) = ' i - i D^GE-1

- ED

B e w e i s . Durch Ausmultiplizieren überzeugt man sich leicht, daf.5 AA-1

= A-^A = I

gilt. S a t z A37.

Es sei a = sp (AC'WC)

= (Wj, .... wT) symmetrisch und

mit

A symmetrisch, XK C = (cl, ..., cK). Dann gilt ' K

JF == T

N.

r

T.K

da.

«r- =

2AC

'W •

B e w e i s . Es ist C'WC =

eilVe, — ecu « \c a -H>I

c[WcK cKWcK (0 c[wj

=

(»')

0 0 c\iVj ••• c'i _1tv1 2c'iW] c'i+1ic} ••• c'^Wj 0 : 0 CKWj

und damit (Satz A27) ca.

Tc

'/iiCiW1 '

Das ist aber gerade das (i, j)-te Element von

2AC'W.

S a t z ASS. Es sei {#(i)}> ' = 1 , 2 , . . . , ein multivariater stochastischer Prozeß mit lim P{\x(t) — d) = 0, wobei ö > 0 ein beliebiger Vektor und x ein Vektor aus endlichen Konstanten ist. Dann heißt x = p lim x der Limes in Wahrscheinlichkeit, und es gelten folgende Relationen (vgl. G o l d b e k g e r [1]): a) Falls p lim x = x ist, so icird der asymptotische

Erwartungswert

Ex = lim Ex(t) = x . b) Ist c ein Vektor aus Konstanten, so gilt p lim c = c.

Anhang

170

o) Falls p lim x - x gilt und falls y = f(x) eine stetige VektorJunktim x ist, so gilt

von

p lim y = y = f{x) (Theorem von

SLUTSKY).

•d) Es seien A(t), B(t) zufällige Matrizen. ausgesetzt, gilt p lim

= (p lim A) (p lim B)

p lim

= (p lim

Die Existenz der Grenzwerte vor-

und A)-1.

•e) J u s p l i m [|/T (x{t) — Ex(t))] [)/T (x{t) - Ex{t))]' = V folgt E{x S a t z A39. A

my.n

=

Ex) (x -

Ex)' = T-^V .

KEOXEC'KER-ProcZMH. Es (a.;j)

und

B

pxq

— (brs)

Dann ist das Kroneckerprodukt

und es gelten folgende a)

sei

.

von A und B definiert

als

Regeln:

c(A (x) B) = (cA) (x) B = .4 (x) ( c B )

b) A (x) (B (x) C) = (A (x) B) ® C , c) A (x) (B + C) = (A (x) B) + ( 4 (x) C) , d) {A (x) B)' = A' 0 B' .

(c ein Skalar) ,

Literaturverzeichnis [1] AHRENS, H. [1] : Varianzanalyse, Berlin 1967. [2] AITCHISON, J . [1] : Expected-cover and linear-utility tolerance intervals, J . Royal Statist. Soc. B 28 (1966) 57 - 6 2 . [3] AITCHISON, J., DUNSMORE, I. R. [1] : Linear-loss interval estimation of location and scale parameters, Biometrika 55 (1968) 141 —148. [4] AMEMIYA, T. [1] : Specification analysis in t h e estimation of parameters of a simultaneous equation model with autoregressive residuals, Econometrica 34 (1966) 2 8 3 - 3 0 6 . [5] BIBBY, J . [1] : Minimum square error estimation, ridge regression, and some unanswered questions. Proceedings of the European meeting of statisticians, Budapest 1972. [6] B U N K E , O . [ 1 ] : Theorie der Bereichsschätzung statistischer Parameter, Teorija verojatnostej i ee primenenija, 8, H e f t 3 (1963) 330—337. [7] CHIPMAN, J . S., RAO, M. M. [1] : The treatment of linear restrictions in regression analysis, Econometrica 32 (1964) 198 —209. [8] CRAMEB, H. [1]: Mathematical methods of statistics, Bombay 1962. [9] DOBROW, G. M. [1] : Prognostik in Wissenschaft und Technik, Berlin 1971. [ 1 0 ] D R A P E R , N., SMITH, H . [ 1 ] : Applied regression analysis, New York 1 9 6 6 . [11] DUBBIN, J., WATSON, G. S. [1]: Testing for serial correlation in least squares regression I, Biometrika 87 (1950) 409—428. [12] D U B B I N , J . , W A T S O N , G. S. [2] : Testing for serial correlation in least squares regression I I , Biometrika 38 (1951) 159—178. [ 1 3 ] M C E L R O Y , P . W . [ 1 ] : A necessary and sufficient condition t h a t ordinary leastsquares estimators be best linear unbiased, J . Amer. Statist. Ass. 6 2 ( 1 9 6 7 ) 1302-1304. [ 1 4 ] GOLDBERGER, A . S . [ 1 ] : Econometric Theory, New York 1 9 6 4 . [ 1 5 ] GOLDBERGER, A . S . , NAGAR, A . L . , O D E H , H . S . [ 1 ] : The covariance

matrices of reduced-form coefficients and of forecasts for a structural econometric model. Econometrica 29 ( 1 9 6 1 ) 5 5 6 — 5 7 3 . [16] GRAYBILL, P . A. [1] : An introduction to linear statistical models. New York 1961. [17] GUTTMAN, I. [1]: Statistical tolerance regions, London 1970. [18] GWISCHIANI, D . , LISITSCHKIN, W . [1] : P r o g n o s t i k , B e r l i n 1968.

[19] HOCHSTÄDTER, D., UEBE, G. [1]: ökonometrische Methoden, Berlin 1970. [20] HODGES, J . L . J R . , LEHMANN, E . L . [ 1 ] : Testing the approximate validity of statistical hypotheses, J . Roy. statist. Soc., Ser. B, 16 (1954) 261—268. [21] HUANG, D. S. [1]: Regression and econometric methods, New York 1970. [22] JAGLOM, A. M. [1] : Einführung in die Theorie stationärer Zufallsfunktionen, Berlin 1959. [23] KADIYALA, K . R . [1] : An exact small sample property of the I-class estimators, Econometrica 38 (1970) 930—932. [24] K O E R T S , H., ABRAHAMSE, A . P. J . [1] : On t h e theory and application of t h e general linear model, Rotterdam 1969.

Literaturverzeichnis

172

[25] KÜNZI, H. P., KEELLE, W. [1]: Nichtlineare Programmierung, Berlin 1962. [26] LÄTJTEB, H. [1]: Optimale Vorhersage und Schätzung in regulären und singulären Regressionsmodellen, Math. OF Stat. 3 (1970) 229—243. [27] LÄTJTEB, H. [2]: Optimale Schätzung bei stochastischen Prozessen mit linearem Regressionsanteil, Math. OF Stat. 2 (1971) 237—246. [28] LIEBEBMANN, G. L., MILLER, R. G. JR. [1]: Simultaneous tolerance intervals in regression, Biometrika 50 (1963) 155—168. [29] LÜDEKE, D. [1]: Schätzprobleme in der Ökonometrie, Würzburg-Wien 1964. [30] MERGES, G. [1]: Ökonometrie, Wiesbaden 1961. [31] MERTENS, P. [1]: Prognoserechnung, Würzburg-Wien 1972. [32] MOSBAEK, E. J., WOLD, H. O. [1]: Interdependent systems, Amsterdam 1969. [33] NAG AR, A. L., KAKWANI, N. C. [1]: Note on the use of prior information in statistical estimation of economic relations, Sankhya, Ser. A 27 (1965) 105—112. [34] RAO, C. R. [1]: Linear statistical inference and its applications, New York 1965. [35] SCHNEEWEISS, H. [1]: Ökonometrie, Würzburg-Wien 1971. [36] SCHÖNFELD, P. [1]: Methoden der Ökonometrie, Bd. I. Berlin, Frankfurt a. M. 1969. [37] SCHÖNFELD, P. [2]: Methoden der Ökonometrie, Bd. II, München 1971. [38] SEBEB, G. A. F. [1]: The linear hypothesis, London 1966. [39] TAN, W. Y. [1]: Note on an extension of the GM-Theorems to multivariatelinear regression models, SIAM J . Appl. Math. 20, No. 1 (1971) 2 4 - 2 8 . [40] TEEKENS, R. [1]: Prediction methods in multiplicative models, Rotterdam] 1972.

[41] THEIL, H. [1]: Econometric forecasts and policy, Amsterdam 1961. [42] THEIL, H. [2]: On the use of incomplete prior information in regression analysis, J . A m e r . s t a t i s t . Ass. 5 8 (1963) 4 0 1 — 4 1 4 .

[43] THIELE, H. [1]: Vorhersage unter Zusatzinformation im Fall K = 1. Vortrag im Forschungsseminar „Math. Statistik" der Humboldt-L T niversität zu Berlin, 1969. [44] TINBEBGEN, J . [1]: Einführung in die Ökonometrie, Wien/Stuttgart 1952. [45] TINTNEB, G. [1]: Handbuch der Ökonometrie, Berlin 1960. [46] TORO-VIZCAEEONDO, C., WALLACE, T. D. [1]: A test of the mean square error criterion for restrictions in linear regression J . Amer. Statist. Ass. 63 (1968) 558-572. [47] TOBO-VIZCABRONDO, C., WALLACE, T. D. [2]: Tables for the mean square error test for exact linear restrictions in regression, Workshop discussion papers, Dept. of economics, North Carolina State University, 1969. [48] TOUTENBTJBG, H. [1]: Vorhersage im allgemeinen linearen Regressionsmodell mit Zusatzinformation über die Koeffizienten, Operationsf. math. Statist., Sb. I, 107-120, Berlin 1968. [49] TOUTENBTJBG, H. [2]: Vorhersage im allgemeinen linearen Regressionsmodell mit stochastischen Regressoren, Math. OF Stat. 2 (1970) 105—116. [50] TOTJTENBURG, H. [3]: Probleme linearer Vorhersagen im allgemeinen linearen Regressionsmodell, Biometrische Zeitschrift 12, Heft 4 (1970) 242 — 252. [51] TOTJTENBURG, H. [4]: Optimale Vorhersage von endogenen Variablen in einem linearen System von strukturellen Gleichungen, Math. OF. Stat. 1 (1970) 69-75.

[52] TOUTENBURG, H. [5]: Über die Wahl zwischen erwartungstreuen oder nichterwartungstreuen Vorhersagen. Operationsf. math. Statist., SB II, 107 —118, Berlin 1970.

Literaturverzeichnis

173

[53] TOUTENBURG, H. [6]: Vorhersagebereiche im allgemeinen linearen Regressionsmodell, Biometrische Zeitschrift 12, Heft 1 (1970) 1 — 13. [54] TOTTTENBURQ, H. [7]: Probleme der Intervallvorhersage von normalverteiten Variablen, Biometrische Zeitschrift 13, Heft 4 (1971) 261—273. [55] TOUTENBUBG, H. [8]: Lineare Restriktionen und Modellwahl im allgemeinen linearen Regressionsmodell, Biometrische Zeitschrift 16, Heft 5 (1973) 325—342. [56] WEBEH, E. [1]: Grundriß der Biologischen Statistik, 7. Auflage, Jena 1972. [57] WEBSTEB, J. T. [1]: On the use of a biased estimator in linear regression, J. Indian Statist. Assoc. S (1965) 82—90. [58] WICKENS, M. R. [1]: The consistency and efficiency of generalized least squares in simultaneous equation systems with autocorrelated errors, Econometrica 37 (1969) 6 5 1 - 6 5 9 . [59] WITTING, H., NOLLE, G. [1]: Angewandte Mathematische Statistik, Stuttgart 1970.

[60] WOLD, O. A. [1]: Time as the realm of forecasting. Paper of the Symposium sponsored by The New York Academy of Sciences, 17—20 Jan. 1966.

Sachverzeichnis AiTKEN-Schützung 60 asymptotische Effizienz 152 Autoregression 1. Art 65 Test auf 66 bedingte Erwartungstreue 43, 99 Beobachtungszeitraum 9 Bereichsvorhersage 123 CoBB-DoTTGLAS-Funktion 8 deskriptive Regression 23 endogen 6 empirische Regression 24 Erwartungstreue — der Schätzung 35 — der Vorhersage 72 bedingte 43, 99, 143 exogen 6

, dynamisches 18 Kleinste-Quadrat-Schätzung bedingte 32, 43 —, klassische 25, 37 —, verallgemeinerte 61 kognitives Modell 2 Komplementärmatrix 31, 48 Konsistenz 151 KitonECKER-Symbol 28, 170 lAGRANGE-Multiplikator 31, 58, 72, 87, 98 Likelihood-Quotient 49 lineare Restriktion 31 lineares Modell (s. Modell) Linearform 36, 62

Idempotenz 162 Intervallvorhersage 125, 130

Maximum-Likelihood — Prinzip 46 — Quotient 49 — Schätzung 47, 49, 106 MSE-Kriterium 122 Modell —, dynamisches 6 —, lineares 7 — mit einem Regressor 39, 80, 84 — mit zwei Regressoren 41 —, multiples 7 —, multivariates 7, 16, 145 —, multivariables 7, 23, 55 —, ökonometrisches 6, 7, 9 — .univariates 7, 153 —, vollständiges 14 Modellbildung 4, 5 Modellreduktion 110 Modellwahl Kriterien 112 — mit Schätzung 121 — mit Vorhersage 117 Multikollinearität 40, 92

Kenntnis eines Teilvektors 88, 104 klassische Vorhersage 68, 73 KEYNESsches Modell 15

Normalgleichung 25, 31 Normalregression 19, 46, 106, 109, 123 Normal Verteilung 45

Fehlerprozeß —, gleichungsweise unkorrelierter 20 —, zeitlich unkorrelierter 19 —, regulärer 21 Fehlerquadratsumme 26 Fehlervariable 6 Fehlspezifikation 62 GAtrss-MABKorr-Theorem 37 GAUSS-MABKOFF-AiTKEN-Theorem 61 Heteroskedastie 64 Homoskedastie 65, 147 Hyperebene 26 Hypothese —, allgemeine lineare 48, 106

176 Nützlichkeit —, Funktion der 133 —, maximale 133 — und Intervallänge 137 — und optimale Tests 139 — und Überdeckung 138 Nullraum 28 Nullrestriktion 17, 145 Ökonometrie 5 •orthogonale Projektion 29, 33 Orthonormalbasis 29, 31, 150 Parameter 5 Produktionsfunktion 8, 79 Prognose 3 Prognostik 3 Punktvorhersage 67 Jt-Optimalität 71 Rangbedingung 34 Rangraum 28, 160 reduzierte Form 7, 14, 153 Regressand 7 Regressionsmodell (s. Modell) Regressor 7 Restriktion - , exakte lineare 31, 88, 97, 110 —, stochastische 89, 129 restriktives Modell 90 Risiko — der Schätzung 35, 65 — der Vorhersage 69 — bei stochastischen Regressoren Schätzkriterien 55, 112 Schätzung von a i 39, 47, 62 Schätzung, lineare —, homogene 55, 57 —, homogen erwartungstreue 57 —, inhomogene 55 —, JJ x -optimale 58 schrittweise Regression 100 Spur 161 Steuerung 1, 112, 117, 139 stochastischer Prozeß 11 , ergodischer 13 , multivariater 11, 13, 169

Sachverzeichnis , regulärer 19, 142 , stationärer 11, 13 , univariater 11 , unkorrelierter 13, 150 Struktur 5 Strukturbruch 6 strukturelle Gleichung 9 Testen —, Modellwahl 118, 122 — linearer Hypothesen 47, 105 Trend 11 Überdeckung 124, 138 Variable 5 —, abhängige 7 —, gemeinsam abhängige 7 —, verzögerte endogene 7 —, vorherbestimmte 7 Vektorraum 27 Vorhersage —, erwartungstreue 73, 91, 111 —, klassische 68, 73 —, inhomogene 69 —, homogene 72 —, restriktive 111 —, Risiko der 69 Vorhersagebereich 123 — im Regressionsmodell 128 — mit gr-Überdeckung 124, 128, 129 — mit (p, g)-Überdeckung 124 Vorhersageellipsoid 129 Vorhersageintervall 125 — mit «¡r-Überdeckung 125 — mit (p, q)-Überdeckung 130 Vorhersagemodell 67 Wahrscheinlichkeitslimes 12, 169 Wahrscheinlichkeitsvolumen 124 Zeitreihe 11 Zusatzinformation 17 — über a-^ß 76, 82 — über ff2 93 — über ß 88, 89 Zusatzschätzung 88,100,105

Berichtigung Zeile

Statt

Lies

19

7. v. o.

wlm

w1M

20

6. v. o.

W Lmm'y 1

Wjijm' I

21

1. v. u.

wlt

Wir

36

16. v. o.

besizt

besitzt

36

18., 19., 21. v. o.

V~

v~ß

65

3. v. u.

(4.20)

(4.30)

69

2. v. o.