Prognoseverfahren und ihre Anwendung [Reprint 2012 ed.] 9783110846973, 9783110108262


237 12 17MB

German Pages 394 [396] Year 1986

Report DMCA / Copyright

DOWNLOAD PDF FILE

Table of contents :
Kapitel 1 Einführung: Die Bedeutung von Prognosen und die verschiedenen Prognoseverfahren
Literaturhinweise
Aufgaben
Teil I Rein univariate Verfahren
Kapitel 2 Prognosen auf der Basis der „klassischen“ Zeitreihenzerlegung
2.0 Die Komponenten von Zeitreihen
2.1 Der Trend
2.2 Die Saison
2.3 Die zyklische und die Rest-Komponente
2.4 Das Census-Verfahren (und andere Dekompositionsverfahren)
Literaturhinweise
Aufgaben
Kapitel 3 Prognosen auf der Basis des Exponentiellen Glättens
3.0 Modellarten
3.1 Konstantes Modell (First Order Exponential Smoothing – EXPO 1)
3.2 Trendmodelle (Second Order Exponential Smoothing und EXPO höherer Ordnung)
3.3 Saisonmodelle – Das Winters-Verfahren
3.4 Die „Steuerung“ der Parameter
Literaturhinweise
Aufgaben
Teil II Uni- und multivariate Verfahren
Kapitel 4 Regression
4.1 Einfach-Regression
4.2 Multiple Regression
4.3 Regression mit dummy-Variablen
4.4 Regression mit verzögerten Variablen
4.5 Ökonometrische Modelle (und Marketing-Modelle)
4.6 Wachstumsfunktionen und Sättigungsmodelle
Literaturhinweise
Aufgaben
Kapitel 5 Grundlagen der „modernen“ Zeitreihenanalyse: Autokorrelations- und Spektralanalyse
5.0 Die „Stationarität“ von Zeitreihen – Datentransformationen
5.1 Autokorrelationsanalyse
5.2 Spektralanalyse
Literaturhinweise
Aufgaben
Kapitel 6 Der „Box-Jenkins-Approach“
6.1 Univariate Modelle
6.2 Univariate Modelle mit Transferfunktionen
6.3 Multivariate Modelle
6.4 Multivariate Modelle mit Transferfunktionen
Literaturhinweise
Aufgaben
Kapitel 7 „Adaptive“ Verfahren
7.1 Das Adaptive Filtern
7.2 Das AEP-Verfahren
7.3 Weitere Verfahren
Aufgaben
Teil III Qualitative Verfahren
Kapitel 8 Auswertung von Befragungen
8.1 Vertreterbefragungen
8.2 Expertenbefragungen
8.3 Verbraucherbefragungen
Literaturhinweise
Aufgaben
Kapitel 9 Indikator-Methode und Analyse der Nachfrage-Komponenten
9.1 Indikator-Methode
9.2 Die Analyse von Nachfrage-Komponenten
Literaturhinweise
Aufgaben
Kapitel 10 Weitere Methoden der „technologischen Prognose“ bzw. „Zukunftsforschung“
Teil IV Beurteilung und Auswahl von Prognoseverfahren
Kapitel 11 Beurteilung und Vergleich von Prognoseverfahren anhand der Genauigkeit
11.1 Fehlermaße für Prognosen
11.2 Der empirische Vergleich von Prognoseverfahren
Literaturhinweise
Aufgaben
Kapitel 12 Die Auswahl (und Kombination) von Prognoseverfahren
12.1 Weitere Auswahlkriterien
12.2 Auswahlempfehlungen für Prognoseverfahren
Aufgaben
Teil V Der Einsatz von Prognoseverfahren in der Unternehmung
Kapitel 13 Der Stand des Einsatzes der Prognoserechnung in der Praxis
Kapitel 14 Die Organisation der Prognose-Erstellung
14.1 Prognoseprozeß und Prognosemanagement
14.2 Die Überprüfung des Prognoseprozesses - Die Rolle von Beurteilungsverfahren
Anhang
A. Statistische Tafeln
B. Einige Regeln für Matrizen und Vektoren
C. Aufgaben-Lösungen
D. (englisches) Glossar
Literaturverzeichnis
Stichwortverzeichnis
Recommend Papers

Prognoseverfahren und ihre Anwendung [Reprint 2012 ed.]
 9783110846973, 9783110108262

  • 0 0 0
  • Like this paper and download? You can publish your own PDF file online for free in a few minutes! Sign Up
File loading please wait...
Citation preview

Manfred Hüttner Prognoseverfahren und ihre Anwendung

Manfred Hüttner

Prognoseverfahren und ihre Anwendung

w G DE

Walter de Gruyter Berlin-New York 1986

Professor Dr. Manfred Hüttner Fachbereich Wirtschaftswissenschaft Universität Bremen Postfach 330440 2800 Bremen 33

CIP-Kurztitelaufnahme der Deutschen Bibliothek Hüttner, Manfred: Prognoseverfahren und ihre Anwendung / Manfred Hüttner. - Berlin ; New York : de Gruyter, 1986. ISBN 3-11-010826-7

Copyright © 1986 by Walter de Gruyter & Co., Berlin 30. Alle Rechte, insbesondere das Recht der Vervielfältigung und Verbreitung sowie der Übersetzung, vorbehalten. Kein Teil des Werkes darf in irgendeiner Form (durch Photokopie, Mikrofilm oder ein anderes Verfahren) ohne schriftliche Genehmigung des Verlages reproduziert oder unter Verwendung elektronischer Systeme verarbeitet, vervielfältigt oder verbreitet werden. Printed in Germany. Satz und Druck: Appi, Wemding Bindung: Lüderitz & Bauer GmbH, Berlin Einbandentwurf : K. Lothar Hildebrand, Berlin

Vorwort Zwischen der Entwicklung moderner Prognoseverfahren in der Theorie und ihrer Anwendung in der Praxis klafft offensichtlich eine Lücke. Das zeigen nicht nur die — in Kapitel 13 diskutierten — vorliegenden empirischen Erhebungen, sondern auch Erfahrungen des Verfassers aus Praxiskontakten, Fortbildungsveranstaltungen usw. Der Grund dafür liegt sicher einmal darin, daß diese modernen Methoden zunehmend erst in den letzten Jahren und in der anglo-amerikanischen Statistik, mit ihrer langen, stark formal ausgerichteten Tradition, entwickelt wurden. Sie sind damit in statistisch-mathematischer Beziehung von einer gewissen Komplexität und bedürfen in der Regel der EDV-Unterstützung; ihre Diffusion in die — zumal deutsche — Praxis benötigt also zwangsläufig eine gewisse Zeit. Dazu kommt zum anderen, daß in der — deutschen — akademischen Lehre Prognoseverfahren und ihre Anwendung nur selten einen festen Platz einnehmen; zumeist wird dieses Thema mehr nur kursorisch entweder in der Statistik/Ökonometrie (und dann stärker rein formal) oder im Marketing (und hier eher bloß problemorientiert) erörtert. Das vorliegende Buch sucht diese Lücke zu schließen. Es wendet sich somit sowohl an Studenten als auch an Praktiker. Dementsprechend werden die Verfahren und ihre Anwendung behandelt. Dabei mußte zwangsläufig ein eher mittleres Niveau angestrebt werden. Der Verfasser ist sich der dabei bestehenden Gefahren wohl bewußt. So wird der primär statistisch-mathematisch Orientierte nicht nur inhaltlich manches vermissen, sondern auch bezüglich der Strenge in der Notation oder auch der Gedankenführung. Eine gewisse Redundanz schien aber im Hinblick auf Praktiker (und auch Anfänger) erforderlich. Der Praktiker wird auch den Verzicht auf methodische Rigorosität weniger beklagen als den auf ausführliche Fallstudien. Dazu zwangen schon umfangmäßige Überlegungen. Jedoch ist durch eine Vielzahl von Literaturhinweisen — im Text und am Kapitelschluß — die Vertiefung möglich. Eine Fülle von Beispielen versucht — auch drucktechnisch hervorgehoben — die Illustration. Aufgaben sollen zur Weiterarbeit anregen ; zum Teil bringen sie auch inhaltliche Erweiterungen. Zumindest dann finden sich die Lösungen im Anhang. (Die anderen wurden in einem besonderen Lösungsheft zusammengestellt, das — von Lehrpersonen — vom Verfasser unentgeltlich bezogen werden kann.) Der Aufiau des Buches insgesamt ist in Kapitel 1 dargelegt.

VI

Vorwort

Die vorliegende Schrift ist Ausfluß verschiedener Lehr- und Forschungsvorhaben. Insofern waren am Entstehen viele beteiligt. Das wird im Text noch mancherorts deutlich. An dieser Stelle soll zunächst mehr pauschal all denen gedankt werden, die dem Abschluß des Manuskriptes — 1985 — förderlich waren. Besonderer Dank gilt den mit dem Verfasser in der WE „Planung & Prognose" verbundenen Kollegen: Prof. Dr. Klaus Britsch, Prof. Dr. Heinz Schaefer, Prof. Dr. Günter Silberer und Prof. Dr. Siegmar Stöppler. Sie haben ihm nicht nur durch inhaltliche Diskussionen - auch ohne speziellen Bezug auf das Buch — wertvolle Anregungen gegeben, sondern auch in mancherlei anderer Weise unterstützt. Dies trifft ebenfalls zu für Dipl.-Ök. Uwe Bednarzik, Dipl.-Ök. Wolfgang C.Feddersen und Dipl.-Ök. Axel Karau. Dipl.-Ök. Torsten Czenskowsky hat die Drucklegung wesentlich gefördert. Hilfe in vielfältiger Hinsicht leistete Dipl.-Ök. Hans-Uwe Sicks. Frau Marga Rathjen und in besonderem Maße Frau Karin Schardelmann hatten große Geduld beim zum Teil recht schwierigen Schreiben des Manuskripts, in seinen verschiedenen Stadien, aufzubringen. Trotz aller Sorgfalt mögen Mängel, in inhaltlicher und formaler Hinsicht, verblieben sein. Für Hinweise hierauf und etwaige Verbesserungsvorschläge bin ich jederzeit dankbar. Manfred Hüttner

Inhaltsverzeichnis Kapitel 1

Einführung: Die Bedeutung von Prognosen und die verschiedenen Prognoseverfahren

1

Literaturhinweise Aufgaben

6 10

Teill

11

Rein univariate Verfahren

Kapitel 2

Prognosen auf der Basis der „klassischen" gung

Zeitreihenzerle11

2.0 Die Komponenten von Zeitreihen 2.1 Der Trend 2.1.1 Die Methode der gleitenden Durchschnitte 2.1.2 Die Methode der kleinsten Quadrate 2.2 Die Saison 2.2.1 Das Problem der Ermittlung von „Saisonfaktoren" 2.2.2 Saisonindizes nach der „Durchschnittsprozentmethode" . 2.2.3 Saisonindizes auf der Basis des Verfahrens der gleitenden Durchschnitte 2.3 Die zyklische und die Rest-Komponente 2.4 Das Census-Verfahren (und andere Dekompositionsverfahren) . Literaturhinweise Aufgaben

36 37 39 49 49

Kapitel 3

53

Prognosen auf der Basis des Exponentiellen Glättens . . . .

3.0 Modellarten 3.1 Konstantes Modell (First Order Exponential Smoothing — EXPO 1) 3.2 Trendmodelle (Second Order Exponential Smoothing und EXPO höherer Ordnung) 3.3 Saisonmodelle — Das Winters-Verfahren 3.4 Die „Steuerung" der Parameter Literaturhinweise Aufgaben

11 13 13 17 27 27 29

53 55 60 67 70 73 73

VIII

Inhaltsverzeichnis

Teil II

Uni- und multivariate Verfahren

Kapitel 4

77

Regression

77

4.1 4.2 4.3 4.4 4.5

Einfach-Regression Multiple Regression Regression mit dummy-Variablen Regression mit verzögerten Variablen Ökonometrische Modelle (und Marketing-Modelle) Exkurs : Input-Output-Analyse 4.6 Wachstumsfunktionen und Sättigungsmodelle Literaturhinweise Aufgaben

Kapitel 5

Grundlagen der „ modernen " Zeitreihenanalyse: lations- und Spektralanalyse

78 85 93 96 97 102 104 112 113

Autokorre115

5.0 Die „Stationarität" von Zeitreihen — Datentransformationen . . 115 5.1 Autokorrelationsanalyse 116 5.1.1 Autokorrelation und Differenzenbildung 116 5.1.2 Kreuzkorrelation 120 5.2 Spektralanalyse 122 5.2.1 Die Schätzung des „Spektrums" 122 5.2.2 Kreuzspektralanalyse 127 Literaturhinweise 128 Aufgaben 128 Kapitel 6

Der „Box-Jenkins-Approach"

6.1 Univariate Modelle 6.1.1 Die Grundtypen von Prozessen 6.1.2 Spezifikation (Identifikation), Schätzung und Überprüfung des Modells bzw. seiner Parameter 6.2 Univariate Modelle mit Transferfunktionen 6.3 Multivariate Modelle 6.4 Multivariate Modelle mit Transferfunktionen Exkurs: Die „Interventionsanalyse" Literaturhinweise Aufgaben

131 131 132 136 155 171 190 192 195 195

Inhaltsverzeichnis

IX

Kapitel 7 „Adaptive" Verfahren

199

7.1 Das Adaptive Filtern 7.2 Das AEP-Verfahren 7.3 Weitere Verfahren

199 208 213

Aufgaben

215

Teil III

Qualitative Verfahren

217

Kapitel 8 Auswertung von Befragungen

218

8.1 Vertreterbefragungen 8.2 Expertenbefragungen 8.2.1 allgemein 8.2.2 Delphi-Methode 8.3 Verbraucherbefragungen 8.3.1 Gewöhnliche Verbraucherbefragungen 8.3.2 Panel-Untersuchungen 8.3.3 Marktexperimente Exkurs : Neuprodukt-Prognose Literaturhinweise Aufgaben

218 219 219 220 224 224 225 228 229 231 232

Kapitel 9

Indikator-Methode und Analyse der Nachfrage-Komponenten 235 9.1 Indikator-Methode 235 9.1.1 Indikatoren und ihre Ermittlung 235 9.1.2 Identifikation von Wendepunkten und Konjunkturprognose 237 9.1.3 Weitere Anwendungen von Indikatoren zur Prognose . . . 245 9.2 Die Analyse von Nachfrage-Komponenten 245 Literaturhinweise 248 Aufgaben 249

Kapitel 10

Weitere Methoden der „technologischen Prognose" bzw. „Zukunftsforschung" 251

X

Inhaltsverzeichnis

Teil IV

Beurteilung und Auswahl von Prognoseverfahren

Kapitel 11

257

Beurteilung und Vergleich von Prognoseverfahren anhand der Genauigkeit

11.1 Fehlermaße für Prognosen 11.2 Der empirische Vergleich von Prognoseverfahren Literaturhinweise Aufgaben Kapitell2

Die Auswahl (und Kombination) von Prognoseverfahren

257 270 276 276 .

12.1 Weitere Auswahlkriterien 12.2 Auswahlempfehlungen für Prognoseverfahren Exkurs : Die Kombination von Prognoseverfahren Aufgaben TeilV

257

279 279 281 286 291

Der Einsatz von Prognoseverfahren in der Unternehmung . . . 293

Kapitel 13

Der Stand des Einsatzes der Prognoserechnung in der Praxis 293

Kapitel 14

Die Organisation der Prognose-Erstellung

14.1 Prognoseprozeß und Prognosemanagement 14.1.1 Allgemeines 14.1.2 Besondere Probleme: Datenbeschaffung und -behandlung 14.1.2.1 Datenquellen 14.1.2.2 Datenmanipulation 14.1.2.3 Datenverwaltung 14.2 Die Überprüfung des Prognoseprozesses — Die Rolle von Beurteilungsverfahren

299 299 299 304 304 306 310 311

Anhang A. Statistische Tafeln B. Einige Regeln für Matrizen und Vektoren C. Aufgaben-Lösungen D. (englisches) Glossar Literaturverzeichnis Stichwortverzeichnis

325 331 339 355 357 373

Verzeichnis der Abbildungen Abb. 1-1 : Wirkungs- und Entwicklungsprognosen (am Beispiel des Kundendienstes) Abb. 2-1:

3

Beobachtungswerte sowie Schätz- ung Prognosewerte (10 Perioden) bei einigen Trendformen für Reihe IIIC-J

26

Abb. 2-2:

Verlauf der Reihen IIIA- bis IIIC-M

35

Abb. 2-3:

Verhältniszahlen der einzelnen Monate und Saisonindizes nach der „Durchschnittsprozentmethode" für Reihe IIIC-M (Programm-Output SSAISON)

36

Verhältniszahlen der einzelnen Monate und Saisonindizes nach dem auf dem Prinzip der gleitenden Durchschnitte beruhenden Verfahren für Reihe IIIC-M (Programm-Output SSAISON) . . . .

37

Saisonfaktoren und Trend-Zyklus-Komponente gemäß CENSUS X11 für Reihe IIIC-M

45

Reaktion auf „Sprung" (a) und „Störung" (b) beim Exponentiellen Glätten 1. Ordnung

57

Reaktion auf „Sprung" (a) und „Störung" (b) beim Exponentiellen Glätten 2. Ordnung

61

Beobachtungs- und Prognosewerte bei EXPO 1 (α = 0,3) sowie EXPO 2 {a = 0,1 und 0,3) für Reihe IIIC-J

65

Abb. 2-4:

Abb. 2-5 : Abb. 3-1 : Abb. 3-2 : Abb. 3-3: Abb.3-4:

Periodengrundwert, Trend und Saisonfaktoren für Reihe IIIC-M als Startwerte

69

Abb. 4-1:

Schema einer Input-Output-Tabelle

102

Abb. 4-2:

Marktwachstum und Marktsättigung

106

Abb. 5-1 : Autokorrelationsfunktion für Reihe IIIC-J (Original-Reihe) . . . . 118 Abb.5-2: Autokorrelationsfunktion für Reihe IIIC-J (Reihe der 1.Differenzen) 119 Abb. 5-3:

Periodische Zeitreihe (nach Bolch/Huang)

123

Abb. 5-4:

Autokorrelationsfunktion und Spektrum für Reihe IIIC-M

Abb. 5-5:

Autokorrelationsfunktion und Spektrum für die Reihe „offene

....

125

Stellen"

126

Abb. 6-1:

Univariates stochastisches Modell

131

Abb. 6-2:

Iterativer Approach nach Box-Jenkins

136

Abb. 6-3:

Gewöhnliche und partielle Autokorrelationskoeffizienten nach Bildung saisonaler Differenzen (Reihe IIIC-M) 145

XII

Verzeichnis der Abbildungen

Abb. 6-4:

Autokorrelationskoeffizienten der Residuen (Reihe IIIC-M). . . . 146

Abb. 6-5:

Gewöhnliche und partielle Autokorrelationskoeffizienten nach Bildung regulärer und saisonaler Differenzen (Reihe IIIC-M) . . . 147

Abb. 6-6:

Autokorrelationskoeffizienten nach Bildung saisonaler Differenzen (Anzahl der Arbeitslosen) 150

Abb. 6-7:

Gewöhnliche (a) und partielle (b) Autokorrelationskoeffizienten nach Bildung saisonaler und 1. Differenzen (Anzahl der Arbeitslosen) 151

Abb. 6-8:

Gewöhnliche (a) und partielle (b) Autokorrelationskoeffizienten nach Bildung saisonaler und 2. Differenzen (Anzahl der Arbeitslosen) 153

Abb.6-9:

Univariates Transferfunktions-Modell

155

Abb.6-10: Kreuzkorrelationskoeffizienten für die (vorwegbereinigten bzw. prewhitened) Reihen IIIA- und IIIC-M sowie Impulse-ResponseParameter daraus 162 Abb. 6-11: Gewöhnliche und partielle Autokorrelationsfolge (graphisch) für die Noise-Reihe IIIC-M 163 Abb. 6-12: Gewöhnliche und partielle Autokorrelationsfolge (numerisch) für die Noise-Reihe IIIC-M 163 Abb.6-13: Autokorrelationskoeffizienten für die Residuen-Reihe IIIC-M (2. Modell) sowie Kreuzkorrelationskoeffizienten daraus und der prewhitened Reihe IIIA-M 165 Abb. 6-14: Kreuzkorrelationskoeffizienten für die (prewhitened) Reihen IIIAund IIIC-M 166 Abb. 6-15: Kreuzkorrelationskoeffizienten für die (prewhitened bzw. vorwegbereinigten) Reihen IIIA-und IIIC-M 169 Abb. 6-16: Autokorrelationskoeffizienten für die Residuen-Reihe IIIA-M sowie Kreuzkorrelationskoeffizienten daraus und der prewhitened Reihe IIIC-M 170 Abb.6-17: Multivariatesstochastisches Modell

171

Abb. 6-18: Auto- und Kreuzkorrelationskoeffizienten für die Residuen der Reihen IIIA- und IIIC-M (1. - multivariates - Modell) 178 Abb.6-19: Auto- und Kreuzkorrelationskoeffizienten für die (Arbeits-)Reihen IIIA-und IIIC-M 180 Abb. 6-20: Partielle Auto- und Kreuzkorrelationskoeffizienten für die (Arbeits-)Reihen IIIA-und IIIC-M 181 Abb. 6-21: Auto- und Kreuzkorrelationskoeffizienten für die Residuen der Reihen IIIA- und IIIC-M (2. - multivariates - Modell) 183

Verzeichnis der Abbildungen

XIII

Abb. 6-22: Auto- und Kreuzkorrelationskoeffizienten für die Residuen der Reihen IIIA- und IIIC-M (3. - multivariates - Modell) 184 Abb. 6-23: Auto- und Kreuzkorrelationskoeffizienten für die Residuen der Reihen IIIA- und IIIC-M (4. - multivariates - Modell) 188 Abb. 6-24: Multivariates Transferfunktions-Modell

191

Abb. 6-25 : Autokorrelationskoeffizienten für die Residuen-Reihe IIIC-M (zusätzliches Modell) sowie Kreuzkorrelationskoeffizienten daraus und der prewhitened Reihe IIIA-M 197 Abb. 7.1:

ARARMA-Prozeß

214

Abb. 9-1:

Indikator-Pyramide (mit Rezessions-„Test")

239

Abb. 9-2:

Idealisierter Konjunkturablauf (nach Woll)

242

Abb. 11-1: Prognose-Realisations-Diagramm

266

Abb. L-l : 12er-Differenzen für Reihe IIIC-M

347

Verzeichnis der Tabellen Tab. 2-1:

Jahreswerte der Reihen IA-C, IIA-C und IIIA-C

15

Tab.2-2:

gleitende Durchschnitte (3er, für Reihe IIIC-J)

16

Tab. 2-3:

doppelte gleitende Durchschnitte (3 χ 3, für Reihe IIIC-J)

17

Tab. 2-4:

Arbeitstabelle zur Berechnung des linearen Trends für Reihe IIIC-J

19

Tab. 2-5 :

Arbeitstabelle zur Berechnung des quadratischen Trends für Reihe IIIC-J

21

Tab. 2-6:

Anpassungsgüte bei verschiedenen Trendformen für Reihe IIIC-J .

25

Tab. 2-7 :

Prognosewerte (5 Perioden) bei verschiedenen Trendformen für Reihe IIIC-J

25

Tab. 2-8:

Monatswerte der Reihen IA-C, IIA-C und IIIA-C

Tab. 2-9 :

Trendbereinigung für Reihe IIIC-M und Glättung durch gleitende 3er-Durchschnitte

Tab. 2-10: Zusammenstellung CENSUS X 11

der Rechenschritte

31-34 38

und des Outputs von 41-43

Tab.2-11: Abweichungen zwischen verschiedenen CENSUS-Varianten und den Original-Saisonindizes für die Reihen IA-IIIC(M)

46

Tab.2-12: Abweichungen zwischen verschiedenen CENSUS-Varianten und der Original-TC-Komponente für die Reihen IA-IIIC(M)

47

Tab. 3-1:

Exponentielles Glätten 1. Ordnung für Reihe IIIC-J ( a = 0,1) . . . .

59

Tab. 3-2:

Prognose- und Fehlerwerte bei E X P O l mit α = 0,3 für Reihe IIIC-J

59

Tab. 3-3:

Exponentielles Glätten 2. Ordnung für Reihe IIIC-J ( a = 0,1) . . . .

63

Tab.3-4:

Prognose- und Fehlerwerte bei EXPO 2 mit α = 0,3 für Reihe IIIC-J

64

Tab. 3-5:

Prognose- und Fehlerwerte bei EXPO 3 (α = 0,1 und 0,3) für Reihe IIIC-J

66

Tab. 3-6:

Prognose- und Fehlerwerte nach dem Winters-Verfahren (α = 0,1; ß = 0,2; γ = 0,1) für Reihe IIIC-M

69

Tab.4-1:

Arbeitstabelle zur Berechnung der linearen Einfach-Regression (1. Berechnungsart), Reihe IC-J und IIIC-J

79

Tab. 4-2 :

Arbeitstabelle zur Berechnung der Saison mittels dummy-Variablen für Reihe IIIC-H

94

Tab. 4-3:

Prognose- und Fehlerwerte aufgrund dummy-Variablen-Regression für Reihe IIIC-M

95

XVI

Verzeichnis der Tabellen

Tab. 4-4:

Arbeitstabelle zur Berechnung des logistischen Trends für Reihe IIIC-J 108

Tab. 5-1:

Arbeitstabelle zur Berechnung des Autokorrelationskoeffizienten (1. Ordnung) für Reihe IIIC-J 117

Tab. 5-2:

Arbeitstabelle zur Berechnung des Kreuzkorrelationskoeffizienten (Reihe IIIC-J und IC-J) 121

Tab. 6-1 :

Beobachtungs- und Prognosewerte für 4 univariate Box-JenkinsModelle (Reihe IIIC-M) 148

Tab. 6-2:

Beobachtungs- und Prognosewerte für die Reihen IIIA- und IIIB-M (univariate Box-Jenkins-Modelle) 149

Tab. 6-3 :

Beobachtungs- und Prognosewerte für die Anzahl der Arbeitslosen (in 1000) aufgrund eines Box-Jenkins-Modells mit unterschiedlicher Datenbasis 154

Tab. 6-4:

Prognose- und Fehlerwerte aufgrund eines Transferfunktions-Modells für Reihe IIIC-M 168

Tab. 6-5:

Prognose- und Fehlerwerte aufgrund eines Transferfunktions-Modells für Reihe IIIA-M 171

Tab. 6-6:

Prognose- und Fehlerwerte bei 4 multivariaten Modellen für die Reihen IIIA-und IIIC-M 189

Tab. 7-1 :

Prognose- und Fehlerwerte aufgrund von GAF-Modellen für die Reihen IIIA-bis IIIC-M 208

Tab. 7-2:

Prognose- und Fehlerwerte aufgrund von AEP-Modellen für die Reihen IIIA- bis IIIC-M 212

Tab. 11-1 : Fehlerwerte (PE bzw. M APE und Ränge daraus) bei verschiedenen Verfahren und Prognosedistanzen für Reihe IIIC-M 271 Tab. 11-2: Fehlerwerte (PE bzw. M APE und Ränge resp. Durchschnittsränge daraus) bei BJ, GAF und AEP sowie verschiedenen Prognosedistanzen für die Reihen IIIA- bis IIIC-M 272/273 Tab. 11-3: Prognosevergleich für 8 Verfahren und 2 Reihen

273

Tab. 12-1: Zusammenfassende Beurteilung einer Reihe von Prognoseverfahren nach verschiedenen Kriterien 284/285 Tab. 12-2: Produkbewertungsschema (Beispiel)

283

Tab. 12-3 : Prognose- und Fehlerwerte bei 3 Kombinationen für Reihe IIIC-M

290

Tab. 12-4: Gegenüberstellung von Fehlermaßen bei verschiedenen Verfahren und Kombinationen für Reihe IIIC-M Tab. 14-1: Checklist zur Prognose-Präsentation (nach Levenbach/Cleary) Tab. 14-2: Checklist zur Überprüfung des Prognoseprozesses

289 . . 301 323

Verzeichnis der Tabellen

XVII

Tab. T-l : Quantile der t- und der ^-Verteilung (sowie der Normalverteilung) . . . Tab.T-2: Quantile der F-Verteilung

326/327 328/329

Tab.L-1: gewogene 5er-Durchschnitte der Reihe IIIC-J 339 Tab.L-2: Saisonindizes nach dem auf dem Prinzip der gleitenden Durchschnitte beruhenden Verfahren für die Reihen IIIA-C(M) 340 Tab.L-3: Prognose-und Fehlerwerte für Naive I und II für Reihe IIIC-M . . 341 Tab. L-4: Prognose- und Fehlerwerte bei EXPO 2 mit α =0,1 und 0,3 für die Reihen IC-und IIC-J 342 Tab.L-5: Arbeitstabelle zur Berechnung der Standardabweichung (Reihe IIIC-J) 344 Tab.L-6: Arbeitstabelle zur Berechnung der nicht-erklärten Streuung, Regression Reihe IC-J und IIIC-J 345 Tab.L-7: Arbeitstabelle zur Berechnung der linearen Einfach-Regression (2. Berechnungsart), Reihe IC-J und IIIC-J 345 Tab.L-8:

RMSE-Berechnung bei Naive II, BJ, GAF und AEP für Reihe IIIC-M 350

Tab. L-9: Prognose- und Fehlerwerte bei weiteren („gewogenen") Kombinationen für Reihe IIIC-M 352/353 Tab.L-10: Gegenüberstellung von Fehlermaßen bei Kombinationen für Reihe IIIC-M 351

Kapitel 1

Einführung : Die Bedeutung von Prognosen und die verschiedenen Prognoseverfahren

Die Bedeutung möglichst „zuverlässiger" Prognosen wächst ständig. Die Gründe hierfür liegen nicht nur in der zunehmenden Komplexität des wirtschaftlichen Geschehens, sondern insbesondere auch darin, daß die Zeit immerwährenden Wachstums offenbar vorüber ist. Dies wird sichtbar zunächst im makroökonomischen Bereich, wo einerseits die „Wachstumstheorie", die Theorie des „optimalen Wachstumspfades" usw., wieder verschwand und andererseits die Bemühungen um die Aufstellung von Input-Output-Analysen und insbesondere großer ökonometrischer Modelle verstärkt wurden. Im betriebswirtschaftlichen Bereich tritt diese Entwicklung nicht ganz so augenfällig zutage. (S. dazu auch die Ergebnisse empirischer Untersuchungen in Kap. 11.) Dies mag zum einen damit zusammenhängen, daß man sich gar nicht bewußt ist, daß z.B. die Erwartung gleichbleibender Gewinne, Umsätze etc. (gegenüber etwa der Vorperiode) im Grunde auch eine Prognose darstellt. Zweitens mag es auf einem gewissen Unverständnis gegenüber den modernen und zunehmend entwickelten Prognoseverfahren beruhen und drittens schließlich einfach auf Vorurteilen gegenüber der Prognose überhaupt. Damit taucht auch die Frage nach dem Prognose-Begriff auf. Hier soll darunter nur verstanden werden, daß sie Angaben über voraussichtliche Wirkungen und Entwicklungen liefert. Sie beruht also auf bestimmten Annahmen über das „Aktivitätsniveau" (das eigene oder das der Umwelt) — und sei es nur, daß dieses unverändert bleibt. Entsprechen die Ergebnisse der Prognose nicht den gesetzten Zielen bzw. einer für wünschenswert gehaltenen Entwicklung, so bedarf es (weiterer) Entscheidungen. Prognosen liefern also, in dieser hier vertretenen Sicht des Zusammenhangs zwischen Prognose, Planung und Entscheidung, nur die Informationen für das Treffen — oder, damit gleichbedeutend, Unterlassen — von Entscheidungen. Die Informationsbeschaffung verursacht natürlich sie selbst zum Entscheidungsproblem. Hinsichtlich weitesten durchgearbeitet ist der Bayes'sche Ansatz. Würdigung der Vor- und Nachteile, H Ü T T N E R 1979,

ihrerseits Kosten; damit wird des „Informationswertes" am S. dazu etwa, mit Beispiel und S.13ff.

Die Planung wiederum ist das Ergebnis eines solchen Entscheidungsaktes — womit als logische Abfolge resultiert: Prognose (Information) — Ent-

2

Einführung: Die Bedeutung von Prognosen

Scheidung — Planung usw. Das beinhaltet auch, daß im Planungsvollzug bzw. aufgrund neuer Informationen Entscheidungen getroffen werden. In der Konsequenz führt dies zur „rollierenden" Planung und berührt auch die Frage des „Prognosehorizontes" bzw. der Fristigkeit der Prognose; darauf ist noch zurückzukommen. Vorher muß noch auf ein Problem eingegangen werden, daß in der Prognose-Literatur vielfach diskutiert ist: die Gefahr der Selbsterföllung bzw. Selbstzerstörung (oder -auflösung). „Die Einführung der Begriffe" (der self-fulfilling prophecy bzw. self-defeating prediction) „wird dem Soziologen Merton zugeschrieben" (MEIER 1982, S.97; s. dort auch Literaturhinweise). L U T Z ( 1 9 5 5 , S.

14f.) formulierte in diesem Zusammenhang folgende These:

„An sich richtige Voraussagen werden, wenn sie veröffentlicht und geglaubt werden und wenn danach gehandelt wird, notwendigerweise falsch; und an sich falsche Voraussagen haben die Tendenz, richtig zu werden." S. dazu auch A(ufgabe) 1 und 2. Daraus dürfte schon deutlich geworden sein, daß die Tatsache, daß eine Prognose gerade deshalb Wirklichkeit wird (oder auch nicht), weil sich die Entscheidungsträger dabei nach ihr richten, d. h. sie als Informations- und damit auch Entscheidungsgrundlage benutzen, nicht der „Prognose" an sich entgegengehalten werden kann, sondern allenfalls einer bestimmten „Prognosepolitik". Das gilt auch für Prognosen betriebswirtschaftlicher Art. So ist z. B. durchaus zu prüfen, ob das Prognose-Ergebnis einer erfreulichen Absatzentwicklung ohne weiteres den Außendienstmitarbeitern mitgeteilt werden sollte — weil diese vielleicht glauben könnten, das Ergebnis stelle sich ohnehin ein und es bedürfe nicht mehr so großer Verkaufsbemühungen. Oben wurde das „Aktivitätsniveau" erwähnt. Gedacht war dabei an Marketing· Aktivitäten. Wird z. B. die Werbung verstärkt, so hat das zweifellos Auswirkungen auf den Umsatz. Dies führt zu einer ersten Einteilung: in Entwicklungs- und Wirkungsprognosen. Bei ersteren „fehlt die explizite Berücksichtigung von Wirkungen des eingesetzten . . . Marketing-Instrumentariums" (MEFFERT/STEFFENHAGEN 1 9 7 7 , S . 3 6 ) . Bei reinen Wirkungsprognosen hinwiederum wird ausschließlich die Reaktion auf den Einsatz der Instrumente betrachtet („Marktreaktionsfunktionen"). Andererseits wirken die Maßnahmen durchaus auch in der Zeit; daraus folgt die kombinierte Wirkungs- und Entwicklungsprognose, gemäß Abb. 1 - 1 (aus Lo 1979, S. 3 7 ) .

Einführung: Die Bedeutung von Prognosen

3

Abb. 1-1: Wirkungs- und Entwicklungsprognosen (am Beispiel des Kundendienstes)

Insofern kann gewissermaßen zwischen einem weiteren und einem engeren Prognosebegriff unterschieden werden. Unter letzteren wären dann nur reine Entwicklungs- und kombinierte Wirkungs- und Entwicklungsprognosen (nicht aber reine Wirkungsprognosen) zu subsumieren. H A M M A N N / E R I C H S O N (1978, S.189) z . B . bezeichnen die erwähnten Marketingaktivitäten als „kontrollierte Erklärungsvariablen" und meinen, daß „bei ihrer Verwendung als Prädiktorvariablen" (in einem Regressionsansatz — s. Kap. 4) „das Prognoseproblem (entfällt), da die Werte dieser Variablen durch die Absatzpolitik festgelegt werden". Im anglo-amerikanischen Schrifttum wird in diesem Zusammenhang oft (s. z . B . H A R V E Y 1981, S.15) zwischen „prediction" und „forecast" unterschieden. Eine solche Differenzierung ist

4

Einführung: Die Bedeutung von Prognosen

bei uns weniger üblich. So spricht man z.B. von „Werbeerfolgs^rognosert". Man meint damit zunächst die Vorhersage der Wirkung ζ. B. einer bestimmten Anzeige überhaupt. Andererseits wird auch im Anglo-amerikanischen nicht einheitlich verfahren. So versteht etwa L E W I S (1982, gemäß „Preface") die Begriffe „forecast" und „prediction" mehr im Sinne der später zu erwähnenden Unterscheidung zwischen „objektiven" und „subjektiven" Verfahren. Es liegt deshalb nahe, auf terminologische Feinheiten zu verzichten und im folgenden generell nur von Prognosen zu sprechen. Synonym dazu wird gelegentlich Voraussage bzw. -Schätzung oder Projektion verwandt (obwohl man auch dazu verschiedentlich — sich teilweise widersprechende — Abgrenzungsversuche findet).

Uneinheitliche Abgrenzungen sind in der Literatur auch für eine weitere Einteilung anzutreffen: nach der Fristigkeit, in kurz- und /a/igfristige (dazwischen eventuell noch /rate/fristige) Prognosen. Diese Unterscheidung nach dem Prognosehorizont (der „Prognosecfctanz") ist zweifellos für viele praktische Anwendungen außerordentlich wichtig. Die erwähnte Uneinheitlichkeit überrascht deshalb, angesichts der unterschiedlichen Verwendungszwecke, noch dazu in verschiedenen Wirtschaftsbereichen, auch nicht. Für viele Fälle kann man jedoch Prognosen mit einem Horizont von bis zu 1 Jahr als kurzfristig bezeichnen, solche mit einer Reichweite von 3 Jahren und darüber als langfristig. Schon wegen der erwähnten Unschärfe sollen die beiden vorstehend dargelegten Einteilungen nicht der Gliederung der Prognosemethoden zugrunde gelegt werden. Diese erfolgt in der Literatur überaus unterschiedlich. Das resultiert unter anderem daraus, d a ß sich hierfür verschiedene Kriterien verwenden lassen. Ein erstes — quasi eine weitere (dritte) Einteilung nach den obigen beiden — ist die bereits angedeutete Unterscheidung zwischen „qualitativen"(oder „subjektiven" bzw. „intuitiven") und „quantitativen " (oder „objektiven") Verfahren. Diesem Gesichtspunkt folgt die nachstehende Systematik der Prognosemethoden in erster Linie. Die quantitativen Methoden sind darüber hinaus nach einem zweiten Kriterium (vierte Einteilung) gegliedert: in „kausale"und rein „zeitreihenanalytische"Methoden. Danach — auf die inhaltliche Problematik wird zu gegebener Zeit zurückzukommen sein — kann etwa folgende Gliederung vorgeschlagen werden : I. „Qualitative" Methoden A. Auswertung von Befragungen 1. Vertreterbefragungen 2. Expertenbefragungen (einschl. Delphi-Methode)

Einführung: Die Bedeutung von Prognosen

5

3. Verbraucherbefragungen (einschl. Panel-Untersuchungen und Marktexperimente) B. Indikatoren-Methode und Analyse der Nachfragekomponenten C. (weitere) Methoden der „technologischen Prognose" bzw. Zukunftsforschung II. „Quantitative" Methoden A. „Kausale" Methoden 1. Regressionsanalytische Verfahren 2. Ökonometrische und Marketing-Modelle B. Zeitreihenprojektionen 1. Projektion aufgrund gleitender Durchschnitte 2. Projektion mittels herkömmlicher Kleinstquadrateschätzung 3. Projektion mittels Exponential Smoothing 4. Berechnung und Bedeutung von „Saisonindizes" 5. Prognosen nach Box-Jenkins 6. Prognosen mit „adaptiven" Verfahren Die folgenden Kapitel — soweit sie methodisch ausgerichtet sind — orientieren sich jedoch nicht ausschließlich an diesem Schema, sondern an weiteren Kriterien bzw. Einteilungen (auf noch mehr sei, obwohl in der Literatur antreffbar, hier verzichtet): — uni- und multivariate Verfahren. Diese Unterscheidung scheint einfach: Bei univariaten Verfahren wird nur eine Zeitreihe verwandt, bei multivariaten sind es deren mehrere. Im Detail verbergen sich dahinter jedoch verschiedene — um nicht zu sagen : alternative — Vorgehensweisen. So können Prognosen mit der (gewöhnlichen) Regression durchaus als multivariat bezeichnet werden. Gemäß auch vorstehender Übersicht handelt es sich dabei um „kausale" Verfahren, mit — in der Regel — „a priori"-Spezifikation. Der zeitreihenanalytische multivariate Ansatz mag insoweit als damit konkurrierend erscheinen. Darauf wird noch zurückzukommen sein, ebenso auf terminologische Unterschiede im Hinblick auf die Bezeichnung als „multivariat" innerhalb dieser Gruppe. — „klassische" und „moderne" Verfahren. Diese Unterscheidung zielt zunächst darauf ab, ob quasi im „klassischen" Sinne die Zeitreihe in ihre „Komponenten" zu zerlegen versucht wird. Gegenüber dieser — mehr sukzessiven — Zerlegung sind „moderne" Verfahren durch ein eher simultanes Vorgehen gekennzeichnet. Des weiteren ist damit angesprochen, ob gewissermaßen, wie beim Expo-

6

Einführung: Die Bedeutung von Prognosen

nentiellen Glätten, „ad hoc forecasting formulas" (NELSON 1973) oder „Modelle", wie beim Box-Jenkins-Approach, Verwendung finden. Unter Berücksichtigung dieser Aspekte ergibt sich folgender Aufbau des Buches : Die einzelnen Verfahren werden in den ersten 3 Teilen mehr oder weniger ausführlich dargestellt. (Eine zusammenfassende Charakterisierung der — großen Gruppen von — Methoden, mit Haupt-Kor- und -Nachteilen, findet sich in Tab. 12-1.) In den letzten 2 Teilen wird demgegenüber mehr auf Probleme der Anwendung bzw. des Einsatzes der Verfahren in der Praxis eingegangen. Den quantitativen Methoden sind die ersten beiden Teile gewidmet. Teil I beinhaltet dabei rein univariate Verfahren: in Kap. 2 Prognosen auf der Basis der „klassischen " Zeitreihenzerlegung, in Kap. 3 dto. auf der Basis des Exponentiellen Glättens. Teil II hat dann uni- und multivariate Verfahren zum Gegenstand : In Kap. 4 wird die Regression behandelt, Kap. 5 erörtert die Grundlagen der „modernen" Zeitreihenanalyse: Autokorrelations- und Spektralanalyse, Kap.6 widmet sich dem „Box-Jenkins-Approach" und Kap. 7 sog. „adaptiven" Verfahren. Darauf folgt Teil III mit den qualitativen Verfahren, unterteilt in Kap. 8: Auswertung von Befragungen, 9: IndikatorenMethode und Analyse der Nachfrage-Komponenten sowie 10: Weitere Methoden der „technologischen Prognose" bzw. „Zukunftsforschung". Auch die letzten beiden Teile bestehen jeweils aus zwei Kapiteln: Teil IV beschäftigt sich mit der Beurteilung und Auswahl von Prognoseverfahren (Kap. 11: Beurteilung und Vergleich von Prognoseverfahren anhand der Genauigkeit, gefolgt von 12: Auswahl — und Kombination — von Prognoseverfahren). Schließlich wird in Teil V der Einsatz von Prognoseverfahren in der Unternehmung diskutiert, zunächst, in Kap. 13, der Stand des Einsatzes der Prognoserechnung in der Praxis und anschließend, in 14, die Organisation der Prognose-Erstellung. (Dieses — relativ ausführliche — Kapitel endet mit der Würdigung der Rolle von Beurteilungsverfahren.) Literaturhinweise Nachstehend erfolgen einige Literaturhinweise zu neueren Schriften, die sich allgemein mit Prognosen (und nicht lediglich einem einzelnen Verfahren oder einer Gruppe davon) beschäftigen. Im Text bereits — mit Kurzzitat — erwähnte Titel sind dabei wiederholt. Auch wird im Unterschied zu den Literaturhinweisen in späteren Kapiteln der volle Titel angegeben, in der gleichen Schreibweise wie im „Literaturverzeichnis" am Ende. Biswei-

Einführung: Die Bedeutung von Prognosen

7

len ist — insbesondere bei Werken aus der jüngsten Zeit — ein kurzer Kommentar beigefügt. (* bedeutet, daß sich ein solcher bei HÜTTNER 1982 a findet.) Es erfolgt eine Trennung nach deutsch- und englischsprachigen Schriften. Die Aufführung geschieht chronologisch, nach dem Erscheinungsjahr (und innerhalb dessen alphabetisch). 1. Deutschsprachige Schriften ROGGE, H.-J. (1972): Methoden und Modelle der Prognosen aus absatzwirtschaftlicher Sicht, Berlin 1972 (S. dazu die Rezension d. Verf. in: ZfbF 1975, S. 125f.) LEWANDOWSKI, R . ( 1 9 7 4 u n d 1 9 8 0 ) : P r o g n o s e - u n d I n f o r m a t i o n s s y s t e m e

und ihre Anwendungen*, Bd.l, Berlin 1974; Bd. 2: Mittelfristige Prognose- und Marketing-Systeme, Berlin 1980 BROCKHOFF, K . ( 1 9 7 7 ) : Prognoseverfahren für die Unternehmensplanung, Wiesbaden 1977 MEFFERT,

H./STEFFENHAGEN,

H.

(1977): Marketing-Prognosemodelle,

Stuttgart 1977 Wirtschaftsprognosen, München 1 9 7 9 * Prognosetechniken für Manager, Wiesbaden 1980

HENSCHEL, H . ( 1 9 7 9 ) :

MAKRIDAKIS, S./RESCHKE, H./WHEELWRIGHT, S . C . ( 1 9 8 0 ) :

(Deutsche Ausgabe von „Forecasting Methods for Management".) ScHEER, A . W . ( 1 9 8 0 ) :

Absatzprognosen, Kap.XIV (222 S.) von: MÜLLER, W./KRINK, J. : Rationelle Betriebswirtschaft, Neuwied (Loseblatt, lfd.) WÖLLER, R. (1980): Absatzprognosen . . . , Obertshausen 1980 MERTENS, P. (Hrsg.) (1981): Prognoserechnung, 4. Aufl., Würzburg 1981* HÜTTNER, M. (1982a): Markt- und Absatzprognosen, Stuttgart 1982 HANSMANN, K.-W. (1983): Kurzlehrbuch Prognoseverfahren, Wiesbaden 1983 Es handelt sich um eine prägnante Darstellung wichtiger Verfahren (jeweils mit Beispielen). Beigegeben ist eine Sammlung von Aufgaben, mit Lösungen. SCHEER,

A.-W. ( 1 9 8 3 ) : Absatzprognosen, Berlin 1983

(im Grunde, mit geringfügigen Änderungen, ein Nachdruck von SCHEER 1980)

2. Englischsprachige Schriften D. (1974): An Executive's Guide to Forecasting, New York 1 9 7 4 * GILCHRIST, Β. ( 1 9 7 6 ) : Statistical Forecasting, London 1 9 7 6 * GROSS, C . W./PETERSON, R . T . ( 1 9 7 6 ) : Business Forecasting, Boston 1 9 7 6 * CHAMBERS, J./MULLICK, S./SMITH,

Einführung: Die Bedeutung von Prognosen

8

MONTGOMERY, D.C./JOHNSON,

L.A. (1976): Forecasting and Time Series

Analysis, New York 1976 WOOD, D./FILDES, R. (1976):

Forecasting for Business: Methods and Ap-

plications, London 1976 M. (1977): Forecasting Methods in Business and Management, London 1977 GRANGER, C . W.J./NEWBOLD, P. (1977): Forecasting Economic Time Series, New York 1977 SULLIVAN, W. G./CLAYCOMBE, W. W. (1977): Fundamentals of Forecasting, Reston 1977 ARMSTRONG, J.S. (1978): Long-Range Forecasting. From Crystal Ball to Computer, New York 1978 (2nd ed.: 1985) HURWOOD, Ο . L./GROSSMAN, E. S./BAILEY, E. L. (1978): Sales Forecasting, New York 1978 FIRTH,

Diese vom „Conference Board" herausgegebene Schrift bietet eine einfache, übersichtliche Beschreibung der einzelnen Verfahren und enthält insbesondere 24 ζ. T. sehr instruktive Fallstudien aus verschiedenen Unternehmungen. MAKRIDAKIS, S./WHEELWRIGHT, S . C . (1978 a): Interactive ..., 2nd ed., San Francisco 1978* BOWERMAN, B. L./O'CONNEL, R . D . (1979): Time Series and

Forecasting. Forecasting.

An Applied Approach, North Scituate 1979 MAKRIDAKIS, S./WHEELWRIGHT, S.C. (ed.) (1979): Forecasting, dam 1979 MICHAEL, G.C. (1979): Sales Forecasting, Chicago 1979

Amster-

Diese kleine Schrift — „AMA-Monograph No. 10", 39 S. — besteht im Prinzip aus einer vergleichenden Kurz-Beschreibung und -Beurteilung verschiedener Verfahren anhand einiger Kriterien (gemäß auch Kap. 12). GRANGER, C . W . J . (1980):

Forecasting in Business and Economics, New

York 1980 THOMOPOULOS, N . T .

(1980): Applied Forecasting Methods, Englewood

Cliffs 1980 WHEELWRIGHT, S. C./MAKRIDAKIS, S. (1980): Forecasting Methods for

Management, 3rd ed., New York 1980* (4th ed.: 1985) HANKE, J. E./REITSCH, L.G. (1981): Business Forecasting, Boston 1981 LEVENBACH, H./CLEARY, J. R (1981): The Beginning Forecaster. ..., Belmont 1981 25

- kurze und klare - Kapitel, in

u n d LEVENBACH/CLEARY

1984)

3

Teilen (s. auch

CLEARY/LEVENBACH

1982

Einführung: Die Bedeutung von Prognosen

9

Business Fluctuations: Forecasting Techniques and Applications, Englewood Cliffs 1982

BAILS, D . G . / P E P P E R S , L . C . ( 1 9 8 2 ) :

Wie der Titel schon andeutet, ist das Buch relativ stark auf die Prognose von konjunkturellen Bewegungen bzw. Wendepunkten ausgerichtet. Es enthält auch einige „Case Studies of Multiple Regression Models" CLEARY„J.P./LEVENBACH, H . ( 1 9 8 2 ) :

The Professional Forecaster. . . . , Bel-

mont 1982 26 Kapitel (in 5 Teilen; s. auch LEVENBACH/CLEARY 1981 und 1984) C. D . ( 1 9 8 2 ) : Industrial and Business Forecasting Methods. A Practical Guide to Exponential Smoothing and Curve Fitting, London 1982

LEWIS,

Dieses kleine Buch befaßt sich im Grunde nur mit zwei Methoden, gemäß Untertitel. Es ist zwar meist recht prägnant, mitunter aber auch etwas flüchtig geschrieben. MAKRIDAKIS, S./WHEELWRIGHT, S . C . ( 1 9 8 2 ) :

The Handbook of Fore-

casting. . . . , New York 1982 Der Anspruch als „Handbuch" ist kritisiert worden (von Cryer in JoF 1983, S. 169ff.). Deutet man den Untertitel: „A Manager's Guide" als Minderung dieses Anspruchs (vor allem in methodischer bzw. statistisch-mathematischer Hinsicht), so kann er eher als erfüllt angesehen werden. ABRAHAM, B./LEDOLTER, J. ( 1 9 8 3 ) :

Statistical Methods for Forecasting,

New York 1983 Gemäß Titel erfolgt eine Beschränkung auf quantitative Verfahren (unter Einschluß auch neuerer Entwicklungen). Die Darstellung ist straff und mathematisch nicht anspruchslos; weitgehend wird die Matrizenschreibweise verwandt. Forecasting: Methods and Applications, 2nd ed., New York 1983 (1. Aufl. 1978, von den beiden erstgenannten Verfassern allein — MAKRIDAKIS/WHEEL-

MAKRIDAKIS, S./WHEELWRIGHT, S . C . / M C G E E , V . E . ( 1 9 8 3 ) :

WRIGHT 1 9 7 8 b )

Im Unterschied zum oben erwähnten Werk könnte diese Schrift viel eher als „Handbuch" bezeichnet werden: Sie behandelt, in teilweise stark ausgebauter Weise bezüglich der statistisch-mathematischen Darstellung, sehr viele Prognoseverfahren und zudem die generelle ökonomische Problematik, das Problem der Daten, Kosten usw. Die Unterschiede zur 1. Aufl. sind — im Zusammenhang wohl mit dem Hinzutreten eines weiteren Ko-Autors — beachtlich. (S. dazu noch unten, speziell in Kap. 7). The Modern Forecaster. . . . , Belmont 1984 27 Kapitel, in 6 Teilen (lt. Impressum „Adaptation of:" dies. 1981 und CLEARY/

LEVENBACH, H./CLEARY, J . P . ( 1 9 8 4 ) :

LEVENBACH 1982)

10

Einführung: Die Bedeutung von Prognosen

Aufgaben 1 - 1 : * Betrifft die w i e d e r g e g e b e n e T h e s e v o n LUTZ die Selbsterfüllung o d e r -Zerstörung? 1-2 :

Was gilt in b e z u g auf d a s f o l g e n d e Beispiel (LUTZ 1955, S. 15 f.) : „Man glaubte, in den zwanziger Jahren in Deutschland so etwas wie einen Schweinezyklus entdeckt zu haben. Man stellte fest, daß die Bauern, wenn die Schweinepreise niedrig waren, wenig Schweine zum Mästen ansetzten, so daß nach den entsprechenden Monaten, wenn die Schweine zum Verkauf bereit waren, die Preise sehr hoch lagen, weil das Angebot klein war. Daraufhin vergrößerten nun die Bauern die Schweineproduktion, um von dem hohen Preis zu profitieren, mit dem Erfolg, daß nach der entsprechenden Anzahl von Monaten ein Überangebot an Schweinen einsetzte und der Preis der Schweine wieder stark fiel. Es schien möglich, die Schweinepreise auf Grund dieses Zusammenhangs vorauszusagen. Nehmen wir nun an, daß diese Voraussage veröffentlicht wird und daß die Bauern sich danach richten. Dann werden sie in einem Zeitpunkt, an dem die Schweinepreise niedrig sind, viele Schweine zum Mästen ansetzen, um von den vorausgesagten hohen Preisen nach einigen Monaten zu profitieren. Aber dann wird sich eben herausstellen, daß nach dem Verlauf dieser Monate ein Überangebot von Schweinen auf den Markt kommen wird und daß die Preise nicht hoch, wie vorausgesagt, sondern niedrig sein werden."

1-3: * H ä n g t die Einteilung n a c h d e r Fristigkeit a u c h mit d e m D a t e n t y p ( M o n a t s d a t e n , Q u a r t a l s d a t e n usw.) z u s a m m e n ? 1-4:

G e b e n Sie eine a n d e r e Einteilung n a c h d e r Fristigkeit ( u n t e r Rückgriff auf die a n g l o - a m e r i k a n i s c h e Literatur) !

* Zu den so gekennzeichneten Aufgaben finden sich die Lösungen — gemäß Vorwort — im Anhang (C).

Teil I

Rein univariate Verfahren

Kapitel 2

Prognosen auf der Basis der „klassischen" Zeitreihenzerlegung

In diesem Kapitel werden die Verfahren erörtert, die der „klassischen" Vorgehensweise entsprechen: dem sukzessiven Zerlegen der gegebenen Zeitreihe in einzelne „Komponenten". In einem einführenden Abschnitt (2.0) erfolgt zunächst die Vorstellung dieser Komponenten. Die weiteren Abschnitte sind dann ihrer ausführlichen Behandlung gewidmet: dem „Trend" 2.1, der „Saison" 2.2 und — da auch praktisch weniger gut erfaßbzw. trennbar — der „zyklischen" und der „Rest"-Komponente zusammen 2.3. Dem sog. Census-Verfahren ist ein besonderer, abschließender Abschnitt 2.4 (mit Hinweisen auf andere Dekompositionsverfahren) vorbehalten — wegen seiner praktischen Bedeutung, aber auch, weil es augenfällig die sukzessive Behandlung der einzelnen Komponenten zeigt.

2.0 Die Komponenten von Zeitreihen Wie bereits angedeutet, werden im allgemeinen 4 Komponenten ökonomischer Zeitreihen unterschieden: 1. der Trend T. Er beschreibt die Entwicklungsrichtung der Reihe. Der Koeffizient, der diese wiedergibt, kann ein positives oder negatives Vorzeichen haben und im speziellen Falle auch verschwinden. Man spricht dann von Konstanz bzw. neuerdings, in etwas anderem Zusammenhang und hier ohne exakte Definition (s. dazu Kap. 5), stationären Zeitreihen. 2. die zyklische Komponente („Konjunktur") C. Im Prinzip handelt es sich dabei um eine me/irjährige Schwankung um den Trend. Ihre Existenz und insbesondere Periodizität ist umstritten ; s. unten 2.3. 3. die Saison S : Schwankungen innerhalb des Jahres („unterjährig"). Meist wird es sich um Monats- oder auch gwarta/sschwankungen handeln; auf solche wird im folgenden (unter 2.2) vorwiegend abgestellt.

12

Rein univariate Verfahren

Nicht selten kommen aber auch Schwankungen mit kürzerer Dauer vor, z.B. innerhalb des Monats, der Woche oder des Tages. (Beispiel: Schwankungen des Umsatzes eines Einzelhandelsbetriebes von Tag zu Tag — etwa Dienstag versus Freitag! —, aber auch innerhalb eines Tages — Freitagvor- und -nachmittag !) 4. die irreguläre Komponente I (mitunter auch: „Rest"-Komponente R). Sie umfaßt im Grunde zwei ganz unterschiedliche Arten von Einflüssen: a) einmalige („Strukturbrüche" usw.); b) zufällige („Störungen", die sich im Prinzip gegenseitig ausgleichen, also den „Erwartungswert" 0 haben). Letztgenannte sind stochastischer Natur, während erstere deterministischen Charakter haben. Sie bedürfen deshalb im Grunde durchaus unterschiedlicher Behandlung; darauf wird vor allem in späteren Kapiteln noch zurückzukommen sein. Es bleibt noch anzumerken, daß sich die Komponenten 1 bis 3 in verschiedener Weise zusammenfassen lassen: 1. „Trend" und „Konjunktur" bilden — zumal ohnehin schwer trennbar — zusammen die glatte Komponente (Trend-Zyklus-Komponente — TC); 2. „Konjunktur" und „Saison" werden als oszillatorische Komponente dem Trend als Entwicklungsrichtung gegenübergestellt. Was zweckmäßiger ist, hängt auch von der Fristigkeit der Betrachtung ab. Problematisch bei der Zeitreihenzerlegung sind insbesondere die Annahmen über die Komponentenverknüpfung. Neben den beiden Grundformen : additive Verknüpfung : X = T + C + S + I multiplikative Verknüpfung : X = Τ · C · S · I lassen sich zudem MwcAformen bilden. Ζ. B. würde X = (T+C)SI bedeuten, daß Τ und C zwar unabhängig voneinander sind, sich additiv überlagern, diese „glatte Komponente" das Niveau der Saisonschwankungen und Irregularitäten aber mitbedingt, sie also mit entsprechenden Faktoren zu multiplizieren ist. Auf das Problem der Verknüpfung der Komponenten wird noch verschiedentlich zurückzukommen sein. (S. auch „Pegels' Klassifikation", unter 3.0.)

Prognosen auf der Basis der „klassischen" Zeitreihenzerlegung

13

2.1 Der Trend In einem ersten Unterabschnitt wird die Methode der gleitenden Durchschnitte vorgestellt. Der zweite Unterabschnitt widmet sich dann der Trendberechnung mittels der (herkömmlichen) Kleinstquadrateschätzung. Andere, frühere aus Gründen der Rechenvereinfachung oft empfohlene — und seinerzeit auch sinnvolle! — Verfahren bleiben unberücksichtigt, so etwa die Methode der Reihenhälften: die Zeitreihe der Beobachtungswerte wird halbiert, von jeder Hälfte der Durchschnitt berechnet und die so entstehende Verbindungslinie als „Trend" gedeutet. Hingegen werden die verschiedenen sog. naiven Methoden jeweils, auch bei der Saison, kurz erörtert.

2.1.1 Die Methode der gleitenden Durchschnitte Es liegt nahe, als Prognosewert für die nächste (und die folgende usw.) Periode das arithmetische Mittel aus den bisherigen Beobachtungswerten zu verwenden: (2.1)

(mit 1 für die Prognosedistanz). Noch einfacher — und deshalb als Naive I (a) bezeichnet — wäre die Verwendung des letzten Beobachtungswertes für die Prognose: (2.2) Dieses Prinzip des „no change" erscheint allerdings nur dann sinnvoll, wenn kein Trend vorhanden ist. Liegt ein solcher vor, wäre das „same change"-Prinzip (Naive 16) angemessener: x t+ i = xt + l(x,-x,-i).

(2.3)

Es mag sein, daß diese einfachen Verfahren durchaus zu befriedigenden Prognosen führen, (s. zu empirischen Untersuchungen bzw. entsprechenden Maßen Kap. 11.) Insbesondere dann, wenn die irreguläre Komponente (zur Berücksichtigung der Saison — „Naive II" — s. unten, 2.2) stärker ausgeprägt ist, dürften sie problematisch werden. Will man immer noch ein vergleichsweise einfaches Verfahren verwenden, so bieten sich anstelle des gewöhnlichen arithmetischen Mittels — das entsprechende Verfahren kann als Naive lila bezeichnet werden — gleitende Durchschnitte an

14

Rein univariate Verfahren

(III b). Dabei werden zur Durchschnittsbildung nur jeweils die letzten ρ Werte herangezogen : (2.4) Ρ n=t—p+1 Die A n w e n d u n g der Formeln sollte durch Beispiele veranschaulicht werden. Dabei ist es wünschenswert, die verschiedenen Verfahren an den gleichen Reihen zu demonstrieren. Zwar wird das nicht immer zweckmäßig sein; um aber möglichst durchlaufende Beispiele verwenden zu können, wurden künstliche Reihen generiert, zunächst 120 bzw. 132 „Monatswerte". Gemeinsame Charakteristika sind : — multiplikative K o m p o n e n t e n Verknüpfung (s. 2.0) ; — konstante Saisonügur. Die Saisonindizes (s. 2.2) für die einzelnen Monate lauten: 130; 96; 101; 94; 105; 102; 101; 102; 109; 102; 87; 71. — linearer Trend(s. 2.1.2) der Form T = 100 + 0,151. Unterschiede liegen allein in der Variation — der Irregularität.-jeweils normalverteilte Pseudo-Zufallszahlen mit μ = 1 und I: σ = 0,005 I I : σ = 0,05 I I I : σ = 0,025 — der zyklischen K o m p o n e n t e : A : C = 0,1 sin (0,209439 t ) + 1,0; Periodenlänge also 30 B: C = 0,1 sin (0,1163551) + 1 , 0 ; Periodenlänge also 54 C: C = l. Die so entstandenen 9 Reihen I A, I B , . . . , U I C werden später, bei der Beh a n d l u n g der Saison, eingeführt. Hier sind quasi nur „Jahreswerte" von Interesse. Die Monatswerte mußten deshalb zu „Jahresdurchschnitten" zusammengefaßt werden. Diese Reihen erhalten im folgenden d e n Zusatz J (im Unterschied zu M, f ü r die „Monatswerte"). Tab. 2-1 zeigt die Ergebnisse. Die Tabelle wurde, wie ersichtlich, mit dem Programmsystem FIDES (Forecasting, Information, and Data Editing System) erstellt. Es handelt sich hierbei um ein in mehrjähriger Arbeit unter Federführung des Verfassers an der Universität Bremen entstandenes Software-System, das neben einem umfänglichen Datenbank-Teil aus einzelnen Methoden-Blöcken (im folgenden „Programm" genannt) besteht. Dabei konnte wesentlich auf im Rahmen der Forschungsgruppe APIS (Sprecher: H. Schaefer) entwickelte Software zurückgegriffen werden.

Prognosen auf der Basis der „klassischen" Zeitreihenzerlegung

Datenbank-Listing — Jahreswerte -

15

Programmsystem - FIDES -

Jahr

IAJ

IBJ

ICJ

IIAJ

IIBJ

IICJ

IIIAJ

IIIBJ

IIICJ

1 2 3 4 5 6 7 8 9 10 11

108.4 97.8 104.7 110.8 100.4 118.1 106.4 113.9 120.2 108.6

107.2 110.8 100.8 96.8 108.4 120.1 115.0 104.2 108.8 124.1

101.0 102.7 104.4 106.4 108.1 110.0 111.8 113.4 115.4 117.0

110.1 97.1 100.3 112.6 99.1 120.5 107.7 111.7 122.2 105.0 123.4

108.7 110.1 96.8 98.5 107.0 122.5 116.4 102.0 110.6 120.1 123.8

102.6 102.1 100.1 108.2 106.6 112.3 113.3 111.1 117.3 113.1 114.8

109.2 97.5 102.6 111.7 99.8 119.3 107.0 112.9 121.2 106.9 125.5

107.9 110.5 98.9 97.6 107.7 121.2 115.7 103.1 109.7 122.2 126.0

101.8 102.4 102.3 107.3 107.4 111.1 112.5 112.3 116.3 115.1 116.9

Tab. 2-1: Jahreswerte der Reihen I Α-C, II Α - C und III A-C

Das Programmsystem FIDES ist im einzelnen beschrieben in der „Benutzerdokumentation" (Verfasser: Bednarzik, Hüttner, Voss), die Bestandteil von Band I des Projektabschlußberichts ( H Ü T T N E R / S C H A E F E R - Hrsg. - 1984) ist. Für die folgenden Beispiele wird die Reihe III C-J verwandt. Dabei werden die Werte der ersten 10 Jahre als Beobachtungswerte herangezogen. Die (ex ante-)Prognose erfolgt also zuerst für die Periode 11. Somit könnte hierfür auch der Prognosefehler berechnet werden. Darauf wird im folgenden verzichtet. (Für nur eine Periode ist er naturgemäß wenig aussagekräftig. S. aber die Handhabung bei den Monatsdaten unten.) Beispiel 2-1 Gemäß Formel (2.1) ergibt sich als arithmetisches Mittel: 101,8 +102,4 + . . . +115,1 =

10

= 108,85.

Dies ist zugleich der Prognosewert für die Periode 11 (und eventuell weitere Perioden). Beispiel 2-2 (2.2) liefert x^ = X]0 = 115,1 als Prognosewert für die „naive Methode" (Ia).

16

Rein univariate Verfahren

Beispiel 2-3 Naive l b erbringt gemäß (2.3): = Xi0 + ( X 10 _ X9) = 115,1+ (115,1-116,3) = 113,9.

Beispiel 2-4 Die Bildung und Höhe „gleitender 3er-Durchschnitte" zeigt Tab. 2-2. Beobachtungswert 101,8 102,4 102,3 107.3 107.4 111,1

112.5 112,3 116,3 115,1

Total

gleitender Durchschnitt

306,5 312,0 317,0 325.8 331.0 335.9 341.1 343,7

102,17 104,00 105,67 108,60 110,33 111,97 113,70 114,57

Tab. 2-2: gleitende Durchschnitte (3er, für Reihe IIIC-J) Als Prognosewert für die Periode 11 (und eventuell weitere Perioden) dient der letzte, hier — wie weitgehend üblich — der Periode 9 zugeordnete Wert: 114,57.

Als Probleme bei der Methode der gleitenden Durchschnitte ergeben sich insbesondere : 1. Am Anfang und — wichtiger: „Problem des aktuellen Randes"! — am Ende der Zeitreihe gehen Werte verloren. 2. Deren Zahl ist um so höher, je mehr Beobachtungswerte zu einem gleitenden Durchschnitt zusammengefaßt werden. Das aber ist im Grunde mehr oder weniger willkürlich. Bei geradzahligen gleitenden Durchschnitten besteht zudem die Schwierigkeit, daß sie nicht mehr genau einer Periode zugeordnet werden können. Bei der Anwendung des Prinzips der gleitenden Durchschnitte zur Saisonbereinigung (s. 2.2.2) ist z. B. im Falle der normalen 12-Monats-Saison klar, d a ß jeweils 12 Werte zusammenzufassen sind. Der erste Durchschnitt würde also zwischen die Monate Juni und Juli zu liegen kommen („Ordnungszahl" 6,5). Dem kann man abhelfen durch die Berechnung zentrierter gleitender Durchschnitte: Aus dem eben genannten Durchschnitt mit der

Prognosen auf der Basis der „klassischen" Zeitreihenzerlegung

17

Ordnungszahl 6,5 u n d dem folgenden mit 7,5 wird wiederum ein gleitender (2er-)Durchschnitt gebildet, der d a n n genau dem Juli zugeordnet werden kann. M a n bezeichnet einen solcherart berechneten Wert als 2 x 1 2 gleitenden Durchschnitt. Selbstverständlich k ö n n e n auch andere doppelte gleitende Durchschnitte ermittelt werden. Beispiel 2-5 Tab. 2-3 zeigt die Resultate der nochmaligen (3er-)Durchschnittsbildung für Reihe III C-J. gleitender 3er-Durchschnitt (aus Tab. 2-2) 102,17 104,00 105,67 108,60 110,33 111,97 113,70 114,57

3er-Total

3 χ 3-Durchschnitt

311,84 318,27 324,60 330,90 336,00 340,24

103,05 106,09 108,20 110,30 112,00 113,41

Tab. 2-3: doppelte gleitende Durchschnitte (3 χ 3, für Reihe III C-J) Das Ergebnis sind gewogene Durchschnitte. Der 3 χ 3-Durchschnitt entspricht ζ. B. einem gewogenen 5er-Durchschnitt mit den Gewichten 0,111 f ü r den ersten u n d letzten Wert, 0,222 den zweiten u n d vorletzten u n d 0,333 den mittleren. (S. dazu A 2-3).

2.1.2 Die Methode der kleinsten Quadrate Die Trendberechnung mittels Kleinstquadrateschätzung (OLS = Ordinary Least Squares) entspricht einer Regression auf die Zeit. So werden — im Unterschied zu den vorstehend besprochenen gewogenen gleitenden Durchschnitten und auch dem im nächsten Kapitel zu b e h a n d e l n d e n Exponentiellen Glätten — die Beobachtungswerte nicht verschieden gewichtet; sie gehen vielmehr alle mit dem gleichen Gewicht in den Berechnungsgang ein. Damit ist auch ein erstes Problem angesprochen : das der Länge des Beobachtungszeitraums, des „Stützbereichs". Je länger dieser ist, desto gesicherter können zwar die Resultate sein, desto mehr beeinflussen aber

18

Rein univariate Verfahren

auch weiter zurückliegende Werte die Prognose künftiger Entwicklungen. Ein weiteres Problem liegt in der Entscheidung über die Wahl der Trendfunktion. Wie in Kap. 1 angedeutet, müssen bei den „ad hoc forecasting formulas" notwendigerweise a priori-Entscheidungen getroffen werden. Im Prinzip jedenfalls ist dies in viel stärkerem Maße der Fall als bei solchen Methoden, die ein Modell aus der Zeitreihe selbst zu entwickeln suchen. Wie gelegentlich noch zu zeigen sein wird, sind allerdings die Entscheidungen auch hier nicht immer eindeutig und somit nicht frei von Subjektivität. Zudem sollte versucht werden, durch vorhergehenden Plot der Zeitreihe den Kurventyp besser hervortreten zu lassen. Auch können gewisse Kennwerte zur Beurteilung herangezogen werden; s. dazu noch unten. Aus der Entsprechung der Trendberechnung zur Regression folgt auch, daß die Berechnungsweise im wesentlichen die gleiche ist. Für den zunächst zu erörternden linearen Trend ergeben sich gegenüber der Regression noch Vereinfachungen. Aus der Regressionsfunktion (4.1): y = bx + c resultieren die Normalgleichungen (4.3 — s. die Herleitung dort) : I: b 2 > + m c = £ y I I : b 2 > 2 + c 2 > = 2>y. Entsprechend lautet die

Trendfunktion: (2.5)

y = bt + c mit den Normalgleichungen : I: b £ t + m c = 2 y II:b2t2 + c2t = 2ty

(2.6)

und den Lösungen : m

c=

1 m

m

ι m

ι m

(2.7 a)

(2.7b)

Für t die jeweiligen Jahreszahlen einzusetzen, wäre unpraktisch. Statt dessen verwendet man Kennziffern. Wählt man diese nun so, daß ihre Summe

Prognosen auf der Basis der „klassischen" Zeitreihenzerlegung

19

Null ergibt (im folgenden mit t' bezeichnet), so vereinfachen sich die Normalgleichungen u n d die Lösungen, letztere als: (2.8 a) c=2y=y. m

(2.8 b)

Erfolgt die Berechnung „per H a n d " , so geschieht das zweckmäßigerweise über das Anlegen einer Arbeitstabelle. Beispiel 2-6 Für die Reihe III C-J ergibt sich Tab.2-4. t' 2

t'·y

t

t'

1 2 3 4 5 6 7 8 9 10

-9 -7 -5 -3 -1 1 3 5 7 9

101,8 102,4 102,3 107,3 107,4 111,1 112,5 112,3 116,3 115,1

55

0

1088,5

y

-916,2 -716,8 -511,5 -321,9 -107,4

81 49 25 9 1 1 9 25 49 81

2860,1 -2573,8 = 286,3

330

111,1 337,5 561,5 814,1 1035,9

y 101,02 102,76 104,50 106,24 107,98 109,72 111,46 113,20 114,94 116,68 -

Tab. 2-4: Arbeitstabelle zur Berechnung des linearen Trends für Reihe III C-J Daraus folgt: c = 108,85 (s. Beispiel 2-1) b=

= 0,87 (für eine halbe Periode) 330 d.h. als Trendfunktion: y = 0,871' +108,85. Der Trendanstieg für eine ganze Periode beträgt also 1,74 (und liegt damit nahe bei dem, gemäß oben, „hineinkonstruierten" Trend von — jährlich — 1,80). Die resultierenden Schätzwerte finden sich in der letzten Spalte der Tabelle. In gleicher Weise ergeben sich die Prognosev/eñe für t +1, durch Addieren von 1,74 zum jeweils vorhergehenden Wert: y„ = 118,42 y,2 = 120,16

y,3 = 121,90

20

Rein univariate Verfahren

y,4= 123,64 y,j = 125,38. Dazu sei noch angemerkt: 1. a) Selbstverständlich kann die Prognose auch durch Einsetzen der entsprechenden Kennziffer in die Trendfunktion erfolgen. Dabei ist aber auf die richtige Periodisierung zu achten; so entspricht ylf t' = 11, y i2 1' = 13 usw. b) Graphisch ergeben sich die Prognosewerte durch einfache Verlängerung der Trendgeraden; s. dazu Abb.2-1. 2. Die Berechnung von 5 Prognose werten aufgrund von nur 10 Beobachtungs werten ist nicht unproblematisch. Sie geschieht hier mehr nur aus didaktischen Gründen, zwecks besseren Vergleichs zu verschiedenen anderen Trendformen. Nicht-lineare Trends können theoretisch in sehr vielen Formen auftreten. Zur einfachen Anwendung von OLS empfehlen sich praktisch aber nur solche Trendfunktionen, die linear in den Parametern sind. Das trifft zunächst zu für Trends höheren Grades, in Gestalt von Polynomen. So hat ein Trend 2. Grades die Form : y = t^t + b 2 t 2 + c.

(2.9)

Das quadratische Glied — deshalb auch die Bezeichnung: quadratischer Trend — gibt hier, sachlich gesehen, die Veränderung des „Trendanstiegs" wieder. Dieser Ansatz entspricht formal der multiplen Regression mit 2 unabhängigen Variablen, gemäß (4.25) : y = b 1 x 1 + b 2 x 2 + c,

(2.10)

wobei allerdings in (2.9) die zweite Variable nur eine Potenz der ersten ist (analog der „quadratischen Regression"). Es resultieren nunmehr 3 Normalgleichungen: biZxi b,2>i2

+b2£x2 +mc = £y +b22xix2+c2x,=l>iy

(2.11)

Dieses Gleichungssystem kann aus der ersten Gleichung von (4.3) gewonnen werden: Ergänzung um den entsprechenden Term für x2 ergibt die 1. Normalgleichung, „Multiplikation" dieser mit Xi(¡) die 2., mit x2 die 3. (usw., bei mehr Variablen). Daraus folgt als Lösung für die Parameter: , b,

(-Zxiy-xiy) (1Σχ22-Χ22) \m / \m /

(-Σχ,χ2-*.*2) / Vm /

Vm

(~Σχ12 —Χι2) ( — Σ Χ 2 2 - Χ 2 2 ) Vm / Vm /

-

(^X1X2-X,X2)2

Vm

/

(2.12 a)

Prognosen auf der Basis der „klassischen" Zeitreihenzerlegung

(—2*2y-x2y) (—Ζ χ ι 2 - χ ι 2 ) -

k _ J^m

/ Vm

/

(1Σχ,2-χ,2) Vm

(—2 x iy~ x iy) 'm

(^x^-xá

/ \m

/

(-Σχιχ2-χιχ2)

/ Vm

-

21

>_

(-ΣΧ1Χ2-Χ1Χ2)2 \m

/

(2.12b) c = y — bjX! — b2X2·

(2.12 c)

Ersetzt man zur Berechnung des quadratischen Trends xt durch t resp. x 2 durch t2 sowie weiter t bzw. t2 durch t' bzw. t'2 und kürzt (s. A 2-7), so ergeben sich wesentlich vereinfachte Formeln: -Zt'y (2.13 a) m 1

2t'2y-y

1

2t' 2

bj-® 1 2 t ' 4 - ( 1 2t'2): m \m / m \m

(2.13b)

c = y - b 2 — 2t' 2 · m

(2.13 c)

Beispiel 2-7 Für die Reihe III C-J resultiert: t' -

t'y

y

t'2

t'2 y

t'4

9 7 5 3 1 1 3 5 7 9

101,8 102,4 102,3 107,3 107,4 111,1 112,5 112,3 116,3 115,1

-916,2 -716,8 -511,5 -321,9 -107,4 111,1 337,5 561,5 814,1 1035,9

81 49 25 9 1 1 9 25 49 81

8245,8 5017,6 2557,5 965,7 107,4 111,1 1012,5 2807,5 5698,7 9323,1

6561 2401 625 81 1 1 81 625 2401 6561

0

1088,5

286,3

330

35846,9

19338

y 100,61 102,63 104,58 106,46 108,27 110,01 111,67 113,26 114,78 116,23 -

Tab. 2-5: Arbeitstabelle zur Berechnung des quadratischen Trends für Reihe III C - J

22

Rein univariate Verfahren

Aus (2.13) folgt: b, = b

= 2

33

0 868

3584,69-108,85-33 ^ - 7 , 3 6 1933,8 - 332 844,8

-0,009

c = 108,85 - ( - 0 , 0 0 9 - 3 3 ) = 109,147. Durch Einsetzen dieser Werte und jeweils t' bzw. t' 2 in (2.9) ergeben sich daraus die Schätzwerte in der letzten Spalte der Tabelle und als Prognose werte: y „ = 117,61 y,2 = 118,91 y , 3 « 120,14 y, 4 = 121,30 y,s = 122,39.

Der Trend 3. Grades („kubischer Trend") hat folgende Form: y = b 1 t + b 2 t 2 + b 3 t 3 + c.

(2.14)

Beispiel 2-8 Für die Reihe III C-J resultiert als Trendfunktion: y = - 0,711 + 0,5812 - 0,0413 +101,73 mit den Schätzwerten für die ersten 10 Perioden: 101,56; 102,32; 103,80; 105,76; 107,99; 110,26; 112,35; 114,04; 115,10; 115,30. (Die Prognose werte sind in Tab. 2-7 enthalten. S. im übrigen auch Abb. 2-1.)

Aus dem Dargelegten folgt, daß Polynomialtrends höheren Grades, in der allgemeinen Form : y = b,t + b 2 t 2 + . . . + b n t n + c

(2.15)

meist schwer interpretierbar sind. Sie werden deshalb heute eher selten angewandt. Ihr Vorteil liegt darin, daß hier in einfachster Weise die Anwendung der Methode der kleinsten Quadrate möglich, d. h. auch: eine „Linearisierung" gar nicht notwendig, ist. Diese erfolgt zumeist durch Logarithmieren. Ein vergleichsweise häufig verwandtes Beispiel hierfür ist der Exponentialtrend: y = b'-c

(2.16)

und daraus : lgy = t - l g b + lg c.

(2.17)

Prognosen auf der Basis der „klassischen" Zeitreihenzerlegung

23

Er hat die Eigenschaft, daß er im sog. halblogarithmischen Papier — in dem nur eine Achse, in diesem Fall die betrachtete Größe selbst, logarithmisch skaliert ist — als Gerade erscheint; deshalb auch die Bezeichnung als halblogarithmischer Trend. Damit ist auch die Prognose auf graphischem Wege leicht möglich. Inhaltlich bedeutet dies eine gleichbleibende Wachstumsrate — im Unterschied zum linearen Trend, mit gleichen absoluten Zuwächsen. Die Vorstellung gleichbleibender Wachstumsraten wird aber in ökonomischen Anwendungen, insbesondere makroökonomischer Art, häufig sinnvoll sein. Der Bezeichnung Exponentialtrend entsprechend wird nicht selten die Schreibweise unter Verwendung der e-Funktion und natürlicher Logarithmen verwandt: y = e bt · c

(2.18)

und daraus als „linearisierte" Form lny = b-t + ln c.

(2.19)

Beispiel 2-9 Für die Reihe III C-J ergibt sich als Trendfunktion: y = e°·021· 99,57 mit den Schätzwerten für die ersten 10 Perioden (zu den Prognosewerten für die Periode 11-15 s. Tab. 2-7): 101,18; 102,81; 104,47; 106,15; 107,86; 109,60; 111,37; 113,16; 114,99; 116,84.

Bei der foienzfunktion („power curve") steht, im Unterschied zu (2.16), im Exponenten nicht die unabhängige (Zeit-)Variable, sondern der Koeffizient: y = t b -c,

(2.20)

logarithmiert: lgy = b-lgt + lgc.

(2.21)

Diese Form wird auch als doppellogarithmischer Trend bezeichnet, da bei Verwendung doppellogarithmischen Papiers, d.h. logarithmische Skalierung auch der Zeitachse, sich hierfür eine Gerade ergibt. (Sachlich wird dies allerdings nicht leicht begründbar sein.) Gelegentlich findet sich hierfür auch die Benennung als geometrischer Trend.

24

Rein univariate Verfahren

Beispiel 2-10 Für die Reihe IIIC-J ergibt sich als Trendfunktion: y = t0·07 · 97,91 mit den Schätzwerten für die Perioden 1 bis 10 (zu den Prognose werten für die nächsten 5 Perioden s. Tab. 2-7): 97,91; 102,73; 105,66; 107,80; 109,48; 110,87; 112,06; 113,11; 114,04; 114,87. In der Literatur wird oft auch die sog. logarithmische Funktion angeführt, die sich von der des linearen Trends nur dadurch unterscheidet, daß für die Zeitwerte sogleich deren Logarithmen angesetzt werden: y = b - l n t + c.

(2.22)

Beispiel 2-11 Für die Reihe IIIC-J ergibt sich als Trendfunktion: y = 6 , 8 1 - I n t + 98,57 mit den Schätzwerten: 98,57; 103,29; 106,05; 108,00; 109,52; 110,77; 111,81 ; 112,72; 113,53; 114,24.

Ein Großteil der vorstehenden Beispiele wurde mit dem Programm T R E N D im Programmsystem FIDES (programmiert von T. Hentrop/ E. Witt) gerechnet. Die Ergebnisse wurden auf zwei Dezimalstellen gerundet. Für die oben ausführlich dargestellten Exempel dienten die Computerläufe zur Kontrolle und für die Ausgabe weiterer Kennwerte. (Wegen der Rundung auf die zweite Dezimale bei den „handgerechneten" Beispielen weichen die Ergebnisse bisweilen geringfügig ab.) Zur Beurteilung der Güte der Anpassung k a n n der Koeffizient der Korrelation zwischen Beob-

achtungs- und Schätzwerten (s. dazu und zu anderen, verwandten Maßen Kap. 4) dienen. Beispiel 2-12 Für die obigen Beispiele sind die Korrelationskoeffizienten in Tab. 2-6 gegenübergestellt.

Für die Prognosewerte kann die Gegenüberstellung zu den Beobachtungswerten und die Berechnung entsprechender Fehlermaße in Frage kommen; s. dazu Kap. 11.

Prognosen auf der Basis der „klassischen" Zeitreihenzerlegung

Trendfunktion

Korrelationskoeffizient

linear quadratisch kubisch Exponential-F. Potenz-F. logarithmische F.

0,97 0,97 0,98 0,97 0,93 0,92

25

Tab. 2-6: Anpassungsgüte bei verschiedenen Trendformen für Reihe III C-J Beispiel 2-13 Da in den obigen Beispielen nur ein Beobachtungswert für den Prognosezeitraum vorhanden war, wird hier auf eine solche Gegenüberstellung verzichtet. Es sei lediglich daran erinnert, daß der Konstruktion der Reihe ein linearer Trend zugrunde lag, mit einem (jährlichen) Trendanstieg von 1,8. Wegen des Zw/àZ/seinflusses könnte aber, speziell für nur 1 Periode, durchaus eine andere Trendform zu einer besseren „Prognose" führen. Um den weiteren Verlauf der Prognosewerte zu zeigen, enthält Tab. 2-7 zunächst die Prognosen für 5 Perioden für sämtliche bisher verwendete Trendformen. (Zu Trends mit Sättigungskonstante s. Kap. 4, insbesondere Beispiele 4-15 und-18.) Periode 11

12

13

14

15

118,39 117,61 114,43 118,72 115,64 114,89

120,16 118,91 112,27 120,64 116,34 115,48

121,90 120,14 108,58 122,58 116,98 116,03

123,64 121,30 103,15 124,56 117,59 116,53

125,38 122,39 95,75 126,56 118,15 117,00

Trendform linear quadratisch kubisch Exponential-F. Potenz-F. logarithmische F.

Tab. 2-7: Prognosewerte (5 Perioden) bei verschiedenen Trendformen für Reihe III C-J Abb. 2-1 zeigt den längerfristigen Verlauf — für 10 Prognoseperioden — bei 3 Trendformen, zugleich mit der Gegenüberstellung zu den Beobachtungswerten im Stützbereich.

Prognosen auf der Basis der „klassischen" Zeitreihenzerlegung

27

2.2 Die Saison 2.2.1 Das Problem der Ermittlung von „Saisonfaktoren" Wie unter 2.0 schon angedeutet, wird im folgenden unter „Saison" in der Regel auf Monateschwankungen (Schwankungen der einzelnen Monate innerhalb des Jahres), gelegentlich auch oberhalb von Monaten (Quartalsoder Halbjahreswerte), abgestellt. Wie ebenfalls bereits ausgeführt, können diese Saisonschwankungen additiv oder multiplikativ — speziell zum „Trend" — sein. Vorwiegend in der angelsächsischen Literatur wird zum zahlenmäßigen Ausdruck dieser Schwankungen allgemein der Ausdruck Saisonfaktor („seasonal factor") verwandt. Dies scheint schon deshalb nicht ganz glücklich, weil „Faktor" mit „Multiplikation" in Verbindung gebracht wird. In der Tat schiene für absolute Abweichungen der vom Verf. früher (HÜTTNER 1977, S.191 - unter Bezugnahme auf MACKENROTH 1949, S. 163) angeführte Ausdruck Saisonzahlen hierfür besser. Relative Abweichungen, im multiplikativen Falle, kann man als Saisonindizes bezeichnen. Das ist zumindest dann zweckmäßig, wenn diese Abweichungen auf 100 — statt auf 1 — bezogen werden. Damit ist auch das Problem der Bezugsbasis angesprochen. Man kann einerseits das Jahres ganze gleich 100 setzen und dann, je nach deren Stärke, auf die einzelnen Monate aufteilen; der „Normalmonat" würde also m % ausmachen. Andererseits kann die Bezugnahme auf den Jahresdurchschnitt — als quasi dem „Normalmonat" — erfolgen. Beispiel 2-14 Beträgt etwa die Gesamtproduktion eines Jahres 1800 und die des Januar 120, so ergibt sich für die erste Form :

120 υ 1800

-100 = 6,7%.

Die zweite Form erbringt als Saisonindex:

120 — — — 1 0 0 = 80 1800/12 (oder 0,8 als — multiplikativer — „Saisonfaktor").

Zu unterscheiden ist ferner, ob von der Idee der konstanten oder der variablen Saisonfigur ausgegangen wird. Bei ersterer werden allgemein Saisonindizes für die einzelnen Monate ermittelt und verwandt. Diese sind also

28

Rein univariate Verfahren

nicht von vornherein, wie bei der variablen Saisonfigur, auf einen konkreten Monat eines Jahres bezogen, sondern zunächst für alle gleichnamigen Monate gültig (was nicht ausschließt, daß sie von Zeit zu Zeit neu ermittelt werden). Darauf wird unten noch einzugehen sein. Saisonindizes können verschiedenen Zwecken dienen : 1. Berechnung von saisonbereinigten Werten: ^ e o ^ a c ^ t u n ë s w e r t . loO; Saisonindex 2. Aufteilung des — anderweitig vorausgeschätzten — Jahresergebnisses auf die einzelnen Monate; 3. Prognose des Jahresergebnisses aufgrund bereits vorliegender Monatswerte (wobei naturgemäß diese „Prognose" im Jahresverlauf wegen der breiteren Datenbasis immer „besser" wird); 4. Prognose von Monatswerten aufgrund vorher saisonbereinigter Daten. Die letztgenannte Prognose-Aufgabe — als die im hier gegebenen Zusammenhang in erster Linie interessierende — stünde etwa dann an, wenn man aus saisonbereinigten Daten einen Kleinstquadratetrend berechnet hat. Dessen Extrapolationswert für den fraglichen Zeitraum gibt dann noch nicht den Prognosewert an; vielmehr hat noch die Wieder-Einbeziehung des Saisoneinflusses zu erfolgen, durch Multiplikation mit dem jeweiligen Saisonindex. Ähnliches gilt auch für das „naive" Vorgehen, das hier als Naive IIa bezeichnet werden soll (zu I und II und deren Varianten s. 2.1.1): Verwendung des letzten Beobachtungswertes als Prognosewert, unter Aus- und Einschaltung des jeweiligen Saisoneinflusses. Beispiel 2-15 Prognosewert Mai 1984= Beobachtungswert Apnl 1984 s a ¡ s o n ¡ n ( j e x ¡y¡a¡ Saisonindex April

Wie aus den späteren Ausführungen noch deutlich werden wird, ist die Berechnung von Saisonindizes jedoch nicht ganz unaufwendig. Einfacher ist deshalb Naive IIb. Hierbei wird nicht, wie bei der Variante a, der Vormonats·, sondern der Vorjahreswert als Prognosewert genommen. Führt man den allgemeinen Begriff der Saisonlänge ein (noch allgemeiner wäre, wenn auch bei der Komponente C von einem festen Zyklus ausgegangen werden

Prognosen auf der Basis der „klassischen" Zeitreihenzerlegung

29

könnte — s. dazu 2.3 —, „Zykluslänge") und bezeichnet diese mit s, so ergibt sich: X,+1 = X , + I _ S .

(2.23)

Wie man sieht, kann das Verfahren dann nicht zu befriedigenden Prognosen führen, wenn die Reihe einen Trend enthält. Theoretisch läßt sich dann das letztgenannte Vorgehen mit dem „same change"-Prinzip (s. 2.1.1) verbinden (Naive Ile): xt + i = xt + |_ s + (xt + 1 _ s —

X t + I_2s).

(2.24)

In den folgenden beiden Unterabschnitten werden 2 ältere, der „klassischen" Zeitreihenzerlegung entsprechende Verfahren vorgestellt. Darauf beruht zwar auch das Census-Verfahren ; es wird aber erst im übernächsten Hauptabschnitt — nachdem im nächsten noch auf die „zyklischen" und die „Rest"-Komponente eingegangen worden ist — erörtert. In diesem Zusammenhang soll dann auch noch auf einige andere „Saisonbereinigungsverfahren" hingewiesen werden. Eine Art der Erfassung der Saisonalität, die sich — mittels besonders eingeführter Variablen — der Regression bedient, wird bei der Behandlung dieser (in Kap. 4) ausführlich, auch an einem Beispiel, dargestellt.

2.2.2 Saisonindizes nach der

„Durchschnittsprozentmethode"

Die „Durchschnittsprozentmethode" („Average Percentage Method") besteht aus 4Schritten: 1. Für jedes Jahr wird der Jahresdurchschnitt gebildet. 2. Durch Bezugnahme der Beobachtungswerte auf den jeweiligen Jahresdurchschnitt ermittelt man Verhältniszahlen für die einzelnen Monate ( auf die hier — und nicht ζ. B. auf Quartale — abgestellt wird.) Im Vorgehen in den ersten beiden Schritten kann auch der Unterschied zum ,,/%a,se«durchschnittsverfahren" gesehen werden: Die Bezugnahme kann dabei auf einen Gesam/durchschnitt für einen „Normalmonat" aus der gesamten betrachteten „Phase" (z.B. 5 Jahre) erfolgen. Wegen der Orientierung am „Durchschnittsmonat" wird manchmal auch von „Monatsdurchschnittsverfahren" gesprochen. Beide Bezeichnungen erscheinen mißverständlich bzw. nicht allgemein genug.

3. Aus den Verhältniszahlen für die gleichen Monate wird ein Mittel gebildet. Dabei entsteht ein Problem: das, der „Ausreißer". Es geht um die Frage, ob extrem hoch bzw. niedrig erscheinende Werte von der weiteren Be-

30

Rein univariate Verfahren

rechnung ganz auszuschließen oder mit einem verminderten Gewicht anzusetzen sind. Im Grunde handelt es sich hierbei um ein generelles Problem. (S. auch die Erörterungen dazu in Kap. 14.) Hier tritt es quasi in verschärfter Form auf, da in der Regel nur wenige Werte zur Mittelbildung herangezogen werden. Dies wiederum geschieht nicht nur wegen des Rechenaufwandes, sondern weil eben die Mittelwertbildung bedeutet, daß es sich um ein Verfahren mit konstanter Saisonfigur handelt. Die Einbeziehung sehr vieler Jahre würde aber sicher eine solche Annahme kaum mehr rechtfertigen können. Zur Lösung des Problems bieten sich hier insbesondere 3 Wege an: a) subjektive Entscheidung, aufgrund von Inspektion, darüber, was als „Ausreißer" zu behandeln und wie dies zu tun ist; b) Verwendung des Medians anstelle des arithmetischen Mittels. Der Median ist bekanntlich der mittlere in der Reihe der nach der Größe geordneten Werte. Seine Ordnungszahl ergibt sich also als

n -I-1

; bei geradezah-

ligem η wird üblicherweise das arithmetische Mittel aus den beiden benachbarten Werten genommen.

Der Median hat den Vorteil, daß er von Extremwerten weitgehend unberührt bleibt. Er ist nicht zuletzt deshalb, nachdem er längere Zeit — wohl etwas zu Unrecht — eher vernachlässigt worden war, neuerdings, insbesondere von T U K E Y (1977) in seiner „explorativen Datenanalyse", wieder stärker in den Vordergrund gerückt worden. (S. auch unten, SABL.) Als Nachteil ergibt sich aber, umgekehrt, insbesondere bei sehr kurzen Reihen, daß dann doch zu wenig Information in ihn eingeht. Letztlich vermag deshalb zumindest hier seine Verwendung auch nicht ganz zu befriedigen. c) objektive Verfahren der „automatischen Extremwertbereinigung". Das Programm SSAISON (Autor: U.Bednarzik) des Programmsystems FIDES enthält - auch für das im nächsten Abschnitt zu besprechende Verfahren — die Option einer solchen Extremwertbereinigung. Zurückgegriffen wird dabei auf ein wahrscheinlichkeitstheoretisches Kalkül. Es ist dann nur noch vorzugeben, mit welcher Wahrscheinlichkeit gerechnet werden soll (95% usw.). 4. Gegebenenfalls ist noch eine Adjustierung erforderlich. Definitionsgemäß muß die Summe der Saisonindizes 1200 ergeben. Ist dies nicht der Fall, kann die Multiplikation mit einem Korrekturfaktor, gewonnen durch Bezugnahme von 1200 auf die sich ergebende Summe, erfolgen.

Prognosen auf der Basis der „klassischen" Zeitreihenzerlegung

31

Praktisch ist dies ein Rundungs- und damit Genauigkeits-Problem. Wird z.B. im Laufe der Berechnung mit 2 Dezimalstellen gearbeitet, hinterher aber auf ganze Zahlen gerundet, so ist die vorherige „Adjustierung" im Grunde überflüssig. Das skizzierte Verfahren soll an einem Beispiel illustriert werden. Hierfür wird eine der generierten Reihen herangezogen, deren Konstruktionsprinzip in Abschnitt 2.1.1 dargelegt wurde. In Tab. 2-1 sind bereits die daraus resultierenden Ja/»rei(durchschnitts)werte wiedergegeben worden, für alle 9 Reihen zusammen. Hier sollen zunächst — in Tab. 2-8 — ebenfalls sämtliche Monatsdaten zusammengefaßt dargestellt werden. Zumal auch bei den meisten der vielen späteren Rückgriffe hierauf nur die Reihen III A - C ( M ) für die ersten 8 Jahre (7 Jahre „Stützbereich", 1 Jahr Prognose· Vergleich) benötigt werden, enthält die graphische Darstellung in Abb. 2-2 nur diese.

Datenbank-Listing — Monatswerte — Periode 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24

Programmsystem — FIDES —

IA

IB

IC

IIA

IIB

IIC

IIIA

HIB

IIIC

133.4 100.3 108.4 101.8 114.6 112.6 112.2 113.4 121.0 112.5 95.2 76.0 137.3 100.3 103.7 93.9 102.5 98.9 96.3 95.7 102.4 94.9 81.0 66.5

132.2 98.6 105.9 99.0 111.2 109.5 109.4 111.4 120.0 113.0 97.1 78.8 145.1 108.1 113.9 105.1 116.6 114.2 112.4 112.4 120.4 111.2 94.0 75.9

130.7 96.4 102.4 94.8 105.4 102.9 102.0 103.1 110.5 103.5 88.6 71.8 131.9 98.3 103.7 95.9 106.8 105.1 104.1 104.8 113.2 105.4 90.0 73.4

145.9 102.5 133.0 107.0 105.3 111.1 111.2 110.6 121.0 111.4 98.6 63.3 122.1 106.9 113.3 85.3 82.4 106.4 100.4 89.3 118.4 96.2 81.0 63.9

144.6 100.8 129.9 104.1 102.2 107.9 108.5 108.7 120.0 112.0 100.6 65.6 129.1 115.2 124.4 95.4 93.8 122.8 117.1 104.9 139.2 112.7 93.9 73.0

142.9 98.5 125.6 99.6 96.9 101.4 101.2 100.6 110.5 102.6 91.8 59.8 117.4 104.7 113.3 87.1 85.9 113.0 108.4 97.8 130.8 106.8 89.9 70.6

139.4 101.4 120.2 104.3 110.1 111.9 111.7 112.1 121.0 112.0 96.8 69.9 130.0 103.5 108.3 89.8 92.9 102.5 98.3 92.6 110.1 95.5 81.0 65.2

138.1 99.6 117.4 101.5 106.9 108.7 109.0 110.1 120.0 112.5 98.7 72.5 137.4 111.5 118.9 100.4 105.7 118.3 114.7 108.8 129.4 111.9 94.0 74.5

136.6 97.4 113.5 97.1 101.3 102.2 101.6 101.9 110.5 103.0 90.1 66.0 125.0 101.4 108.3 91.7 96.8 108.9 106.2 101.4 121.6 106.1 90.0 72.1

32

Rein univariate Verfahren

Datenbank-Listing — Monatswerte —

Programmsystem — FIDES —

Periode

ΙΑ

IB

IC

IIA

IIB

HC

IIIA

HIB

IIIC

25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66

123.4 92.1 99.4 94.0 106.6 105.9 107.1 111.1 121.3 114.9 99.4 81.7 151.3 111.9 116.3 109.0 119.6 114.2 111.6 111.0 116.9 106.9 89.5 72.0 128.6 94.2 98.4 91.8 102.1 98.8 99.9 102.5 110.7 106.2 93.2 78.0 145.0 109.3 117.6 110.9 125.3 122.3

138.2 100.6 105.6 96.9 106.4 102.3 100.2 100.9 107.2 99.2 84.1 68.2 125.0 92.0 95.7 90.3 100.2 97.3 97.0 98.8 106.8 100.5 86.5 71.5 131.3 98.5 105.0 99.6 112.1 109.2 110.6 113.3 121.7 115.6 100.4 83.0 152.4 113.4 120.6 112.7 126.4 122.7

135.1 99.5 105.6 98.0 108.9 105.9 104.9 106.8 114.6 106.9 91.5 74.6 137.6 101.8 106.2 100.3 111.3 107.9 107.3 108.8 116.9 109.2 93.3 76.5 139.0 103.2 108.7 101.9 113.4 109.2 109.4 110.7 117.7 110.7 95.1 78.0 142.1 105.0 111.0 103.3 115.3 111.7

128.7 86.5 110.3 95.9 90.6 89.4 88.0 107.9 125.7 107.8 96.5 76.2 162.3 119.9 96.9 126.4 115.4 100.8 105.6 111.5 129.2 111.1 92.6 79.8 115.6 93.4 98.3 105.0 103.0 75.3 100.6 105.9 95.7 101.6 103.7 91.4 149.9 110.6 130.0 117.2 127.5 111.5

144.2 94.5 117.2 98.8 90.4 86.3 82.3 98.0 111.1 93.1 81.7 63.6 134.1 98.6 79.8 104.7 96.7 85.9 91.8 99.2 118.1 104.3 89.5 79.4 118.0 97.7 105.0 113.9 113.1 83.2 111.4 117.1 105.2 110.7 111.8 97.3 157.5 114.8 133.4 119.1 128.6 111.8

140.9 93.4 117.2 99.9 92.5 89.4 86.2 103.7 118.8 100.4 88.8 69.6 147.6 109.0 88.5 116.3 107.4 95.2 101.5 109.2 129.2 113.4 96.5 84.8 124.9 102.3 108.7 116.6 114.4 83.2 110.1 114.4 101.7 105.9 105.9 91.4 146.8 106.2 122.7 109.1 117.4 101.8

126.0 89.4 104.6 94.9 98.9 98.0 97.9 109.6 123.4 111.5 98.0 79.1 156.6 115.7 107.0 117.3 117.6 107.8 108.8 111.2 122.8 108.9 91.0 75.7 122.4 93.8 98.4 98.1 102.5 87.5 100.2 104.1 103.6 104.0 98.2 84.4 147.4 109.9 123.5 114.0 126.4 117.1

141.1 97.7 111.1 97.8 98.7 94.6 91.6 99.5 109.1 96.2 83.0 66.0 129.4 95.2 88.1 97.2 98.5 91.8 94.5 99.0 112.2 102.3 87.9 75.3 125.0 98.1 105.0 106.4 112.5 96.7 111.0 115.1 113.8 113.3 105.8 89.8 154.9 114.1 126.7 115.8 127.5 117.5

137.9 96.6 111.1 98.9 101.0 98.0 95.9 105.3 116.6 103.8 90.2 72.2 142.4 105.2 97.7 108.0 109.4 101.8 104.5 109.0 122.8 111.2 94.8 80.5 132.2 102.7 108.7 109.0 113.9 96.7 109.7 112.5 110.0 108.4 100.3 84.4 144.4 105.6 116.6 106.1 116.3 106.9

Prognosen auf der Basis der „klassischen" Zeitreihenzerlegung

Datenbank-Listing — Monatswerte —

33

Programmsystem — FIDES —

Periode

IA

IB

IC

IIA

IIB

IIC

IIIA

HIB

IIIC

67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108

122.9 123.7 132.1 121.9 102.8 83.7 150.6 108.9 111.6 101.8 112.6 106.9 104.9 104.9 110.6 103.8 88.2 72.5 133.6 99.9 106.8 101.6 117.0 115.5 117.7 121.0 131.6 125.2 107.5 89.0 164.4 120.8 127.9 117.6 129.5 124.3 121.5 119.7 125.7 116.0 98.2 77.4

123.0 123.7 132.5 123.0 104.5 85.9 156.3 114.4 118.8 109.7 122.7 117.5 116.0 116.1 122.2 113.9 95.7 77.4 139.7 102.0 106.2 98.2 109.9 105.5 104.7 105.1 112.0 104.9 89.0 73.3 135.2 99.8 106.7 99.5 111.8 109.8 110.3 112.0 121.4 115.7 101.1 82.3

111.8 112.5 120.6 112.2 95.7 79.1 144.7 106.7 111.6 104.0 117.4 113.6 113.3 114.8 122.2 115.2 97.9 80.1 146.2 108.0 113.5 105.9 119.5 115.5 115.3 116.3 124.3 116.5 98.9 81.3 149.5 109.9 116.8 108.2 120.5 117.4 116.7 117.2 125.6 118.5 102.3 82.3

140.5 125.4 141.0 108.9 88.9 94.7 161.7 109.3 93.4 84.3 119.3 99.1 113.3 117.0 110.6 118.1 90.3 75.6 126.3 90.3 90.8 90.9 128.1 109.3 131.2 126.0 133.5 128.6 94.5 91.5 180.4 115.0 148.8 120.7 119.9 118.1 124.0 103.2 113.2 121.6 129.6 71.9

140.6 125.4 141.4 109.9 90.3 97.2 167.9 114.8 99.4 90.8 129.9 108.9 125.2 129.6 122.3 129.7 97.9 80.7 132.1 92.2 90.2 87.9 120.3 99.8 116.7 109.5 113.7 107.7 78.3 75.3 148.4 95.0 124.1 102.2 103.5 104.4 112.6 96.5 109.4 121.3 133.6 76.4

127.8 114.0 128.8 100.3 82.7 89.4 155.4 107.0 93.4 86.1 124.3 105.3 122.4 128.1 122.3 131.2 100.3 83.5 138.3 97.6 96.4 94.8 130.8 109.3 128.5 121.1 126.1 119.7 86.9 83.5 164.1 104.6 135.9 111.1 111.6 111.6 119.1 101.1 113.2 124.1 135.1 76.4

131.4 124.5 136.4 115.7 96.1 89.0 155.9 109.1 102.9 93.4 115.8 103.2 108.9 110.7 110.6 110.6 89.2 74.0 130.1 95.3 99.1 96.5 122.3 112.5 124.2 123.4 132.5 126.8 101.2 90.2 172.1 118.0 137.9 119.1 124.9 121.3 122.7 111.8 119.7 118.7 113.3 74.8

131.4 124.5 136.8 116.7 97.7 91.3 161.8 114.6 109.5 100.7 126.2 113.4 120.4 122.6 122.3 121.4 96.8 78.9 136.1 97.3 98.5 93.3 114.9 102.8 110.5 107.2 112.8 106.2 83.9 74.3 141.5 97.5 115.0 100.8 107.8 107.2 111.4 104.6 115.6 118.4 116.7 79.4

119.5 113.2 124.5 106.5 89.5 84.0 149.8 106.8 102.9 95.4 120.7 109.6 117.7 121.2 122.3 122.9 99.0 81.7 142.4 103.0 105.3 100.6 124.9 112.5 121.7 118.6 125.1 118.0 93.2 82.4 156.5 107.3 125.9 109.6 116.3 114.6 117.9 109.5 119.7 121.2 118.1 79.4

34

Rein univariate Verfahren

Datenbank-Listing — Monatswerte —

Programmsystem — FIDES —

Periode

IA

IB

IC

IIA

IIB

HC

IIIA

HIB

UIC

109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132

140.2 101.8 105.6 98.3 110.4 108.6 108.1 110.4 121.4 115.1 99.9 83.7

153.2 114.0 120.7 114.1 129.3 127.7 127.0 128.8 140.1 130.9 111.8 91.9

151.4 111.4 116.8 109.2 122.6 120.0 118.4 119.2 129.0 119.9 102.0 83.7

144.3 92.2 82.5 85.8 106.4 120.6 107.0 99.2 140.2 112.3 88.5 81.4 135.9 123.4 115.9 112.3 116.9 126.3 154.4 138.8 130.5 115.7 126.5 83.5

157.7 103.3 94.3 99.5 124.6 141.8 125.6 115.7 161.8 127.9 99.0 89.4 146.5 130.4 120.3 114.6 117.5 125.3 151.7 135.4 126.8 112.3 123.0 81.6

155.9 101.0 91.2 95.3 118.1 133.3 117.1 107.1 148.9 117.1 90.4 81.4 133.2 118.6 109.5 104.6 107.6 115.3 140.4 126.2 119.2 106.5 117.8 78.9

142.2 97.2 94.6 92.3 108.5 114.3 107.6 105.0 130.4 113.8 94.4 82.6 146.4 120.8 121.3 116.1 126.2 129.6 143.3 136.2 136.5 124.1 119.2 86.8

155.4 108.9 108.1 107.1 127.1 134.5 126.3 122.5 150.5 129.5 105.7 90.7 157.7 127.6 125.8 118.4 126.8 128.6 140.8 132.9 132.6 120.4 115.9 84.8

153.6 106.4 104.5 102.5 120.5 126.3 117.8 113.4 138.5 118.6 96.5 82.6 143.4 116.1 114.6 108.0 116.1 118.3 130.3 123.9 124.6 114.2 110.9 82.0

Tab. 2-8: Monatswerte der Reihen I Α-C, II Α - C und III A - C

Beispiel 2-16 Wendet man die genannten Arbeitsschritte auf die ersten 7 Jahre der Reihe IIIC-M an, so ergibt sich folgendes: Im 1. Schritt wären Jahresdurchschnitte zu bilden; sie sind bereits in Tab. 2-1 ausgewiesen (ζ. B. 101,8 für das erste Jahr). Im 2. Schritt sind die einzelnen Monate eines Jahres darauf zu beziehen ; es ergeben sich die Verhält136 6 niszahlen för die einzelnen Monate (z.B. — -100=134,19 für Januar des ersten 101,8

Jahres). Im 3. Schritt sind diese für die gleichnamigen Monate zu mittein; unter Überprüfung auf „Ausreißer" und gegebenenfalls — im 4. Schritt — Adjustierung. Beide Korrekturen erwiesen sich im vorliegenden Fall als nicht erforderlich. Insbesondere brachte auch die Anwendung der Option „Extremwertbereinigung", mit einer Vertrauenswahrscheinlichkeit von 95%, keine Veränderung: Die gemittelten Verhältniszahlen ergeben sogleich die Saisonindizes — die allenfalls im praktischen Fall noch zu runden wären — , gemäß Abb. 2-3.

Prognosen auf der Basis der „klassischen" Zeitreihenzerlegung O

s

S ι

1

S ι

β

o

O

o

i •w-t

53 •H

S

s

1

1

1

-o -c

36

Rein univariate Verfahren

Verhältniszahlen der einzelnen Monate: Jan 134.19 121.98 134.81 132.76 123.15 129.94 133.16

Feb 95.71 98.95 94.40 98.10 95.68 95.04 94.97

Mar Apr 111.54 95.41 105.69 89.48 108.63 96.72 91.06 100.65 101.23 101.47 105.00 95.48 91.46 84.81

Mai Jun Jul Aug 99.57 100.39 99.85 100.14 99.02 94.48 106.30 103.63 98.77 95.77 93.79 102.94 94.92 102.01 97.41 101.57 106.04 90.08 102.17 104.76 104.69 96.26 107.55 101.91 107.31 97.45 104.59 107.71

Mar Apr 102.09 94.86

Mai Jun 101.84 97.31

Sep 108.55 118.73 113.96 114.47 102.46 112.08 108.66

Nov 88.55 87.82 88.17 88.37 93.43 80.55 88.03

Dez 64.87 70.35 70.58 75.00 78.60 75.65 72.65

Jul Sep Nov Aug Okt 101.28 102.58 111.27 102.28 87.85

Dez 72.53

Okt 101.25 103.56 101.45 103.68 100.94 95.84 109.21

Saisonindizes: Jan Feb 130.00 96.12

Abb. 2-3: Verhältniszahlen der einzelnen Monate und Saisonindizes nach der „Durchschnittsprozentmethode" für Reihe III C-M (Programm-Output SSAISON) Ein Mangel des Verfahrens ist darin zu sehen, d a ß nicht explizit auf die „glatte K o m p o n e n t e " abgestellt wird. Speziell der Trend k o m m t zwar irgendwie in den Jahresdurchschnitten zum Ausdruck, u. U. aber — insbesondere dann, wenn er stark ist — nicht hinreichend. Das ist in d e m nunmehr darzustellenden Verfahren anders.

2.2.3 Saisonindizes auf der Basis des Verfahrens der gleitenden Durchschnitte Diese „ U r f o r m " der A n w e n d u n g des Prinzips der gleitenden Durchschnitte zur Erfassung der Saisonalität, auch als „Ratio to Moving Average"-Methode bezeichnet, geht auf M A C A U LAY (1931) zurück. Wie oben erfolgen vier Berechnungsschritte. Ausgegangen wird bei der folgenden Darstellung von einer multiplikativen K o m p o n e n t e n v e r k n ü p f u n g : X=T C S I .

(2.25)

Der 1. Schritt besteht in der Berechnung zentrierter gleitender 12-MonatsDurchschnitte. D a d u r c h erfolgt einerseits eine Glättung der Reihe, d.h. Ausschaltung von I, u n d andererseits, durch die Wahl der Periodenlänge 12, Eliminierung von S; die resultierende Reihe enthält also lediglich noch die Trend-Zyklus-Komponente TC. (Es ist zu beachten, d a ß in der amerikanischen Literatur, insbesondere im Z u s a m m e n h a n g mit C E N S U S — Abschnitt 2.4 — das Symbol C oft f ü r die zusammengefaßte Trend-ZyklusK o m p o n e n t e benutzt wird.)

Prognosen auf der Basis der „klassischen" Zeitreihenzerlegung

37

Im 2. Schritt werden analog oben Verhältniszahlen für die einzelnen Monate gebildet, per Division der Beobachtungswerte durch die sich aus Schritt 1 ergebende Reihe : T-CSI Τ C

-SI

(2.26)

Im 3. Schritt wird ebenfalls ein Mittelwert gebildet. (Zu den damit verbundenen Problemen s.oben). D a d u r c h wird I eliminiert; es resultieren die — vorläufigen — Saisonindizes S. Gegebenenfalls ist d a n n im 4. Schritt noch eine Adjustierung (oder Rundung) erforderlich. Beispiel 2-17 Auf die Illustration der einzelnen Arbeitsschritte sei hier verzichtet. (Vgl. dazu die früheren Beispiele und auch das durchgerechnete Exempel bei H Ü T T N E R 1979, S.192ff.) Abb.2-4 zeigt sogleich das Ergebnis für die Reihe IIIC-M. Wie daraus hervorgeht, brachte die Option „ExtremWertbereinigung", mit der gleichen Sicherheitswahrscheinlichkeit von 95%, wiederum keine Veränderung. Extremwertbereinigte Verhältniszahlen (Bereinigungen — 0): Jan Feb 0.0 0.0 124.19 100.57 133.92 94.02 136.41 100.31 123.14 95.35 130.63 95.17 136.02 96.79

Nov 90.07 86.38 87.25 88.27 91.91 81.50 0.0

Dez 65.92 69.39 69.50 74.94 76.95 76.33 0.0

Mar Apr Mai Jun Jul Aug Sep Okt Nov 101.31 95.37 102.68 97.08 100.83 101.67 111.68 101.16 87.73

Dez 72.31

Apr Mar 0.0 0.0 106.95 90.03 108.24 96.66 92.75 101.96 101.24 102.10 104.54 94.61 93.01 85.79

Jun Mai 0.0 0.0 94.95 106.56 98.80 95.78 102.86 95.23 106.59 90.22 104.24 96.25 107.51 97.37

Jul 100.32 103.09 93.62 97.79 101.69 107.33 0.0

Aug 100.94 98.17 102.20 102.48 103.67 101.45 0.0

Sep 109.47 117.81 113.36 115.11 100.97 112.09 0.0

Okt 102.56 102.34 101.10 103.78 99.29 96.74 0.0

Saisonindizes: Jan Feb 130.96 97.22

Saisonindizes wurden mit dem Faktor 1.002 justiert

Abb. 2-4: Verhältniszahlen der einzelnen Monate und Saisonindizes nach dem auf dem Prinzip der gleitenden Durchschnitte beruhenden Verfahren für Reihe IIIC-M (Programm-Output SSAISON)

2.3 Die zyklische und die Rest-Komponente Im G r u n d e wurde auf die Behandlung der zyklischen u n d der irregulären K o m p o n e n t e im Vorstehenden bereits eingegangen. Dabei stand im Vordergrund allerdings die Herausarbeitung der Saisonalität. Letztlich ist es

38

Rein univariate Verfahren

jedoch nur eine andere Blickrichtung, die (zusammengefaßte) T C - K o m p o nente besonders hervortreten zu lassen. Darauf wird unten n o c h kurz eingegangen. Hier stellt sich zunächst die Frage, ob die Isolation der C - K o m ponente möglich ist. M a n kann dies auf zwei Wegen anzugehen suchen : Erstens kann m a n versuchen, sukzessive die noch verbliebenen K o m p o nenten auszuschalten. Die Trendbereinigung geschieht mittels Division durch die vorher berechneten „Trendwerte". (Bei saisonbehafteten Werten hat dabei „Saisonbereinigung", gemäß oben, vorauszugehen.) Das Ergebnis der Trendbereinigung enthält allerdings noch die irreguläre K o m p o nente. Sie kann durch die Bildung gleitender Durchschnitte zu eliminieren versucht werden. Beispiel 2-18 Tab. 2-9 enthält für die Reihe IIIC-J die Beobachtungswerte und die Schätzwerte für den linearen Trend gemäß Tab. 2-4 sowie die trendbereinigten und geglätteten Werte. t 1 2 3 4 5 6 7 8 9 10

y

y

2-100

101,8 102,4 102,3 107,3 107,4 111,1 112,5 112,3 116,3 115,1

101,02 102,76 104,50 106,24 107,98 109,72 111,46 113,20 114,94 116,68

100,75 99,63 97,89 100,99 99,46 101,26 100,94 99,21 101,20 98,66

gl. 3er-Durchschnitt

y

99,42 99,50 99,45 100,57 100,55 100,47 100,45 99,69

Tab. 2-9: Trendbereinigung und Glättung durch gleitende 3er-Durchschnitte für Reihe III C-M Die Abweichungen von 100 sind ganz geringfügig; sie machen nur rd. einen halben Prozentpunkt aus. Ein Zyklus ist also — in Übereinstimmung mit dem früher dargelegten Konstruktionsprinzip der Reihe — offensichtlich nicht vorhanden. (S. aber A2-9!) Zweitens kann m a n Zyklusindizes zu berechnen versuchen. W ä h r e n d das vorerwähnte Vorgehen, insbesondere in der graphischen Darstellung, die zyklische Bewegung lediglich verdeutlicht, würden diese analog den Saisonindizes die relative Stärke der einzelnen Perioden innerhalb eines Zy-

Prognosen auf der Basis der „klassischen" Zeitreihenzerlegung

39

klus zum Ausdruck bringen. Dazu wäre es allerdings erforderlich, analog oben, die Zykluslänge zu kennen. Das ist jedoch nicht der Fall. Vielmehr werden in der ökonomischen Theorie — neben der Meinung, daß es überhaupt keine Zyklen gäbe bzw. diese erst etwa durch staatliche Aktivität verursacht würden — durchaus „Wellen" verschiedener Länge diskutiert: 1. kürzere Wellen von etwa 4-5 Jahren Dauer („Kitchin"-Wellen, „Lagerzyklen", „Wachstumszyklen"), 2. die 10-11jährigen „Juglar-Zyklen", 3. die sog. „langen Wellen der Konjunktur" („Kondratieff-Zyklen", „Innovationszyklen") Gerade letztere sind, nachdem sie längere Zeit kaum mehr erörtert wurden (s. auch die herbe Kritik von ANDERSON 1965, S. 176) neuerdings wieder stark in der D i s k u s s i o n ; vgl. d a z u e t w a EKLUND 1980, VAN DUIJN 1983 u n d FREEMAN (ed.) 1983.

Ein Mittel zur Feststellung, ob überhaupt „Wellen" irgendwelcher (auch „unterjähriger") Art vorhanden sind und welche „Frequenz" diese haben, ist die Spektralanalyse; s. dazu Kap. 5.

Kann man nicht von einem festen, gleichbleibenden Zyklus ausgehen, wird die Prognose der konjunkturellen Komponente sehr schwierig. Auf die Identifikation von Wendepunkten und die Konjunkturprognose wird in Kap. 9 noch eingegangen. S. zu entsprechenden Fehlermaßen („Wendepunktfehler", „Prognose-Realisations-Diagramm" usw.) auch Kap. 11. Die „Bereinigung von Kalenderunregelmäßigkeiten"(ungleiche Länge der Monate etc.) bzw. „arbeitstägliche Bereinigung" (überhaupt unterschiedliche Anzahl von Arbeitstagen in den einzelnen Monaten) — in gewissem Sinne eine zusätzliche Komponente! — wird in Kap. 13 noch kurz erörtert. Sie hat ihren Platz auch im Census-Verfahren, das im nun folgenden Abschnitt besprochen werden soll.

2.4 Das Census-Verfahren (und andere Dekompositionsverfahren) Das amerikanische „Bureau of the Census" hat ein Verfahren entwickelt, das in seiner wohl bekanntesten Version, der X 11-Variante der CensusMethode II ( S H I S K I N / Y O U N G / M U S G R A V E 1 9 6 7 ) mit dem unter 2 . 2 . 3 geschilderten gemeinsam hat, daß es ebenfalls auf das Prinzip der gleitenden Durchschnitte zurückgreift. Es bestehen jedoch auch einige beachtliche Unterschiede. Auf einen davon, dem Ausgehen von der Idee der variablen Saisonfigur, wird unten noch zurückzukommen sein. Ein anderer liegt dar-

40

Rein univariate Verfahren

in, daß es sich um eine Art iteratives Vorgehen handelt — allerdings ohne definiertes Gütekriterium, sondern mehr im Sinne vielfach wiederholter Rechengänge, mit immer neuen Glättungen etc. Das macht auch eine Darstellung schwierig. Im folgenden ist sie dennoch versucht worden, allerdings unter Verzicht auf einige Bestandteile, insbesondere die „Optionen". Die oben genannte — allerdings schwer zugängliche — Schrift nennt eine Vielzahl solcher Bestandteile, in Gestalt von Tabellen bzw. „Charts", im „full printout": A 1-4, Β 1-19, C1-19, D l - 1 3 , E l - 6 , F l - 2 und G 1 - 4 . Abschnitt A enthält die Option für „prior adjustments" ; neben solchen für Ferienzeiten ist dies speziell die „arbeitstägliche Bereinigung" (mittels eines regressionsanalytischen Ansatzes). Auf sie wird in der folgenden Zusammenstellung verzichtet, also auf den gesamten Abschnitt A und die betreffenden Teile in anderen Abschnitten (B14-16, 18 und 19, desgleichen bei C). Auch die Prozedur der „ Extrem wertbereinigung" in den Beobachtungswerten, den saisonbereinigten Daten und der irregulären Komponente in Abschnitt E ist hier nicht dargestellt; darauf wird — im Gesamtkontext des Problems der „Extremwerte" — in Kap. 13 eingegangen. (Die Behandlung von „Ausreißern" in den Verhältniszahlen für die einzelnen Monate ist jedoch hier enthalten.) Ferner muß auf die Erörterung der — sehr interessanten — zusammenfassenden Kennwerte bzw. „Tests" in F und der „Charts" in G verzichtet werden. Die Darstellung konzentriert sich also auf die Abschnitte Β bis D. Dabei ist auch zu beachten, daß sich bisweilen die Angabe „not used" findet: Β12, C 3, 8 und 12 sowie D 3. Aus Vereinfachungsgründen bezieht sich der Text nur auf die multiplikative Verknüpfung bei Monatswerten; wegen der additiven Verknüpfung und des — etwas variierten — Programms für Quartalswerte s. die Original-Veröffentlichung.

P r o g n o s e n

υ χ

00

Χ C

S 3 •w X O ce X S C D

d e r

B a s i s

d e r

„ k l a s s i s c h e n "

Z e i t r e i h e n z e r l e g u n g

4 1

ω

C ω

•e

CO

a u f

«

ω

s

t

g c

ω

:ce I ε a •Β χ ω

• ε £ Ü H

υ Χ >

ι -

Ν

( 2

C O

C D

„ c/2

8 J 2

α U Η ο

η 03

C D ω

Γ Ο 0 3 C Ο

> 03 3 cd

C —D

C Χ

5 Ο

υ

c Ü

ε

" δ Χ s b "

X

υ SO

Ή ό

Ν ce

Ο

• o

s o c 3 S • S o

ι*. 3

ε

υ C υ

υ ι3 Τ 3 ω Ό C ω

" ω Ν C

j 2 ¿ ? Ό

Χ

Τ 3

;Α 3

^ ce Ν

:ce χ ι* £ ι

C ο ω ο Ό 0¿ £ S

^

«ι

C» , « u A ω C χ ω ¡ce •o C

« X S s :ce 'δ g H 3 "ëb ω Ό ω f> I 09 Si 'ω V «-ι C > •S Ή O 'ω 3 C 60 O c 3 1> 'Ελ 2 t S 3

>e

C υ M

.«3 Ν eo cS 22 Λ ώ ^ ti ω υ ti

< υ t—i -ε ω c *

£ ε

ο 03

03

c Χ! υ (Λ Χ! Ο

X υ u 3 Ω b* ω

ω ι--

ε υ

C ω §> S υ 60 Ό C 3

60 'S U

t:

Τ—I 03

fi CQ

M

C υ 60 O

2 m

o > 60

C C 3 "δ χ b* ω ω ö Ό •Ό · = ω ^ υ ί> (Λ

ε ε

υ υ υ

W> vo r- ON υ υ υ υ

3

a •Ό C 3 σ\ CQ

CQ Χ ο U 3 Ό CQ C Ο > C ο

oa χ ο (3 Ό 03 C Ο > c ο > s

CQ Cl·-, 3 ce u Ό C 3 Ό f> C O > 60

C 3 •O C ω £

C o

ce C/3 u oo

t/3

εo :3 ¡3 Vj =3 ¡3 X> c 00 00 u o u T3 Ό 3 Όc00 -a00c t «! .22 c C 2sJ 'írt ύ ω ω u a> ^ S Η

t û

«ι Q

νο Q

ι^ Q

οο Q

οι Q

O

-r-

o

3 es

00 c

3 4Cu3

c o

00 c 3

00 c

>

_3 U 3 4o=

U

3 43 "Β t-H υ Τ3

ω Ό υ ^

ffl

U

Ο (Ν

τr-4

CN fN

ω O UH

ι>

•Ό 00

3 Ό c

C υ £

I Ό C

* 3 O

Tt-

43 Ο υ υ

3 >. Ν

ce

CQ

m

3 cΛ

VO Q U 3h

o io vS i n Os OS Os OS OS Os Os n o ^ ρ ρ oo Tt τ-î Ö Ö Ö 00 m m m1 m m m τ—ι ^ τ— cd O Π ro rOs Os OS -1 T· τ

τι- in so r - X> ros OS OS Os τ-" τ—' τ -1 f2

M oo o 'S

cd «5 O υ

£

Ό cd α> cd ω ω Β Ο o cd C Ο tΛ cd ω Vi < Ο

O o

Λ m

VO C O cd rn

U à

3 O C O ¡« υ •o C υ X

£0\0v0s0s0s0s0\

•Ο C 3 C ω

/"f r-'

C/5

"V ' ν 'Λ, Ή ^ ^ "T, Tt" vo 00 c f cT 1·" v f r-' oC τ-«" cT

£Λ I V)

¡Λ I

0\0\00ao00\»000\00

Μ α ΐ Ο Ο Ο Ν Ό Ο Ο Κ ί α T-H ® OO o^ ON. o_ o„ 00 σΓ oC 00* 00" 00" oC oC 00 oc 00 ΓΟΌΓΛτ-ΗίΝτΤν-ΐΟΝΟΟΟΓ^Ι vo vo ?n (N^ o_ o\ r-^ vo r- m r-" σΓ τ« f^T ^ ^c 00* o ' 00000000000\0\0\0s0\0

c/5 I

¥

ρ (nahe) Null sein müssen. Ist dies der Fall, liegt also offensichtlich ein solcher — reiner — AR-Prozeß vor, anderenfalls ein — gemischter — ARMA-Prozeß. Die hier skizzierten „Identifikationsregeln" kann man mit G r a n g e r (1980, S. 64) etwa wie folgt grob zusammenfassen : 1. Falls das Korrelogramm nach einem bestimmten Punkt, etwa k = q, „abbricht", ist das geeignete Modell MA(q). 2. Falls das partielle Korrelogramm nach einem bestimmten Punkt, etwa k = p, „abbricht", ist das geeignete Modell AR(p). 3. Falls keines der beiden Diagramme nach einem bestimmten Punkt abbricht, sondern jeweils einen bestimmten „abnehmenden Verlauf" zeigt, ist das geeignete Modell ARMA(p',q'), für irgendein p' und q'. Das letztere zeigt schon, daß insbesondere ARMA-Prozesse nicht leicht zu identifizieren sind. Auch scheinen die Verläufe nicht immer eindeutig.

Der „Box-Jenkins- Approach"

139

Man kann ferner im Zweifel darüber sein, ob Differenzen gebildet oder etwa dafür lieber entsprechende Parameter angesetzt werden sollten. Das wird an den späteren Beispielen noch deutlich werden. Hier aber ist schon festzuhalten, daß die Identifikation zweifellos die aufwendigste Phase bildet. Sie erfordert sowohl gute theoretische Kenntnisse als auch Erfahrungen mit der Methode. Deshalb ist sie besonders personalkostenintensiv. Speziell für kleinere und mittlere Unternehmen und/oder Fälle, in denen viele Reihen zu prognostizieren sind, wird das zum Problem. Es verwundert deshalb nicht, daß verschiedene Vorschläge und Programme zur „Automatisierung" vorliegen. Sie beruhen teils auf den von AKAIKE entwickelten Kriterien: FPE = Final Prediction Error (1970) und AIC = Akaike's Information Criterion bzw. MAICE = Minimum AIC Estimation (1972 und 1973; s.auch 1979), teils auf anderen Vorgehensweisen. (Vgl. etwa SIFT — HILL/FILDES 1984 sowie HILL/WOODWORTH 1980 - und CAPRI - LIBERT 1984). Die Erfahrungen damit

scheinen noch widersprüchlich. Diese Skepsis gilt wohl ebenfalls im Hinblick auf ein von Granger und Newbold vorgeschlagenes Vorgehen, die „stepwise autoregression". (S. NEWBOLD/GRANGER 1974 — vgl. auch die kritischen Hinweise von Jenkins in der Diskussion — und GRANGER/NEWBOLD 1977 sowie GRANGER 1980.) In Analogie zur schrittweisen

Regression — s. Kap. 4 — werden dabei zunächst alle Modelle mit einem autoregressiven Term — gleich welcher Ordnung — geschätzt (davon selektiert man das beste), dann alle mit zwei autoregressiven Termen usw. Mittels eines zu definierenden Stopp-Kriteriums kann somit ebenfalls „automatisch" das beste Modell ermittelt werden. Zu bedenken ist allerdings, daß dabei unmittelbar nur autoregressive Modelle erfaßt werden. Zwar kann man, wie erwähnt, theoretisch die — „endlichen" — MA-Parameter in — unendliche — AR-Parameter überführen, möglicherweise damit aber recht hoher Ordnung und somit — neben eventuell sehr großen Rechenzeiten — auch entgegen dem Prinzip der sparsamen Parametrisierung („parsimony"). Andererseits berichten KENNY/DURBIN (1982) von guten praktischen Erfahrungen. Von Tiao (und anderen) wird das Vorgehen ebenfalls verwandt, speziell, in mehr nur vorläufiger Weise, mit der Prozedur STEPAR innerhalb des Programms WMTS (Wisconsin Multiple Time Series — s. dazu unten, 6.3). Mit von ihm — s. TIAO/TSAY 1983 - stammt auch die Idee der „extended autocorrelation function" (EACF). Sie soll insbesondere zur Lösung der Schwierigkeiten bei der Identifikation von — gemischten — ARMA-Prozessen dienen (und könnte insofern einen — erfolgversprechenden — neuen Ansatz zur „Automatisierung" bieten). Dagegen mag die Nützlichkeit der schon früher vorgeschlagenen (CLEVELAND 1972; s. insbesondere auch CHATFIELD 1979) „inversen" Autokorrelationsfunktion — IACF — zunächst noch offen bleiben. Ein weiteres Problem bildet die Stabilität der Parameter und der Prozesse „über die Zeit". Wie erwähnt, ist in theoretisch strengem Sinne eine Konstanz zu fordern. Praktisch wird dies zumindest für ökonomische Reihen

140

Uni- und multivariate Verfahren

a b e r k a u m zutreffen. D a b e i w ü r d e die Veränderung der Parameter im Zeitablauf weniger problematisch sein ; sie k a n n d u r c h eine N e u - S c h ä t z u n g erf a ß t werden. Kritischer ist schon d e r Fall, d a ß sich der zugrundeliegende Prozeß ändert — einmal wegen des erwähnten, mit der Neu-Identifikation v e r b u n d e n e n A u f w a n d s , z u m a n d e r e n aber a u c h der Regelung der Frage, wann sie (oder a u c h n u r eine Neu-Schätzung) angezeigt erscheint. Allerdings deutet eine Studie von MCKEOWN/LOREK (1978) daraufhin, daß dieses Problem praktisch nicht so relevant ist, wie man theoretisch befürchten könnte. Die Verfasser untersuchten eine Stichprobe von 30 Firmen, deren vierteljährliche „earnings" dem Wall Street Journal für den Zeitraum von 1959 bis 1974 entnommen werden konnten. Die Zahlen für die letzten 3 Jahre wurden „zurückbehalten" und dafür — für die Perioden 5 3 - 6 4 — Prognosen erstellt. Fortlaufend wurde dann ein weiteres Quartal in den Modellbildungsprozeß einbezogen, so daß der Prognosehorizont sich laufend verkürzte und damit auch Vergleiche über die verschiedenen Distanzen möglich waren. Verglichen wurden einerseits die Veränderungen bei Neu-Schätzung gegenüber dem — üblichen — Aktualisieren mit dem Eintreffen des neuen Beobachtungswertes und andererseits die Neu-Identifikation gegenüber der Neu-Schätzung. Vergleichsmaßstab war der M APE (s. Kap. 2 und insbesondere 11). Für jeden der Vergleiche geben die Verfasser 2 Tabellen. Eine davon bezieht sich auf die verschiedenen Prognosedistanzen: Es werden die Fehler-Ergebnisse für „Einschritt-Prognosen" (also für Periode 53, für 54 usw.) zusammengefaßt und dann gemittelt; desgleichen für Prognosen zwei Perioden im voraus usw. Dabei ergab sich im Mittel bei der Neu-Schätzung für die Einschritt-Prognosen eine Fehlerverbesserung von 0,033, bis maximal 0,057 (6 Perioden — danach sinkt die Fehlerverbesserung wieder ab). Durch Neu-Identifikation wird zwar eine weitere Verbesserung erreicht, aber in sehr geringem Umfang: 0,022 für Einschritt-Prognosen (und meist noch viel weniger für andere Prognosedistanzen). Die zweite Tabelle weist die Fehler-Verbesserung für den Durchschnitt der 11 Prognosewerte ab Periode 53, sodann 10 ab 54 usw. aus. Im Gesamtdurchschnitt ergab sich dabei 0,102 für die Neu-Schätzung und 0,044 für die Neu-Identifikation. Beide Werte sind recht gering; wenn überhaupt, kommt in diesem Falle wohl allenfalls der — gelegentlichen — Neuschätzung eine größere praktische Bedeutung zu. Diese Schätzung der Parameter k a n n nicht einfach mittels der gewöhnlic h e n KJeinstquadratemethode erfolgen, d a es sich im allgemeinen Falle u m nicht-lineare Beziehungen handelt. B O X / J E N K I N S ( 1 9 7 6 ) v e r w e n d e n deshalb den Marquardt-Algorithmus (MARQUARDT 1 9 6 3 ) . Er sucht auf iterativem Wege die optimale Lösung zu erreichen. Kriterium ist dabei der „Mean Square Error". (Vgl. dazu Kap. 7 und auch 11.) Auf die — recht viel Raum erfordernde — Darstellung des Algorithmus wird hier verzichtet; s. aber dazu, mit Beispiel, HANSMANN 1983, S.83ff. In den einzelnen Programmen kann die Ausgestaltung durchaus unterschiedlich sein. Neuerdings wird stärker auf die „füll"- oder „exact maximum likelihood"-Me-

Der „Box-Jenkins-Approach"

141

thode abgestellt. Sie ist allerdings recht zeitaufwendig; s.auch zur Anwendung im Programmpaket WMTS. BOX/JENKINS (1976) haben ursprünglich eine „conditional method" vorgeschlagen. Quasi als weitere — dritte — Methode tritt dazu das „back(fore)casting": Verlängerung der Reihe nach hinten (und damit speziell auch „Wiedergewinnung" der durch Differenzenbildung „verlorengegangenen" Werte). Ob dadurch letztlich die Prognosen tatsächlich „besser" werden, scheint offen. Insbesondere bei Programmen, die Optionen hierfür (so im BMDP und auch bei den — gemäß unten — vom Verf. benutzten Programmen TSERIES und BJA) oder andere Möglichkeiten zur Verfügung stellen, sind eventuell Alternativ-Rechnungen erforderlich. Selbst aber bei gleicher Wahl des Schätz-Prinzips können doch wegen der vielen möglichen Varianten im — auch rein programmtechnischen — Detail die mit verschiedenen Programmen gewonnenen Schätzwerte im Einzelfall nicht unbeachtlich differieren. Gelegentliche Vergleiche d. Verf. haben ergeben, daß dies — einerseits — nicht allzu häufig der Fall war und zudem die Auswirkung auf die Prognosen eher gering erschien. Es bleibt aber zu bedenken, daß insofern auch bezüglich des - am stärksten „formalisierten" - Stadiums der Parameterschätzung nicht von „der" Box-Jenkins-Prognose schlechthin gesprochen werden kann. Wegen des iterativen Vorgehens sind Stopp-Regeln zu installieren, ζ. B. ein Mindestwert für die noch zu erlangende Verbesserung oder eine Höchstzahl von Iterationen. Grundsätzlich besteht allerdings auch hier die Gefahr, d a ß anstelle eines globalen O p t i m u m s n u r ein lokales erreicht wird. BOX/JENKINS (1976) schlagen deshalb zur Ü b e r p r ü f u n g die A n w e n d u n g des bereits erwähnten Grid- Verfahrens (s. Kap. 3) vor. Durch unterschiedliche Feinheit der Struktur dieses „Gitters" kann der Bereich der ParameterKombinationen verschieden groß gestaltet werden. G a n z abgesehen davon, d a ß die gemeinsame graphische Darstellung auf wenige Parameter beschränkt ist, erhöht sich natürlich die Rechenzeit nicht unbeträchtlich. Diese wiederum kann durch das Ausgehen von geeigneten Startwerten vermindert werden. Obwohl der Algorithmus offenbar relativ „robust" (und insofern der Startwert vergleichsweise beliebig) ist, erscheint ihre Verwendung doch zweckmäßig. Für einen — reinen — AR-Prozeßergeben sie sich als Lösung der Yule-Walker-Gleichung (6.18). Für MA- u n d ARMA-Prozesse ist ihre G e w i n n u n g allerdings, wegen der Nicht-Linearität, schwieriger. Eine A u s n a h m e bildet der einfache M A ( l ) - P r o z e ß : (6.23) 2r, Die Lösung dieser Gleichung ergibt zwei Werte. Davon liegt allerdings nur einer innerhalb des zulässigen Bereichs, der aus der Invertibilitäts-Bedingung („invertibility condition") folgt. Diese stellt eine „Nicht-Explosivität" des Prozesses u n d damit die Brauchbarkeit f ü r Prognosen sicher. Dazu sei

142

Uni- und multivariate Verfahren

hier nur erwähnt, daß für einen MA(l)-Prozeß der zulässige Bereich für den Parameter θ zwischen 1 und — 1 liegt. Der zulässige Bereich für autoregressive Parameter folgt aus der Stationaritäts-Bedingung, gemäß oben. Daraus resultiert ζ. B. für einen AR(l)-Prozeß, daß der Parameter kleiner als III sein muß. (S. auch Beispiel 6-6.)

Beispiel 6-5 Für die oben angeführten Prozesse (mit dort jeweils 5 wiedergegebenen Werten) sind insgesamt je 138 Terme generiert worden. Für die letzten 40 davon — die insoweit als neue Reihe angesehen werden können — wurden die gewöhnlichen und partiellen Autokorrelationskoeffizienten für die ersten 10 Lags berechnet. Für k = 1 ergab sich beim AR-Modell r = 0,561 und beim MA-Modell r=0,377. Gemäß oben ist beim AR-Modell die genannte Zahl zugleich der Startwert, während dieser beim MA-Modell aus (6.23) wie folgt resultiert: 0

-1±

y/1-4-0,3772 2-0,377

_ - 1 ±0,657 0,754 = - 0 , 4 5 3 und - 2 , 1 9 8 (mit ersterem als allein zulässiger Lösung).

Zur Überprüfung des versuchsweise identifizierten und geschätzten Modells, dem „diagnostic checking", stehen verschiedene Möglichkeiten zur Verfügung. Sie lassen sich in zwei großen Gruppen zusammenfassen: 1. Residual-Analyse,!, weitere Kennzahlen. Die Analyse der Residuen kann sich zunächst auf diese selbst, d. h. ihre Größe und Verteilung usw., beziehen. Im ganzen sollten die Residuen eher klein sein und sich tendenziell ausgleichen. Der Mittelwert sollte also möglichst niedrig sein; dies gilt auch für die Standardabweichung; negative und positive Residuen müßten etwa gleich häufig vorkommen usw. Ist der Mittelwert relativ — insbesondere im Verhältnis zur Standardabweichung — groß, so kann das ein Hinweis auf die Notwendigkeit für den Ansatz einer Konstanten sein.

Darüber hinaus ist die Autokorrelation der Residuen zu betrachten. Wie dargelegt, ist das Ziel der Anwendung des Modells, „white noise" zu erhalten; die Residuen dürfen also keine Autokorrelation aufweisen. Da es sich um Stichprobenwerte handelt, ist die Überprüfung auf Signifikanz erforderlich, mit — approximativ — \ / \ f ä gemäß (5.4) als Standardfehler.

Der „Box-Jenkins-Approach"

143

Die Prüfung der Autokorrelation erfolgt also — s.auch die Beispiele unten — in allen Phasen der Box-Jenkins-Analyse, angefangen bei der Frage, ob Differenzen zu bilden sind oder nicht, über die Identifikation der zu schätzenden Parameter bis eben zur Modell-Überprüfung.

Wegen der Irrtumswahrscheinlichkeit können aber durchaus einzelne Koeffizienten quasi aus dem Vertrauensintervall „herausfallen". Zweckmäßig ist deshalb auch eine zusammenfassende Betrachtung. Als „portmanteau lack offit TÓSI "schlugen B O X / J E N K I N S ( 1 9 7 6 ) vor: Q = m Σ r i (e)

(6.24)

k=l

(mit ε für die Residuen und, wie üblich, m die Anzahl der Daten). Nach B O X / P I E R C E ( 1 9 7 0 ) folgt, bei hinreichend großem K , Q approximativ einer χ2- Verteilung mit Κ - ρ - q Freiheitsgraden. Ist Q also größer als der sich — bei vorgegebenen Signifikanzniveau — aus der Tafel der χ2-Verteilung (s. Tab.T-1, unter „Statistische Tafeln", im Anhang) ergebende Wert, so muß die Hypothese der „Nicht-Signifikanz" (der Residual-Autokorrelation) verworfen werden ; das Modell ist nicht adäquat. An dieser „Box-Pierce-Statistik" ist verschiedentlich Kritik geübt worden. L J U N G und Box haben deshalb eine modifizierte „portmanteau statistic" vorgeschlagen (1978 — S. 298: „the modified test provides a substantially improved approximation that should be adequate for most practical purposes"): Q = m (m + 2) |

rg(e)/(m-k)

(6.25)

k=l

(wiederum mit Κ—ρ —q Freiheitsgraden, als Approximation an die χ2-Verteilung). Allerdings ist dieser Test insgesamt — nicht so sehr in der modifizierten Form — etwas „schwach". Man sollte deshalb zur Überprüfung der Adäquanz des Modells weitere Kennzahlen heranziehen. Dazu gehört die Größe der Parameter selbst, ob sie also jeweils im „zulässigen Bereich" (s. oben) liegen oder nicht. Weiter sollte die Korrelation zwischen ihnen und ihre Signifikanz geprüft werden. Das führt hin zum Vorschlag des sog. overfitting ( B O X / J E N K I N S 1976, S.286f.): Wahl eines höher parametrisierten Modells als eigentlich erforderlich — ζ. Β. MA(2) statt MA(1). Das Modell müßte sich dann in wesentlichen Kennwerten verschlechtern, insbesondere Nicht-Signifikanz des zusätzlichen Parameters aufweisen.

144

Uni- und multivariate Verfahren

H i n s i c h t l i c h d e r — realisierten — „Prognosegüte" als A u s w a h l k r i t e r i u m s. K a p . 11 u n d a u c h in d e n f o l g e n d e n Anwendungsbeispielen. D i e s e sollen d e n A p p r o a c h im ganzen v e r a n s c h a u l i c h e n . Als A u s n a h m e d a v o n b e s c h r ä n k t sich d a s erste a u f einige Aspekte. Es d i e n t im G r u n d e ausschließlich didaktischen Z i e l e n ; f ü r eine vollständige „ B o x - J e n k i n s - A n a l y s e " ist die Beispiel-Reihe zu kurz. Beispiel 6-6 Benutzt wurde Reihe IIIC-J. Wie ausgeführt, sollte auf eine vollständige Analyse verzichtet werden. Stattdessen war nur der autoregressive Term 1. Ordnung zu schätzen. Damit ergeben sich Vergleichsmöglichkeiten zur „lagged regression", gemäß Beispiel 4-15. Ebenso wie dort war deshalb zusätzlich eine Konstante anzusetzen. Die Schätzung ergab (mittels des Programms BJA — A.Karau): Φι - 0,885, c =13,926. Die Koeffizienten stimmen damit vollständig — bis in die dritte Dezimalstelle — mit denen des Beispiels 4-15 überein. Ein sehr wesentlicher Unterschied zur Regression liegt jedoch darin, daß sich hier unmittelbar, entsprechend dem Charakter als univariates Verfahren, Prognosen ermitteln lassen. Diese lauten: x„ = 115,8 x 12 = 116,4 x 13 = 116,9 x 1 4 =117,4 Xi5 = 117,8. Die Autokorrelationskoeffizienten der Residuen beifn „Modell" mit Konstante lauten (wegen der geringen Anzahl der Werte hier beschränkt auf einige wenige) : r, = - 0 , 5 1 8 r 2 = 0,132 r 3 = 0,168 r 4 = 0,001. Der erste Koeffizient ist also noch sehr hoch. S. zur Überprüfung der Modell-Adäquanz in den folgenden Beispielen; speziell zum „portmanteau test" vgl. auch A 6-4. Beispiel 6-7 Für Reihe IIIC-M wurde die Autokorrelationsfunktion für die Beobachtungswerte bereits in Abb. 5-4 in Beispiel 5-9 dargestellt. Dort war auch schon daraufhingewiesen worden, daß daraus klar die Notwendigkeit der Bildung saisonaler Differenzen hervorging. Aus A 5-5 wurde jedoch deutlich, daß dies noch nicht genügt. Zum Erkennen der zweckmäßigen Parametrisierung müssen die gewöhnlichen und partiel-

Der „Box-Jenkins-Approach"

145

Korrelations-Analyse der Zeitreihe .KRCOOOWORK' Autokorrelations-Folge

Partielle Autokorrelations-Folge 1.0

1.0

2/SQRT (N) = 0.24

0.9 I

2/SQRT (N) = 0.24

0.8

0.7 0.6

0.5 0.4 0.3 I I 0123456789012345678901234 I I I I I I I I I

Ljung-Box-Wert = 38.926

0.2 0.1

II II I I 0123456789012345678901234 -0.1 I III I I -0.2 I I -0.3 -0.4 -0.5 - 0 . 0

-0.6

-0.7 -0.8

-0.9 -1.0

Korrelations-Analyse der Zeitreihe ,KRCOOOWORK' Autokorrelations-Folge -9-0 1-10 0.06 - 0 . 1 1 0.13 0.08 0.01 - 0 . 1 6 - 0 . 1 3 11-20 - 0 . 1 3 - 0 . 3 7 0.11 - 0 . 0 1 0.01 0.05 0.03 21-30 0.11 0.13 0.12 - 0 . 0 1

-0.01 0.21

1.00 -0.23 - 0 . 0 7 0.19 - 0 . 0 5

2/SQRT (N) = 0.24 Partielle Autokorrelations-Folge -9-0 1.00 1-10 0.06 - 0 . 1 1 0.15 0.05 0.03 - 0 . 1 7 - 0 . 1 2 - 0 . 0 5 - 0 . 2 3 - 0 . 0 0 11-20 - 0.17 - 0.38 0.10 - 0.14 0.08 - 0.03 - 0.04 0.03 0.12 - 0.11 21-30 - 0 . 0 2 0.09 0.03 - 0 . 0 6 Abb. 6-3: Gewöhnliche und partielle Autokorrelationskoeffizienten nach Bildung saisonaler Differenzen (Reihe IIIC-M) len Autokorrelationen betrachtet werden. Abb. 6-3 zeigt die beiden Korrelationsfunktionen. (Benutzt wurde hier, wie auch in den folgenden Beispielen — mit Ausnahme von 6-9 —, das Programm BJA.) Hieraus kann das geeignete Modell quasi sofort „abgelesen" werden: Signifikant ist jeweils nur der Koeffizient beim Lag 12. (Im — hier benutzten — Pro-

146

Uni- und multivariate Verfahren

gramm BJA indiziert in der graphischen Darstellung ein Strich ζ. B. auf der Höhe 0,4 einen numerischen Wert von zwischen >0,35 und y Somit kann aus Höhe und Verlauf der Parameter vk auf die Anzahl der erforderlichen Parameter so c 3 tn [Λ

£ ω

es

c} • >

vi

•c • te ~ Ό t> S Ν Σ

2

o uà

s'

?

(4 cd cd ·—1 · ·—) ·—)

χ

ε



χ

ε

λ

? 2

Λ cd ··—) ·—>

co ·«—»

Λ ·«—>

.e χ:

ε

ε

£

ε

ε

ε

ε

ε

ι g O 4> ^ D. C

Λ ·—>

. c . e . e c

λ

ε

u ce UH

Û.2 . χι 3 ρ •y-i c

χ:

χι

ε

2

6

c

c

ex:

ε

E

ε

e

ε

ε ε

c

ε

ε

s"

c



£

? f

χ:

ji

ε"

χι

ε

-f ε jç

χι

χι

χ: χ:

ε

ε

ε

.c

χ:

χ:

Ê

ε

Ë

E

u 2 S

c

2

c

? (N

C

T- O

χ:

c o « s Λm

jç χι ou c 3 x: χ: Ό « o 2 ε

χι



/ l>

C

C U

XI -g

χ:

C

ce C Β

¡k > O

co ri

Έ 3

C

υ >< O

α

FI



ε

a , •c »ce > 0 c ω χ: Έ Οfc u (Λ .3, χ: - § u. α < 1 g> •Ρ χ Ε Jr o C/I CL ω ο- Ω v-i

ou c 3

J2

o i« s

00 s so c c3 ce ce *T3 σί

286

Beurteilung und Auswahl von Prognoseverfahren

Die vorgeschlagene Vorgehensweise enthält sehr starke subjektive Elemente. Das ist in diesem Falle auch gewollt, im Interesse der Anpassung an das konkrete Prognoseproblem. Alternativ dazu kann auch auf eine allgemeine Lösung abgestellt werden, die letztlich zu einer automatischen Verfahrensauswahl führt. Im Prinzip brauchen dazu nur die Kriterien der Tab. 12-1 (oder andere) mit einer festen Punktzahl versehen zu werden; ihre Aufsummierung — eventuell, entsprechend obigem Vorgehen, nach Multiplikation mit Kriteriengewichten — ergibt dann über die Gesamtpunktwerte das auszuwählende Verfahren. Diesen Weg möchte der Verf. zumindest derzeit nicht weiter verfolgen: Die Subjektivität ist hier — obzwar verborgen — eher noch größer, wegen des festen Schemas, das zudem individuell notwendigerweise verschiedene Sachverhalte, wie etwa auch die Kosten, nicht einzubringen erlaubt. Etwas erfolgversprechender scheint ihm eher eine andere Vorgehensweise (die möglicherweise mit der vorgenannten kombiniert werden könnte): die Prognosesimulation, d.h. Erstellung von ex postPrognosen mit verschiedenen Verfahren und Vergleich bzw. Auswahl desjenigen mit dem geringsten Fehler. Das Abstellen auf die jeweilige Reihe wäre dann von selbst gegeben. Die ProblematikliQgt allerdings in der Wahl des Fehlermaßes und der Prognosedistanz für die ex post-Prognosen. Für einen effizienten Einsatz müßten zudem wohl 2 weitere Voraussetzungen gegeben sein: Einerseits sollte wegen des Rechenaufwandes ein Programmpaket vorliegen, das die wichtigsten Verfahren bereits enthält und deren Start und Vergleich weitgehend selbst vornimmt. (Im Extrem würde der Befehl dann nur noch zu lauten haben: „Prognostiziere ReiheX für Y Perioden"!) Andererseits, das ist damit schon angedeutet, müßten die einzelnen Verfahren automatisch arbeiten — eine andere Fassung des Begriffs „Automatisierung"! Wie aus früheren Ausführungen hervorgeht, ist das nicht selbstverständlich; man denke etwa an „automatische Box-Jenkins-Verfahren" !

Exkurs: Die Kombination von Prognoseverfahren Wenn man einmal dazu übergeht, mehrere Verfahren — sei es zunächst auch nur zum Vergleich — in Betracht zu ziehen, so liegt es nahe, auch die Zusammenfassung von deren Ergebnissen zu erwägen. In der Tat ist eine solche Kombination von Vorhersagen schon vor geraumer Zeit vorgeschlagen worden ( B A T E S / G R A N G E R 1969). Neuerdings mehrt sich das Schrifttum hierzu. Man bemüht sich um den Nachweis, daß Kombinationen sowohl theoretisch — immer gemessen an RMSE — als auch empirisch überlegen sind und denkt an die Verlagerung des Problem-Schwerpunktes

Die Auswahl von Prognoseverfahren

287

von der Selektion von Prognoseverfahren zu ihrer Kombination sowie an eine „general theory of combining forecasting techniques" ( M A H M O U D 1984). Dabei geraten zunehmend auch qualitative Verfahren ins Blickfeld; im Einklang mit der These „N heads are better than one" wird dort der Nachweis erbracht, daß die Mittelung der Antworten mehrerer Personen zu einem besseren Resultat führt (s.Kap. 8, „Delphi", sowie ZARNOWITZ 1984). Begrifflich wird dabei, gemäß Obigem, von der Kombination der Ergebnisse (nicht etwa Elementen der Verfahren an sich) ausgegangen: Xk(1) = WIX,(1) + WIIXI,(1)+ . . . + w N x N(1) = Σ Wi xi(1)

(12.1a) (12.1b)

i=I

(mit Κ für „Kombination" und 1, wie üblich, der Prognosedistanz sowie w als Gewicht — mit 0 < w < 1 und 2¡w¡ = 1 —, ferner i für die einzelnen Verfahren). Damit sind auch die Probleme deutlich: 1. Bezüglich des Gewichtungsschemas sind zunächst denkbar: a) gleiche Gewichte : w[ = w n = . - . = w N . Beispiel 12-2 XK(I) = 0,5 XI(I) + 0,5 XII(I)

bei nur 2 Verfahren

b) ungleiche Gewichte : Wj φ W]¡ Φ . . . φ wn· Dabei kann man wiederum unterscheiden zwischen: (1) „subjektiven " Gewichten, (2) „objektiven"Gewichten. Hinsichtlich letzterer liegt es nahe, auf den mit dem jeweiligen Verfahren verbundenen Fehler zurückzugreifen. Das Problem besteht allerdings darin, ob er bereits bekannt ist; speziell bei „qualitativen" Verfahren kann das aus diesen selbst heraus gar nicht der Fall sein. Als Lösungsweg bietet sich wiederum an, ex post-Prognosen zu erstellen (allerdings dann ebenfalls mit der Problematik der Wahl des Fehlermaßes und der Prognosedistanz). Beispiel 12-3 B E D N A R Z I K (1982) verwendet zur Gewichtung den MAPE, der sich für den Zeitraum der ex post-Prognose (8 Perioden) ergeben hat, Die Gewichte werden berech-

288

Beurteilung und Auswahl von Prognoseverfahren

net, indem jeweils das Verhältnis der Summe der MAPEs für alle Verfahren zum einzelnen M APE bezogen wird auf die Summe dieser Verhältniszahlen, formal:

2MAPEj w¡ = —

M A PPEEJ



.

WZMAPEA

(12.2)

V MA A PPEEI 1

Damit ist sichergestellt, daß Verfahren mit niedrigerem MAPE ein höheres Gewicht erhalten; s. A12-1. Der MAPE der kombinierten Prognosen war um rund 9% niedriger als der durchschnittliche MAPE aus den Prognosen der einzelnen — insgesamt 11 — Verfahren bzw. Varianten davon. Er lag aber genau so hoch wie der bei einfacher Durchschnittsbildung sich ergebende; das kompliziertere Wägungsschema brachte also in diesem Falle keine Verbesserung. Das war übrigens auch so im erwähnten Verfahrensvergleich von MAKRIDAKIS et al. (1982), mit Kombination von 6 Verfahren. Demgegenüber berichten WINKLER/MAKRIDAKIS (1983) von einer ί/merlegenheit des einfachen arithmetischen Mittels.

2. Die Anzahl der möglichen Kombinationen (aus 2 Verfahren, 3 usw.) wird rasch sehr groß. Beispiel 12-4 Bei den in den empirischen Vergleich der Resultate für Reihe IIIC-M einbezogenen 6 Verfahren — gemäß Tab. 11-1 — ergeben sich bereits 57 mögliche Kombinationen! (S. dazu A12-2.)

Aus M A K R I D A K I S / W I N K L E R ( 1 9 8 3 ) folgt, daß der Genauigkeitsgewinn mit der Zahl der in die Kombination einbezogenen Verfahren zwar ansteigt, bei 4 oder 5 aber eine Art „Sättigung" erreicht wird. Damit verbleibt — bei der meist größeren Anzahl möglicher Verfahren — auch das Selektionsproblem! 3. Gemäß (12.1) handelt es sich um lineare Kombinationen; es erhebt sich die Frage, ob nicht-lineare besser sind. 4. Letztlich bleibt, jedenfalls für den Beweis der „empirischen" Überlegenheit (s. dazu aber die Meinung von G A R D N E R 1 9 8 3 , gemäß Kap. 1 1 ) , auch die Wahl des Fehlermaßes offen. Natürlich ist es bei Verwendung des RMSE (so auch bei ZARNOWITZ 1984!) eigentlich nicht schwer, die „Überlegenheit" des Durchschnitts, eben der Kombination, gegenüber dem durchschnittlichen Fehler der individuellen Prognosen zu zeigen : Durch die Quadrierung werden große Fehler besonders betont, jede Mittelung hat aber die Tendenz zur „Nivellie-

Die Auswahl von Prognoseverfahren

289

rung", zur Beseitigung extremer Werte, so daß der RMSE der kombinierten Prognose im Grunde zwangsläufig besser sein muß. Das gilt aber offensichtlich nur gegenüber dem Durchschnitt der einbezogenen Verfahren, nicht im Vergleich zu jedem individuellen Verfahren, und auch nicht notwendigerweise für andere Fehlermaße. Beispiel 12-5 Aus dem gemäß Beispiel 12-4 möglichen 57 Kombinationen für Reihe IIIC-M seien 3 ausgewählt: Ki : Zweier-Kombination aus „Naive II" und „BJ" K„ : dto. Naive II/GAF Km : Dreier-Kombination Naive II/AEP/BJ. Die Auswahl erfolgte bewußt (nach der empirisch, gemäß Tab. 11-1, dargetanen „Leistungsfähigkeit"): Bei K[ handelt es sich quasi um eine „schlecht-gut"-Kombination, gegenüber K n als „schlecht-schlecht"- und K m als „schlecht-mittel(gut)-gut"-Kombination. Tab. 12-3 auf S.290 enthält die Ergebnisse im einzelnen und 12-4 eine Zusammenfassung: Gegenüberstellung

K| vs. Einzelverfahren (EV)

K„ vs. EV

K,„ vs. EV

Fehler

MAPE

RMSE

K,

3,9

4,4

BJ Naive II

2,5 4,7

4,0 5,6

Mittel EV

3,6

4,8

K„

4,4

5,8

GAF Naive II

5,2 4,7

7,3 5,6

Mittel EV

5,0

6,45

Km

3,7

4,8

AEP Naive II BJ

4,4 4,7 2,5

6,7 5,6 4,0

Mittel EV

3,9

5,4

Tab. 12-4: Gegenüberstellung von Fehlermaßen bei verschiedenen Verfahren und Kombinationen für Reihe III C-M Es zeigt sich, daß von den drei Kombinationen beim MAPE die Kombination nur einmal besser war als das beste Einzelverfahren, beim RMSE überhaupt nicht (insgesamt als nur in 1 von 6 Fällen). Von einer generellen Überlegenheit der Kombination kann also in dieser Sicht nicht gesprochen werden. Andererseits ergab sich,

PE

Beurteilung und Auswahl von Prognoseverfahren

Ti- Os Vi Vi os.

1985, 1 2

3 4 5 6 7 8 9 10 11 12

198(5, 1 2

3 Nach „Anlaufen" des Systems kann also ein mittlerer Prognosefehler — etwa der M APE — für die jeweils prognostierten 12 Monate, also die Prognosen x(1>, x(2) usw., berechnet werden. Eine weitere Fragestellung wäre, den durchschnittlichen Fehler für die einzelnen Prognoserfwianze/I ermitteln zu wollen. Dafür eignet sich das von BOX/JENKINS (1976, S. 136) gegebene Schema besser:

Beispiel 14-2 Prognose^^distanz

1

2

3

4

5

6

7

8

9

10

11

12

Periode z. B. 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35

(x ( , ) ) (x (2) ) \

(χ®)

(X)

Die Organisation der Prognose-Erstellung

303

Im vorigen Kapitel war schon darauf hingewiesen worden, daß man in der Praxis bereits eingeführte quantitative Prognosesysteme wieder aufgegeben hat. Um derartige Mißerfolge zu vermeiden, muß bereits der Implementierung solcher Systeme große Aufmerksamkeit gewidmet werden. L E V E N B A C H / C L E A R Y (1981, S.343-345) haben eine — allgemeine — „Implementation Checklist" erarbeitet. In gewisser Anlehnung an diese (im wesentlichen beschränkt sich die Übereinstimmung auf einige Obergruppen) erfolgt hier eine Zusammenstellung der Gesichtspunkte, die bei der Einführung eines quantitativen Prognosesystems beachtet werden sollten: 1. Aufgaben des Prognosesystems. Dazu gehört, wie dargelegt, insbesondere auch die Festlegung, ob mehr kurz- oder langfristige Prognosen erstellt werden sollen, ob Simulationen vorzunehmen sind („wenn X, dann Y") usw. 2. Prioritäten. In Abhängigkeit von den Aufgaben ist die Nützlichkeit der Verfahren zu bewerten (s. Kap. 12) und danach gegebenenfalls über eine Reihenfolge bei der Implementierung zu entscheiden. Dabei ist in Betracht zu ziehen, inwieweit dadurch personelle Kompetenzen berührt und evtl. verändert werden. 3. Ressourcen. Zuvörderst sollte man nach dem Interesse und der Unterstützung seitens des Managements fragen. Sodann ist zu erwägen, inwieweit personelle Kapazitäten vorhanden sind oder erst bereitgestellt werden müssen. Kann man außerbetriebliche Berater heranziehen? Wie steht es mit den Sachmitteln für Computerzeit und Software? 4. Datenbeschaffung und -behandlung. Auf Datenquellen, -manipulation und -Verwaltung wird im nächsten Abschnitt eingegangen. Zu fragen ist aber auch nach der personellen Kapazität und den Zuständigkeiten dafür. 5. Anwendung und Präsentation. Wer sind die Nutzer und wie erfolgt die Interaktion mit diesen? Wie geschieht — sofern davon verschieden — die Interaktion mit dem Management? Wem ist zu präsentieren, in welcher Form und wie oft? 6. Dokumentation. Zu dokumentieren sind zumindest die Prognoseergebnisse selbst sowie deren Überwachung (s. oben), die aufgewandten Kosten und ggf. die benutzten Modelle. Ferner benötigt man eine Übersicht über die bereits

304

Der Einsatz von Prognoseverfahren

vorhandene und von außen beschaffbare Software. Dazu gehört auch eine gewisse L/iera/wrsammlung. Die Dokumentation der Daten wird in Zusammenhang mit der Datenverwaltung im nun folgenden Abschnitt besprochen.

14.1.2 Besondere Probleme: Datenbeschaffung und -behandlung 14.1.2.1 Datenquellen Üblicherweise differenziert man zwischen Primär- und Sekundärmatenal. Im letzteren Falle wird lediglich bereits vorliegendes Material herangezogen, während solches im ersteren Falle eigens erhoben werden muß. Da Erhebungen zeit- und kostenaufwendig sind, ist Sekundärmaterial zumeist wesentlich billiger. Dieses kann weiter danach unterschieden werden, ob es sich um interne oder externe Informationen handelt. Während erstere aus dem Unternehmen selbst stammen, müssen letztere von außen beschafft werden. Die Art des zu verwendenden Materials korrespondiert in gewisser Weise mit den eingesetzten Prognoseverfahren. So wird für qualitative Verfahren vielfach Primärmaterial benötigt. Erhebungen erfolgen ζ. B. bei Verbraucherbefragungen, bei der Delphi-Methode und auch im Rahmen von „Sales Force-Prognosen". So berichtet ζ. Β. M ABERT (1976) im Rahmen einer Fallstudie von hierfür benötigten 103 Mann-Stunden (gegenüber durchschnittlich rd. 14 für 3 univariate Methoden) und einer insgesamt benötigten Zeit von 27 Tagen (gegenüber rd. 2). Damit erklären sich auch die — auf Anhieb vielleicht überraschenden — Zeit- und Kosten-Bewertungen in Tab. 12-1.

Sekundärmaterial aus internen Quellen wird zumeist für univariate Verfahren hinreichend sein. Dabei geht es, wie dargelegt, neben vielleicht Kostenund Gewinnschätzungen vor allem um die Prognose des Absatzes. Zahlenmaterial aus der Vergangenheit über diesen wird aber bei bereits existierenden Produkten vorhanden sein. Probleme liegen allerdings darin, ob das ζ. B. lange genug der Fall ist. Bekanntlich setzen ja die einzelnen Verfahren einen durchaus unterschiedlichen Daten-Input voraus. Auch besteht das Problem von Verzerrungen dieses historischen Materials. Darauf wird im nächsten Abschnitt eingegangen. Hier soll nur noch erwähnt werden, daß es im Falle der Auftragsfertigung bzw. allgemein des Vorliegens von Lieferzeiten durchaus einen Unterschied macht, ob bereits die Auftragseingänge

Die Organisation der Prognose-Erstellung

305

oder erst die Umsätze herangezogen werden. Damit wären dann auch die Datenquellen verschieden: im ersten Falle die Auftragseingangsstatistik, im zweiten die Umsatzstatistik oder auch erst die Zahlen des Rechnungswesens nach erfolgter Verbuchung. Externe Daten spielen bei einigen qualitativen Verfahren eine Rolle, insbesondere aber bei den sog. kausalen Methoden: Für Regressionsanalysen wird man die unabhängigen Variablen meist dem Umfeld des Betriebes bzw. der Wirtschaft insgesamt entnehmen müssen. Bei ökonometrischen Modellen werden wohl praktisch immer die Inputdaten nicht nur aus internen Quellen stammen können; die Frage ist darüber hinaus, ob nicht auch der Output, also das Resultat eines ökonometrischen Modells, sogleich von außen bezogen wird. (Zumindest in den USA sind — durchaus auf kommerzieller Basis — nicht wenige Anbieter ökonometrischer Modelle bzw. ihrer Ergebnisse vorhanden.) Die Zahl der externen Informationsquellen ist groß. Hier soll nur ein sehr grober Überblick, über 4Gruppen, gegeben werden: 1. Amtliche Statistik a) Die allgemeine amtliche Statistik existiert, entsprechend dem föderativen Aufbau der Bundesrepublik, auf 3 Ebenen: — Statistisches Bundesamt (Wiesbaden) — Statistische Landesämter (meist in den Landeshauptstädten), — kommunalstatistische Ämter (in größeren Gemeinden und bei Kreisverwaltungen). Das Arbeitsgebiet des Statistischen Bundesamtes ist außerordentlich vielgestaltig. Dabei kommt längst nicht alles zur Veröffentlichung, was an Material anfällt. Über den „Auskunftsdienst" des Amtes bzw. die Nutzung der externen Datenbank STATIS-BUND ist es möglich, weiteres bzw. bereits entsprechend aufbereitetes Material zu erlangen. Aus dem umfangreichen Veröffentlichungsprogramm sind zwei Gruppen hervorzuheben : — zusammenfassende Veröffentlichungen; darunter wieder: — „Statistisches Jahrbuch für die Bundesrepublik Deutschland" (StJb) — Monatsschrift „Wirtschaft und Statistik" (WiSta) — „Statistischer Wochendienst" — Fachveröffentlichungen. Hierbei handelt es sich um die eigentlichen (Original-)Quellen. Derzeit existieren 19 „Fachserien", in weiterer Untergliederung in „Reihen" und auch „Einzelveröffentlichungen", speziell erstere z.T. noch stärker unterteilt.

306

Der Einsatz von Prognoseverfahren

Dazu treten noch die verschiedenen Publikationen der Statistischen Landesämter und der Kommunalstatistischen Ämter. Diese Berichte bringen oft eine starke regionale Differenzierung der Ergebnisse. b) „Ressortstatistik": Der Umfang der nicht besonderen Statistischen Ämter zugewiesenen Statistik ist, absolut gesehen, durchaus nicht gering. Hierzu gehört neben den statistischen Veröffentlichungen aus einzelnen Ministerien vor allem die statistische Tätigkeit der Deutschen Bundesbank (mit der Veröffentlichung der Ergebnisse in den „Monatsberichten . . . " und — periodischen — „Beiheften" hierzu), die Statistik der Arbeitslosigkeit usw. durch die Bundesanstalt fiir Arbeit etc. 2. Als weitere Gruppe sind Wirtschaftsorganisationen und -verbände zu nennen. Die großen Fach verbände unterhalten oft eigene statistische Abteilungen und veranstalten Erhebungen bei ihren Mitgliedern. Sie sind deshalb, speziell auf Gebieten, auf denen die amtliche Statistik nicht tätig wird, oft die einzigen Materialquellen überhaupt. Industrie- und Handelskammern verfügen demgegenüber meist weniger über branchenmäßig detailliertes als vielmehr tiefer regional, für den jeweiligen Kammerbezirk, gegliedertes Material. 3. Die Wirtschaftsforschungsinstitute produzieren ebenfalls oft zusätzliches Material, durch eigene Erhebungen, wie ζ. B. beim „Ifo-Konjunkturtest" (s. Kap. 9), oder zumindest durch eigene Auswertungen. Hier seien nur die Institute aufgezählt, die turnusmäßig die sog. „Gemeinschaftsdiagnose" erarbeiten: — Deutsches Institut für Wirtschaftsforschung, Berlin — Ifo-Institut für Wirtschaftsforschung, München — Rheinisch-Westfälisches Institut für Wirtschaftsforschung, Essen — Institut für Weltwirtschaft an der Universität Kiel, Kiel — HWWA — Institut für Wirtschaftsforschung —, Hamburg 4. Schließlich ist auf sonstige Quellen hinzuweisen: Fachliteratur und Fachzeitschriften, Zeitungen, Nachschlagewerke usw. 14.1.2.2

Datenmanipulation

Wie schon angedeutet, sind die Daten in der vorliegenden Form oft nicht direkt verwendbar; sie bedürfen der vorherigen Behandlung. Neben einigen speziellen Problemen, die dabei auftreten und anschließend erörtert werden, ist die Notwendigkeit der Datenmanipulation oft ganz allgemein gegeben: Berechnung von Wachstumsraten, Logarithmieren, Bilden von

Die Organisation der Prognose-Erstellung

307

Differenzen und Riickrechnung von Differenzreihen auf Originalniveau usw. Im Programmsystem FIDES sind allein 22 solcher Datenmanipulationen vorgesehen. Spezielle Probleme der Datenmanipulation sind: 1. das Ausreißer-Problem. Bei der Frage der „outlier" handelt es sich um ein ganz generelles statistisches Problem. Darauf wurde im Kap. 2 bereits hingewiesen. Dort wurden, im gegebenen Zusammenhang der Ermittlung von Saisonindizes, auch Lösungsmöglichkeiten angedeutet. (S.auch in Kap. 4, „Robust Regression".) Hier soll das Problem noch einmal grundsätzlich aufgegriffen werden. Insbesondere betriebswirtschaftliche Reihen sind nämlich oft „stark verschmutzt": Ihre Struktur ist überlagert von Irregularitäten, die ihrerseits wieder durch eigenes Handeln entstanden sein können. So kommen etwa die Umsätze nicht rein passiv oder nur durch die „normalen" absatzpolitischen Aktivitäten, sondern auch durch vielfältige Sonderaktionen — Preisveränderungen, Sales Promotions-Kampagnen usw. — zustande. Man muß deshalb zunächst unterscheiden, ob es das Ziel der Datenmanipulation ist, lediglich eine von Extremwerten bereinigte Reihe zu erhalten (dies wäre ein rein univariater Ansatz) oder ob der Einfluß von Sonderaktionen, deren Ergebnis solche Extremwerte sind, auch zahlenmäßig abgeschätzt werden soll. Man kann weiter danach differenzieren, ob die Bereinigung und/oder Abschätzung quasi vollautomatisch, vom Prognosesystem aus, erfolgt oder in Interaktion mit den Anwendern. Bei letzterem kann wieder unterschieden werden, ob der Hinweis auf Extremwerte bzw. Sondereinflüsse vom Prognosesystem ausgeht oder vom Anwender. Schließlich — viertens — kann die Behandlung auf dem Niveau der Originalwerte oder der Residuen erfolgen: A)

Extremwertbereinigung

1. auf dem Niveau der Originalwerte a) Die vollautomatische Bereinigung der Originalwerte von Extremwerten ist deshalb so schwierig, weil es sich in der Regel eben nicht um einen „stationären Prozeß" handelt, bei dem — nach dem Muster der Kontrollkartentechnik der Statistischen Qualitätskontrolle — etwa nur „Wahrscheinlichkeitsgrenzen" um den Mittelwert gelegt werden müssen, um jeden diese Grenzen überschreitenden Wert als „Ausreißer" zu identifizieren. Vielmehr enthalten die Reihen meist zumindest periodische Schwankungen in Ge-

308

Der Einsatz von Prognoseverfahren

stalt der Saison ; so kann etwa ein extrem hoher Wert, ζ. B. im Dezember, ausschließlich saisonbedingt sein. Im strengen Sinne ist deshalb eine vollautomatische Bereinigung der Originalwerte ohne eine Art Komponentenzerlegung nicht möglich. Auf „klassischer" Basis wird diese vorgenommen von CENSUS X 11. Die bereinigte Originalreihe (Ei) ergibt sich dabei, indem in den Fällen, in denen die irreguläre Komponente ein Gewicht von 0 erhalten hatte, auf eben diese verzichtet wird und somit der „Ersatz" des Originalwertes durch das Produkt aus Trend-Zyklus-Wert und Saisonfaktor erfolgt: (T)C-S. (Dabei ist abgesehen, wie bei der Darstellung in Kap. 2, von der „arbeitstäglichen Bereinigung" — und sonstigen „adjustments".) Die TC-Werte ergeben sich, gemäß Tab. 2-10, aus D12 und die Saisonfaktoren aus DIO, die Gewichte für die irreguläre Komponente aus C18; letztere wiederum resultieren — gemäß der dort gegebenen Beschreibung — aus dem Vergleich des jeweiligen Wertes der irregulären Komponente für einen Monat mit der aus ihm und den „benachbarten" Jahren berechneten Standardabweichung.

b) Im Grunde genau umgekehrt vorgegangen würde bei der vom Anwender ausgehenden Interaktion: Dieser tritt mit dem „Prognostiker" in Verbindung, um ihm sowohl die Zeitpunkte, zu denen Sonderaktionen durchgeführt wurden, als auch das Ausmaß der erforderlichen Bereinigung zu sagen (1). Dazwischen liegt die Möglichkeit (2), daß der Prognostiker, aufgrund von Plots der Originalwerte im „Prognosesystem", Hinweise auf vorliegende Extremwerte zu haben glaubt und in Zusammenarbeit mit dem Anwender feststellt, ob zu diesen Zeitpunkten tatsächlich Sonderaktionen stattgefunden haben und wie hoch ggf. deren Einfluß und damit das Ausmaß der erforderlichen Bereinigung ist. Die bisher genannten Möglichkeiten können als nicht unproblematisch erscheinen. Vorzuziehen wäre deshalb vielleicht ein Vorgehen 2. auf der Basis der Residuen. Das ist bei den meisten quantitativen Verfahren möglich: Nachdem die Schätzwerte xt berechnet worden sind, ergeben sich durch den Vergleich dieser mit den Beobachtungswerten xt die Residuen.

a) Vollautomatisch könnte man vorgehen, indem man alle Residuen, die eine vorzugebende Grenze (etwa: 2 Sigma) überschreiten, als „Extremwerte" identifiziert. Durch eine weitere subjektive Entscheidung wäre dann festzulegen, wie der Ersatz erfolgt. Möglich wäre z. B. der Ansatz mit der gerade noch zulässigen Obergrenze, eben etwa 2 Sigma; sinnvoller mag vielleicht der Ersatz durch 1 Sigma — als gewissermaßen „normale" Schwankung — erscheinen.

Die Organisation der Prognose-Erstellung

309

b) Da neben der reinen Größe der Residuen auch ihr Verlauf eine Rolle spielt (ζ. B. großes positives Residuum, gefolgt von einem negativen oder mehreren langsam kleiner werdenden, ebenfalls positiven), kann man die Festlegung von Grenzen als zu starr ansehen. Vielmehr sollte man vielleicht, ausgehend von diesen Fällen, die Interaktion mit dem Anwender suchen und mit diesem zusammen entscheiden, ob besondere Einflüsse und in welchem Ausmaß vorgelegen haben (2). Natürlich kann auch umgekehrt aufgrund der vom Anwender ausgehenden Information (1) die sorgfältige Untersuchung der Residuen zu den genannten Zeitpunkten und danach gemeinsam die Entscheidung vorgenommen werden. B) Abschätzung des zahlenmäßigen Einflusses von Sonderaktionen Sind die Zeitpunkte, zu denen Sondereinflüsse vorlagen, einmal bekannt — entweder durch a priori-Informationen vom Anwender oder Residualanalyse — so kann vermöge deren expliziter Berücksichtigung im „Modell" auch ihre Abschätzung erfolgen. Diese Berücksichtigung geschieht bereits auf der Ebene der Original werte (insofern entfallen letztlich die oben unter A vorgenommenen Unterscheidungen), im Prinzip durch dummy-Variablen. Die Ausprägung bei den einzelnen Verfahren ist im Detail natürlich anders. Beim Box-Jenkins-Approach erfolgt sie durch Erweiterung des univariaten Ansatzes zur „Interventionsanalyse". (S. Kap. 6.) Ein in gewisser Weise ähnlicher Ansatz wäre auch beim Adaptiven Filtern möglich. Bei der Trendextrapolation mit Saison-Dummies (s. 4.3) müßten zusätzliche Dummies angesetzt werden. Etwas anders muß die Berücksichtigung beim Exponentiellen Glätten geschehen; LEWANDOWSKI ( 1 9 7 4 , S. 174ff.) hat hierzu einen Weg gezeigt. Weiß man darüber hinaus noch den Zeitpunkt einer vergleichbaren Sonderaktion im voraus, so kann deren formale Berücksichtigung sogleich in der Prognose erfolgen. Andernfalls ermöglicht zumindest die Kenntnis des zahlenmäßigen Einflusses bestimmter Sonderaktionen die Anpassung der Prognosen durch Zu- oder Abschläge, sobald Information über Zeitpunkt und Art der Sonderaktion vorliegt. 2. das Problem der „Bereinigung von Kalenderunregelmäßigkeiten" bzw. „arbeitstäglichen Bereinigung". Hier handelt es sich gewissermaßen um eine spezielle Ausprägung des vorher diskutierten Problems der „Sondereinflüsse": Die unterschiedliche La-

310

Der Einsatz von Prognoseverfahren

ge der Feiertage usw. führt letztlich zu einer ungleichen Zahl von Arbeitstagen nicht nur für die verschiedenen Monate des Jahres, sondern auch die gleichen Monate aufeinanderfolgender Jahre. Zumindest dann, wenn die Anzahl der Arbeitstage für das betreffende Phänomen von Bedeutung ist — ζ. B. bei der „Produktion", deren Höhe stark mit der zur Verfügung stehenden Zeit variiert —, kann sich eine entsprechende Bereinigung der Originalreihe, etwa durch Zu- oder Abschläge, als zweckmäßig erweisen. (S. auch Kap. 2.) CANIBOL (1982) hat darüber hinaus, am Beispiel der „eingelieferten Massendrucksachen" bei der Deutschen Bundespost, gezeigt, daß durch die Berücksichtigung bei der Prognose eine wesentliche Verbesserung dieser möglich wird.

3. das Problem der „fehlenden Werte". Im Unterschied zu Querschnittsanalysen tritt bei Zeitreihen das Phänomen „fehlender Werte" einerseits selten auf. Andererseits ist es, wenn es dennoch in Erscheinung treten sollte, in der Regel nicht einfach durch „Weglassen" zu lösen. Das gilt speziell dann, wenn fehlende Werte nicht nur am Rande der Reihe vorkommen. Wegen des Erfordernisses der Äquidistanz sind „in der Mitte" fehlende Werte auf jeden Fall zu ersetzen, etwa durch einen gleitenden Durchschnitt. (Daß dieses auch am ZeitreihenRand geschehen kann, wurde bei der Erörterung des Census-Verfahrens gezeigt.) Bei multivariaten Verfahren muß natürlich auch die Länge der Reihen übereinstimmen; es kann nur die „Schnittmenge" herangezogen werden. 4. das Problem der „Deflationierung". ROTHE (1978) hat in seiner im vorigen Kapitel bereits erwähnten Umfrage auch überprüft, inwieweit und in welcher Weise mit dem Problem „nominal — real" umgegangen wird. Es zeigte sich dabei, daß beinahe 70% der antwortenden Hersteller-Firmen sich damit befaßten, meist durch „Deflationierung" mittels geeigneter Preisindizes oder auch durch den Ansatz von Mengeneinheiten und Multiplikation mit einem Durchschnittspreis. 14.1.2.3

Datenverwaltung

Zu einem computergestützten Prognosesystem gehört auch eine entsprechende Datenbank. Neben der Speicherung der Daten selbst sollte diese auch die der Dokumentation darüber ermöglichen. (Das Programmsystem FIDES enthält beides in sehr stark ausgebauter Weise.) Sie ist auch wichtig zur Datenpflege. Diese wiederum erscheint zur Aufrechterhaltung der Funktion der Datenbank unbedingt erforderlich. Leider ist sie auch auf-

Die Organisation der Prognose-Erstellung

311

wendig. Unter diesem Aspekt mag zwar ζ. B . die, wie erwähnt, von K E N N Y / D U R B I N (1982) empfohlene — wenn auch nur in sehr zurückhaltender Weise publizierte — Revision der saisonbereinigten Werte am „aktuellen Rand" problematisch erscheinen. Solche Revisionen sind auch bei anderen Größen, ζ. B. sehr ausgeprägt beim Sozialprodukt, üblich. Im Interesse der Prognosegüte erscheint es jedoch angemessen, jeweils die neuesten (revidierten) Daten verfügbar zu machen und in der Datenbank vorrätig zu halten.

14.2 Die Überprüfung des Prognoseprozesses — Die Rolle von Beurteilungsverfahren ARMSTRONG

(1982) gibt folgende

Fallstudie AJAX* „Herr Raft, Vorstandsmitglied von AJAX — einem Großunternehmen — präsentiert anläßlich einer Zusammenkunft im Sitzungszimmer des Vorstands die neu erstellte Absatzprognose mit folgenden Worten: ,Ich stelle Ihnen heute die Prognose der jährlichen Umsätze für die nächsten 5 Jahre vor. Wir haben diese Aufgabe sehr ernst genommen. Das TopManagement war daran aktiv beteiligt. Da dieses einen der Nutzer der Absatzprognose darstellt, war es angemessen, es an der Prognoseerstellung zu beteiligen. Unsere Branche ist gekennzeichnet durch rasche Veränderungen und ein turbulentes Umfeld. Angesichts dessen ist festzustellen, daß Vergangenheitsdaten nur eine schlechte Richtschnur zu liefern vermögen. Es ist vielmehr notwendig, vorwärts zu schauen und unsere Urteilskraft zu nutzen. Als Ergebnis dessen wandten die Mitglieder unseres Top-Managements viel Zeit in Zusammenkünften mit mir auf, um diese Prognose zu erstellen. Letztlich ist Prognostizieren mehr eine Kunst als eine Wissenschaft; nichts kann derzeit Erfahrung und gutes Urteilsvermögen ersetzen. Deshalb suchten wir nach dem Besten in dieser Richtung. Wir versicherten uns der Dienste eines der besten Wirtschaftsberaters und erhielten seine Stellungnahme zur wirtschaftlichen Zukunft unserer Firma. Wir suchten die bestmöglichen Methoden für die Erstellung der Prognose anzuwenden. Wie ich bereits erwähnte, handelt es sich im wesentlichen um * in freier Übersetzung, mit freundlicher G e n e h m i g u n g .

312

Der Einsatz von Prognoseverfahren

ein Beurteilungsverfahren. Aber wir prüften auch den Output einiger hochkomplizierter computergestützter Methoden. Natürlich nutzten wir unsere Urteilskraft zur Modifizierung der Ergebnisse dieser Computer-Methoden. Das von uns zusammen mit unserem Management-Team angewandte Beurteilungsverfahren half uns auch, Zustimmung zu unserer Voraussage zu erlangen. Da diejenigen, die betroffen sind, zugestimmt haben, glauben wir, diese Prognosen zu erfüllen! Unser wichtigstes Bedürfnis war, mehr Informationen zu erhalten. Wir wandten diesmal sehr viel Zeit und Geld auf, um all das an Daten herauszufinden, was immer wir benötigten. Dies erforderte, daß wir Angaben aus allen Bereichen des Unternehmens erhielten. Zusätzlich abonnierten wir einen der renommiertesten ökonometrischen Dienste, so daß wir früh Zugang zu dessen kurzfristigen makroökonomischen Voraussagen haben konnten. Vor der Darstellung der Prognoseresultate sind einige Bemerkungen über die letztjährige Vorausschätzung angebracht. Die Umsätze und Gewinne von AJAX waren niedriger, als wir vorausgesagt hatten. Damals entschieden wir uns für die optimistische Komponente bei unserer Voraussage. Zudem veränderte sich das Niveau der gesamtwirtschaftlichen Entwicklung aufgrund von wirtschaftspolitischen Maßnahmen. Deshalb sind die Ergebnisse insgesamt nicht überraschend. Die Prognosen für die nächsten 5 Jahre sind enthalten in den Tabellen des Berichts, den Sie vor sich haben. Insgesamt prognostizieren wir ein Anwachsen des (wertmäßigen) Umsatzes um 12,5% für das nächste Jahr, verbunden mit einem Ansteigen des Gewinns um 16%. Wir glauben, daß diese Zahlen sich in den Jahren 2 bis 5 noch verbessern werden. Für diese Zeit prognostizieren wir ein jährliches Wachstum der Umsätze um 15% und der Gewinne um 20%. Ungefähr die Hälfte dieses Anstiegs ist dem Preisanstieg resp. der Geldentwertung zuzuschreiben, die andere Hälfte der mengenmäßigen Entwicklung. Diese Prognosen beinhalten unsere zuverlässige Abschätzung der Zukunft. Wir sind sicher, daß sie zutreffend sind. Ich rege für den Fortgang der Sitzung an, daß Sie die Prognosen überprüfen. Sie sind im Detail im Bericht enthalten und umfassen unsere 8 HauptProduktgruppen für unsere 3 wichtigsten Gebiete für die nächsten 5 Jahre. Wir glauben, daß Sie diese Prognosen angemessen und realistisch finden werden.' " (1982) zeigt an Hand dieser Fallstudie 16 „Fallstricke bei der Prognoseerstellung" auf, jeweils mit Begründung und Lösungsvorschlä-

ARMSTRONG

Die Organisation der Prognose-Erstellung

313

gen. Im folgenden sind die „Fallstricke" wörtlich — in freier Übersetzung — wiedergegeben; Begründung und Lösungsvorschläge werden nur referiert und ggf. mit einem eigenen Kommentar versehen. Fallstrick Nr.l: „Das Top-Management war aktiv an der Prognoseerstellung beteiligt." Kritik und Lösungsvorschlag: Das Top-Management neige zu einer zu günstigen Sicht der Zukunft. Das liege einmal in dem üblichen Vergütungsbzw. Beteiligungssystem begründet. Zum anderen habe des Managements Erfolg über die Jahre hinweg ihm ein großes Selbstvertrauen bezüglich seiner Urteilskraft vermittelt. Schließlich sei seine Zeit kostbar. Deshalb sei es augenfällig, das Top-Management von der direkten, aktiven Beteiligung am Prozeß der Prognoseerstellung fernzuhalten. Stattdessen sollte es vornehmlich als Informationsquelle, d. h. als „Input" bei der Entwicklung der Voraussagen dienen. Kommentar: Dem ist wohl zuzustimmen. So wichtig die Interaktion mit dem Anwender bzw. dem Management — man denke auch an das Problem der Akzeptanz! — ist, sollte von daher jedoch kein direkter Einfluß auf die Prognose- Ergebnisse ausgehen können (allenfalls indirekt, vermittelt über die Datenbasis). Auf jeden Fall sollte diese Interaktion und ihr möglicher Einfluß auf die Resultate berücksichtigt werden. Fallstrick Nr. 2 : „Die Prognosen beruhen auf Beurteilungsverfahren." Kritik und Lösungsvorschlag: Erhebungen über die in der Praxis angewandten Prognosemethoden stimmten mit dem überein, was die meisten vermuten: Die wichtigen Prognosen werden im Wege von Beurteilungen erstellt. Dies scheine besonders bei Prognosen für strategische Entscheidungen zuzutreffen. Experten seien allerdings üblicherweise zwar gut in der Beschreibung des jetzigen Zustands, nicht dagegen in den Voraussagen von Veränderungen. Je weiter man in die Zukunft gehe, desto weniger Wert sollte auf Beurteilungen gelegt werden. Kommentar: Dies erscheint etwas problematisch. Ganz abgesehen davon, daß die empirische Evidenz nicht allzu augenfällig ist, wird man speziell bei Langfrist-Prognosen oft nicht ohne Experten-Unterstützung auskommen können. Selbst bei formalisierten Verfahren, wie etwa Wachstumsfunktionen, bedarf es in bezug auf die Begründung der Sättigungsgrenze

314

Der Einsatz von Prognoseverfahren

vielfach der Diskussion mit den Experten. S. im übrigen noch unten zur Rolle von Beurteilungsverfahren. Fallstrick Nr. 3: „Wir wenden viel Zeit in gemeinsamen Treffen zur Prognose-Erstellung auf." Kritik und Lösungsvorschlag: Organisationen entwickeln ihre Prognosen häufig in Meetings. Dies beruhe z.T. auf dem Glauben, daß dadurch die Verläßlichkeit der Prognosen gesteigert werde. („Wenn viele eine Ansicht teilen, muß sie richtig sein!") Solche Zusammenkünfte bestünden jedoch oft aus Personen mit ähnlicher Sichtweise; sie seien zudem oft wenig strukturiert. Dies könne zum Konformismus führen: Man erhält, im Falle eines 6-Personen-Meetings, „1 Meinung 6mal" (insbesondere dann, wenn der Chef präsent ist). Es handele sich um einen ineffizienten Weg, die Informationen jedes Mitglieds zu erlangen. Es sollten zwar durchaus Experten herangezogen werden, aber in begrenzter Zahl: mindestens 3, am besten 6 bis 10 (selten mehr als 20). Zudem sollten ihre Beiträge unabhängig voneinander sein. Vorzuziehen sei eine heterogene Gruppe, mit unterschiedlicher Problem-Sicht der Mitglieder. Bei Diskussionen sollten alle Mitglieder, insbesondere auch solche mit besonderen Meinungen, Gelegenheit zur Teilnahme erhalten. Der Diskussionsleiter sollte dabei helfen, Werturteile über die einzelnen Meinungen zu vermeiden, und nicht selbst seine Ansicht beisteuern. An die Stelle von Meetings könnten auch Umfragen oder das Delphi-Verfahren treten. Fallstrick Nr. 4 : „Wir versicherten uns der Dienste der besten Experten." Kritik und Lösungsvorschlag: Die Heranziehung der „besten" Experten sichere das Top-Management ab. Je renommierter und teurer die Experten, desto größer die Absicherung! Das sei allerdings nicht gerechtfertigt. Ausgedehnte Untersuchungen hätten zu überraschenden Resultaten geführt: Es gäbe keine Möglichkeit, Experten herauszufinden, die bessere Prognosen über Veränderungen zu liefern vermögen. Ein Minimum an Sachkenntnis im zentralen Bereich der Voraussagen ist unabdingbar. Typischerweise sei dieses Minimum jedoch schnell erreicht. Z.B. habe man herausgefunden, daß Psychologiestudenten im Grundstudium genau so treffsicher in ihren Urteilen wie Psychologen mit langjähriger Erfahrung waren. Die Folgerung sei interessant und wertvoll: Man wähle billigere Experten aus ! So könne man die Ersparnis zur Heranzie-

Die Organisation der Prognose-Erstellung

315

hung weiterer Experten nutzen, um einen Durchschnitt aus den Voraussagen zu ermitteln. Kommentar: S. dazu die These „N heads are better than one" (Kap. 8) bzw. zur Kombination von Voraussagen (Kap. 12). Fallstrick Nr. 5: „Wir benutzten die beste Methode." Kritik und Lösungsvorschlag: Typischerweise bestehe Ungewißheit darüber, welche Prognosemethode die beste ist. Trotzdem glaube das Management oft, daß eine bestimmte Methode die beste sein müsse. Die Auswahl solch einer „besten" Methode sei jedoch riskant. Einerseits könne man inkorrekt auswählen. Zum anderen, auch wenn eine Methode im Prinzip die beste sein sollte, könnten doch Fehler in ihrer Anwendung auftreten. Man sei vorsichtig: Anstatt das gesamte Budget einer einzigen Methode zu widmen, verteile man es auf zwei oder drei geeignete Verfahren. Diese Methoden sollten sich am besten substantiell voneinander abheben. Das heißt, sie sollten verschiedene Informationen nutzen und diese in verschiedener Weise behandeln. Zwar sei — falls die endgültige Prognose auf dem Durchschnitt der einzelnen Methoden basiert — die Auswirkungen auf die Genauigkeit nur mäßig. Wichtiger sei aber, daß dies bei der Vermeidung größerer Prognosefehler aufgrund von Irrtümern helfe. Kommentar: Neben die formale Kombination von Prognosen tritt hier ein weiterer Gesichtspunkt: die gewissermaßen qualitative Verbesserung. S. zur Rolle der Beurteilungsverfahren in diesem Zusammenhang noch unten (Fallstrick 7 bzw. am Schluß des Kapitels). Fallstrick Nr. 6: „hochkomplizierte Verfahren" Kritik und Lösungsvorschlag: Relativ einfache Methoden seien oft ähnlich genau wie hochkomplizierte. Ζ. B. habe eine Übersicht über veröffentlichte Untersuchungen ergeben, daß einfache ökonometrische Verfahren so genau wie komplexe waren. Einfache Methoden seien auch leichter zu verstehen. Man wende deshalb relativ einfache Methoden an. Eine gute Faustregel sei, daß die Methode einfach genug sein soll, daß sie vom Anwender verstanden werden kann. Um das Verständnis zu testen, sollte der Nutzer imstande sein, die Prognose „per Hand" zu berechnen. Ein anderer — weniger stringenter — Test sei, daß der Nutzer in der Lage sein sollte, die Methode jemand anderem zu erklären.

316

Der Einsatz von Prognoseverfahren

Fallstrick Nr. 7 : „,Objektive' Prognosen wurden,subjektiv' revidiert." Kritik und Lösungsvorschlag: Prognostiker — und bisweilen auch Anwender — nehmen oft subjektiv Berichtigungen der Ergebnisse „objektiver" Methoden vor. Es stehe jedoch zu vermuten, daß diese Modifikationen die Prognosen weniger genau machen. Dies sei besonders dann wichtig, wenn die Veränderungen groß sind. Es scheine aber nach den Ergebnissen empirischer Untersuchungen, daß für kurzfristige Voraussagen subjektive Berichtigungen oft hilfreich sind: Es kann angenommen werden, daß der Gewinn bei der subjektiven Abschätzung der gegenwärtigen Situation die schlechtere Voraussage der Veränderungen (die kurzfristig geringere Bedeutung haben) überwiegt. Experten könnten oft wertvolle Informationen beitragen, insbesondere bezüglich der gegenwärtigen Lage. Sie kennen meist auch die Planungen für die Zukunft. Der effizienteste Weg, diese Informationen zu nutzen, sei, subjektive Schätzungen der gegenwärtigen Lage als Input für das die Veränderungen prognostizierende Modell heranzuziehen. Ein anderer Weg, Expertenwissen zu nutzen, sei, subjektive und objektive Voraussagen der Veränderungen zu gewinnen zu suchen und diese dann zu mittein. Es erscheine jedoch riskant, die Ergebnisse „objektiver" Methoden nach dem Vorliegen „subjektiv" zu revidieren. Für den Fall, daß die Revision durch Beurteilungen doch erfolgt, sollte dies vermerkt werden. Ein Bericht sollte sowohl den Umfang der Korrekturen als auch den Prognosefehler ohne diese festhalten. Kommentar: In Literatur und Praxis wird oft gerade das Gegenteil empfohlen: Es wird auf die Notwendigkeit verwiesen, die Ergebnisse rein formal arbeitender Verfahren im Lichte aller zur Verfügung stehenden Informationen zu betrachten und zu bewerten, ggf. also auch zu revidieren. Die Möglichkeit der Nutzung weiterer Informationen, also auch solcher, die gar nicht in das formale Modell eingehen (können), wird allerdings auch von Armstrong nicht verbaut. Er empfiehlt die Auswirkung auf die Daten oder auch die Kombination der Ergebnisse und wendet sich eigentlich nur gegen die „Vermischung" subjektiven und objektiven Vorgehens durch nachträgliche Revision. Interessant ist sein Vorschlag, den Prognosefehler mit und ohne Revision festzuhalten: Damit zeigt sich im nachhinein, ob die subjektiven Korrekturen tatsächlich zur Verbesserung führten. (S. auch unten, zusammenfassend zur Rolle von Beurteilungsverfahren.)

Die Organisation der Prognose-Erstellung

317

Fallstrick Nr.8: „Wir werden unsere Voraussagen erfüllen!" Kritik und Lösungsvorschlag: AJAX habe es unterlassen, zwischen Voraussage und Plan zu unterscheiden: Die Prognose sagt, was geschehen wird, wenn die Umwelt der Organisation, ihre Kapazität und Planungen konstant bleiben; ein Plan ist die Festlegung eines Satzes von Aktionen, dem die Organisation zu folgen suchen wird. Die Mitglieder einer Organisation sollten daran arbeiten, ihren Plan zu erfüllen. Es sei der Plan, nicht die Prognose, der die Motivation für die Aktionen liefern sollte. Zwei verschiedene Unterlagen sollten erstellt werden, eine mit den Plänen und eine andere mit den Voraussagen für jeden Satz von Plänen. Planungsund Prognose-Prozeß interagierten, aber jeder sollte separat behandelt werden. Falls das, was die Prognoseergebnisse aufzeigen, nicht befriedigend sei, sollte der Plan geändert werden, nicht die Voraussage. (Das letztere entspräche dem Vorgehen, die Wettervorhersage zu ändern, um das „Frühstück im Grünen" zu einem Erfolg zu machen!) Kommentar: S. hierzu auch Kap.l, zum Zusammenhang von Prognose, Entscheidung und Planung. Fallstrick Nr.9: „Wir benötigen mehr Informationen!" Kritik und Lösungsvorschlag: Es sei offensichtlich, daß man einige Informationen für die Erstellung der Prognose benötigt. Überraschenderweise erreiche man jedoch sehr schnell den Punkt, wo mehr Information von geringem Wert ist. Diese Folgerung ergebe sich aus umfangreicher empirischer Forschung. Sie treffe insbesondere für Beurteilungsverfahren zu, da der menschliche Verstand nicht fähig sei, große Mengen von Daten zu verarbeiten. Auch sei es wahrscheinlich, daß der Anwender irrelevante Information dann benutzt, wenn sie geliefert wird. „Objektive" Methoden machten besseren Gebrauch von Datenmengen, aber auch hier produzierten zusätzliche Daten nur geringen Gewinn. Die Situation sei nicht viel anders, wenn man „bessere" anstatt „mehr" Information meine. Verbesserungen der Qualität der Daten — oberhalb eines bestimmten, eher mäßigen Niveaus — hätten nicht genauere Prognosen gezeitigt. Dies gelte auch für ökonometrische Modelle. Es sei üblich zu sagen, daß wir mehr Informationen wünschen. Dies führe oft zu einer aufwendigen Suche danach und verzögere die Entscheidungen. Üblicherweise machten wir nur schlechten Gebrauch der Informationen, die uns bereits zur Verfügung stehen. Prognostiker sollten das Budget für

318

Der Einsatz von Prognoseverfahren

Informationen verringern und mehr aufwenden für Methoden zur Analyse bzw. Ausnutzung der vorliegenden Daten. Kommentar: Es ist sicher richtig, daß ab einem bestimmten Punkt der „Grenznutzen zusätzlicher Information" einen abnehmenden Verlauf zeigt. Auch sind „Zahlenfriedhöfe" zu vermeiden. Andererseits sollten in jedem Falle die vom jeweiligen Verfahren determinierten Mindest&nîorâçrungen beachtet werden! Fallstrick Nr. 10: „Daten aus allen Bereichen des Unternehmens wurden genutzt." Kritik und Lösungsvorschlag: Im Falle von AJAX suchte das Management die Daten, die es für die Erstellung einer Prognose benötigt. Eine Gefahr dieses Vorgehens sei, daß die Suche nach Daten schlicht im Hinblick darauf erfolge, des Managements Überzeugungen zu unterstützen. (Dieser Prozeß der Suche nach „bestätigender Evidenz" sei auch unter Wissenschaftlern verbreitet — von denen man üblicherweise annehme, daß sie nach „nicht-bestätigender Evidenz" Ausschau halten.) Die Schaffung einer „zentralen Datenbank" könne helfen, den voreingenommenen Gebrauch von Daten zu vermeiden. Man sollte im voraus entscheiden, welche Art von Daten für jede Art strategischer Entscheidungen relevant sein kann. Dies könne mittels Befragung der Anwender oder auch der Prognostiker geschehen. Ein anderer Weg sei, ein Verzeichnis derjenigen Informationen anzulegen, die gegenwärtig bei der Erstellung von Prognosen herangezogen werden. Wichtige Informationen könnten routinemäßig erhoben und in einer „zentralen Datenbank" gespeichert werden. (Dies könne ein Computer, aber auch ein Notizbuch sein !) Ein Mangel dieses Vorgehens sei, daß für eine bestimmte Entscheidung die „Datenbank" auch viel irrelevante Information enthalte. Dies legt nahe, daß sie nicht groß sein sollte; andernfalls könnten die Manager irrelevante Daten finden, um ihre Überzeugungen zu bestätigen. — Die Präsentation von Vergangenheitsdaten sei auch wichtig, wenn die Daten als Hilfe für „subjektive" Voraussagen dienten. Tabellen könnten in einfacher Art und Weise präsentiert werden. Noch besser sei es, Graphiken zu konstruieren. Sie könnten lange historische Trends aufzeigen und damit das Problem überwinden helfen, daß Experten dazu tendieren, die neueste Information zu stark zu gewichten. Einige Vorsicht sei allerdings bei der Beschäftigung mit Situationen mit starkem, exponentiellen Wachstum angebracht. Untersuchungen ließen vermuten, daß „subjektive Prognosen" ein derartiges Wachstum stark unterschätzen.

Die Organisation der Prognose-Erstellung

319

Fallstrick Nr. 11 : „Wir zogen einen ökonometrischen Dienst für kurzfristige Voraussagen heran." Kritik und Lösungsvorschlag: AJAX sei nicht allein in seinem Glauben gewesen, daß ökonometrische Dienste genauere kurzfristige Voraussagen lieferten. Überraschenderweise hätten sich jedoch die Verheißungen ökonometrischer Prognosen für Kurzfrist-Voraussagen nicht erfüllt. Ökonometrische Methoden hätten offensichtlich keine wesentliche Verbesserung in der Prognosegenauigkeit im Vergleich zu Beurteilungs- oder ExtrapolationsMethoden gebracht. Man reduziere oder eliminiere die Ausgaben für Kurzfristprognosen von ökonometrischen Diensten. Alternative Quellen für makroökonomische Voraussagen, aufgrund von Extrapolationen oder der Befragung von Experten, seien zu niedrigen oder sogar ohne Kosten zugänglich. Kommentar: Die doch einigermaßen harte und klare Empfehlung ist auf dem — bereits angedeuteten — Hintergrund zu sehen, daß in den USA ein starkes Aufblühen des kommerziellen Vertriebs von ökonometrischen Prognosen zu verzeichnen war — eine Entwicklung, die möglicherweise dort ihren Höhepunkt bereits überschritten hat, in der Bundesrepublik aber nur zögernd einsetzte. Man bedenke auch, daß es einen Unterschied machen kann, ob es nur mehr allgemein um die Abschätzung der künftigen konjunkturellen Entwicklung geht oder um die Lieferung zahlenmäßiger Ergebnisse (die eventuell in eigene Regressionsansätze eingehen). Auf jeden Fall sollte aber in der Tat die Kosten/Nutzen-Relation beachtet werden! Fallstrick Nr. 12:„Ich wußte, daß es geschehen würde!" Kritik und Lösungsvorschlag: Auch für Unternehmensprognostiker sei Winston Churchills Ausspruch nützlich: „Die wichtigste Qualifikation für einen Politiker ist die Fähigkeit vorauszusagen, was morgen, nächsten Monat und nächstes Jahr geschehen wird, und dann zu erklären, warum es nicht geschah!" — Wir täuschten uns leicht, wenn wir auf unsere Prognosen zurückschauen. Unser Unterbewußtsein trage viel zu dieser Täuschung bei. Wir seien selten von einem Ereignis überrascht, unabhängig davon, wie verschieden dieses von unserer Voraussage war. Die Rationalisierung: „Wir wußten, daß es geschehen würde" helfe uns möglicherweise, in Organisationen zu überleben und durchs Leben zu kommen, ohne unsere Überzeugung zu ändern. Nichtsdestoweniger könnten wir Schritte unternehmen, dieses Problem der mit unseren Voraussagen

320

Der Einsatz von Prognoseverfahren

konfligierenden Information anzugehen. Einer dieser Schritte sei, von vornherein festzulegen, welches Ereignis „überraschend" wäre. Der einfachste Weg dazu sei, Voraussagen mit Ober- und Untergrenzen zu erstellen. Bei Verwendung objektiver Methoden könnten statistische Konfidenzintervalle berechnet werden. Ähnliches sei jedoch auch bei subjektiven Schätzungen möglich. Allerdings wäre es unwahrscheinlich, daß die Schätzung solcher Limits durch einen einzelnen Experten genau ist. Falls jedoch eine Anzahl von Experten herangezogen wird, dürfte deren durchschnittliches „Konfidenzintervall" einige Gültigkeit haben. Noch wichtiger: Sie könnten definieren, welche Ereignisse „überraschend" wären. — Falls solche Ober- und Untergrenzen nicht im voraus festgelegt wurden, sei jedoch noch nicht alles verloren. So könnten „falsche" Ereignisse präpariert und nichtsahnenden Experten vorgelegt werden mit der Frage, welche Ereignisse „überraschend" wären; die wirklichen Ereignisse sind dann einordbar. Fallstrick Nr. 13: Keine Analyse der früheren Genauigkeit Kritik und Lösungsvorschlag: Bei AJAX erfolgte keine quantitative Abschätzung der Genauigkeit früherer Prognosen. Eine formelle Abschätzung dürfte aber nützlich für die Festlegung geeigneter Prognoseverfahren sein. Sie könnte auch nützlich in bezug darauf sein, ob die Prognosen richtig verwandt wurden. (In einer empirischen Untersuchung sei ζ. B. herausgefunden worden, daß bei Nicht-Übereinstimmung der Prognosen mit den Überzeugungen des Managements dieselben ignoriert wurden.) Man präsentiere — in graphischer Form — die Prognosegenauigkeit der Methoden, die in den vergangenen Jahren angewandt wurden. Nach Möglichkeit sollte eine Untersuchung darüber erfolgen, ob die Unterschiede zwischen den Methoden „statistisch gesichert" sind. Fallstrick Nr. 14: „Unsere beste Abschätzung der Zukunft." Kritik und Lösungsvorschlag: AJAX lieferte seine „beste Abschätzung der Zukunft". Das Problem liege darin, daß viel Ungewißheit bezüglich der Zukunft existiert. So mögen Veränderungen in unserer Umwelt eintreten (z.B.: Auferlegung von Zöllen auf unser Produkt) oder in der Kapazität (ζ. B.: die Fabrik brennt nieder!). Ferner könne es sein, daß von den Personen her der Plan nicht erfüllt wird (sei es, daß sie nicht auf den Plan verpflichtet wurden, oder er außerhalb der Möglichkeiten der Organisation lag)·

Die Organisation der Prognose-Erstellung

321

Anstatt die Voraussage zu liefern, erstelle man Prognosen für einen Satz „alternativer Zukünfte". Diese Voraussagen sollten verschiedene Möglichkeiten umfassen in bezug auf Í. die Umwelt, 2. die Möglichkeiten, 3. die Pläne der Firma. Besonders wichtig sei, daß die Prognosen auch die Möglichkeiten unerwünschter Umweltzustände ins Auge fassen. Das Management könne dann eine Notfallplanung vornehmen. Dies helfe, die Organisation offen gegenüber „dem Wandel" zu halten. Fallstrick Nr. 15 : „Wir sind sicher, daß die Prognosen zutreffen werden !" Kritik und Lösungsvorschlag: Während der Arbeit an ihren Prognosen gewännen Experten üblicherweise Vertrauen in diese. Eine solche Zunahme an Zuversicht habe jedoch wenig Beziehung zur Genauigkeit, insbesondere dann, wenn die Aufgabe wenig „feedback" bedingt. Das Selbstvertrauen der Prognostiker reduziere fälschlicherweise die Vorsicht der Anwender. Man sei deshalb skeptisch gegenüber subjektiver Abschätzung der Verläßlichkeit durch die Experten — oder auch sich selbst. Man halte Ausschau nach objektiven Abschätzungen! Wie erwähnt, sei der beste Weg zur Einschätzung der Verläßlichkeit, die Genauigkeit eines bestimmten Verfahrens bei früheren Prognosen zu ermitteln. Zudem sollte der Prognostiker sein Augenmerk auf die Ursachen dafür lenken, warum eine Prognose ungenau sein könnte. Die Untersuchung der einer bestimmten Prognose entgegenstehenden Gründe kann zu einer besseren Abschätzung der ihr zuzuordnenden Ungewißheit führen. (Dies lieferte auch ein Gegenmittel gegen Fallstrick Nr. 1!) Fallstrick Nr. 16: „Keine Erwähnung der Kosten!" Kritik und Lösungsvorschlag: Die Kosten der Prognosen würden nicht erwähnt. Sehr oft wende man zu wenig für das Prognostizieren auf, manchmal zu viel. Aber nur wenige hielten sich über die Ausgaben für Prognosen auf dem laufenden. — Theoretisch sollten die Firmen solange mit der Erhöhung der Ausgaben für Prognosen fortfahren, wie sie einen angemessenen „return on investment" auch in dieser Hinsicht erhalten. In der Praxis sei jedoch der Nutzen der Prognose nicht leicht zu beziffern. Man sollte deshalb ein besonderes Prognose-Budget einrichten. Darüber hinaus sollten einige allgemeine Richtlinien entwickelt werden. Eine solche Faustregel sei, daß die Ausgaben für Prognosen nicht 2% vom Umsatz überschreiten sollten. (Dies könne man angesichts der jeweiligen Situation korrigieren — ζ. B. niedrigere Sätze für größere Unternehmen.)

322

Der Einsatz von Prognoseverfahren

Kommentar: Wie im vorigen Kapitel anhand empirischer Befragungen dargetan, ist die Einrichtung besonderer Prognose-Budgets nicht allzu verbreitet. Auch die Höhe der Budgets im Verhältnis zum Umsatz war eher bescheiden. Die erwähnte Grenze von 2% wird kaum jemals erreicht. Sie als Forderung zu erheben, wäre also gleichbedeutend mit dem Verlangen nach einer Ausdehnung des Einsatzes der Prognoserechnung in der Praxis ! (1982) hat die aufgeführten 16 „Fallstricke" zusammengefaßt in einer (Forecasting Audit-)Checklist. Auf deren Wiedergabe wird hier verzichtet. Es sei nur darauf hingewiesen, daß eine weitere Zusammenfassung zu 4Obergruppen erfolgt: Überprüfung der Methoden, der Daten und Annahmen, der „ Ungewißheit"und schließlich der Kosten. ARMSTRONG

Ein Grund für den Verzicht auf die Wiedergabe besteht darin, daß sich die 16 Einzelfragen der Prüfliste durch Umformung der „Fallstricke" ergeben. (Beispiel : 1. Sind die Voraussagen unabhängig vom Management?) Ein anderer Grund liegt darin, daß bei CLEARY und LEVENBACH eine Liste mit ähnlicher Zielsetzung zu finden ist (in 1981, S.325f., als „Forecast Standards Checklist" bezeichnet, in 1982, S. 366 ff., als „Forecast Management Checklist"); sie weicht aber inhaltlich wesentlich ab. In Tab. 14-2 wird deshalb — resümierend zu den bisherigen Betrachtungen — eine eigene Zusammenstellung gegeben. Abschließend soll — quasi zusammenfassend — auf die Rolle von Beurteilungsverfahren eingegangen werden. Als „Beurteilungsverfahren" wird dabei das Vorgehen verstanden, allein aufgrund subjektiver Erkenntnisse, Einsichten, Erfahrungen usw. eine Prognose abzugeben. (Das soll die Bewertung einer anderweitig erstellten Prognose einschließen ; sie kommt insoweit der Aufstellung einer Prognose gleich, als ohne eigene Vorstellungen über die Zukunft diese — subjektive, nicht formale — Bewertung nicht erfolgen kann.) Gleichwohl ist das Vorgehen bei der Darstellung der Verfahren nicht als solches hervorgehoben worden. Das hat mehrere Gründe. Einmal kann — s. die Diskussion der AJAX-Fallstudie ! — die Bezeichnung „Beurteilungsverfahren" sehr weit gefaßt werden und auch die „Expertenbefragung" usw. einschließen. Im Sinne obiger allgemeiner Definition ist dies durchaus zutreffend. Hier soll jedoch eine engere Fassung erfolgen: beschränkt auf das Management und/oder die Anwender. In diesem Sinne wäre also von „Beurteilungsverfahren" als Methode zur Aufstellung von Prognosen dann zu sprechen, wenn Voraussagen allein aufgrund eigener subjektiver Abschätzung vorgenommen werden.

Die Organisation der Prognose-Erstellung

323

1. Wurden „objektive" Methoden herangezogen? 2. Wurde das Vorliegen der Voraussetzungen für die angewandten Verfahren überprüft? 3. Wurde (auf welche Weise?) das Verständnis des Managements bzw. der Anwender für das verwandte Verfahren gefördert? 4. Wurde die Prognosegüte überprüft (und ggf. verbessert) — formalstatistisch, — durch Prognosesimulation, — durch Vergleich (und evtl. Kombination) mit anderen Methoden? 5. Standen die erforderlichen Daten zur Verfügung? 6. Wurde die Datenqualität analysiert und überprüft? 7. Wurde die Genauigkeit früherer Prognosen in Betracht gezogen — durch Fehlerberechnung, — durch Analyse der Abweichungen? 8. Waren die personellen und sachlichen Ressourcen angemessen? 9. Sind die Kosten angemessen? 10. a) War ein Einfluß des Managements gegeben, und wie wurde er berücksichtigt? b) War — sofern davon verschieden — ein Einfluß der Anwender gegeben, und wie wurde er berücksichtigt? Tab. 14-2: Checklist zur Überprüfung des Prognoseprozesses

Diese erste Möglichkeit der Heranziehung von „Beurteilungsverfahren", zur PrognosHerstellung, ist in der Praxis durchaus häufig. So kann etwa die Voraussage des Absatzes für ein bestimmtes Produkt und einem bestimmten Markt in einem bestimmten Zeitraum durch den jeweiligen Sachbearbeiter im Verkauf oder auch den Produktmanager erfolgen. Derartige Prognosen vermögen durchaus „verläßlich" im Sinne der Genauigkeit, d.h. eines vergleichsweise geringen Prognosefehlers, zu sein. Wenn sie dennoch bei der Aufzählung der Methoden nicht genannt wurden, so deshalb, weil darüber als Vorgehensweise im Grunde, eben wegen ihrer „Subjektivität" und fehlenden interpersonellen Nachprüfbarkeit, nichts gesagt werden kann. Auch mag die Genauigkeit sehr schnell verloren gehen — etwa durch einen Wechsel des Sachbearbeiters. Eine zweite Möglichkeit besteht in der Beibehaltung der eigenen Aufstellung einer Voraussage, daran anschließend aber deren Kombination mit anderen Prognosen. Dabei gilt dann das früher in bezug auf „Kombinationen" Gesagte; besonders problematisch dürfte hier die Gewichtung sein.

324

Der Einsatz von Prognoseverfahren

Drittens ist die nachträgliche Berichtigung einer anderweitig aufgestellten Prognose zu nennen. Deren Problematik wurde bereits bei der Diskussion der Fallstudie dargestellt. Sie ist z.T. auch darin begründet, daß hierbei eben keine eigene umfassende Prognose erarbeitet wird, sondern möglicherweise mehr nur punktuell die Ergebnisse kritisiert und adjustiert werden. Andererseits läßt sich u. U. das Einfließen subjektiver Wertungen gar nicht ausschließen. Das wird etwa bei enger Interaktion zwischen Anwender und Prognostiker schon während des Prozesses der Aufstellung der Prognose so sein. Fallen beide in einer Person zusammen, dann ist das Einfließen von Urteilen, Erfahrungen usw. gar nicht zu vermeiden und erstreckt sich bis in die Methoden. Bei diesen sind ja, wie gezeigt, verschiedentlich mehr oder weniger subjektive Entscheidungen zu fällen. (Beispiel: Wahl des Glättungsparameters beim Exponentiellen Glätten.) Hinwiederum kann aber deren Wirkungsweise durch Kenntnis der sachlichen Gegebenheiten — zusätzlich zu den methodischen Erfordernissen — sogar verbessert werden.

Anhang Α. Statistische Tafeln Der Verf. hat lange gezweifelt, ob er überhaupt „Statistische Tafeln" wiedergeben sollte, einerseits wegen des damit verbundenen Aufwands bzw. der entsprechenden Auswahl-Probleme, andererseits aber auch, weil sich in der Praxis für den „täglichen Gebrauch" gewisse Faustregeln herausgebildet haben. So deutet bei hinreichend großer Stichprobe, also bei zweiseitigem Test ab etwa 50, ein t-Wert von 2 und mehr auf Signifikanz hin. (Selbst für die so „sperrige" F-Verteilung — s. unten — kann man ganz grobe Anhaltspunkte zu entwickeln suchen; vgl. etwa C L E A R Y / L E V E N B A C H 1982, S.44.) Zudem werden in Computerprogrammen zunehmend sogleich die entsprechenden Signifikanzniveaus ausgegeben. In bezug auf das Auswahl-Problem folgt aus dem Vorerwähnten schon, daß hier eine Beschränkung auf für Signifikanzprüfungen wichtige Verteilungen vorgenommen wird. Es sind dies : 1. die 2. die 3. die 4. die

(Standard-) Normalverteilung, Ν (0,1), t- Verteilung, χ2-Verteilung, F- Verteilung.

Angegeben sind jeweils Quantile, und zwar im allgemeinen an insbesondere für Signifikanzprüfungen wichtigen Stellen der Verteilungsfunktion. Die Angaben beziehen sich also auf die Vertrauenwahrscheinlichkeit (nicht die Irrtumswahrscheinlichkeit). Bei der F-Verteilung mußte eine noch stärkere Konzentration erfolgen, da diese jeweils durch zwei Freiheitsgrade (df — degree of freedom) charakterisiert wird, die entsprechende Tabelle also zwei „Eingänge" hat: df t , für den Zähler des entsprechenden Bruchs, und df 2 , für den Nenner. Demgemäß bedeutet etwa (s. Beispiel 4-8) F0)95 bei 2 und 7 Freiheitsgraden, daß der „theoretische" F-Wert bei einem Signifikanzniveau von 5% 4,74 beträgt. Nur durch die Beschränkung auf drei Signifikanzniveaus und auch bei den jeweiligen Freiheitsgraden ist die Darstellung der F- Verteilung in einer Tabelle (T-2) möglich geworden. Bei der t- Verteilung und auch der χ2- Vertei-

326

Anhang

df 1

Verteilung

3

0,9

0,95

0,975

0,99

0,995

1,00 1,32

3,08 2,71

6,31 3,84

12,7 5,02

31,8 6,63

63,7 7,88

t

0,00 1,39

0,82 2,77

1,89 4,61

2,92 5,99

4,30 7,38

6,96 9,21

9,92 10,6

t

0,00 2,37

0,76 4,11

1,64 6,25

2,35 7,81

3,18 9,35

4,54 11,3

5,84 12,8

0,00 3,36

0,74 5,39

1,53 7,78

2,13 9,49

2,78 11,1

3,75 13,3

4,60 14,9

*2 4

0,75

0,00 0,45

t Z2

2

0,5

t X

2

5

t

0,00 4,35

0,73 6,63

1,48 9,24

2,02 11,1

2,57 12,8

3,36 15,1

4,03 16,7

6

t

0,00 5,35

0,72 7,84

1,44 10,6

1,94 12,6

2,45 14,4

3,14 16,8

3,71 18,5

7

t

0,00 6,35

0,71 9,04

1,42 12,0

1,90 14,1

2,36 16,0

3,00 18,5

3,50 20,3

8

t

0,00 7,34

0,71 10,2

1,40 13,4

1,86 . 2,31 15,5 17,5

2,90 20,1

3,36 22,0

9

t

0,00 8,34

0,70 11,4

1,38 14,7

1,83 16,9

2,26 19,0

2,82 21,7

3,25 23,6

10

t

0,00 9,34

0,70 12,5

1,37 16,0

1,81 18,3

2,23 20,5

2,76 23,2

3,17 25,2

11

t

0,0 10,3

0,70 13,7

1,36 17,3

1,80 19,7

2,20 21,9

2,72 24,7

3,11 26,8

12

t

0,0 11,3

0,70 14,8

1,36 18,5

1,78 21,0

2,18 23,3

2,68 26,2

3,06 28,3

13

t

0,0 12,3

0,69 16,0

1,35 19,8

1,77 22,4

2,16 24,7

2,65 27,7

3,01 29,8

14

t

0,0 13,3

0,69 17,1

1,34 21,1

1,76 23,7

2,14 26,1

2,62 29,1

2,98 31,3

t

0,0 14,3

0,69 18,2

1,34 22,3

1,75 25,0

2,13 27,5

2,60 30,6

2,95 32,8

15

X2 16

t

0,0 15,3

0,69 19,4

1,34 23,5

1,75 26,3

2,12 28,8

2,58 32,0

2,92 34,3

17

t

0,0 16,3

0,69 20,5

1,33 24,8

1,74 27,6

2,11 30,2

2,57 33,4

2,90 35,7

*

2

Statistische Tafeln

df

327

Verteilung

0,5

0,75

0,9

0,95

0,975

0,99

0,995

18

t

0,0 17,3

0,69 21,6

1,33 26,0

1,73 28,9

2,10 31,5

2,55 34,8

2,88 37,2

19

t

0,0 18,3

0,69 22,7

1,33 27,2

1,73 30,1

2,09 32,9

2,54 36,2

2,86 38,6

20

t X2

0,0 19,3

0,69 23,8

1,32 28,4

1,72 31,4

2,09 34,2

2,53 37,6

2,84 40,0

21

t

0,0 20,3

0,69 24,9

1,32 29,6

1,72 32,7

2,08 35,5

2,52 38,9

2,83 41,4

22

t

0,0 21,3

0,69 26,0

1,32 30,8

1,72 33,9

2,07 36,8

2,51 40,3

2,82 42,8

23

t I2

0,0 22,3

0,68 27,1

1,32 32,0

1,71 35,2

2,07 38,1

2,50 41,6

2,81 44,2

24

t z2

0,0 23,3

0,68 28,2

1,32 33,2

1,71 36,4

2,06 39,4

2,49 43,0

2,80 45,6

25

t *2

0,0 24,3

0,68 29,3

1,32 34,4

1,71 37,7

2,06 40,6

2,48 44,3

2,79 46,9

26

t

0,0 25,3

0,68 30,4

1,32 35,6

1,71 38,9

2,06 41,9

2,48 45,6

2,78 48,3

27

t *2

0,0 26,3

0,68 31,5

1,31 36,7

1,70 40,1

2,05 43,2

2,47 47,0

2,77 49,6

28

t z2

0,0 27,3

0,68 32,6

1,31 37,9

1,70 41,3

2,05 44,5

2,47 48,3

2,76 51,0

29

t

0,0 28,3

0,68 33,7

1,31 39,1

1,70 42,6

2,04 45,7

2,46 49,6

2,76 52,3

30

t z2

0,0 29,3

0,68 34,8

1,31 40,3

1,70 43,8

2,04 47,0

2,46 50,9

2,75 53,7

40

t

0,0

0,68

1,30

1,68

2,02

2,42

2,70

50

t

0,0

0,68

1,30

1,68

2,01

2,40

2,68

100

t

0,0

0,68

1,29

1,66

1,98

2,36

2,63

oo

t = z,N(0,l)

0,0

0,67

1,28

1,64

1,96

2,33

2,58

Tab. T-l : Quantité der t- und der χ2- Verteilung (sowie der Normalverteilung)* * s. Erläuterungen im Text

r-

•^t τ - —

Tt*^o"ON*

ro* «n t~-*

fN

m

^

^

ON

Tf ^ ON

R - ΑΟ OO F I ^f C N C N O N