Vertriebsprognosen: Methoden für die Praxis [2. Auflage] 3658428759, 9783658428754, 9783658428761

Vertriebsprognosen oder "Forecasts" sind das Handwerkszeug jeder Verkaufsorganisation. Doch lediglich der so g

122 89 4MB

German Pages 302 Year 2023

Report DMCA / Copyright

DOWNLOAD PDF FILE

Table of contents :
Inhaltsverzeichnis
Abkürzungsverzeichnis
Abbildungsverzeichnis
Tabellenverzeichnis
1 Prognosen: Vom Orakel zum Planungsinstrument
1.1 Was haben Gott, ein Vulkanausbruch und die Maya mit Prognosen zu tun?
1.2 Der Prognosebegriff und was Karl Popper damit zu tun hat
1.3 Wem und wofür nutzt dieses Buch?
1.4 Wie ist das Buch aufgebaut?
2 Was über Vertriebsprognosen als Instrument der Vertriebssteuerung bekannt sein sollte
2.1 Prognoseprozess und Prognosesystem
2.2 Prognosehorizont und -intervall
2.3 Absatzprognosen als Grundlage der Unternehmens- und Vertriebsplanung
3 Was macht eine Prognose zu einer guten Prognose?
3.1 Erfolgsfaktor 1: Fähigkeiten, Commitment und organisatorische Einbindung des Forecast-Prozesses
3.2 Erfolgsfaktor 2: Gestaltung des Prognoseprozesses im Unternehmen
3.3 Erfolgsfaktor 3: Methodenwettbewerb
3.4 Erfolgsfaktor 4: Kombination verschiedener Forecasts
3.5 Erfolgsfaktor 5: Nach- bzw. Adjustieren
3.6 Erfolgsfaktor 6: Qualitätskontrolle
4 Was verdirbt die Qualität der Prognose?
4.1 Vorsicht Mogelpackung! Die Banalprognose
4.2 Fehler bei der Verarbeitung von Vergangenheitswerten
4.3 Fehlerhafte Interpretation und Präsentation der Prognosen
4.4 Wahrnehmungsverzerrungen und Heuristiken
4.4.1 Wahrnehmungsverzerrungen im Kontext von Prognosen
4.4.2 Heuristiken im Kontext der Prognose
4.4.3 Gefahren intuitiver Prognosen
4.4.4 Widerstand gegen algorithmenbasierte Prognosen
4.4.5 Reduzierung des Einflusses von Wahrnehmungsverzerrungen auf die Prognose
4.5 „Ausreißer“ und warum sie den Blick in die Zukunft verzerren
5 Die Auswahl der richtigen Prognosetechnik
5.1 Grundregeln der Methodenwahl
5.2 Die fünf wichtigsten Kriterien für die Auswahl der besten Prognosetechnik
5.2.1 Bedarf: Welche Prognose wird benötigt?
5.2.2 Genauigkeit: Wie präzise ist präzise genug?
5.2.3 Kosten: Welcher Aufwand ist gerechtfertigt?
5.2.4 Inputdaten: Welche Daten stehen zur Verfügung?
5.2.5 Expertise: Was kann der Forecaster? Was kann das Team?
5.3 Die typischen Anwendungen bekannter Prognosemethoden
6 Messung der Qualität von Prognosen
6.1 Woraus besteht ein Messsystem für die Prognosequalität?
6.2 Kriterien für die objektive Messung der Prognosequalität
6.3 Relative Beurteilung der Prognosequalität
6.4 Kumulative Prognosefehler
7 Prognosen für Eilige: Naive Forecasts und ihre Rolle als Referenz
8 Prognosen für Statistiker: Forecasts mithilfe statistischer Methoden
8.1 Was ist bei Zeitreihenanalysen zu beachten?
8.2 „Quick and dirty“: Die Trendfortschreibung
8.2.1 Extrapolation des Durchschnittswertes
8.2.2 Gleitender Durchschnitt
8.2.3 Berücksichtigung von Zyklen, insbesondere saisonalen Schwankungen
8.3 Trendfortschreibung mithilfe der exponentiellen Glättung
8.4 Es geht immer noch komplizierter: Ökonometrische Modelle und Regressionen
9 Prognosen als Managementtool: Der rollierende Forecast
9.1 Das Grundmodell des rollierenden Forecasts
9.1.1 Aktualisierung des rollierenden Forecasts
9.1.2 Nutzung des rollierenden Forecasts als bereichsspezifische Planungsgrundlage
9.1.3 Immanente Nachteile des rollierenden Forecasts
9.2 Optimierung des Grundmodells des rollierenden Forecasts
9.2.1 Adjustierung mithilfe des Basislevels
9.2.2 Objektive Inputdaten des rollierenden Forecasts
9.2.3 Geschätzte Inputdaten des rollierenden Forecasts
9.2.4 Ist es sinnvoll, die Prognosequalität zu prämieren?
9.2.5 Bedeutung von Loss-Order-Reports
10 Prognosen auf Grundlage individueller Expertise
10.1 Grundsätzliche Überlegungen zur individuellen expertengestützten Prognose
10.2 Institutionalisierte Estimation Group
10.3 Delphi-Befragung
11 Prognosetechniken für spezielle Anwendungsfälle
11.1 Prognosen auf Basis von Kundenkaufverhalten bzw. -rezensionen und was das mit Big Data zu tun hat
11.2 Prognosen auf Basis von Marktanalysen
11.3 Szenario-Technik als Prognosemethode für Workshops und andere einmalige Anlässe
11.4 Prognosen für neue Produkte und in Start-up-Situationen
11.4.1 Prognosen für neue Aktivitäten in der Ideenphase
11.4.2 Prognosen für neue Aktivitäten in der Entwicklungsphase
11.4.3 Prognosen für neue Aktivitäten in der Einführungsphase
11.5 Der Einfluss der KI auf die Prognostik
12 Schlusswort – eine Prognose der Prognose
Literatur
Stichwortverzeichnis
Recommend Papers

Vertriebsprognosen: Methoden für die Praxis [2. Auflage]
 3658428759, 9783658428754, 9783658428761

  • 0 0 0
  • Like this paper and download? You can publish your own PDF file online for free in a few minutes! Sign Up
File loading please wait...
Citation preview

Jörg B. Kühnapfel

Vertriebsprognosen Methoden für die Praxis 2. Auflage

Vertriebsprognosen

Jörg B. Kühnapfel

Vertriebsprognosen Methoden für die Praxis 2. Auflage

Jörg B. Kühnapfel Wiesbaden, Deutschland

ISBN 978-3-658-42875-4 ISBN 978-3-658-42876-1  (eBook) https://doi.org/10.1007/978-3-658-42876-1 Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http://dnb.d-nb.de abrufbar. © Der/die Herausgeber bzw. der/die Autor(en), exklusiv lizenziert an Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2015, 2023 Das Werk einschließlich aller seiner Teile ist urheberrechtlich geschützt. Jede Verwertung, die nicht ausdrücklich vom Urheberrechtsgesetz zugelassen ist, bedarf der vorherigen Zustimmung des Verlags. Das gilt insbesondere für Vervielfältigungen, Bearbeitungen, Übersetzungen, Mikroverfilmungen und die Einspeicherung und Verarbeitung in elektronischen Systemen. Die Wiedergabe von allgemein beschreibenden Bezeichnungen, Marken, Unternehmensnamen etc. in diesem Werk bedeutet nicht, dass diese frei durch jedermann benutzt werden dürfen. Die Berechtigung zur Benutzung unterliegt, auch ohne gesonderten Hinweis hierzu, den Regeln des Markenrechts. Die Rechte des jeweiligen Zeicheninhabers sind zu beachten. Der Verlag, die Autoren und die Herausgeber gehen davon aus, dass die Angaben und Informationen in diesem Werk zum Zeitpunkt der Veröffentlichung vollständig und korrekt sind. Weder der Verlag noch die Autoren oder die Herausgeber übernehmen, ausdrücklich oder implizit, Gewähr für den Inhalt des Werkes, etwaige Fehler oder Äußerungen. Der Verlag bleibt im Hinblick auf geografische Zuordnungen und Gebietsbezeichnungen in veröffentlichten Karten und Institutionsadressen neutral. Planung/Lektorat: Irene Buttkus Springer Gabler ist ein Imprint der eingetragenen Gesellschaft Springer Fachmedien Wiesbaden GmbH und ist ein Teil von Springer Nature. Die Anschrift der Gesellschaft ist: Abraham-Lincoln-Str. 46, 65189 Wiesbaden, Germany Das Papier dieses Produkts ist recyclebar.

Inhaltsverzeichnis

1

Prognosen: Vom Orakel zum Planungsinstrument. . . . . . . . . . . . . . . . . . . . 1 1.1 Was haben Gott, ein Vulkanausbruch und die Maya mit Prognosen zu tun? . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 1.2 Der Prognosebegriff und was Karl Popper damit zu tun hat. . . . . . . . . . 6 1.3 Wem und wofür nutzt dieses Buch?. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12 1.4 Wie ist das Buch aufgebaut?. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14

2

Was über Vertriebsprognosen als Instrument der Vertriebssteuerung bekannt sein sollte. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15 2.1 Prognoseprozess und Prognosesystem. . . . . . . . . . . . . . . . . . . . . . . . . . . 15 2.2 Prognosehorizont und -intervall. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21 2.3 Absatzprognosen als Grundlage der Unternehmens- und Vertriebsplanung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21

3

Was macht eine Prognose zu einer guten Prognose?. . . . . . . . . . . . . . . . . . . 27 3.1 Erfolgsfaktor 1: Fähigkeiten, Commitment und organisatorische Einbindung des Forecast-Prozesses. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28 3.2 Erfolgsfaktor 2: Gestaltung des Prognoseprozesses im Unternehmen. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32 3.3 Erfolgsfaktor 3: Methodenwettbewerb . . . . . . . . . . . . . . . . . . . . . . . . . . 43 3.4 Erfolgsfaktor 4: Kombination verschiedener Forecasts. . . . . . . . . . . . . . 48 3.5 Erfolgsfaktor 5: Nach- bzw. Adjustieren. . . . . . . . . . . . . . . . . . . . . . . . . 52 3.6 Erfolgsfaktor 6: Qualitätskontrolle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58

4

Was verdirbt die Qualität der Prognose?. . . . . . . . . . . . . . . . . . . . . . . . . . . . 61 4.1 Vorsicht Mogelpackung! Die Banalprognose . . . . . . . . . . . . . . . . . . . . . 62 4.2 Fehler bei der Verarbeitung von Vergangenheitswerten . . . . . . . . . . . . . 63 4.3 Fehlerhafte Interpretation und Präsentation der Prognosen. . . . . . . . . . . 72 4.4 Wahrnehmungsverzerrungen und Heuristiken. . . . . . . . . . . . . . . . . . . . . 74 4.4.1 Wahrnehmungsverzerrungen im Kontext von Prognosen. . . . . 75 4.4.2 Heuristiken im Kontext der Prognose . . . . . . . . . . . . . . . . . . . . 82 V

VI

Inhaltsverzeichnis

4.4.3 4.4.4 4.4.5 4.5

Gefahren intuitiver Prognosen. . . . . . . . . . . . . . . . . . . . . . . . . . 86 Widerstand gegen algorithmenbasierte Prognosen . . . . . . . . . . 89 Reduzierung des Einflusses von Wahrnehmungsverzerrungen auf die Prognose. . . . . . . . . . . . . 91 „Ausreißer“ und warum sie den Blick in die Zukunft verzerren. . . . . . . 95

5

Die Auswahl der richtigen Prognosetechnik. . . . . . . . . . . . . . . . . . . . . . . . . . 107 5.1 Grundregeln der Methodenwahl . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108 5.2 Die fünf wichtigsten Kriterien für die Auswahl der besten Prognosetechnik. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111 5.2.1 Bedarf: Welche Prognose wird benötigt?. . . . . . . . . . . . . . . . . . 113 5.2.2 Genauigkeit: Wie präzise ist präzise genug?. . . . . . . . . . . . . . . 114 5.2.3 Kosten: Welcher Aufwand ist gerechtfertigt? . . . . . . . . . . . . . . 118 5.2.4 Inputdaten: Welche Daten stehen zur Verfügung?. . . . . . . . . . . 119 5.2.5 Expertise: Was kann der Forecaster? Was kann das Team? . . . 120 5.3 Die typischen Anwendungen bekannter Prognosemethoden . . . . . . . . . 121

6

Messung der Qualität von Prognosen. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131 6.1 Woraus besteht ein Messsystem für die Prognosequalität?. . . . . . . . . . . 132 6.2 Kriterien für die objektive Messung der Prognosequalität . . . . . . . . . . . 133 6.3 Relative Beurteilung der Prognosequalität . . . . . . . . . . . . . . . . . . . . . . . 140 6.4 Kumulative Prognosefehler . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 142

7

Prognosen für Eilige: Naive Forecasts und ihre Rolle als Referenz. . . . . . . 145

8

Prognosen für Statistiker: Forecasts mithilfe statistischer Methoden. . . . . 151 8.1 Was ist bei Zeitreihenanalysen zu beachten?. . . . . . . . . . . . . . . . . . . . . . 152 8.2 „Quick and dirty“: Die Trendfortschreibung. . . . . . . . . . . . . . . . . . . . . . 162 8.2.1 Extrapolation des Durchschnittswertes. . . . . . . . . . . . . . . . . . . 164 8.2.2 Gleitender Durchschnitt. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 166 8.2.3 Berücksichtigung von Zyklen, insbesondere saisonalen Schwankungen. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 170 8.3 Trendfortschreibung mithilfe der exponentiellen Glättung. . . . . . . . . . . 174 8.4 Es geht immer noch komplizierter: Ökonometrische Modelle und Regressionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 186

9

Prognosen als Managementtool: Der rollierende Forecast. . . . . . . . . . . . . . 193 9.1 Das Grundmodell des rollierenden Forecasts . . . . . . . . . . . . . . . . . . . . . 194 9.1.1 Aktualisierung des rollierenden Forecasts. . . . . . . . . . . . . . . . . 197 9.1.2 Nutzung des rollierenden Forecasts als bereichsspezifische Planungsgrundlage. . . . . . . . . . . . . . . . . . . 199 9.1.3 Immanente Nachteile des rollierenden Forecasts. . . . . . . . . . . . 200 9.2 Optimierung des Grundmodells des rollierenden Forecasts . . . . . . . . . . 204 9.2.1 Adjustierung mithilfe des Basislevels . . . . . . . . . . . . . . . . . . . . 206

Inhaltsverzeichnis

9.2.2 9.2.3 9.2.4 9.2.5

VII

Objektive Inputdaten des rollierenden Forecasts. . . . . . . . . . . . 211 Geschätzte Inputdaten des rollierenden Forecasts . . . . . . . . . . 213 Ist es sinnvoll, die Prognosequalität zu prämieren?. . . . . . . . . . 221 Bedeutung von Loss-Order-Reports . . . . . . . . . . . . . . . . . . . . . 221

10 Prognosen auf Grundlage individueller Expertise. . . . . . . . . . . . . . . . . . . . . 223 10.1 Grundsätzliche Überlegungen zur individuellen expertengestützten Prognose. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 226 10.2 Institutionalisierte Estimation Group. . . . . . . . . . . . . . . . . . . . . . . . . . . . 231 10.3 Delphi-Befragung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 233 11 Prognosetechniken für spezielle Anwendungsfälle . . . . . . . . . . . . . . . . . . . . 239 11.1 Prognosen auf Basis von Kundenkaufverhalten bzw. -rezensionen und was das mit Big Data zu tun hat. . . . . . . . . . . . . . . . . . . . . . . . . . . . 239 11.2 Prognosen auf Basis von Marktanalysen. . . . . . . . . . . . . . . . . . . . . . . . . 241 11.3 Szenario-Technik als Prognosemethode für Workshops und andere einmalige Anlässe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 245 11.4 Prognosen für neue Produkte und in Start-up-Situationen . . . . . . . . . . . 250 11.4.1 Prognosen für neue Aktivitäten in der Ideenphase. . . . . . . . . . . 253 11.4.2 Prognosen für neue Aktivitäten in der Entwicklungsphase. . . . 254 11.4.3 Prognosen für neue Aktivitäten in der Einführungsphase. . . . . 257 11.5 Der Einfluss der KI auf die Prognostik . . . . . . . . . . . . . . . . . . . . . . . . . . 262 12 Schlusswort – eine Prognose der Prognose. . . . . . . . . . . . . . . . . . . . . . . . . . . 265 Literatur. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 267 Stichwortverzeichnis. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 289

Abkürzungsverzeichnis

a.a.O. Am angegebenen Orte Abb. Abbildung AEW Abschlusswahrscheinlichkeit b2b Business-to-business b2c Business-to-consumer bspw. Beispielsweise bzgl. bezüglich ca. zirka CPFR Collaborative Planning, Forecasting und Replenishment DIW Deutsche Institut für Wirtschaftsforschung ebd. Ebenda ERP Enterprise Resource Planning Systems, z. B. SAP R/3 Ex-pon. Gltg. Exponentielle Glättung, exponential Smoothing FC Forecast ff. Fortfolgende (Seiten) FTE Full Time Employee-Equivalent GfK Gesellschaft für Konsumforschung SE, Nürnberg Hrsg. Herausgeber i.d.R. In der Regel KI Künstliche Intelligenz MAE Mean average error, durchschnittlicher absoluter Fehler MAPE Mean average percentage error, durchschnittlicher absoluter prozentualer Fehler max. maximal ME Mean error, durchschnittlicher Fehler NERD Engl. Genre-Bezeichnung für „technikbegeisterten Fachidioten“ oder „Computerfreak“ NPS Net Promoter Score o.O. Ohne Ort o.V. Ohne Verfasser IX

X

S. Seite SD Standard Deviation, Standardabweichung VKF Verkaufsförderung vs. versus W’keit Wahrscheinlichkeit Wertem Wertemuster

Abkürzungsverzeichnis

Abbildungsverzeichnis

Abb. 2.1 Abb. 2.2 Abb. 3.1 Abb. 3.2 Abb. 3.3 Abb. 3.4 Abb. 3.5 Abb. 3.6 Abb. 3.7 Abb. 3.8 Abb. 4.1 Abb. 4.2 Abb. 4.3 Abb. 4.4 Abb. 4.5 Abb. 4.6 Abb. 4.7 Abb. 4.8 Abb. 4.9 Abb. 5.1 Abb. 5.2 Abb. 5.3 Abb. 5.4

Darstellung eines exemplarischen Prognoseprozesses. . . . . . . . . . . . . . 19 Bekannte und unbekannte Aspekte für die Erstellung einer guten Prognose. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20 Einflussfaktoren auf den Prozess der Absatzplanung nach Homburg et al., 2008 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32 Normprozess zur Erstellung einer Prognose . . . . . . . . . . . . . . . . . . . . . 34 Prognoseprozessschritt 1: Vorbereitung und Überprüfung. . . . . . . . . . . 35 Prognoseprozessschritt 2: Erfassung und Aufbereitung von Inputdaten. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37 Prognoseprozessschritt 3: Durchführung der Methode(n). . . . . . . . . . . 38 Prognoseprozessschritt 4: Präsentation und Nutzung der Outputdaten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43 Stufen der möglichen Nachjustierung von Forecasts. . . . . . . . . . . . . . . 58 Temporärer Trichter des Prognosefehlers eines rollierenden Forecasts. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59 Korrelation von Werten mit der Zeit. . . . . . . . . . . . . . . . . . . . . . . . . . . . 64 Einmaliger Ausreißer. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97 Unklare einmalige Ausreißer. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97 Selbst korrigierender Ausreißer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98 Niveauverschiebender Ausreißer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99 Ausreißer mit allmählicher Trendnormalisierung . . . . . . . . . . . . . . . . . 100 Saisonaler Ausreißer. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101 Trendverändernder Ausreißer. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102 Trendzerstörender Ausreißer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103 Eintrittswahrscheinlichkeiten des Folgejahrumsatzes mit ungleichmäßiger Verteilung. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117 Nutzung von Forecast-Verfahren in US-amerikanischen Unternehmen nach Cron & Decarlo, 2010, S. 63. . . . . . . . . . . . . . . . . . 123 Klassifikation von Prognoseverfahren . . . . . . . . . . . . . . . . . . . . . . . . . . 127 Entscheidungsbaum zur Auswahl einer Prognosemethode . . . . . . . . . . 129 XI

XII

Abb. 6.1 Abb. 6.2 Abb. 6.3 Abb. 6.4 Abb. 6.5 Abb. 7.1 Abb. 7.2 Abb. 7.3 Abb. 7.4 Abb. 8.1 Abb. 8.2 Abb. 8.3 Abb. 8.4 Abb. 8.5 Abb. 8.6 Abb. 8.7 Abb. 8.8 Abb. 8.9 Abb. 8.10 Abb. 8.11 Abb. 8.12 Abb. 8.13 Abb. 8.14 Abb. 8.15 Abb. 8.16 Abb. 8.17 Abb. 8.18 Abb. 8.19 Abb. 8.20 Abb. 8.21 Abb. 8.22 Abb. 8.23 Abb. 9.1 Abb. 9.2 Abb. 9.3

Abbildungsverzeichnis

Genauigkeitsmaße für Prognosen nach Silver, 2012 . . . . . . . . . . . . . . . 136 Schema der Darstellung von Prognosequalität. . . . . . . . . . . . . . . . . . . . 137 Abweichung von Prognosewerten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 138 Analyse der Prognosequalität einer Methode mit Hilfe des MAPE. . . . 140 Kumulierter Forecast im Konzern . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 145 Naiver Forecast, Basismodell. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 148 Naiver Forecast mit zeitlich verschobener Prognose. . . . . . . . . . . . . . . 149 Vergleich dreier Arten, einen naiven Forecast zu erstellen. . . . . . . . . . . 150 Naiver Forecast, trendextrapoliert, mit zeitlich verschobener Prognose. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 151 Beschreibende Elemente des Verlaufs einer Zeitreihe. . . . . . . . . . . . . . 156 Arten von Trends von Zeitreihen. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 157 Arten saisonaler Verläufe von Zeitreihen. . . . . . . . . . . . . . . . . . . . . . . . 158 Unterbrochener Verlauf (Trend) einer Zeitreihe. . . . . . . . . . . . . . . . . . . 158 Zufälliger Verlauf (Trend) einer Zeitreihe . . . . . . . . . . . . . . . . . . . . . . . 159 Umsatzverlauf mit Ausreißern. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 161 Adjustierung von Ausreißern. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 163 Streuung einer Variablen auf der Zeitachse . . . . . . . . . . . . . . . . . . . . . . 165 Prognosewertkorridor. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 165 Extrapolation auf Basis des Durchschnittswertes, Beispiel 1 . . . . . . . . 166 Extrapolation auf Basis des Durchschnittswertes, Beispiel 2 . . . . . . . . 167 Zeitreihenanalyse auf Basis des gleitenden Durchschnitts. . . . . . . . . . . 170 Gleitender Durchschnitt (3 Werte) mit linearer Trendextrapolation für 10 Wochen. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 171 Vergleich der Trendextrapolationen auf Basis unterschiedlicher gleitender Durchschnitte. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 171 Zeitreihe für Umsätze in einer Spielwarenfiliale. . . . . . . . . . . . . . . . . . 173 Lineare Trendextrapolation des Umsatzes des Spielwarenhändlers. . . . 174 Adjustierte, saisonbereinigte Prognose . . . . . . . . . . . . . . . . . . . . . . . . . 176 Glättung einer Zeitreihe mit Alpha = 0,1. . . . . . . . . . . . . . . . . . . . . . . . 179 Glättung einer Zeitreihe mit Alpha = 0,4. . . . . . . . . . . . . . . . . . . . . . . . 179 Glättung einer Zeitreihe mit Alpha = 0,4, Trendextrapolation mithilfe einer Polynomfunktion. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 180 Adaptive exponentielle Glättung mit Alpha-Werten 0,1 und 0,5 sowie Trendextrapolationen. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 181 Doppelte exponentielle Glättung mit Alpha-Wert 0,2 . . . . . . . . . . . . . . 185 Korrelationen zwischen abhängiger und unabhängiger Variable am Beispiel unbändiger Sauferei. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 191 Verkäuferspezifische Auswertung des rollierenden Forecasts. . . . . . . . 201 Kundenspezifische Auswertung des rollierenden Forecasts. . . . . . . . . . 202 Auswertung des rollierenden Forecasts nach Auftragseingangswahrscheinlichkeiten . . . . . . . . . . . . . . . . . . . . . . . . . 202

Abbildungsverzeichnis

Abb. 9.4 Abb. 9.5 Abb. 9.6 Abb. 9.7 Abb. 11.1 Abb. 11.2 Abb. 11.3 Abb. 11.4

XIII

Vergleich von Auftrags- und mit der Auftragseingangswahrscheinlichkeit gewichteten Forecast-Werten . . . 203 Forecast je Produkt bzw. Projektart nach Auftragseingangszeitpunkt. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 203 Forecast je Produkt bzw. je Projektart . . . . . . . . . . . . . . . . . . . . . . . . . . 204 Monatliche absolute Abweichung des Forecast-Wertes vom Basislevel. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 210 Typische Verläufe von Absatzfunktionen neuer Produkte . . . . . . . . . . . 257 Adaption des Net Promoter Scores auf Prognosen in der Entwicklungsphase. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 260 Fortsetzung des Verkaufserfolgs eines neuen Produktes nach einer Einführungsphase (Verlaufsform 1) . . . . . . . . . . . . . . . . . . . . . . . 261 Fortsetzung des Verkaufserfolgs eines neuen Produktes nach einer Einführungsphase (Verlaufsform 2) . . . . . . . . . . . . . . . . . . . . . . . 262

Tabellenverzeichnis

Tab. 3.1 Tab. 3.2 Tab. 3.3 Tab. 3.4 Tab. 3.5 Tab. 3.6 Tab. 4.1 Tab. 4.2 Tab. 4.3 Tab. 4.4 Tab. 5.1 Tab. 5.2

Tab. 5.3 Tab. 5.4 Tab. 5.5 Tab. 5.6 Tab. 5.7 Tab. 6.1 Tab. 6.2 Tab. 6.3 Tab. 7.1 Tab. 7.2

Gestaltungsprinzipien für Schritt 1 eines erfolgreichen Forecasts. . . . . . 36 Gestaltungsprinzipien für Schritt 2 eines erfolgreichen Forecasts. . . . . . 37 Gestaltungsprinzipien für Schritt 3 eines erfolgreichen Forecasts. . . . . . 39 Gestaltungsprinzipien für Schritt 4 eines erfolgreichen Forecasts. . . . . . 43 Ergebnisse des M3-Wettbewerbs von Makridakis, entnommen aus Morlidge, 2014. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46 Berechnung einer gewichteten Prognose. . . . . . . . . . . . . . . . . . . . . . . . . 50 Effekte des Over- vs. Underfittings. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67 Basisquoten als Vergleichsmaßstab. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69 Qualitätsstufen von Intuitionen im Kontext von Prognosen . . . . . . . . . . 88 Reduzierung des Einflusses von Verzerrungen im Prognoseprozess. . . . 93 Kriterien für die Auswahl einer Prognosemethode. . . . . . . . . . . . . . . . . 112 Bedeutung der Kriterien für die Auswahl einer Prognosemethode, Umfrage von Yokum und Armstrong (Yokum & Armstrong, 1995, Hüttner, 1986, S. 278). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113 Angabe von Eintrittswahrscheinlichkeiten für Prognosewerte, hier Umsatzabschätzung. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 116 Nutzung von Forecast-Methoden nach Dalrymple (Dalrymple, 1987) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 122 Klassifikation von Prognoseverfahren nach Makridakis (Makridakis, et al., 1980, S. 43). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 125 Vor- und Nachteile quantitativer Forecast-Methoden . . . . . . . . . . . . . . . 127 Vor- und Nachteile qualitativer Forecast-Methoden . . . . . . . . . . . . . . . . 128 Abweichung von Prognosewerten. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 138 Absolute Abweichung von Prognosewerten, ME . . . . . . . . . . . . . . . . . . 139 Relative Abweichung von Prognosewerten, MAPE . . . . . . . . . . . . . . . . 140 Naiver Forecast unter Berücksichtigung des letzten Periodenwachstums. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 149 Naiver Forecast unter Berücksichtigung des durchschnittlichen letzten Wachstums der letzten drei Perioden. . . . . . . . . . . . . . . . . . . . . . 149 XV

XVI

Tab. 8.1 Tab. 8.2

Tabellenverzeichnis

Gründe für bzw. Typen von Ausreißer(n). . . . . . . . . . . . . . . . . . . . . . . . . 160 Berechnung des durchschnittlichen relativen Prognosefehlers (MAPE) in Beispiel 2. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 168 Tab. 8.3 Zeitreihenanalyse auf Basis des gleitenden Durchschnitts . . . . . . . . . . . 169 Tab. 8.4 Adjustierung einer Prognose um saisonale Einflüsse . . . . . . . . . . . . . . . 175 Tab. 8.5 Doppelte exponentielle Glättung mit Alpha-Wert 0,2. . . . . . . . . . . . . . . 184 Tab. 9.1 Beispiel für einen rollierenden Forecast auf Basis der Einschätzung von Verkaufsinstanzen. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 197 Tab. 9.2 Forecast-Wert im Vergleich zum Basislevel. . . . . . . . . . . . . . . . . . . . . . . 210 Tab. 9.3 Zuweisung von Wertekorridoren für die Bewertung der Auftragseingangswahrscheinlichkeit. . . . . . . . . . . . . . . . . . . . . . . . . . . . 222 Tab. 11.1 Beispiele tendenziöser Prognosen für neue Aktivitäten. . . . . . . . . . . . . . 254

1

Prognosen: Vom Orakel zum Planungsinstrument

Am 7. März 2013 trug Schawarsch Karampetjan die olympische Fackel auf dem Weg nach Sotschi, wo das Feuer im Februar 2014 entflammt werden sollte und letztlich auch wurde. Prompt ging ihm die Fackel aus, weil ein Ventil der Gasfackel defekt war. Sofort wurde in diversen Blogs kommentiert, dass es sich um ein „schlechtes Omen“ für den Verlauf der Spiele handeln würde, und zahlreiche Tageszeitungen und Nachrichtenagenturen griffen dies auf: Das Erlöschen des olympischen Feuers sei ein schlechtes Vorzeichen, die olympischen Winterspiele stünden unter einem „schlechten Stern“. War das schon eine Prognose? Nun, in gewissem Sinne ja, wenn auch eine sehr unspezifische. Aus dem Auftreten einer bestimmten Konstellation von Merkmalen (Fackel erlischt) wurde auf den Verlauf eines in der Zukunft liegenden Ereignisses (Olympische Winterspiele) geschlossen, jedoch die erwartete Störung nicht spezifiziert. Nun, wie wir mittlerweile wissen, war die Prognose falsch. Die Spiele verliefen störungsfrei. Hinterher sind wir immer schlauer. Ungewöhnlich war es keineswegs, aus einem Vorfall auf den Verlauf eines späteren Ereignisses zu schließen. So ein Vorgehen nennen wir „Kausalkette“: Wenn dieses passiert, dann geschieht jenes. So versuchen wir, Zukunft berechenbar zu machen. Zwar werfen wir keine Hühnerknochen mehr, interpretieren nicht mehr Eingeweide erbeuteter Tiere und stammeln uns nicht mehr irgendeinen Schmarren aus der Konstellation der Gestirne zusammen. Oder doch? Wir rubbeln unseren Glücksbringer, tragen die Erfolgssocken oder stecken uns den Glückspfennig in die Tasche, wenn wir zur entscheidenden Präsentation unseres Angebots zum Kunden fahren. Der Glaube an solcherlei erhoffte oder befürchtete Kausalitäten ist offensichtlich tief in unserem Innersten verwurzelt. Natürlich – jedenfalls wünsche ich es uns – verlassen wir uns nicht auf solche Orakel. Es ist zu ungewiss, ob der Glückspfennig wirklich erfolgsbeeinflussend ist. Vermutlich ist er es nicht, und dass wir ihn dennoch einstecken, hat nur einen Grund: „Man kann nie wissen“ und die Kosten dieser Maßnahme sind marginal. Also: Rubbeln Sie auch © Der/die Herausgeber bzw. der/die Autor(en), exklusiv lizenziert an Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2023 J. B. Kühnapfel, Vertriebsprognosen, https://doi.org/10.1007/978-3-658-42876-1_1

1

2

1  Prognosen: Vom Orakel zum Planungsinstrument

­ eiterhin an was auch immer, ziehen Sie an, was Sie möchten und tun Sie, was immer w Sie tun möchten, um sich besser und für die individuelle Zukunft gerüstet zu fühlen. Es schadet sicherlich nicht und vielleicht beeinflusst Ihre Selbstsicherheit, die Sie aus Ihrem Glückspfennig gewinnen, sogar die Zukunft. Doch das ist ein anderes Thema. Hier geht es um Prognosen, um die Abschätzung von Zuständen, Ereignissen oder Werten, die erst in der Zukunft eintreten. Wir wissen es noch nicht. Aber wir möchten es wissen. Wir möchten heute Handlungen entscheiden, die uns auf die Zukunft vorbereiten und diese gestalten. Ist nichts zu entscheiden, ist auch das Wissen um die Zukunft irrelevant. Haben diese Entscheidungen keinen Einfluss auf die Zukunft, ist die Prognose der Handlungsfolgen ebenso irrelevant. Aber im „Normalfall“ gibt es eine Wirkungsbeziehung: Eine Entscheidung induziert eine Handlung und deren Folgen beeinflusst die Zukunft oder wirkt sich für uns in der Zukunft günstig oder weniger günstig aus. u

Darum prognostizieren wir: Wir wollen wissen, welchen Nutzen in der Zukunft unsere aktuellen Entscheidungen und Handlungen bringen.

Natürlich wissen wir, dass die Zukunft außer durch unsere Entscheidung und durch die damit beschlossenen Handlungen auch von anderen Parametern bestimmt wird, die wir nicht beeinflussen können (Entscheidungen anderer, allgemeine Störereignisse, Verschiebung der persönlichen Prioritäten, Veränderungen der Rahmenbedingungen usw.). Wir können auch nicht alle Verflechtungen und Wechselbeziehungen all der zukunftsbestimmenden Parameter abschätzen, ja, wir ahnen oft nicht einmal, welche Parameter relevant sind. Und so bleibt unsere Prognose immer nur ein Versuch, Sicherheit zu gewinnen. Wir „schätzen“ nur einen Verlauf der Zukunft, wir „schätzen“ nur die Wahrscheinlichkeit, mit der ein Zustand eintreten wird. Sicherheit gibt es nicht. Es ist immer nur eine wahrscheinliche Zukunft, und diese Wahrscheinlichkeit ist selbst Gegenstand einer Prognose: u

Jede Prognose beinhaltet immer auch die Abschätzung von Eintrittswahrscheinlichkeiten.

Die gute Nachricht ist, dass wir die Eintrittswahrscheinlichkeiten zukünftiger Zustände (Wirkung) verändern können, je nachdem, welche Entscheidungen (Ursache) wir treffen. Prognosen sind also nützlich, um unsere Handlungsfolgen abzuschätzen. Aber sie müssen auch verlässlich sein, denn nur dann werden wir uns trauen, unsere Handlungen damit zu begründen. Alles andere wäre nicht viel mehr wert, als auf den Glückspfennig oder die Glückssocken zu setzen. Dieses Buch handelt davon, wie eine nützliche, gute Prognose erstellt werden kann. Es beschreibt, was eine gute Prognose ist, was sie kennzeichnet und welche Methoden es gibt, um sie zu erstellen. Es beschränkt sich auf wirtschaftliches Handeln, mehr noch, es beschränkt sich auf den Vertrieb. Das Feld ist weit und komplex genug, und wer eine

1.1  Was haben Gott, ein Vulkanausbruch und die Maya mit Prognosen zu tun?

3

Vertriebsprognose erstellen kann, kann auch – zumindest methodisch – Prognosen für alle andere Fragestellungen im unternehmerischen Umfeld erstellen.1 Also los.

1.1 Was haben Gott, ein Vulkanausbruch und die Maya mit Prognosen zu tun? Der Vulkan bricht aus. Der Lavastrom verschlingt Felder, Straßen, Häuser, Menschen. Ein wenig grummelte er schon in den letzten Tagen und Wochen, aber das tat er schon öfter. Warum ist er ausgebrochen? Gab es Anzeichen? Anzeichen dafür, dass es dieses Mal wirklich passiert? 19-mal ist der Vulkan nicht ausgebrochen, das 20. Mal ist es passiert. Was war dieses Mal anders? Wir suchen nach einer Ursache-Wirkungs-Beziehung und folglich nach Signalen, die diese Katastrophe in der Vergangenheit angekündigt haben. Solche Signale finden wir mal enger mit der Ursache verbunden und mal weniger eng. Im Falle des Vulkanausbruchs folgte in einem von 20 Fällen auf das Grummeln des Berges eine Katastrophe, die Eintrittswahrscheinlichkeit lag also bei 5 %. Aber niemals brach der Vulkan ohne vorheriges Grummeln aus. Grummeln ist also • einerseits ein verlässlicher Prädiktor, denn er ist eine notwendige, aber nicht hinreichende Bedingung für einen Ausbruch, • andererseits ist er ein schlechter Prädiktor, denn die Prognose eines Vulkanausbruchs ist zu unpräzise, wenn wir uns nur auf ihn stützen. Wir brauchen also mindestens einen zweiten Indikator, der in Kombination mit dem ersten zu einer präziseren, besseren Prognose führt. Wir werden Anstrengungen unternehmen müssen, um aus den Erkenntnissen für die Zukunft Sicherheit abzuleiten.2 Wenn wir aber keine weiteren Indikatoren finden, verirren wir uns schnell in das Reich der Mystik. Warum auch immer es sich so verhält, wir neigen, wenn wir keine zuverlässigen Prädiktoren finden, nicht etwa dazu, mit den Schultern zu zucken und uns auf den nächsten Ausbruch vorzubereiten, nein, wir neigen dazu, andere, höhere, Mächte zu bemühen. Wir schreiben einen Vulkanausbruch Wirkungszusammenhängen zu, die wir zu beeinflussen versuchen, z. B. der Willkür der Götter, welche wir durch Gebete oder Opfer zu besänftigen suchen. Gelingen tut das nicht. Nie! So erreichen wir keine Kontrolle über den Vulkan.

1  Und

wem diese Einführung gefiel, dem empfehle ich als Ergänzung die philosophische Abhandlung über „Die Kunst der Prognose“: McCloskey, 1992. 2 Weiterführend hierzu siehe Silver, 2012, S. 145.

4

1  Prognosen: Vom Orakel zum Planungsinstrument

Vor diesem Hintergrund haben wir vermeintlich zwei Möglichkeiten, um unsere Zukunft im Schatten des Vulkans planbarer zu machen: 1. Wir versuchen, den Vulkanausbruch durch gottgefälliges Handeln verhindern. 2. Wir interpretieren „Zeichen“, um den unvermittelten Ausbruch rechtzeitig vorauszusagen. Methode eins und Methode zwei beeinflussen sich (so die Hoffnung): Je mehr wir gottgefällig handeln (1), desto unwahrscheinlicher wird ein Ausbruch (2). Dieser Wirkungszusammenhang ist die Grundlage der meisten Rituale, Praktiken und Gebräuche, die wir in den Religionen dieser Welt finden. Es geht um die Prognose der Zukunft (2) und um die Entscheidung für Aktivitäten, deren Handlungsfolgen (1) wir abschätzen wollen. „Zufälle“ oder auch nur die Möglichkeit, dass selbst seltsam anmutende Ereignisse eine statistische Eintrittswahrscheinlichkeit haben und darum – wenn auch selten, so doch unvermeidbar – passieren, versuchen wir auszuklammern. Was nicht zu erklären war bzw. ist, wird göttlichen Wesen zugeschrieben. Wenn solche Wesen allerdings die Macht besitzen, unerklärliche und außergewöhnliche Dinge zu tun, sind sie gefährlich. Früher war eine solche Gefahr existentiell: Jeder Vulkanausbruch, jedes Unwetter, jeder Erdrutsch, jeder Waldbrand konnte vernichtend sein und das eigene Leben, das der Familie, des Dorfes usw. auslöschen. Es lag nahe, zu versuchen, die Unberechenbarkeit der Götter berechenbar zu machen. Dies sollte mittels Ritualen gelingen, Opfergaben, Gebeten, Tänzen, oder auf individueller, persönlicherer Ebene durch die Glücksbringer, die auch heute noch allgegenwärtig sind. Nützlich war (und ist) darüber hinaus ein Vermittler3, der einen Draht zu den gefährlichen Göttern besitzt und den Menschen erklärt, was sie tun müssen, um die Entscheidungen der Götter berechenbar zu machen. Nennen wir diesen Vermittler „Priester“. Und dieser Priester war (und ist) Prognostiker: „Wenn Ihr ein Lamm opfert, wird Gott Euch wohlgefällig sein!“ Damit ist auch jedem klar, was passieren wird, wenn kein Lamm geopfert wird. Hier handelt es sich um eine Prognose in Form einer kausalen „Wenn-dann“-Aussage, die eine Handlungsempfehlung beinhaltet.4 Vom Vermittler

3 Aus

Gründen der besseren Lesbarkeit verzichte ich auf Genderformen, sowohl die grammatisch eh nicht erlaubten als auch die Doppelnennungen einer weiblichen und einer männlichen Form. 4 Diesen Prognosen zu glauben, ist keineswegs naiv. Wir sollten nicht abschätzig über unsere ach so dummen Vorfahren den Kopf schütteln. Erkennen wir lieber an, wie fragil die Existenz und wie gering das Wissen über die Zusammenhänge der Natur waren und noch immer sind. Dennoch ist interessant, dass die Frage der Eintrittswahrscheinlichkeit der Folgen historisch so wenig beachtet wurde. Denn natürlich machten die Menschen die Erfahrung, dass eine bestimmte Zukunft zuweilen auch dann eintrat, wenn die Handlung, die laut Priester Voraussetzung dafür sein sollte, ausblieb. Der Vulkan brach z. B. nicht aus, obwohl kein Lamm geschlachtet wurde. Spätestens hier war klar: Das Lamm zu schlachten ist keine conditio sine qua non, um ein lavafreies Erntejahr zu bekommen. Der Ursache-Wirkungs-Zusammenhang konnte nicht bewiesen werden. Doch blieb sicherlich eine graduelle Bewertung der Situation in Form folgender Frage: Wie sehr senkt das Schlachten des Lamms die Wahrscheinlichkeit, dass der Vulkan ausbrechen wird?

1.1  Was haben Gott, ein Vulkanausbruch und die Maya mit Prognosen zu tun?

5

(Priester) empfohlene oder befohlene Handlungsanweisungen zur Beeinflussung des Willens unbegreiflicher Mächte („Tue dieses und die Götter werden in Erwägung ziehen, Dir wohlgefällig zu sein/Dich nicht zu bestrafen“) ist aber letztlich nichts anderes als eine Vorstufe für die Erkenntnis solcher Kausalzusammenhänge. Und je mehr Kausalzusammenhänge Menschen erkannten, desto weniger wurden Götter und mit Ihnen deren Vermittler, also die Priester, benötigt. Das Ende der Prophetie.5 Ein weiterer Aspekt spielt in diesem Zusammenhang eine Rolle. Er wird uns im Verlauf des Buches noch begegnen: Die Macht der Menge. Wenn alle in einem soziokulturellen Umfeld an etwas glauben, und sei es an die naturbeeinflussende Kraft eines Menschenopfers, an die prognostische Qualität geworfener Hühnerknochen oder an die Horoskope in Frauenzeitschriften, dann „muss ja etwas dran sein. All die anderen können nicht irren. Die Menge ist schlauer als ich alleine.“ Wie sehr aber auch Prognosen in die Irre führen können, die von Vielen oder gar Mehrheiten „geglaubt“ werden, zeigten all die wirren Voraussagen bzgl. der Ausbreitung des COVID-19-Virus. Dabei waren die ernsthaften, mit adäquaten Methoden erstellten Pandemieprognosen erstaunlich genau.6 Aber sie waren den Meisten nicht verständlich und komplexe Modelle lassen sich nie so leicht erklären, wie ein populistisches Narrativ, und sei es noch so dämlich, aufgegriffen und weitererzählt wird. Was hat das mit Prognosen im Sinne von Vertriebsforecasts zu tun? Zunächst müssen wir folgendes Axiom akzeptieren: u

Die Abschätzung zukünftiger Ereignisse und Ergebnisse ist Grundlage planvollen Handelns.

Das trifft immer zu, egal, ob es um die Bebauung eines Dinkelfeldes, die Jagd, ein Unternehmen oder eine Verkaufssituation geht. Anschließend müssen wir eine weitere Grundsätzlichkeit akzeptieren: u

Jedes denkbare zukünftige Ereignis ist das Resultat von Kausalzusammenhängen. Diese sind mehr oder weniger leicht zu verstehen, aber meist so komplex, dass wir sie nie vollständig begreifen können.

Das gilt sogar für ein Schachspiel: Es gibt keine Zufälle in diesem Spiel, keine Unklarheiten hinsichtlich der Regeln. Alle Figuren, deren Aktionsmöglichkeiten, das Handlungsfeld und sogar die Reihenfolge der Aktionen sind festgelegt. Jeder mögliche Zug

5 Um

den Begriff der Prognose von Futurologie, Prophezeiung, Perspektive und Utopie abzugrenzen, siehe Gisholt, 1976, S. 41–42. 6  Rahimi, et al., 2021, Luo, 2021 und Shakeel, et al., 2021. Eine Beschreibung der Prognosemodelle zur Steuerung von Behandlungskapazitäten liefert Grodd, et al., 2022. Zu gegenteiliger Erkenntnis im Falle der USA kommt allerdings Ionnidis, et al., 2022.

6

1  Prognosen: Vom Orakel zum Planungsinstrument

ist als Option vorhersagbar. Und doch ist der Ausgang einer Schachpartie unberechenbar, denn ein Spieler kann die Handlungen seines Gegners nicht prognostizieren. Er kann versuchen, Wahrscheinlichkeiten zu berechnen, mit denen seine Züge Handlungsfolgen – also Gegenzüge – hervorrufen. Doch nachdem jeder Spieler fünf Mal gezogen hat, kann es 102.000.000 verschiedene Stellungen geben. Sie alle zu berechnen, ist uns unmöglich. Also beschränken wir uns auf die wahrscheinlichen Stellungen und nehmen implizit eine Bewertung von 102 Mio. Prognoseergebnissen vor. Anschließend konzentrieren wir uns – je nach unserer Erfahrung und unserem intellektuellen Potenzial – auf die wahrscheinlichsten Stellungen. Das zuvor formulierte Axiom gilt also sogar hier, in einer Situation, bei der die Umweltbedingungen unveränderlich vorgegeben und lediglich die Handlungen des Gegners unvorhergesehen sind. Wie viel komplexer ist dann unsere reale Welt, in der es viele Gegner und keine stabile Umwelt gibt? Wenn wir nun heute schon wissen wollen, was uns morgen erwartet, müssen wir prognostizieren. Aber es gibt keine Vermittler, die wir benutzen können. Es gab sie nie, auch, wenn Unternehmensberater oder Priester den direkten Draht zur Zukunft versprechen. Sie haben ihn nicht. Wir sind auf uns gestellt. Und wir drohen heute wie früher in Fallen zu tappen, die uns Wahrnehmungsverzerrungen stellen, in jene, die uns glauben machen, dass das, was schon war, sich wiederholt und dass das, was „alle“ sagen, stimmt. Es stimmt. Vielleicht. Vielleicht aber auch nicht. Wollen wir unsere Existenz darauf verwetten?

1.2 Der Prognosebegriff und was Karl Popper damit zu tun hat Verkaufsprognosen sind der Ausgangspunkt zahlreicher Planungsprozesse. Die Schätzung, wie viel wir verkaufen werden, bestimmt, wie viele Stücke auf Lager liegen müssen. Dies wiederum bestimmt, wie viel produziert werden muss, was sich wiederum auf die Maschinenkapazitäten oder die einzukaufenden Vorleistungen auswirkt. Verkaufen wir Dienstleistungen, sieht diese Wirkungskette etwas anders aus, aber stets bleibt, dass die Verkaufsprognose wie der erste Dominostein wirkt.7 Doch oft genug werden Verkaufsprognosen in Unternehmen nicht ernst genommen. Ihnen wird allenfalls der Charakter von „Wetten“8 zugebilligt und die Planung erfolgt ohne ihre Berücksichtigung auf Basis von Zielvereinbarungen. Forecasts werden beispielsweise in erstaunlich wenigen Unternehmen überprüft und die Frage gestellt, wie gut die Qualität der Prognose war, warum es Abweichungen zum Ist gab und wie die Vorhersage in Zukunft verbessert werden kann.9 Aber was genau ist eigentlich eine Prognose?

7 Vgl.

hierzu Lewandowski, 1980, S. 7. 1980, S. 8. Vgl. hierzu auch Ord & Fildes, 2013, S. 2 und 3. 9 Ehrmann & Kühnapfel, 2012. 8 Lewandowski,

1.2  Der Prognosebegriff und was Karl Popper damit zu tun hat

u

7

Eine Prognose ist die Abschätzung eines Ereignisses, das in der Zukunft eintreten wird. Prognostiziert wird die Wahrscheinlichkeit, mit der das Ereignis bzw. die quantitative Ausprägung (der Wert) des Ereignisses eintritt oder beides.

Die Fragen für das obige Beispiel des Vulkanausbruchs, die in einer Prognose beantwortet werden, wären also: 1. Mit welcher Wahrscheinlichkeit kommt es in einem zukünftigen Zeitraum, z. B. im nächsten Jahr, zu einem Vulkanausbruch? 2. Welche Stärke wird der Vulkanausbruch, von dem angenommen wird, dass er stattfindet, haben? Wir erwarten von einer Prognose folgende Informationen: • Prognosewert • Eintrittswahrscheinlichkeit des Wertes • Stabilität des Zukunftsszenarios • Bedingungen, unter denen die Prognose eintreffen soll An dieser Stelle ist es sinnvoll, einige Begriffe einzuführen, die wichtig sind: Der Prognosewert ist bereits beschrieben worden. Dieser ist ein Merkmal des Prognosegegenstands: Der Vulkanausbruch. Im Falle des Verkaufs von Druckmaschinen wäre der Prognosegegenstand z. B. die Anzahl Abverkäufe von Maschinen des Typs A im nächsten Quartal, im übernächsten und so fort. Oder aber es wird gefragt, mit welcher Wahrscheinlichkeit der Kunde XYZ den Großauftrag über 12 Druckmaschinen erteilen wird. In Unternehmen wird hier jedoch selten von Prognosen gesprochen, sondern ein anderer Begriff verwendet: Der Forecast. u

„Prognose“ und „Forecast“ werden in diesem Buch synonym verwendet. Auch sind „Verkaufsprognose“ und „Vertriebs-Forecast“ dasselbe.

Hiervon zu unterscheiden sind Vorhersagen. Hierbei handelt es sich um eine spezielle Form der Prognose: Es werden präzise Aussagen getroffen, zu welchem Zeitpunkt in der Zukunft ein definiertes Ereignis stattfinden wird. Die bei einer Vorhersage unterstellte Eintrittswahrscheinlichkeit ist somit 100 %. Das ist begrifflich verwirrend, denn werden bei Wettervorhersagen nicht Regenwahrscheinlichkeiten von z. B. 60 % angesagt? Tatsächlich ist der Begriff der „Vorhersage“ umgangssprachlich verwaschen. Besser, ich verwende ihn nur selten. Streng abzugrenzen ist die Prognose (bzw. Forecast) von Planung und Zielsetzung. u Prognose  ≠ Planung ≠ Ziel.

8

1  Prognosen: Vom Orakel zum Planungsinstrument

Oftmals werden, z. B. im Rahmen der strategischen Unternehmensentwicklung, Ziele vorgegeben. Diese Ziele, hier die Absatzziele, sind jedoch keine Planungsgrundlage. Vielmehr sind sie ein Prüfstein für die Prognose (oder umgekehrt) und wenn die prognostizierten Absatzzahlen unter den Zielwerten liegen, leiten sich daraus Aufgaben für das Management ab, z. B., mehr Vertriebsressourcen zu investieren. Grundlage der Planung sind also nicht die Ziele, sondern die Prognosen! Dieser Aspekt dürfte leicht einleuchten, aber in der betrieblichen Praxis erleben wir oft etwas anderes: Die Vertriebsprognose, der eh nicht so recht geglaubt wird, bleibt isoliert und wird, wie zuvor schon festgestellt, nicht als Planungsgrundlage verwendet. Vielmehr ist es die Zielvorgabe, die zur Planungsgrundlage wird, z. B. die Vorjahresergebnisse zzgl. einer erhofften Umsatzsteigerung von x %. Damit fahren Unternehmen oft sehr gut. Es funktioniert! Mehr noch: Es wäre zuweilen fatal, die Verkaufsprognosen als Planungsgrundlagen zu verwenden. Und warum? Weil sie schlecht sind – so richtig schlecht. Abweichungen von über 20 % (Prognosewert zu tatsächlich erzielten Werten) sind nicht selten und es wäre für ein Unternehmen möglicherweise bestandsgefährdend gewesen, hätte es sich auf die Prognosen verlassen.10 Prognosen und Ziele laufen in zwei Fragestellungen wieder zusammen: 1. Welche wirtschaftlichen Ziele erreichen wir in der zukünftigen Periode n, wenn wir die vorgesehenen Maßnahmen durchführen? 2. Welche Maßnahmen müssen wir durchführen, um ein Zielergebnis in Periode n zu erreichen (Sales Funnel11)? In der Regel steht Frage 1 bei Prognosen im Vordergrund. Frage 2 ist eine Frage der Ressourcen- und damit der Unternehmensplanung. Tatsächlich aber hängen beide Fragen zusammen, denn mit der Veränderung der Maßnahmen bzw. des Ressourceneinsatzes für diese verändert sich auch die Zielerreichung. Das alles findet in einem äußerst komplexen System statt. Das eigene Unternehmen, die Wettbewerber, die Kunden, die gesetzlichen Rahmenbedingung, Ethik und Störereignisse jedweder Art beeinflussen den Prognosegegenstand, ohne dass deren Wirkungsrichtung und deren Wirkungsmaß zum Zeitpunkt der Prognose bekannt sein könnten. Sicherlich, es gibt tendenziell labile und stabile Systeme. Sie unterscheiden sich hinsichtlich ihrer Veränderungsaffinität bzw. ihrer Beharrungstendenz. Stabile Systeme ändern sich „träger“ und allenfalls über längere Zeiträume und Prognosen werden wahrscheinlicher.12 Den Absatz von Strom vorauszusagen ist – relativ – leicht.

10 Eine recht interessante Verzahnung von Prognosen und Planungen beim Chip-Hersteller Intel ist beschrieben in Gillen, et al., 2013. 11 Zur Erläuterung des Begriffs des Sales Funnels als Abbild eines Verkaufsprozesses siehe Kühnapfel, 2022, S. 398 ff. 12 Gehmacher, 1971, S. 17–18.

1.2  Der Prognosebegriff und was Karl Popper damit zu tun hat

9

Zu einem stabilen System gehört auch, dass der Ausgangszustand gut bekannt ist. René Descartes beschreibt dies in gleich mehreren seiner Werke und prognostiziert, dass eine Vorhersage umso besser sei, je bekannter der Ausgangszustand des Systems sei. PierreSimon La Place ging einen Schritt weiter und vermutete, dass wenn • der Ausgangszustand bekannt ist und • alles bekannten Gesetzen und bekannten Regeln unterliegt, jeder (!) Zustand der Vergangenheit und der Zukunft ausgerechnet werden könne. Er bezeichnet dies als wissenschaftlichen Determinismus, fügt aber drei Bedingungen hinzu: 1. Naturgesetzlichkeit von Ursache und Wirkung 2. Wunder sind ausgeschlossen 3. Ausnahmen sind ausgeschlossen Nun, im Vertrieb gibt es keine Naturgesetzlichkeit. Der Prozess ist vielmehr eine Abfolge von Ereignissen, die allesamt lediglich wahrscheinlich sind. u

Jeder einzelne Verkaufsakt ist das Ergebnis einer Abfolge von möglichen menschlichen Entscheidungen, die keinen unbedingten Gesetzmäßigkeiten folgen.

Wir können und dürfen also unseren Erfahrungen nicht trauen: Nur, weil etwas geschehen ist, heißt es nicht, dass es wieder geschehen wird. Gerne wird in diesem Kontext der Versuch kritisiert, die Zukunft zu berechnen. Natürlich ist billig, die Unberechenbarkeit der Zukunft zu belegen: Komplexität der handelnden Entitäten, disruptive Ereignisse („Schwarze Schwäne“) wie COVID-19 oder der Ukrainekrieg oder unvorhergesehene Änderungen von Zielen und Strategien machten kalkulierte Prognosen hinfällig, so die Argumentation.13 Aber das zeugt von einem falschen Verständnis des Zwecks berechneter Prognosen. Es geht nicht darum, die Zukunft zu kalkulieren. Da ist nicht das Ziel. Es ist ein Werkzeug. Es geht vielmehr darum, einen Zusammenhang zwischen gegenwärtigen Handlungs- und Ressourcenentscheidungen und der wahrscheinlichen Auswirkung auf die Zukunft herzustellen. Aus „Unsicherheit“ (unbekannte Eintrittswahrscheinlichkeit) wird „Risiko“ (bekannte Eintrittswahrscheinlichkeit): „Wenn wir dieses tun, trifft unter der Annahme A die Zukunft B mit einer Wahrscheinlichkeit von C ein.“ Und dieses Szenario wird berechnet. Das Ergebnis ist die situative Gewissheit einer Möglichkeit. Es zeigt Handlungsfolgen auf, Entscheidungsrisiken, begründet Ressourceneinsatz und erlaubt die

13 So

die Argumentation z. B. von Schencking & Schwenker, 2022.

10

1  Prognosen: Vom Orakel zum Planungsinstrument

Einschätzung, ob das gewählte Handeln das Erreichen der Ziele erlaubt. Berechnete Prognosen sind kein Versprechen. Es sind Leitbilder. An dieser Stelle auf den Historizismusbegriff einzugehen, führt wahrscheinlich zu weit.14 Aber so viel: Karl Popper verteufelte die Vorstellung, dass vergangene Wirkungszusammenhänge auf die Gegenwart oder gar die Zukunft übertragen werden könnten. Es sei verführerisch, Rhythmen und Gesetzmäßigkeiten (sogenannte „Pattern“) zu identifizieren und daraus auf zukünftige Ereignisse zu schlussfolgern. Vielmehr propagiert er einen voluntaristischen Ansatz mit der Annahme, dass Zukunft frei gestaltbar sei. Jeder Forecast ist als Prognose etwas Neues und es gäbe keine Fortschreibung von Vergangenem. Das ist natürlich pure Wirtschaftsphilosophie. Nach Popper können Prognosen nur hinsichtlich der Vollständigkeit der Prognoseargumente, aber nicht hinsichtlich der Interpretation und Bewertung des Einflusses der Prognoseargumente objektiv sein.15 Der Rationalitätsgrad einer Prognose hänge von 1. ihrer logischen Wahrscheinlichkeit und 2. ihrem Bewährungsgrad ab. Leider kann diese logische Wahrscheinlichkeit nicht genau quantifiziert werden. Es gibt keine Metrik, um sie zu messen.16 Aber interessant ist, dass sie ein inverses Maß des Informationsgehalts ist. Und so formuliert Popper: u

Je präziser eine Prognose, desto unwahrscheinlicher ist sie.

Popper hält übrigens per se jede Form der Zukunftsvoraussage für kritisch. Hierfür führt er drei Argumente an, die durch die Arbeiten der Verhaltensökonomen belegt sind. Es sind dies 1. die selbsterfüllende und 2. die selbstzerstörende Prophezeiung, nach der Menschen dazu neigen, ihr Verhalten nach ihren Vorhersagen auszurichten. Schon die Aussage eines Vertriebsmitarbeiters, einen Auftrag vermutlich nicht zu bekommen, führt demnach dazu, dass er sich mit reduziertem Ressourceneinsatz, sprich, mit geringer Motivation, an die Arbeit machen wird. Hier zerstört seine eigene Prophezeiung die Chance auf die Auftragserteilung. Umgekehrt führt eine positive Prognose, also die Aus-

14 Bei Interesse verweise ich gerne auf das Original: Popper, 1957. Ferner sei hinsichtlich der folgenden Ausführungen auch auf Popper, 1965, verwiesen, und dort auf Poppers Definition der Begriffe „Prophezeiung“ und „Prognose“. 15 Laumann, 1980, S. 58. 16 Laumann, 1980, S. 113.

1.2  Der Prognosebegriff und was Karl Popper damit zu tun hat

11

sage des Vertriebsmitarbeiters, einen Auftrag vermutlich zu erhalten, unbewusst zu mehr Engagement, mehr Einsatz und sogar zu einem anderen, optimistischeren Auftreten gegenüber dem Interessenten. 3. Das dritte Argument Poppers ist – ebenso nachvollziehbar –, dass die Verhaltensweisen der Menschen per se unberechenbar seien, also auch die Aktionen der Wettbewerber, der Interessenten, der Kollegen usw. Für Popper folgt daraus, dass wir allenfalls eine „bedingte“ Prognose in Form von Wenn-Dann-Aussagen erstellen können. Aber damit können wir leben, wenn wir uns daran gewöhnen, dass jede Prognose mit einer Beschreibung des Gültigkeitsbereichs und einer Spezifizierung ihrer Eintrittswahrscheinlichkeit versehen sein muss. Objektiv kann eine Prognose sowieso nicht sein, dessen sollte sich der Forecaster bewusst sein. Zwar können die Prognoseargumente nachprüfbar sein, aber selbst Prognosen, die mit etablierten Methoden auf Basis anerkannter Modelle, so, wie sie in diesem Buch beschrieben sind, erstellt werden, sind sie immer – auch – subjektiv und damit auch mit anderen Ergebnissen denkbar.17 Wenn sich erstens alle handelnden Personen dessen bewusst sind und zweitens die zur Prognose führenden Bedingungen, Argumente, Annahmen und Vermutungen offen dargestellt werden, können wir diese sich logisch ergebende Unsicherheit verarbeiten. Der Entscheider, der auf Basis einer Prognose eine Maßnahme veranlasst, wird dies akzeptieren und berücksichtigen (müssen). Wenn wir bei Popper noch etwas weiterlesen, lassen sich aus den von ihm aufgedeckten methodisch-logischen Schwächen der Prognostik so etwas wie „ethische Grundsätze“ für die Erstellung einer Prognose ableiten: • Straffreiheit: Erfolgt die Prognose methodisch einwandfrei, darf der Prognoseersteller nicht dafür bestraft werden, wenn sich die Zukunft anders entwickelt als von ihm prognostiziert. • Zielfreiheit: Die Prognosen sollen ohne eigenes inhaltliches Zielsystem erstellt werden. Eine Prognose ist keine Planung (siehe oben). • Klarheit: Die Prognose verwendet eine deutliche, verständliche Sprache, bestenfalls quantitative Prognosewerte. • Methodenoffenheit: Die angewendete Methode darf und soll hinterfragt, kritisiert und korrigiert werden. Dies betrifft die Prozedur des Dateninputs ebenso wie die Prognosemethode selbst und die Verwendung der Ergebnisse. • Offenlegung von subjektiven Argumenten: Annahmen, Vermutungen usw. werden erkennbar markiert und vorauseilend benannt.

17 Popper,

1973.

12

1  Prognosen: Vom Orakel zum Planungsinstrument

All diese Aspekte sind keineswegs theoretischer Natur. Sie werden uns als konkrete Handlungsanweisungen für Forecaster in den nachfolgenden Kapiteln immer wieder begegnen.

1.3 Wem und wofür nutzt dieses Buch? Ca. 950 Literaturquellen habe ich für dieses Buch ausgewertet, mich mit hunderten mehr oder weniger gut beschriebenen Praxisbeispielen auseinandergesetzt, meine eigenen Erfahrungen aus vielen Jahren als Verkäufer und Vertriebsmanager eingebracht, aber den Stein der Weisen habe ich nicht gefunden. Forecasts, das vorherige Kapitel hat es beschrieben, bleiben etwas Ungefähres, etwas Ungenaues. Sie hinterlassen den Nutzer der Prognose immer mit dem Gefühl, dass es auch ganz anders kommen könnte. Insofern sind sie stets unbefriedigend. Aber wir können Einiges erreichen: u

Durch die Auswahl und Anwendung der richtigen Methoden und Prozesse sind wir erstens in der Lage, die Eintrittswahrscheinlichkeit unserer Vorhersagen zu erhöhen und zweitens, die Bedingungen der Prognose adaptiver und flexibler zu formulieren. Die Prognose wird umso belastbarer, je methodisch akribischer wir arbeiten.

Das Ziel dieses Buches ist es, Forecasts für all jene praktikabel zu machen, die sie für ihre Arbeit benötigen. Es war hierfür nicht erforderlich, eigene wissenschaftliche Untersuchungen hinzuzufügen. Die Herausforderung war, theoretische und abstrakte Forschungsergebnisse, die in genügender Anzahl vorliegen, in praxistaugliche Konzepte zu übersetzen, Spreu vom Weizen zu trennen und Ideen zu entstauben. Ich habe selbstkritische, pragmatische Arbeiten von Wissenschaftlern mit Praxisbezug (wie beispielsweise jene von Armstrong und Makridakis) genutzt, aber unzählige andere verworfen, z. B. oft solche, die von Statistikern geschrieben wurden, die versuchen, mit immer größeren Kanonen auf Spatzen zu schießen, also immer komplexere Mathematik anwenden, um für die Praxis letztlich irrelevante Probleme zu lösen. Haben diese Autoren jemals im Vertrieb gearbeitet? Ich glaube nicht. Auch sind Anleihen aus anderen Forschungsgebieten schwierig zu übertragen. Beispielsweise sind Prognosemodelle von Klimaforschern ausgesprochen komplex. Selbst univariate Forecasts, also solche, die sich auf den zukünftigen Verlauf einer einzigen Variable (Temperatur, Meeresspiegel, Niederschlagsmenge o. ä.) konzentrieren, lassen sich ob ihrer Komplexität nicht als Modelle für Vertriebsprognosen empfehlen.18

18  Wer

sich davon überzeugen möchte, dem sei beispielsweise ein Blick in Papacharalampous, et al., 2018, und hier insbesondere der Anhang Papacharalampous & Tyralis, 2018, empfohlen. Die Arbeit ist interessant, weil das Autorenpaar 20 univariate Prognosemodelle vergleicht.

1.3  Wem und wofür nutzt dieses Buch?

13

Es werden sich in den Zitationen und damit auch im Literaturverzeichnis viel mehr Verweise finden, als in Fachbüchern dieser Art üblich ist. Sinn ist, interessierten Wissenschaftlern das Leben zu erleichtern und ihnen Ansatzpunkte für die Suche nach nützlichen Quellen zu liefern. Wenn die Zielgruppe dieses Buches jene sind, die Vertriebs-Forecasts erstellen bzw. damit arbeiten müssen, stellen sich als nächstes Fragen nach dem sprachlichen und dem technischen Niveau sowie der Tiefe meiner Erläuterungen. Die erste ist schnell beantwortet, denn auch ich kann nicht aus meiner Haut. Persönlicher Stil ist persönlicher Stil. Die zweite Frage ist schwieriger: Wie komplex dürfen die Methoden sein, um sie hier aufzunehmen? Wo ziehe ich die Grenze? Ich habe mich entschieden, hier meine eigenen praktischen Erfahrungen zu nutzen. Welches mathematisch-methodische Vorwissen die Forecaster mitbringen, messe ich an der Lebenswirklichkeit im Arbeitsalltag derjenigen Personen, die ich im Vertrieb bzw. Vertriebscontrolling kennengelernt habe. Das schließt eine Reihe von Modellen aus, aber interessanterweise reduziert dies die Qualität von Forecasts – wenn überhaupt – nur in sehr geringem Maße. Auch schließe ich als Zielgruppe Spezialisten wie z. B. Versicherungsmathematiker aus, die mit anspruchsvollen Prognosen Value-at-Risk-Modelle berechnen.19 Die dritte Frage, jene nach der Erklärungstiefe, beantworte ich für mich pragmatisch: Nach Erkenntnissen der Verhaltensökonomie fehlt uns das intuitive Gespür für statistische Zusammenhänge, insbesondere dann, wenn mehrere Faktoren eine Rolle spielen. Also ist die Anforderung an die Methodenerläuterungen in diesem Buch, Gespür durch pragmatische Regeln, Anweisungen und Tipps zu ersetzen. Nicht zuletzt darum werden die wesentlichen Erkenntnisse und wichtigen Aspekte auch optisch im Text hervorgehoben. Eine Untergliederung in bestimmte Branchen habe ich nicht vorgenommen, denn sie spielt keine Rolle. Wichtiger ist, auf spezifische Arten von Vertriebsinstanzen und von Vertriebsarten einzugehen. Natürlich macht es für die Erstellung eines Forecasts einen Unterschied, ob Produkte über Handelsvertreter oder direkt vertrieben, Konsumenten oder institutionelle Abnehmer angesprochen werden oder „über die Ladentheke“ oder mittels eines Web-Shops verkauft wird. Hierauf gehe ich ein. Zuletzt noch eine schlechte Nachricht: Nicht Zielgruppe sind Faulpelze, die erwarten, ein Rezeptbuch vorzufinden, ein paar Zahlen in ein Excel-Sheet einzutippen und dann zu wissen, wie hoch die Auftragseingänge im nächsten Jahr sein werden. Die Erstellung von Forecasts ist ein schwieriges Unterfangen, eine komplizierte Materie, mit der sich beschäftigt werden will. Es braucht Fach-Know-how, um ein akzeptables Ergebnis abliefern zu können und die Vorstellung, dass ein Praktikant so etwa erledigen könne, ist entweder naiv oder dumm.

19 Speziell

zu Prognosen in Versicherungen siehe exemplarisch Helten, 1981.

14

1  Prognosen: Vom Orakel zum Planungsinstrument

1.4 Wie ist das Buch aufgebaut? Kap. 2 führt uns in die Welt der Forecasts als Instrument der Unternehmens- und Vertriebsführung ein. Es ist eine Art Sammelbecken für die einrahmenden Aspekte, die ein Forecaster wissen sollte, um seine Aufgabe zielführend wahrnehmen zu können. Kap. 3 wartet dann mit einigen Überraschungen auf: Die Darstellung der Erfolgsfaktoren führt zu fundamentalen Regeln, die zu beachten sind, und einige davon sind wirklich überraschend. Diese Ankündigung trifft auch auf Kap. 4 zu, in dem die Misserfolgsfaktoren beschrieben werden. Dieses Kapitel schließt den ersten, einleitenden Teil ab. Weiter geht es in den Kap. 5 bis 11 mit all den Methoden, die ein Forecaster beherrschen sollte. Sie werden beschrieben, kommentiert, bewertet und anhand von Beispielen vorexerziert. Es ist möglich, die Kapitel gezielt zu lesen. Ein sequenzielles Vorgehen ist nicht erforderlich. Bemüht habe ich mich dennoch, allzu viele Redundanzen zu vermeiden und statt notwendiger Wiederholungen lieber auf andere Kapitel verwiesen. Wichtig sind jedoch in jedem Falle die Kap. 5 und 6, denn die Aspekte, die dort erläutert werden, sind für die Auswahl der Methoden und die Messung der Prognosequalität elementar wichtig. Umfangreiche Grundlagen bzw. Vorkenntnisse werden keine vorausgesetzt, eine kaufmännische Ausbildung reicht in der Regel aus, um das nachvollziehen zu können, was erläutert wird. Was allerdings erwartet wird, ist, dass der Leser weiß, wie Vertrieb funktioniert.

2

Was über Vertriebsprognosen als Instrument der Vertriebssteuerung bekannt sein sollte

Besser als Gilliland kann ich es nicht formulieren: „Unsere Forecasts sind niemals so akkurat wie wir sie gerne hätten oder wie sie sein müssten. Das Ergebnis ist ein großer Drang danach, Geld nach dem Problem zu werfen in der Hoffnung, dass das Problem flüchtet. Es gibt viele Consultants und Softwareanbieter, die das Geld auffangen und dafür versprechen, die Forecast-Qualität zu verbessern, aber diese Versprechen bleiben unerfüllt. Viele Organisationen, vielleicht auch Ihre, haben tausende oder gar Millionen von Dollars für das Prognoseproblem ausgegeben, nur, um wieder bei dem gleichen lausigen Forecast zu enden.“1

Eine solche Aussage ist nicht als Plädoyer gegen Forecasts an sich zu verstehen. Vielmehr geht es darum, dass Forecasts nicht besser werden, nur, weil sie mit immer größerem Aufwand betrieben werden. Wie bei vielen anderen Aufgabenstellungen gerade im Vertrieb gilt auch hier der Grundsatz, dass nicht mehr Ressourcen zu mehr Erfolg führen, sondern dass Ressourcen besonders smart einzusetzen sind. Verstehen wir also Gillilands Aussage als Warnung und erarbeiten wir uns zunächst das Fundament, um zu verstehen, warum wir Prognosen erstellen, wie wir das tun und wer sie benötigt.

2.1 Prognoseprozess und Prognosesystem Machen wir uns nichts vor: In vielen Unternehmen werden Forecasts schlampig erstellt und schlampig genutzt. Sie werden belächelt und sind oft genug Gegenstand abfälliger Bemerkungen. Solche Reaktionen sind selten böswillig gemeint, sondern die Folge

1 Eigene

Übersetzung von Gilliland, 2010, S. 24. Zu diesem Schluss kommen im Wesentlichen auch die zahlreichen anderen empirischen Studien, Tests und gesammelten Praxisbeispiele, die für dieses Buch ausgewertet wurden und es deckt sich auch mit meinen eigenen Erfahrungen.

© Der/die Herausgeber bzw. der/die Autor(en), exklusiv lizenziert an Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2023 J. B. Kühnapfel, Vertriebsprognosen, https://doi.org/10.1007/978-3-658-42876-1_2

15

16

2  Was über Vertriebsprognosen …

schlechter Erfahrungen. Stimmten Forecasts bisher nicht und wird auch nicht ernsthaft an deren Verbesserung gearbeitet, ist ihre Glaubwürdigkeit dahin. Oft liegt es an der Zielorientierung: In einer bemerkenswert großen Zahl von Unternehmen habe ich erlebt, dass Forecaster ihre Prognosen so modellieren, dass ein gewünschter Zielwert erreicht wurde. Solche Zielwerte werden von der Unternehmens- oder Vertriebsführung vorgegeben und der Forecast dient dann dazu, zu prüfen, ob deren Erreichen realistisch ist oder nicht. Eine solche Plausibilitätsrechnung ist aber kein Forecast. Insofern ist auch nicht verwunderlich, wenn Prognosen nicht getraut wird und es kaum ein Interesse daran gibt, die Qualität der Prognosen ex post zu überprüfen.2 Aber wie wichtig und nützlich ist ein Forecast tatsächlich für ein Unternehmen? Ein Unternehmen müsste mit einem Forecast einen größeren Gewinn machen als das gleiche Unternehmen ohne Forecast. Sonst wäre der Aufwand sinnlos. Doch in der betrieblichen Realität erstellen wir permanent Prognosen. Wir schätzen ständig Handlungsfolgen ab, malen uns aus, welche Folgen unsere Entscheidungen haben und denken in Szenarien. Auch antizipieren wir ständig, bewusst und unbewusst, die Reaktionen unserer Interaktions- und Transaktionspartner, also „der anderen“. Dieser Automatismus ist bereits eine Art Forecasting. u

Prognosen sind Grundlage zielorientierten Handelns in einer unsicheren Umwelt. Wir erstellen sie unweigerlich und permanent, um Handlungsfolgen abzuschätzen und unsere Aktionsspielräume zu definieren.

Leider nutzen Prognosen dieser Art dem Unternehmen als kybernetisches Ganzes wenig. Ein weiterer Schritt ist erforderlich: Prognosen müssen zu einem Konstrukt gemeinsamen Verständnisses werden. Erst dann, wenn Personen, bzw. – etwas abstrakter – Organisationseinheiten, die Prognose als Gruppe erleben, können sie diese auch als Handlungsfolgenabschätzung begreifen. Dabei geht es keineswegs nur um den Prognosewert, den es abzuschätzen gilt und der quantitativer Ausdruck eines konzertierten Zukunftsverständnisses wird. Auch folgende Aspekte spielen eine wichtige Rolle:3 1. Zweck: Wozu wird die Prognose erstellt? 2. Horizont: Für welchen Zeitraum wird die Prognose erstellt? 3. Inputdaten: Welche Informationen werden benötigt, um eine gute (treffsichere) und nützliche (entscheidungsrelevante) Prognose zu erstellen?4

2 Ehrmann

& Kühnapfel, 2012. Zu gleicher Feststellung kam bereits Rothe, 1978. hierzu auch die Darstellungen von Ord & Fildes, 2013, S. 3–4. 4 Die Schwierigkeit ist nicht nur, Informationen aller Art zu sammeln, sondern vor allem auch, zu erkennen, welche Informationen erforderlich wären, um eine bessere Prognose zu erstellen. Dieses Wissen um das Wissen, das wir nicht wissen, wird in Abschn. 4.2 beschrieben. 3 Vgl.

2.1  Prognoseprozess und Prognosesystem

17

4. Wert: Welchen Nutzen hat die Prognose? Welche Kosten darf sie verursachen? 5. Bewertung des Prognoseprozesses: Spielt der Prozess selbst eine Rolle, z. B., um ein gemeinsames Verständnis für die Unternehmens- und Vertriebsziele herauszuarbeiten? 6. Vertrauen in die Prognose: Besteht Klarheit, wie belastbar die Prognosen sind? Gerade der letzte Aspekt ist von Bedeutung, denn er bestimmt, wie sehr sich das Unternehmen bei Entscheidungen auf eine Prognose verlässt – und das hat Folgen: u

Je mehr einer Prognose vertraut wird, desto geringer sind die Kosten der Vorbereitung auf das Verfehlen des Prognosewertes.

Dies kann natürlich auch gefährlich sein: Wie sehr einer Prognose vertraut werden sollte, hängt auch davon ab, welche Risiken die in diesem Vertrauen beschlossene Maßnahme birgt. Die Kosten der Korrektur einer Maßnahme sind hier von Bedeutung und wenn diese zu hoch sind, wird einer Prognose tendenziell weniger vertraut, möglicherweise weniger als der subjektiven Einschätzung des Entscheiders und damit wären wir wieder bei Willkür, getarnt als „Gefühl“. Eine gut gemachte Prognose leistet mehr und liefert über den Prognosewert hinaus ein Vertrauensmaß: Die Eintrittswahrscheinlichkeit. Erst die Kenntnis der Eintrittswahrscheinlichkeit macht aus Ungewissheit ein kalkulierbares Risiko.5 Hier zeigt sich, was eine gute Prognose ausmacht: u

Eine Prognose ist eine Entscheidungshilfe. Das Ergebnis ist die Abschätzung der Eintrittswahrscheinlichkeit einer Zukunft auf Basis des gegenwärtigen Kenntnisstandes unter Zuhilfenahme ausgewählter Methoden. Dieses Ergebnis ist nützlich, um eine Entscheidung zu treffen, zu verwerfen oder aufzuschieben.

Um dies zu leisten, spielt neben der Prognose an sich der Prognoseprozess eine entscheidende Rolle, denn das Ergebnis wird umso mehr beachtet und berücksichtigt, je • transparenter der Prozess ist, der zu der Prognose führt, • intensiver die Personen, welche die Prognoseergebnisse für ihre Entscheidungen benötigen, dem Prozess vertrauen, z. B., weil sie selbst involviert sind und • je mehr die Unternehmens- und Vertriebsführung sich offen zu den Prognoseergebnissen bekennt.

5  Bei

weitergehendem Interesse an der Betrachtung der Phänomene Risiko, Unsicherheit und Ungewissheit empfehle ich den Klassiker Knight, 1921, und die Diskussion der aktuellen Implikationen seines Buches in Emmett, 2020.

18

2  Was über Vertriebsprognosen …

Am einfachsten ist es hier, die Prognose als Prozess zu begreifen. Der Priester kann eine wirkungsverstärkende mystische Zeremonie mit Rauch, Gemurmel und verklärtem Gesichtsausdruck durchführen, um eine Vorhersage zu machen, der geglaubt wird. Aber im von rationalem Handeln geprägten Unternehmensumfeld funktioniert dieser Mechanismus nicht. Hier wird hinterfragt, will verstanden werden. Prognoseprozess Zu unterscheiden sind zwei Prozesstypen: Der initiale Prognoseprozess (erstmalige Durchführung) und der repetitive Prognoseprozess (Wiederholung bzw. Iteration). Die Schritte des initialen Prognoseprozesses erschließen sich fast von selbst und er kann auch als Leitfaden für ein Prognoseprojekt verstanden werden:6 1. Einigung über den Wert bzw. den Nutzen des Forecasts 2. Beschreibung des Forecast- und Planungsproblems a. Festlegung des zu prognostizierenden Wertes (Indikatorvariable, Prädiktor) b. Festlegung des Prognosehorizonts c. Festlegung des Prognoseintervalls 3. Ressourcen festlegen a. Verantwortlichkeiten für die Prognose festlegen (Forecaster) b. Notwendiges Know-how des Forecasters beschreiben c. Handlungsrechte für den Forecaster festlegen und im Unternehmen kommunizieren, z. B. Informationszugriffsrechte d. Inputdatenlieferanten und Prognoseergebnisverwender (Adressaten) bestimmen 4. Auswahl geeigneter Methoden. 5. Sammlung und Auswertung relevanter Daten 6. Resultierenden Forecast erstellen und Aggregation zu einem kombinierten Forecast 7. Forecasts präsentieren 8. Überprüfen des Forecasts durch Überprüfung des Eintritts der Prognosen zu gegebener Zeit Ist ein Prognoseprozess etabliert, konzentrieren wir uns auf den repetitiven Prozess und somit auf die Prozessschritte vier bis sieben. Auf den zunächst letzten Schritt, die Überprüfung der Ergebnisse (also der Genauigkeit) der Prognose, folgt nun: 9. Anpassung der ursprünglichen Methode(n) durch Vergleich der Ergebnisse mit dem nun bekannten Istwert

6 In Anlehnung

an Ord & Fildes, 2013, S. 15 und Lewandowski, 1980, S. 24 ff.

19

2.1  Prognoseprozess und Prognosesystem

Natürlich kann dieser neunte Schritt auch beinhalten, dass Personen ausgetauscht, Handlungsrechte neu vergeben oder mehr Ressourcen freigegeben werden müssen. Abb. 2.1 veranschaulicht den beschriebenen Prozess. Prognosesystem Es geht also um mehr als nur einen Forecaster als Person und sein Excel-Sheet. Es geht um ein System von Ressourcen, Rechten und Aktivitäten, das zu einer guten Prognose führt. Zu diesem System gehören einerseits die Inputdatengeber, die Outputdatenverwender, die Rechtegeber und die Methoden selbst, also jene Elemente, über die das Unternehmen bestimmen kann. Andererseits gehören externe, nicht vom Unternehmen bestimmbare Elemente dazu, beispielsweise die Handlungen der Wettbewerber, der Kunden, rechtliche Rahmenbedingungen, Moralvorstellungen, Krisen und Kriege oder die Verbreitung neuer Technologien. Viele dieser internen und externen Elemente dürften bekannt sein. Aber es stellt sich auch die Frage, ob dem Forecaster alle Aspekte bekannt sind, die er kennen müsste, um eine gute Prognose zu erstellen. Die Matrix in Abb. 2.2 veranschaulicht dies.

Definition des Prognoseproblems Ermittlung des Wertes des Forecasts für die Organisation Festlegung der Ressourcen, insb. des Verantwortlichen Auswahl des geeigneten Methoden-Sets Sammlung, Auswahl und Adjustierung historischer Daten Erstellung von quantitativen und qualitativen Forecasts

Anpassung der Methoden bzw. der Zusammensetzung des kombinierten Forecasts

Aggregation zu einem kombinierten Forecast Präsentation des Ergebnisses Nutzung des Ergebnisses als Planungsgrundlage

Überprüfung der Prognose anhand eintretender realer Werte

Abb. 2.1   Darstellung eines exemplarischen Prognoseprozesses

Sind die relevanten Aspekte für die Prognose bekannt?

bekannt

2  Was über Vertriebsprognosen …

Unnöger Verzicht auf Informaonen, welche die Prognosequalität verbessern würden

Im Rahmen der Prognose verarbeitete Informaonen

unbekannt

20

„Blind spot“

Rechercheaufwand erforderlich

unbekannt

bekannt

Ist bekannt, welche Aspekte für die Erstellung der Prognose bekannt sein sollten?

Abb. 2.2   Bekannte und unbekannte Aspekte für die Erstellung einer guten Prognose

Ein Forecaster arbeitet auf dem Areal der beiden rechts dargestellten Quadranten. Er geht davon aus, die Aspekte zu kennen, die er berücksichtigen muss, um eine gute Prognose zu erstellen. Einige wird er recherchieren können (bekannt-bekannt), andere nicht oder nur mit vermehrtem Aufwand (bekannt-unbekannt, Quadrant rechts unten). Für beides benötigt er Ressourcen, für Letzteres eben ein paar mehr oder er kompensiert durch Adjustierung (vgl. Abschn. 3.5) bzw. Methodik. Kompliziert wird es aber, wenn dem Forecaster nicht bekannt ist, dass er Aspekte nutzen könnte, die seine Prognose verbessern würden. Stünden diese zur Verfügung, werden aber nicht genutzt (unbekanntbekannt, Quadrant links oben), ist es schlichtweg ein Versäumnis des Forecasters. Die Aspekte, die im „Blind Spot“ zu verorten sind (unbekannt-unbekannt), stehen natürlich nicht zur Verfügung. Sie könnten für den Prognoseprozess nur genutzt werden, wenn ihre Existenz und Nützlichkeit erkannt werden würden.7 Aber genau dieses Wissen im „Blind Spot“ ist oftmals das Entscheidende, wie wir noch oft in den folgenden Kapiteln lesen werden. 7  Legendär

ist der Ausspruch von den „unknown unknown“, den Donald Rumsfeld in einer Pressekonferenz 2002 machte. Die sich anschließende Diskussion über den Sinn dieser Worte war bemerkenswert. Der Sachverhalt, den Rumsfeld beschrieb, war klar: Die US-Amerikaner wussten – grob vereinfacht – bezüglich der Frage, ob der Irak über Massenvernichtungswaffen verfügt, nicht, was sie nicht wussten. Allerdings überforderte er sprachlich seine Zuhörer.

2.3  Absatzprognosen als Grundlage …

21

2.2 Prognosehorizont und -intervall Bevor eine Prognose erstellt wird, sind zwei Fragen zu klären: Welcher Prognosehorizont und welches Prognoseintervall werden benötigt? Beides hängt vom Prognosezweck ab, also von den anstehenden Entscheidungen, für welche die Prognose erstellt wird. u Der Prognosehorizont ist entweder der Zeitraum, für den eine Prognose erstellt

werden soll (z. B. monatlicher Auftragseingang für die nächsten zwei Jahre), oder ein der in der Zukunft liegender Zeitpunkt, für den der Prognosewert gelten soll (z. B. Auftragseingang im III. Quartal des nächsten Jahres). Je langfristiger der Prognosehorizont ist, je weiter also die Prognose in die Zukunft reicht, desto unsicherer wird sie und desto mehr Faktoren müssen berücksichtigt werden, die sich während des Prognosezeitraums verändern könnten. u Das Prognoseintervall bezeichnet den zeitlichen Abstand zwischen zwei

Prognosen (z. B. wöchentliche Aktualisierung an jedem Montag). Das Intervall ist abhängig von der Häufigkeit und Regelmäßigkeit, mit der neue Informationen vorliegen, die eine Prognose verändern. Eine Gemüseabteilung eines Supermarktes, die eine Abverkaufsprognose als Grundlage für die Einkaufsplanung benötigt, wird somit einen Prognoseintervall von einem Tag haben, während ein Maschinenbauunternehmen vielleicht mit einem monatlichen Prognoserhythmus im Zuge eines rollierenden Forecasts (vgl. Kap. 9) auskommt. Abzuraten ist von einem unregelmäßigen Prognoseintervall. Es erscheint akzeptabel, wenn neue Informationen unregelmäßig eintreffen, also die Prognose sich nur hin und wieder ändert. Aber in der betrieblichen Praxis hat es sich bewährt, Prognosen regelmäßig zu überarbeiten und zu aktualisieren, um die Nutzer der Ergebnisse an einen „Lieferrhythmus“ zu gewöhnen. Natürlich wird es dann auch Forecasts geben, ohne dass sich diese im Vergleich zum letzten verändert haben. Um nun die Nutzer davon zu entlasten, den neuen, aktualisierten Forecast mit der vorherigen Version zu vergleichen, um etwaige Veränderungen zu erkennen, empfiehlt es sich, stets eine Änderungshistorie mitzuliefern.

2.3 Absatzprognosen als Grundlage der Unternehmens- und Vertriebsplanung Jede Form der Zielformulierung und der Planung beginnt mit einer bewussten oder unbewussten Abschätzung der Möglichkeiten und Handlungsspielräume. Es handelt sich um eine abstrakte, in der Regel noch nicht methodisch fundierte Form der Zukunftsprojektion. Je nach Persönlichkeitsbild und Selbstverständnis des Managers wird sie

22

2  Was über Vertriebsprognosen …

mehr oder weniger visionär ausfallen und realistisch erscheinen. Der Satz „In 20 Jahren siedeln Menschen auf dem Mond und dafür produzieren wir Nahrungsmittel“ enthält sowohl eine Prognose als auch eine strategische Aussage. Der Schritt, diese Projektion nun auch zur Grundlage der Geschäftsplanung zu machen, liegt sicherlich nicht in der Verantwortung eines z. B. Vertriebscontrollers. Aber es könnte seine Aufgabe sein, einen Forecast für die Lieferung von Fertignahrung für auf dem Mond siedelnde Menschen zu erstellen. Zu weit hergeholt? Sicherlich nicht, denn eine solche Aufgabe stellt sich immer dann, wenn neue Produkte einzuführen sind, vor allem solche, deren Nutzenstiftung den potenziellen Kunden bislang unbekannt war, z. B. ein gänzlich neues Spielzeug. Auch hier gibt es für den Vertriebscontroller, der den Forecast erstellen soll, keine griffigen Anhaltspunkte in Form von Vergangenheitsdaten, die er fortschreiben könnte. Der Prognosehorizont ist sehr lang, einige Einflussfaktoren können nur geschätzt werden, andere sind gänzlich unbekannt. Störereignisse sind möglich, wenn nicht sogar wahrscheinlich, aber nach Art und Auswertung unbekannt. Die nun entstehenden Langfristprognosen kommen der Entwicklung von Szenarien sehr ähnlich und dienen oft der grundsätzlichen Entscheidung, ob ein Engagement riskiert werden sollte oder nicht.8 u

Langfristprognosen dienen dazu, strategische Weichen zu stellen bzw. grundsätzliche Entscheidungen über die Sinnhaftigkeit eines Engagements zu treffen.

Dass Langfristprognosen nur allzu leicht daneben liegen können, ist hinlänglich bekannt. Erforderlich sind sie dennoch. Ist die Zukunft nicht oder nur schwer berechenbar, weil sie instabil ist, so muss eine unternehmerische Entscheidung unter Unsicherheit und unter Inkaufnahme von Handlungsrisiken getroffen werden. Langfristprognosen helfen dann dabei, die (mögliche) Zukunft zu verstehen. Anders verhält es sich bei Kurzfristprognosen. Diese werden durch ein bekanntes Set von Einflussparametern determiniert, es gibt Erfahrungen aus der Vergangenheit, bestenfalls also eine bisherige Entwicklung mit einem bekannten Level (Höhe der Werte) und einem bekannten Trend (Verlaufsrichtung der Werte). u

Kurzfristprognosen dienen dazu, Absatz-, Produktions- und Beschaffungsmengen zu planen. Sie sind ein Prüfstein für Zielsetzungen und kündigen frühzeitig Abweichungen an.

Absatzprognosen bilden idealerweise die Grundlage der kurz- und mittelfristigen Unternehmensplanung. Sind sie verlässlich, können aus ihnen die Planungen für die

8 Ein

Beispiel für ein Modell für Langfristprognosen unter Berücksichtigung makroökonomischer Indikatoren findet sich bei Sageart, et al., 2018.

2.3  Absatzprognosen als Grundlage …

23

Produktion, die Beschaffung, den Finanzbedarf, das Personal usw. abgeleitet werden.9 Je langfristiger und verlässlicher dabei eine Absatzprognose die Zukunft beschreibt, • desto planbarer ist die Unternehmensentwicklung, • desto geringer fallen Kosten für Risikopuffer aus und • desto größer ist folglich das Betriebsergebnis.“10 Eindrucksvoll zeigen Studien, dass es stets eine Korrelation zwischen Planungsqualität und Markterfolg gibt11, sodass es keine Frage sein sollte, ob der Aufwand einer guten Prognose getätigt werden sollte, um eine verlässliche Planung zu erstellen. u

Die Aufgabe der Absatzprognose bzw. des Vertriebs-Forecasts im Rahmen der Unternehmensplanung ist, den erwarteten zukünftigen Verkaufserfolg zu quantifizieren.

Aus einem Bauchgefühl des Managements oder des Marketings, dass ein Produkt erfolgreich am Markt platziert werden könne, wird eine Zahl, mit der gearbeitet werden kann. Aus einem „strategischen Wettbewerbsvorteil“, einer „Unique Selling Proposition“ oder einem „Produkt-Preis-Vorteil“ wird eine Absatzmenge oder der Umsatz. Erst durch die Übersetzung der vagen Prognosen über den Markterfolg in ein konkretes Zahlengerüst, entsteht eine Planungsgrundlage. Mit dieser können • Mengenbedarfe (Beschaffung, Logistik, Materialmengen, Personal) und • Produktionskapazitäten (Produktion, Personalauslastung) geplant sowie die • Finanzielle Führung (Liquiditätsplanung) des Unternehmens organisiert werden.12 Der letzte Aspekt sei noch einmal herausgehoben: Insbesondere im Vertrieb wird oft unterschätzt, wie sehr die für die Finanzielle Führung verantwortlichen Abteilungen („Treasury“, „Controlling“, „Cash Pool Management“) eine gute Absatzprognose benötigen. Schließlich gibt es nur eine Quelle für eine langfristig tragfähige Finanzierung des Unternehmens, und das ist der Erlös aus dem Verkauf von Produkten. Alle anderen Finanzierungsquellen dienen dem Finanzbedarfsausgleich, der Investition

9 Vgl.

ausführlicher z. B. Wallace & Stahl, 2002, S. 8. 2022, S. 425. 11 So z. B. Homburg, et al., 2008. 12 Vgl. hierzu, auch hinsichtlich der Einschränkungen bei unreflektierter Anwendung von VertriebsForecasts für die Unternehmensplanung, den Beitrag von Wright, 1988. Sehr anschaulicht ist der Nutzen einer guten Prognose für die Logistik beschrieben in Ireland, 2005. 10 Kühnapfel,

24

2  Was über Vertriebsprognosen …

oder der Rentabilitätsoptimierung. Aber die Basis der wirtschaftlichen Existenz sind der Verkauf und die dadurch erzielten Erlöse. Je besser diese prognostiziert werden, desto geringer werden die Finanzierungskosten sein, die durch die Inanspruchnahme anderer Quellen entstehen und desto früher erkennt das Management mittel- und langfristige (Fehl-)Entwicklungen. Forecasts dienen somit als13 1. Planungs- und Steuerungsgrundlage für alle betrieblichen Funktionalbereiche, z. B. a. für das Marketing als Grundlage für Maßnahmen des Marketingmixes (Werbung, VKF, Produktentwicklung, Preise), b. für die Produktion und Logistik zur Optimierung der Produktionsprogrammplanung (Losgrößen, Rüstzeitenminimierung, Beschaffung), c. für das Finanz- und Rechnungswesen zur Koordination der Zahlungsströme, d. für die Personalabteilung für die Beschaffung oder Entlassung von Personal oder für die Durchführung von Schulungsmaßnahmen, e für die Unternehmensführung als Grundlage der Entscheidungsfindung, als 2. Planungs- und Steuerungsgrundlage für den Vertrieb selbst und als 3. Frühindikator für Nachfrageschwankungen. Allerdings ist typisch und empirisch auch nachgewiesen, dass Manager ein immanentes Misstrauen gegenüber Vertriebsprognosen hegen, entweder • weil sie unrealistische Erwartungen an die Vertriebsprognose stellen oder • sie es nicht mögen, wenn Vertriebsprognosen im Konflikt mit ihren eigenen Zukunftsvermutungen stehen.14 Der erste Punkt ist wesensimmanent: Nutzer des Forecasts werden eine jeweils spezifische Anforderung an diesen haben. Einige brauchen einen langfristigen Prognosehorizont, andere Details. Die Produktion und die Beschaffung möchten sicherlich sehr exakte Forecast, die den erwarteten Absatz je Produkt langfristig. Das Cash Management ist vermutlich kurzfristiger orientiert, meist reicht ein Prognosehorizont von wenigen Monaten aus. Hier ist zwischen dem Aufwand zur Erstellung einer Prognose und dem Nutzen für den Planungsprozess abzuwägen. Das Dilemma ist, dass derjenige ­Funktionsbereich, der mehr Daten benötigt, diese nur vom Vertrieb bekommen kann, dessen Aufgabe aber der Verkauf ist und nicht die zeitaufwendige Detaillierung von Forecasts. Delegierbar ist diese Aufgabe aber auch nicht, denn der Dateninput kann nur von den Verkaufsinstanzen kommen. Also bleibt es bei einem allfälligen Kompromiss.

13 Makridakis,

et al., 1980, S. 12–13 und Kühnapfel, 2013b. & Brodie, 1999.

14 Vgl. Armstrong

2.3  Absatzprognosen als Grundlage …

25

Der zweite Punkt ist ebenso schwer zu eliminieren: Jeder Manager wird ein eigenes Bild von der Zukunft besitzen. Das ist vermutlich sogar Voraussetzung seiner Aufgabe als Entscheider. Zeigt nun die Vertriebsprognose ein anderes Bild der Zukunft, gerät der Manager in Erklärungsnot, wenn er seine bisherigen Entscheidungen unter einer anderen Annahme traf. Dann ist es für ihn wesentlich leichter, die Vertriebsprognose in Zweifel zu ziehen, als seine eigene abweichende Einschätzung als Fehler zuzugeben. Die einzige Lösung scheint vordergründig zu sein, die Manager in die Erstellung der Prognose einzubeziehen. Aber auch das kann ein Fehler sein, nämlich immer dann, wenn die Prognose zu einem Meinungsstreit unter Managern verkommt und so anstelle der Prognose eine Zielplanung entsteht. Selbst dann, wenn diese einen Konsens darstellt und alle Beteiligten zufrieden nicken, ist es keine Prognose mehr, sondern eine interessengeleitete Zielformulierung und das Problem, dass eine unabhängige Prognose ein anderes Zukunftsbild zeichnet, dem dann nicht geglaubt werden will, besteht fort. Was kann ein Prognoseersteller nun tun? Nichts? Doch: Er kann seine Methodik sauber dokumentieren, seinen Forecast als Grundlage der Planung anbieten und darf ex post, also dann, wenn die Zukunft zur Gegenwart wird, seinen Forecast prüfen und den Prognoseprozess optimieren.

3

Was macht eine Prognose zu einer guten Prognose?

Erstaunlicherweise ist es relativ einfach, die wesentlichen Erfolgsfaktoren für eine gute Prognose zu ermitteln. Diese sollten dann auch – ausgedruckt und fett umrandet – über dem Schreibtisch des Forecasters hängen, gleichsam als „Manifest der Vertriebsprognose“. Schauen wir uns zum Einstieg an, was Forscher dazu schreiben. So sind nach einer empirischen Studie von West1 folgende Erfolgsfaktoren entscheidend: 1. Unternehmen sollten mehrere Prognosemethoden anwenden und die Ergebnisse kombinieren. 2. Manager sollten sicherstellen, dass die Forecaster fachlich dazu auch in der Lage sind. Im Zweifel sollten sie ein Prognoseteam mit Personen unterschiedlicher fachlicher Lager bilden. 3. Eine jährliche Überprüfung der Prognosegenauigkeit zeigt, welche Methode oder welche Methodenkombination die genauesten Ergebnisse liefert. 4. Der Prognoseprozess soll ein kombiniertes Bottom-up/Top-down-Modell sein. 5. Der Forecaster sollte daran gemessen und danach bewertet werden, wie genau seine Prognose ist. Dies gilt natürlich auch für ein Prognose-Team. Nach Silver2 lassen sich diesem Katalog noch folgende Faktoren hinzufügen:

1 West,

1994. 2012.

2 Silver,

© Der/die Herausgeber bzw. der/die Autor(en), exklusiv lizenziert an Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2023 J. B. Kühnapfel, Vertriebsprognosen, https://doi.org/10.1007/978-3-658-42876-1_3

27

28

3  Was macht eine Prognose zu einer guten Prognose?

6. In einem förmlichen Wettbewerb sollten Prognosen miteinander um die genauste Prognose streiten (ähnlich Punkt 1). 7. Ein Forecaster muss zwischen einem zukunftsweisenden Trend, er nennt es „Signal“, und zufälligen oder ausnahmsweise auftretenden Schwankungen in der Vergangenheit, also dem Rauschen – er nennt es „Noise“ – unterscheiden.3 8. Ein Forecaster muss sich zunächst von einer eigenen Vermutung, wie die Zukunft aussehen könnte, frei machen. Nur zu gerne würde er sonst auf das Signal achten, das ihm jene Geschichte erzählt, die er gerne hören möchte. Nun ließe sich die Liste solcher Kataloge fortsetzen, und viele Forscher haben versucht, herauszufinden, was eine Prognose gut und treffsicher macht.4 Doch im Ergebnis sind es sechs Erfolgsfaktoren, die beachtet werden müssen. Sie sind teilweise überraschend und wir schauen sie uns in den nachfolgenden Kapiteln genau an. Sie sind die „Gebote“ der Prognostik. Das Gegenteil solcher Gebote sind Verbote. Diese werden in Kap. 4 beschrieben, wobei es sich eher um „graduelle“ Verbote handelt: Je mehr gegen sie verstoßen wird, desto unschärfer, unsicherer und damit unzuverlässiger wird die Prognose. Erwähnenswert ist hier, dass einige Aspekte, die zu erwarten gewesen wären, nicht auftauchen. So wird immer wieder der Ruf nach geeigneter Forecasting-Software laut. Auch gängige ERP-Systeme bieten oft Prognose-Module. Tatsächlich können diese die Anwendung einiger Methoden erleichtern, aber in der betrieblichen Praxis konnten sie sich nicht so recht durchsetzen. Der Grund ist, dass Forecasting ein durchaus kreativer Prozess ist, eine Domäne für Menschen, und die dann folgende Mathematik auch von Tabellenkalkulationsprogrammen wie MS Excel bewerkstelligt werden kann. Lediglich in der Aufbereitung der Inputdaten, etwa bei der Verwertung von Informationen, die von Kassen- bzw. Warenwirtschaftssystemen filialisierender Handelsunternehmen geliefert werden, werden immer Computer zur Verdichtung der Daten benötigt. Das aber ist der Menge der Daten geschuldet und gehört schon längst zum Arbeitsalltag; zu einem Erfolgsfaktor macht es das aber noch nicht.

3.1 Erfolgsfaktor 1: Fähigkeiten, Commitment und organisatorische Einbindung des Forecast-Prozesses Vier Aspekte sind für diesen ersten Erfolgsfaktor ausschlaggebend. Alle vier sind, obwohl auf den ersten Blick mal mehr, mal weniger einsichtig, gleich bedeutsam:

3  Eine

ausführliche und anschauliche Beschreibung der verzerrenden Effekte eben dieses Rauschens liefern Kahneman, et al., 2021. 4 Recht plakativ z. B. Moon, et al., 1988.

3.1  Erfolgsfaktor 1: Fähigkeiten, …

29

Aspekt 1: Know-how bzw. spezifisches Wissen Die Fähigkeiten, die ein Forecaster mitbringen soll, erinnern zuweilen an die eines Universalgenies. So soll er das Geschäft verstehen, die Produkte wie die Kunden kennen, erahnen, welche Produkte für welche Nachfragesituationen geeignet sind, er soll die Vertriebsinstanzen und deren Intentionen kennen, natürlich alle wichtigen Prognosemethoden beherrschen und ausreichend viel Einfühlungsvermögen besitzen, mögliche Befindlichkeiten der Inputdatenlieferanten bzw. der Nutzer der Prognosedaten auszugleichen. Nein, ich übertreibe nicht, all das wird tatsächlich von einem Forecaster gefordert.5 Aber das bringt uns nicht weiter, denn solche Allrounder sind nicht zu finden und wenn, werden sie schnell selbst zur Führungskraft. Wir müssen konkreter werden: Der Forecaster sollte zunächst einmal Kenntnisse über den Vertriebsprozess im Allgemeinen und das Zustandekommen von Verkäufen im Speziellen besitzen. Das setzt nicht zwingend voraus, dass er selber als Verkäufer, aber in jedem Falle, dass er vertriebsnah gearbeitet hat. Genauso muss er betriebswirtschaftliche Grundlagen, insbesondere die der Kosten- und Leistungsrechnung beherrschen. Sollte er nicht wissen, wie sich ein Deckungsbeitrag errechnet (Erlöse abzgl. variable Kosten), ist er fehl besetzt. Diese letztgenannten Kenntnisse bilden auch die Grundlage für das spezifische Methoden-Know-how rund um Forecasts. Wenn das Unternehmen nicht nur einen von den individuellen Einschätzungen der Verkäufer geprägten rollierenden Forecast als Planungsgrundlage haben möchte, sondern einen wirklich belastbaren, dann kommt der Forecaster nicht darum herum, sich mit der Methodik, so, wie sie in diesem Buch beschrieben ist, zu beschäftigen. Hierfür benötigt er grundlegende statistische Kenntnisse, muss also wissen, was eine Zeitreihe, eine Standardabweichung und eine Exponentialfunktion ist. Somit ist der klassische Werdegang der für die Erstellung der Prognosen verantwortlichen Person der eines Vertriebscontrollers. Inwieweit der Forecaster auch mit komplexeren Methoden umzugehen versteht, ist eine Frage der jeweiligen Branche und des Einzelfalls. So werden Verfahren wie Box-Jenkins- oder ARIMA-Modelle zu finden sein, wenn sie sich als nützlich und treffsicherer erweisen als einfachere Methoden. Doch wenn der Forecaster die zuvor beschriebenen Fähigkeiten besitzt, wird es ihm möglich sein, sich durch geeignete Literatur einzuarbeiten. Aspekt 2: Persönliches Commitment Machen wir es einfach: Persönliches Commitment ist dann gegeben, wenn der Forecaster bereit ist, sich an seiner Prognose messen zu lassen. Bestenfalls ist er bereit, einen Gutteil seines Gehalts auf seine Prognosen zu verwetten. Das ist unüblich und das Argument ist, dass es zu viele externe Einflüsse und zu viele handelnde Personen gäbe, welche die zu prognostizierenden Größen beeinflussen würden, ohne dass der Forecaster dies in der Hand hätte. Aber dem liegt ein gedanklicher Fehler zugrunde:

5 Singh,

2014.

30

3  Was macht eine Prognose zu einer guten Prognose?

Ein guter Forecast besteht immer auch aus Annahmen über die eigene Vertriebsstrategie und deren Rahmenbedingung (Anzahl Verkäufer, Anzahl Filialen, Produkte usw.). Wenn sich intern Strategie bzw. Rahmenbedingungen verändern, ist es auch einsichtig, dass die ursprüngliche Prognose nicht mehr eintreffen kann. In diesem Falle wäre die (Gehalts-)Wette nichtig, zumindest aber zu korrigieren, indem dem Forecast eine größere Toleranz hinsichtlich des Erreichens des Prognosewertes zugestanden wird. Sind es aber externe Einflüsse, so wäre es Aufgabe des Forecasts gewesen, diese zu antizipieren. Ist dies nicht geschehen, so ist die Wette für den Forecaster verloren. Somit wird, wenn sein Einkommen daran hängt, der Forecaster bemüht sein, die Prognose und die dafür erforderlichen Rahmenbedingungen gewissenhaft zu erstellen bzw. zu definieren. Das heißt auch, dass er die Eintrittswahrscheinlichkeit seiner Prognosen adäquat beziffert. Was heißt das nun? Das heißt, dass es ohne Zweifel sinnvoll ist, die Arbeit des Forecasters pekuniär zu bewerten. Mehr noch: Ein Forecaster könnte selbst vorschlagen, eine Prämie zu bekommen, die umso höher ist, je genauer seine Prognose ist, und einen Malus, wenn er fehlt. Aspekt 3: Organisatorische Einbindung des Forecasters Wo sollte der Forecaster angesiedelt sein? Zunächst: „Forecaster“ oder „PrognoseErsteller“ verstehe ich als Teil der Aufgabenbeschreibung einer Person bzw. Stelle, denn außer in Großunternehmen füllt sie nicht aus. Aber auch wenn es sich um eine dedizierte Stelle handelt, kann es nur eine organisatorische Zuordnung geben: Den Vertrieb. u

Nur dann, wenn eine Organisationseinheit ihre zukünftigen Leistungen selbst bewertet, wird sie diese als Grundlage ihrer eigenen Planung verwenden. Somit obliegt die Aufgabe des Forecastings immer dem Vertriebscontroller und der sollte unbedingt ein Mitarbeiter des Vertriebs sein.

Dies hat gleich mehrere Gründe:6 Der Forecaster muss nahe mit denjenigen zusammenarbeiten, die für den Verkauf verantwortlich sind, die eine Kundenkontaktsituation interpretieren können. Nur diese können einschätzen, wie nahe der Kunde dem Kauf ist, wann und in welchem Umfang also mit einem Auftrag zu rechnen ist. Dies gilt sowohl für den b2b- also auch für den b2c-Markt. Falsch wäre es, den Forecast durch einen Mitarbeiter des Marketings erstellen zu lassen. Die Erfahrung lehrt, dass Prognosen des Marketings viel zu sehr der Gefahr unterliegen, interessengeleitet zu sein.7 Personen, deren Verantwortung es ist, die richtigen Produkte zu entwickeln bzw. einzukaufen, die richtigen Zielgruppen zu erschließen und die richtigen Kommunikationskonzepte zu entwickeln, werden in ihre

6 Eine

ausführliche Begründung hierzu findet sich in Kap. 2 von Kühnapfel, 2022. zu dieser Einschätzung auch die Begründung von Wallace & Stahl, 2002, S. 10.

7 Siehe

3.1  Erfolgsfaktor 1: Fähigkeiten, …

31

Prognosen immer eine Portion Hoffnung einpreisen.8 Fehlprognosen werden dann entweder mit dem Fehlverhalten des Vertriebs oder externen, unvorhergesehenen Einflüssen, z. B. Maßnahmen der Wettbewerber, begründet. Ebenso falsch, aber in der Praxis sehr häufig anzutreffen, ist, die Verantwortung für Vertriebsprognosen in die Hände des Controllings zu legen. Dafür spräche, dass das Controlling nicht der Gefahr der interessengeleiteten und damit zweckorientierten Prognose unterliegt. Das Arbeitsergebnis, an dem das Controlling gemessen wird, ist weder die Anzahl und Güte von Kundenaufträgen, noch die Anzahl verkaufter Produkte, der Umsatz oder der Kundenwert. Es ist die Qualität der Planung, Steuerung, Koordination und Kontrolle von Prozessen, Organisationseinheiten und Entscheidungen. Somit wäre es prädestiniert, wenn in der betrieblichen Praxis mehr Vertriebs-Knowhow vorhanden wäre. Aber die immanente Distanz des Controllings von den verkaufsverantwortlichen Einheiten ist in der Regel zu groß und in den allermeisten Fällen hat es sich nicht bewährt, Vertriebsprognosen durch eine Controlling-Abteilung erstellen zu lassen. Aspekt 4: Unabhängigkeit des Forecasters Unabhängigkeit wovon? u

Wenn eine Prognose nicht eine verkappte Zielplanung oder gar Planungsrechtfertigung sein soll und auch kein Instrument, um weitere Vertriebsressourcen zu ergattern, muss der Forecaster von den Interessen und Zielen derjenigen Instanzen, für die er eine Prognose erstellt, unabhängig sein.

Schließlich wird seiner Prognose nur getraut und sie wird nur dann als Planungsgrundlage genutzt werden, wenn die Verwender sicher sein können, dass sie nicht interessengeleitet ist. Insofern ist der Vertriebscontroller, den ich als idealen Forecaster vorschlage, zu schützen. Zuweilen sind seine Prognosen unbequem und die Werte entsprechen nicht den Zielen. Dann ist ein Ziel der Prognose erreicht, nämlich durch die Abweichung von Ziel und Prognosewert dem Management ein Delta aufzuzeigen. Von besonderem Interesse ist an dieser Stelle eine empirische Untersuchung, in der Erfolgsfaktoren der Absatzplanung untersucht werden.9 Nun ist eine Absatzplanung zweifellos kein Forecast, sondern sie nutzt diesen in einem weiteren Prozessschritt, aber dennoch helfen die Studienergebnisse zu erkennen, welche Bedeutung die Einbindung von Mitarbeitern hat. Abb. 3.1 zeigt einige hier wichtige Ergebnisse dieser Studie. Deutlich werden die überragende Bedeutung der zwischenmenschlichen Interaktion und damit die Einstellung der beteiligten Personen gegenüber dem Prozess ersichtlich. Die Lehre, die wir aus dieser Studie ziehen können, ist klar:

8 Eine

Erkenntnis, die schon McGregor 1938, belegte und die heute genauso gültig ist wie damals. et al., 2008.

9 Homburg,

32

3  Was macht eine Prognose zu einer guten Prognose?

Interaktion im Planungsprozess Subjektiv wahrgenommene Qualität der Planung

Kopplung des Forecasts an Anreizsysteme Integration in die Gesamtplanung

Formalisierung des Planungsprozesses Marktorientierung des Planungsinhalts 0

0,05

0,1

0,15

0,2

0,25

0,3

0,35

Korrelationskoeffizient

Abb. 3.1   Einflussfaktoren auf den Prozess der Absatzplanung nach Homburg et al., 2008

u

Je wichtiger der Forecast im Unternehmen genommen wird, desto besser wird seine Qualität.

Mitarbeiterinnen und Mitarbeiter engagieren sich mehr in Projekten, die ernst und wichtig genommen werden, die ihnen eine gute Reputation und Anerkennung einbringen, weil sie vom Management „beobachtet“ und gewertschätzt werden. Das heißt natürlich auch, dass das Fehlschlagsrisiko höher ist, sich eine Blamage also gravierender auswirkt. Auch das motiviert zusätzlich und lässt Menschen konzentrierter arbeiten.

3.2 Erfolgsfaktor 2: Gestaltung des Prognoseprozesses im Unternehmen Vermutlich braucht nicht mehr dafür geworben werden, dass ein strukturierter, durchdachter Prozess hilft, betriebliche Abläufe effizient zu gestalten. Dies gilt uneingeschränkt auch für den Forecast-Prozess.10 Die Alternative dazu wäre, jedes Mal, wenn eine Aufgabe ansteht, den Lösungsweg neu zu erfinden. So gehen die meisten Unternehmen, insbesondere kleinere und mittelständische, vor. Dann bleibt es dem Geschick des mit dem Forecast Beauftragten überlassen, die richtigen Inputdaten zu beschaffen, die bestgeeigneten Methoden anzuwenden und die gewonnen Ergebnisse so aufzubereiten, dass sie als Planungsgrundlage von den Fachabteilungen verwendet werden können. Darauf sollten wir uns nicht verlassen.

10 Wallace

& Stahl, 2002, S. 13 und Homburg, et al., 2008.

3.2  Erfolgsfaktor 2: Gestaltung des Prognoseprozesses im Unternehmen

33

Ein typischer Forecast-Prozess, wie er in der betrieblichen Praxis anzutreffen ist, besteht aus den folgenden Schritten: 1. Betrachtung der Historie, etwa des bisherigen Verlaufs der Produktnachfrage. 2. Auswahl eines statistischen Modells, mit dem die Historie beschrieben und in die Zukunft extrapoliert werden kann. 3. Nachjustierung der Ergebnisse durch den Forecast-Ersteller, dann durch den Vorgesetzten und zuletzt anhand der Unternehmens- und Abteilungsziele. 4. Präsentation der Ergebnisse. Ein solcher Prozess führt jedoch nicht zu vernünftigen Ergebnissen, was sich alleine schon daran zeigt, dass kaum jemand den Prognosen vertrauen wird. Dabei ist er nicht verkehrt. Alle vier Prozessschritte werden gebraucht, sogar das Nachjustieren der Ergebnisse ist nützlich. Aber für eine gute, präzise Prognose reicht das nicht aus. Schauen wir uns ein Praxisbeispiel an, hier den Prognoseprozess, den die WalmartGruppe in der Mitte der 90er Jahre einführte. Der Prozess, der bei Walmart „CPFR – Collaborative Planning, Forecasting und Replenishment“ genannt wird, involviert viele Fachabteilungen und erscheint zunächst recht komplex. Tatsächlich aber verbesserte er Verkaufsprognosen um durchschnittlich 20–30 %, was sowohl zur Vermeidung von Umsatzausfällen durch Präsenzlücken als auch zur Vermeidung von Überbeständen führte.11 Der Prozess sieht folgende Schritte vor: 1. Organisation des Planungsprozesses und Selbstverpflichtung aller beteiligten Organisationseinheiten zu offener, zielführender Zusammenarbeit. Etablierung von Mechanismen, die greifen, wenn Unstimmigkeiten auftreten. 2. Erstellung eines abgestimmten Geschäftsplans in einem Team, insb. Planung von werblichen Maßnahmen, Produkteinführungen, Gestaltung und Organisation der Outlets. 3. Erstellung einer Vertriebsprognose durch einen Vertriebscontroller. 4. Ermitteln von Bedenken der Fachabteilungen gegen die Vertriebsprognose, etwa durch zu erwartende Ausnahmen von Regeltrends. 5. Anpassung der Prognose an die Ausnahmen, ggf. auch durch Einbindung von Lieferanten. 6. Erstellung eines Beschaffungs-Forecasts. 7. Ermitteln von Ausnahmen, Hemmnissen und Optimierungsmöglichkeiten für den Beschaffungs-Forecast. 8. Beheben der im siebten Schritt ermittelten Ausnahmen. 9. Ordern.

11 Dieses

Beispiel ist in zahlreichen Quellen gut dokumentiert, z. B. in Ireland, 2005.

34

3  Was macht eine Prognose zu einer guten Prognose?

Abb. 3.2   Normprozess zur Erstellung einer Prognose

1 2

Prozessvorbereitung und Prozessüberprüfung Erfassung und Auereitung der Inputdaten

3 Anwendung der Methode(n)

4

Präsentation und Nutzung der Output-Daten

Es ist zu erkennen, dass an zwei Stellen, den Schritten vier und sieben, Adjustierungen, also Datenanpassung,12 vorgesehen sind, nämlich immer dann, wenn bei der Zusammenarbeit der unterschiedlichen Organisationseinheiten Unstimmigkeiten entstehen. Walmart vertraut ganz offensichtlich darauf, dass das Zusammenspiel von Algorithmen (Trendextrapolation) und dem Wissen der Experten der Fachabteilungen (Wetter, Mode, Ereignisse) den Beschaffungsbedarf bestmöglich wiedergeben. Und genau das ist eines der Geheimnisse einer guten Prognose: u Der bestmögliche Forecast entsteht immer aus der Kombination eines bzw.

mehrerer adäquater Algorithmen und einer organisierten Adjustierung im Rahmen eines definierten Prognoseprozesses. Um nun einen universellen Prognoseprozess zu beschreiben, ist es hilfreich, sich mit den zahlreichen empirischen Studien und theoretischen Erkenntnisse zu diesem Thema zu beschäftigen. Lernen aus Erfahrungen. Hieraus ergibt sich der folgende „Normprozess“, der in Abb. 3.2 als Übersicht dargestellt ist. Diese vier Schritte des Normprozesses sagen allerdings noch nichts über die Qualität der resultierenden Prognose aus. Hierzu gilt es, Prinzipien zu beachten, die für den jeweiligen Prozessschritt gelten und die nachfolgend aufgeführt werden.13

12 Was

genau eine Adjustierung ist, wird in Abschn. 3.5 erläutert. Auflistung der Prinzipien ist eine Zusammenfassung aus insgesamt 18 ausgewerteten englischsprachigen Abhandlungen zum Thema Forecasting. Diese Zusammenfassung wurde im Wesentlichen von Cox jr. & Loomis, 2002, zusammengetragen und hier durch weitere Arbeiten, z. B. Armstrong, 2002f., ergänzt. 13  Die

3.2  Erfolgsfaktor 2: Gestaltung des Prognoseprozesses im Unternehmen

1

Prozessvorbereitung und Prozessüberprüfung

35

Ziele setzen

Forecaster besmmen

Forecaster legimieren

Ressourcen festlegen

Abb. 3.3   Prognoseprozessschritt 1: Vorbereitung und Überprüfung

Schritt 1: Prozessvorbereitung und Prozessüberprüfung In der Abb. 3.3 wird der erste Prozessschritt etwas ausführlicher dargestellt. Dieser erste Schritt ist sowohl initial als auch wiederkehrend durchzuführen, initial, wenn der Prognoseprozess erstmalig eingeführt wird, wiederkehrend nach jedem Forecast oder turnusmäßig, wenn der Prozess bzw. die Prozessverantwortlichen auf den Prüfstand gestellt werden sollen. Hierzu dienen die Erkenntnisse des letzten, vierten Schrittes, die vor allem dann zu einer Überprüfung des ersten Schrittes führen, wenn die Prognoseergebnisse nicht den Erwartungen entsprechen. Die Prinzipien, die für ein gutes Prognoseergebnis relevant sind, lassen sich für jeden einzelnen der vier Teilschritte recht leicht herausarbeiten. Sie sind in Tab. 3.1 wiedergegeben. Deutlich werden hier zwei wesentliche Aufgaben: Die eine ist, dass sich die Organisation, und das heißt hier alle, die mit dem Forecast arbeiten sollen, schon von Beginn an mit dem Gedanken beschäftigen sollten, wie sie den Forecast in ihren eigenen Planungen berücksichtigen wollen. Die jeweilige Zielformulierung und die Planung der Zielerreichung wird jenem Prognosewert gegenübergestellt, der unabhängig von der Zielplanung ermittelt wird. Er zeigt, ob die Erreichung der geplanten Ziele unter den gegebenen Umständen realistisch ist oder nicht. Die zweite Aufgabe ist, dass der Forecaster in der Organisation etabliert wird. Er wird Daten einfordern, die normalerweise nicht offen kommuniziert werden, er wird Zusatzinformationen benötigen, die sonst der Geheimhaltung unterliegen (etwa solche aus der internen Rechnungslegung). Er wird Ressourcen und Zuarbeiten benötigen, die auch anderweitig benötigt werden. Also braucht er eine Legitimation von adäquater Instanz.

36

3  Was macht eine Prognose zu einer guten Prognose?

Tab. 3.1  Gestaltungsprinzipien für Schritt 1 eines erfolgreichen Forecasts Teilschritt

Gestaltungsprinzip

Ziele setzen

• Bestimmung der Entscheidungen, die vom Forecast beeinflusst werden • Antizipation möglicher Ergebnisse sowie Planung von Aktionen, die je nach Prognoseergebnis umgesetzt werden sollen • Unabhängigkeit des Forecasts von der Unternehmenspolitik und der Zielwerte, sicherstellen • Klarstellung der Ergebnisart: Ereigniseintritt, Einzelwert oder Zeitreihe • Klärung der Erwartung aller Outputdaten-Verwender hinsichtlich – Zeitraum des Prognoseprozesses – Belastbarkeit und Genauigkeit der Ergebnisse – Eintrittswahrscheinlichkeit – Möglichkeiten für die Verwendung der Ergebnisse

Forecaster bestimmen

• Festlegung des Prognoseprozessverantwortlichen • Benennung des Forecasters (sofern nicht der gleiche) • Klärung von spezifischem Know-how, Commitment und organisatorischer Einbindung des Forecasters

Forecaster legitimieren

• Organisationsweite Erlaubnis für den Forecaster, die erforderlichen Inputdaten zu erhalten und zu verwenden • Sicherstellung der Bereitschaft aller erforderlichen Stellen, den Forecaster zu unterstützen • Benennung eines „Paten“, der bei Problemen des Forecasters in der Organisation helfen kann

Ressourcen festlegen

• Abschätzung des Arbeitsaufwands für den Forecaster • Bereitstellung erforderlicher Unterstützung, z. B. der IT-Abteilung

Schritt 2: Erfassung und Aufbereitung der Inputdaten Interessanterweise erfolgt dieser zweite Schritt vor dem dritten, also der Auswahl und Durchführung der Methode. Dies ist bei näherem Hinsehen auch richtig, denn die Wahl der Methode wird wesentlich von der Verfügbarkeit und Belastbarkeit von Daten bestimmt. Abb. 3.4 zeigt den zweiten Teilschritt des Prognoseprozesses im Überblick. Die Gestaltungsprinzipien, die zur Erstellung einer guten Prognose beachtet werden müssen, sind in Tab. 3.2 aufgeführt. Sicherlich werden jetzt noch einige der Gestaltungsprinzipien der Tab. 3.2 kryptisch anmuten, denn ihre Bedeutung und auch ihre Sinnhaftigkeit erschließt sich erst, wenn die einzelnen Methoden in den Kapiteln 7 bis 11 erläutert werden. Interessant ist jedoch, dass bei diesem zweiten Prozessschritt auf dem Weg zu einer guten Prognose bereits eine erste Bearbeitung (Adjustierung) der Daten erfolgt. Diese werden also nicht nur stumpf gesammelt, sondern bereits analysiert und behandelt. Erforderlich ist dies, um geeignete Methoden zu identifizieren, die im dritten Prozessschritt angewendet werden. Hinzuweisen ist hier auf den Erfolgsfaktor, darauf zu achten, wer die Daten bereitstellt. Um nicht interessengeleitetes Material zu verwenden (mit dem z. B. ein Manager beabsichtigt, eine für ihn günstige Prognose, die im Planungsprozess zu einem niedrigen

3.2  Erfolgsfaktor 2: Gestaltung des Prognoseprozesses im Unternehmen

2

Erfassung und Auereitung der Inputdaten

37

Strukturierung der Aufgabe Inputdaten idenfizieren Sammlung Inputdaten Auereiten der Inputdaten

Abb. 3.4   Prognoseprozessschritt 2: Erfassung und Aufbereitung von Inputdaten

Tab. 3.2  Gestaltungsprinzipien für Schritt 2 eines erfolgreichen Forecasts Teilschritt

Gestaltungsprinzip

Strukturierung der Aufgabe

• Unterteilung des Prognoseproblems in lösbare Teilprobleme • Probleme strukturieren, die Interaktionen erfordern • Probleme strukturieren, denen Kausalzusammenhänge zugrunde liegen

Identifikation von Inputdaten

•S  icherstellen, dass die Daten, die genutzt werden sollen, die Aufgabenstellung der Prognose betreffen • Unterschiedliche Quellen für die Inputdaten erschließen • Identifikation von Daten über vergleichbare Zeiträume • Identifikation von kausalen Zusammenhängen der Daten • Vermeidung von Inputdatenquellen, die Wahrnehmungsverzerrungen unterliegen •S  icherstellung von Verlässlichkeit, Glaubwürdigkeit und Validität der Inputdatenquellen

Erfassung von Inputdaten

• Anwendung objektiver, systematischer und reproduzierbarer Verfahren, um Daten zu sammeln • Sammlung aller wichtigen Daten • Dokumentation nicht oder nicht vollständig verfügbarer Daten • Blind Spots soweit möglich identifizieren („unbekannte Unbekannte“)

Aufbereitung von Inputdaten

• Bereinigung und Adjustierung der gesammelten Daten • „Levels“ und „Trends“ in Zeitreihen identifizieren • Kausale Einflüsse auf Zeitreihen identifizieren • Vermeidung von Zeitreihen, die Unterbrechungen aufweisen, sofern möglich • Bereinigung von Ausreißern in der Vergangenheit • Bereinigung systematischer Schwankungen (Zyklen), z. B. Saisons • Dokumentation aller Datenbearbeitungsschritte

38

3  Was macht eine Prognose zu einer guten Prognose?

3 Anwendung der Methode(n)

Auswahl Methode(n) Qualitave Methode(n)

Quantave Methode(n)

Nutzung ergänzender erklärender Variablen

Zusammenführung im kombinierten Forecast Bewertung der Methoden und Einschätzung von Unsicherheiten

Abb. 3.5   Prognoseprozessschritt 3: Durchführung der Methode(n)

Verkaufsziel führt, herbeizuführen14), sind Rohdaten immer bereits aufbereiteten Daten vorzuziehen. Schritt 3: Durchführung der Methode Nachdem die Inputdaten gesammelt und aufbereitet sind, erfolgt mit ihrer Hilfe die Erstellung der Prognose. Da wir über 30 praktikable Methoden kennen, ist die Auswahl einer bzw. mehrerer geeigneter notwendig. In Abschn. 3.3 wird dies als eigenständiger Erfolgsfaktor beschrieben. Hier geht es zunächst um die Abbildung des Prozesses und im Speziellen seines umfangreichen dritten Teilschrittes, wie er in Abb. 3.5 dargestellt ist. Auch hier lassen sich für jeden einzelnen Teilschritt Gestaltungsprinzipien (Tab. 3.3) finden, die als Checkliste genutzt werden können. Diese Auflistung von Gestaltungsprinzipien ist zweifellos zu umfangreich, um praktikabel zu sein. Auch fehlen eine Struktur und hier vor allem eine Priorisierung. Diese wird in den folgenden Kapiteln nachgeholt. Schon jetzt wird aber deutlich, dass ein wesentlicher Erfolgsfaktor, nämlich die Verwendung mehrerer verschiedener Methoden (siehe Abschn. 3.3), immer bedeutet, dass das jeweilige prozessuale Vorgehen vom Forecaster dokumentiert werden muss. Hierzu sollte er sich ein problemgerechtes Organisationsformat ausdenken, das auch von einem sachkundigen Dritten verstanden

14 Vgl.

Jensen, 2001.

3.2  Erfolgsfaktor 2: Gestaltung des Prognoseprozesses im Unternehmen

39

Tab. 3.3  Gestaltungsprinzipien für Schritt 3 eines erfolgreichen Forecasts Teilschritt

Gestaltungsprinzip

Auswahl der Methode

• Kriterien auflisten, die bei der Prognose zu berücksichtigen sind • Unbeeinflusste Experten nach einer Empfehlung für eine Methode für das Prognoseproblem befragen • Strukturiere Forecast-Methoden sind unstrukturierten vorzuziehen • Quantitative Methoden sind qualitativen vorzuziehen • Einfache Methoden sind komplexeren vorzuziehen • Methoden verwenden, die die Kausalzusammenhänge abbilden • Wahl der Methode anhand der konkreten Situation prüfen • Sicherstellen, dass die verwendete Methode verstanden und inhaltlich akzeptiert wird

Anwenden der Methode (allgemein)

• Methoden einfach halten • Realistisches Abbild der Prognosesituation formulieren •U  nsicherheiten oder Instabilitäten der Prognosesituation konservativ beurteilen und entsprechend berücksichtigen •Z  ukünfte Events bzw. außergewöhnliche Ereignisse (soweit bekannt) durch Adjustierung der Ergebnisse einbeziehen • Konsistenz mit möglichen themenverwandten Prognosen sicherstellen

Anwenden qualitativer Methoden

• Fragestellung testen, die im Rahmen des qualitativen Forecasts gestellt werden sollen („Pretest“) • Fragen verwenden, die sich eindeutig abgrenzen lassen • Wenn möglich, Verwendung numerischer Skalen für die jeweiligen Fragenstellungen • Experten bitten, ihren eigenen Forecast kritisch zu hinterfragen •F  orecasts, die von mehreren Experten erstellt wurden, zusammenführen • Annahmen und Unterstellungen, die Experten für ihren qualitativen Forecast angewendet haben, erfragen und dokumentieren • Verschiedene Schätzungen bzgl. eines zukünftigen Events von jedem einzelnen Experten erfragen

Anwenden • Forecast-Modell auf den Betrachtungszeitraum zuschneidern quantitativer Methoden • Forecast-Modell so auswählen, dass es zum Prozess, dessen Ergebnisse prognostiziert werden sollen, passt • Daten umso höher gewichten, je relevanter sie sind • Aktualisierung der Modelle regelmäßig überprüfen (Fortsetzung)

40

3  Was macht eine Prognose zu einer guten Prognose?

Tab. 3.3   (Fortsetzung) Teilschritt

Gestaltungsprinzip

• Sowohl Theorie als auch spezifisches Fachwissen verwenden, Anwenden – um die erklärenden Variablen zu finden, quantitativer Methoden – um die Verlaufsrichtung der Prognose zu finden, mit ergänzenden – um Beziehungen zwischen den erklärenden Variablen zu erkennen erklärenden Variablen • Alle wichtigen erklärenden Variablen verwenden • Daten unterschiedlicher Herkunft und unterschiedlichen Typs verwenden, um Beziehungen abzuschätzen •P  rognosen für mindestens zwei unterschiedliche zukünftige Umweltszenarien erstellen (Szenarien) Zusammenführen • Strukturierte Prozeduren verwenden von qualitativen und • Strukturierte Wertungen und Gewichtungen verwenden quantitativen Forecasts • Vorab festgelegtes spezifisches Wissen als Input verwenden, um subjektive Adjustierungen zu begrenzen • Dokumentation des Verfahrens Kombinierter Forecast

• Forecasts kombinieren, wenn Unsicherheit bezüglich – der besten Methode oder – der Prognosesituation besteht bzw – wenn wichtig ist, große Prognosefehler zu vermeiden • Forecasts kombinieren, denen unterschiedliche Betrachtungsweisen zugrunde liegen • Viele Forecasts berücksichtigen, mindestens fünf • Formale Prozeduren verwenden, um Forecasts zu kombinieren • Anfängliche Gleichgewichtung aller zu kombinierenden Forecasts • Gewichtung anpassen, wenn Prognosefehler der jeweiligen Methoden später bekannt sind (Fortsetzung)

3.2  Erfolgsfaktor 2: Gestaltung des Prognoseprozesses im Unternehmen

41

Tab. 3.3   (Fortsetzung) Teilschritt

Gestaltungsprinzip

Bewertung der Forecast-Methode

• Methoden miteinander vergleichen • Objektive Tests verwenden, um dem Forecast zugrunde liegende Annahmen zu überprüfen • Testsituation erstellen, um zu überprüfen, ob die Methode zum Forecast-Problem passt • Umstände des Forecast-Problems beschreiben • Mögliche Wahrnehmungsverzerrungen des Forecasters beschreiben • Dokumentieren, wie verlässlich, aussagekräftig und valide die Inputdaten sind • Einfachen Zugriff auf die benötigten Inputdaten sicherstellen • erforderlichen Informationen über das Prognoseverfahren zur Verfügung stellen • Annahmen auf Gültigkeit testen • Überprüfen, ob die Prognosedatenverwender die Ergebnisse verstehen und richtig interpretieren • Allgemeingültigkeit der Forecast-Methode überprüfen • Forecasts vergleichen, die auf unterschiedliche Art erstellt wurden • Alle wichtigen Kriterien für einen Forecast eruieren • Kriterien spezifizieren • Validität der Methoden und Daten überprüfen • Prognoseabweichungen messen, um Skalen zu adjustieren • Fehlermessungen valide gestalten • Fehlermessungen vermeiden, deren Ergebnisse abhängig von der Komplexität der Forecast-Methode sind • Unterschiedliche Methoden zur Messung der Genauigkeit von Forecasts verwenden • Nach möglichen Wahrnehmungsverzerrungen bei Fehlermessungen suchen • Fehlermessungen vermeiden, die in hohem Maße von Ausreißern in den Daten beeinflusst werden könnten • Nachträgliche Genauigkeitstests anwenden, um mögliche Einflusseffekte zu bewerten • Statistische Signifikanzen nur verwenden, um die Genauigkeit von Methoden zu vergleichen • Möglichst große Datensammlungen verwenden, um Methoden zu vergleichen • Kosten-Nutzen-Analysen erstellen

Einschätzung von Unsicherheiten

• Vorhersageintervalle verwenden, die der realen Situation entsprechen • Liste von möglichen Gründen erstellen und dokumentieren, warum der Forecast fehlerhaft sein könnte • Vorhersageintervalle alternativer Methoden angleichen • Sicherheitsfaktoren verwenden • Simulation unter Verwendung verschiedener Annahmen (z. B. der Sicherheitsfaktoren) • Abschätzung von Unsicherheiten nicht in klassischen GruppenMeetings durchführen

42

3  Was macht eine Prognose zu einer guten Prognose?

wird, der beispielsweise nach ihm die Aufgabe, Prognosen zu erstellen, übernehmen wird. Schritt 4: Präsentation und Nutzung der Outputdaten Nachdem die eigentlichen Prognosen erstellt wurden, ist die Aufgabe für den Prognoseersteller noch nicht beendet. Vielmehr ist letzter Prozessschritt, die Ergebnisse den Betriebsbereichen, also den Adressaten, zu präsentieren. Hierzu müssen die Ergebnisse möglicherweise noch einmal aufbereitet werden, damit sie Antworten auf die Fragen, die von jedem Betriebsbereich gestellt werden, geben können. Oft geht es lediglich um • eine jeweils individuelle Sortierung der Daten (nach Produkten, Auftragseingangszeitpunkten, Losgrößen usw.), • eine Aggregation und Fokussierung der Erkenntnisse auf die benötigte Information oder • das problemspezifische Herausarbeiten ungewöhnlicher Trends. Das Ziel und damit die Messlatte sind, dass die Adressaten beurteilen können, inwieweit sie dem Forecast vertrauen können. Dieses „Vertrauen“ ist nicht als messbare Größe oder als Schwellwert zu verstehen, sondern es äußert sich darin, dass der Forecast zur Grundlage der weiteren Planung wird. Es ist Aufgabe der Unternehmensführung, dieses Vertrauen abzufragen und dann dafür zu sorgen, dass alle betrieblichen Bereiche gleichermaßen verfahren. Es wäre wenig nützlich, wenn die Produktion sich – anstatt dem Forecast zu vertrauen und dessen Stückzahlen zu verwenden – eine eigene Produktionsplanung vornimmt, hingegen aber die Logistik ihren Lagerplatzbedarf am Forecast ausrichtet und dann zu wenig oder zu viel Fläche bereitstellt. Friktionskosten dieser Art vermeidet die Unternehmensführung, indem sie durch das Controlling eine abgestimmte Unternehmensplanung durchführen lässt, aus der sich die jeweiligen Teilpläne ableiten. Die Grundlage hierfür ist, wie in Abschn. 2.3 beschrieben: Die Vertriebsprognose. Der letzte Prozessschritt, die Präsentation und Nutzung der Outputdaten, wird in Abb. 3.6 skizziert, die Gestaltungsprinzipien dieses Prozessschritts finden sich in Tab. 3.4. Auch hier wird offensichtlich, wie wichtig die Dokumentation der Arbeit und der Zwischenergebnisse des Forecasters ist. Dieser Aspekt kommt als Erfolgsfaktor oft zu kurz, denn der Nutzen akribischer Dokumentation erschließt sich nicht unmittelbar. Wenn das Ziel jedoch ist, die Qualität des Forecasts kontinuierlich zu verbessern, die Zukunft also immer präziser und sicherer vorauszusagen, ist unerlässlich, wie ein guter Arzt zu arbeiten, der jeden Behandlungsschritt notiert. Nicht alles, was ein Forecaster tut, macht den Forecast besser. Außerdem dauert es mitunter Jahre, bis durch die Anpassung der Gewichte der Einzelergebnisse bei einem kombinierten Forecast und die Auswahl der bestgeeigneten Methoden (siehe nachfolgende Kapitel) die Ergebnisse

3.3  Erfolgsfaktor 3: Methodenwettbewerb

4

Präsentation und Nutzung der Output-Daten

43

Präsentation der Ergebnisse Lernen

Schritt 1

Aufbereiten der Inputdaten

Abb. 3.6   Prognoseprozessschritt 4: Präsentation und Nutzung der Outputdaten

Tab. 3.4  Gestaltungsprinzipien für Schritt 4 eines erfolgreichen Forecasts Teilschritt

Gestaltungsprinzip

Präsentation des Forecast-Ergebnisses

• Leicht verständliche Zusammenfassung der Prognose-Ergebnisse erstellen • Leicht verständliche Erklärung der Prognose-Methoden erstellen, ggf. „Lesehilfen“ beifügen • Annahmen dokumentieren • Forecast für die jeweiligen Vorhersageintervalle präsentieren • Forecasts als Szenarien präsentieren

Lernen vom Ergebnis

• Bisherige Erfahrungen in die Forecasts für die kommenden Prognosen einarbeiten • Feedback von den Prognosedatenverwendern einholen • Formalen Prüfprozess erstellen und verwenden, um die angewendeten Forecast-Methoden kontinuierlich zu verbessern • Formalen Prüfprozess für die Nutzung der Forecast-Ergebnisse erstellen und verwenden

wirklich präzise genug sind. Also ist es wichtig, zu dokumentieren, zu beschreiben und zu beobachten. Das eigene Gedächtnis ist trügerisch.

3.3 Erfolgsfaktor 3: Methodenwettbewerb Wie wir in Abschn. 3.2 bereits vor Augen geführt bekamen, ist der Wettbewerb der Methoden eine gute Idee. Auch werden wir im nachfolgenden Abschn. 3.4 sehen, das eine gute Prognose immer aus dem Mittelwert mehrerer Prognosen entsteht. Der Forecaster kommt also nicht darum herum, ein breites Spektrum an Methoden zu beherrschen. Je mehr, desto besser, denn dann kann er aus einem breiteren Fundus auswählen, welche Methode für das konkrete Prognoseproblem sinnvoll ist. Außerdem zeigt der Methodenwettbewerb möglicherweise, dass auch einfache, leicht erlernbare

44

3  Was macht eine Prognose zu einer guten Prognose?

Verfahren zu einem ausreichend präzisen Ergebnis führen können. Aber, und diese Feststellung ist sehr wichtig: u

Der „Methodenwettbewerb“ ist keine Ausrede dafür, sich auf nur wenige einfache Methode zu beschränken und sich die Mühe zu ersparen, auch die komplexeren zu erlernen und anzuwenden!

Diese kurze Einleitung in dieses Abschn. 3.3 ist als Plädoyer dafür zu verstehen, dass ein guter Forecaster umfangreiches Methoden-Know-how besitzen und unabhängig von der Komplexität einer Methode die jeweils besten für die anstehende Prognoseaufgabe auszuwählen in der Lage sein muss. Was dabei zu beachten ist, erläutert das Kap. 5. Es ist wichtig, hierauf hinzuweisen, denn in den vergangenen Jahren sind mir viel zu viele Forecasts begegnet, die so banal waren, dass sie schlichtweg unbrauchbar waren. Eine einfache Trendextrapolation, erstellt mit MS Excel, ist nur in seltenen Fällen eine belastbare Zukunftsprojektion und das Unternehmensmanagement tut recht daran, dieser Prognose nicht zu trauen. Umgekehrt sind mir jedoch nur selten allzu komplexe Prognosen begegnet. Der häufigere Fehler war, dass Methoden simplifiziert wurden und dass sich die Forecast-Ersteller ergebnisverfälschende „Verfahrensabkürzungen“ einfallen ließen oder ihnen mathematische Fehler nicht auffielen. Mit dieser Feststellung stehe ich nicht alleine, sondern sie zieht sich wie ein roter Faden durch die Prognosekultur der Unternehmen. Dabei ist die Frage nach der Komplexität einer Methode gar nicht wichtig. Es geht vielmehr darum, Methodenvielfalt zu nutzen, um die Art und Weise der Verarbeitung von Informationen zu variieren. Es geht darum, mehrere Methoden nebeneinander anzuwenden und die Ergebnisse erst miteinander zu kombinieren (Abschn. 3.4) und dann miteinander zu vergleichen (Abschn. 3.6), um für die zukünftige Arbeit zu lernen. Auch Institutionen wie die Europäische Zentralbank prüfen immer wieder ihre Prognosemethoden und sind bereit, diese zu ändern, wenn die Qualität der Forecasts hinter den Anforderungen zurückbleibt.15 Das Fazit: u

Der Methodenwettbewerb ist die einzige Möglichkeit, herauszufinden, welche Prognosemethode für das jeweilige Entscheidungsproblem die richtige ist. Dieser Wettbewerb erfordert erstens Zeit (mehrere Prognoseintervalle) und zweitens Know-how des Forecasters.

15 Siedenbiedel, 2022. Interessant auch das Eingeständis der Federal Reserve, bei ihren Prognosen schlechte Arbeit abgeliefert zu haben: o.V., 2022. Es ist eh erstaunlich, wie schlecht es Volkswirtschaftlern gelingt, selbst Basisparameter wie das BIP oder die Inflation zu prognostizieren. Siehe hierzu auch das Ergebnis der Analyse von Konjunkturprognosen, besprochen in Kollenbroich, 2015.

3.3  Erfolgsfaktor 3: Methodenwettbewerb

45

Um einen solchen Eindruck vom „Wettbewerb der Methoden“ zu bekommen, ist der beste Weg, sich mit den detaillierten Arbeiten von Makridakis zu beschäftigen.16 Er testete von 1983 bis 2020 wohl alle in Unternehmen üblichen Forecast-Methoden. Im jüngsten Test, der „M5“ genannt wird (für „Makridakis Forecast-Wettbewerb Nr. 5“), testete er einige Dutzend Forecast-Methoden mit hunderten von Zeitreihen unterschiedlichster Herkunft.17 Das erstaunliche Ergebnis: Der Unterschied zwischen den Abweichungsfehlern18 der Methoden ist erstaunlich gering. Auch zeigt sich, dass methodische Komplexität keineswegs mit der Prognosegenauigkeit korreliert. Tab. 3.5 zeigt das Ergebnis des M3-Wettbewerbs, wobei, wie schon zuvor auch, hier darauf hingewiesen sein soll, dass die Bezeichnung der Methoden uneinheitlich ist. Die Erkenntnisse des M3-Tests behalten uneingeschränkt Gültigkeit und eine Aktualisierung von Tab. 3.5 mit den Ergebnissen des M5-Tests bringt keine weiteren Erkenntnisse. Die Ergebnisse dieses Vergleichstests sind eindrucksvoll: 1. Technisch anspruchsvolle Prognosemethoden garantieren nicht bessere Forecasts als einfache.19 2. Die Kombination verschiedener Methoden schlägt in der Praxis die einzelne Methode. 3. Je weiter eine Prognose in die Zukunft blickt, desto unpräziser sind die Ergebnisse, unabhängig von der Methode. Erst, wenn wir die Aufgabenstellung im Detail betrachten, stellen wir fest, dass es für bestimmte Prognosesituationen durchaus bessere, aber auch weniger gut geeignete Methoden gibt.20 Somit ist das, was wir von Makridakis´ Arbeit lernen können: „Es kommt darauf an.“

16 Ausführlichere Erläuterungen finden sich bei Makridakis & Hibon, 2000 und Dorn, 1950, eine Zusammenfassung in Morlidge, 2014. Immer wieder versuchen sich Forscher an einem Vergleich „komplexer“ mit „einfachen“ Verfahren, kommen aber immer wieder zu dem Schluss, dass im Zweifel, wenn also keine Argumente gezielt für ein komplexeres Verfahren sprechen, einfachere vorzuziehen seien, bspw. Lawrence, et al., 2000. Weiterführend auch Thomas, 1993. Siehe auch die Erläuterungen des DIW in o.V., 2014. 17 Makridakis, et al., 2022a, Makridakis, et al., 2022b und weitere Beiträge in gleicher Ausgabe des „International Journal of Forecasting“. 18  Gemessen als mittlerer durchschnittlicher prozentualer Fehler: MAPE  = Mean Avarage Percentage Error. Dessen ausführliche Beschreibung folgt in Abschn. 6.2. 19  Aus pragmatischer Sicht erscheint dies selbstverständlich, aber insbesondere Wissenschaftler und Nerds tendieren dazu, Modelle so komplex, wie sie selbst es gerade beherrschen, zu gestalten. 20 So konnte z. B. gezeigt werden, dass für die Schätzung des Automobilabsatzes in Deutschland komplexe nicht-lineare Modelle einfacheren Trendprognosen vorzuziehen seien: Brühl, et al., 2009.

8,4

11,3

10,6 10,7

9,8

10,0

9,7

AAM1

AAM2

ARARMA

10,4

10,9

11,2

9,5

9,7

Autobox2

11,1

10,4

9,6

11,3

11,2

10,0

10,5

10,0

10,4

10,6

Autobox3

9,8

9,2

Autobox1

Decomp

ARIMA

9,8

Theta

10,5

Robust-Trend

Theta-sm

Box-Jenkins

8,9

Comp (S-H-D)

8,8

9,1

Winter

Dampen

9,0

Explicit Trend

Hot

10,5

9,5

Simple

Naive2

12,6

11,3

11,2

12,9

12,2

13,1

12,2

11,3

12,6

13,2

12,0

12,9

12,0

12,8

12,7

13,6

14,2

12,9

12,6

14,6

13,8

15,1

13,9

12,5

13,6

14,7

13,5

14,6

13,5

14,5

14,1

15,1

14,6

13,2

13,0

15,8

13,8

16,0

14,0

13,2

14,3

15,0

13,7

15,1

13,7

15,1

14,3

15,1

Prognosezeitraum in Monaten, MAPE in % 1 2 3 4 5

Single

Typ

Methode

15,6

13,7

13,5

16,5

14,9

16,8

14,8

14,0

15,0

15,9

14,2

15,9

14,3

15,8

15,0

15,9

6

Tab. 3.5  Ergebnisse des M3-Wettbewerbs von Makridakis, entnommen aus Morlidge, 2014

13,9

14,3

14,1

14,4

13,2

14,2

13,0

12,0

12,7

15,1

12,4

14,0

12,5

13,9

13,3

14,5

8

15,2

15,1

14,9

16,1

15,2

15,4

14,1

13,2

14,0

17,5

13,6

14,6

13,9

14,8

14,5

16,0

12

18,5

18,4

18,0

19,2

18,2

19,1

17,8

16,2

16,2

22,2

17,3

18,9

17,5

18,8

18,3

19,3

15

14,6

14,0

13,8

15,2

14,1

15,1

13,9

12,9

13,8

16,0

13,4

14,6

13,5

14,5

14,2

15,2

Ø

(Fortsetzung)

20,3

20,7

20,4

21,2

19,9

20,4

19,3

18,2

18,3

24,3

18,3

20,2

18,9

20,2

19,4

20,7

18

46 3  Was macht eine Prognose zu einer guten Prognose?

10,5

8,4

2,1

Max

Min

Spread

9,4

9,8

8,7

9,0

ForecastX

Automat AAN

Average

10,5

9,9

RBF

9,6

1,7

9,6

11,3

10,5

10,4

10,3

8,6

9,2

10,0

ForecastPro

Neural

10,5 11,0

SmartFcs

9,1

PP-autocast

9,2

10,0

Expert

Flores/Pearce1

2,4

11,2

13,6

12,3

11,8

11,6

12,4

12,0

11,4

12,1

12,8

12,6

2,6

12,5

15,1

13,8

13,8

13,1

13,4

13,5

12,9

13,5

14,1

14,5

3,0

13,0

16,0

14,2

13,8

13,2

13,2

14,0

13,3

13,8

14,1

14,8

Prognosezeitraum in Monaten, MAPE in % 1 2 3 4 5

Flores/Pearce2

Typ

Methode

Tab. 3.5   (Fortsetzung)

3,3

13,5

16,8

15,0

15,5

13,9

14,2

15,1

14,3

14,7

14,7

15,3

6

3,1

12,0

15,1

13,4

13,4

12,6

12,8

13,0

12,6

13,1

12,9

13,8

8

4,3

13,2

17,5

14,7

14,6

13,9

14,1

14,9

13,2

14,3

14,4

14,4

12

6,0

16,2

22,2

18,2

17,3

17,8

17,3

18,0

16,4

17,7

18,2

19,1

15

6,5

17,8

24,3

19,8

19,6

18,7

17,8

19,4

18,3

19,6

19,9

20,8

18

3,1

12,9

16,0

14,1

13,9

13,3

13,6

13,9

13,1

13,8

14,2

14,5

Ø

3.3  Erfolgsfaktor 3: Methodenwettbewerb 47

48

3  Was macht eine Prognose zu einer guten Prognose?

3.4 Erfolgsfaktor 4: Kombination verschiedener Forecasts Mittlerweise sind sich wohl alle Fachleute, die sich mit dem Thema Prognosen beschäftigen, einig: u

Das beste Ergebnis einer Prognose ergibt sich, wenn die Ergebnisse unterschiedlicher Methoden kombiniert werden.

Um es deutlich zu formulieren: Diese Erkenntnis ist im Grunde genommen ein alter Hut!21 Und trotzdem wird es nur selten getan! In vielen Unternehmen wird auf einen präziseren Forecast verzichtet und nur eine einzige Methode angewendet, nur, um dem Ergebnis dann doch nicht zu trauen und es nicht als Planungsgrundlage zu verwenden. Es gibt mittlerweile Dutzende empirische Untersuchungen, die allesamt bestätigen, dass eine Kombination von mehreren Prognosemethoden das bestmögliche Ergebnis liefert. In Unternehmen, für die Vertriebsprognosen tatsächlich die Planungsgrundlage sind, werden im Schnitt ca. 3,5 Methoden angewandt und kombiniert, wobei sich zeigen lässt, dass die Kombination von fünf Methoden noch bessere Ergebnisse brächte.24 Natürlich nimmt der Grenznutzen jeder zusätzlichen Methode ab, wenn über vielleicht sechs oder sieben hinaus weitere angewendet und in den kombinierten Forecast einbezogen werden. u Als Richtwert für den Forecaster gilt, dass er fünf Methoden zu einem

kombinierten Forecast vereinen soll. So eindeutig die Empfehlung ist und so klar sich die Wissenschaftler auf diesem Gebiet aussprechen, so bedarf sie im betrieblichen Alltag doch einer gewissen Überwindung: Wenn ein Forecaster mehrere Methoden anwendet und aus den Ergebnissen z. B. einen Mittelwert errechnet, so weiß er auch, dass er darauf verzichtet, nur einer Methode zu vertrauen, die möglicherweise exakt den Zukunftswert träfe. Ein Mittelwert ist immer nur ein Durchschnitt. Der Forecaster tauscht, vordergründig, die Chance, in wenigen Fällen den exakten Wert zu treffen, gegen die Chance, in vielen Fällen „recht genau“ zu sein. Aber diese Überlegung, auch wenn sie uns naheliegt, ist falsch.

21  Wir können hier Wissenschaftler des ausgehenden 19. Jahrhunderts bemühen, welche die Kombination von Ergebnissen verschiedener Methoden vorschlagen, aber auch Redfield, 1951, oder Reichard, 1965. Auch aktuellere Untersuchungen und Tests zeigen im Wesentlichen das gleiche Ergebnis, z. B. Winklhofer, et al., 1996. 24 Eine sehr sorgfältige Untersuchung und Auswertung von insgesamt 11 empirischen Studien zeigt dies eindeutig: West, 1994. Diese Meta-Analyse ist zwar nicht taufrisch, aber die Ergebnisse wären heute die gleichen.

3.4  Erfolgsfaktor 4: Kombination verschiedener Forecasts

u

49

Bei den allermeisten Prognoseproblemen ist die Chance, dass der Durchschnitt der Ergebnisse mehrerer Methoden genauer ist als das Ergebnis einer einzelnen Methode, signifikant höher.

Wenn nun aber später, also nach mehreren Perioden, festgestellt wird, dass die Ergebnisse einer bestimmten Methode die real eintretenden Werte besser treffen als jene der anderen und sogar jene der Durchschnittswerte, so wird der präziseren Methode ein höheres Gewicht bei der Berechnung des Durchschnittswertes gegeben. u

Langfristig verbessert sich die Qualität einer Prognose durch die Gewichtung der Durchschnittswerte der Ergebnisse verschiedener Prognosemethoden. Regelmäßig signifikant fehlerhafte Prognoseverfahren werden eliminiert.

Erweisen sich Methoden als treffsicher, bekommen sie in höheres Gewicht bei der Berechnung des Durchschnittswertes, erweisen sie sich regelmäßig als irreführend, verzichten wir auf sie. Leider gibt es auch hier keine festen Regeln, • wie oft eine Prognose präzise Ergebnisse liefern muss, damit sie ein höheres Gewicht erhält, • wie präzise diese Ergebnisse sein müssen oder • was genau mit „irreführend“ gemeint ist. Aber es gibt Faustregeln, die sich in der Praxis bewährt haben. Allen diesen Regeln ist gemein, dass die Adjustierung der Gewichtung mehrere Prognoseperioden dauert. Liegen Werte aus der Vergangenheit vor, können diese retrospektiv genutzt und einige Perioden auf Basis der dann schon bekannten Istwerte simuliert werden. Also: 1. Verwende mindestens fünf (!) unterschiedliche Methoden. 2. Gewichte in der ersten Periode die Ergebnisse der Methoden gleich. Bei z. B. fünf Methoden wird jedes einzelne Ergebnis mit 20 % gewichtet. 3. Verwende formale, nachvollziehbare Prozeduren zur Gewichtung der Ergebnisse, z. B. eine solche, wie sie im nächsten Schritt beschrieben wird. Bauchentscheidungen haben hier nichts zu suchen. Sie sind nicht nachvollziehbar, zufällig und erlauben keine langfristige Verbesserung der Prognosequalität. 4. Dokumentiere das Vorgehen bei der Gewichtung. 5. Berechne nach der ersten Periode die Genauigkeit jedes einzelnen Methodenergebnisses und gewichtige die zukünftige Prognose mit diesem Ergebnis. Ein Beispiel ist in Tab. 3.6 erläutert. Der Gewichtungsfaktor errechnet sich aus der Standardabweichung.

50

3  Was macht eine Prognose zu einer guten Prognose?

Tab. 3.6  Berechnung einer gewichteten Prognose Schritt

Ergebnis

Tatsächlicher Istwert

100

Ursprüngliche Prognosen Methode 1: 75, Abweichung: |25|22 Methode 2: 80, Abweichung: |20| Methode 3: 105, Abweichung: |5| Methode 4: 115, Abweichung: |15| Methode 5: 160, Abweichung: |60| Varianz der ursprünglichen Prognosen

s2 = ((75 − 100)2 + (80 − 100)2 + (105 − 100)2 + (115 − 100)2

Standardabweichung

s=

Genauigkeitskoeffizient jeder Methode. Je größer der Koeffizient ist, desto präziser war die Methode Rx = Standardabweichung |Abweichungt(n−1) |

+ (160 − 100)2 )/5 = 965



s2 =31,06

Methode 1: R1 =

Methode 2: R2 = Methode 3: R3 =

Methode 4: R4 = Methode 5: R5 =

31,06 25 31,06 20 31,06 5 31,06 15 31,06 60

= 1,24

= 1,55

= 6,12

= 2,07

= 0,52

Gesamtsumme der Koeffizienten = 11,5 Ergebnisse einer neuerlichen Prognose in der Folgeperiode (Annahme, Beispiel)

Methode 1: 95 Methode 2: 105 Methode 3: 120 Methode 4: 110 Methode 5: 145

Berechnung des gewichteten Prognosewertes in der Folgeperiode23

Pt+1 = (95 ∗ 1,24 + 105 ∗ 1,55 + 120 ∗ 6,12 + 110 ∗ 2,07 + 145 ∗ 0,25)/11,5 = 114,6

6. Können Ergebnisse über mehrere Perioden beobachtet werden, so werden die jeweiligen Gewichtungsfaktoren je Methode über diese Perioden gemittelt. Methoden, die sich nachhaltig als die präziseren erweisen, erhalten ein höheres Gewicht. Zur Verdeutlichung: Es werden nicht die jeweils sich ergebenden neuen Gewichtungsfaktoren für die nächste Prognose verwendet, sondern die Mittelwerte aller früher bereits berechneten Gewichtungsfaktoren. Als sinnvoll erweist es sich, die letzten

22 Die

senkrechten Striche vor und nach der Zahl geben an, dass es sich um den Absolutwert handelt, also das Vorzeichen nicht berücksichtigt wird. 23 Selbstverständlich könnte der Genauigkeitskoeffizient auch in einen prozentualen Gewichtungsfaktor umgerechnet werden, mit dem die Ergebnisse der neuerlichen Prognosen je Methode gewichtet werden. Methode 1 hätte dann einen Faktor von 0,108 (10,8 %), Methode 2 einen von 0,135 (13,5 %) und so fort. Das Ergebnis ist das gleiche.

3.4  Erfolgsfaktor 4: Kombination verschiedener Forecasts

51

drei bis fünf Perioden zu verwenden. Versuchsweise kann der Forecaster auch mit einer exponentiellen Glättung über die Variation des Alpha-Wertes den „jüngeren“ Gewichtungsfaktoren ein höheres Gewicht verleihen. Das bietet sich vor allem an, wenn die absoluten Abweichungen je Methode schwanken. Ein Alpha-Wert von 0,5 wäre ein erster Versuch. 7. Ist die absolute Abweichung einer Methode von einem Istwert doppelt so hoch wie die Standardabweichung, so eliminiere oder verändere sie! Im Beispiel aus Tab. 3.6 hätte dieses Schicksal fast Methode 5 ereilt. Doch anstatt sie zu eliminieren, ist eine gute Alternative, die Methodik selbst auf den Prüfstand zu stellen. Handelt es sich um eine rein quantitative Zeitreihenanalyse, ist die Entscheidung, auf diese zu verzichten, einfach. Alternativ könnte mit Korrekturvariablen gearbeitet werden, wenn die Abweichungen stets in die gleiche Richtung gehen. Doch eher ist eine solche gravierende Abweichung bei qualitativen, auf Expertenwissen gestützten Verfahren zu beobachten. Und diese zu streichen, kann kontraproduktiv sein, denn man entließe möglicherweise Repräsentanten bestimmter Unternehmenseinheiten aus der Pflicht, sich mit dem Forecast zu beschäftigen und das Ergebnis auch zu verwenden. Hier ist die Methode zu variieren und in den Folgeperioden der Ergebniseffekt zu beobachten. 8. Lassen sich Regeln aufstellen, die die Gewichtung von Prognosemethoden beeinflussen, so sind diese langfristig beizubehalten und ihre Wirkung ist von Periode zu Periode zu testen.25 Solche Regeln sind insbesondere dann nützlich, wenn äußere Einflüsse die erwartete Marktentwicklung beeinträchtigen werden. Somit geht es bei der regelbasierten Veränderung der Gewichte meist um die Veränderung der Bedeutung der quantitativen im Vergleich zu den qualitativen, also expertengestützten Verfahren. So könnte eine Regel z. B. lauten: „Ist wahrscheinlich, dass mindestens ein Wettbewerber in der nächsten Periode mit einer Innovation auf den Markt kommt, so gewichte die qualitative Methode (z. B. Delphi) mit mindestens 50 %“. Abschließend noch einige empirische Befunde: Sie alle zeigen eindeutig, dass die Kombination von Forecast-Methoden der bessere Weg zu einer präzisen Prognose ist, auch, wenn dies mehr Arbeit für den Forecaster und einen höheren Anspruch an dessen Methoden-Know-how bedeutet. • Je mehr Forecast-Methoden angewendet wurden, desto genauer war das Ergebnis. Vor allem galt dies für Langfristprognosen.26 • Bei einer Auswertung von 30 Anwendungsfällen (Studien) zeigte sich, dass der Forecast-Fehler bei einer Kombination mehrerer Methoden um ­ durchschnittlich 25 Eine ausführliche Diskussion des Nutzens dieser regelbasierten Gewichtung findet sich bspw. in Armstrong, et al., 2001. 26 Armstrong, 2002a, West, 1994, aber grundsätzlich auch Silver, 2012, S. 197–198.

52

3  Was macht eine Prognose zu einer guten Prognose?

12,5 % gesenkt werden konnte. Die Spannbreite möglicher Verbesserungen betrug übrigens 3 bis 24 %, was bedeutet, dass in allen Fällen die Kombination der Methoden nützlich war.27 • Die Anzahl einbezogener Forecasts war größer, wenn das Top Management die Prognosen erhielt und eine große Bandbreite von Unternehmenseinheiten involviert war.28 • Und, oben bereits beschrieben, hier der Vollständigkeit halber noch einmal erwähnt: Bewährt hat sich, ca. fünf Methoden, maximal aber zehn, miteinander zu kombinieren. Werden es mehr, nimmt die Genauigkeit tendenziell wieder ab.29

3.5 Erfolgsfaktor 5: Nach- bzw. Adjustieren Das Nach- oder Adjustieren von Forecasts ist das Verändern von Inputdaten oder von Ergebnissen. Es sind also zwei Ansatzpunkte (weiter unten werden sogar drei beschrieben), bei denen eine solche Adjustage passieren kann. So werden Zeitreihenanalysen, und nur um diese geht es hier, verändert, quasi die Berechnungen „überschrieben“. Doch welchen Grund könnte es geben, mathematisch korrekte, erprobte und nachvollziehbare Methoden derart zu verändern? Es geht darum, Expertenwissen zu berücksichtigen. Insofern ist jedes Adjustieren nichts anderes als ein „integrierter kombinierter Forecast“, integriert deshalb, weil nicht zwei Forecasts kombiniert werden, sondern zwei methodische Ansätze, die quantitative Analyse und die expertenwissenbasierte Datenveränderung, zu einem Forecast verschweißt werden. So werden Verbesserungen des Forecasts um durchschnittlich 15 % erreicht.30 Natürlich ist das gefährlich. Nur allzu oft wird die Adjustage dazu missbraucht, eine unbequeme Prognose so zu verändern, dass ein vorher festgelegtes Ziel plötzlich realistisch erscheint. Das erleben wir ständig auf dem Sektor politisch motivierter gesamtwirtschaftlicher Prognosen, z. B. bei der Abschätzung der Wirtschaftskonjunktur, einem ebenso enttäuschenden wie traurigen Kapitel volkswirtschaftlicher Prophetie. Aber auch auf Unternehmensebene besteht die Gefahr interessengeleiteter Adjustage: Ist z. B. das Produktmanagement von einem neuen Produkt überzeugt oder der Vertriebsleiter, „inspiriert“ durch ein Motivationsseminar, euphorisiert, ist die Sünde nicht fern,

27 Armstrong, 28 West,

2002a und Küsters, 2012.

1994.

29 Ebd. 30 Natürlich

sind solche Ergebnisse mit Vorsicht zu genießen, denn es sind Durchschnittswerte zahlreicher Studien und beantworten nicht die Frage, um wie viel Prozent die Adjustierung den individuellen, eigenen Forecast verbessern könnte. Dennoch: Die Ergebnisse sind erstaunlich und nachzulesen bei Silver, 2012, S. 198.

3.5  Erfolgsfaktor 5: Nach- bzw. Adjustieren

53

den erwarteten Markterfolg zu überschätzen.31 In einer sicherlich nicht mehr taufrischen Untersuchung konnte nachgewiesen werden, dass von Managementzielen motivierte Nachjustierungen sogar die Genauigkeit der Prognosen bei Fortune 500-Unternehmen signifikant verschlechterte.32 Leider wissen wir nicht wie sehr, aber das Ergebnis ist auch so eindeutig. Wohlgemerkt, es handelte sich um die 500 größten Unternehmen der Welt und dort arbeiten sicherlich exzellente Forecaster – sollte man meinen. Um Solches zu vermeiden, gibt es nur eine Lösung: Der Forecaster muss unabhängig sein, so, wie in Abschn. 3.1 beschrieben. Wann wird adjustiert? Nachjustiert werden darf niemals, wenn ein Prognoseergebnis mit den Zielen des Managements in Einklang gebracht werden soll. u

Nachjustiert werden darf nur, um in einer Zeitreihenanalyse außergewöhnliche Effekte in der Vergangenheit (Inputdaten) oder erwartete außergewöhnliche Effekte in der Zukunft zu berücksichtigen.

Das Nachjustieren ist immer dann lohnend,33 • wenn nennenswertes, aber unstrukturiertes Wissen („Domain Knowledge“) von Experten über die Zukunft vorhanden ist, • Experten sich sicher sind, relevante Informationen zu besitzen, • sichergestellt ist, dass diese Experten frei von eigenen oder fremdinduzierten Interessen sind, • wenn die Prognose in einer Situation mit einem hohen Grad von Unsicherheit erstellt wird oder • bekannt ist, dass sich die Umweltbedingungen in Zukunft verändern werden (z. B. Eintritt neuer Wettbewerber, neue Technologien, veränderte regulatorische Rahmenbedingungen). Wer darf adjustieren? Der Nobelpreisträger Daniel Kahneman beschreibt eingängig wie kaum ein anderer Verhaltensökonom unserer Zeit Wahrnehmungsverzerrungen.34 Er unterscheidet zwischen der Intuition von Experten und der Intuition von Laien. Expertenintuition

31 Verhaltenswissenschaftlich

ist es eine längst bekannte und oft überprüfte Tatsache, dass Euphorie zu einer Überschätzung der Möglichkeiten führt. Dieser Effekt wurde schon so manchem Start-upGründerteam zum Verhängnis. 32 Walker & McClelland, 1991. 33 Webby, et al., 2002 und Sanders & Ritzman, 2002. 34 Seine Erkenntnisse fasst er zusammen in Kahneman, 2012.

54

3  Was macht eine Prognose zu einer guten Prognose?

ist Erfahrungswissen, das der Fachmann bewusst oder unbewusst nutzt. Insofern ist Intuition nichts anderes als Wiedererkennen und je größer die Bibliothek an Erfahrungen ist, auf die ein Experte zugreifen kann, desto eher kann er in einer bestimmten Situation die Folgen abschätzen.35 Über ein solches Erfahrungswissen verfügt der Laie jedoch nicht. Seine Intuition basiert auf Vergleichen und Hoffnungen bezüglich der Handlungsfolgen. Ein junger Vertriebsbeauftragter wird, wenn sein Gehalt am Auftragseingang bemessen wird, stets zu optimistische Prognosen erstellen, denn er hofft auf zahlreiche Aufträge. Das Gefährliche ist dabei, dass der Laie, dem Erfahrungswissen fehlt, diesen Mangel nicht bewusst wahrnimmt. Vielmehr kompensiert er diese Wissenslücke unbewusst (mit Selbstüberschätzung). Dies macht die Auswahl der Experten, die gebeten werden, an der Adjustage mitzuarbeiten, zu einer Aufgabe, die der Forecaster bewusst wahrnehmen muss. Das wichtigste Fachwissen, kombiniert mit Erfahrung. Und das führt unweigerlich zu folgendem Schluss: u

Das beste Gremium für die Adjustage von Prognosen ist ein „Ältestenrat“ (oder auch: „Advisory Boad“). Erfahrungen und Fachwissen sind für diese Aufgabe wichtiger als Euphorie und organisatorischer Rang.

In diesem Zusammenhang ist darauf hinzuweisen, dass die Experten vor einer äußeren Beeinflussung geschützt werden müssen: Ihre Adjustage ist nur dann hilfreich, wenn sie ohne Zielinteressen geschieht. Selbst dann, wenn das Unternehmen die ganze Zukunft auf den Markterfolg einer Produktlinie verwettet, muss die Adjustage der Prognose davon unbeeinflusst sein. Nur dann ist die Prognose als Information für das Management wertvoll. Was wird adjustiert? Nachdem wir nun geklärt haben, wann adjustiert werden sollte und wer die Adjustage vornehmen darf, ist zu klären, wie dies geschehen soll. Denn auch, wenn Erfahrungswissen, das per se intuitiv und somit unstrukturiert ist, verwendet wird, heißt das nicht, dass dies unsystematisch geschieht. Grundsätzlich kann eine Adjustage an drei Stellen ansetzen: Zunächst sind es die Inputdaten, die verändert werden können. Insbesondere werden diese um „Ausreißer“ bereinigt. Solche Ausreißer zeigen sich schon optisch bei der Betrachtung eines historischen Trends und können auch ohne Expertenwissen identifiziert und geglättet werden, wenn die Gründe bekannt sind. Zu klären sind dann noch Ausreißer, für die es keinen ersichtlichen Grund gibt. Eine Nachjustage besteht hier zunächst darin, dass Experten nach den Ursachen zu befragen sind. Es geht also um Recherchen und folgende Ergebnisse sind möglich:

35 Simon,

1987 und Kahneman & Klein, 2009.

3.5  Erfolgsfaktor 5: Nach- bzw. Adjustieren

55

1. Es können Gründe gefunden und diese als unsystematisch klassifiziert werden. In diesem Fall ist hinreichend gewiss, dass sie sich nicht wiederholen und die Ausreißer werden in der Datenreihe durch Glättung eliminiert. 2. Ebenso ist zu verfahren, wenn überhaupt keine Ursachen identifiziert werden können („Marktzufälle“). 3. Unterliegen die Ursachen einer Systematik und ist damit zu rechnen, dass sie wieder auftauchen, so sind sie bei der Nachjustage der Ergebnisse zu berücksichtigen. Die zweite Stelle, an der Adjustage ansetzen kann, sind die Algorithmen der Methode. In der Regel geschieht dies durch Korrekturziffern bzw. Korrekturfaktoren. Der bekannteste ist vermutlich der Alpha-Wert, durch den bei der exponentiellen Glättung (siehe Abschn. 8.3) bestimmt wird, welche Gewichtung die jüngeren und welche die älteren Werte erhalten. Aber es ist auch möglich, einen solchen Korrekturfaktor bei z. B. einem rollierenden Forecast (siehe Kap. 9) einzusetzen. Wird festgestellt, dass die Vertriebsmannschaft, die für die Inputdatenpflege verantwortlich ist, die erwarteten Auftragseingänge stets um 20 % überschätzt, so wären die Prognoseergebnisse um diesen Faktor zu korrigieren, selbstverständlich unter Beachtung der Regeln der Prozentrechnung; hier wären die Inputdaten also um 16,7 % zu reduzieren. Zuletzt kann die Adjustage bei den Prognoseergebnissen ansetzen. Die große, nun schon mehrmals beschriebene Gefahr ist hier, dass eine Anpassung in Richtung „gewünschter“ Ziele vorgenommen wird. Das ist keine Adjustage, das ist Manipulation. Vielmehr geht es um ein zweistufiges Vorgehen: Auf Basis quantitativer Methoden wird eine Zeitreihenprojektion vorgenommen, es werden also Zukunftswerte berechnet. Aber: Es empfiehlt sich, hierfür zunächst Algorithmen zu verwenden, die methodisch „rein“ sind, die also ihrerseits noch nicht – wie im vorherigen Absatz beschrieben – adjustiert wurden. Erst in einem zweiten Schritt ist es erlaubt, um Korrekturfaktoren veränderte Algorithmen zuzulassen. Die nun berechnete Zeitreihe gibt einen Trendverlauf wieder, der bei stabilen Verhältnissen zu erwarten ist. „Stabil“ bedeutet jedoch nicht, dass ruhiges Fahrwasser auf den Märkten erwartet wird. Stabil bedeutet, dass die zukünftigen Verhältnisse so sind, wie sie in der Vergangenheit auch waren, denn die Entwicklungen der Vergangenheit werden ja fortgeschrieben. Mit dem verfügbaren Expertenwissen bzw. der auf Erfahrung basierenden Intuition der Experten werden nun entweder • Zukunftswerte mit einem absoluten Wert beaufschlagt oder reduziert (z. B. Auftragseingangsprognose des Vertriebs t+6 Monate: 200 T€, zzgl. 50 T€ wegen erwartetem Sonderauftrag, der vom Management selbst akquiriert wird), • Zukunftswerte mit einem Faktor multipliziert (z.  B. Auftragseingangsprognose des Vertriebs t+6 Monate 200 T€, korrigiert um den Faktor 0,83 wegen ständiger 20 %iger Überschätzung) oder

56

3  Was macht eine Prognose zu einer guten Prognose?

• mehreren alternativen Werten des gleichen Zeitpunktes und Zeitraums Eintrittswahrscheinlichkeiten zugewiesen (z. B. Wahrscheinlichkeitsverteilung der Auftragseingangsprognose für t+6 Monate entsprechend der Gauß´schen Normalverteilung36). Wie wird adjustiert? Der Grundsatz lautet: Jede Adjustage muss Regeln folgen. Der Grund ist der gleiche, der auch schon gegen die Anwendung von Bauchentscheidungen bei der Gewichtung jeweiliger Prognoseergebnisse beim kombinierten Forecast (siehe Abschn. 3.4) angeführt wurde: Regeln nutzen, um Adjustierungen nachvollziehbar zu machen, aber sie nutzen auch demjenigen, der adjustiert, die Auswirkungen seiner Veränderungen zu antizipieren. Das ist insbesondere erforderlich, wenn diese bei den Inputdaten oder den Methoden ansetzen, denn dann sind die Auswirkungen auf die Ergebnisse nicht sofort ersichtlich. Insofern ergibt sich folgendes Vorgehen:38 1. Strukturierung des Adjustierungsprozesses (wo, wann, wer, wie usw.) 2. Dokumentation aller Adjustierungen a. jene, die beibehalten werden b. jene, die verworfen werden 3. Nach jeder Periode Überprüfung der Veränderung der Präzision des Forecasts (z. B. mittels Daten aus der Vergangenheit) 4. Korrektur der Adjustierungen, ggf. Verfassung von Handlungsempfehlungen für die nächste Adjustierungsrunde Die Grenzen der Nach- bzw. Adjustage Nach- oder Adjustierungen sind sinnvoll, wenn Experten Wissen über den vermutlichen Verlauf der Zukunft besitzen, das quantitative, auf Algorithmen und historischen Daten basierende Analysen nicht besitzen (können). Die Grenzen der Anwendung sind fließend und werden markiert • durch die Verfügbarkeit der Experten, das Experten-Know-how, • die Anwendung des korrekten Adjustierungsverfahrens und

36  Die Normalverteilung lässt sich einfach mithilfe gängiger Tabellenkalkulationsprogramme berechnen. Im Falle von MS Excel ist es bspw. die Funktion „NORMVERT“ und zur Berechnung der Eintrittswahrscheinlichkeit eines Prognosewertes ist lediglich erforderlich, den als am wahrscheinlichsten eingeschätzten Wert, den Mittelwert, sowie die Standardabweichung zu kennen. Je größer die Standardabweichung ist, desto „breiter“ ist die Verteilungskurve, desto größer ist also die für möglich gehaltene Spreizung der Werte, was zugleich eine größere Unsicherheit ausdrückt. 38 Vgl. hierzu auch Sanders & Ritzman, 2002.

3.5  Erfolgsfaktor 5: Nach- bzw. Adjustieren

57

• die Fähigkeit des Forecasters, Interessensleitungen (bewusst) bzw. Wahrnehmungsverzerrungen (unbewusst), über die in Abschn. 4.4 zu lesen sein wird, herauszuhalten. Ein Problem stellt darüber hinaus die Komplexität des Prognoseszenarios dar. Es ist eine Gesetzmäßigkeit im Umgang mit Wissen, dass der Grenznutzen zusätzlicher Informationen ab einer bestimmten Informationsmenge abnimmt und später sogar negativ wird.39 Dies ist analog zum in der Ökonomie als Gesetzmäßigkeit akzeptierten Phänomen des abnehmenden Grenznutzens40: Ein Stückchen Schokolade ist gut, mehrere Stücke ist besser, eine Tafel ist der Hit, aber jedes weitere Stückchen bringt nur noch wenig Nutzen, und zwar umso weniger, je mehr Stücke gegessen wurden. Und schließlich, nach einer gewissen Menge, passiert das Malheur und – ohne im Detail zu beschreiben, was dann passiert – ist der Nutzen weiterer Schokolade negativ. Diese Gesetzmäßigkeit spricht für Adjustierungen durch Experten. Quantitative Modelle werden schon ab einer relativ kleinen Anzahl von Variablen unüberschaubar und komplex, aber Experten arbeiten anders und können intuitiv eine theoretisch unbegrenzte Menge an Variablen verarbeiten, wobei nicht ausgeschlossen ist, dass dies auch durch Ignorieren von Informationen geschieht. Zum Schluss dieses Kapitels soll noch ein Schaubild (Abb. 3.7) verdeutlichen, wie schnell unkontrolliertes Nach- bzw. Adjustieren zu einem willkürlichen Forecast führen kann. Im Idealfall ergeben Informationen des Kunden, z. B. frühzeitige und verbindliche Bedarfsmeldungen, einen sicheren Forecast. Eine solche Konstellation ist jedoch nur sehr selten zu finden, also müssen unternehmenszugehörige Instanzen Inputdaten zu einer Prognose verarbeiten, und je mehr Instanzen nacheinander das Recht haben, die Prognosen zu adjustieren, desto willkürlicher wird aufgrund der kumulativen Effekte das Prognoseergebnis. Der Forecaster, also derjenige, der für die Erstellung einer Prognose verantwortlich ist, kann diesen Effekt nur eindämmen, indem er Stufe für Stufe die Adjustierungen dokumentiert. Dass dies nicht immer möglich ist, versteht sich von selbst: Oft genug erfährt der Forecaster nicht, was mit seiner Prognose geschieht. Außerdem wäre seine Aufgabe im Sinne der im nachfolgenden Abschn. 3.6 beschriebenen Qualitätskontrolle, den Nutzen der jeweiligen Adjustierung anhand der später eintreffenden Istwerte zu kontrollieren und in den Prognoseprozess zu integrieren, was zuweilen nichts anderes heißt, als das er seinen Vorgesetzten mitteilen muss, dass sie zukünftig die Finger von seinen Prognosen lassen sollen.

39 Vgl. hierzu die Arbeiten von Handzic, die mehrfach nachwies, dass zusätzliche Informationen nicht nur einen abnehmenden Grenznutzen haben, sondern sich ab einer bestimmten Menge sogar nachteilig auf den Prognoseprozess auswirken. Fallspezifisch bleibt zu entscheiden, wann der Grenznutzen zusätzlicher Informationen negativ wird und ich fürchte, dass diese Erkenntnis dem Einen oder Anderen als Ausrede zupasskommt, auf eine erforderliche intensive Informationsbeschaffung zu verzichten. Handzic, 2001. 40 Erstmals beschrieben von Gossen, 1854.

58

3  Was macht eine Prognose zu einer guten Prognose?

Zunehmende Gefahr der Verfälschung der Prognose durch kumulative Adjustierung Inputdaten: Absichtserklärungen von Kunden

Inputdaten: Interpretation des Vertriebscontrollers Inputdaten: Interpretation des Vertriebsmanagements

Forecast

Inputdaten: Angaben der Vertriebsinstanz

Adjustierung durch Kenntnisse des zentralen Controllings Adjustierung durch Kenntnisse der Unternehmensführung

Abb. 3.7   Stufen der möglichen Nachjustierung von Forecasts

3.6 Erfolgsfaktor 6: Qualitätskontrolle Was ist in Bezug auf Vertriebsprognosen Qualität? Die naheliegende Antwort ist, dass Forecasts eine umso höhere Qualität besitzen, je präziser sie die Zukunft voraussetzen. Auch die Frage, wie präzise präzise genug ist, ist leicht zu beantworten: Je präziser, desto besser, aber immer so präzise, dass die Prognose zur Grundlage der Bereichs- und schließlich der Unternehmensplanung gemacht werden kann. Und schlussendlich haben wir schon geklärt, wie diese Qualität kontinuierlich verbessert werden kann: u

Die Qualitätsverbesserung einer Prognose wird durch ständiges Korrigieren der Inputdatenerfassung, der Methode sowie der Ergebnisverwendung erreicht. Eine Korrektur wird durchgeführt, sobald ein Istwert eintritt und somit die Abweichung vom Prognosewert bekannt ist.

Interessanterweise wird die Qualität nun aber nicht nur von den bisherigen Erfolgsfaktoren beeinflusst, sondern auch dadurch, welche Bedeutung die Prognose im Unternehmen besitzt. Es ist eine Wechselwirkung: Ein guter, weil präziser Forecast findet Beachtung und die Beachtung führt zu einer Verbesserung der Präzision. Eine solche Beachtung kann durch das Management, aber auch durch die schiere Anzahl von Unternehmenseinheiten, welche die Prognose nutzen, gegeben sein.41 41 So

beschrieben bei Dalrymple, 1975, empirisch überprüft und beschrieben bei Homburg, et al., 2008.

€, Menge, Eintrittswahrscheinlichkeit

3.6  Erfolgsfaktor 6: Qualitätskontrolle

59

= Prognosewerte eines rollierenden Forecasts

Realer Wert

0 +1 +2 +3 +4 +5 +6 +7 +8 +9 +10 +11 +12 +13 +14 +15 … Wochen

Prognosehorizont

Abb. 3.8   Temporärer Trichter des Prognosefehlers eines rollierenden Forecasts37

Dabei müssen wir akzeptieren, dass Prognosen niemals – und wenn, dann zufällig – absolut präzise sein können. Prognosefehler liegen in der Natur der Sache, selbst dann, wenn wir mit Eintrittswahrscheinlichkeiten arbeiten und somit von vornherein dokumentieren, dass ein bestimmter Prognosewert möglicherweise, (aber nicht sicher) eintreffen wird. Also sollte ein Unternehmen mit einem Qualitätsziel arbeiten und einen Korridor definieren, innerhalb dessen sich Ist- und Prognosewert wiederfinden. u Beispiel: „Eine Abweichung der Umsatzprognose von 10 % vom Istwert ist akzeptabel.“

Das reicht aber nicht, denn mit zunehmendem Horizont wächst auch die Unsicherheit. Wir brauchen nun noch eine zeitliche Komponente. u Beispiel: „Eine Abweichung der Umsatzprognose für den Zeitpunkt t+6 Monate von 5 % vom Istwert und für den Zeitpunkt t+12 Monate von 10 % vom Istwert sind akzeptabel.“

In Abb. 3.8 ist eine solche Abhängigkeit des möglichen und akzeptablen Prognosefehlers und der Zeit dargestellt. Der tatsächlich in der Zukunft eintreffende Istwert wird hier mit „Realer Wert“ bezeichnet.

37 Kühnapfel,

2013a, S. 380.

60

3  Was macht eine Prognose zu einer guten Prognose?

Prognosefehler sind somit systembedingt. Wir können uns entscheiden, sie zu akzeptieren oder den Aufwand investieren, sie durch Verbesserungen zu reduzieren. Nun, zuweilen sind Fehler • schlichtweg „Pech“ und kommen durch das Eintreten eines für den Forecaster nicht vorhersehbaren Umstands zustande, z. B. dadurch, dass das Top-Management entschied, ein Unternehmen und damit einen weiteren Vertriebskanal zu kaufen, • den Aufwand nicht wert, den ihre Reduzierung erfordern würde, oder • Fehler werden akzeptiert und der Nutzen, den eine bessere Prognose bringen würde, wird anderweitig erreicht (mehr Puffer usw.). Zusammenfassend wird die Qualität einer Prognose jedweder Art vermutlich durch genau nur einen einzigen Faktoren bestimmt: Der Fähigkeit des Forecasters. u

Sein Know-how, seine Gewissenhaftigkeit, aber auch sein „Rückgrat“ in der Verteidigung und organisationalen Durchsetzung des Prognoseprozesses bestimmen die Qualität, die kurz-, mittel- und langfristig erreicht werden kann.

Der Ausgangspunkt jedoch, und deswegen ist dieser Erfolgsfaktor so und nicht anders bezeichnet, ist die Notwendigkeit der Kontrolle der Qualität. Mit dieser wird in den meisten Unternehmen geradezu fahrlässig umgegangen.42 Sie verzichten darauf, den Forecast zu verbessern, indem sie Prognoseabweichungen zur Kenntnis nehmen und ihre Planungen lieber auf Zielwerten unklarer Herkunft aufbauen. Dass dies die Transaktionskosten eines Unternehmens erhöht, liegt auf der Hand. Die Lösung ist, dem Forecaster und allen Prozessbeteiligten die Chance zu geben, zu lernen. Um zu lernen, benötigen sie Feedback. Dieses Feedback kann aus mehr oder weniger substanziellen Meinungskommentaren bestehen (wenig nützlich) oder aus dem Vergleich der eingetretenen Istwerte mit den Prognosen (nützlich).

42 Ehrmann

& Kühnapfel, 2012.

4

Was verdirbt die Qualität der Prognose?

Warum ist eine gute, präzise Prognose so schwer? Sie scheint es zumindest zu sein, wenn wir die Leistungsfähigkeit von Prognosen in Unternehmen als Maßstab nehmen. Doch im Grunde genommen ist sie nicht „schwer“, sie ist lediglich „anspruchsvoll“. Das Kap. 3 zeigt bereits einen Weg, zu einer guten, präzisen Vertriebsprognose zu kommen, der eine wichtige Rolle als Grundlage der Bereichs- und Unternehmensplanung zukommt. u

Mit dem gut ausgebildeten Forecaster, einem adäquaten Prognoseteam, einem stringenten Prozess, dem Wettstreit der Methoden, der Kombination mehrerer Forecasts, der gefühlvollen Adjustage von Input- und Outputdaten und einer strengen Qualitätskontrolle sind bereits alle Voraussetzungen geschaffen, dem Management verlässliche Prognosewerte und deren Eintrittswahrscheinlichkeiten zu liefern.

Beachtet der Forecaster diese Erfolgsfaktoren, hat er einen Teil der Voraussetzungen erfüllt, um eine präzise Prognose zu erstellen. Was noch fehlt, ist der Ausschluss erfolgsverhindernder Faktoren, die teils offensichtlich, teils verdeckt den Prognoseprozess sabotieren. Kennt und berücksichtigt er diese nicht, bleibt sein Arbeitsergebnis unbefriedigend und er wird beklagen, wie kompliziert sein Leben als Prognoseverantwortlicher sei.1 Dabei hat er es selbst in der Hand. Nachfolgend werden die wichtigsten dieser Fallstricke auf dem Weg zu einer präzisen Prognose dargestellt. Sicherlich könnten diese invers formuliert auch als Erfolgsfaktoren dargestellt werden, aber da diese Aspekte vor allem in ihrer negativen Ausprägung wirken, sollte das Ziel sein, sie zu vermeiden oder zumindest ihre Effekte bewusst zu

1 Vgl.

hierzu auch die Ausführungen in Lewandowski, 1980, S. 10–11 und Dilgard, 2009.

© Der/die Herausgeber bzw. der/die Autor(en), exklusiv lizenziert an Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2023 J. B. Kühnapfel, Vertriebsprognosen, https://doi.org/10.1007/978-3-658-42876-1_4

61

62

4  Was verdirbt die Qualität der Prognose?

bewerten. Den Schwerpunkt bilden hier Wahrnehmungsverzerrungen (engl.: Biases) und ich habe diesem Komplex den notwendigen Raum gegeben, weil er einerseits überaus wichtig ist und er andererseits in klassischen statistischen Methodenbüchern meist ignoriert wird.

4.1 Vorsicht Mogelpackung! Die Banalprognose „Wenn der Hahn kräht auf dem Mist, ändert sich das Wetter, oder es bleibt, wie es ist.“ Eine solche Prognose ist nichts wert, denn obwohl sie perfekt präzise ist, gibt es keine Entscheidung, für die sie nützlich wäre. Doch was ist mit der Auftragseingangswahrscheinlichkeit eines Großauftrags? Diese Prognose ist bedeutsam, z. B., wenn die Produktion Kapazitäten freihalten muss, die sonst anderweitig gebraucht würden. Was ist nun, wenn die Prognose eine Eintrittswahrscheinlichkeit für den Auftragseingang von 50 % vorhersagt? Dann wäre sie nicht viel nützlicher als „der Hahn auf dem Mist“. Aber was ist mit einem Prognosewert von 60 %? Oder gar 75 %? Ab wann wird die Produktion Kapazitäten freiräumen, also auf die Produktion für andere Aufträge verzichten? Handelt es sich tatsächlich um einen außergewöhnlich großen Auftrag, obliegt diese Entscheidung dem Management, und eine legitime Prognose wäre, zuzugeben, dass keine Tendenz einer Auftragseingangseingangswahrscheinlichkeit erkannt und damit prognostiziert werden kann. Somit kann tatsächlich ein Forecast als solide gelten, der eine Auftragswahrscheinlichkeit von 50 % vorhersagt, sofern er methodisch einwandfrei erstellt wurde. Für das Management ist die damit verbundene Aussage dann, dass trotz der Nutzung prognostischer Methoden die Zukunft ungewiss bleibt und eine Entscheidung unter Unsicherheit getroffen werden muss. u

Der Forecaster lässt sich nicht auf Banalitäten ein. Er pocht auf die Einhaltung seiner Methodik und wenn er dann kein eindeutiges Ergebnis vorweisen kann, so steht er dazu.

Eine „Banalprognose“ ist also nicht zwangsläufig eine, die keine klare Entwicklungsrichtung zeigt. Eintrittswahrscheinlichkeiten von 50 % erscheinen auf den ersten Blick nichtsnutzig, aber in Wahrheit sind es starke Signale für das Management. Was also macht eine Banalprognose, die eben keine Entscheidungsgrundlage sein darf, aus? Es sind Aspekte, die grundsätzlich an jeder Stelle des Prognoseprozesses auftreten können. Am häufigsten sind es folgende: • Forecasts mit geringem Informationsgehalt der prognostizierten Werte – Prognosewerte nutzen nicht für die anstehende Entscheidung – Eintrittswahrscheinlichkeiten verschiedener Prognosewerte schließen sich gegenseitig aus

4.2  Fehler bei der Verarbeitung von Vergangenheitswerten

63

– Wertekorridore sind unklar spezifiziert (Bsp.: „hoher“ erwarteter Markterfolg für Produkt A) – Nebenbedingungen schließen Prognosewerte aus (Bsp.: „Absatz Produkt B: 2.500 Stück in Q II/2015, wenn Wettbewerber XYZ kein Konkurrenzprodukt auf den Markt gebracht hätte.“) • Forecasts auf Basis banaler Extrapolationen – Ohne Bereinigung der Inputdaten um Ausreißer – Mit banalen Algorithmen („Zeitreihenfortschreibung mit dem Lineal“) – Nach Augenmaß • Forecasts auf Basis ungeprüfter Inputdaten, insbesondere beim rollierenden Forecast, der auf von den Verkaufsinstanzen vermuteten Auftragseingängen basiert (vgl. Kap. 9) Obwohl solche Banalprognosen durchaus leicht zu entlarven sind, sind sie häufig anzutreffen. Warum? Sie sind Selbstzweck. Kaum ein Vertrieb wird auf Vertriebsprognosen verzichten, denn sie sind eine Selbstverständlichkeit. Sie dienen mindestens im Innenverhältnis zur Steuerung der Vertriebsinstanzen, also z. B. zur Festlegung von Verkaufszielen. Aber intuitiv spürt jeder, dass sie nicht belastbar sind, doch da sie ein Instrument im „Standardrepertoire“ des Managements sind, werden sie erstellt. Noch ein Hinweis zum Schluss: Geradezu gefährlich können Banalprognosen sein, wenn sie im Kleid solider Prognostik daherkommen. Dies passiert, wenn Personen mit Halbwissen auf statistischem Gebiet in geschliffenen Narrativen ihre Prognoseergebnisse präsentieren, die zu diesen Ergebnissen führende Methodik aber bestenfalls banal, schlimmstenfalls falsch ist. Merke: Der Quacksalber ist vom Experten nicht leicht zu unterscheiden.

4.2 Fehler bei der Verarbeitung von Vergangenheitswerten Wann immer historische Daten vorliegen, empfiehlt es sich, diese auch grafisch und damit optisch darzustellen. „Bei allen Prognoseverfahren bleibt ein gewisser Spielraum der Intuition. Die hier vorzunehmenden subjektiven Entscheidungen des Prognostikers werden durch sein Hintergrundwissen bestimmt.“2 Ein Blick auf den Verlauf der bisherigen Daten lässt Vermutungen über den zukünftigen Verlauf zu (Wobei – aber dies sollte spätestens an dieser Stelle des Buches eine Selbstverständlichkeit sein – eine sachgerechte Abschätzung der Zukunft weiterer Inputs bedarf.). Eine historische Zeitreihe kann nun unterschiedliche Werteverläufe abbilden. Abb. 4.1 stellt sechs typische dar.3

2 Laumann, 3 Ord

1980, S. 27. & Fildes, 2013, S. 35–36.

64

4  Was verdirbt die Qualität der Prognose?

120 100

120

Y1

80

80

60

60

40

40

20

20

0

120 100

0

5

10

15

20

0

80 60

40

40

20

20

120 100

5

10

15

20

0

15

80 60

40

40

20

20 5

10

15

20

0

20

Y4

0

5

10

15

20

Y6

100

60

0

10

120

Y5

80

0

5

100

60

0

0

120

Y3

80

0

Y2

100

0

5

10

15

20

Abb. 4.1   Korrelation von Werten mit der Zeit

• Die Verläufe Y1 und Y2 repräsentieren Werteverläufe, mal in Y1 wachsend, mal in Y2 schrumpfend, die perfekt mit der Zeit verbunden sind. Es reicht ein einfacher Faktor, um von einem Wert t auf den Folgewert t + 1 zu schließen. • Diese Korrelation der Werte mit der Zeit finden wir auch in Y3 und Y4, wiederum in der einen Darstellung wachsend, in der anderen schrumpfend, aber es gibt nicht mehr diese perfekte Verbindung wie in Y1 respektive Y2. Der Faktor, der eben noch zum Einsatz kam, würde nun zu einem falschen Ergebnis für den Folgewert führen. Zwar schrumpfen die den Werten über die komplette Zeit betrachtet, aber in einigen Perioden schrumpfen bzw. wachsen sie auch gegen den Trend. • In Y5 gibt es scheinbar keine Beziehung zwischen Werten und der Zeit. Der Verlauf erscheint zufällig und die Abschätzung z. B. der nächsten drei in der Zukunft liegenden Werte gelingt zunächst nur durch eine einfache Trendextrapolation, also indem wir z. B. den Durchschnitt oder gerne auch den gleitenden Durchschnitt der

4.2  Fehler bei der Verarbeitung von Vergangenheitswerten

65

historischen Werte in die Zukunft fortschreiben. Die Eintrittswahrscheinlichkeit der Folgewerte in der Zukunft wird gering ausfallen, weil dem Forecaster klar ist, dass eine Durchschnittswertextrapolation bei derart volatilen Werten ein „Schuss ins Blaue“ sein muss. • Schlussendlich ist Y6 bemerkenswert: Hier sind Werte und Zeit nahezu perfekt miteinander verbunden, aber nicht linear. Eine erste Zukunftsprojektion gelingt, wenn wir z. B. in diesem Beispiel ein Gefühl für die Wendepunkte und die Steigung haben. Hier, in Y6, wäre der nächste Wert vermutlich negativ, oder, wenn dies nicht möglich ist, weil z. B. Absatzzahlen für ein Produkt prognostiziert wurden (weil es keinen negativen Absatz gibt) Null. Stehen nun historische Inputdaten für eine Analyse und für eine Extrapolation zur Verfügung, stellt sich die Kardinalfrage, inwieweit sie zu berücksichtigen sind. Hier lauern zwei Fehlerquellen: Fehlerquelle 1: Over- bzw. Underfitting Tatsächlich kann, wie nachfolgend gezeigt wird, durch die Wahl der statistischen Funktion eine Zeitfolge von Werten auf ganz unterschiedliche Arten extrapoliert werden. Die Prognosen, ja sogar die Trends können unterschiedlich sein, nur, weil ein anderer Algorithmus gewählt wurde, mit dem bestimmt wird, wie stur der zukünftige Werteverlauf dem vergangenen folgt. Es gibt hier zwei Extreme: 1. Die Überanpassung der Prognosewerte an die Vergangenheitswerte („Overfitting“) 2. Die Unteranpassung der Prognosewerte an die Vergangenheitswerte („Underfitting“) Werden nun mittels historischer Werte verschiedene statistische Funktionen getestet, was Dank der Extrapolationsfunktionen in üblichen Tabellenkalkulations- oder Statistikprogrammen ein Leichtes ist, ergibt sich eine überraschende Erkenntnis: u

Die Wahl jener statistischen Funktion, die die Vergangenheitswerte am besten abdeckt, führt nicht zur genauesten Prognose.

Deutlich wird dies anhand eines einfachen Beispiels:4 Wird eine Münze oft, sagen wir, 1.000 Mal geworfen, wird eine Werteverteilung von ca. 500 Mal „Kopf“ und ca. 500 Mal „Zahl“ festzustellen sein. Die prognostizierte Eintrittswahrscheinlichkeit, dass beim nächsten Wurf „Kopf“ kommt, beträgt ziemlich genau 50 %. Wird die Münze

4 Das

Münzwurfbeispiel, aber auch die folgende Darstellung des Overfitting-Effekts sind ausführlich beschrieben bei Gilliland, 2010, S. 32 ff., doch haben sich auch zahlreiche andere Autoren mit dieser Thematik beschäftigt.

66

4  Was verdirbt die Qualität der Prognose?

aber nur 10-mal geworfen, ist das Ergebnis „zufälliger“. Vielleicht wurde 7-mal „Kopf“ und nur 3-mal „Zahl“ geworfen, sodass für den nächsten Wurf eine Wahrscheinlichkeit für „Kopf“ von 70 % prognostiziert wird. Der Forecaster, der auf nur 10 Würfe als Erfahrungswerte zurückgreifen konnte, hat sich mathematisch korrekt verhalten. Er hat die vorliegenden historischen Daten extrapoliert und kommt so zu einem nachvollziehbaren Ergebnis für seine Prognose. Jeder, dem er seine Schätzung der Eintrittswahrscheinlichkeit für „Kopf“ präsentiert, wird bestätigend nicken. Und doch ist das Ergebnis falsch. Welchen Fehler hat er gemacht? Er ist in die „Overfitting-Falle“ getappt. u

Statt nach perfekter Berücksichtigung der Vergangenheitswerte zu suchen, ist es besser, zu versuchen, die zugrundeliegende systematische „Natur“ der Daten zu finden.

Schauen wir uns ein Beispiel an, das der Übersicht wegen in Tab. 4.1 dargestellt ist:5 Das erstaunliche Resultat ist, dass es durch Mathematik möglich ist, eine Trendlinie zu finden, welche die Vergangenheit optimal, weil deckungsgleich mit den realen historischen Werten, abbildet, die aber für die Prognose vollkommen versagt. Niemand würde ernsthaft glauben, dass der Umsatzwert für das kommende fünfte Quartal 9000 € oder gar 23.000 € betragen wird, so, wie er mit der quadratischen (Abb. 15) bzw. einer polynomischen Gleichung (Abb. 16) errechnet wurde. Und doch haben diese Formeln die historischen Werte bestmöglich abgebildet. Vielmehr würde der Prognoseersteller eher der Fortschreibung des Durchschnittswertes oder des linearen Trends trauen, obwohl es dafür keinerlei mathematisch fundierten Hinweise gibt. Ganz offensichtlich siegt der „gesunde Menschenverstand“ über die hier falsch angewandte Mathematik und die Lehre daraus muss sein, dass Software alleine nicht ausreicht, eine Prognose zu erstellen. Stellen wir uns nun vor, dass es sich nicht um einige wenige Vergangenheitsdaten handelt, sondern um ein Konglomerat unterschiedlicher Daten, z. B. den Wochenumsatzberichten von 500 Filialen der letzten drei Jahre. Hier wird es dem Prognoseersteller nicht mehr möglich sein, durch Hinschauen und Nachdenken die per Software berechneten Prognosen zu überprüfen. Er wird den Algorithmen „blind“ vertrauen müssen, es sei denn, er macht sich die Arbeit, die historischen Daten in Form von Graphen aufs Papier zu bringen, so, wie es in Tab. 4.2 und einleitend zu diesem Kapitel bereits empfohlen wurde. Bisher haben wir uns mit dem „Overfitting“ beschäftigt, also dem übertriebenen Bemühen, einen Algorithmus zu finden, der Vergangenheitswerte so gut wie möglich abbildet und der dann als Projektion für eine Trendfortschreibung verwendet wird. Das Gegenteil, das „Underfitting“, kam bisher zu kurz. Es kommt in der betrieblichen Praxis auch nur selten vor. Wenn historische Daten vorliegen, werden diese für gewöhnlich auch genutzt und darum sei an dieser Stelle auf diese „Sünde“ auch nur hingewiesen.

5 Dieses

Beispiel ist eng angelehnt an Gilliland. Siehe aber auch Silver, 2012, S. 55 ff. und 167.

Als nächstes wird der Trend linear fortgeschrieben (Lineare Regression) Die Formel lautet: Qt = 400 e ∗ t + 4500 e Der Wert für Quartal 5 wäre somit: Q5 = 400 e ∗ 5 + 4500 e = 6500 e Die Standardabweichung beträgt nun 1.025 €, der MAPE 17,3 %

Im nächsten Schritt wird der Durchschnittswert der vier Quartalswerte, hier 5.500 €, fortgeschrieben Die Standardabweichung beträgt 1.118 €, der mittlere absolute prozentuale Fehler (MAPE, siehe Abschn. 6.2) beträgt 19,3 %

Die Ausgangslage: Es liegen für die Quartale 1 bis 4 Umsatzzahlen vor. Die Frage ist, welche Umsätze für die nächsten Quartale 5 bis 8 zu erwarten sein werden

Prognosemodell

Tab. 4.1  Effekte des Over- vs. Underfittings

Over- vs. Underfitting: Linearer Trend

Over- vs. Underfitting: Durchschnittswert

Over- vs. Underfitting, Ausgangssituation

Grafische Darstellung

(Fortsetzung)

4.2  Fehler bei der Verarbeitung von Vergangenheitswerten 67

Zum Schluss noch eine Extrapolation mithilfe einer polynomischen Gleichung vierten Grades: Qt = 1333,3 e∗t 3 − 9500 e ∗ t 2 + 20167 e ∗ t − 7000 e Wert für Quartal 5: ca. 23.000 € Standardabweichung: 0,47 MAPE 0,01 %

Nun wird eine quadratische Gleichung bemüht. Die Formel lautet: Qt = 500 e∗t 2 − 2100 e ∗ t + 7000 e Wert für Quartal 5: 9.000 € Standardabweichung: 894 € MAPE 15,9 %

Prognosemodell

Tab. 4.1  (Fortsetzung)

Over- vs. Underfitting: polynomische Gleichung vierten Grades

Over- vs. Underfitting: quadratische Gleichung

Grafische Darstellung

68 4  Was verdirbt die Qualität der Prognose?

4.2  Fehler bei der Verarbeitung von Vergangenheitswerten

69

Tab. 4.2  Basisquoten als Vergleichsmaßstab Basisrate

Beschreibung

Beispiel für eine Basisrate

Individuelle Erfolgsquote

Quote der bisherigen Abschlüsse von Müller

Abschlussquote aller von Müller verhandelten Angebote in den letzten 12 Monaten: 27 %

Abschlussquote: Individuelle projektspezifische Quote der bisherigen Erfolgsquote Abschlüsse von Müller bei M u¨ ller (0,5−1M e) = 16% Angeboten mit einem Auftragswert zwischen 0,5 und 1 M€ Vertriebserfolgsquote

Quote aller Abschlüsse des Vertriebskanals, dem Müller zuzurechnen ist (hier: Direktvertrieb)

Abschlussquote Direktvertrieb: 28 %

Projektspezifische Vertriebserfolgsquote

Quote der Abschlüsse des Direktvertriebs bei Angeboten mit einem Auftragswert zwischen 0,5 und 1 M€

Abschlussquote: DirektV (0,5−1M e) = 19%

Ich gehe abschließend in meiner Empfehlung konform mit allen mir bekannten erfahrenen Praktikern und Wissenschaftlern: u

Der auf Algorithmen basierenden Trendfortschreibung ist nicht unreflektiert zu trauen. Erst die Variation der Formeln, der optische Blick auf den historischen Verlauf der Werte und die Suche nach dem zugrundeliegenden systematischen Verhalten der Daten führen zu einer guten Prognose.

Fehlerquelle 2: Statistische Fehler Eine zweite Quelle für Fehler bei der Verarbeitung von Vergangenheitswerten speist sich aus mangelnden Kenntnissen statistischer Effekte. Ein erster Aspekt ist leicht einsichtig: Werden historische Daten verwendet, was natürlich die Grundlage jeder Trendfortschreibung ist, macht es einen großen Unterschied, wie viele Werte zur Verfügung stehen. Hier gilt: Je mehr, desto besser. Andererseits ist es auch nicht sinnvoll, allzu tief in den Annalen der Unternehmensgeschichte zu forschen. Der Prognoseersteller wird sich auf einen sinnvollen vergangenen Zeitraum beschränken, aber versuchen, für diesen Zeitraum möglichst viele Werte zu beschaffen, also nicht nur Quartalszahlen, sondern Monatsoder gar Wochenzahlen. Dies entlarvt Ausreißer und lässt Trends deutlicher erkennen. So ist die Menge von lediglich vier Werten im Beispiel aus Tab. 4.1 vollkommen unbefriedigend. Das Beispiel zeigt deutlich, dass je nach angewendetem Algorithmus die Prognosen unterschiedlich ausfallen. Stünden nun aber statt vier vielleicht zehn oder noch mehr Werte zur Verfügung, so ließe sich ein Trend klarer erkennen.

70

4  Was verdirbt die Qualität der Prognose?

Während dieser Zusammenhang klar sein dürfte, ist ein zweiter Wirkungsmechanismus komplexer: u

Wird die Eintrittswahrscheinlichkeit eines Zukunftswertes geschätzt und steht als Grundlage der Berechnung eine statistische Datenbasis zur Verfügung, ist eine große immer besser als eine kleine.

Dies verdeutlicht am besten ein Beispiel: Verkäufer Müller liefert allwöchentlich seinen Input für einen rollierenden Forecast (Erläuterungen hierzu siehe Kap. 9). Der Wert, der dabei am meisten von der subjektiven Einschätzung von Müller abhängt, ist die Schätzung der Auftragseingangswahrscheinlichkeit. Es ist auch jener Wert, der nicht kontrolliert werden kann, denn nur Müller arbeitet an der „Kundenkontaktschnittstelle“, nur er weiß, ob und mit welcher Wahrscheinlichkeit der Kunde den Auftrag erteilen wird. Zweifellos ist Müllers Wahrnehmung der konkreten Situation verzerrt. Er wird von seinem Verhältnis zu seinen Gesprächspartnern ebenso beeinflusst wie von seinen Zielen oder dem Druck, den sein Chef auf ihn ausübt. Zu diesen unbewussten Verzerrungen kommen vielleicht noch bewusste hinzu. Er wird die Chance auf einen Abschluss untertreiben, wenn er überraschen will, er wird sie übertreiben, wenn er mit seinen Zahlen hinterherhinkt; ein Grund für eine Absage des Kunden, den Müller „wirklich nicht vorhersehen“ konnte, lässt sich später noch finden. Für den Prognoseersteller ist es dennoch möglich, Müllers Schätzung der Abschlusswahrscheinlichkeit zu überprüfen, sofern ausreichend viele Daten aus der Vergangenheit vorliegen: Er kann die sogenannte Basisrate als Vergleichsmaßstab heranziehen. Dabei handelt es sich um Durchschnittswerte, mit denen die von Müller geschätzte Abschlusswahrscheinlichkeit verglichen wird. Sie haben den Vorteil, dass sie frei von Wahrnehmungsverzerrungen oder Interpretationsspielräumen die tatsächlichen bisherigen Erfolgsquoten wiedergeben. Abweichungen von diesen Basisraten währen nun durch Müller zu begründen. Vier verschiedene Basisraten, die sich anbieten, sind in Tab. 4.2 aufgeführt. Diese Basisraten werden im weiteren Verlauf noch wichtig sein. Sie bilden Prüfmarken für viele Arten intuitiver Schätzungen, so, wie im Mittelalter (und bis in die Neuzeit) auf jedem Marktplatz Metallplatten angebracht wurden, die die „Normlänge“ einer Elle oder einer Spanne angaben, damit Händler und Kunden die gleichen Maße nutzten. Fehlerquelle 3: Narrative Verzerrungen Auf Nassim Taleb6 geht der Begriff der „Narrative Fallacy“ zurück. Er betont, dass wir dazu neigen, Kausalzusammenhänge in der Vergangenheit zu erkennen, auch dort,

6 Taleb,

2010. Ein differenzierter und lesenswerter Artikel über ihn erschien 2013 in Der Spiegel: Oehmke, 2013.

4.2  Fehler bei der Verarbeitung von Vergangenheitswerten

71

wo keine sind. Das alleine wäre nicht schlimm, aber wir neigen ebenso dazu, diese Kausalzusammenhänge wie eine fortlaufende Geschichte in die Zukunft zu projizieren. Unsere Prognose basiert dann auf einer Vergangenheit, die wir uns konstruiert haben und nicht auf einer, die stattgefunden hat. Sie verknüpft Ereignisse, die geschehen sind, unabhängig davon, ob diese Ereignisse miteinander in Verbindung stehen. Und sie ignoriert die Ereignisse, die nicht geschehen sind (z. B. die Produkteinführung eines Wettbewerbers, welche die Marktkonstellation wesentlich verändert hätte), die aber durch ihr Ausbleiben einen ebenso großen Einfluss auf die Zukunft gehabt haben können. Wir weisen Wirkungen Ursachen zu! So wird die Prognose zu einem Produkt, das von der Zufälligkeit des Einfallsreichtums des Erzählers abhängt. u

Eine „zwingende“ Erzählung fördert die Illusion der Zwangsläufigkeit. Wir glauben einer Prognose umso mehr, je assoziativ „leichter“ sie konsumiert werden kann.

Wir können uns ein wenig vor diesen narrativen Verzerrungen schützen, wenn wir uns fragen, ob die Geschichte, die erzählt wird, das Ergebnis voraussagbar gemacht hätte. Und hier stellen wir oft fest, dass die einzelnen Geschehnisse, die zu einer Geschichte kombiniert werden, noch nicht ausreichen, das Ergebnis vorherzusagen. Oft stellen „Glück“ oder „Pech“ Faktoren dar, die den Ausgang einer Geschichte bestimmen. Statt um Glück oder Pech kann es sich natürlich auch um Einflüsse handeln, die wir nicht verstehen, z. B. die überraschende Entscheidung eines Interessenten, der schon „so gut wie zugesagt hatte“, dann aber doch absagt. Das ist das, was wir Pech nennen, denn wir kennen die Ursache nicht. Hier nun aber Kausalitäten zu konstruieren, wäre verkehrt, denn dann würden wir Begründungen „erfinden“ und zur Maxime unseres zukünftigen Handelns machen. Besser ist es, Pech Pech sein zu lassen. u

Je mehr „Glück“ oder „Pech“ entscheidende Faktoren der Geschichte sind, die wir unter Ausblendung narrativer Verzerrungen korrekt konstruieren, desto weniger eignet sich diese Geschichte als Grundlage einer Prognose.

Es gibt also, und dies sei das Fazit dieses Kapitels, keine allgemeingültigen Regeln, wie Vergangenheitswerte zu berücksichtigen sind, wie Ausreißer geglättet oder welche Gewichtung alte oder jüngere Werte bekommen sollen, außer eben dieser einen, die in Abschn. 3.4 als Erfolgsfaktor beschrieben wurde: Kombiniere mehrere Forecasts! Und, um mit einem oft gehörten Missverständnis aufzuräumen: Prognose-Software hilft nicht, um Fallen wie diese zu erkennen und zu umgehen.7 Im Gegenteil: Sie verlockt zu unreflektierter Übernahme von Ergebnissen.

7 Siehe

zu dieser Thematik auch Gilliland, 2010, S. 68.

72

4  Was verdirbt die Qualität der Prognose?

4.3 Fehlerhafte Interpretation und Präsentation der Prognosen Ist eine Prognose erstellt, wird sie, dem in Abschn. 2.1 beschriebenen Prozess folgend, den Ergebnisverwendern zur Verfügung gestellt, damit diese sie für ihre weiteren Planungen nutzen können. Dieses „zur Verfügung stellen“ geschieht in den meisten Unternehmen in einer Mischung aus Präsentationen in Meetings, ausgehändigten Datenlisten und Update-Mails, in größeren vielleicht unterstützt durch ERP-Systeme. Werden die Ergebnisse nun so aufbereitet, präsentiert und zur Verfügung gestellt, dass die Adres­ saten • • • •

die Methodik nicht verstehen, die Berechnungen ihnen willkürlich erscheinen, sie die Ergebnisse nicht nachvollziehen können oder sich die Ergebnisse nicht auf ihre Problemstellung übertragen lassen,

so wird die Prognose nicht die Beachtung finden, die sie verdient. u

Die Präsentation einer Prognose muss simpel, nachvollziehbar und methodisch überprüfbar sein. Sie besteht aus einem Ergebnisteil (Prognosewerte und ihre Eintrittswahrscheinlichkeiten) sowie einem Erläuterungsteil (Methodik und Dokumentation).

Einfach ist es keineswegs, Prognosen zu präsentieren. Insbesondere dann, wenn ein kombinierter Forecast (vgl. Abschn. 3.4) erstellt oder komplexere Zeitreihenanalysen herangezogen werden, fällt den Adressaten das Verständnis schwer. Zudem arbeiten Prognosen in der Regel mit Eintrittswahrscheinlichkeiten. Ein zukünftiger Wert, z. B. die Absatzmenge im kommenden Jahr, wird also nicht als Absolutum vorhergesagt, z. B. 5.000 Stück, sondern Wertekorridore mit Wahrscheinlichkeitswerten belegt. Das ist für den Adressaten unbefriedigend, denn die Information, dass im nächsten Jahr mit einer Wahrscheinlichkeit von 70 % zwischen 4.500 und 5.500 Stück abgesetzt werden, gibt zwar eine Orientierung, überlässt das Entscheidungsrisiko aber ihm. Den Wunsch des Managers nach einer definitiven Planungsgröße kann der Forecaster nicht erfüllen. Also – und dies ist leider oft zu beobachten – wird der Manager eher einer Prognose Glauben schenken, die auf der kausalen Verkettung von Argumenten basiert, vielleicht top down eine Marktanteilsberechnung enthält und so eine pseudo-präzise (aber vielleicht stümperhaft ermittelte) Absatzmenge vorhersagt. Solche Fehlleitungen werden in Abschn. 4.4 ausführlich beschrieben. u

Zur Präsentation einer Prognose gehört immer auch die Erklärung, was sie zu leisten im Stande ist. Der Forecaster muss die Belastbarkeit seiner eigenen Prognose erläutern.

4.3  Fehlerhafte Interpretation und Präsentation der Prognosen

73

Es schadet dabei nicht, eine kleine Nachhilfe in Statistik zu geben, denn es ist nicht selbstverständlich, dass Manager diese beherrschen. Auch oft zu beobachten ist bei der Präsentation von Prognosen bzw. der Besprechung von Forecasts, was das gleiche ist, dass Manager, anstatt zunächst die Methodik nachzuvollziehen, sogleich die Plausibilität von Prognosen prüfen. Ihr Prüfstein ist ihre individuelle intuitive Einschätzung und sie konstruieren Kausalketten, um diese zu begründen. Die Glaubwürdigkeit einer Prognose wird daran gemessen, ob sich Einzelfälle, nennen wir sie „Geschichten“, finden lassen, die zu dem präsentierten Ergebnis führen. Dieser „Hang zu kausalen Einzelfällen“ ist intuitiv und assoziativ und wir alle haben uns an ihn gewöhnt. Hören wir beispielsweise vom Markterfolg eines neuen Smartphones und wird dieser anhand statistischer Daten (z. B. „x Abverkäufe in den ersten y Tagen“) dokumentiert, sind wir vielleicht beeindruckt, aber nicht berührt. Sehen wir hingegen im Fernsehen Bilder junger NERDs, die enthusiastisch einen Shop stürmen, vor dem sie seit Stunden ausharrten, um dieses neue Smartphone zu kaufen, sind auch wir begeistert und stellen den Markteinführungserfolg nicht in Frage, obgleich wir durch diese Geschichte kaum brauchbare Informationen erhalten haben. Der zweite gefährliche Effekt ist die „Gefahr der pseudo-plausiblen Prognose“: Je detaillierter ein Zukunftsszenario beschrieben wird und desto mehr nachvollziehbare Fakten und „Geschichten“ darin enthalten sind, desto leichter fällt es, das Szenario zu glauben, denn es tauchen immer mehr Aspekte und Kausalketten auf, die bekannt vorkommen. Aber zugleich wird es durch den Faktenreichtum immer unwahrscheinlicher. Stattdessen würde der Verzicht auf Details und die Abstrahierung des Szenarios erhöht hingegen dessen Eintrittswahrscheinlichkeit erhöhen. Die Prognose wird durch Weglassen präziser! u

Abstrakte Prognosen sind oft präziser, aber detailreichen und damit unwahrscheinlicheren Prognosen wird eher geglaubt, weil sie assoziativ leichter erfasst werden können, wenn bekannte Details vorkommen.

Hierin liegt die Gefahr und zugleich eine Möglichkeit für den Forecaster, z. B. bei Präsentationen, manipulativ zu arbeiten. Seine Ergebnispräsentation mit Einzelbeispielen (begeisterte Nerds) anzureichern, mag reißerisch erscheinen, aber es wirkt. Die Hauptfrage, die sich die Nutzer der Prognose stellen, wird die Frage nach der Belastbarkeit des Ergebnisses sein: Wie sicher ist es? Wie präzise? Wie sehr kann sich eine Bereichsplanung auf die Prognose stützen? Die Antworten hierauf erscheinen leicht, wenn die Prognose die Zielplanung des Managements bestätigt. Schwierig werden sie, wenn Ziel und Prognose voneinander abweichen, denn dann kommen die Manager in einen Konflikt: Folgen sie dem Ziel, ignorieren sie die Prognose, folgen sie der Prognose, ignorieren sie das Unternehmens- und damit das für sie selbst abgeleitete Bereichsziel. Die einzigen zwei Lösungen hierfür sind: 1. Anpassung des Ziels an die Prognosewerte. 2. Veränderung der Grundlagen der Prognose (Ressourcenbereitstellung usw.) so lange, bis die Prognosewerte die Zielwerte spiegeln.

74

4  Was verdirbt die Qualität der Prognose?

Beide Lösungen sind akzeptabel, erkennen sie doch an, dass sowohl das Ziel als auch die Prognose, obwohl beides Zukunftswerte, unternehmerische Realität sind. Ein Fehler des Managements wäre hingegen, eine Abweichung von Prognose- und Zielwerten unbeachtet zu lassen. In diesem Falle würde die Zielplanung „gewinnen“ und ungeachtet der Prognose die Unternehmensbereiche ihre Entscheidungen (Ressourcenbeschaffung usw.) auf eine Größe ausrichten, die – sofern die Prognose zutrifft – zu höheren Transaktionskosten als nötig führt. Auch steht in diesem Falle die Glaubwürdigkeit des Prognoseerstellers auf dem Spiel, auch, weil er nur in seltenen Fällen eine hierarchische Hausmacht haben wird, um der Bedeutung seiner Ergebnisse Gewicht zu verleihen. u

Das Hauptproblem der Ergebnisdatenverwendung ist nicht die fehlerhafte Interpretation der Ergebnisse, sondern die Frage, wie das Management mit einer Abweichung der Prognose- von den Zieldaten umgeht.

4.4 Wahrnehmungsverzerrungen und Heuristiken Immer dann, wenn eine zuverlässige Prognose auf Basis von Vergangenheitsdaten nicht adäquat erscheint, z. B., weil uns die Rahmenbedingungen unseres Marktes in der Zukunft unsicher erscheinen, müssen wir qualitative Prognosen erstellen. u

Eine qualitative Prognose ist eine Prognose, die auf einer nicht kalkulierten bzw. nicht kalkulierbaren Argumentationsgrundlage basiert (es gibt keinen Algorithmus). Das Ergebnis der Prognose kann dennoch quantitativ sein und z. B. aus einer Absatzmengenschätzung bestehen.

Für eine solche Argumentationsgrundlage wird versucht, Ursache-Wirkungs-Beziehungen zu formulieren, um aus einer gegebenen oder vermuteten Konstellation von Parametern auf die Prognosedaten zu schließen. Solche Ursache-Wirkungsbeziehungen bezeichnen wir auch als Kausalketten und sie klingen wie Geschichten, die erzählt werden und an deren Ende als Quintessenz eine Prognose steht. Stimmen diese Geschichten? Stimmen die Prognosen, die das Ergebnis dieser Geschichten sind? Bei quantitativen Forecasts auf Basis von Zeitreihenanalysen sind es die Art der angewendeten Mathematik und die Auswahl und Interpretation der Vergangenheitsdaten, die zu Fehlern führen können. Diese spielen auch hier, bei qualitativen Forecasts, eine Rolle, aber es kommt eine weitere Fehlerquelle hinzu: Wahrnehmungsverzerrungen (engl.: Biases), die (Intuitionen und) Kausalketten begleiten und es sind zweifelsfrei die gefährlicheren Fehlerquellen.8

8 Siehe

hierzu auch Harvey, 2002.

4.4  Wahrnehmungsverzerrungen und Heuristiken

u

75

Kausalketten als Grundlage für Prognosen sind hochgradig fehleranfällig. Sie unterliegen mannigfaltiger kognitiver Verzerrungen9, auch, wenn sie „logisch“ erscheinen. Da sie im Prognoseprozess nicht zu vermeiden sind, bedarf es erstens einer breiten Kenntnis dieser Wahrnehmungsverzerrungen und zweitens eines Instrumentariums, um sie zu bewerten und zu kompensieren.

Immer dann, wenn Prognosen, und seien es nur leichtfertig im Rahmen eines Meetings geäußerte Vermutungen über die zukünftige Nachfrage nach einem neuen Produkt, auf dem narrativen Muster „Ich weiß Dieses und vermute Jenes, also wird Folgendes passieren“

basieren, sollte die rote Warnlampe angehen. Wir wissen über uns selbst, dass wir oft irrational vorgehen und in der Lage sind, unsere Irrationalität vor uns selbst als richtig zu begründen. Warum also sollten wir gerade bei Prognosen rational sein? Wir wissen, dass selbst Experten auf ihrem eigenen Fachgebiet sehr schlechte Prognostiker sein können und ich erspare mir die Zitation der zahlreichen Studien, die mit erschreckender Klarheit belegen, wie schlecht Investmentberater den Verlauf der Rendite ihrer Projekte, wie schlecht Börsenmakler und CFOs den Verlauf der Aktienindizes und wie schlecht Ärzte den Verlauf von Krankheiten schätzen.

4.4.1 Wahrnehmungsverzerrungen im Kontext von Prognosen Nachfolgend werden Wahrnehmungsverzerrungen aufgeführt, die eine gute Prognose am meisten beeinträchtigen. Es empfiehlt sich, sie sich als Checkliste für die Überprüfung der Glaubwürdigkeit narrativer Kausalketten zu merken. So, wie jeder Pilot vor einem Start seine Checkliste durchgeht, nur, um sicher zu sein, nichts zu vergessen, sollte auch ein Forecaster diese Checkliste durchgehen, um sicher zu sein, keinen Aspekt bei der Überprüfung von Argumentationsketten zu vergessen, denn beide Situationen haben gemeinsam, dass Fehler nicht intuitiv bemerkt werden, sondern es aktiver Fragen bedarf, um sie zu entlarven. Grundsätzliche Einstellung des Adressaten Kausalketten („Geschichten“), Aussagen und sogar Hypothesen werden grundsätzlich für wahr gehalten, insbesondere dann, wenn die Argumentationsfolge logisch und sinnvoll erscheint. Wir haben also den Hang, „für wahr zu halten“. Dieser Hang wird verstärkt, wenn

9 Die Begriffe „Wahrnehmungsverzerrung“ und „kognitive Verzerrung“ werden hier synonym verwendet.

76

4  Was verdirbt die Qualität der Prognose?

• • • •

die Person, der wir zuhören, einen Expertenstatus genießt („Halo-Effekt“), diese Person eine hohe hierarchische Position einnimmt, die jeweilige Aussage, Hypothese oder „Geschichte“ oft genug wiederholt wird, die jeweilige Aussage, Hypothese oder „Geschichte“ Elemente enthält, die wir – wiedererkennen, – für bewiesen erachten oder – die wir als wahr wünschen, weil sie unseren Interessen dienen oder unsere Überzeugungen bestätigen.

Womit wir uns schwertun, ist die ergebnisoffene Betrachtung und Analyse von Argumentationen. Wir sind gut darin, unmittelbar zu entscheiden, ob wir einem Argument folgen oder nicht. Aber wir sind schlecht darin, uns ein Argument anzuhören und dann gleichermaßen dessen Herkunft, Glaubwürdigkeit und Auswirkungen einzuschätzen. Bestätigungsverzerrung10 und selbstwertdienliche Verzeihung11 Ein weiterer Effekt, der uns im Alltag häufig begegnet, ist die Bestätigungsverzerrung. u

Es wird im Rahmen einer Argumentation oder einer Prognose für wahr gehalten, was die eigene Meinung bestätigt.

Diese eigene Meinung kann auch eine erlernte sein. Wenn z. B. eine bestimmte Kausalkette zu einer korrekten und sich später als präzise erweisenden Prognose führte, wird dieses Aussagegerüst als repräsentativ für ähnliche Situationen erachtet. Werden nun bestimmte Konstellationen, die ehemals gegeben waren, wiedererkannt, wird vermutet, dass die alte Prognose ebenso wieder zutrifft. Hier ignorieren wir leichtfertig, wenn sich wesentliche Bedingungen in der Umwelt verändert haben. Die Bestätigung unseres Vorwissens ist uns Beweis genug. Hieran halten wir fest, selbst dann, wenn wir uns unseren eigenen Fehler eingestehen müssen. Wir verzeihen uns dann selbst und führen die Gründe für unsere Fehlprognose auf Einflüsse zurück, von denen wir glauben, dass wir sie nicht hätten voraussehen können. Das klingt paradox: Wir finden in einer Synchronität von Parametern bzw. Prädiktoren die Bestätigung für die Synchronität der Schlussfolgerung (der Prognose), ignorieren, dass sich die Umwelt verändert hat und neue, nun dominierende Faktoren hinzugekommen sein können, erkennen den Fehler, erklären uns diesen aber damit, dass ja neue, nun dominierende Faktoren hinzugekommen seien. Nun, ich schrieb ja eingangs, dass Rationalität nicht gerade unsere Stärke sei.

10 Nickerson, 11 Babcock

1998. & Loewenstein, 1997.

4.4  Wahrnehmungsverzerrungen und Heuristiken

77

Austausch der Fragestellung12 Zuweilen spielt selbst dem erfahrenen Forecaster unser assoziativ arbeitendes Gehirn einen Streich: Wenn wir mit einem schwierigen prognostischen Problem konfrontiert werden, dass wir nicht vollends erfassen und intuitiv bearbeiten können, tauschen wir die Frage aus. Anstatt die durchaus schwierige Frage „Wie viele der neuen Produkte verkaufen wir in einem Jahr“ zu beantworten, was zu einer wichtigen Prognose für die Planung der Produktion führen würde, fragen wir uns z. B.: „Für wie viele Menschen ist das Produkt attraktiv, sodass sie es kaufen würden?“. Diese Frage klingt ähnlich, liefert aber ein ganz anderes Ergebnis, denn natürlich werden viele Menschen das Produkt attraktiv finden, aber dennoch nicht kaufen, z. B., weil sie kein Geld dafür haben. Dieser Austausch der Fragestellung geschieht unwillkürlich und ist der Grund dafür, warum bei vielen Techniken (Brainstorming usw.), die mit assoziativen Ketten arbeiten, empfohlen wird, die Leitfrage präsent auf z. B. ein Flipchart zu schreiben, sodass jedermann sie sich immer wieder ins Gedächtnis rufen muss. Die Illusion der kognitiven Leichtigkeit13 Wir glauben einer Prognose umso eher, je „leichter“ und „unbeschwerter“ sie erscheint. Eine solche Unbeschwertheit wird erreicht durch • semantische Vertrautheit, wenn z. B. Formulierungen genutzt werden, die auch in anderem Zusammenhang eine Rolle spielten, • einfaches Verständnis der Inhalte, • Wiedererkennen von Argumenten und Zwischenergebnissen, • Analogien zu Erlebnissen und Meinungen von Quasi-Vorbildern, etwa erfolgreichen Wettbewerbern, • Vermeidung ungeübter Gedankengänge, insbesondere von – komplizierten Formulierungen, – Fremdwörtern oder – mehrstufigem, komplexem Aufbau der Argumentationskette. Ursache für unsere Affinität zur kognitiven Leichtigkeit ist, dass wir Kohärenz14 in Geschichten als Sicherheit empfinden. Kohärenz bestätigt, sie bietet ein Fundament, wir

12 Kahneman,

2012, S. 139 ff. 1973. Spannend hierzu sind auch die Forschungen der Psychologie, insbesondere der durch Seligman begründeten „positiven Psychologie“, z. B.: Csikszentmihalyi & Nakamura, 2010. 14 Kohärenz ist (hier) das Maß des Zusammenhangs zweier Aussagen. Je mehr zwei Argumente inhaltlich in Zusammenhang stehen, desto kohärenter sie also sind, desto mehr bestätigen sie sich gegenseitig, unabhängig davon, ob sie jeweils richtig sind. 13 Kahneman,

78

4  Was verdirbt die Qualität der Prognose?

können uns argumentativ weiterbewegen, die „Beweisführung beenden“ und Schlussfolgerungen treffen, die wir für fundamentiert halten. Die Erkenntnis ist weitreichend und sollte uns erschrecken: u

Wir messen die Glaubwürdigkeit einer Geschichte stärker an der Kohärenz des semantischen Aufbaus als an der Vollständigkeit der Informationen.

Was heißt das? Es heißt, dass wir einer Prognose glauben, wenn sie auf Daten basiert, die wir deswegen intuitiv abnicken, weil sie aufeinander aufbauen, zueinander passen und logisch erscheinen. Vor allem hinterfragen wir nicht, welche Informationen wir nicht haben. Priming-Effekt15 Der Priming-Effekt besagt, dass wir uns bei der Verarbeitung von Argumentationen davon leiten lassen, was wir unmittelbar davor gehört oder erlebt haben. Ein Reiz bestimmt die Interpretation des nächsten Reizes. Spontan denken wir an „semantische Programmierung“, also daran, dass wir z. B. eine Umsatzprognose für zutreffend halten, wenn unmittelbar davor berichtet wird, dass ein Wettbewerber ähnliche Umsatzverläufe erzielen konnte. Aber Priming wirkt viel subtiler. Schon nachdem wir Wörter wie „Erfolg“, „Gewinn“ oder „Gelingen“ hören, stehen wir einem direkt danach präsentierten Forecast viel optimistischer gegenüber. Natürlich lässt sich der Priming-Effekt manipulativ einsetzen. Es ist leicht, einem Vorschlag für eine Entscheidung eine kurze Botschaft voranzustellen, in der kognitiv wegweisende Begriffe oder Zusammenhänge auftauchen. Es ist schwierig, dies als Zuhörer zu erkennen und sich seine Neutralität zu bewahren. Der Halo-Effekt16 Eine besondere Form des Priming-Effekts ist der Halo-Effekt. Im Grunde genommen beschreibt er das, was der Name bereits aussagt: u

Je stärker der „Halo“ (Glorienschein) einer Person ist, desto eher wird dieser geglaubt.

Wird eine Person als Experte vorgestellt ist, akzeptieren wir intuitiv, dass ihr Wissen umfangreich ist und sie über große prognostische Fähigkeiten verfügt. Mehr noch: Wir erhöhen unsere Schwelle, ab der wir die Person für unglaubwürdig halten werden oder ab der wir Aussagen offen kritisieren. Dabei ist es nicht erforderlich, dass die Person ein Experte ist, es kommt darauf an, dass wir sie als solche wahrnehmen.

15 Neely,

1977, Neely, 1991 und Endel & Schacter, 1990. & Wilson, 1977 und Beckwith & Lehmann, 1975.

16 Nisbett

4.4  Wahrnehmungsverzerrungen und Heuristiken

79

Auch die hierarchische Position verleiht einen Glorienschein, und zwar umso mehr, je weniger persönlichen Kontakt wir zu dieser Person haben. Aussagen von selten gesehenen Vorständen werden so zu Maximen und auf späteren Meetings werden sie interpretiert und gedeutet, als wären es göttliche Orakel. Rückschaufehler17 Der Rückschaufehler erscheint uns zunächst unkritisch, doch beeinflusst er signifikant die Arbeit eines Forecasters. u

„Wenn der Ausgang eines Ereignisses bekannt ist, wird angenommen, dass dieses besser vorausgesagt werden konnte, als es zum Prognosezeitpunkt tatsächlich möglich war.“18

Wir verdrängen all die Unsicherheiten und unklaren Rahmenbedingungen, mit denen wir damals, als wir die Prognose erstellten, konfrontiert waren. Auch die Wahrnehmungsverzerrungen, die zum damaligen Zeitpunkt auf uns wirkten, sind retrospektiv nicht mehr wirksam. Das Ergebnis ist, dass wir unsere prognostischen Fähigkeiten überschätzen und uns auch für aktuelle und zukünftige Prognosen besser gerüstet sehen, als wir tatsächlich sind. Hierin liegt begründet, warum selbst Experten ihre eigenen Fehler wiederholen und z. B. Börsenfachleute oder Vermögensberater in Kreditinstituten in ihren Prognosen mit erschreckend hoher Wahrscheinlichkeit falsch liegen werden, ohne hieraus die Notwendigkeit abzuleiten, ihre Schätzmethode zu verändern (oder einfach einmal bescheidener aufzutreten).19 Überoptimismus20 Wir neigen regelmäßig zu viel zu optimistischen Einschätzungen der Zukunft. Der Grad des Überoptimismus wird dabei von der persönlichen Betroffenheit vom Ergebnis bestimmt, insbesondere, wenn das eigene berufliche Schicksal daran geknüpft ist (Produktmanagement, Start-up-Unternehmer), sowie der Präsenz von Analogien oder Leuchtturmprojekten. Schon das bloße Ignorieren bzw. „Kleinreden“ von Wettbewerbern führt zu überoptimistischen Prognosen.21

17 Christensen-Szalanski,

1991. 2013a, S. 388. 19  Siehe zur aktuellen Performance von Fondgesellschaften Kremer, 2023. Lediglich wenige Prognosetechniken wie z. B. der „Waren-Buffet-Index“ zeigen recht grob, aber im langfristigen Vergleich recht zuverlässig die Attraktivität von Märkten: Swinkels & Umlauft, 2022. 20 Helweg-Larsen & Shepperd, 2001. 21 Fisman, 2006. 18 Kühnapfel,

80

4  Was verdirbt die Qualität der Prognose?

Auch halten wir tendenziell unseren eigenen Einfluss auf das zukünftige Ergebnis für zu stark. Mehr und mehr Forscher, z. B. der in Fragen der Verhaltensökonomie mit führende Daniel Kahneman, trauen sich wieder, „Glück“ bzw. „Pech“ als Einflussparameter wirtschaftlichen Handelns zuzulassen. Vieles gelingt, ohne dass Dinge anders angegangen wurden als in vergleichbaren Situationen. Wir dürfen es „Glück“ nennen, auch, wenn wir damit lediglich ausdrücken, dass eine günstige Parameterkonstellation auftrat, deren Wechselbeziehungen und Wirkungsgeflechte zu komplex waren, um sie zu verstehen. Nicht unerwähnt bleiben darf, dass es insbesondere in Bezug auf Forecasts widersprüchliche Studienergebnisse gibt: So konnte Müller in einer recht aktuellen Auswertung von über 6.000 Forecasts feststellen, dass allein der Aspekt, dass diese „geheim“, also nur dem engsten Managementkreis zugänglich waren, dazu führte, dass sie tendenziell pessimistisch waren. Er führt dies auf den hier nicht weiter beschriebenen Effekt der Verlustaversion zurück.22 Ergo: Ganz offensichtlich spielt es eine Rolle, für welche Adressaten ein Forecast erstellt wurde. Veränderungsaversion bzw. „Status quo Bias“23 u

Im Zweifel halten wir an einer bekannten Situation fest, wenn eine andere, für uns neue, keine klaren Vorteile verspricht.

Die Frage ist, wie groß der vermutete Vorteil der neuen Situation sein muss, damit sie „riskiert“ wird. Das Beharrungsvermögen ist sicherlich individuell und vielleicht korreliert es mit der Expertise, der Erfahrung und der persönlichen Risikobereitschaft. Nachteilig wirkt sich die Veränderungsaversion aber aus, wenn sich eine gewählte Prognosetechnik auch über mehrere Perioden hinweg als unpräzise erweist, aber der Forecaster an ihr festhält und versucht, durch die Adjustierung von Annahmen das Ergebnis zu verbessern. Das mag dann auch in einer weiteren Periode gelingen, aber das ist dann eher dem Zufall zu verdanken und die Belastbarkeit der Prognose bleibt gering. Voreilige Mustererkennung Weniger eine eigene Kategorie als vielmehr ein Konglomerat aus mehreren Varianten kognitiver Verzerrungen ist die Unart der voreiligen Mustererkennung. Berühmt hierfür sind z. B. Angler: Sie sitzen beieinander am Wasser, halten ihre Haken in den Teich und erklären sich gegenseitig Muster, wann welche Fischart bei welcher Temperatur und welchem Wetter auf welchen Köder schon einmal gebissen hat.

22 Müller,

2011. & Zeckhauser, 1988.

23 Samuelson

4.4  Wahrnehmungsverzerrungen und Heuristiken

u

81

Wenn eine „Geschichte“ kognitiv einfach ist, kohärent und es kein alternatives Erklärungsmuster gibt, wird ihr geglaubt und es wird ein allgemeingültiges Muster unterstellt, das zu einer Handlungsrichtlinie wird, wenn eine ähnliche Faktorkombination festgestellt oder vermutet wird.24

Ganze Bibliotheken sogenannter Fachliteratur, Bücher wie Zeitschriften, leben von diesem Prinzip – eben auch Anglerzeitschriften. Wir sind auch hier hartnäckig, ähnlich wie bei allen anderen bisher beschriebenen Wahrnehmungsverzerrungen, und halten an den gefundenen bzw. unterstellten Mustern fest, auch, wenn die Erkenntnisgrundlage brüchig ist. Wenn z. B. in einem Vertriebsmeeting festgestellt wird, dass eine bestimmte Argumentation in einer Verhandlung zum Erfolg führte („Und wenn der Interessant zögert, musst du ihm noch unseren Erstkundenrabatt anbieten, dann schnappt er zu!“), wird ein Muster konstruiert. Das kann durchaus nützlich sein, denn es vereinfacht und beschleunigt Handeln, ja, es ist sogar die Grundlage sämtlicher automatisierter Abläufe, die unseren Tag begleiten. Doch in Prognoseprozessen sind Muster stets zu hinterfragen und zu prüfen. Wenn bewiesen werden kann, dass eine bestimmte Faktorkombination mit einem bestimmten Ergebnis korreliert, ist es akzeptabel, Muster zur Verfahrensvereinfachung zu verwenden. Ist eine solche Korrelation aber nicht nachweisbar, so sollte von der Verwendung von Mustern Abstand genommen werden. In jedem Falle aber ist es Aufgabe des Forecasters, voreilige Musterbildung zu bemängeln. Glaube an selbst konstruierte Muster Wir halten uns selbst für weniger anfällig für Wahrnehmungsverzerrungen jeglicher Art als andere. Wir empfinden unser Vorgehen als logisch, rational und nachvollziehbar. Unsere Schlüsse erscheinen uns selbst als konsequent, basierend auf kohärenten Kausalketten. Und wenn es einmal unvermeidlich wird, einen Fehler einzugestehen, neigen wir dazu, äußere Umstände dafür verantwortlich zu machen, dass unsere Argumentation nicht korrekt war. Wir glauben an die von uns selbst konstruierten Muster und begründen ex post unser Verhalten.25 Dieses wenig schmeichelhafte Urteil über uns selbst, dass am Ende dieses Kapitels wie ein Fazit erscheint, ist gleichbedeutend mit einer Warnung für jeden, der sich mit Prognosen beschäftigt: u

Die Illusion der objektiven Selbstbeobachtung führt zu einem blinden Fleck auf der Landkarte des Wissens um die Zukunft.

24 Zuweilen werden sogar Legenden daraus, womit wir wieder bei unserem Vulkanausbruch aus Abschn. 1.1 wären. 25 Pronin & Kugler, 2007.

82

4  Was verdirbt die Qualität der Prognose?

Der einzig akzeptable Weg ist folglich, nicht auf die eigene Urteilsfähigkeit zu vertrauen, ja nicht einmal dann, wenn man sich intensiv mit Wahrnehmungsverzerrungen beschäftigt, sondern sie zu akzeptieren und nach Mechanismen zu suchen, um ihren Einfluss zu begrenzen. Einige pragmatische Rezepte hierzu werden in Abschn. 4.4.5 angeboten.

4.4.2 Heuristiken im Kontext der Prognose Eine Urteilsheuristik ist, grob übersetzt, eine „Daumenregel“. Sie wird meist intuitiv eingesetzt, um ein Problem zu lösen oder eine Entscheidung zu treffen, obgleich unvollständiges Wissen vorliegt. Ihr Vorteil ist, dass sie schnelle Lösungen ermöglicht, z. B. dann, wenn • nicht genügend Informationen zur Verfügung stehen, • die Beschaffung der fehlenden Informationen unangemessen aufwendig wäre oder • keine Zeit für einen längeren Lösungs- oder Entscheidungsprozess zur Verfügung steht. Folgen wir streng dieser Definition, wird jedes Entscheidungsproblem im Umfeld von Vertriebsprognosen heuristisch gelöst, denn niemals liegen alle Informationen vor und niemals ist genügend Zeit für Gründlichkeit vorhanden. Die Abgrenzung ist also unscharf, fließend, also wir reden immer dann von einer Heuristik, wenn wir eine zeitsparende Abkürzung unter Verzicht auf Informationen nehmen. Dies rechtfertigen wir mit Erfahrung, und tatsächlich wäre es recht mühsam, vor dem Öffnen eines gekochten Hühnereis eine Analyse zu machen, welche Handlungsoptionen möglich wären und welche Ergebnisse – je nach gewählter Öffnungstechnik – zu erwarten seien. Wir setzen das Messer an, holen aus und schlagen das obere Stück ab, fertig. Das spart Zeit und erbringt ein für uns weitestgehend berechenbares Ergebnis, das vermutlich in der jeweils konkreten Situation nicht perfekt ist, aber gut genug. Nachfolgend werden einige ausgewählte Arten von Heuristiken beschrieben, die im Prognoseprozess eine wichtige Rolle spielen und derer wir uns bewusst sein müssen, um kognitive Verzerrungen zu vermeiden. Ankerheuristik26 Die Ankerheuristik beschreibt den Effekt, dass wir uns in unseren Erwartungen und Einschätzungen gerne an „Ankern“ orientieren. Diese geben uns vermeintliche Sicherheit, doch ist die entscheidende Frage, ob diese Anker etwas taugen! Und wie auch bei den

26 Schweitzer

& Cachon, 2000.

4.4  Wahrnehmungsverzerrungen und Heuristiken

83

zuvor beschriebenen kognitiven Verzerrungen kommt hier hinzu, dass wir diese Anker unbewusst in Anspruch nehmen, also das kritische Hinterfragen überspringen. Ein typisches heuristisches Vorgehen ist z. B., dass ein Forecast unwillkürlich auf die Zielvorgabe oder ersatzweise einen akzeptierten Ankerwert ausgerichtet wird. Wenn also ein Vertriebsleiter seinen Verkäufern – und sei es nur in einer „Motivationsrede“ – einschärft, dass sie in der nächsten Periode jeweils 5 M€ Umsatz machen müssen, so werden diese ihre Verkaufsschätzungen an diesem Wert von 5 M€ orientieren. Sie werden dann einen höheren Prognosewert nennen, als hätte die Zielvorgabe z. B. nur 2 M€ gelautet. Selbst dann, wenn den Verkäufern klar gesagt werden würde, dass diese 5 M€ lediglich ein Wunschziel seien und sie sich bei ihren Forecasts nicht davon beeinflussen lassen sollen, werden sie sich unbewusst daran orientieren. Doch wirken die Effekte der Ankerheuristik nicht nur, um unwillkürlich einen Korridor für die eigene Prognose zu begrenzen, sondern auch bei dem Versuch, ein Zukunftsszenario zu beschreiben. Hier suchen wir nach Hinweisen, wie eine einzuschätzende Situation wohl sein wird. Finden wir prägnante Hinweise, sogenannte Ankerreize, so konstruieren wir eine darauf basierende Zukunft. Ein Beispiel: In einer Verkaufssituation äußert ein Interessent seine Wertschätzung für die Qualität des Angebots. Er betont die aussagekräftige Lösungsbeschreibung und die Klarheit, mit der die Konditionen beschrieben wurden. Diese Aussagen des Interessenten stellen Ankerreize dar, die darauf hindeuten, dass der Interessent das Angebot annehmen wird. Der Verkäufer wird die Abschlusswahrscheinlichkeit hoch einschätzen, auch dann, wenn er nichts darüber weiß, ob die Lösungsbeschreibung zwar aussagekräftig ist, aber nicht zum Bedarf des Interessenten passt, ob die Konditionen zwar klar beschrieben, aber der Preis inakzeptabel ist oder wie z. B. die Qualität der Angebote der Wettbewerber war. Das Gesamtbild ist dem Verkäufer unbekannt, aber die freundlichen Kommentare des Einkäufers reichen aus, um optimistisch zu sein. Umgekehrt funktioniert das natürlich auch: Äußert der Interessent Kritik an der Lieferzeit, wird der Verkäufer eine Absage erwarten. Auch hier beeinflusst der Ankerreiz die Beurteilung der Situation. Doch ist die Wirkungsstärke der Ankerreize in diesen beiden Fällen nicht die gleiche: u

Wir erinnern uns an positive Erlebnisse besser als an negative und besitzen darum auch eine viel höhere Sensibilität gegenüber positiv wirkenden Ankern.

Hierin liegt eine Gefahr: Wenn Verkäufer nach den Gründen gefragt werden, warum sie erfolgreich verkauften, werden sie eine ganze Reihe von Ursachen nennen können, die zu Ankern in der Bewertung anderer, zukünftiger Situationen wurden. In der Regel werden die eigene fachliche und empathische Fähigkeit, das Gespür für die Bedürfnisse des Kunden und die eigene Eloquenz als Ursachen genannt. Umgekehrt wird sich der gleiche Verkäufer, nach den Gründen für Misserfolge gefragt, nach externen Ursachen umschauen und Anker in externen Faktoren vermuten. Er wertet positive, ihn bestätigende Entscheidungen auf, negative, ihn diskreditierende, ab. Diese aus der Dissonanztheorie sattsam bekannte Ungleichgewichtung führt dazu, dass die

84

4  Was verdirbt die Qualität der Prognose?

Einschätzung von Kaufabschlusswahrscheinlichkeiten fehlerbehaftet sein wird und LossOrder-Reports unbrauchbare Ergebnisse bringen werden. Verstärkend kommt hinzu, dass – wir haben es oben schon oft gelesen – diese Effekte unbewusst auftreten und die Beeinflussten ihre Wirkung nicht anerkennen werden. Aber es ist nun mal so: 1. Will der Verkäufer den Auftrag haben, sucht er nach positiven Indizien, die belegen, dass die Abschlusswahrscheinlichkeit hoch ist. 2. Liegt ihm der Auftrag nicht am Herzen, ist er vergleichsweise neutral. 3. Will der Verkäufer den Auftrag nicht, sucht er nach Indizien, die darauf hinweisen, dass die Abschlusswahrscheinlichkeit gering ist. u

Wie alle anderen Menschen auch nutzen Verkäufer Ankerheuristiken. Diese führen dazu, dass Verkäufer schlecht darin sind, ihre Erfolge oder ihre Misserfolge zu begründen. Loss-Order-Reports dürfen sich somit nicht darin erschöpfen, vom Verkäufer die vermuteten Gründe für die Entscheidung des Interessenten nacherzählen zu lassen.

Verfügbarkeitsheuristik27 Wir schätzen einen Zusammenhang als umso wahrscheinlicher ein, je leichter uns Beispiele einfallen. Werden Verkäufer gebeten, die Branchenzugehörigkeit ihrer Kunden statistisch zu schätzen, so werden ihnen die Branchen ihrer aktuellen Erfolge einfallen. Wahrscheinlich werden sie sich eher an die größeren, wichtigeren Abschlüsse erinnern, aber Kleinaufträge vergessen, auch, wenn die Kundengröße bei der Fragestellung keine Rolle spielte. Die Statistik wird also durch die Verfügbarkeit von Beispielen verzerrt. Der Grund ist, dass wir bei einer Prognose unwillkürlich mit der Gedächtnissuche starten. Womit auch sonst? Die Verfügbarkeit von Beispielen führt zum Ergebnis. Doch warum haben wir uns die Beispiele gemerkt? Warum sind sie im Gedächtnis geblieben? Unser Gehirn ist keine relationale Datenbank, bei der einem Eintrag verschiedene Parameter zugeordnet und anschließend die Einträge nach Parametern sortiert werden können. Der Eintrag von Ereignissen und Aspekten im Gehirn ist vom kognitiven Reiz und dessen Stärke abhängig, und dieser muss nichts mit der späteren Fragestellung zu tun haben. Einen besonders großen Einfluss hat die Verfügbarkeitsheuristik bei expertengestützten qualitativen Forecasts, wie sie in Kap. 10 beschrieben werden. Denken diese über eine prognostische Fragestellung nach, ist die Gefahr groß, dass sie Prädiktoren und Szenarien als besonders wichtig erachten, eben, weil sie ihnen einfallen, z. B., weil sie sie bereits erlebt haben.

27 Kahneman

& Tversky, 1974, S. 1127 ff. und Schwarz, et al., 1991.

4.4  Wahrnehmungsverzerrungen und Heuristiken

85

Auch umgangssprachlich können wir uns dem Effekt der Verfügbarkeitsheuristik nähern: Oft ist der Satz zu hören: „Ich kann mir nicht vorstellen, diesen Auftrag zu bekommen.“ Semantisch korrekt beschreibt der Verkäufer hier eigentlich sein Vorstellungsvermögen, aber tatsächlich meint er, dass er es für unwahrscheinlich hält, den Auftrag zu bekommen. Umgekehrt hieße der Satz: „Ich kann mir leicht vorstellen, den Auftrag zu bekommen“ und bedeutet, dass der Verkäufer seine Verkaufschance darum hoch einschätzt, weil er sich den Abschluss leicht vorstellen kann. Deutlicher kann sich der Einfluss der Verfügbarkeit eines Szenarios auf die erwartete Eintrittswahrscheinlichkeit nicht offenbaren. Abschließend sei angemerkt, dass Verfügbarkeitsheuristiken ein gutes Beispiel dafür sind, dass alle aufgeführten Wahrnehmungsverzerrungen und Heuristiken miteinander im Zusammenhang stehen: Da wir uns an Erfolge in der Vergangenheit intensiver, häufiger und bewusster erinnern als an Misserfolge, werden wir einen abzuschätzenden Verkaufsabschluss für wahrscheinlicher halten, als er in der Realität ist. Wir überschätzen die Eintrittswahrscheinlichkeit und sind … überoptimistisch. Repräsentativitätsheuristik28 In den hier zitierten Aufsätzen gehen Kahneman und Tversky der Frage nach, wie Menschen entscheiden, mit welcher Wahrscheinlichkeit ein bestimmtes Ergebnis auf einen vorgegebenen Prozess folgt. Sie weisen nach, dass Menschen diese Wahrscheinlichkeit danach bewerten, wie repräsentativ ihnen der Prozess für das Ergebnis erscheint. Ein Beispiel: Der Verkäufer erzählt seinem Vorgesetzten, dass sein Gesprächspartner beim Interessenten ein kritischer, mürrischer und gestresster Mann sei, das letzte Verkaufsgespräch gerade einmal 20 min dauerte und ergebnislos blieb. Der Vertriebsleiter wird mit hoher Wahrscheinlichkeit entscheiden, dass der Verkäufer seine Verkaufsbemühungen reduzieren und sich lieber auf andere, erfolgversprechendere Interessenten konzentrieren soll. Für ihn war der beschriebene Einkäufer repräsentativ für eine Gruppe von Interessenten, die zögerlich entscheiden oder sich sowieso bereits entschieden haben, aber aus irgendwelchen Gründen diese Entscheidung nicht kundtun wollen. Für diese auf Repräsentativität basierende Entscheidung war also erforderlich, 1. dass der Vertriebsleiter in dem Einkäufer einen Stereotypen wiedererkannte und 2. dass der Vertriebsleiter bei diesem Stereotypen eine geringe Erfolgsquote für die Annahme eines Angebots vermutete. Der Effekt der Repräsentativität kann aber auch über einen anderen Mechanismus wirksam werden: Wir erinnern uns an einen Aspekt recht gut, der z. B. in einem Vertriebsmeeting eine große Rolle spielte und der kontrovers diskutiert wurde. Nun kann der

28  Kahneman & Tversky, 1973, Kahneman & Tversky, 1974, S. 1124 ff. und Kahneman & Frederick, 2001.

86

4  Was verdirbt die Qualität der Prognose?

Diskussionsleiter noch so oft betonen, dass dieser konkrete Aspekt nur einer von vielen ebenso wichtigen sei, aber er wird fortan repräsentativ sein. Handelte es sich bei diesem Aspekt z. B. um die Frage, ob die vom Kunden erbetene Nachkorrektur eines Angebots die Chance auf einen Abschluss erhöhe und waren sich die Verkäufer einig, dass dies so sei, so wird auch zukünftig eine Angebotsüberarbeitung als Indiz für eine hohe Auftragswahrscheinlichkeit interpretiert. Dabei ist die tatsächliche Bedeutung vollkommen unklar. Die Quintessenz ist: Wir vereinfachen, indem wir bevorzugen, was wir für typisch halten. Diese Vereinfachung ist zweifellos in vielen Situationen sehr nützlich, führt aber auch zu systematischen Fehlern.

4.4.3 Gefahren intuitiver Prognosen Intuition ist eine Schlussfolgerung oder Erkenntnis, ohne dass sich diese durch bewusstes Nachdenken erschlossen hätte. Oft wird die Intuition als eine spontane Eingebung dargestellt und mythisch überhöht, denn wir kennen die Ursache einer Intuition nicht. Tatsächlich aber ist sie nicht mehr als ein Erkenntnisprozess, der kognitive wie analytische Elemente enthält. Das Besondere ist dabei, dass wir uns der Abläufe, die zu einer Intuition führen, weder bewusst sind noch diese ex post nachvollziehen oder erklären können. Intuitionen können unvermittelt erscheinen, also scheinbar ohne Zusammenhang zur aktuellen Situation oder zum aktuellen Thema (Idee unter der Dusche), oder als Vermutung, Erkenntnis oder Entscheidung im Zusammenhang mit einem Thema, das gerade durchdacht, behandelt oder besprochen wird (unorthodoxer Lösungsvorschlag für ein technisches Problem). Intuition tritt oft mit der Bewertung sehr komplexer Situationen auf, also dann, wenn es nicht mehr möglich ist, durch Kausalketten die Wirkung von Faktorkonstellationen zu antizipieren.29 Die entscheidende Frage ist nun: Können wir der Intuition trauen? Hat sie, auf unser Thema bezogen, eine prognostische Relevanz? Können wir Planungsentscheidungen treffen, die sich auf einen Forecast stützen, dessen Grundlage eine Intuition war? Oder vertrauen wir ihr besser nicht? Juan Manuel Fangio, ein Weltklasserennfahrer der Nachkriegszeit, wird über seine Intuition sehr froh gewesen sein. Im Formel-1-Rennen von Monaco, 1950, fuhr er – wie auch viele Runden zuvor – aus einem Tunnel heraus und auf eine Kurve zu, doch statt tüchtig aufs Gas zu treten, bremste er „spontan“ ab. Er spürte „intuitiv“, dass etwas nicht stimmte und tatsächlich lagen nach der Kurve, die er nicht einsehen konnte, einige Rennwagen ineinander verkeilt mitten auf der Straße. Doch was hatte ihn gewarnt? Warum hat

29 Siehe

hierzu auch Simon, 1987. In seinem lesenswerten Aufsatz betont er auch, dass grundsätzlich immer, also bei jeder Entscheidung, bewusste und unbewusste gedankliche Prozesse beteiligt sind und sich Intuition niemals „abschalten“ lässt.

4.4  Wahrnehmungsverzerrungen und Heuristiken

87

er reagiert, wie ein Rennfahrer normalerweise nicht reagiert? Heute gehen wir davon aus, dass Fangios Unterbewusstsein eine Anomalie in der Umwelt registrierte: Üblicherweise, Runde für Runde, schauten ihm die Zuschauer, die am Eingang der uneinsehbaren Kurve standen, entgegen, wenn er aus dem Tunnel kam. Aber in dieser einen Runde nicht, da schauten sie in die Kurve hinein in Richtung des Unfalls, den sie sehen konnten. Fangio sah – unbewusst – statt Gesichtern nur weggedrehte Köpfe und reagierte. Er konnte ausweichen. Ihm folgende Rennfahrer hatten diese Intuition übrigens nicht und fuhren in den Unfall hinein. Und gerade dieser letzte Satz des vorherigen Absatzes macht das Problem deutlich. Das Grundproblem der intuitiven Prognose ist: Wir sind „im Durchschnitt“ schlecht darin! Mal stimmt sie, mal nicht. Wir unterliegen bei intuitiven Prozessen all jenen Wahrnehmungsverzerrungen, die zuvor beschrieben wurden. Und es kommen noch weitere kognitive Verzerrungen hinzu: Wir wünschen uns eine bestimmte Zukunft herbei, wir fehlinterpretieren die Vergangenheit, halten an verzerrten Bildern fest, korrigieren unsere Fehlschlüsse nur widerwillig, lassen uns von Heuristiken leiten und haben eine Aversion gegen Algorithmen, selbst dann, wenn sie bessere Prognosen liefern würden als unsere Intuition. Das heißt aber nicht, dass Intuition als Erkenntnisquelle grundsätzlich außen vor bleiben sollte. Im Gegenteil. Tatsächlich gibt es Umstände, unter denen wir der Intuitionen durchaus trauen können. Aber es müssen mehrere Faktoren zusammenkommen und der wichtigste ist, wer die Intuition hat. u

Intuitionen sind als Erkenntnisquellen für Forecasts nützlich, sofern sie von Experten stammen und wenn sie in angemessener Form genutzt werden.

Warum die Eingebungen von Experten nützlich sind und jene von Anfängern nicht, wird in Kap. 10 ausführlich beschrieben. Vorgreifend sei hier erwähnt, dass Prognoseexpertise dadurch entsteht, dass eine • Umwelt, für die eine Prognose erstellt werden soll, hinreichend stabil sein muss und dass • der Experte ausreichend viel Zeit hatte (viele Jahre), die Faktoren bzw. Prädiktoren dieser Umwelt zu verstehen (Identifikation, Analyse der Bedeutung und Feedback). Wenn nun eine Prognose für eine definierte Situation erstellt werden soll, kann es sein, dass ein hinzugezogener Experte die Kombination der Faktoren bzw. Prädiktoren wiedererkennt und – da die Umwelt an sich hinreichend stabil ist – zu einer intuitiven Einschätzung der zukünftigen Situation gelangt. Zuweilen kann er erklären, wie seine Einschätzung zustande kommt. Dann wird er Kausalketten bilden und eine „Geschichte“ erzählen. Oft kann er das aber nicht, denn er weiß selbst nicht, welche Mustererkennung hier wirkte, ist sich aber dennoch sicher, dass er die Faktorenkonstellation kennt und ein Ergebnis mit hoher Wahrscheinlichkeit eintreffen wird. Er kann vielleicht sogar die

88

4  Was verdirbt die Qualität der Prognose?

Tab. 4.3  Qualitätsstufen von Intuitionen im Kontext von Prognosen Intuition

Erläuterung

Konstruktive Expertenintuition

Ein Experte erkennt eine ihm bekannte Konstellation von Faktoren, wendet sein Erfahrungswissen an und erstellt unter Berücksichtigung der ihm zur Verfügung stehenden Informationen über die Zukunft eine Prognose

Heuristische Expertenintuition

Ein Experte erkennt keine Konstellationen und verwendet stattdessen Urteilsheuristiken, die er mit den ihm zur Verfügung stehenden Informationen über die Zukunft kombiniert

„Papageienintuition“

Ein in der Regel fachfremder Experte übernimmt die Beschreibung einer Konstellation auf einem Gebiet, auf dem er keine Erfahrung besitzt, aus den Berichten anderer, interpretiert diese im Kontext des Fachgebietes, auf dem er Experte ist und gelangt so zu einer analogiebasierten Eingebung

Laienintuition

Ein Laie erahnt eine Kausalkette, unterstellt eine stabile Umwelt und kommt so zu einem spontanen Schluss

Faktoren unbewusst parametrisieren, also die Wirkung und Wirkungsrichtung abschätzen und als Ergebnis eine Zahl nennen, von der er selbst nicht weiß, wie er sie berechnet hat. Das erscheint nachgerade mystisch, aber es ist nichts anderes passiert, als dass ein Experte sein Erfahrungswissen angewendet hat und wenn die Umwelt stabil ist, wird er eine gute Prognose abliefern. Es lassen sich nun vier Arten intuitiver Prognosen unterscheiden, die in Tab. 4.3 erläutert werden. Die Nützlichkeit der Prognose nimmt dabei von oben nach unten ab. Unbrauchbare Intuitionen lassen sich anhand von Kontrollfragen relativ leicht identifizieren. Die ersten zwei Fragen leiten sich aus den Anforderungen an Expertise ab: 1. Ist die Umwelt, die den Rahmen einer Prognose bildet, hinreichend stabil? 2. Hat der Experte langjährige Erfahrungen darin, die Wirkung der Faktoren in dieser Umwelt zu studieren? Darüber hinaus gibt es einige recht pragmatische Prüfsteine. So ist vor Intuitionen zu warnen, • die von Einzelbeispielen auf generelle Entwicklungen schließen, denn prognostische Intuitionen machen sich niemals an Einzelbeispielen fest, denn hierfür sind sie zu abstrakt und darauf basierende Intuitionen sind Mogelpackungen, • deren Zustandekommen nachträglich mit einfachen Kausalketten nacherzählt wird, denn vielmehr ist für Expertenintuitionen typisch, dass sie aufgrund der Komplexität der Faktorwirkungen narrative Lücken aufweisen,

4.4  Wahrnehmungsverzerrungen und Heuristiken

89

• deren Ergebnis eine Wiedergabe der Zielformulierung des Managements zu sein scheint. Natürlich können Prognosen zufällig mit den Zielwerten zusammenfallen, was sogar günstig wäre und für die Zielplanung sprechen würde, aber die Gefahr einer wirkenden Ankerheuristik ist groß. Ein Zwischenfazit ist nun, dass Intuitionen als Lieferant für Ideen jederzeit willkommen sein sollten, aber als Grundlage für Prognosen nur dann, wenn sie von Experten stammen und so weit wie möglich sichergestellt werden kann, dass dieser Experte unbeeinflusst arbeiten konnte.

4.4.4 Widerstand gegen algorithmenbasierte Prognosen Das Gegenteil von intuitiver Prognose sind Algorithmen, also mathematische Konstrukte, die Faktoren in Formeln kombinieren, um einen Prognosewert zu erhalten.30 Gegen Algorithmen hegen viele eine tiefe Abneigung, allen voran Verkäufer, deren ­spezifisches Wissen auf die Gestaltung der Kundenkontaktsituation fokussiert ist: sie besitzen empathisches Wissen, nicht analytisches. Es ist auch nicht leicht zu akzeptieren, dass die Verknüpfung einiger weniger ausgewählter Faktoren ein zukünftiges Ereignis besser vorhersagen sollte als ein Mensch, der viel eher die Fülle an Faktoren überschauen und – intuitiv – deren Wirkungsgeflecht bewerten kann. Aber es ist so! Geradezu verstörend ist z. B. die Erkenntnis aus der Medizin, dass Algorithmen, mittels derer Krankheitsverläufe prognostiziert werden, zu 60 % treffsicherer sind als Ärzte, die eine Prognose auf Basis ihres Expertenwissens abgeben.31 Viele weitere Forschungen zeigen, dass es der bessere Weg ist, sich auf die Suche nach den wenigen, aber entscheidenden Faktoren zu machen, deren Kombination eine gute Prognose liefert. Und das bedeutet zugleich, dass wir bewusst die allermeisten anderen Faktoren außer Acht lassen müssen. Doch wehren wir uns gegen diesen Vorschlag. Diese Erfahrung machte z. B. Ashenfelter, der es schaffte, die Preisentwicklung von teuren Bordeaux-Weinen lediglich auf Basis einiger weniger Wetterdaten zu prognostizieren.32 Erstaunlicherweise waren seine Prognosen treffsicherer als jene der Experten, aber das Interessante war die Reaktion

30 Einmal mehr möchte ich auf die ausführlichen und sehr verständlichen Ausführungen von Kahneman verweisen, wenn ein tiefergehendes Verständnis dieses speziellen Themas gewünscht ist: Kahneman, 2012, S. 275 ff. 31 Vgl. hierzu und auch zum Gesamtkomplex „Algorithmen versus intuitive Prognose“ das bahnbrechende Buch von Meehl, 1954 und seinen ergänzenden Aufsatz hierzu: Meehl, 1986. 32 Ashenfelter, 1995.

90

4  Was verdirbt die Qualität der Prognose?

auf seine Veröffentlichung: Seine Erkenntnis wurde bestenfalls ignoriert, meistens aber verteufelt und die Lobby der Experten schaffte es, ihren Status und Nimbus zu retten. Einem ähnlichen Widerstand wird sich ein Forecaster gegenübersehen, wenn er versucht, z. B. einen rollierenden Forecast, der auf Inputdaten der Verkäufer entsteht, durch einen Algorithmus zu ersetzen, in dem nur noch messbare Faktoren berücksichtigt werden, nicht aber die individuelle Einschätzung der Auftragseingangswahrscheinlichkeiten. Würde ein solcher Algorithmus bessere Prognosewerte liefern als der rollierende Forecast, wäre die Reaktion der Verkäufer, sagen wir, „unwillig“. Wären die Prognosen in etwa gleich gut, hätte immer noch der Algorithmus „gewonnen“, denn er ist einfacher und kostengünstiger zu pflegen. Doch warum sind Experten, hier unsere Verkäufer, oft schlecht? Meehl gibt darauf folgende Antworten: • Komplexitätsdrang: Experten wollen clever dastehen und suchen nach komplexen Erklärungsmustern. • Statussicherung: Experten müssen ihren Status rechtfertigen und prognostizieren selbst dann, wenn sie ihre eigene Einschätzung „eigentlich“ für zu unsicher halten. • Inkonsistenzen: Schätzen Experten eine Konstellation (z. B. Markt) mehrfach ab, kommen sie zu jeweils unterschiedlichen Ergebnissen. Denn: Eine Bewertung von Einflussfaktoren durch die Experten erfolgt immer auch im Kontext der Situation, der Zielsetzung der Prognose, der Zielsetzung des Auftraggebers, der Stimmung usw. Die entscheidende Frage ist nun, welche Faktoren es sein könnten, die zu einer guten algorithmenbasierten Prognose führen. Hier ist der Forecaster gefordert, 1. jene Prädiktoren zu identifizieren, die einen hohen Korrelationskoeffizienten mit dem Prognoseergebnis aufweisen, die also die Zukunft bestmöglich beschreiben. 2. Ferner müssen diese Faktoren bewertet werden können, denn ein Algorithmus kann nur Werte, nicht vage Einschätzungen verarbeiten. 3. Das Prognoseergebnis muss eine mathematische Größe sein, z. B. eine Zahl oder ein Prozentbetrag. Aber es lohnt sich, sich auf die Suche zu begeben. Lässt sich eine praktikable Anzahl von Faktoren für einen Algorithmus identifizieren, der eine ausreichend präzise Prognose liefert, ist ein wichtiger Baustein für einen kombinierten Forecast gefunden. u

Die Entwicklung einer algorithmenbasierten Prognose als Element des kombinierten Forecasts ist nützlich und unbedingt empfehlenswert, wenn es gelingt, messbare Faktoren mit einem hohen Korrelationsfaktor (0,3 oder höher) zu identifizieren.

Umgekehrt schlagen Experten die Algorithmen, wenn Faktoren eine Rolle spielen, die nicht durch Formeln berücksichtigt werden können. Dies spielt bei Einzelfallabschätzungen

4.4  Wahrnehmungsverzerrungen und Heuristiken

91

eine Rolle: Wenn z. B. ein Algorithmus entwickelt wurde, der die Abschlusswahrscheinlichkeit aufgrund einiger weniger Faktoren berechnet, kann dieser Algorithmus naturgemäß nicht berücksichtigen, dass ein Wettbewerber kurz vor Ende der Angebotsfrist mit einem Dumping-Angebot überrascht. u

Experten sind besser als Algorithmen, wenn atypische Ereignisse auftreten können, die zwar selten sind, aber dann einen großen Einfluss auf die Prognose haben.

Doch dass auch so manche algorithmenbasierte Prognose daneben gehen kann, zeigte uns die Fußball-Weltmeisterschaft 2014 in Brasilien. Das Deutsche Institut für Wirtschaftsforschung (DIW) ging davon aus, dass die Summe der Marktwerte der Spieler einer Mannschaft die Erfolgschance repräsentierte. Diese Annahme war nicht unbegründet, denn seit 2006 erwies sich dieser Algorithmus bei Welt- und Europameisterschaften als treffsicher.34 Also wurde auf Spanien als Weltmeister 2014 getippt und wir wissen, dass für die Iberen nach dem zweiten Gruppenspiel bereits der Rückflug gebucht werden konnte. Ist dieser Algorithmus deswegen Unsinn? Immerhin erwies er sich bei vielen Wettbewerben als korrekt und die Prognose eines Weltmeisters ist zweifellos schwierig, weil das Ereignis binär ist, also eintritt oder nicht, und nicht graduell, also Spanien nur „ein bisschen“ oder „zu 80 %“ Weltmeister werden kann. Ferner wiesen die Forscher des DIW darauf hin, dass die Marktwerte der Fußballmannschaften so eng beieinander lagen wie nie zuvor. Die Eintrittswahrscheinlichkeit dieser Prognose war und ist hoch, aber doch nicht 100 %. Ein schwacher Trost für Spaniens Fußballanhänger. Das DIW schätzte übrigens, dass Deutschland Vize-Weltmeister werde und diese Prognose war zweifellos relativ treffsicher: Deutschland wurde Weltmeister.

4.4.5 Reduzierung des Einflusses von Wahrnehmungsverzerrungen auf die Prognose Durch die Abschn. 4.4.1 bis 4.4.4 musste der Eindruck entstehen, dass Wahrnehmungsverzerrungen und „Abkürzungen“ durch Heuristiken des Teufels wären. Dieser Eindruck ist grundsätzlich falsch, denn sie alle haben ihre Ursachen und es ist vielmehr ein Segen, dass wir auch dann eine Entscheidung treffen können, wenn wir nicht genügend Zeit, Motivation oder Informationen haben. Im Kontext von Prognosen sind sie jedoch oft fehl am Platze. Denn es geht bei Forecasts nicht um eine Handlung, eine Entscheidung oder eine Reaktion auf einen äußeren Reiz, es geht um eine konkrete Zielwertfindung bzw. um die Eintrittswahrscheinlichkeit dieses Zielwertes oder Zielwertkorridors. Diese Zielgröße ist rational und irrationale Einflüsse, die zu ihr führen, sind nicht hilfreich.

34 Dettmer,

2014 und o.V., 2014.

92

4  Was verdirbt die Qualität der Prognose?

Wünschenswert wäre nun, ein Instrumentarium zur Verfügung zu haben, um Verzerrungen jedweder Art erkennen, messen und bereits im Vorfeld korrigieren zu können.35 u

Weil der Forecaster auf den Input anderer angewiesen ist, deren Einschätzungen kognitiven Verzerrungen unterliegen, er auf diese aber unmöglich Einfluss nehmen kann, bleibt ihm als Lösung nur, den Prognoseprozess so zu gestalten, dass die Einflüsse geringstmögliche Auswirkungen haben.

Es geht also nicht um einen Kampf, der eh nicht erfolgreicher wäre als Don Quijotes Aufbegehren gegen Windmühlen, es geht um Schadensbegrenzung. Die Art der Inputdatenerhebung, die Wahl der Methode, die Präsentation der Ergebnisse und die Zusammenarbeit der Prognoseteammitglieder während des Prognoseprozesses sind entscheidend dafür, welchen Einfluss Verzerrungen auf das Ergebnis haben werden. Genau das ist auch der Grund dafür, warum diese Aspekte in diesem Buch einen breiten Raum einnehmen. Die Möglichkeiten und Prinzipien, Wahrnehmungsverzerrungen zu reduzieren, lassen sich auf zwei Ansatzpunkte fokussieren:36 1. Berücksichtigung möglicher Verzerrungen im Design des Prognoseprozesses. 2. Berücksichtigung möglicher Verzerrungen in der jeweiligen Methode. In Tab. 4.4 sind die Möglichkeiten im Detail aufgelistet, wobei zur Strukturierung die Darstellung eines Prognoseprozesses aus Abschn. 2.1 verwendet wird. Diese sicherlich nicht vollständige und spontan nicht unbedingt eingängige Darstellung der Möglichkeiten, Wahrnehmungsverzerrungen während des Prognoseprozesses zu reduzieren, lässt sich glücklicherweise auf eine Leitmaxime reduzieren: u Der beste Weg zur Vermeidung von Wahrnehmungsverzerrungen ist die

Objektivierung. Jede Einschätzung von Daten, jede Bewertung von Einflussfaktoren, jede Gewichtung eines Faktors und jede Entscheidung sollte sich nach objektiven Maßgaben richten. Und wenn dies nicht möglich ist, weil z. B. nur unvollständige Informationen vorliegen,

35  Vgl.

bei weitergehendem Interesse die meist recht komplexen und für unsere Zwecke nur bedingt geeigneten Ansätze zur Korrektur der jeweiligen Wahrnehmungsverzerrung in Adams, 1986, Hogarth & Makridakis, 1981, Kahneman, et al., 1982, Makridakis, et al., 1979 und Moriarty, 1985. 36 Zusammengefasst wird die dazugehörige Literatur bei Harvey, 2002, S. 60 ff. Vgl. auch Stewart, 2002.

4.4  Wahrnehmungsverzerrungen und Heuristiken

93

Tab. 4.4  Reduzierung des Einflusses von Verzerrungen im Prognoseprozess Prognoseprozessschritt Vermeidungsprinzip

Wirkung und Beschreibung

Beschreibung des Forecast- und Planungsproblems

Klarheit bzgl. Leistungsfähigkeit des Prognoseergebnisses herstellen

Wurde die richtige Frage gestellt? Ist das Ergebnis der Prognose nützlich? Ist die Prognose belastbar? Wird sie verwendet werden?

Ressourcen festlegen

Sicherstellung der Neutralität des Prognoseerstellers

Ist der Prognoseersteller vom Ergebnis betroffen? Hat er eigene Ziele? Ist das Ergebnis der Prognose für seine Position wichtig?33

Auswahl einer geeigneten Methode

Herstellen eines Konsens zur Sicherung von Zustimmung und Mitarbeit

Inputdatengeber und Ergebnisverwender stimmen Prozess und Methode(n) zu; Selbstverpflichtung zur Unterstützung des Prozesses

Sammlung und Auswertung relevanter Daten

Inputdaten-Checklisten

Sicherung der Vollständigkeit, aber auch Fokussierung auf tatsächlich benötigte Informationen

Grafische Aufbereitung von Daten

„Optische“ Kontrolle der Daten, frühes Erkennen inkonsistenter Daten, Präsentation von Basisraten und Durchschnitten als Anker

Forecast erstellen

Variation von Parametern Aufzeigen von Auswirkungen fehlerhafter Variation von Korrektur- Inputdaten; Verdeutlichung der Auswirkung möglicher Prognosefehler auf die Planung ziffern Variation der Zeitreihenberechnung

Aufzeigen möglicher Sensibilitäten und Unsicherheiten

Überprüfen des Forecasts

Selbstkontrolle und Reflexion

Istdaten werden regelmäßig mit der Prognose verglichen, mögliche Ursachen für Abweichungen diskutiert, Methoden verbessert, Korrekturziffern eingeführt, Gewichtung bei Methodenkombinationen verändert

Forecast präsentieren

Ergebnis und Methode beschreiben

Klarstellung, was der Forecast leistet und was nicht, auch, worin Fehlerursachen liegen können

Anpassung der Forecast-Methode

„Learnings“ dokumentieren

Berücksichtigung von Erfahrungen mit dem Prognoseprozess, Objektivierung des Verfahrens

33 Ist der Prognoseersteller „part of the club“, ist die Gefahr groß, dass er sich von seinen persönlichen Zielen leiten lässt. Ein gutes Beispiel waren die interessengeleiteten Prognosen vor und zu Beginn der Subprime-Krise in den USA, so beschrieben z. B. in Silver, 2012, S. 24 ff. Bei Interesse empfehlen sich die Aufsätze von Jensen, 2001 und Mest & Plummer, 2003. Dort werden sehr eindrucksvoll die Effekte von interessengeleiteter Prognose und Planung beschrieben.

94

4  Was verdirbt die Qualität der Prognose?

ist eine Dokumentation der Entscheidung angesagt. Eine solche Dokumentation diszipliniert an sich, denn sie macht eine Entscheidung nachvollziehbar, was einen durchaus erzieherischen Effekt hat. Das Paradigma der Objektivierung kommt somit vor allem in den folgenden drei Aspekten zum Tragen: • Spontaneität vermeiden: Einschätzungen von Daten, Methoden und Faktoren sollten nicht im Rahmen eines Meetings erfolgen, auch dann nicht, wenn der Fakt für das weitere Gespräch benötigt wird. In diesem Fall wird hilfsweise eine Variable gesetzt und bei Bedarf von einem optimistischen und einem pessimistischen Szenario ausgegangen, aber eine Festlegung erfolgt erst später, wenn untersucht werden konnte, welche Bedeutung diese Variable als Prädiktor hat und welchen Wert sie mit welcher Wahrscheinlichkeit annehmen wird. • Intuition durch Algorithmen ersetzen, wenn möglich: Es ist eine ständige Aufgabe des Forecasters, auch ungefragt zu versuchen, Faktoren zu finden, die eine Zukunft hinreichend exakt beschreiben und die somit als Formel einen Prognosealgorithmus bilden können. Wann immer, in Abschn. 4.4.3 wurde dies ausgeführt, ein Algorithmus mindestens gleich gute Ergebnisse liefert wie ein qualitatives Verfahren, so ist er zu verwenden, mindestens im Rahmen eines kombinierten Forecasts. • Stets mit Eintrittswahrscheinlichkeiten arbeiten: Kein erwartetes Ereignis darf als vollkommen sicher angenommen werden, grundsätzlich alles Zukünftige hat eine Eintrittswahrscheinlichkeit von weniger als 100 %, sei es der morgige Sonnenaufgang (sehr sicher), die Neueinführung eines Produktes des Hauptwettbewerbers (sicher) oder die unerwartete Absage eines sicher geglaubten Auftrags (hoffentlich weniger sicher). Also wird jeder Parameter bzw. Faktor, der für eine Prognose verwendet wird, mit einer Wahrscheinlichkeit belegt.37 Anders ausgedrückt: u

Das Ergebnis einer Prognose ist immer ein Wert, der aber nur mit einer gewissen Wahrscheinlichkeit eintreffen wird, oder ein Wertekorridor, der ein Konfidenzintervall repräsentiert.

Zuweilen ist ein in der betrieblichen Praxis anzutreffendes Problem, dass kein Faktor bzw. Prädiktor gefunden werden kann, der mit der Zukunft zuverlässig korreliert. In solchen Fällen ist die Eintrittswahrscheinlichkeit eines erwarteten Ereignisses, z. B. eines Auftragseingangs, zu unklar und damit zu wenig verlässlich, um die Prognose als Planungsgrundlage zu verwenden. Der korrekte Weg ist für den Forecaster ist hier, ein Konfidenzintervall anzugeben. Dieses drückt (umgangssprachlich) aus, mit welcher Wahrscheinlichkeit das definierte Intervall den wahren Zukunftswert beinhalten wird. Allerdings werden derartige Forecasts als zu unsicher empfunden, weil sie kein klares

37 Siehe

hierzu auch die Ausführungen bei Fischhoff, 2002.

4.5  „Ausreißer“ und warum sie den Blick in die Zukunft verzerren

95

Bild der Zukunft zeichnen. Sie werden nicht akzeptiert (dies wurde in Abschn. 4.1 ausführlich erläutert) und anstatt die Unsicherheit der Zukunft anzuerkennen und daraus abzuleiten, dass ein hohes Maß an Flexibilität erhalten werden sollte, um im Zeitverlauf reagieren zu können, wird die Prognose durch eine Zielplanung ersetzt. Das Unternehmen substituiert die Kosten von Flexibilität durch die Risikokosten der gewählten Handlung. Nur allzu oft erweist sich das als Fehler. Stattdessen sollte gelten: u

Eine unklare Prognose ist eine wertvolle Information für das Vertriebs- bzw. Unternehmensmanagement, denn sie zeigt, dass die Zukunft instabil ist. Jede langfristig bindende Entscheidung ist somit risikoreich. Die Aufgabe des Forecasters ist hier, auch dann, wenn es den Adressaten der Prognose nicht gefällt, das Ausmaß an Unsicherheit aufzuzeigen.

So, wie der Forecaster die Fehlbarkeit seines Urteils akzeptieren muss, um zu einer besseren Vorhersage zu kommen38, muss er auch verbleibende Unklarheiten akzeptieren. Nur dann, wenn ihm die Freiheit gelassen wird, eine unklare Prognose zu erstellen und dies auch offen zu präsentieren, wird die Qualität gut sein. Wie schwer diese Forderung in der Praxis umzusetzen ist, kennen wir alle aus unserem Alltag: Ein Arzt, der mit der Schulter zuckt, weil er aus den Symptomen keine Krankheit erkennen kann, gilt als inkompetent. Ein Sommelier, der die Entwicklung des Weines nicht abschätzen kann, gilt als unfähig und ein Vorstand, der sich nicht entscheiden kann, einen Wettbewerber zu kaufen oder nicht, gilt als Zauderer. In allen drei Fällen wäre besser, die prognostische Fragestellung als unklar und unsicher anzuerkennen, aber es ist gelerntes und erwartetes, aber trotzdem falsches Verhalten, scheinbar selbstsicher eine willkürliche Entscheidung zu treffen und, sollte sich diese als falsch erweisen, dafür „externe bzw. vollkommen unvorhersehbare Gründe“ anzuführen.

4.5 „Ausreißer“ und warum sie den Blick in die Zukunft verzerren Die meisten Prognosemethoden sehen vor, dass Daten der Vergangenheit – wie auch immer – berücksichtigt werden. Sind diese Daten regelmäßig und zeigen sie einen klaren Trend, so liegt die Vermutung nahe, dass sich dieser auch in der Zukunft fortsetzen wird (und meistens tut er das ja auch, aber leider nicht immer!). Sind die Daten nicht regelmäßig, so liegt das oft an sogenannten „Ausreißern“ (auch: Outlier, Ausnahmen), also Werten, die abseits der Trendlinie liegen. Es gibt keine Regel, wie weit der Abstand eines Wertes von dieser Trendlinie sein muss, damit dieser als Ausreißer bezeichnet werden kann, und so ist es eine subjektive Einschätzung, ob ein Wert lediglich eine

38 Vgl.

hierzu auch Silver, 2012, S. 333.

96

4  Was verdirbt die Qualität der Prognose?

akzeptable Schwankung ist und in die Extrapolation einfließt, oder ob er als Ausnahme angesehen wird. u

Wird ein Wert in einer historischen Datenreihe als Ausreißer identifiziert, so ist er zu bereinigen.

Diese Bereinigung ist erforderlich, wenn eine historische Zeitreihe in die Zukunft fortgeschrieben wird und diese Fortschreibung entweder selbst die Prognose darstellt oder als Datengrundlage für eine Prognose dient.39 Leider ist es nicht so einfach, einen Ausreißer zu identifizieren und erst recht nicht, die historische Zeitreihe um diesen zu bereinigen. Es gibt eine ganze Reihe von Ausreißertypen, die sich hinsichtlich ihrer Ursachen und Wirkungen auf die Zeitreihe unterscheiden. Je nach Typ ist die Behandlungsmethode eine andere. Nachfolgend sind typische Ausreißer anhand von Beispielen dargestellt.40 Sie unterscheiden sich hinsichtlich mehr oder weniger offensichtlicher Kriterien, z. B.: • • • • • • •

Wahrscheinlichkeit des Eintritts Eintritts- und Endzeitpunkt (und somit Dauer des Effekts) Störpotenzial relativ zum bisherigen Trend Störpotenzial relativ zur Unternehmensentwicklung Vermutliche Häufigkeit (einmaliges oder periodisches Ereignis) Möglichkeit der Kompensation (Abwehr) Auswirkung des Sondereinflusses (nur auf das eigene Unternehmen, auch auf Wettbewerber, auf Kunden oder gar auf die Gesamtwirtschaft) • Beeinflussung der bisherigen trendbestimmenden Parameter durch die Störgrößen Einmaliger Ausreißer Einmalige Ausreißer sind folgenlos. Sie kommen und sie gehen, der Trend wäre ohne sie ungebrochen (Abb. 4.2). Hier handelt es sich vielleicht um einen urlaubsbedingten Umsatzrückgang aufgrund der Werksferien, und die Suche nach den Ursachen ist erforderlich, um die Wahrscheinlichkeit abzuschätzen, ob der Ausreißer sich wiederholen wird, z. B. im kommenden Jahr. Das Störpotenzial für den Trend ist minimal, für das Unternehmen je nach Betrachtung des Zeitintervalls gering (bezogen auf den Jahresumsatz) oder hoch (Monatsumsatz). Ob und inwieweit sich dieser Ausreißer wiederholt, wie häufig er zukünftig auftreten wird und ob er sich auch auf die Wettbewerber, die Kunden oder den Markt insgesamt auswirkt, ist für den Einzelfall zu untersuchen. Schwieriger wird das Urteil, ob es sich um einen Ausreißer handelt, beim Blick auf den Trendverlauf in Abb. 4.3.

39 Vgl. 40 Vgl.

hierzu auch Boden, 1995, S. 44 f. zur Auflistung von Ausreißern auch Küsters, 2005, S. 338 und Ord & Fildes, 2013, S. 140.

4.5  „Ausreißer“ und warum sie den Blick in die Zukunft verzerren

97

400 350

Umsatz in Tsd. €

300 250 200 150 100 50 0

Jan

Feb

Mrz

Apr

Mai

Jun

Jul

Aug

Sep

Okt

Nov

Dez

Apr

Mai

Jun

Jul

Aug

Sep

Okt

Nov

Dez

Abb. 4.2   Einmaliger Ausreißer

350

Umsatz in Tsd. €

300 250 200 150 100 50 0

Jan

Feb

Mrz

Abb. 4.3   Unklare einmalige Ausreißer

98

4  Was verdirbt die Qualität der Prognose?

Sind die Monate Mai, Juli und Dezember Ausreißer? Oder handelt es sich um einen „normalen“ Verlauf mit Höhen im Frühjahr und Herbst und Tiefen im Sommer und Winter? Wie weit sollte diese Zeitreihe geglättet werden? Die durchaus unbefriedigende Antwort ist, dass es kein Patentrezept gibt, keine Maßzahl, ab wann es sich bei einer Abweichung vom grundsätzlichen Trend um einen korrekturwürdigen Ausreißer handelt. Für den Trendverlauf, der in Abb. 4.3 dargestellt ist, kann jedoch keine Einzelwertkorrektur empfohlen werden. Vielmehr zeigt sich hier das Problem der korrekten Berücksichtigung von Vergangenheitswerten (Overfitting/Underfitting) in seiner ganzen Pracht und wird darum in Abschn. 8.2 separat behandelt. Selbst korrigierender Ausreißer Einen Sonderfall des einmaligen Ausreißers stellt der sich selbst korrigierende dar (Abb. 4.4). Dieser „repariert“ sich durch einen gegenläufigen Versatz von der Trendlinie selbst, sodass in der Jahresbetrachtung im hiesigen Beispiel die gleiche Umsatzsumme herauskäme, wenn der Ausreißer nicht aufgetreten wäre. Typisch ist dieser Verlauf z. B. dann, wenn Werksferien oder ein technischer Ausfall die Annahme oder Abarbeitung von Aufträgen für eine bestimmte Zeit verhinderte und dieser Auftragsstau nach Wegfall des Grundes abgearbeitet wird. Ohne eine Untersuchung der Ursache der Ausreißer, hier für die Monate Juli und August, und den möglichen kausalen Zusammenhang, ist es nicht möglich, einen selbst korrigierenden Ausreißer zuverlässig zu erkennen. Oft wird er mit der Abfolge zweier

450 400

Umsatz in Tsd. €

350 300 250 200 150 100 50 0

Jan

Feb

Mrz

Apr

Mai

Abb. 4.4   Selbst korrigierender Ausreißer

Jun

Jul

Aug

Sep

Okt

Nov

Dez

4.5  „Ausreißer“ und warum sie den Blick in die Zukunft verzerren

99

voneinander unabhängiger Ausnahmen verwechselt, was zu einer anderen Bewertung der Verlässlichkeit der historischen Datenreihe für eine Prognose führen würde. Niveauverschiebender Ausreißer Der niveauverschiebende Ausreißer ist ein markanter Meilenstein in der Entwicklung des Trends. Durch irgendeinen Umstand wird der bisherige Trend auf der Ordinate „versetzt“, nach oben, oder, wie es Abb. 4.5 zeigt, nach unten. Der Trend selbst bleibt erhalten, aber auf einem dann anderen Niveau. Indikativ ist, dass diese Niveauanpassung nicht über mehrere Perioden, hier Monate, erfolgt, sondern sprunghaft. Der Effekt tritt plötzlich ein und wirkt sich langfristig und signifikant aus. Die Erwartung, dass sich nach diesem Ausreißer (hier im Juli) die Umsatzentwicklung wieder auf das alte Niveau einpendelt, wird enttäuscht. Der Grund für die in Abb. 4.5 dargestellte Kurve könnte z. B. eine bedeutsame Produkteinführung eines Wettbewerbers sein. Die Auswirkungen auf den Vertrieb bzw. das gesamte Unternehmen wären bedeutsam. Ein Ausreißer wie dieser ist besonders gefährlich. Er ist mit quantitativen Prognosemethoden, also einem Algorithmus, nicht zu erfassen, sondern kann nur durch qualitative Beurteilung der Situation sowie der Zukunft antizipiert werden. Hierzu bedarf es Expertenwissens. Gerne wiederhole ich hier einen Schlüsselsatz, der am Ende des Abschn. 4.4.4 eingerahmt steht: „Experten sind besser als Algorithmen, wenn Ereignisse auftreten können, die sehr selten sind, aber dann einen großen Einfluss auf die Prognose haben.“ Da jedoch die Auswirkungen dieser Niveauverschiebung für die kumulierte

300

Umsatz in Tsd. €

250

200

150

100

50

0

Jan

Feb

Mrz

Apr

Mai

Abb. 4.5   Niveauverschiebender Ausreißer

Jun

Jul

Aug

Sep

Okt

Nov

Dez

100

4  Was verdirbt die Qualität der Prognose?

400 350

Umsatz in Tsd. €

300 250 200 150 100 50 0

Jan

Feb

Mrz

Apr

Mai

Jun

Jul

Aug

Sep

Okt

Nov

Dez

Abb. 4.6   Ausreißer mit allmählicher Trendnormalisierung

Umsatzentwicklung groß sind, wäre die Voraussage einer solchen Niveauverschiebung zweifellos mutig. Ausreißer mit allmählicher Trendnormalisierung Anders als beim niveauverschiebenden Ausreißer normalisiert sich der Trend hier, wie Abb. 4.6 zeigt, nach einer Ausnahme im April bis zum Monat August wieder, und zwar sowohl hinsichtlich des Trendverlaufs als auch hinsichtlich des Niveaus. Wäre dieser Ausreißer nicht vorhergesagt worden, wäre der Prognosefehler lediglich die Summe der Abweichungen der Monate April bis August von den regulären, dem Basistrend folgenden Werten. Die Auswirkungen sind für den Vertrieb bzw. das Unternehmen weniger folgenreich. Allerdings treten Ausreißer mit allmählicher Trendnormalisierung, je nach Branche, recht häufig auf, insbesondere dann, wenn die Nachfrage sensibel reagiert. Auch ist es keineswegs so, dass diese Form der Ausreißer so einfach zu erkennen sind, wie es Abb. 4.6 zeigt. Vielmehr überlagern sie sich oft mit anderen Trendverzerrungen und sind dann nur schwer zu isolieren.41

41 Grundsätzlich

gilt dies natürlich auch für alle anderen Arten von Ausreißern.

4.5  „Ausreißer“ und warum sie den Blick in die Zukunft verzerren

101

400 350

Umsatz in Tsd. €

300 250 200 150 100 50 0

Jan Feb Mrz Apr Mai Jun Jul Aug Sep Okt Nov Dez Jan Feb Mrz Apr Mai Jun Jul Aug Sep Okt Nov Dez

Abb. 4.7   Saisonaler Ausreißer

Saisonaler Ausreißer Ein saisonaler Ausreißer ist keiner, sondern lediglich eine saisonale Schwankung, wie sie Abb. 4.7 darstellt. Er ist absehbar, berechenbar in Trend und relativen Höhe und darum auch gut zu prognostizieren. Tatsächlich gibt es erprobte Verfahren, saisonale Trends zu berücksichtigen und ein einfaches, die exponentielle Glättung unter Berücksichtigung von saisonalen Einflüssen, wird in Abschn. 8.3 beschrieben. Diese Form der Ausreißer hier zu beschreiben, dient somit der Vollständigkeit. Die Auswirkungen für Vertrieb und Unternehmen sind durch die Vorhersagbarkeit gering, was nicht bedeutet, dass aus produktions-, lager-, finanzierungs- oder vertriebstechnischen Gründen saisonale Schwankungen nicht auch ihre Anforderungen an die Unternehmensplanung stellten. Trendverändernder Ausreißer Auch dieser Ausreißer verdient seinen Namen nicht, denn er ist keineswegs eine Ausnahme, sondern lediglich der erste Wert eines neuen Trends. Er markiert den Wendepunkt einer Entwicklung. In Abb. 4.8 ist dies der Monat Juli. Die Auswirkungen für Vertrieb und Unternehmen sind erheblich. Einen solchen Wendepunkt nicht rechtzeitig zu prognostizieren, belastet die Ressourcen, entweder, weil eine Überproduktion entsteht und die Organisation vergebliche Anstrengungen unternimmt, ihr Produkte zu verkaufen, oder aber, wenn der Trend sich nach dem Ausreißer

102

4  Was verdirbt die Qualität der Prognose?

300

Umsatz in Tsd. €

250 200 150 100 50 0

Jan

Feb

Mrz

Apr

Mai

Jun

Jul

Aug

Sep

Okt

Nov

Dez

Abb. 4.8   Trendverändernder Ausreißer

ins Positive entwickelt, weil das Unternehmen durch Bestandslücken den „Boom“ nicht nutzen kann. Trendverändernde Ausreißer verdienen zweifellos eine besondere Aufmerksamkeit. Trendzerstörender Ausreißer Auch hierbei handelt es sich bei der Ausnahme um die Marke für eine Trendverlaufs. Der Unterschied zum trendverändernden Ausreißer besteht aber darin, dass in dessen Folge kein neuer Trend, weder dem Niveau noch dem Verlauf nach, erkannt werden kann. Die Umsatzwerte in Abb. 4.9 zeigen, beginnend mit dem Monat Juni, einen nachgerade zufälligen Verlauf und die Prognose der Monatswerte für das zweite Halbjahr ist lediglich unter Inkaufnahme erheblicher Unsicherheit (niedrige Eintrittswahrscheinlichkeit) möglich. Die Auswirkungen sind hoch. Die kaum noch gegebene Planbarkeit erschwert Anpassungsmaßnahmen, wenn sie diese nicht sogar unmöglich machen. Natürlich ist die Bezeichnung „trendzerstörender Ausreißer“ semantisch nicht ganz korrekt. Der Monat Juni in Abb. 4.9 zerstört den Trend nur in der Grafik, ist aber lediglich Indikator und nicht Ursache. Prognostizierbar ist der weitere Verlauf kaum. Der Jahresumsatz läge vielleicht noch in der Nähe des prognostizierten, weil die zufällig erscheinenden Monatswerte von Juni bis Dezember um einen Mittelwert schwanken. Aber auf Basis der Monatswerte wäre eine Planung kaum möglich. Am Rande sei bemerkt, dass der Jahresumsatz bei stabilem Trendverlauf (Fortschreibung der Monate Januar bis Mai aus Abb. 4.9) 3,725 Mio. € betrüge, durch die

4.5  „Ausreißer“ und warum sie den Blick in die Zukunft verzerren

103

350 300

Umsatz in Tsd. €

250 200 150 100 50 0

Jan

Feb

Mrz

Apr

Mai

Jun

Jul

Aug

Sep

Okt

Nov

Dez

Abb. 4.9   Trendzerstörender Ausreißer

Trendzerstörung nun aber 2,85 Mio. € und damit lediglich 76 % des vorhergesagten Wertes. Sicherlich ist eine solche Abweichung der Ist- von den Prognosedaten für die meisten Unternehmen kritisch. Sich überlagernde Ausreißer Werden in einer Zeitreihe sich überlagernde Ausreißer festgestellt, ist die naheliegende Frage, die sich der Forecaster stellen sollte, ob er mit der richtigen Bewertung an die Analyse der historischen Daten herangeht. Eine Abfolge von Ausnahmen beinhaltet selbst eine gewisse Regelmäßigkeit. Zudem ist die Wahrscheinlichkeit groß, dass sich Ausreißer gegenseitig beeinflussen, entweder mathematisch, weil die Werte gegen einen Mittelwert tendieren42, oder in der Realität des Marktes, weil z. B. Nachfragespitzen bedeuten, dass Abnehmer ihren Bedarf „zufällig“ zur gleichen Zeit decken, aber das Produkt in der Folgeperiode weniger nachfragen werden. Es ist keineswegs einfach, zwischen der Überlagerung bzw. Abfolge von Ausnahmen einerseits und der Zufälligkeit in der Datenreihe andererseits zu unterscheiden. Die Gefahr ist folgende:

42 Die

sog. „Regression zum Mittelwert“ oder engl.: „Regression to the mean“.

104

4  Was verdirbt die Qualität der Prognose?

u

Versucht ein Forecaster, den Verlauf einer Zeitreihe zu erklären, neigt er dazu, Muster zu erkennen, auch, wenn diese nicht existieren. Die kognitive Leichtigkeit von Schlüssen und die Kohärenz in der Argumentation gaukeln Sicherheit beim Erkennen von Trends und Ausnahmen vor.

Prognosen, die unter dem Schirm solcher kognitiver Verzerrungen entstehen, sind gefährlich. Vielmehr gilt für die Behandlung von Ausnahmen das „Out of sample“-Gebot: u

Wenn eine Prognosemethode auf ein Prognosethema nicht anwendbar ist, weil die Umstände besonders und Ausreißer zu erwarten sind, muss es auch besonders behandelt und als Ausnahme betrachtet werden.

Die Behandlung von Ausnahmen Wird ein Ausreißer festgestellt, ist die Frage, wie dieser berücksichtigt werden soll. Hierfür gibt es grundsätzlich zwei Möglichkeiten: 1. Die kurative Maßnahme: Die Ausnahmen werden so adjustiert, dass eine Fortschreibung der historischen Daten möglich wird. 2. Die destruktive Maßnahme: Der historische Trend wird verworfen, weil der oder die Ausreißer anzeigt bzw. anzeigen, dass der Trend zukünftig nicht mehr gilt. Die destruktive Maßnahme bedeutet, dass auf quantitative Prognosen weitestgehend verzichtet werden muss. Weitestgehend, weil je nach Einzelfall und als Element eines kombinierten Forecasts durchaus noch Extrapolationen möglich sein können. u Niemals aber dürfen quantitative Prognosen allein verwendet werden, wenn

Ausreißer anzeigen, dass die bisherige Datenreihe die Zukunft nicht mehr zuverlässig indiziert. Stattdessen sind qualitative Prognosen zu verwenden. Sind auch qualitative Prognosen vermutlich nicht präzise genug, so ändert sich die Aufgabenstellung für den Forecaster: Anstatt Prognosen zu erstellen und zu kombinieren, wird er Szenarien entwickeln. Diese Aufgabe wird selten dem Forecaster allein überlassen, sondern ist grundsätzlich eine Aufgabe des strategischen Managements. Der Forecaster unterstützt hier durch die Berechnung von Prognosewerten, Eintrittswahrscheinlichkeiten und Wertekorridoren. Sind die Ausreißer • kalkulierbar, • vermutlich einmalig und • in ihren Auswirkungen weniger bedeutsam,

4.5  „Ausreißer“ und warum sie den Blick in die Zukunft verzerren

105

so sind kurative Maßnahmen zu verwenden.43 u

Die Aufgabe einer kurativen Maßnahme zur Behandlung eines Ausreißers ist es, diese durch einen Wert zu ersetzen, der entstanden wäre, wenn die Ursache des Ausreißers niemals stattgefunden hätte.

Das übliche Verfahren ist die Interpolation der Nachbarwerte. Wenn im Vormonat der Umsatz 10 betrug und im Nachmonat 20, ist der interpolierte Wert 15. Eine Verfeinerung, z. B., indem jeweils der Durchschnitt der zwei Vormonate und der Durchschnitt der zwei Nachmonate gebildet und diese zwei Durchschnittswerte interpoliert werden, ist möglich, aber selten erforderlich. In der Regel reicht die einfache Näherung aus. Schwieriger wird die Situation bei einem trendverschiebenden Ausreißer. Kaufte bspw. das eigene Unternehmen in der zurückliegenden Betrachtungsperiode einen Wettbewerber, so hatte dies einen Umsatzsprung zur Folge. Für die Extrapolation der Umsätze (als Prognose) taugen nun nur die Werte, die nach dem Kauf, vielleicht sogar erst nach einer Konsolidierungsphase, gemessen werden konnten. Aber wenn es hiervon zu wenige gibt, um zuverlässig einen Trend fortschreiben zu können, so wäre wünschenswert, auch (alte) Werte zu berücksichtigen, die vor dem Akquisitionszeitpunkt liegen. In einem solchen Falle ist es möglich, die alten Werte zu adjustieren, indem sie mit dem Faktor des Umsatzsprungs, der sich nach dem Kauf einstellte (neue Werte) multipliziert werden. Kann das Unternehmen z. B. durch den Kauf des Wettbewerber 30 % mehr Umsatz erzielen, was sich in den neuen Werten zeigt, so werden auch die alten Werte mit 1,3 multipliziert und somit „kurativ adjustiert“.44 Was hat es mit den „Schwarzen Schwänen“ auf sich? Ohne auf die lange Historie der Begrifflichkeit einzugehen (sie kann schnell bei Wikipedia nachgelesen werden), steht ein „Schwarzer Schwan“ spätestens seit dem Bestseller von Nassim Taleb45 als Synonym für ein Ereignis, das zwei Voraussetzungen erfüllt: 1. Das Ereignis hat eine existenzielle Bedeutung (hier) für das Unternehmen. 2. Die Eintrittswahrscheinlichkeit des Ereignisses ist sehr gering.

43 Stellwagen, 2007, wiedergegeben in und erweitert von Gilliland, 2010, S. 51 ff. sowie Kühnapfel, 2013a, S. 117 ff. 44 So erläutert in Kühnapfel, 2013a, S. 117. 45 Taleb, 2010.

106

4  Was verdirbt die Qualität der Prognose?

Die Idealvorstellung ist, dass ein Prognostiker erkennt, wenn sich die Eintrittswahrscheinlichkeit eines Schwarzen Schwans erhöht. Erreicht sie einen definierten Schwellwert, „schlägt er Alarm“ und das Unternehmen ergreift die vorgesehenen Schutzmaßnahmen. Insofern ist ein Schutz gegen Schwarze Schwäne nichts anderes als das Vorabdefinieren von Prozeduren, die bei einer bedrohlichen Störung des Marktes oder der Unternehmensprozesse greifen. Solche Notfallprozeduren werden in der Regel im Rahmen von Frühwarnsystemen entwickelt und gehören zum Repertoire des klassischen Risk Managements. u

Das Problem ist jedoch, dass es Schwarzen Schwänen eigen ist, so lange als unwahrscheinlich zu gelten, bis sie da sind (so auch im Falle der Corona-Pandemie oder des russisch-ukrainischen Kriegs). Gerade das macht sie so gefährlich. Und wenn das so ist, sind sie auch nicht prognostizierbar und für die Zwecke der Vertriebsprognosen können wir sie getrost ignorieren.

Es bleibt dem Management in seiner unternehmerischen Verantwortung nur, nach Prädiktoren zu fahnden, welche auf Schwarze Schwäne hindeuten, aber das macht es im Rahmen eines Frühwarnsystems vermutlich ohnehin.

5

Die Auswahl der richtigen Prognosetechnik

Zwei enttäuschende Nachrichten zu Beginn dieses Kapitels: Für die Auswahl der richtigen Prognosetechnik gibt es kein Patentrezept, keine Musteranleitung, kein Standardverfahren. Für jeden Einsatzzweck muss über eine bewusste Auswahl anhand von Kriterien die richtige Methode gefunden werden, genauer gesagt: das richtige Set verschiedener Methoden (der kombinierte Forecast, vgl. Abschn. 3.4). Diese Kriterien, die in Abschn. 5.2 betrachtet werden, sind wiederum graduell, führen also nicht zu einer Entweder-oder-Entscheidung. Das macht die Methodenwahl mühsam und ist einmal eine Auswahl entschieden, kann niemals klar sein, ob diese optimal ist. Der Forecaster wird seine Auswahl immer wieder selbst infrage stellen müssen, aber das Problem hierbei ist, dass für die Qualitätskontrolle (vgl. Abschn. 3.6) die Konstanz der Methoden Voraussetzung ist.1 Die erste schlechte Nachricht ist also, dass ein Forecaster und somit auch der Vertrieb bzw. das Unternehmen niemals die befriedigende Sicherheit erfahren, eine optimale Methodenauswahl gefunden zu haben. Die zweite schlechte Nachricht ist, dass es keine universelle Prognosemethode gibt, die alle Entscheidungssituationen gleichermaßen unterstützt.2 Doch es gibt auch eine gute Nachricht: Eine Grundregel der Methodenwahl lautet, dass grundsätzlich alle Prognosemethoden angewendet werden sollten, für die

1 Wobei

es natürlich leicht ist, die Qualität einer später eingeführten Methode zu prüfen: Sie wird mit historischen Daten „gefüttert“ und die Abweichung des Prognosewertes vom realen Ergebnis, das ja dann ebenfalls bekannt ist, wird gemessen. Eine – wenn auch recht komplexe und umfangreiche – Einführung in die Auswahl der bestgeeigneten Methode bietet der von 72 (wie das geht, weiß ich auch nicht) Autoren erstellte Beitrag Petropoulos, et al., 2022. 2  Dies ist eine altbekannte Feststellung, an der auch die letzten Jahrzehnte trotz intensiver Forschung nichts geändert hat. Vgl. beispielsweise Makridakis, et al., 1980, S. 11. Genau dies ist übrigens das Problem von Prognose-Software, und sei sie noch so komplex. © Der/die Herausgeber bzw. der/die Autor(en), exklusiv lizenziert an Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2023 J. B. Kühnapfel, Vertriebsprognosen, https://doi.org/10.1007/978-3-658-42876-1_5

107

108

5  Die Auswahl der richtigen Prognosetechnik

Inputdaten, Expertise und Ressourcen zur Verfügung stehen. Die Kombination dieser Forecasts, also zunächst die Mittelwertbildung der Ergebnisse, führt zu einer hinreichend präzisen Prognose. In der betrieblichen Praxis sind diese Voraussetzungen (Inputdaten, Expertise, Ressourcen) aber nur begrenzt vorhanden und es sind Entscheidungen zu treffen, in welchen Faktor investiert werden soll. Also ist es erforderlich, die eigenen Anforderungen an einen Forecast zu analysieren, und hierzu dienen, vom Allgemeinen zum Speziellen das Thema verdichtend, die Abschn. 5.1 bis 5.3. Das Rad braucht natürlich nicht neu erfunden zu werden. Eine Anleihe aus der Welt der Modellkonstruktion in der Physik sei gestattet:3 Dort gilt ein Modell als „gut“, wenn es • • • • •

„elegant“ ist, also praktikabel und nutzbar, nur wenige willkürliche oder interessenabhängig gerichtete Elemente enthält, beobachtbare Zustände beschreibt (also die Gegenwart als Folge der Vergangenheit), verifizier- und falsifizierbar ist und in der ex-post-Betrachtung die richtigen Ergebnisse zeigt.

Ideal wäre es nun, die inneren Gesetzmäßigkeiten eines Systems zu kennen, um aus gegebenen Systemzuständen der Gegenwart sowie Erfahrungen aus der Vergangenheit die Zukunft antizipieren zu können.4 Diese Antizipation würde durch ein Gleichungssystem, also ein Set von Algorithmen, geschehen. Aber komplexe Systeme vollständig zu analysieren, ist kaum möglich. Niemand kennt alle Faktoren und ihre Verknüpfungen in einer Vertriebssituation, und sei sie augenscheinlich noch so einfach. Also versuchen wir zu vereinfachen. Dies geschieht z. B. mittels eines Modells, das wir dann „ForecastMethode“ nennen. Und nachfolgend wird beschrieben, wie es uns gelingt, die Wirklichkeit zu einem Modell zu vereinfachen und dieses Modell so zu konstruieren, dass es die Zukunft beschreibt.

5.1 Grundregeln der Methodenwahl Patentrezepte für die Auswahl der Prognosemethode(n), die sich sowohl aus der empirischen und theoretischen Forschung als auch aus praktischen Erfahrungen ableiten lassen, sind per se widersprüchlich. Forecaster sollten dies unbedingt beachten, denn nur allzu oft werden sie in Verkaufszeitschriften oder von Kollegen mit vermeintlichen Erkenntnissen konfrontiert, die sich aber nur auf eine Quelle, eine Studie, eine

3 Eine

launige und unterhaltsame Erklärung, wie physikalische Modelle zustande kommen, findet sich in Hawking & Mlodinow, 2011. 4 Gehmacher, 1971, S. 35 und 65 ff.

5.1  Grundregeln der Methodenwahl

109

Befragung oder Untersuchung5 beziehen. Tatsächlich aber ist die Welt komplizierter. Wie immer. Nachfolgend werden kurz vier Grundregeln bzw. Grundsätze der Methodenwahl betrachtet. Die Auswahl erfolgte nicht willkürlich, sondern nach der praktischen Bedeutung und auch danach, wie missverständlich diese Regeln zuweilen dargestellt und angewendet werden. Einfachheit Eine der wichtigsten Grundregel, die immer wieder zitiert wird, ist: Einfach bleiben! Eine Reihe von Forschungsprojekten, allen voran die „Wettbewerbe“, die Makridakis durchführte und die in Abschn. 3.3 beschrieben wurden, zeigten, dass komplexe Verfahren über einen Panel von vielen Dutzend verschiedenen Prognoseaufgaben im Schnitt keine signifikant besseren Ergebnisse brachten als einfache. Und hierin liegt die Crux: Im Schnitt! Denn im Einzelfall kann es sehr wohl angezeigt sein, ein komplexes Verfahren zu verwenden, um ein präziseres Vorhersageergebnis zu erzielen. Somit lautet der Grundsatz: u Ist für die Prognoseaufgabe unklar, welche Methode(n) eingesetzt werden

soll(en), ist (sind) im Zweifel die einfachere(n) vorzuziehen. Die Vorteile einer einfacheren Methode liegen auf der Hand: Sie kostet weniger, ist schneller und für die Adressaten leichter nachzuvollziehen. Allerdings möchte ich an dieser Stelle – wie schon zuvor – noch einmal davor warnen, in diesem Grundsatz die Ausrede zu suchen, sich mit komplexeren Verfahren nicht beschäftigen zu müssen. Eine sinnvolle Auswahl von Methoden gelingt nur, wenn der Forecaster in der Lage ist, die übliche Bandbreite von Methoden anzuwenden und sie gegeneinander zu testen. Beschränkt er sich mit dem Verweis auf den Grundsatz der Einfachheit auf einfache Modelle, beraubt er sich um die Möglichkeit eines präziseren Forecasts. Und zur „üblichen Bandbreite“ sind alle Modelle zu zählen, die in diesem Buch vorgestellt werden, denn nach diesem Kriterium wurden sie ausgewählt! Automatisierbarkeit In Abschn. 4.4.4 wurde über den Unwillen vieler Manager geschrieben, ihre Welt in Algorithmen zu beschreiben oder auch nur zu akzeptieren, dass eine Beschreibung ihrer Welt in Form von Algorithmen möglich sei. Sie sehen sich als Experten mit spezifischem, exklusivem Wissen im Vorteil. Der Gedanke, dass die Zustände bestimmter Aspekte der Zukunft durch eine mathematische Verknüpfung nur weniger Faktoren

5 Und

hier am liebsten eine, die von einer Unternehmensberatung durchgeführt wurde!

110

5  Die Auswahl der richtigen Prognosetechnik

vorausberechnet werden können, ist ihnen zuwider. Folgerichtig präferieren sie ForecastMethoden, die ihr Wissen benötigen, also qualitative, expertengestützte Verfahren. ­Tatsächlich aber ist es zunächst sinnvoll, algorithmenbasierte Verfahren anzuwenden, denn sie haben den Vorteil, dass sie mindestens methodisch frei von Wahrnehmungsverzerrungen sind, vielleicht sogar bei der Sammlung von Inputdaten (z. B. durch Kassensysteme oder Web-Shop-Datenbanken). u

Auch wenn in der betrieblichen Praxis expertenbasierte Modelle präferiert werden, und vor allem dann, wenn die Komplexität der Umwelt hierzu keine Wahl lässt, muss nach Faktoren (Prädiktoren) gesucht werden, die eine algorithmenbasierte Prognose ermöglichen. Diese Faktoren bilden die Grundlage der Automatisierbarkeit eines Prognoseprozesses.

Nun ist es aber keineswegs richtig, mit dieser Argumentation qualitative ForecastMethoden zu verteufeln. Im Gegenteil: Ohne diese wären bestimmte Erkenntnisse über die erwartete Zukunft nicht zu bekommen. Die Automatisierbarkeit bezieht sich in diesen Fällen auf den Prozess und die Qualität der Gestaltung des Verfahrens. Eine Delphi-Befragung z. B. (siehe hierzu Abschn. 10.2) ist eine qualitative Methode, bei der nicht-algorithmisierbares Wissen abgefragt wird, aber das Verfahren profitiert von einer stringenten Strukturierung. Automatisierbarkeit ist somit ein Grundsatz, der sich sowohl auf die Methode als auch auf den Prognoseprozess beziehen kann. In jedem Falle sollte der Forecaster bestrebt sein, sein Vorgehen zu strukturieren. Methodenvielfalt Qualitative oder quantitative Methoden unterscheiden sich wesentlich: Qualitative berücksichtigen Expertenwissen, unterliegen aber dem Risiko von Wahrnehmungsverzerrungen bzw. Heuristikfehlern und unterschätzen statistische Zusammenhänge historischer Daten. Quantitative extrapolieren regelbasiert die Vergangenheit, ignorieren aber zukunftsgerichtetes Wissen der Experten bzw. Manager. u

Da keine Methode die Vorzüge der qualitativen und der quantitativen Prognoseverfahren gleichermaßen inkludiert, sind Verfahren beider Lager in den kombinierten Forecast einzubeziehen.

Die Grundregel ist also, immer beide Verfahrensvarianten anzuwenden. Das macht den Prognoseprozess mühsamer, aufwendiger, aber das Ergebnis wird auch präziser. Wird es das nicht, besteht zumindest Klarheit darüber, dass die Umwelt derart komplex ist, dass sie nicht hinreichend genau prognostiziert werden kann und das Unternehmensmanagement hat dementsprechend vorsichtig zu agieren.

5.2  Die fünf wichtigsten Kriterien …

111

Methodenanpassung Häufig wird der Forecast als eine einmalige Aktivität angesehen, als ein singuläres Ereignis. Und wird später ein weiterer Forecast erstellt, ist er dann ein weiteres singuläres Ereignis. Das ist falsch. Die Erstellung eines Forecasts ist ein Prozess, der die Überprüfung des späteren Ergebnisses ebenso beinhaltet wie die Anpassung der gewählten Methoden, um die darauffolgenden Prognosen zu verbessern. Dass gerade dieser Schritt, die Ergebnisüberprüfung und die Methodenanpassung, häufig unterbleibt oder zumindest stiefmütterlich betrieben wird, wurde bereits beschrieben.6 u

Der Prognoseprozess umfasst immer auch die Anpassung der Methode. Hierzu gehört die Adjustierung der Inputdaten, die Wahl des Methoden-Sets und die Durchführung der Methode selbst.

Ziel ist die Optimierung der Prognose, natürlich im Kontext der dafür bereitstehenden Ressourcen. Wie gemessen werden kann, ob eine Prognose gut war oder nicht, erläutert Kap. 6.

5.2 Die fünf wichtigsten Kriterien für die Auswahl der besten Prognosetechnik Aus den verfügbaren Forschungsarbeiten und Praxiserfahrungen rekrutiert sich ein Katalog von Kriterien, die für die Auswahl der richtigen Prognosetechnik relevant sind. Dieser Kriterienkatalog ist wichtig, denn er umreißt das Prognoseproblem im Allgemeinen und dient dem Forecaster dazu, zu kontrollieren, ob alle Auswahlfaktoren berücksichtigt wurden oder nicht. Leider leisten die verfügbaren Kriterienkataloge aber nicht, wozu sie primär zu sein scheinen: Sie führen nicht zu einer klaren Methodenempfehlung! Vergleichbar ist die Situation, eine Methode auszuwählen, mit dem Kauf eines Autos: Die erste Frage ist, welche Kriterien für den Autokauf relevant sind (Preis, PS-Zahl, Raumangebot, Anzahl Sitze, Image usw.), die zweite, welches Auto gekauft werden soll, wenn alle Kriterien parametrisiert, also bewertet sind. In diesem Abschn. 5.2 wird zunächst die erste Frage beantwortet und es werden die Kriterien beschrieben, die für die Auswahl einer Methode wichtig sind. In Abschn. 5.3 wird die zweite Frage beantwortet. Doch zunächst sind die Kriterien für die Auswahl einer Prognosetechnik in Tab. 5.1 aufgeführt. Die Untergliederung der Kriterien erfolgt anhand der drei Grundkomponenten der Prognose.

6 Ehrmann

& Kühnapfel, 2012.

112

5  Die Auswahl der richtigen Prognosetechnik

Tab. 5.1  Kriterien für die Auswahl einer Prognosemethode7 Prozessschritt

Auswahlkriterien

Input

• Verfügbarkeit der Inputdaten • Aufwand der Datenerhebung • Anzahl der Prognoseobjekte (Produkte, Filialen, Kunden usw.) • Stabilität der Ausgangssituation bzw. Vergangenheitsdaten • Erwartete Stabilität der Umwelt in Zukunft • Rationalisierbarkeit der Inputdaten • Interpretationsspielräume • Intersubjektive Nachprüfbarkeit • Qualität der historischen Daten – Anzahl der Daten (zeitlicher Abstand, Historie) – Regelmäßigkeit der Daten – Übertragbarkeit der Daten auf die Prognose – Erkennbarkeit von Mustern (Trends, Saison usw.) – Ergänzende Zeitreihen, deren Daten mit den Prognosedaten korrelieren • Identifizierbarkeit und damit Adjustierbarkeit von Ausreißern • Dokumentierbarkeit von Annahmen, Vermutungen und Unterstellungen • Verwendung intuitiver Annahmen

Methode

• Methodenkenntnis • Benutzerfreundlichkeit des Verfahrens • Know-how des Forecasters im Umgang mit den Methoden • Aufwand und Komplexität der Berechnung • Automatisierbarkeit der Methode • Prognosekosten • Popularität der Methode • Erfahrungen in früheren ähnlichen Prognose-Situationen • Einfluss unerwarteter externer Effekte • Möglichkeit der Berücksichtigung von Szenarien

Output

• Prognosegenauigkeit • Prognosezyklen • Gewünschter Prognosezeitraum und Prognosedatenbasis • Regelmäßigkeit und Pünktlichkeit der Prognose • Detaillierungsgrad • Nachvollziehbarkeit und Glaubwürdigkeit der Ergebnisse für die Prognosedatenverwender (Vertrauen!) • Vergleichbarkeit der Daten verschiedener Prognosen • Möglichkeit der ständigen Adjustierung der Methode

7  Zusammengestellt

unter Verwendung folgender Quellen: Kühnapfel, 2022, S. 406 ff., Becker, 2011, S. 266, Armstrong, 2002e, Laumann, 1980, S. 149–151, Makridakis, et al., 1980, S. 17–19, Hansmann, 1983, S. 141, Wallace & Stahl, 2002, S. 23–26, Hüttner, 1986, S. 279–280, Küsters, 2012, Pilinkiené, 2008.

5.2  Die fünf wichtigsten Kriterien …

113

Tab. 5.2  Bedeutung der Kriterien für die Auswahl einer Prognosemethode, Umfrage von Yokum und Armstrong (Yokum & Armstrong, 1995, Hüttner, 1986, S. 278) Kriterium

Durchschnittliche Wichtigkeit auf einer Skala von 1 = unwichtig bis 7 = wichtig Forscher Ausbilder Praktiker Entscheider Ø

Genauigkeit

6,39

6,09

6,10

6,20

6,20

Pünktlichkeit der gelieferten Prognose 5,87

5,82

5,92

5,97

5,89

Ermöglichte Einsparungen durch Prognosen

5,66

5,62

5,97

5,75

5,89

Einfachheit der Interpretation

5,54

5,89

5,67

5,82

5,69

Flexibilität

5,54

5,35

5,63

5,85

5,58

Einfache Nutzung vorhandener Daten 5,59

5,52

5,44

5,79

5,54

Einfachheit in der Anwendung

5,47

5,77

5,39

5,84

5,54

Einfach in Prozesse und Systeme zu implementieren

5,24

5,55

5,36

5,80

5,41

Nutzung von Expertenwissen

4,98

5,12

5,19

5,15

5,11

Angabe von Sicherheitsbereichen

5,09

4,70

4,81

5,05

4,90

Kosten der Entwicklung der Methode

4,70

5,02

4,83

5,10

4,86

Kosten der Pflege der Methode

4,71

4,75

4,73

4,72

4,73

Theoretischer Überbau

4,81

4,20

4,43

3,72

4,40

Eine in 1995 veröffentlichte Umfrage über die Wichtigkeit einiger der in Tab. 5.1 aufgeführten Kriterien zeigt Tab. 5.2.8 Hier wurden vier verschiedene Personengruppen gefragt, um zu prüfen, ob es Unterschiede im Ranking der Kriterien gibt. Tatsächlich aber sind die Unterschiede nicht signifikant und die Ergebnisse sind erwartungstreu. Nachfolgend werden einige wenige dieser Kriterien etwas ausführlicher besprochen. Insbesondere wird dabei auf die Grenzen des Machbaren hingewiesen

5.2.1 Bedarf: Welche Prognose wird benötigt? Die Zielsetzung einer Prognose ist es, entweder eine Planung zu ermöglichen oder eine zukünftige Entwicklung frühzeitig zu erkennen, um sich darauf einstellen zu können. Je nach Einsatzzweck sind entweder konkrete Daten (Umsatz, Stückzahl, Auftragsvolumen, Kunden) zu prognostizieren, oder aber relative Entwicklungen (Marktanteil, Abdeckungsquoten, Wachstumsraten). Für beide Zwecke werden Prognosedaten

8 Nach

1982.

Carbone ist die Genauigkeit der Prognose das mit Abstand wichtigste Kriterium: Carbone,

114

5  Die Auswahl der richtigen Prognosetechnik

ermittelt und deren Eintrittswahrscheinlichkeit angegeben. Nur, wenn beides vorliegt, ist die Prognose vollständig. Selbst dann, wenn z. B. bei einem rollierenden Forecast die Auftragseingänge der kommenden Monate prognostiziert werden, muss immer auch angegeben werden, „wie sicher“ diese Schätzung ist und natürlich sinkt die Eintrittswahrscheinlichkeit, also die Sicherheit der Schätzung, je weiter sie in der Zukunft liegt. Diese zwei Grundmuster von Prognosen (absolute Daten/relative Entwicklung) führen zur gleichen Prognosewertstruktur (Wert und Eintrittswahrscheinlichkeit), aber mit unterschiedlichem Schwerpunkt in der Ermittlung der Werte. Also führt die Frage, für welchen Zweck eine Prognose erstellt wird, erst einmal zur Frage, welches Grundmuster benötigt wird. u

Tendenziell eignen sich quantitative Prognoseverfahren (mathematische Extrapolationen und faktorbasierte Algorithmen) eher für die Berechnung absoluter Prognosedaten, qualitative Prognoseverfahren eher für die Ermittlung relativer Entwicklungen.

Schnell lassen sich hierfür auch Gegenbeispiele finden, denn natürlich kann eine DelphiBefragung dafür genutzt werden, Auftragseingänge in Euro zu schätzen und eine exponentielle Glättung eignet sich dafür, die relative Entwicklung vorherzusehen. Aber im Grundsatz stimmt die eingerahmte Aussage und der Forecaster sollte vom Bedarf ausgehend seine Methode(n) wählen.

5.2.2 Genauigkeit: Wie präzise ist präzise genug? Vordergründig und wie im folgenden Abschn. 5.2.3 beschrieben werden wird, ist ein Forecast umso aufwendiger, je präziser er sein soll. Das ist ohne weitere Erläuterung einleuchtend. Hier an dieser Stelle soll aber noch ein anderer, uns bereits gut bekannter Aspekt betont werden: u

Ein präziser Forecast suggeriert Sicherheit und blendet hinsichtlich der Vertrauenswürdigkeit (Belastbarkeit) für eine Planung. Darum ist immer die Eintrittswahrscheinlichkeit des Prognosewertes bzw. Prognosewertkorridors anzugeben.

Zuweilen finden sich in Unternehmen Forecasts, die Nachkommazahlen ausweisen und somit äußerst präzise erscheinen, für die aber keine Eintrittswahrscheinlichkeiten angeben werden und so offenlassen, welches Vertrauen in diesen Wert gesetzt werden darf. Ein solcher Output aus dem Prognoseprozess führt zu einem Priming-Effekt (siehe Abschn. 4.4.1) und selbst dann, wenn sich die Adressaten darüber im Klaren sein sollten, dass der Wert nur ein berechneter ist, bleibt die kognitiv verzerrte Vorstellung einer präzisen Prognose haften. Statt einem „So könnte es werden“ setzt sich ein „genau so wird es“ in den Köpfen fest.

5.2  Die fünf wichtigsten Kriterien …

115

Auch verändert die Maskierung einer Prognose als „präzise“ Prognose die Erwartungshaltung. Sehr gut zu beobachten ist dies am Beispiel der Wettervorhersage: Bis vor wenigen Jahren wurde mittels einer Deutschlandkarte präsentiert, auf der für sehr grobe Regionen das wahrscheinliche Wetter des nächsten und vielleicht der ein oder zwei darauffolgenden Tage dargestellt wurde. Eine Wolke, aus der die Sonne blitzte, verhieß wechselhafte Bewölkung und wenn ein paar Tropfen eingezeichnet waren, hieß das, dass Regenschauer möglich waren. Die Temperatur wurde mittels Höchst- und Tiefstwerten angegeben, auch hier vielleicht nach groben Regionen differenziert. Das war´s. Diese Prognosen waren oft zu ungenau, um die eigene Gartenparty zu planen, aber es standen keine anderen Informationen zur Verfügung. Damit geben wir uns heute nicht mehr zufrieden: Wir erwarten auf unserem Smartphone oder Computermonitor eine Vorhersage für die Stadt, in der wir leben. Aber mit dieser regionalen Differenzierung geben wir uns auch noch nicht zufrieden. Wir erwarten zudem eine Vorhersage für bestimmte Tageszeiten, bestenfalls stündlich. Und das nicht nur für Morgen, nein, mindestens für die nächsten sieben Tage, besser noch für die nächsten zwei Wochen! So kann ich just in diesem Augenblick, und es ist jetzt gerade, wenn ich diese Zeilen schreibe, Montagmittag, nachschauen, wie das Wetter in Wiesbaden am kommenden Sonntag zwischen 11.00 und 14.00 Uhr sein wird: 18 Grad Celsius, gefühlte 19 Grad Celsius, 50 % Bedeckung, 113 min Sonnenscheindauer, 10 % Niederschlagswahrscheinlichkeit, 13 km/h Windgeschwindigkeit mit Böen bis 30 km/h aus Nordwest, 50 % relative Feuchte und ein Luftdruck von 1.013,7 Hektopascal. Diese Fülle an Daten suggeriert eine Präzision, die ein Wetterdienst gar nicht bieten kann, weil das Wetter nach wie vor Faktoren unterliegt, die für uns unberechenbar sind. Vermutlich wird das Wetter im Groben stimmen, aber es wäre naiv, wenn ich mich auf die exakten angegebenen Daten verlassen würde.9 Die Differenzierung in kleine Regionen und kurze Zeitintervalle erhöht zudem das Prognoserisiko. Z. B. würde eine Regenfront, die sich um drei oder vier Stunden verspätet, die Prognosen sehr vieler Regionen-Perioden-Cluster fehlerhaft werden lassen. Wäre die Prognose allgemeiner, also statt „Regen in Wiesbaden morgen zwischen 09.00 und 12.00 Uhr“ nun „möglicher Regen in Südwestdeutschland morgen Vormittag“, so wäre die Trefferwahrscheinlichkeit auch höher. u

Je präziser eine Prognose, desto höher ist die Fehlerwahrscheinlichkeit. „Treffsichere“ Prognosen kommen im Umkehrschluss möglicherweise nur dadurch zu Stande, dass sie unpräzise sind.

9 Nachtrag:

Es war an jenem Sonntag um 12.00 Uhr in Wiesbaden 21 Grad warm, die sich auch so anfühlten, regnete nicht, es war windiger (17 km/h anstatt 13 km/h), 62 % anstatt 50 % Bedeckung und die Sonne schien 107 min statt 113 min. Der Luftdruck betrug 1020 hPa und nicht 1013,7. Alles in Allem war die Prognose also recht zutreffend, obwohl kein einziger Wert stimmte. Es ist also auch hier eine Frage der Beurteilungstoleranz, die umso geringer ausgeprägt sein dürfte, je präziser der Forecast erscheint. Eine präzise Wettervorhersage legt die Messlatte hoch!

116

5  Die Auswahl der richtigen Prognosetechnik

Tab. 5.3  Angabe von Eintrittswahrscheinlichkeiten für Prognosewerte, hier Umsatzabschätzung Prognosewertkorridor: Umsatz nächstes Jahr

Modell

Eintrittswahr-scheinlichkeit (%)

100–110 T€

Realistische Schätzung

66

110–130 T€

Optimistisches Modell

14

80–100 T€

Pessimistisches Modell

12

60–80 T€

Modell „aggressiver Wettbewerb“

4

130–150 T€

Modell „ausscheidender Wettbewerb“

4

Das Fazit ist: Die Erwartungshaltung, die durch die Scheingenauigkeit der Vorhersagedienste geschürt wird, führt zu dem paradoxen Bild, dass Wetterprognosen heute unzuverlässiger seien als früher. Das ist falsch. Ein Blick in die Archive zeigt, dass die Qualität der Wettervorhersage in den letzten Jahren und Jahrzehnten kontinuierlich verbessert werden konnte.10 Was heißt das für Vertriebsprognosen? Vorsicht vor Scheingenauigkeiten, die Erwartungen schüren! Prognosen dürfen mit Rundungen arbeiten, sowohl bei den Prognosewerten als auch bei den Eintrittswahrscheinlichkeiten. Ideal ist es z. B., für einen Prognosewert einen Wertebereich anzugeben, den wir dann Prognosewertkorridor nennen. Dies könnte wie in Tab. 5.3 dargestellt aussehen. In grafischer Form lässt sich die Angabe von Eintrittswahrscheinlichkeiten noch präziser darstellen. Auch ist es möglich, anstatt der in Tab. 5.3 gezeigten fünf Korridore einen kontinuierlichen Verlauf der Wahrscheinlichkeiten darzustellen, was insbesondere dann nützlich ist, wenn der Verlauf der Wahrscheinlichkeitskurve nicht wie eine Normalverteilung aussieht, sondern z. B. bei negativer Entwicklung des Umsatzes anders verläuft als bei positiver. Abb. 5.1 zeigt dies mit anderen Daten als jenen aus Tab. 5.3 und es ist deutlich, dass die Verteilung der jeweiligen Eintrittswahrscheinlichkeiten ungleichmäßig verläuft. Hier wird ein Umsatz von ca. 113 Tsd. € als am wahrscheinlichsten angenommen, aber höhere Umsätze werden für wahrscheinlicher gehalten als niedrigere. Ein Umsatz von 20 Tsd. € mehr als der wahrscheinlichste, also 133 Tsd. €, wird mit einer Wahrscheinlichkeit von 25 % erwartet, einer mit 20 Tsd. € weniger, also 93 Tsd. €, nur mit 17 %. Ist eine solche Einschätzung präzise genug? Werden sich die jeweiligen betrieblichen Funktionalbereiche mit einer solchen Prognose als Planungsgrundlage zufriedengeben? Vermutlich nicht, denn noch fehlt ein wesentlicher Schritt: Die Übertragung einer

10 DWD, 2009. Eine Aktualisierung findet sich auf https://www.dwd.de/DE/wetter/schon_gewusst/ qualitaetvorhersage/qualitaetvorhersage_node.html.

5.2  Die fünf wichtigsten Kriterien …

117

70% 60% 50% 40% 30% 20% 10% 0% 60

70

80

90

100

110

120

130

140

150

Umsatz nächstes Jahr in tsd. €

Abb. 5.1   Eintrittswahrscheinlichkeiten des Folgejahrumsatzes mit ungleichmäßiger Verteilung

Prognose in die Planungsgrundlage. Die Aufgabe des Forecasters ist es, eine möglichst präzise Prognose zu erstellen. Dieser Anspruch darf aber nicht dazu führen, dass aus falsch verstandenem Pflichtbewusstsein eine nicht vorhandene Präzision suggeriert wird. Der Forecaster muss sich trauen, eine unsichere Zukunft als unsicher darzustellen. Sein Instrument hierfür ist die Größe „Eintrittswahrscheinlichkeit“. Ich wiederhole mich. u

Es ist das Wesen einer Prognose und ein wertvolles Ergebnis, wenn festgestellt wird, dass die Prognosewerte mit einer großen Unsicherheit, also einer geringen Eintrittswahrscheinlichkeit, belegt sind.

Jetzt kann das Management erkennen, wie unsicher und instabil die erwartete Zukunft ist, wie schwer sie vorauszusehen ist, wie dringend es erforderlich ist, den Vertrieb bzw. das Unternehmen auf mögliche Szenarien einzustellen. Es ist allein Aufgabe des Managements, eine Richtungsentscheidung zu treffen und auch auf Basis einer unklaren Prognose einen Wert als Planungsgrundlage zu verabschieden. In dem Beispiel, das Abb. 5.1 zeigt, wäre die Entscheidung z. B., dass sich Produktion, Beschaffung, Logistik usw. auf einen Umsatzplanwert von 115 Tsd. € und die sich daraus abzuleitenden Quantitäten einzustellen haben. Ein Forecaster kann dem Management niemals absolute Sicherheit verschaffen, wie die Zukunft verlaufen wird. Er kann lediglich eine wahrscheinliche Zukunft prognostizieren und dies drückt sich in eben diesen zwei Dimensionen aus: „Erwartungswert/Erwartungskorridor“ und „Eintrittswahrscheinlichkeit“.

118

5  Die Auswahl der richtigen Prognosetechnik

Hier an dieser Stelle ist explizit und wiederholt vor Prognose-Software zu warnen. Diese ist grundsätzlich nützlich11, bietet umfangreiche statistische Funktionen, erleichtert die Eingabe von Inputdaten, wirft schicke und präsentable Charts aus, sorgt für methodische Kontinuität oder ist zuweilen zur Nutzung von Daten aus ERPProgrammen unumgänglich, aber sie suggeriert eine Scheingenauigkeit, die blendet. Zudem zeigen viele handelsübliche Programme einen äußerst lässlichen Umgang mit der Eintrittswahrscheinlichkeit, die in diesem Kapitel als Schlüsselgröße zur Darstellung von unsicheren Zukunftserwartungen herausgearbeitet wurde. Insofern ist die Nutzung von Software ambivalent, einerseits nützlich, andererseits sind die Outputs interpretationsbedürftig. Ein guter Forecaster weiß, welche Software er benötigt, ein schlechter wird seine Arbeit durch noch so gute Software nicht verbessern. Aus diesem Grunde habe ich auf eine Zusammenstellung der handelsüblichen Prognose-Software in diesem Buch verzichtet.

5.2.3 Kosten: Welcher Aufwand ist gerechtfertigt? In Unternehmen stehen die Kosten der Planung immer wieder auf dem Prüfstand. Hierbei geht es nicht nur um monetäre Aufwendungen, z. B. für Planungstools oder Berater, sondern vor allem auch um den Personalaufwand. Auch im Vertrieb werden gerne die Spezialisten, also die Verkäufer, mit Zuarbeiten für Planungen belastet, sodass ihnen Zeit für ihre eigentliche Arbeit, das Verkaufen, verloren geht. Nur allzu bekannt sind dabei korrelative Automatismen wie die Zunahme des relativen Planungsaufwands mit der Größe des Unternehmens und der Anzahl an Controllern. In einigen Unternehmen erreichen Planungen eine geradezu absurde Granularität und der Aufwand, die x-te Nachkommastelle präzise zu erfassen, ist dann nicht mehr gerechtfertigt. Doch je präziser eine Planung ist, desto mehr Faktoren sie also umfasst und versucht zu berücksichtigen, desto mehr Schätzungen werden vorgenommen werden müssen, um den Input zu leisten. Im Zweifel werden sich die Schätzer am Vorperiodenwert orientieren, der vielleicht mit ein paar Prozent beaufschlagt wird. Die Folge ist, dass sehr präzise scheinende Planungen besonders stark zu einer Mittelwertschätzung tendieren, weil sie gar nicht präzise sind, sondern tendenziös. Aber das ist nur eine Seite der Medaille. Es ist zweifelsfrei erforderlich, dass eine Unternehmens- oder Konzernführung Plandaten aus den Funktionalbereichen benötigt, z. B., um Budgets festzulegen.12 Die Komplexität der betriebswirtschaftlichen ­Verflechtungen und

11 Vgl.

die ausführlichen Darstellungen in Tashman & Hoover, 2002. dies hier weiter zu thematisieren, sei an dieser Stelle der wundervolle Aufsatz von Jensen empfohlen, in dem er die Absurdität so mancher Budgetplanung beschreibt und einen Lösungsansatz vorschlägt: Jensen, 2001. 12 Ohne

5.2  Die fünf wichtigsten Kriterien …

119

Wechselbeziehungen ist ab einer bestimmten Unternehmensgröße unmöglich zu übersehen. Oft überrascht eine gründliche Analyse der Plandaten und zeigt durch eine algorithmische Verflechtung Sensitivitäten, auf die intuitiv auch der beste Manager nicht gekommen wäre. Planung ist also zweifellos notwendig. Die Tendenz zur „Überplanung“ ist hingegen ein leidiges Problem, das wohl alle wachsenden Unternehmen trifft, aber dies ist nicht der Ort, kluge Ratschläge zu geben, wie das abgestellt werden kann. Prognosen als Vorstufe der Planung sind zum Glück weniger anfällig für eine solche Tendenz. In der Regel ist der Aufwand für die Sammlung von Inputdaten überschaubar, sofern zeitgemäße Informationstechnologie zum Einsatz kommt. Bei der Durchführung der Methoden werden an späterer Stelle Verfahren beschrieben, die durchaus Zeitaufwand verursachen (Delphi usw.), aber hier ist eine bewusste Entscheidung erforderlich und damit ist auch eine Nutzenprüfung verbunden, also ist „Überprognose“ keine große Gefahr. Jetzt die Ausnahme: Der rollierende Forecast (siehe Kap. 9), bei dem Verkäufer eine Einschätzung der Abschlusswahrscheinlichkeit eines Angebots abgeben, verlangt einen recht hohen Pflegeaufwand. Jedes einzelne Angebot muss erfasst und jede Veränderung des Status eines Angebots muss nachgepflegt werden. Dies erfordert einen recht hohen Arbeitsaufwand für diejenigen, die exklusiv in der Position sind, den Angebotsstatus beurteilen zu können, also die Verkäufer selbst. Dieser Aufwand rechnet sich jedoch, wenn bestimmte Voraussetzungen gegeben sind, etwa dann, wenn der Forecast die Planungsgrundlage für die Produktion oder den Einkauf ist und wenn die Auslastung schwankt, also die Anpassung der Produktionsleistung an den Auftragseingang wirtschaftlich sinnvoll ist. Grundsätzlich gilt, dass eine Prognose umso mehr Aufwand erfordert, je genauer sie sein soll. Da hier in diesem Buch der kombinierte Forecast als Standard vorgeschlagen wird, also mindestens fünf verschiedene Prognosemethoden angewendet und die Ergebnisse miteinander kombiniert werden sollen, ist der Aufwand nicht unbeträchtlich. Kaum, dass z. B. bei einer jährlichen Prognose der Aufwand unter drei oder vier Mannwochen läge. Ob sich dieser Aufwand lohnt, entscheidet alleine das Management.

5.2.4 Inputdaten: Welche Daten stehen zur Verfügung? Stehen historische Daten zur Verfügung, sind diese auf zwei Arten zu nutzen: Zum einen werden sie mittels verschiedener statistischer Funktionen extrapoliert, um eine Prognose zu erhalten. So entstehen mindestens zwei (einfache Trendfortschreibung und exponentielle Glättung), vielleicht auch drei (Glättung mittels des gleitenden Durchschnitts) oder mehr Prognosen. Selbstverständlich werden diese Daten zuvor adjustiert, so, wie in Abschn. 3.5 beschrieben. Zum anderen können solche Daten zur Überprüfung von Forecast-Methoden dienen, in dem diese auf historische Daten angewendet und die Prognoseergebnisse mit den ebenfalls bekannten tatsächlichen Daten verglichen werden (siehe Abschn. 3.6).

120

5  Die Auswahl der richtigen Prognosetechnik

u

Sind historische Daten vorhanden, sind sie stets zu nutzen, um Prognosen zu erstellen, die in den kombinierten Forecasts eingehen.

Spiegeln diese Daten nicht ausreichend exakt die Zustände wider, die prognostiziert werden sollen, so sind diese Prognosen dennoch zu erstellen, wenn korrelierende bzw. analoge Entwicklungen mit den Prognosewerten zu erwarten sind. Sind z. B. die Auftragseingänge für Rohrverbindungen zu prognostizieren, aber es stehen nur historische Auftragseingangsdaten für Rohrmontagematerial zur Verfügung, so werden die üblichen Zeitreihenanalysen dennoch vorgenommen und die Trendverläufe für die Rohrverbindungen analog erwartet. Stehen keine historischen Daten zur Verfügung, was regelmäßig bei der Einführung gänzlich neuer Produkte oder bei Start-up-Unternehmen der Fall ist, so sind qualitative Prognoseverfahren zu nutzen. Diese sind expertenbasiert und unterliegen damit den in Abschn. 4.4 beschriebenen möglichen Wahrnehmungsverzerrungen. Nur allzu deutlich wird dies bei den üblichen Umsatzprognosen, die Gründerteams ihren Investoren vorlegen und deren grafischer Verlauf an einen „Hockey Stick“ erinnern (deshalb heißen diese Graphen auch so), also erst eine moderate Entwicklung zeigen und dann, vielleicht in drei oder vier Jahren, ein exorbitantes Wachstum. Hier ist oft der Wunsch Vater des Gedanken und die Prognose spiegelt Hoffnung wider, selten mehr. Dennoch gilt auch dann, wenn keine historischen Daten zur Verfügung stehen, die Grundregel, dass ein kombinierter Forecast zu erstellen ist. Es reicht also nicht aus, z. B. im Rahmen einer Delphi-Befragung einen expertenbasierten Forecast zu erstellen, sondern es ist Aufgabe des Forecasters, weitere Methoden anzuwenden, z. B. die Analogiemethode oder Marktanteilsabschätzungen. Unklar ist die Entscheidung, welche Methoden anzuwenden sind, wenn die historische Datenlage lückenhaft ist oder die Daten nur näherungsweise mit dem eigenen Prognoseproblem zu tun haben. Können Prognosen für Rohrmuffen auf Basis von historischen Marktdaten über den Haus- und Wohnungsbau erstellt werden? Zwar wäre eine Analogie in der Marktentwicklung zu erwarten, aber Aspekte wie die Renovierung von Rohrleitungen oder die Nachfrage des Industriesektors blieben unberücksichtigt. Dennoch: Die Abhängigkeit des Marktes für Rohrverbindungen von Aufträgen, die durch den Haus- und Wohnungsbau entstehen, dürfte statistisch signifikant sein und darum sollte ein Forecaster diese Daten berücksichtigen und quantitative Forecasts erstellen, in dem er die ursprünglichen Daten – hier jene des Haus- und Wohnungsbaus – mittels verschiedener Methoden extrapoliert und diese relative Entwicklung des Trends auf seine Prognosewerte – hier Rohrverbindungen – überträgt.

5.2.5 Expertise: Was kann der Forecaster? Was kann das Team? Ein ganz wesentlicher Aspekt für die Auswahl einer Forecast-Methode ist das Knowhow des Prognoseerstellers. Ein Nichtschwimmer taugt nicht viel zum Bademeister,

5.3  Die typischen Anwendungen bekannter Prognosemethoden

121

so motiviert er auch ist. Und eine Methode kann nur dann sinnvoll sein, wenn sie auch richtig angewendet und das jeweilige Ergebnis richtig interpretiert wird. Was wie eine Selbstverständlichkeit klingt, ist oft alltägliche wie gefährliche Praxis, sie sich in zwei Aspekten äußert: • Nützliche und sinnvolle Methoden bleiben ungenutzt, weil der Prognostiker sie nicht beherrscht. • Methoden werden trotz unvollkommener Kenntnisse angewendet und führen zu fehlerhaften Prognosen. Beide Aspekte gäbe es nicht, wenn der Forecaster über ausreichend Expertise verfügte. Doch die Lösung dieses Problems ist einfach: Der Prognoseersteller muss sich das ihm fehlende Wissen aneignen. Dies gilt gleichermaßen, wenn im Rahmen des Prognoseprozesses ein Team an der Erstellung des Forecasts beteiligt ist. Sowohl die Methoden als auch der Prozess müssen den Teammitgliedern bekannt sein, wobei hinsichtlich der Methode sicherlich ausreicht, wenn mindestens ein Mitglied statistische bzw. mathematische Methodenkenntnisse besitzt und dieses zugleich in der Lage ist, Ergebnisse hinsichtlich Belastbarkeit und Interpretationsgrenzen anderen Teammitgliedern zu erläutern. u

Dies ist umso wichtiger, als es sich zeigt, dass die Qualität einer Prognose umso größer ist, je mehr Personen unterschiedlicher Organisationseinheiten in den Erstellungsprozess involviert sind.13

Grund hierfür dürfte die breitere Akzeptanz der Ergebnisse sein, aber der Nachteil ist, dass das durchschnittliche methodische Know-how der Gruppe bei einer Ausweitung des Projektteams abnehmen wird. Darum empfiehlt es sich, wenn der Prozessverantwortliche es vermag und das Team es zulässt, eine Basisschulung, in der beispielsweise Grundlagen der Forecast-Erstellung erläutert werden.

5.3 Die typischen Anwendungen bekannter Prognosemethoden In diesem Kapitel werden unterschiedliche Kataloge von Forecast-Methoden vorgestellt und die jeweiligen Merkmale sowie die Vor- und Nachteile aufgezeigt. Es dürfte bis zu dieser Stelle bereits klar sein, dass eine einfache Beziehung im Sinne einer Regel „Wenn diese Konstellation gegeben ist, ist jene Methode anzuwenden!“ nicht existiert. Sie ist auch nicht sinnvoll, denn wenn ein kombinierter Forecast erstellt wird, werden

13 Dalrymple,

1975.

122

5  Die Auswahl der richtigen Prognosetechnik

Tab. 5.4  Nutzung von Forecast-Methoden nach Dalrymple (Dalrymple, 1987) Forecast-Methode

Variante

Anteil nutzender Unternehmen (%)

Expertenmeinung

Verkaufsinstanzen, z. B. mittels rollierendem Forecast

44,8

Führungskräfte, z. B. mittels Delphi-Methode

37,3

Marktstudien, Branchenanalysen

14,9

Ökonometrische Methoden

Multiple Regressionen

12,7

Andere Ökonometrische Methoden

11,9

Extrapolationen

Naiver Forecast

30,6

Gleitender Durchschnitt

20,9

Analogiemethode

18,7

Fortschreibung der prozentualen 19,4 Änderung Fortschreiben der Stückzahlenänderung

15,7

Exponentielle Glättung

11,2

Regressionen

6,0

Box-Jenkins

3,7

immer mehrere Methoden, die mal besser, mal schlechter das Prognoseproblem lösen, angewendet. Aktuelle Untersuchungsergebnisse, welche Methoden unter welchen Umständen nützlich sind, liegen leider keine vor. Aber die Ergebnisse von älteren Befragungen dürften nach wie vor repräsentativ sein, denn selbst die Durchdringung aller Geschäftsbereiche mit Informationstechnologie und einfach zu bedienenden Tabellenkalkulationsund Statistikprogrammen (vor allem natürlich MS Excel) wird die Befunde nicht wesentlich verändert haben. So befragte Dalrymple Mitte der 80er-Jahre Großunternehmen nach deren Nutzung von Methoden. Das Ergebnis zeigt Tab. 5.4. Nicht überraschend ist die Bedeutung des rollierenden Forecasts (44,8 %), aber interessant erscheinen zwei andere Ergebnisse: Erstens erstaunt die große Verbreitung des naiven Forecasts (30,6 %), dessen Bedeutung als Messlatte für andere Methoden eine erhebliche Rolle spielt. Wenn die Umwelt stabil ist und die Nachfrage einen „unspektakulären“, kontinuierlichen oder vielleicht sogar stagnierenden Trend aufweist, ist der naive Forecast gut genug. Veränderungen von Periode zu Periode werden zeitverzögert abgebildet, aber die Mechanik der Methode, die in Kap. 7 erläutert wird, zwingt zu einer „ruhigen Hand“. Zweitens erstaunt, wie wenig Zeitreihenanalysen und Extrapolationsmodelle (hier als ökonometrische Methoden bezeichnet, 11,9 %) genutzt

5.3  Die typischen Anwendungen bekannter Prognosemethoden

123

Qualitave Verfahren Naive

Extrapolaonen

Quantave Verfahren

Abb. 5.2   Nutzung von Forecast-Verfahren in US-amerikanischen Unternehmen nach Cron & Decarlo, 2010, S. 63

werden. Sie sind aber, um einen kombinierten Forecast zu erstellen, zwingend anzuwenden, sofern • historische Daten vorliegen und davon ausgegangen werden kann, dass die • Zukunft ausreichend stabil ist. Eine andere Befragung ist die von Cron und Decarlo aus dem Jahr 1999, in der 134 USamerikanische Unternehmen befragt wurden (Abb. 5.2). Auch hier stehen Schätzungen von Experten, etwa der Verkäufer, im Vordergrund, der naive Forecast wird häufig und statistisch aufwendigere Methoden werden seltener genutzt. Warum Unternehmen sie nicht nutzen und damit auf deren Potenzial für eine bessere Prognose verzichten, bleibt unklar, könnte aber – und das ist meine Hypothese – am mangelnden Know-how der Forecaster liegen (siehe Abschn. 5.2.5). Nach dieser statistischen Betrachtung, die der Vollständigkeit halber hier nicht fehlen durfte, die aber – so ist zu befürchten – so Manchem als Ausrede dienen könnte, auf komplexere Verfahren zu verzichten, ist nun die sich anschließende Frage, ob es Indikationen für die Anwendung der einen oder anderen Methode gibt. Überblick: Prognoseverfahren Als erstes soll ein Gesamtüberblick über Prognoseverfahren gegeben werden. Bewusst werden hier Klassifizierungen und Auflistungen unterschiedlicher Autoren zitiert, denn für jede Sortierung werden Kriterien benötigt und es ist hilfreich, sich mit diesen Kriterien auseinanderzusetzen. Das Problem bei einer solchen Zusammenstellung ist, dass jeder Autor Verfahren anders bezeichnet. Das verwirrt, lässt sich aber nicht ändern.

124

5  Die Auswahl der richtigen Prognosetechnik

Der bereits im Zusammenhang mit seinen Methoden-Wettbewerben genannte Forscher Makridakis unterteilt Prognose-Methoden grundsätzlich in quantitative und qualitative Verfahren. Tab. 5.5 zeigt seine Klassifizierung.14 Den jeweiligen Verfahren weist er eine Nützlichkeit für bestimmte Prognosezeiträume zu. Eine vereinfachende Klassifikation, die sich an die übliche Unterteilung in quantitative und qualitative Methoden hält, liefert auch Abb. 5.3. Eine Bewertung anhand des Maßstabes „Prognosezeitraum“ findet hier nicht statt, aber in den Kapiteln, in denen die jeweilige Methode erläutert wird, finden sich diesbezüglich Hinweise. Noch einmal: Nicht irritieren sollte an dieser Stelle, dass die Bezeichnung der Methoden je nach Autor, und so auch in diesem Buch, unterschiedlich ist. Grundsätzlich ist die Menge sinnvoller Prognosetechniken begrenzt und sie werden an dieser Stelle umfänglich und vollständig beschrieben, aber die Begrifflichkeiten variieren. Entsprechend sollte im Prognoseteam – sofern es eines gibt – abgeklärt werden, welche Methoden sich hinter welchen Bezeichnungen verbergen. Vor- und Nachteile von Prognoseverfahren Nach dem Überblick soll als Zweites die Nützlichkeit der Prognoseverfahren betrachtet werden. Hierzu dient der Blick auf die Vor- und Nachteile, die bestimmte Methodenarten auszeichnen (Tab. 5.6 und 5.7).15 Die Auflistung der Verfahren ist in diesen Tabellen nicht vollständig. Das muss sie auch nicht, denn der Blick auf die hier ausgewählten Beispiele reicht völlig, um zu verstehen, auf welche Vor- und Nachteile bei bestimmten Methoden zu achten ist. Auswahl von Prognoseverfahren Als Drittes, nachdem ein genereller Überblick über die Prognoseverfahren gegeben wurde und deren Vor- und Nachteile dargestellt wurden, sollen nun „Indikationen“ genannt, also grundsätzliche Hinweise gegeben werden, wann welche Methode sinnvoll angewendet werden sollte. Dabei sei noch einmal auf die Einleitung zu diesem Kapitel verwiesen, in der erläutert wird, dass eindeutige Wenn-Dann-Regeln nicht sinnvoll und nicht möglich sind. Am nächsten kommt diesen ein Entscheidungsbaum, wie er in Abb. 5.4 dargestellt ist.16 Ein wichtiges Kriterium, das für den Entscheidungsbaum in Abb. 5.4 relevant ist, ist die Verfügbarkeit historischer Daten, auf deren Basis ein Trend abgeleitet und fortgeschrieben werden kann. Diese sind aber nur brauchbar, wenn zugleich erwartet

14 Eine ähnliche Klassifizierungsstruktur nutzen Ord und Fildes. Auf die Wiedergabe deren Ergebnisse wird hier verzichtet. Siehe Ord & Fildes, 2013, S. 456. 15 Zusammenstellung aus Ord & Fildes, 2013, S. 458–460 und Boden, 1995, S. 91. 16  Vergleiche hierzu auch andere Darstellungsvarianten, z. B. Ord & Fildes, 2013, S. 461 und Hansmann, 1983, S. 143.

Zeitreihenverfahren

Einfache Regeln wie z. B.: Vorhersagewert = jüngster beobachteter Wert, ggf. mit Faktor beaufschlagt Linear, exponentiell, S-Kurven-förmig, aber andere Verlaufsformen Vorhersagen aufgrund von Glättung und Extrapolation bisheriger Zahlenwerte Zerlegung einer Zeitreihe in ihre Bestandteile Trend, Zyklus, Konjunktur, Zufall Lineare Kombination tatsächlich beobachteter Werte; Parameter oder das Modell können sich an Veränderungen in den Daten selbst anpassen Vorhersagen aufgrund der linearen Kombination tatsächlich beobachteter Werte bzw. tatsächlicher Abweichungen

Trendextrapolationen

Exponentielle Glättung

Dekomposition von Zeitreihen

Filtern

Autoregressive Verfahren (Box-Jenkins usw.)

Simultane Systeme von Gleichungen aus dem Bereich der multiplen Regressionen

Ökonometrische Modelle

Naive Verfahren

Ad-hoc-, urteilende oder intuitive Methoden Variation der abhängigen Variablen durch Variationen der unabhängigen Variablen

Einfache und multiple Regression

Kausal-verfahr.

Informelle Vorhersageverfahren

Quantitative Verfahren

Kurzbeschreibung

Verfahren

Tab. 5.5  Klassifikation von Prognoseverfahren nach Makridakis (Makridakis, et al., 1980, S. 43)

+

+

+

A

+

+

+

+

+

0

0

+

B

+

0

D

(Fortsetzung)

0

0

+

+

+

C

Vorhersagezeitraum

5.3  Die typischen Anwendungen bekannter Prognosemethoden 125

Technologische Verfahren

Subjektive Verfahren

Vorausuntersuchungen der Intentionen möglicher Kunden oder der Pläne möglicher Wettbewerber Verwendung des heute gesicherten Wissens zur Voraussage zukünftiger Bedingungen Festlegung von Zielen und rückschreitendes Ableiten von Teilzielen

Explorationen

Normative Verfahren

+

+

Beurteilung durch Manager Vorhersagen als Ergebnis einer Abstimmung zwischen Bereichsverantwortlichen

Vorausgreifende Untersuchungen

+

Aggregierende Vorgehensweise durch Subsummierung der Einschätzungen der Verkäufer

Vorhersagen von Vertriebsfachleuten

+

Jedem einbezogenen Ereignis werden Eintrittswahrscheinlichkeiten zugeordnet

Entscheidungsbaumverfahren

Vorhersagezeitraum: A=bis zu 1 Monat, B=1-3 Monate, C=3 Monate bis 2 Jahre, D=über 2 Jahre

Qualitative Verfahren

Tab. 5.5   (Fortsetzung)

+

+

126 5  Die Auswahl der richtigen Prognosetechnik

5.3  Die typischen Anwendungen bekannter Prognosemethoden

127

Forecast-Methoden Top-down-Modelle

Marktanteil

Zielgruppenanteil

Boom-up-Modelle

Penetraonsraten

Qualitave Methoden

Quantave Methoden

Produkt

Expertengruppe

Mathem. Funkonen

Preis

DelphiBefragung

Regressionsverfahren

Szenariotechnik

Analogien

Kundenbefragung

Schätzung der Verkaufsinstanz

Esmaon Groups

Naiver Forecast

Abb. 5.3   Klassifikation von Prognoseverfahren Tab. 5.6  Vor- und Nachteile quantitativer Forecast-Methoden Quantitative ForecastMethode

Vorteile

Nachteile

Zeitreihenanalyse bzw. Extrapolationen

Analyse von Trends, saisonalen Effekten und Zyklen möglich, bei stabiler Umwelt recht treffsicher, hohe Plausibilität, Deckung mit intuitivem Empfinden einer sich fortschreibenden Zukunft

Bei Störungen der zukünftigen Umwelt unbrauchbar, Art der Extrapolation hat hohen Einfluss auf die Prognose, Know-how erforderlich, Inputdaten ggf. zu adjustieren, Eintrittswahrscheinlichkeiten der Prognosewerte bleiben unberücksichtigt

Extrapolation durch exponentielle Glättung

Trotz methodischer Komplexität einfach in Excel-Formeln abzubilden, darum kostengünstig, wirksame mathematische Dämpfung von ungewöhnlichen Schwankungen, gute Ergebnisse im Makridakis-Wettbewerb, glaubwürdig

Adjustierung von Inputdaten erforderlich, sofern starke Ergebnisbeeinflussung, Ergebnisse nicht intuitiv, darum werden Fehler in der Berechnung nicht bemerkt, Eintrittswahrscheinlichkeiten der Prognosewerte bleiben unberücksichtigt

Komplexe mathematische Verfahren, z. B. BoxJenkins-Modelle, ARIMA

Breite und situationsabhängige Parametrisierung möglich, Erkennen ungewöhnlicher Muster im Trendverlauf

Komplex und schwierig zu verstehen, sowohl methodisch als auch im Ergebnis, welches darum oft nicht geglaubt wird (Vertrauen)

128

5  Die Auswahl der richtigen Prognosetechnik

Tab. 5.7  Vor- und Nachteile qualitativer Forecast-Methoden Qualitative Forecast-Methode

Vorteile

Nachteile

Expertenschätzung: Manager (z. B. intuitiver Forecast)

Grundsätzlich kann alles Zukünftige prognostiziert werden, kostengünstig, flexibel, schnell, hohe Akzeptanz

Genauigkeit unklar, Gefahr von Verzerrungen, Knowhow verbleibt bei Personen („Geheimwissen“)

Expertenschätzung: Verkäufer (z. B. rollierender Forecast)

Informationen vom Entstehungsort (Kundenkontaktschnittstelle), schnelle Korrekturen und Anpassung des Forecasts, hohe Bekanntheit

Schätzungen interessengetrieben, Motivation zu exakter Prognose gering, Aufwand wird tendenziell minimiert

Forecast Estimation Group

Unterschiedliche Sichten auf das Prognoseproblem werden berücksichtigt, gegenseitiger Ausgleich von Meinungen, interpersonelle Kontrolle

Gefahr der Dominanz des Wortführers, hierarchische Dominanz, organisatorisch aufwendig, Auswahl der Teilnehmer schwierig

Delphi-Befragung

Experten gleichen ihre Meinungen an, keine Gefahr der Blamage für den Einzelnen, günstig und einfach zu organisieren, leichte Ermittlung der Eintrittswahrscheinlichkeit von Prognosen

Resultierende Prognose ist ein Meinungsdurchschnitt, also Tendenz zum Mittelwert

Zielgruppenanalyse, Kaufabsichtsanalyse

Effektiv für kurzfristige Prognose, etwa bei neuen Produkten und für KohortenPrognosen

Teuer, aufwendig, Ergebnis abhängig von Fragestellung, also Marktforschungs-Knowhow erforderlich

Marktanalysen

Glaubwürdig, Ergebnisse lassen sich auf deskriptive Management-Tools wie Lebenszyklusmodell oder Portfoliomodell übertragen, leicht zu verstehen, geeignet für Langfristprognosen

Stark vereinfachend, wesentliche Faktoren wie Wettbewerb und Konsumtrends bleiben diffus, sehr ungenau und für Planungen im Unternehmen zu vage

Analogiemethoden

Sehr einsichtig, hohe Glaubwürdigkeit, schnell zu verstehen, in bestimmten Situationen (z. B. neue Produkte) verlässlichste Methode

Gefahr der oberflächlichen Betrachtung der Vergleichbarkeit, einfach für Interessen zu missbrauchen, Analyse der Marktkorrelationen wird oft übersprungen, Vergleiche mit Leuchttürmen verlockend

5.3  Die typischen Anwendungen bekannter Prognosemethoden

129

Detailgrad der Prognose

Kohorte bzw. Makro

Mikro Frisgkeit der Prognose

> 1 Jahr

Historische Daten verfügbar?

ja

nein

Wird eine stabile Zukun erwartet?

nein

Frisgkeit der Prognose

Frisgkeit der Prognose

lang

Qualitave Verfahren, z.B. Delphi

kurz

Intuive Expertenmeinung

Kundenbefragung, Individualanalyse

ja

lang

0

Steigung < 0

Abb. 8.1   Beschreibende Elemente des Verlaufs einer Zeitreihe

155

8.1  Was ist bei Zeitreihenanalysen zu beachten?

Steigender Verlauf, Wachstum

Fallender Verlauf, Rückgang

Exponentielles Wachstum

Stagnierender Verlauf

Exponentieller Rückgang

Abb. 8.2   Arten von Trends von Zeitreihen

Betrachten wir den Verlauf von Zeitreihen, so sind auch hier bestimmte Begrifflichkeiten üblich. Zuvörderst ist der Begriff des „Trends“ zu nennen.5 Abb. 8.2 zeigt verschiedene Arten von Trendverläufen und ihnen allen ist gemein, dass sie eine offensichtliche Regelmäßigkeit der Werte zeigen. Bei einer stabilen Umwelt sind die Prognosewerte dadurch ermittelbar, dass die mathematische Funktion des bekannten Trends fortgeschrieben und auf den nächsten Wert oder die nächsten Werte angewendet (extrapoliert) wird. Eine solche Regelmäßigkeit gibt es auch bei einem saisonalen Verlauf, wie Abb. 8.3 erkennen lässt. Der einzige Unterschied ist der, dass die Bestimmung der mathematischen Funktion komplizierter ist, insbesondere der steigende Trend beim saisonalen Verlauf, der in der unteren Hälfte der Abbildung abgebildet ist. Die Extrapolation ist dementsprechend aufwendiger und wird erst in Abschn. 8.3 erläutert. Einleitend zu diesem Kapitel 8 wurde festgestellt, dass die Idee einer Trendfortschreibung sei, dass sich ein Trend in der Zukunft fortsetzt. Aber natürlich kann kein Trend der Welt bis ins Unendliche fortbestehen.6 Die Frage ist aber: Wann wird er unterbrochen? Dieser Zeitpunkt wird als „Trendende“ bezeichnet. Die bisherigen Abbildungen zeigen kein solches Trendende. Aber ist die Zeitreihe, die zuvor stabil und regelmäßig verlief, plötzlich unstet und unregelmäßig, wie es Abb. 8.4 darstellt, ist von einem unterbrochenen Verlauf zu sprechen. Eine mathematische Extrapolation ist hier nicht mehr möglich, zukünftige Werte erscheinen „zufällig“. Das Trendende wird von dem letzten auf dem regelmäßigen, berechenbaren Trend liegenden Wert markiert. 5 Ausführlicher 6 Siehe

beschrieben in Makridakis, et al., 1980, S. 234 ff., Ord & Fildes, 2013, S. 100 ff. hierzu die launigen Ausführungen von Silver, 2012, S. 212 ff.

156

8  Prognosen für Statistiker …

Regelmäßiger saisonaler Verlauf

Steigender saisonaler Verlauf

Abb. 8.3   Arten saisonaler Verläufe von Zeitreihen

Abb. 8.4   Unterbrochener Verlauf (Trend) einer Zeitreihe

8.1  Was ist bei Zeitreihenanalysen zu beachten?

157

Abb. 8.5   Zufälliger Verlauf (Trend) einer Zeitreihe

Eine solche Zufälligkeit zeigt auch Abb. 8.5. Es wird vermutlich nicht möglich sein, Algorithmen zu finden, mit dem sich der nächste Wert berechnen lässt. Wir erkennen bei der bloßen Betrachtung kein Muster, keine Regelmäßigkeit, das bzw. die sich fassen ließe. Es ist zwar möglich, analytische Verfahren anzuwenden, um hinter diesem uns zufällig erscheinenden Bild von Werten vielleicht doch noch eine mathematische Funktion zu entdecken, doch wird dies ohne fundierte Kenntnisse nicht möglich sein. Über diese grundsätzlichen Zeitreihentypen hinaus werden in der Literatur noch die Trendverläufe „Zyklus“ und „Konjunktur“ für langfristige, regelmäßige Schwankungen genannt. Diese spielen jedoch für Vertriebsprognosen so gut wie keine Rolle und werden darum hier auch nicht weiter beschrieben. Ord und Fildes kennen zudem noch die „Serie“ und bezeichnen damit Abfolgen wiederkehrender Schwankungen im Zeitverlauf, doch gerät die Unterscheidung zwischen „Serie“ und „Saison“ nur allzu leicht willkürlich. Darum wird an dieser Stelle auf diese Bezeichnung verzichtet. Adjustierung historischer Daten Ein wesentlicher Aspekt der Zeitreihenanalyse ist die Bereinigung historischer Daten, die in den Algorithmus einfließen. Die nachfolgenden Ausführungen ergänzen das Abschn. 3.5. Für die Adjustierung historischer Daten gibt es eine Faustregel: 

Ersetze einen ungewöhnlichen, einmalig auftretenden und den Verlauf beeinflussenden Wert durch einen, der wahrscheinlich bei regelmäßigem Verlauf aufgetreten wäre.

158

8  Prognosen für Statistiker …

Tab. 8.1  Gründe für bzw. Typen von Ausreißer(n) Grund des Ausreißers

Beispiele

Unternehmen

Weitreichende Maßnahmen im Marketing-Mix7, insb. produkt- und preispolitische Maßnahmen, komplexe Produktionsumstellung, Betriebsausfall, Engpass bei Belieferung mit Roh-, Hilfs- und Betriebsstoffen

Unternehmensstruktur

Streiks, Mergers, Akquisitionen

Markt und Nachfrage

Produkteinführung bzw. -elimination, Insolvenz eines wichtigen Kunden, ein Kundensegment wird nicht mehr bearbeitet

Wettbewerb

Neuer Wettbewerber, Einführung eines substitutiven Produktes, Zusammenschluss von Wettbewerbern

Volkswirtschaft und Konjunktur

Finanzkrise 2008 ff. und andere „Schwarze Schwäne“, landesweite Wirtschaftskrise, deflationsbedingte Nachfragehemmung

Regulierung

Regulierte Marktöffnung (z. B. Telekommunikation, Strom, Wasser), Verordnungen zu Inhaltsstoffen, Verpackungen, Produktionsverfahren, Entsorgung usw

Naturkatastrophe

Hochwasser, Tsunami, Erdbeben

Politische Krise

Militärische Krise, Aufstände, politischer Druck auf Nachfrager

Zunächst einmal sind solche „Ausreißer“ zu identifizieren. Die Kriterien wurden in dem eingerahmten Satz bereits benannt: • ungewöhnlich • einmalig auftretend • störend Ist die Ursache für einen Ausreißer nicht bekannt, ist die Situation komplex. Dann ist zunächst zu entscheiden, und oftmals ist es eben eine Entscheidung, ob von einem einmaligen Ereignis ausgegangen werden soll. Alternativ dazu könnte auch angenommen werden, dass der Ausreißer Teil eines regelmäßigen Verlaufs ist, aber das Muster nicht erkannt wird. Hier aber stockt das Verfahren, denn ist das Muster identifiziert, ist es leicht, den Ausreißer auch für die Zukunft vorherzusagen, ist das Muster nicht identifiziert, muss von einem zu eliminierenden Ausreißer ausgegangen werden. Ist die Ursache des Ausreißers bekannt und ist aus dieser Kenntnis heraus auszuschließen, dass sich diese Ursache in der betrachteten Zukunft wiederholt, so ist die Situation für den Forecaster einfach. Er ersetzt den Ausreißer entsprechend der oben eingerahmten Faustregel durch einen die Regelmäßigkeit der Zeitreihe wahrenden Wert. Je nach Ursache sind die in Tab. 8.1 benannten Ausreißertypen zu unterscheiden. 7 Zur

Bedeutung der Nachhaltigkeit von Marketing-Maßnahmen auf den Verkaufserfolgs siehe Dekimpe & Hanssens, 1995.

8.1  Was ist bei Zeitreihenanalysen zu beachten?

Anstieg wg. Kauf eines Wettbewerbers

Rückgang wg. Finanzkrise

y0

y+1

159

y+2

y+3

y+4

y+5

y+6

Abb. 8.6   Umsatzverlauf mit Ausreißern

Bedeutsam ist die Unterscheidung von Ausreißern für die Frage, ob und in welchem Maße eine Adjustierung stattfinden sollte. Grundsätzlich gilt, dass ein selten auftretendes Ereignis immer eliminiert werden sollte. Das ist aber nicht so einfach, denn nur in wenigen Fällen werden sich die realisierten Werte, z. B. der Umsatz, flugs auf das Niveau vor diesem Ereignis einpendeln. Oftmals ist zu beobachten, dass zwar der Trend wiederhergestellt ist, aber ein Sprung im Level stattgefunden hat. Dann hilft nur, von den jüngeren Daten ausgehend den Level-Sprung zu akzeptieren und die Daten vor dem Sprung zu adjustieren. Sind z. B. die Umsätze nach einem Ereignis 20 % niedriger als zuvor, aber der Trend ist der gleiche, so werden die Umsätze vor dem Ereignis auch um 20 % reduziert und mit diesen dann eine Trendextrapolation berechnet. Häufiger auftretende Ereignisse, und zu diesen sind sicherlich unternehmens-, marktund nachfragebedingte Ausreißer zu zählen, werden auch in Zukunft auftreten, auch, wenn der Forecaster zum Prognosezeitpunkt sie nicht kennt. Er wird sie aber berücksichtigen, indem er die Eintrittswahrscheinlichkeit seiner Prognose verringert und mithilfe qualitativer, expertengestützter Verfahren versucht, solche Ereignisse rechtzeitig zu erkennen. Adjustierung historischer Daten – ein Beispiel In Abb. 8.6 ist exemplarisch ein historischer Umsatzverlauf dargestellt.8 Bei diesem fallen zwei wesentliche Änderungen in der Regelmäßigkeit auf, zum einen die Trendwende von 2009 zu 2010 sowie der Sprung im Level von 2010 zu 2011.

8 Das

Beispiel ist entnommen aus Kühnapfel, 2013a, S. 114 ff.

160

8  Prognosen für Statistiker …

Zu vermuten wäre nun, dass in 2009 oder spätestens in 2010 eine Maßnahme festzustellen sein müsste, die zu der erfreulichen Trendwende und dann sogar zu einem Umsatzsprung geführt hat. Doch tatsächlich lässt sich, in diesem Beispiel, kein singuläres Ereignis identifizieren, sondern gleich zwei Ursachen verursachen den unregelmäßigen Verlauf: 1. Die Finanzkrise hat in den Jahren 2008 und 2009 zu einem Umsatzrückgang im Vergleich zum jeweiligen Vorjahr geführt. Hier wäre leichter gewesen, dies zu erkennen, wenn auch Umsatzdaten vor dem Jahr 2007 vorgelegen hätten, denn es ist zu vermuten, dass die Umsätze z. B. für die Jahre 2000–2007 einen steigenden oder doch zumindest stagnierenden Verlauf (vgl. zu den Begrifflichkeiten Abb. 8.2) aufgewiesen haben. Es ist aber auch möglich, dass der Trend von 2000 ausgehend konstant rückläufig war, sodass die Finanzkrise gar keine trendverändernde Ursache war. Also wäre dem Forecaster in diesem Falle zu raten, sich auch die weiter zurück reichenden Daten zu beschaffen, anstatt von einem zu glättenden Ausreißer auszugehen. Doch natürlich stellt sich die Frage, inwieweit diese historischen Daten überhaupt eine Reihe spielen, und dies wäre mithilfe des anzuwendenden Prognosealgorithmus zu überprüfen.9 Gehen wir für die weitere Erläuterung dieses Beispiels davon aus, dass die Umsätze der Jahre 2008 und 2009 von der Finanzkrise beeinflusst waren. Damit wäre auch die erfreuliche Wende im Umsatzverlauf von 2009 auf 2010 erklärt: Nach der Finanzkrise beginnen sich die Umsätze zu erholen und es wäre – sofern sich keine anderen Effekte zeigten – zum damaligen Zeitpunkt zu prognostizieren, dass sie sich dem Vorkrisenlevel annähern und mit einer gewissen Wahrscheinlichkeit den Vorkrisentrendverlauf fortschreiben würden. 2. Der Sprung von 2010 auf 2011 könnte nun Teil dieser Argumentation sein: „Krisenende und Erholung der Nachfrage, und zwar in „großen Sprüngen“ und nachdem das Vorkrisenniveau erreicht wurde, hier in 2011, Fortschreibung des Vorkrisentrends der Jahre bis 2007“. Tatsächlich aber ist dem Forecaster – in diesem Beispiel – ein anderer Fakt bekannt: Das eigene Unternehmen kaufte einen Wettbewerber und dessen Umsätze wurden 2011 erstmals konsolidiert. Wie werden diese Effekte nun adjustiert? Sowohl die Finanzkrise als auch der Kauf des Wettbewerbers sind einmalig; für quantitative Prognosen gewünscht ist, einen historischen Umsatzverlauf zu zeigen, so, wie er ohne diese Effekte stattgefunden hätte. Dies wäre aber unpraktisch, denn im Gegensatz zum ersten ist das zweite Ereignis derart, dass der Level des Umsatzes nachhaltig verändert wird. Eine Extrapolation der Zeitreihe muss also bei dem Gesamtumsatz, der auch den Wettbewerberumsatz ­enthält,

9 Um

es vorweg zu nehmen: Werden die jüngsten Daten nicht überproportional gewichtet, so beeinflusst es tatsächlich die Prognose, ob die Jahre 2007 und 2008 adjustiert werden oder nicht.

161

8.1  Was ist bei Zeitreihenanalysen zu beachten?

Adjustierung wg. Akquisition

Adjustierung wg. Finanzkrise

y0

y+1

y+2

y+3

y+4

y+5

y+6

Abb. 8.7   Adjustierung von Ausreißern

ansetzen und darf den letztgenannten nicht etwa herausrechnen. Das bedeutet, dass der durch die Akquisition bedingte Umsatzzuwachs auch in die Vergangenheit zurück projiziert wird. Und dies wiederum bedeutet, dass sich auch die Effekte der Finanzkrise auf den dann adjustierten historischen, aber fiktiven Umsatz ausgewirkt haben sollten. Das Vorgehen im Einzelnen: Ist der Verlauf des Umsatzes des Wettbewerbers für die nicht-konsolidierten Jahre (2007 bis 2010) bekannt, so sind diese den jeweiligen Jahren hinzu zu addieren. Eine Korrektur der Werte wegen der Finanzkrise ist nicht erforderlich, unabhängig davon, ob sich diese beim Wettbewerber ausgewirkt hat oder nicht. Sind die Umsatzdaten des Wettbewerbers nicht bekannt, so sind jene des Jahres 2011 zu verwenden und um die Wachstumsrate zu vermindern, um die Umsätze 2010, 2009, 2008 und 2007 auszurechnen. Der Umsatzeinbruch durch die Finanzkrise ist zu eliminieren, indem die Umsatzdaten des letzten Vorkrisenjahres mit dem Trend bis dahin fortgeschrieben werden. Doch zeigt Abb. 8.7, in der das Vorgehen schematisch dargestellt ist, auch ein Problem. Die hier beschriebene rückblickende und die vorausschauende Adjustierung führen nicht zu den gleichen Trendverläufen. Die Adjustierung der Umsätze aufgrund der Finanzkrise schreibt im Wesentlichen den Trend der Daten bis 2007 fort und dies sei in diesem Beispiel, obgleich die Werte nicht angegeben sind, ein schwaches Wachstum. Die rückwirkende Anpassung der Umsätze bis einschließlich 2010 auf Basis der Umsätze 2011 bis 2013 zeigt jedoch ein stärkeres Wachstum. Während der Jahre der Finanzkrise hat sich also der Markt verändert, vielleicht wird die ausgefallene Nachfrage der Krisenjahre nachgeholt, vielleicht wurden die Produkte verbessert, vielleicht wurden in der Krise auch die Preise gesenkt, was sich danach positiv auswirkte.

162

8  Prognosen für Statistiker …

In jedem Falle aber sind im Zweifel die neueren Daten wichtiger und in diesem Beispiel ist der höhere Wert, also die durchgezogene Linie in Abb. 8.7, zu verwenden, nicht die gestrichelte. Ältere Umsätze als jene aus 2007 sind, selbst wenn sie vorhanden wären, nicht zu verwenden, denn zumindest das markterschütternde Ereignis der Finanzkrise bedeutet, dass ältere Daten keinen relevanten Einfluss auf die Berechnung der Zukunft haben.

8.2 „Quick and dirty“: Die Trendfortschreibung Die einfache Trendfortschreibung extrapoliert die Entwicklung einer einzigen Variable im Zeitverlauf, z. B. „Umsatz“, „Stückzahl“, „Aufträge“ oder „Anzahl Beschwerden“. Weitere, eventuell diese eine Variable beeinflussende Faktoren werden ausgeklammert und nicht analysiert.10 Diese Variable wird im Zeitverlauf betrachtet, wobei jeweils gleiche Intervalle verwendet werden, z. B. „Umsatz je Monat“ oder „verkaufte Stückzahlen je Quartal“. Selbstverständlich kann eine weitere Konkretisierung stattfinden, z. B. „Umsatz je Monat in Filiale 4711“ oder „verkaufte Stückzahlen von Produkt Alpha je Quartal“. Wesentlich ist, dass diese Bezugsbasis der Variable (Zeitraum, Verkaufsinstanz, Produkt o. ä.) konstant bleibt und nicht verändert wird. Da bei der einfachen Trendfortschreibung nur eine Variable betrachtet wird, sprechen wir im Rahmen der Zeitreihenanalyse von univariaten Verfahren. Gesucht werden „Gesetzmäßigkeiten“ der Variablen – also eine Formel bzw. ein Algorithmus – für die Beschreibung von Level und Trend, von denen angenommen wird, dass sie auch in der Zukunft gelten. Nun wird es regelmäßig so sein, dass die Variable „streut“, so, wie es Abb. 8.8 zeigt. Ein Trend ist hier optisch dennoch leicht zu erkennen und es erscheint möglich, mit dem Lineal eine breite Linie über die historischen Daten zu legen, diese in die Zukunft zu „verlängern“ und so eine Prognose zu erstellen. Ist die Linie breit genug, ergibt sich ein Prognosewertkorridor, wie ihn Abb. 8.9 zeigt. Tatsächlich ist dieser freihändig eingezeichnete Korridor bereits eine recht zuverlässige Prognose, so primitiv er auch anmutet. Die nächsten Werte, also jene für die Kalenderwochen 21 bis 30, werden sich mit recht hoher (aber abnehmender) Wahrscheinlichkeit innerhalb dieses Korridors befinden, sofern die Umwelt wie in den Wochen 1 bis 20 auch ausreichend stabil ist. Was nicht betrachtet werden kann, sind z. B. saisonale Einflüsse, aber hierzu müssten die Werte aus dem Vorjahr (Vorsaison) in die Analyse einbezogen werden.

10 Boden,

1995, S. 40 f.

8.2  „Quick and dirty“: Die Trendfortschreibung

163

Abb. 8.8   Streuung einer Variablen auf der Zeitachse

Abb. 8.9   Prognosewertkorridor

Wenn die Prognose, hier der Korridor, jedoch nicht genau genug ist oder die historischen Werte zu sehr streuen, sodass der Korridor viel zu breit würde, um ihn für einen Forecast nutzen zu können, ist es erforderlich, die Trendlinie zu glätten. Und hier

164

8  Prognosen für Statistiker …

Abb. 8.10   Extrapolation auf Basis des Durchschnittswertes, Beispiel 1

kommen wir zum Kern der Zeitreihenanalyse: Es gibt zahlreiche Varianten der Glättung der Trendlinie auf Basis der historischen Daten und diese Glättung ist zugleich die mathematische Grundlage der Trendfortschreibung.11

8.2.1 Extrapolation des Durchschnittswertes Aus den betrachteten historischen Daten wird der Durchschnitt errechnet und in die Zukunft fortgeschrieben. Abb. 8.10 zeigt dies für unser Bespiel aus Abb. 8.8. Doch ist diese Prognose unbefriedigend, denn offensichtlich wird der steigende Verlauf des Trends von der Durchschnittswertberechnung nicht berücksichtigt. Und das ist tatsächlich so: Jede Extrapolation auf Basis des Durchschnittswertes ist immer eine Parallele zur Abszisse. Es wird also in der Zukunft ein immer gleicher Wert angenommen. Somit eignet sich diese Form der Trendfortschreibung allenfalls bei stagnierenden Märkten, wenn keine Marktanteilsverschiebung zu erwarten ist. Abb. 8.11 zeigt ein weiteres Beispiel. Es ist ein Umsatzverlauf zu sehen, der von Kalenderwoche zu Kalenderwoche stark schwankt. Die Zeitreihe streut. Auch ist – anders als in Abb. 8.10 – kein Trend erkennbar. Hier nun eignet sich die Extrapolation auf Basis des Durchschnittswertes, wie sie mit dem Pfeil symbolisiert ist. Der durchschnittliche Umsatz der Kalenderwochen 1 bis

11 Vgl.

bspw. Schnaars, 1986.

165

8.2  „Quick and dirty“: Die Trendfortschreibung

40 38

Umsatz in Tsd. €

36 34 32 30 28 26 24 22 20 0

5

10

15

20

25

30

Kalenderwoche

Abb. 8.11   Extrapolation auf Basis des Durchschnittswertes, Beispiel 2

20, hier 28.860 €, wird auch als Prognosewert für die Wochen 21 bis 30 angenommen. Allerdings wissen wir bereits, dass dieser Forecast noch nicht vollständig ist, sondern er • in dieser Form nur Teil eines kombinierten Forecasts werden sollte, • die Prognosewerte mit Eintrittswahrscheinlichkeiten zu belegen sind, wenn sie eigenständig verwendet werden oder • der mögliche Prognosefehler anzugeben ist, indem der MAPE (siehe Abschn. 6.2) der historischen Werte errechnet wird, so, als wären diese jeweils in der Vorwoche prognostiziert worden. Das Ergebnis beträgt hier 12,64 % (Tab. 8.2) und es bedeutet, dass die Prognosewerte durchschnittlich um diesen Wert nach oben oder nach unten von den realen Werten abweichen werden. Aber die Tab. 8.2 zeigt auch deutlich, dass je Prognosewert, also je Kalenderwoche in der Zukunft, mit Abweichungen vom Prognosewert von bis zu fast 40 % gerechnet werden sollte, wenn in dieser Größenordnung auch mit geringerer Wahrscheinlichkeit! Das Fazit ist, dass die Extrapolation auf Basis des Durchschnittswertes lediglich bei 1. stagnierenden Trends in 2. einer stabilen Umwelt sinnvoll verwendet werden kann, ergo in der Regel nur bei

166

8  Prognosen für Statistiker …

Tab. 8.2  Berechnung des durchschnittlichen relativen Prognosefehlers (MAPE) in Beispiel 2 KW

Umsatz in Tsd. €

Absolute Abweichung

Relative Abweichung (%)

1

30,0

1,14

3,80

2

24,0

4,86

20,25

3

22,0

6,86

31,18

4

29,6

0,74

2,50

5

23,9

4,96

20,75

6

34,0

5,14

15,12

7

30,0

1,14

3,80

8

38,0

9,14

24,05

9

26,0

2,86

11,00

10

29,0

0,14

0,48

11

21,0

7,86

37,43

12

36,0

7,14

19,83

13

34,0

5,14

15,12

14

27,2

1,66

6,10

15

28,0

0,86

3,07

16

26,3

2,56

9,73

17

29,2

0,34

1,16

18

33,0

4,14

12,55

19

26,0

2,86

11,00

20

30,0

1,14

3,80

Ø

28,86

3,534

12,64

3. kurzfristigen Prognosen.12 Solche könnten z. B. Planungsgrundlage für die Kalkulation des Beschaffungsvolumens für Frischwaren eines Supermarktes sein.

8.2.2 Gleitender Durchschnitt Anstatt den Durchschnitt für alle vorliegenden historischen Werte zu berechnen, wird nun für die Ermittlung des jeweils nächsten Prognosewertes lediglich der Durchschnitt

12  Einen interessanten Ansatz für die Kurzfristprognosen für verderbliche Produkte (BäckereiFranchisesystem) zeigen Yang & Sutrisno, 2018.

8.2  „Quick and dirty“: Die Trendfortschreibung

167

Tab. 8.3  Zeitreihenanalyse auf Basis des gleitenden Durchschnitts KW

Umsatz in Tsd. €

Gleitender Durchschn. mit 3 Werten

Gleitender Durchschn. mit 5 Werten

1

23,0

2

24,0

3

22,0

23,0

4

22,8

22,9

5

23,9

22,9

23,14

6

24,2

23,6

23,38

Gleitender Durchschn. mit 7 Werten

7

23,6

23,9

23,3

23,4

8

25,0

24,3

23,9

23,6

9

26,1

24,9

24,56

23,9

10

24,9

25,3

24,76

24,4

11

24,8

25,3

24,88

24,6

12

26,2

25,3

25,4

25,0

13

27,9

26,3

25,98

25,5

14

27,2

27,1

26,2

26,0

15

28,0

27,7

26,82

26,4

16

26,3

27,2

27,12

26,5

17

29,2

27,8

27,72

27,1

18

30,4

28,6

28,22

27,9

19

29,6

29,7

28,7

28,4

20

30,0

30,0

29,1

28,7

2,95 %

4,06 %

5,37 %

MAPE

von x zurückliegenden realen Werten verwendet.13 Doch wie viele Werte werden in die Berechnung einbezogen, welchen Wert nimmt x an? Ausgehend vom Beispiel aus Abb. 8.8 bieten sich exemplarisch Zeitreihenanalysen auf Basis des gleitenden Durchschnitts für 3, 5 oder 7 zurückliegende Werte (Perioden) an. Tab. 8.3 zeigt die Daten und zugleich den MAPE, Abb. 8.12 stellt das Ergebnis grafisch dar. Darauf hinzuweisen ist, dass der MAPE mit Zunahme der Anzahl historischer Daten, die in die Berechnung des gleitenden Durchschnitts einbezogen werden, wächst, denn je „grober“ der Durchschnitt berechnet wird, desto größer ist die Abweichung von den realen Daten.

13 Ein

Beispiel für einen solchen Forecast beschreiben und analysieren Bradosti & Singh, 2015.

168

8  Prognosen für Statistiker …

Abb. 8.12   Zeitreihenanalyse auf Basis des gleitenden Durchschnitts

Aber diese Zeitreihenanalyse ist noch keine Prognose. Der nächste Schritt ist folglich, auf Basis des errechneten gleitenden Durchschnitts eine Trendextrapolation zu ermitteln. Hierzu wird der berechnete historische Verlauf in die Zukunft fortgeschrieben. Die jeweiligen Schwankungen, die mit der Vergrößerung der Anzahl einbezogener Werte (von 3 auf 5 auf 7) immer geringer werden, werden eliminiert. Somit ist die Trendextrapolation nichts anderes als der Durchschnitt des gleitenden Durchschnitts. Das Ergebnis ist ein Strahl, der einen Startlevel besitzt, sowie eine Steigung. Abb. 8.13 zeigt das Ergebnis, das mit MS Excel erstellt wurde, und zugleich die zum Strahl gehörende Formel. Werden die Prognosestrahle für die verschiedenen gleitenden Durchschnitte berechnet, ergibt sich ein interessantes Bild (Abb. 8.14). Dieses Muster ist typisch: Je mehr Werte in die Berechnung des gleitenden Durchschnitts einbezogen werden (z. B. 7 statt 3), desto konservativer ist die Trendextrapolation im Falle eines steigenden oder gar exponentiell steigenden Verlaufs. Umgekehrt wird bei einem fallenden Verlauf, hier also einem Umsatzrückgang, die Extrapolation auf Basis des mehr Werte umfassenden gleitenden Durchschnitts zögerlicher fallen, also eher zu optimistische Werte prognostizieren. Solche Effekte sollte ein Forecaster kennen, um die Outputs der von ihm erstellen Vertriebsprognosen deuten und ggf. für die Adressaten kommentieren zu können. Sie zeigen aber auch, wie wichtig der kombinierte Forecast ist, denn lediglich durch die Änderung eines scheinbar unbedeutenden Parameters wurde die Prognose des Umsatzes für die Kalenderwoche 30 von ca. 32,5 auf 33,5 Tsd. € verändert, also um ca. 3 %.

8.2  „Quick and dirty“: Die Trendfortschreibung

169

Abb. 8.13   Gleitender Durchschnitt (3 Werte) mit linearer Trendextrapolation für 10 Wochen

Abb. 8.14   Vergleich der Trendextrapolationen auf Basis unterschiedlicher gleitender Durchschnitte

170

8  Prognosen für Statistiker …

8.2.3 Berücksichtigung von Zyklen, insbesondere saisonalen Schwankungen Nach der Extrapolation des Durchschnittswertes in Abschn. 8.2.1, die nur bei stagnierendem Verlauf und stabiler erwarteter Umwelt funktioniert, kam in Abschn. 8.2.2 die Trendfortschreibung und somit Prognose auf Basis gleitender Durchschnitte hinzu. Nun wird es noch etwas komplizierter, denn nun werden auch Zyklen berücksichtigt. Hierzu eignen sich zuvörderst die verschiedenen Verfahren der exponentiellen Glättung (Abschn. 8.3), denn nur diese ermöglichen, jüngere und ältere historische Daten mit einem jeweils unterschiedlichen Gewicht in die Extrapolationsformel einfließen zu lassen. Auch finden sich dort Formeln zur Berücksichtigung, und das heißt zur Wiederholung, von Zyklen, insbesondere also von saisonalen Verläufen. Aber es gibt auch ein einfaches Hilfsverfahren der Berücksichtigung von Zyklen aller Art, das nachfolgend erläutert wird: Saisonindizes. An dieser Stelle konzentrieren wir uns auf saisonale Verläufe als die häufigste Form von Zyklen. Makrozyklen, also solche, die volkswirtschaftliche Schwankungen im Mehrjahresbereich beschreiben, spielen bei Vertriebsprognosen selten eine Rolle. Hingegen sind kurzfristige Zyklen, die umgangssprachlich nicht als „saisonal“ gelten, sehr wohl aber im mathematischen Sinne, auch für Vertriebsprognosen relevant, etwa wöchentliche Absatzschwankungen bei bestimmten Produktkategorien im Supermarkt oder monatliche Schwankungen bei kurzlebigen Konsumprodukten, die mit dem Lohnauszahlungstermin zusammenhängen. 

Als „saisonale Schwankungen“ bezeichnen wir für die Zwecke der Vertriebsprognosen alle bekannten, wiederkehrenden und zeitlichen eingrenzbaren Wertemuster. Die Schwankungszyklen sind bei Vertriebsprognosen im Tages-, Wochen-, Monats-, Quartals- oder Jahresrhythmus zu beobachten.14

Um die Zyklen auch in der Zukunft fortschreiben zu können, müssen die historischen Zeitreihen in die Faktoren • Level, • Trend und • Zyklus zerlegt werden.15 Zur Erinnerung: Der Level ist die Höhe eines Wertes, z. B. des Umsatzes, der erfasst und dann als Prognosewert für die Zukunft geschätzt werden soll.

14 Vgl.

hierzu auch die Ausführungen bei Ord & Fildes, 2013, S. 99. Makridakis, et al., 1980, S. 115, Hüttner, 1986, S. 11–12 und Boden, 1995, S. 41 f. Für mathematisch Interessierte sei auch folgender Aufsatz empfohlen, der sich mit Prognosefehlern in Forecasts für Saisonartikeln beschäftigt: Chang & Fyffe, 1971. 15 Ausführlich:

8.2  „Quick and dirty“: Die Trendfortschreibung

171

Abb. 8.15   Zeitreihe für Umsätze in einer Spielwarenfiliale

Der Trend ist der grundsätzliche, durchschnittliche Verlauf der Zeitreihe, der Zyklus markiert eine regelmäßig wiederkehrende Abweichung vom Trend. Und genau auf diese Abweichung kommt es an, denn die relative Abweichung eines Wertes innerhalb des Zyklus wird auch für die gleiche Periode in der Zukunft unterstellt. Ist z. B. aufgrund eines Zyklus der Umsatz für Spielwaren im November um 15 % über dem, der sich bei einem zyklusfreien, geglätteten Verlauf der Zeitreihe ergeben hätte, so wird auch für den November im kommenden Jahr angenommen, dass der Wert 15 % über dem Trend liegen wird. Der Level kann hingegen ein anderer sein, z. B., wenn der branchenweite Umsatz mit Spielwaren um 5 % steigt. Abb. 8.15 zeigt den Umsatzverlauf des Vorjahres für eine Spielwarenfiliale. Es zeigen sich zwei Saisonfiguren, ein Frühjahrszyklus, sicherlich ausgelöst durch das Ostergeschäft, sowie den zu erwartenden Dezemberzyklus, der mit dem Weihnachtsfest ein jähes Ende findet und der sich nicht wellenartig in den Januar bzw. Februar des Folgejahres fortsetzt. Beide Zyklen unterscheiden sich somit in ihrer Figur, Amplitude und Länge. Die erste Saisonfigur, der „Oster-Peak“, ist dabei besonders kompliziert, denn das Osterfest kann sich Jahr für Jahr um mehrere Wochen verschieben. Der Scheitelpunkt der Kurve, in Abb. 8.15 ist dies der Monat April, könnte sich im Folgejahr auf den Monat März vorverlagern, wenn das Osterfest früher ist. Es ist also keineswegs ein Automatismus, dass die Hoch- und Tiefpunkte eines Zyklus immer an der zeitlich gleichen Stelle zu finden sind. Weihnachten verschiebt sich – wen wundert’s? – nicht. Im nächsten Schritt wird der Verlauf berechnet und extrapoliert (Abb. 8.16). Eine Tabellenkalkulation wie MS Excel leistet hier gute Dienste. Wichtig ist, die Trendfunktion zu kennen, denn diese bildet den Ausgangspunkt für die Ergänzung der extrapolierten Funktion mit Zyklen. In Abb. 8.16 findet sie sich oben rechts.

172

8  Prognosen für Statistiker …

Abb. 8.16   Lineare Trendextrapolation des Umsatzes des Spielwarenhändlers

An dieser Stelle sollte ein erfahrener Forecaster aufmerken. Der Trend zeigt ein sehr erfreuliches Wachstum. Aber ist das in der Realität gegeben? Nein, vermutlich nicht, denn es ist falsch, eine Trendfunktion bei einem Umsatzverlauf wie dem hier gezeigten auf Basis eines einzigen Jahres zu erstellen. Durch das überproportional starke Jahresendgeschäft ergibt sich eine fehlerhafte Trendfunktion mit einer zu hohen Steigung, hier einer von 1,0804. Tatsächlich wird sie aber weitaus geringer sein und auch niedriger ausgewiesen werden, wenn allein schon die folgenden Monate Januar und Februar des Folgejahres, die im Spielwarenhandel traditionell umsatzschwach sind, einbezogen werden. Lägen die Umsätze dieser zwei Monate z. B. auf dem Vorjahresniveau (15 bzw. 14 Tsd. €), so wäre die Steigung der Trendfunktion nur noch 0,4 und würde sich das komplette Jahr wiederholen, also der Level in jedem Monat der gleiche sein, wäre die Steigung 0,27 (jeweils mit einem höheren Basiswert als Ausgangspunkt des Strahls). Langfristig wäre die Steigung natürlich 0. Der unreflektierte Umgang mit MS Excel führt hier schnell zu einer falschen Prognose! Abb. 8.16 und dieses Beispiel sind also ein sehr anschaulicher Beleg dafür, dass Kenntnisse im Umgang mit Anwendersoftware Mitdenken nicht ersetzt, sondern es voraussetzt. Aber was soll getan werden, wenn nicht mehr als eben jene Daten vorliegen? Dann ist der auf das Jahr vermittelte Monatsdurchschnitt die Grundlage der folgenden Schritte, und dieser beträgt hier 19,4 Tsd. €. In einem solchen Fall wäre die Arbeit des Forecasters an dieser Stelle beendet, denn er braucht nun nur noch die Umsatzkurve des Vorjahres für das nächste Jahr fortzuschreiben. Fertig! In unserem Falle konstatiert der Forecaster nun, dass der Jahresumsatz um ca. 10 % steigen wird. Diese Information stammt z. B. aus qualitativen Prognosen, z. B. der

8.2  „Quick and dirty“: Die Trendfortschreibung

173

Tab. 8.4  Adjustierung einer Prognose um saisonale Einflüsse Monat

Realisierter Umsatz Level in Tsd. € in Tsd. €

J

15,0

Relative Abweichung

Adjustierte Prognose in Tsd. €

Monatsdurchschnitt: ‒11,3 % 19,4 3,8 %

F

14,0

M

17,0

‒8,7 %

A

23,0

‒37,6 %

M

20,0

‒12,4 %

J

17,0

9,9 %

J

15,0

24,8 %

A

13,0

38,2 %

S

15,0

32,2 %

O

21,0

9,5 %

N

29,0

‒19,4 %

D

34,0

‒34,1 %

J

19,6

15,1

F

19,7

14,2

M

19,9

17,4

A

20,1

23,8

M

20,2

20,8

J

20,4

17,9

J

20,6

15,9

A

20,7

13,9

S

20,9

16,2

O

21,1

22,8

N

21,3

31,8

D

21,4

37,6

intuitiven Einschätzung des Managements, das weiß, dass durch die Listung weiterer Produkte eine allgemeine Marktausweitung oder durch das sukzessive Ausscheiden eines Wettbewerbers der eigene Marktanteil und das umgesetzte Volumen wachsen werden. Ein 10 %iges Wachstum des Jahresumsatzes bedeutet also ein gleichverteiltes monatliches Wachstum von 0,833 %. Nun wird der extrapolierte Trend adjustiert, indem jeder Monat des zukünftigen Jahres mit den jeweiligen relativen Abweichungen vom – mit dem Wachstum von 1,00833 multiplizierten – Monatsdurchschnitt korrigiert wird. Tab. 8.4 zeigt das Vorgehen, wobei die Verschiebung des Scheitelpunktes des Osterzyklus außer Acht gelassen wird. Abb. 8.17 zeigt die Prognose in grafischer Form.

174

8  Prognosen für Statistiker …

40.0 35.0

Umsatz in Tsd. €

30.0 25.0 20.0 15.0 10.0 5.0 0.0 J

F

M

A

M

J

J

A

S

O

N

D

J

F

M

A

M

J

J

A

S

O

N

D

Monat Umsatz

monatl. Ø

Abb. 8.17   Adjustierte, saisonbereinigte Prognose

Die noch fehlende Anpassung des Osterzyklus ist komplizierter, als es zunächst ausschaut. Denn nicht nur der Scheitelpunkt des Zyklus verschiebt sich, sondern auch die Werte der Monate davor und danach. Es ist zunächst erforderlich, die Saisonfigur zu analysieren und hier in diesem Beispiel zeigt sich ein glockenförmiger Verlauf mit ungefähr gleichen absoluten Steigungswerten im An- wie im Abstieg der Werte. Der Scheitelpunkt, also die maximale Abweichung vom geglätteten Trend, verschiebt sich auf den März, und es ist zu vermuten, dass auch der Februar etwas höhere Umsätze bringen wird als im Jahr zuvor, aber der Mai und der Juni etwas geringere. Sinnvoll ist nun, den Level des Scheitelpunktes, also den Umsatzwert, der in der ursprünglichen Prognose für den Monat April erwartet wird, beizubehalten, aber für den Monat März einzutragen. Eine Korrektur des Levels der Werte für Februar, Mai und Juni gelingt mit einer Durchschnittswertberechnung. Natürlich sieht diese Prognose, die uns Abb. 8.17 zeigt, nicht sonderlich spektakulär aus. Ziel der Erläuterung des Vorgehens war jedoch, die „Mechanik“ der simplen Berücksichtigung von saisonalen Zyklen zu erläutern und auf die besonderen Gefahren hinzuweisen, die eine allzu oberflächliche Anwendung von Statistik birgt. Und das ist hoffentlich gelungen.

8.3 Trendfortschreibung mithilfe der exponentiellen Glättung Nachdem in Abschn. 8.2 drei recht einfache Verfahren der Zeitreihenanalyse und Trendextrapolation vorgestellt wurden, nämlich die

8.3  Trendfortschreibung mithilfe der exponentiellen Glättung

175

• einfache Durchschnittswertextrapolation bei stagnierenden Werteverläufen, die • Extrapolation auf Basis gleitender Durchschnitte bei nicht stagnierenden, aber stabilen Verläufen sowie die • Berücksichtigung von zyklischen Schwankungen auf Basis von Wertekoeffizienten, wird nun mithilfe von komplexeren Verfahren versucht, den Verlauf historischer Werte mithilfe von Algorithmen zu erfassen und fortzuschreiben. Wie bisher gilt auch hier, dass • die Prognose als eine lückenlose Fortschreibung der Vergangenheit begriffen wird, • die Präzision der Prognose von der Qualität der (historischen) Inputdaten abhängt, diese also zu adjustieren sind, um außergewöhnliche Verläufe zu eliminieren, • qualitatives Expertenwissen über zukünftige Ereignisse ausgeklammert wird und • diese Methode ungeeignet ist, wenn keine historischen Daten vorliegen, etwa bei der Einführung neuer Produkte oder in Start-up-Situationen. Auch die exponentiellen Verfahren sind univariate Verfahren, bei denen nur ein Schätzwert (Umsatz, Verkaufszahlen usw.) betrachtet wird. Dieser wird durch eine einzige, lineare Prognosegleichung errechnet. Weitere kausale Zusammenhänge werden ignoriert. Insofern handelt es sich um eine Verfeinerung der einfachen Trendfortschreibung.16 Die grundsätzliche Idee der exponentiellen Glättung von historischen Daten und damit der exponentiellen Verfahren überhaupt ist die folgende: 

Nutze alle Daten, aber berücksichtige die jüngere Vergangenheit mehr als die ältere, denn die jüngere ist für die Zukunft von größerer Bedeutung als die ältere.

Mathematisch wird dies durch den Glättungsfaktor Alpha (auch „rekursiver linearer Filter“ genannt) erreicht, mit dem Daten gewichtet werden. Alpha liegt zwischen 0 und 1 und seine Interpretation ist etwas kompliziert. Hier zwei Beispiele: • Ein Alpha-Wert von 0,1 bedeutet, dass die Prognose zu 87,7 % aus Werten errechnet wird, die jünger als 20 Perioden (Jahre) sind. • Ein Alpha-Wert von 0,5 bedeutet, dass die Prognose zu 98,45 % aus Werten errechnet werden, die jünger als 6 Perioden (Jahre) sind. Tatsächlich wird sich der Alpha-Wert in der Praxis in ungefähr diesem Intervall bewegen. Es gilt: 

Je niedriger der Glättungsfaktor Alpha ist, desto stärker werden ältere Werte, je höher er ist, desto stärker werden jüngere Werte berücksichtigt.

16 Vertiefend

siehe bspw. Deistler & Neusser, 2012 und Hansmann, 1983, S. 27. Einen guten Überblick der verschiedenen Glättungsverfahren gibt Mentzer, 1988.

176

8  Prognosen für Statistiker …

In einer Verfeinerung der Methode werden später noch weitere Faktoren (Beta, Gamma) eingeführt, z. B., um historische saisonale Verläufe mathematisch abbilden zu können. Aber dazu kommen wir später. Einfache exponentielle Glättung: Die Formel für die einfache exponentielle Glättung lautet:

Forecast (X,t) = (Alpha ∗ Xt−1 ) + ((1 − Alpha) ∗ Istwert (X,t−1) ) X steht für den Prognosewert, z. B. Umsatz oder die Stückzahl, im Falle von t − 1 ist es der reale Wert der Vorperiode. t steht für die Periode, für die ein Ergebnis prognostiziert werden soll. Der erste Teil der Funktion ( Alpha ∗ Xt−1) gewichtet den letzten, also den jüngsten realen Wert mit dem Alphafaktor, wie oben beschrieben, desto mehr, je höher Alpha ist. Der zweite Teil der Funktion ((1 − Alpha) ∗ Istwert (X,t−1)) gewichtet den letzten realen Wert. In diesen gehen alle bisherigen Werte, also die gesamte Vergangenheit der Zeitreihe ein.17 Ein Beispiel: Glätten wir die Umsätze aus Tab. 8.3 für die Kalenderwochen 1 bis 20 mit dem Glättungsfaktor Alpha = 0,1, so ergibt sich eine Adjustierung der historischen Daten, wie sie in Abb. 8.18 dargestellt ist. Hier wird zudem mithilfe von MS Excel gleich eine Trendlinie für die nächsten 10 Kalenderwochen hinzugefügt, die den Forecast repräsentiert. Auf den ersten Blick und bei intuitiver Betrachtung erscheint diese Prognose unrealistisch, sie ist aber mathematisch korrekt. Der Grund ist, dass sich bei den Werten in den ersten sieben Kalenderwochen wenig getan hat, erst ab der achten Woche ist ein deutlicher Anstieg zu verzeichnen. Da bei diesem geringen Alpha-Wert (0,1) die älteren Werte sehr stark ins Gewicht fallen, ist der geglättete Graph, der trendextrapoliert zum Forecast wird, ebenso konservativ. Wenn der Alpha-Wert höher gesetzt wird, z. B. auf 0,4, werden die jüngeren Werte stärker ins Gewicht fallen. Die älteren Werte werden dementsprechend in geringerem Maße berücksichtigt, aber keineswegs vergessen. Entsprechend ergeben sich eine geglättete Funktion sowie eine lineare Trendextrapolation, wie sie in Abb. 8.19 dargestellt ist. Der Unterschied ist deutlich: Während bei der ersten Glättung ein Prognosewert für die Kalenderwoche 30 von 27,8 Tsd. € ermittelt wird, ist dieser bei der zweiten Glättung bei 30 Tsd. €. Der Unterschied beträgt ca. 8 %. Das kann noch weiter variiert werden. Tabellenkalkulationsprogramme bieten neben der linearen Glättung auch komplexere Algorithmen an, um Extrapolationen zu berechnen. So ist es möglich, den Verlauf der geglätteten Funktion exakter

17 Detaillierter

ist dieser Mechanismus beschrieben bei z. B. Schira, 2005, S. 147 ff.

8.3  Trendfortschreibung mithilfe der exponentiellen Glättung

Abb. 8.18   Glättung einer Zeitreihe mit Alpha = 0,1

Abb. 8.19   Glättung einer Zeitreihe mit Alpha = 0,4

177

178

8  Prognosen für Statistiker …

Abb. 8.20   Glättung einer Zeitreihe mit Alpha = 0,4, Trendextrapolation mithilfe einer Polynomfunktion

n­achzuzeichnen, etwa mithilfe von polynomischen Funktionen. An dieser Stelle sei vor der in Abschn. 3.5 beschriebenen Gefahr des „Over- and Underfittings“ gewarnt. Dennoch ist das Ergebnis (Abb. 8.20) überraschend: Wird z. B. der Alpha-Wert von 0,4 für die Glättung der historischen Daten beibehalten, aber die Trendextrapolation nun mit einer polynomischen Funktion statt linear vorgenommen, ist der Prognosewert für die 30. Kalenderwoche ein Umsatz von ca. 37 Tsd. €. Die Schlussfolgerungen daraus sind klar: 1. Es ist ein niedriger Alpha-Wert zu verwenden, wenn der historische Trend einen stabilen Verlauf aufweist (konstante Steigung). 2. Es ist ein hoher Alpha-Wert zu verwenden, wenn der Verlauf des historischen Trends instabil ist und davon ausgegangen wird (qualitative Einschätzung!), dass sich diese Verlaufstendenz in der Zukunft fortsetzt. 3. Es ist ein niedriger Alpha-Wert zu verwenden, wenn die Ausschläge der Werte hoch sind. Aber am wichtigsten ist die folgende Regel: 4. Sowohl die Glättungsfaktoren als auch die Art der Trendextrapolation sollten variiert und somit mehrere Berechnungen erstellt werden. Die Ergebnisse aller realistischen Variationen fließen in den kombinierten Forecast ein.

8.3  Trendfortschreibung mithilfe der exponentiellen Glättung

179

Adaptive exponentielle Glättung Bisher war es dem Forecaster möglich, durch einen geübten Blick auf die Graphen, die ihm seine Software auswirft, die Gültigkeit seiner Prognose zu überprüfen. Darin liegt ein Vorteil, aber sicherlich auch ein Nachteil, und beides wird dadurch ausgeglichen, dass nicht nur eine Prognose berechnet wird, sondern mittels Variation von Parametern mehrere, die allesamt Bestandteil des kombinierten Forecasts werden. Was ist nun aber, wenn die Werte so arg streuen, dass sich kein „Bild“ ergibt, etwa so, wie es die Abb. 8.11 zeigt? Abb. 8.21 zeigt den Verlauf der Umsätze (Rauten), die exponentielle Glättung auf Basis der Alpha-Werte 0,1 (durchgezogene Linie) und 0,5 (gestrichelte Linie) und auch gleich die Trendextrapolation auf Basis der jeweiligen polynomischen Funktion. Hier ist der Unterschied der Prognosewerte für die 30. Kalenderwoche sehr groß, 24,8 bzw. 29,9 Tsd. €, immerhin also ca. 20 %. Die erhebliche Streuung der Werte verhindert die Auswahl eines vertrauenswürdigen Alpha-Wertes. Hier empfiehlt sich scheinbar das Verfahren der adaptiven Glättung, das hier zunächst erläutert, aber dann wieder verworfen wird. Der Alpha-Wert ist nun nicht mehr konstant, sondern ändert sich von Periode zu Periode in Abhängigkeit des vorherigen Fehlers. Die Formel zur Berechnung der Werte je Periode ist die gleiche wie jene bei der einfachen exponentiellen Glättung. Aber für den jeweiligen Alpha-Wert, der sich von Periode zu Periode ändert, benötigen wir eine

Abb. 8.21   Adaptive exponentielle Glättung mit Alpha-Werten 0,1 und 0,5 sowie Trendextrapolationen

180

8  Prognosen für Statistiker …

Berechnungshilfe. Nun finden sich in der einschlägigen Literatur verschiedene Verfahren, diesen periodenspezifischen Alpha-Wert zu ermitteln. Eine Möglichkeit ist, den jeweils sich durch die exponentielle Glättung ergebenden Forecast-Fehler mit der mittleren absoluten Abweichung aller Werte in Beziehung zu setzen. War der Fehler in der Vorperiode hoch, wird der Alpha-Wert für die nächste Periode „hoch gesetzt“. Die jungen Werte werden somit höher gewichtet, der Level wird schnell korrigiert, aber die Dämpfungswirkung der exponentiellen Glättung wird reduziert. Es erfolgt eine rasche Adjustage der geglätteten Zeitreihe. War der Fehler in der Vorperiode gering, wird der Alpha-Wert niedriger, der Level wird also weniger rasch justiert. Aber zahlreiche Studien zeigen ein eindeutiges Ergebnis:18 

Die Anwendung der adaptiven exponentiellen Glättung bringt im Vergleich zur einfachen exponentiellen Glättung keine präziseren Prognosen.

Darum ist sie überflüssig. Vielmehr sollte der Forecaster die einfache exponentielle Glättung mit verschiedenen Alpha-Werten rechnen und Trendextrapolationen mindestens linear und polynomisch vornehmen, um zu verschiedenen Prognosen zu gelangen, die dann Teil des kombinierten Forecasts werden. Doppelte exponentielle Glättung Eine weitere Variante ist die der doppelten exponentiellen Glättung.19 Während bisher die Werteverteilung betrachtet wurde (Levels und deren Differenzen von Periode zu Periode), wird nun auch der Trend Teil der Analyse. Entsprechend empfiehlt sich diese Methode, wenn die Vergangenheitswerte einen solchen Trend erkennen lassen. Die Formel lautet:

Forecast (t+m) = at + (bt ∗ m) m steht für die Anzahl von Perioden in der Zukunft, die betrachtet werden sollen. m = 10 steht somit für z. B. 10 Kalenderwochen, die prognostiziert werden sollen. t steht für die Periode, für die ein Ergebnis prognostiziert werden soll. Die Phrasen at und bt stehen für:   at = 2 ∗ S ′ t − S ′′ t bt =

Alpha ∗ (S ′ t − S ′′ t ) 1 − Alpha

Die hier verwendeten Ausdrücke S ′ t und S ′′ t ([t − 1] bezeichnet immer die Vorperiode) bedürfen wiederum einer Erklärung. Sie stehen für:

18 Z. B.

Ekern, 1981. & Meyers, 1961. Vertiefend vgl. auch Harrison, 1967.

19 Brown

8.3  Trendfortschreibung mithilfe der exponentiellen Glättung

181

S ′ t = Alpha ∗ Xt + (1 − Alpha) ∗ S ′ t−1 S ′′ t = Alpha ∗ S ′ t + (1 − Alpha) ∗ S ′ t−1 X steht wie immer für den Prognosewert, z. B. Umsatz oder die Stückzahl.  Somit werden nun nicht mehr nur die Werte, also das Level, geglättet,

sondern auch der Trend an sich, was der Realität näherkommt als die einfache exponentielle Glättung. „Ein niedriger Alpha-Wert arbeitet dabei prinzipiell wie zuvor, wird also das Rauschen der Werte abschwächen, aber vergleichsweise langsam auf Veränderungen von Level und Trend reagieren.20 Wenn ein Trend umschlägt, wird dies der berechnete Forecast nur verzögert anzeigen. Umgekehrt wird ein hoher Alpha-Wert das Rauschen der Werte in geringerem Maße glätten, dafür aber empfindlicher auf Trend- und Level-Änderungen reagieren.“21 Bei der Wahl des Alpha-Wertes sind folgende Faustregeln nützlich: • Ist das „Rauschen“ und sind damit die Ausschläge der historischen Werte gering, kann der Alpha-Wert hoch sein, z. B. 0,5, weil auf die dämpfende Wirkung von Alpha weitestgehend verzichtet werden kann. Ergo: Ist der Alpha-Wert hoch, so werden Trendänderungen mit geringer Verzögerung angezeigt. • Ist das „Rauschen“ und sind damit die Ausschläge der historischen Werte hoch und zeigt sich ein eher chaotisches Bild mit zufällig erscheinender Werteverteilung, sollte der Alpha-Wert niedrig sein, z. B. 0,1, weil die dämpfende Wirkung von Alpha im Vordergrund steht. Ergo: Ist der Alpha-Wert niedrig, so werden Trendänderungen träge angezeigt, aber das Rauschen wird mehr unterdrückt. Die oben gezeigte sich aufbauende Formel ist zweifellos einfacher, als sie aussieht. Die Tab. 8.5 sowie die Abb. 8.22 veranschaulichen die Entwicklung der Werte auf Basis der oben beschriebenen Formeln. Zu beachten ist, dass ein Startwert benötigt wird, hier ein Monatsumsatz von 30 Tsd. €, der gewählt wurde, weil er dem Mittel der bisherigen Werte entspricht. Das ist mathematisch nicht exakt, aber da sich die Forecast-Werte bei Wahl eines anderen Anfangswertes sowieso angleichen würden, ist es von untergeordneter Bedeutung. Ein kleiner Exkurs ist an dieser Stelle angebracht: In der praktischen Umsetzung erhält der Forecaster nun Prognosewerte, welche die „Mittellinie“ eines Schätzwertkorridors darstellen, gleichsam dem Mittelstreifen einer Straße. Die Werte auf dieser

20 Zum Verständnis 21 Kühnapfel,

dieses Rauschens sei noch einmal verwiesen auf Kahneman, et al., 2021. 2022, S. 452 ff.

182

8  Prognosen für Statistiker …

Tab. 8.5  Doppelte exponentielle Glättung mit Alpha-Wert 0,2 KW

Umsatz

1

in Tsd. € 30,0

Expon. Gltg



S´´

a

b

30,0

30,0

30,0

0,0000

2

24,0

30,0

30,0

30,0

30,0

0,0000

3

22,0

28,8

29,8

30,0

29,6

‒0,0480

4

29,6

27,4

29,3

29,8

28,8

‒0,1312

5

23,9

27,9

29,0

29,7

28,4

‒0,1619

6

34,0

27,1

28,6

29,5

27,8

‒0,2069

7

30,0

28,5

28,6

29,3

27,9

‒0,1720

8

38,0

28,8

28,6

29,1

28,1

‒0,1305

9

26,0

30,6

29,0

29,1

28,9

‒0,0249

10

29,0

29,7

29,2

29,1

29,2

0,0068

11

21,0

29,6

29,2

29,2

29,3

0,0213

Forecast in Tsd. €

30,0

12

36,0

27,8

29,0

29,1

28,8

‒0,0388

30,0

13

34,0

29,5

29,1

29,1

29,0

‒0,0104

29,1

14

27,2

30,4

29,3

29,1

29,5

0,0444

27,5

15

28,0

29,7

29,4

29,2

29,6

0,0522

26,7

16

26,3

29,4

29,4

29,2

29,6

0,0412

25,7

17

29,2

28,8

29,3

29,2

29,3

0,0078

26,2

18

33,0

28,9

29,2

29,2

29,2

‒0,0106

26,8

19

26,0

29,7

29,3

29,2

29,3

0,0112

28,7

20

30,0

29,0

29,2

29,2

29,2

‒0,0048

29,3

21

29,5

22

28,4

23

28,9

24

29,9

25

30,1

26

30,0

27

29,4

28

29,0

29

29,5

30

29,2

Mittellinie weisen mathematisch die höchste Eintrittswahrscheinlichkeit auf, aber die kritische Frage ist, was diese Werte dazu bewegen sollte, in der Zukunft die Streuung – das Rauschen – sein zu lassen. Nichts vermutlich, und so ist klar, dass auch die

8.3  Trendfortschreibung mithilfe der exponentiellen Glättung

183

Abb. 8.22   Doppelte exponentielle Glättung mit Alpha-Wert 0,2

zukünftigen Umsätze je Kalenderwoche so, wie in der Vergangenheit auch, schwanken werden. Dementsprechend wäre in dem hier gezeigten Beispiel, anhand dessen die Methodik erläutert wird, eher das Vorgehen, 1. eine lineare oder polynomische Trendextrapolation vorzunehmen, 2. den MAPE der historischen Daten zu berechnen und somit die Breite des Korridors der Prognosewerte zu bestimmen und 3. Eintrittswahrscheinlichkeiten für diese Prognosewerte zu schätzen. Dem Management könnte dann vielleicht nur eine sehr „vage“ Prognose vorgelegt werden, aber es ist allein dessen Aufgabe, auf dieser Grundlage eine quantitative Planungsgrundlage festzulegen. Es kann, wie bereits mehrfach betont, nicht Aufgabe des Forecasters sein, unternehmerische Risiken, die das Management trägt, zu übernehmen. Zweiparameterglättung nach Holt Die doppelte exponentielle Glättung kann nun etwas verfeinert werden. Statt mit nur einem Glättungsfaktor, Alpha, zu arbeiten, werden zwei verschiedene Faktoren genutzt, nämlich Alpha für das Glätten der Werte (Level) sowie Gamma für die Glättung des Trends.22 Gamma weist wie Alpha einen Wertebereich von 0 bis 1 auf. Wie bisher auch

22 Holt,

1957.

184

8  Prognosen für Statistiker …

bedeuten niedrige Alpha- bzw. Gamma-Werte eine gute Rauschunterdrückung, aber eine träge Reaktion auf Veränderungen von Level oder Trend und umgekehrt. Die Berechnungsformel lautet:

Forecast (t+m) = St + (bt ∗ m) Ferner gilt:

bt = (Gamma ∗ (St − St−1 )) + ((1 − Gamma) ∗ bt−1 ) St = Alpha ∗ Xt + (1 − Alpha) ∗ (S t−1 + bt−1 ) St steht für den Wert (also den Level) in Periode t . Auch für die Zweiparameterglättung nach Holt gilt das bisher Geschriebene: Sie kann und sollte, wenn ausreichend historische Daten vorliegen, für deren Glättung genutzt werden, um auf diesen basierend eine Prognose zu erstellen. Diese Prognose wird immer nur die Mittellinie eines Prognosekorridors darstellen können und sollte somit in einen kombinierten Forecast eingehen. Auf die Fortschreibung des Beispiels wird an dieser Stelle verzichtet, denn mit einem Tabellenkalkulationsprogramm lassen sich die Formeln mit Zwischenergebnissen, wie sie Tab. 8.5 dargestellt, umsetzen. Erweiterte exponentielle Glättung nach Winter Nun wird eine entscheidende Neuerung eingeführt. In Abschn. 8.2.3 wurde ein einfaches Hilfsverfahren erläutert, wie saisonale Zyklen in einer Prognose berücksichtigt werden können. Das geht auch auf mathematischem Weg. Nun werden nicht nur die Werte (der Level) und der Trend, sondern auch deren Saisonabhängigkeit in einer Formel beschrieben.23 Leider wird diese dadurch immer komplizierter und neben dem Alphaund dem Gamma-Wert kommt nun noch ein Beta-Wert hinzu. Alle Glättungsfaktoren haben den Wertebereich 0 bis 1 und die gleiche Wirkung: Je geringer der Faktor, desto höher der Dämpfungseigenschaft und desto träger die Anpassung an die aktuellen Werte; desto höher der Faktor, desto mehr werden junge Werte berücksichtigt. Schwierig wird für den Forecaster nun, diese Faktoren sinnvoll zu bestimmen. Letztlich wird es darauf hinauslaufen zu variieren, also auszuprobieren, wie sich eine Prognose entwickelt, wenn die drei Dämpfungsfaktoren verändert werden. Die Formel lautet:

Forecast (t+m) = (S t + (bt ∗ m)) ∗ SAt+m−L bt steht für den Wert des Trends in Periode t . St bezeichnet den Wert des Levels in Periode t .

23 Winter, 1960 und Hansmann, 1983, S. 47 ff. Verbesserungsvorschläge für dessen Methode finden sich beispielsweise bei Archibald & Koehler, 2003.

8.3  Trendfortschreibung mithilfe der exponentiellen Glättung

185

L gibt die Anzahl von Perioden an, die eine festgestellte Saison in der Vergangenheit zurück liegt, also z. B. „12“ bei einer jährlich wiederkehrenden Sommersaison. SAt+m−L ist somit der Faktor, der die saisonale Glättung übernimmt. Ferner gilt:    Xt + ((1 − Alpha) ∗ (S t−1 + bt−1 )) St = Alpha ∗ SAt−L bt = (Gamma ∗ (St − St−1 )) + ((1 − Gamma) ∗ bt−1 ) SAt =



Beta ∗



Xt St



+ ((1 − Beta) ∗ SAt−L )

Eine letzte Verfeinerung der Verfahren der exponentiellen Glättung ist die adaptive exponentielle Glättung nach Mentzer.24 Der Glättungsfaktor Alpha wird entsprechend dem Fehler der Vorperiode adjustiert, so, wie es bereits bei der adaptiven Glättung beschrieben wird. Die Justierungsformel lautet:    Ft − Xt   Alpha(t+1) =  Xt  Der Alpha-Wert einer jeden Periode entspricht nun dem prozentualen Fehler der Vorperiode, wobei, wie aus der Formel ersichtlich, der Absolutbetrag verwendet wird. Übersteigt der Fehler die 100 %, so bleibt der Alpha-Wert bei 1,0.

Die Quintessenz: Was nutzen die Verfahren zur exponentiellen Glättung? Die exponentielle Glättung ist ein Instrument, historische Daten zu analysieren. Es ist nützlich, um Trends und Zyklen zu erkennen und um Ausreißer zu nivellieren. Richtig angewendet, sind somit manuelle Adjustierungen, wie sie in Abschn. 8.1 beschrieben wurden, überflüssig, denn es gilt auch hier: 

Ein algorithmenbasiertes Korrekturverfahren ist einem intuitiven vorzuziehen.

Darum sollte ein Forecaster zumindest das Basismodell der exponentiellen Glättung verstanden haben und einsetzen können, besser noch, er beherrscht auch die Variationen und hier vor allem jene nach Winter, in der auch saisonale Zyklen berücksichtigt werden. Zu warnen ist davor, Zeitreihenanalysen mithilfe exponentieller Glättung nur deshalb mehr zu vertrauen, weil sie mathematisch anspruchsvoller sind. Dieses Kapitel zeigt, dass die Glättung alleine keine Prognose macht und dass letztere vor allem auch davon abhängt, welche Art der Trendextrapolation verwendet wird. Sich nun auf die Art

24 Mentzer,

1988.

186

8  Prognosen für Statistiker …

und Weise, wie geglättet wird, zu konzentrieren, ist unzureichend, wenn nicht zugleich Ergebnisse verschiedener Extrapolationsmethoden miteinander verglichen werden. Abb. 8.20 und die fortfolgenden zeigen deutlich, welchen Einfluss die Art der Extrapolation auf das Prognoseergebnis hat. Wie ist mit diesen Erkenntnissen nun umzugehen? Der Forecaster wird variieren und sinnvolle Faktor- und Parameterkonstellationen berechnen, um sie in einem kombinierten Forecast zu verarbeiten. Er wird aber zugleich auch den grundsätzlichen Nachteil aller hier in Kapitel 8 beschriebenen Methoden, nämlich die Prognose ausschließlich auf Basis historischer Daten unter Ausschluss von Vermutungen über die Zukunft, durch die Hinzunahme qualitativer Verfahren kompensieren.

8.4 Es geht immer noch komplizierter: Ökonometrische Modelle und Regressionen Die Idee der Ökonometrie ist es, wirtschaftliche Zusammenhänge in mathematischen bzw. statistischen Funktionen auszudrücken. Insofern sind natürlich auch die einfache Trendextrapolation auf Basis von Durchschnittswerten oder die exponentielle Glättung bereits ökonometrische Modelle, doch wird dieser Begriff in der Fachwelt eher dann verwendet, wenn komplexere Zusammenhänge in Formeln abgebildet werden.25 Das Vorgehen bei ökonometrischen Prognosemodellen ist dabei immer das Gleiche:26 1. Identifikation möglichst aller kausalen, also ursächlichen Faktoren, die einen Einfluss auf die Werte einer historischen Zeitreihe hatten. 2. Identifikation des Einflusses aller Faktoren auf den Schätzwert sowie Identifikation der Wechselwirkungen der Faktoren untereinander. 3. Entwicklung eines Gleichungssystems, mit denen die historische Zeitreihe nachgebildet werden kann. 4. Reduktion dieser vielen Faktoren auf einige wenige, mit denen die historische Zeitreihe hinreichend genau nachgebildet werden kann. 5. Entwicklung einer Gleichung oder eines Gleichungssystems auf Basis der reduzierten Anzahl von kausalen Faktoren sowie simultane Lösung dieser Gleichungen. 6. Extrapolation der kausalen Faktoren in die Zukunft und jeweilige Berechnung der abhängigen Variablen (Prognosewerte).

25 Z. B.

in Form von Markov-Ketten, Hansen, 2012, oder durch „mathematisch-neuronale Verknüpfungen“, Luxhoj, et al., 1996. 26 Ausführlich siehe Makridakis, et al., 1980, S. 165 ff., Becker, 2011, S. 262 und Menges, 1967. Zu „unscharfen“ Regressionen siehe Auer & Rottmann, 2010, S. 605–622. Zu nichtparametrischen Verfahren siehe Härdle, et al., 2012. Ein Anwendungsbeispiel für den Automobilsektor zeigen Zhang, et al., 2017, für E-Commerce Bandara, et al., 2019 und Jiménez & Garcia, 2017.

8.4  Es geht immer noch komplizierter …

187

Die Schritte zwei und drei sind dabei selbstverständlich nur theoretischer Natur, denn wir werden im Vertrieb niemals in der Lage sein, alle Faktoren zu erkennen und zu parametrisieren, die z. B. zu Einkaufsentscheidungen und damit zu Umsatz geführt hatten. In der Praxis treten sehr zuverlässig immer die gleichen Probleme auf:27 • Wir können nicht alle Faktoren identifizieren, entweder, weil uns die Quelle unbekannt ist oder weil wir nicht nach ihnen fragen (die „unbekannten Unbekannten“). • Wir können nicht all die Informationen beschaffen, um diese Faktoren zu bewerten, selbst wenn wir sie identifizieren könnten (die „unbekannten Bekannten“). • Die Messung von Faktoren ist zu aufwendig. • Die Ergebnisse der Bewertung von Faktoren sind nicht rechtzeitig verfügbar, um in die Forecasts einbezogen zu werden. Wir müssen uns also mit zwangsweise unpräzisen Verfahren begnügen und insofern ist jede Regressionsanalyse immer nur eine Näherung. Die Kunst dabei ist, die wirklich entscheidenden und messbaren Faktoren zu identifizieren. Einfache Regressionen und Korrelationen Das „Einsteigermodell“ der Ökonometrie, jedenfalls wenn es um Prognosen geht, ist die Regressionsanalyse, mit der Abhängigkeiten mehrerer Faktoren voneinander ermittelt werden. Ziel ist, eine kausale Ursache-Wirkungs-Beziehung festzustellen: Wenn sich die unabhängige Variable A ändert, wird sich die abhängige Variable B auch ändern. Hier zwei Beispiele für solche Kausalitäten, die innerhalb bestimmter Grenzen gelten: • Je länger das Hühnerei kocht (unabhängige Variable: Kochzeit), desto härter wird das Ei werden (abhängige Variable). • Je älter ein Mensch wird (unabhängige Variable: Lebenszeit), desto größer wird er (abhängige Variable: Körpergröße). Wäre der kausale Zusammenhang bekannt, ließe sich bei Kenntnis der unabhängigen Variable die abhängige recht präzise vorhersagen. Hier liegen einfache Regressionen vor. Um die Zuverlässigkeit dieser Regressionen zu prüfen und damit auch die Zuverlässigkeit der Prognosen insgesamt, ist aber erforderlich, zu wissen, wie stark der Zusammenhang zwischen der Kochzeit/der Lebenszeit und der Eierhärte/der Körpergröße ist – der Regressionskoeffizient. Doch solche Kausalitäten zu kennen, ist in der betrieblichen Praxis bzw. der Prognostik eher eine Luxussituation. Den direkten Einfluss eines Parameters auf eine zu

27 Vgl. hierzu auch die Ausführungen bei Ord & Fildes, 2013, S. 206, zur Eingrenzung sinnvoller Anwendungsfälle auch Armstrong & Brodie, 1999.

188

8  Prognosen für Statistiker …

prognostizierende Situation festzustellen, verlangt in der Regel, Experimente durchzuführen, bei denen alle übrigen möglichen Einflussparameter zuverlässig ausgeschaltet werden können. Eher sind Korrelationen feststellbar. Bei diesen geht es um den schieren Zusammenhang zweier Variablen: Ändert sich Variable A, ändert sich auch Variable B. So handelt es sich bspw. um eine Korrelation, wenn für die Vorperiode festgestellt wurde, dass der Verkaufserfolg mit dem Werbebudget zusammenhing. Aber es bleibt eine Korrelation und keine Kausalbeziehung, denn es kann nicht ausgeschlossen werden, dass andere Faktoren für den Erfolg verantwortlich waren (Schwäche des Wettbewerbers o. ä.). Häufig werden Kausalbeziehungen und Korrelationen verwechselt. Aus einem vielleicht zufälligerweise gleichartigen Verlauf zweier Variablen wird auf eine UrsacheWirkungs-Beziehung geschlossen und damit eine hohe Eintrittswahrscheinlichkeit der Prognose postuliert. Dann liegen vielleicht Koinzidenzen vor, aber keine Kausalitäten.28 Am bedeutendsten ist also der Korrelationskoeffizient, mit dem ausgedrückt wird, wie stark das Verhalten zweier Variablen voneinander abhängt. Er liegt zwischen ‒1 und 1 und je näher er an diesen Extremen ist, desto stärker ist die Abhängigkeit, also der Zusammenhang. Korrelationsmaße von mindestens 0,8 bzw. ‒0,8 gelten für Prognosen als hervorragende Indikatoren, 0,6 bzw. ‒0,6 noch als gut, bei Indikatoren mit einem Korrelationsmaß von 0,4 bzw. ‒0,4 oder schlechter kann davon ausgegangen werden, dass der Zusammenhang zwischen den Variablen nicht ausreicht, um alleine darauf eine Prognose abzustützen.29 Wenn eine Korrelation ermittelt wurde, lässt sich der Wert der Variablen A leicht ausrechnen:

Variable A = b + k ∗ Variable B b steht für den Level, k ist der Korrelationskoeffizient. Ein Beispiel: Es wird ermittelt, dass Haushalte unabhängig von ihrem Einkommen mindestens 50 € je Monat für Bier, Wein und Schnaps ausgeben. Doch je mehr sie verdienen, desto anspruchsvoller ist der Geschmack, desto teurer werden die gewählten Getränke und desto höher sind folglich die Ausgaben dafür. Die Formel beträgt auf Basis der Daten der Marktforschung: monatl. Ausgaben = 50 e + k ∗ (10% des Haushaltsnettoeinkommens) Abb. 8.23 zeigt das Ergebnis in grafischer Form: Eine lineare Korrelation ohne nennenswerte Komplexität. Ist nun die Entwicklung der Einkommen (kausaler Faktor) prognostizierbar, so werden auch die Ausgaben für geistige Getränke (Prognosewert, abhängige Variable) prognostizierbar sein.

28 Siehe

hierzu die Sammlung solcher Beispiele in Kühnapfel, 2019, S. 182 ff. 2005, S. 207.

29 Mertens,

8.4  Es geht immer noch komplizierter …

189

Abb. 8.23   Korrelationen zwischen abhängiger und unabhängiger Variable am Beispiel unbändiger Sauferei

Für diese Beziehung gibt es aber auch Grenzen. Zum einen gibt es statistische Ausreißer, etwa Abstinenzler oder Alkoholiker. Zum anderen gibt es Sättigungsgrenzen, die für Normalverbraucher gelten dürften. Zwar lassen sich Ausgaben für Spirituosen durch den Kauf exorbitant teurer Weine beliebig steigern, aber in der Regel wird bei einem bestimmten, sicherlich individuell unterschiedlichen, Betrag eine Grenze erreicht, die von den meisten nicht überschritten werden wird. Die multiple Regression Die multiple Regression arbeitet grundsätzlich nach genau dem gleichen Schema. Allerdings gibt es nun nicht mehr einen kausalen Faktor, sondern derer mehrere, mindestens jedoch zwei. Zum Netto-Einkommen kommt, um die Ausgaben für Spirituosen zu beschreiben, z. B. noch die Anzahl Familienmitglieder über 16 Jahre hinzu oder vielleicht auch das Körpergewicht des Haushaltsvorstands. Der erste Faktor könnte einen hohen Korrelationskoeffizienten aufweisen, der zweite möglicherweise einen niedrigeren. Wenn es gelingt, alle kausalen (exogenen) Variablen in eine Formel zu bringen, um die abhängige (endogene) Variable, also den zu prognostizierenden Wert auszurechnen, liegt ein Eingleichungsmodell vor. Das ist das Ziel, denn es ist einfach zu handhaben und die Justierung sowohl der absoluten Größen als auch der Korrelationskoeffizienten ist mittels Tabellenkalkulationsprogrammen einfach. Es lassen sich dann,

190

8  Prognosen für Statistiker …

wie es auch schon von den bisher beschriebenen quantitativen Verfahren bekannt ist, mehrere begründete Prognosemodelle ausrechnen und in einem kombinierten Forecast zusammenfassen. Doch kommt es in der Realität viel häufiger vor, dass Variablen miteinander in Beziehung stehen. So könnte es sein und es erscheint auch realistisch, dass die kausale Größe „Einkommen“ mit der Anzahl der Personen im Haushalt, die älter als 16 Jahre sind, steigt. Es gibt also nicht nur mehr Trinker, es gibt auch mehr Verdiener. Die zuvor isoliert in der einen Formel stehenden und mit einem Korrelationskoeffizienten parametrisierten Variablen müssen nun zunächst miteinander in eine mathematische Beziehung gebracht werden, bevor das daraus entstehende Ergebnis Bestandteil der zweiten, finalen Formel wird. Hier liegt nun ein Mehrgleichungsmodell vor.30 In solchen Mehrgleichungsmodellen sind die einfließenden Faktoren zu gewichten.31 Ist das Einkommen wichtiger als die Anzahl der Haushaltsmitglieder? Wie viel wichtiger? Gibt es keinen Anhaltspunkt für eine solche Gewichtung, reicht es zunächst aus, alle Faktoren für gleich wichtig zu halten und somit gleich zu gewichten. Erst im weiteren Prozess wird diese Gewichtung verfeinert und die Anzahl der Faktoren so verändert, dass die gewünschte Prognosequalität und Beachtung des erforderlichen Aufwands erreicht wird. In der betrieblichen Praxis zeigt sich nun oft, dass über die Gewichtung von Variablen sowie die Betrachtung von Wechselbeziehungen dieser kausaler Variablen hinaus einige Einflussfaktoren nicht in linearen und stetigen Gleichungen vom Muster „Je mehr … desto mehr/weniger“ ausgedrückt werden können. Vielmehr sind binäre Entscheidungen („Wenn … dann“) oder bedingte Verläufe („Je mehr … desto, aber nur falls …, sonst …) zu berücksichtigen. Solche Regressionsmodelle spiegeln die komplexe Realität besser wider als einfache Korrelationen, aber sie stellen an den Forecaster hohe Anforderungen hinsichtlich seiner mathematischen Kenntnisse. Tatsächlich spielen sie in der betrieblichen Realität der Vertriebsprognosen nur in sehr wenigen Branchen eine Rolle, etwa im Finanzdienstleistungssektor und hier speziell bei Versicherungen. Aus diesem Grund habe ich mich entschieden, die Methodik nicht im Detail zu erläutern und dieses spezieller Literatur zu überlassen.32 Autoregressive Modelle Seit der Einführung von Computern ist es auch möglich, weitaus komplexere, nichtlineare Modelle zu erstellen und zu berechnen (Monte-Carlo-Simulationen, Box-Jenkins,

30 Ausführlich

siehe Hüttner, 1986, S. 78 ff. gewisser Hinsicht ist die multiple Regression das Idealmodell einer quantitativen Prognose. Diese Meinung vertreten zumindest Dawes, 1979 und Dawes & Corrigan, 1974. Doch das unüberwindliche Problem ist stets die Frage, ob alle relevanten Faktoren bekannt sind. 32 So z. B. Ord & Fildes, 2013 und Mertens, 2005. 31 In

8.4  Es geht immer noch komplizierter …

191

ARIMA, multiple Regressionen usw.). Diese spielen für Vertriebsprognosen nur in sehr speziellen Fällen eine Rolle und bleiben darum in diesem Buch außen vor. Dennoch ist es von Nutzen, ihre Mechanik im Allgemeinen zu verstehen, denn zuweilen arbeitet Prognose-Software mit solchen Modellen. Die grundsätzliche Idee ist ein „System von voneinander wechselseitig abhängigen Regressionsgleichungen“33. Dabei werden die Gewichte der historischen Werte iterativ, also in Form von Berechnungsschleifen, adjustiert. Es entstehen autoregressive gleitende Durchschnitte. Errechnete Zeitreihen werden immer wieder hinsichtlich ihrer Prognosegenauigkeit getestet und verändert, so lange, bis ein akzeptables Ergebnis erzielt wird.34 Die bekanntesten Verfahren, die auf diesem Konzept basieren, sind die Box-JenkinsMethode (benannt nach den „Erfindern“) sowie die diversen ARMA-Modelle, etwa ARIMA oder ARMAX. Sie sind nützlich zur Behandlung komplizierter Zeitreihen und komplexer Datenverläufe.

33 Welge,

2012. hierzu Hansmann, 1983, S. 63 ff., Mertens, 2005, S. 208–209 und Makridakis, et al., 1980, S. 147 ff. 34 Vgl.

9

Prognosen als Managementtool: Der rollierende Forecast

Bei den bisherigen Methoden, sowohl dem naiven Forecast in all seinen Variationen, als auch bei den auf Zeitreihenanalysen basierenden Trendextrapolationen, war die Basis der Prognose stets eine wie auch immer bewerkstelligte Verarbeitung von Vergangenheitsdaten. Es wurde unterstellt, dass sich Muster, die sich zeigten, auch in der Zukunft zeigen werden. Im Mittelpunkt steht dabei das frühere Ergebnis verkäuferischer Aktivitäten, also der erzielte Umsatz, die abverkauften Stücke usw. Nun ändert sich – zumindest für dieses Kapitel – die Blickrichtung: Es werden die einzelnen sich im Prozess befindlichen Verkaufsaktivitäten selbst analysiert, die in der zu prognostizierenden Zukunft ein Ergebnis bringen sollen. Das setzt voraus, dass diese 1. bekannt sind, also aktive, vom Vertrieb ausgehende Aktivitäten stattfinden, 2. individuell betrachtet und benannt werden können, 3. in einer erfassbaren Menge vorliegen und 4. ihr Verlauf im Sinne eines Prozesses beobachtet werden kann. u

Der rollierende Forecast ist das Standardmodell für b2b-Geschäfte und kommt immer dann zum Einsatz, wenn es persönliche Kontakte zwischen Verkäufern und Interessenten (respektive Kunden) gibt.

Anders als alle anderen bisher beschriebenen Methoden kommt der rollierende Forecast ohne jegliche Vergangenheitswerte aus. Er ist keine Trendfortschreibung, sondern es erfolgt ausschließlich der Blick in die Zukunft. Somit eignet er sich auch für die Einführung neuer Produkte, • das Engagement auf neuen Märkten oder in • Start-up-Situationen. © Der/die Herausgeber bzw. der/die Autor(en), exklusiv lizenziert an Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2023 J. B. Kühnapfel, Vertriebsprognosen, https://doi.org/10.1007/978-3-658-42876-1_9

193

194

9  Prognosen als Managementtool: Der rollierende Forecast

Das heißt allerdings nicht, dass der Forecaster die Vergangenheit ausblendet. Er wird sie im Gegenteil nutzen, um die Qualität der Prognose ständig zu verbessern und um subjektive Einschätzungen der Verkäufer, die elementarer Bestandteil des rollierenden Forecasts sind, zu adjustieren. Nachfolgend wird zunächst das Grundmodell des rollierenden Forecasts beschrieben. Anschließend werden Optimierungsmöglichkeiten und Variationen dargestellt und letztendlich besondere Themenstellungen erörtert.

9.1 Das Grundmodell des rollierenden Forecasts Jede Verkaufsinstanz, in der Regel ein Verkäufer, oft aber auch eine Filiale oder eine Vertriebsniederlassung, dokumentiert die laufenden Verkaufsprojekte („Leads“, „Verkaufschancen“ o. ä.) unter Angabe diverser beschreibender Parameter (erwarteter Umsatz, Produkte usw.) und schätzt Datum und Chance des Auftragseingangs. Es entsteht eine Liste von laufenden Verkaufsprojekten, die zugleich für die Prognose als auch für das Management und sicherlich auch für die Kontrolle der Vertriebsinstanzen genutzt werden kann. Nicht zuletzt diese Zwitterfunktion als Prognose- und Management-Tool macht den rollierenden Forecast so beliebt. Erteilte Aufträge und Absagen von Kunden haben zur Folge, dass die Projekte von der Liste verschwinden. Die Notwendigkeit der Einschätzung der Auftragseingangswahrscheinlichkeit durch die Verkaufsinstanz (den Verkäufer) macht diese Methode zu einer expertengestützten Prognose. Sie ist auch den üblichen Gefahren von Wahrnehmungsverzerrungen (vgl. Abschn. 4.4) und interessengeleiteten Angaben (vgl. Abschn. 2.3) ausgesetzt. Aber es gibt keine Alternative: Nur der Verkäufer kennt die Kundenkontaktsituation, die er selbst gestaltet, und nur er kann die Erfolgschancen aufgrund des bisherigen Verlaufs des Kontaktes einschätzen. Auch werden je nach prozessualen Freiheitsgraden der Verkäufer die Situationen untereinander nur schwer zu vergleichen sein, sodass eine algorithmenbasierte Prognose daran scheitert, dass es keine einheitlichen Faktoren zur Messung und Bewertung des Fortschritts der Kundenkontaktsituationen gibt. Hierzu in Abschn. 9.1.3 mehr. Je nach Nutzung des rollierenden Forecasts werden nun von den Verkaufsinstanzen je Projekt Daten eingepflegt. Tab. 9.1 zeigt ein Beispiel für 15 ausgewählte Projekte von vier Verkäufern.1 Die Kunden tragen interne Kürzel, die Projekte sind nach Produkten benannt, die den Inhalt der Angebote ausmachen. Bemerkenswert und für die Interpretation und Optimierung des rollierenden Forecasts wichtig sind folgende Aspekte:

1 Ein

weiteres, umfangreich beschriebenes Beispiel findet sich in Kühnapfel, 2014b, S. 37 ff.

9.1  Das Grundmodell des rollierenden Forecasts

195

Tab. 9.1  Beispiel für einen rollierenden Forecast auf Basis der Einschätzung von Verkaufsinstanzen Forecast am 1. Juli 2024 Verkäufer Kunde Projekt

Auftragsdatum

Hr. Perl

12B

Sägen

Okt. 12

Hr. Perl

12B

Hämmer

Nov. 24

Hr. Perl

09F

Zangen

Hr. Perl

15C

Fr. Mut

Auftragswert

W´keit

Forecast-wert

10.500 €

10 %

1050 €

9700 €

25 %

2425 €

Feb. 25

12.900 €

50 %

6450 €

Zangen

Apr. 25

14.000 €

50 %

7000 €

39T

Zwingen

Apr. 25

7500 €

25 %

1875 €

Fr. Mut

39T

Zangen

Mrz. 25

8000 €

30 %

2400 €

Fr. Mut

39T

Sägen

Dez. 24

31.000 €

75 %

23.250 €

Fr. Mut

42H

Sägen

Mrz. 25

6000 €

10 %

600 €

Fr. Sieg

14Z

Sägen

Okt. 24

85.000 €

5 %

4250 €

Fr. Sieg

14Z

Hämmer

Jan. 25

14.000 €

25 %

3500 €

Fr. Sieg

92P

Zwingen

Mai. 25

19.000 €

60 %

11.400 €

Fr. Sieg

79Q

Feilen

Okt. 24

17.500 €

75 %

13.125 €

Hr. Mem

51T

Sägen

Nov. 24

4700 €

50 %

2350 €

Hr. Mem

52B

Feilen

Mrz. 25

5600 €

50 %

2800 €

Hr. Mem

59X

Feilen

Dez. 24

3800 €

50 %

1900 €

Zwischensumme Weitere …



249.200 € …





84.375 € …



• Die hier gezeigten 15 Projekte sind natürlich nur ein Auszug aus einem rollierenden Forecast. Eine Prognose auf Basis dieser wenigen Angebotssituationen wäre nicht belastbar, weil die Veränderung jedes einzelnen Projektes einen zu großen Einfluss auf das Gesamtergebnis hätte. • Schon diese „übersichtliche“ Liste zeigt, wie nützlich der rollierende Forecast als Management-Tool ist. Somit bietet sie sich als Managementtool auch dann an, wenn die Prognose als eigentlicher Hauptzweck nicht sinnvoll möglich ist. • Der Forecast hat keinen begrenzten Zeitraum. Er verlängert sich, wenn das nächste, noch weiter in die Zukunft reichendes Projekt aufgenommen wird. • Dementsprechend eignet sich der rollierende Forecast nur bedingt für eine periodengenaue Prognose. Lediglich für zeitnahe Perioden kann davon ausgegangen werden, dass alle Projekte erfasst sind. • Die Projekte werden nach Verkäufer, Kunde, Produkt, Auftragseingangszeitpunkt und Volumen differenziert. Aggregierte Angebote, die z. B. mehrere Produkte für einen

196

9  Prognosen als Managementtool: Der rollierende Forecast

Kunden enthalten, werden separiert. Nur so ist eine (später gezeigte) Auswertung möglich. • Das primäre Sortierkriterium hier ist der Verkäufer. Selbstverständlich könnte die Tabelle auch nach Auftragseingangszeitpunkt sortiert sein, wie unten noch gezeigt werden wird. • Die Auftragseingangswahrscheinlichkeit („W’keit“) ist so zu interpretieren, dass z. B. bei einem Wert von 25 % davon ausgegangen wird, dass von vier unter gleichen Bedingungen abgegebenen Angeboten eines angenommen werden würde. Diese Betrachtung ist natürlich grundsätzlich theoretisch, weil es niemals exakt gleiche Angebotsbedingungen geben wird.2 • Die Auftragswerte schwanken sehr stark. Große und kleine Aufträge werden gleichberechtigt geführt. In der Summenbildung werden die großen Auftragsvolumina, sofern sie mit einer hohen Auftragseingangswahrscheinlichkeit multipliziert werden, die Summe dominieren. • Die Summe der Forecast-Werte ist als Ergebnis des Forecasts umso belastbarer, je größer die Anzahl einbezogener Projekte ist. Jeder einzelne, projektspezifische Forecast-Wert ist ein errechneter Wert und kann so niemals vorkommen. • Das Auftragsdatum sollte keine Interpretationsspielräume zulassen. In einigen Branchen ist es üblich, mit Letters of Intent oder anderen Formen einer Zwischenbeauftragung zu arbeiten, sodass managementseitig zu definieren ist, wann ein Auftrag als erteilt gilt. Zuweilen ist dies auch relevant für die Zurechnung von Provisionen an den Verkäufer. Weitere Aspekte, die bei der Erstellung und Veränderung des Grundmodells des rollierenden Forecasts eine Rolle spielen, werden im Zusammenhang mit der Optimierung, also in Abschn. 9.1.3, diskutiert. Über diese Basisangaben hinaus kann der rollierende Forecast weitere projektspezifische Informationen erfassen. Da er außer als Prognoseinstrument auch als Management-Tool genutzt wird, unterliegen Vertriebsmanager oftmals der Versuchung, zahlreiche weitere Informationen über das betreffende Projekt abzurufen, etwa den nächsten Kundenkontakttermin, die nächste anstehende Aktion, den vermuteten Stand im Entscheidungsprozess des Kunden oder die Aktivitäten der Wettbewerber. Dagegen ist grundsätzlich nichts einzuwenden, allerdings besteht die Gefahr, dass Verkäufer den Fokus verlieren. Die Praxis lehrt:

2  Sie

ist ebenso theoretisch wie die Angabe von Regenwahrscheinlichkeiten, denn auch diese drücken aus, dass es in x % aller Fälle, in denen die exakt gleiche bekannte Konstellation von wetterbeeinflussenden Parametern gibt, zu Regen kommen wird. Das heißt nichts anderes, als das noch weitere, unbekannte Parameter eine Rolle spielen, ebenso, wie in einer Verkaufssituation, in der die Angebote der Wettbewerber oder Entscheidungsabläufe beim Kunden mehr oder weniger unbekannt und damit als Parameter nicht einschätzbar sind.

9.1  Das Grundmodell des rollierenden Forecasts

u

197

Je mehr der rollierende Forecast als Instrument des Berichtswesens für Verkaufsaktivitäten genutzt wird, desto oberflächlicher geraten die Schätzungen für Auftragseingangszeitpunkt und Auftragseingangswahrscheinlichkeit, weil sie dann nicht mehr im Fokus stehen.

Nachdem der rollierende Forecast erstmalig erstellt ist, muss er – sonst wäre er nicht „rollierend“ – ständig den aktuellen Verhältnissen angepasst werden. Dies wird in Abschn. 9.1.1 als Erstes erläutert, bevor in Abschn. 9.1.2 gezeigt wird, wie der rollierende Forecast als Grundlage für bereichsspezifische Planungen genutzt werden kann.

9.1.1 Aktualisierung des rollierenden Forecasts Wann wird aktualisiert? In der Praxis hat sich durchgesetzt, dass Zeitpunkte vorgegeben werden, zu denen jede Verkaufsinstanz seine Einträge in der Forecast-Liste zu aktualisieren hat. Dies kann z. B. ein Freitagnachmittag oder ein Monatsultimo sein. Das alternative Modell, darauf zu vertrauen, dass Verkäufer ihre Datensätze permanent pflegen, also immer dann, wenn sich eine Veränderung in einer Verkaufssituation ergeben hat, diese auch zu dokumentieren, hat sich nicht bewährt. Es ist leicht nachvollziehbar, dass in der Alltagswirklichkeit von Verkäufern oder, etwas allgemeiner, von Verkaufsinstanzen, die Verkaufssituationen und damit die Interessenten selbst eine größere Bedeutung haben als ein Datensatz, der nur ein virtuelles Abbild der Situation ist. Das ist gut so, aber aus Sicht des Forecasters und des Managers eine immanente Ursache für unbefriedigende Daten. u

Es empfiehlt sich, Verkaufsinstanzen, und hier insbesondere Verkäufern, verbindliche Stichtage vorzugeben, zu denen die laufenden Verkaufsprojekte in der Forecast-Liste einzupflegen bzw. zu aktualisieren sind. Klare Regeln haben sich als nützlicher erwiesen als die Hoffnung auf Einsicht.

Wie wird aktualisiert? Nachdem die Veränderungszyklen definiert und organisatorisch durchgesetzt sind, ist die Frage, wie die Veränderungen auszuführen sind. Das klassische Instrument für die Pflege eines rollierenden Forecasts ist MS Excel oder ein anderes Tabellenkalkulationsprogramm, das die Möglichkeit der quantitativen Auswertung der Daten und gleichzeitig ausreichend umfangreiche Textbearbeitungsfunktionen bietet. Doch wie ist das zu organisieren? Soll jede Verkaufsinstanz, z. B. jeder Filialleiter oder jeder Verkäufer, auf eine einzige Datei zugreifen? Das ist natürlich weder sinnvoll noch möglich, vor allem dann nicht, wenn kurz vor Erreichen der „Deadline“ dutzende Verkäufer ihre Daten aktualisieren möchten. Eine denkbare Alternative wäre, die „führende Datei“ des rollierenden Forecasts von einem Assistenten bzw. dem Vertriebscontrolling pflegen zu

198

9  Prognosen als Managementtool: Der rollierende Forecast

lassen. Die Verkäufer füllen Fragebögen aus oder melden Statusveränderungen in einer für sie bequemen Form, aber pflegen diese nicht selbst in die Datei ein.3 Ich empfehle dies nicht, denn es entfremdet Verkäufer von ihrer Verantwortung, das Tool zu pflegen und macht geringfügige Statusänderungen aufwendig, sodass die Gefahr droht, dass die einzelnen Projekte nicht ausreichend genau dokumentiert werden. Bewährt hat sich das System der „individuellen Sichten“. Jeder Verkaufsinstanz wird eine Arbeitsmappe, also eine individuelle Tabelle zugewiesen, die nur er sowie der Vertriebscontroller, Forecaster oder Assistent verändern darf. Diese vielleicht sehr zahlreichen individuellen Tabellen werden zu einer Gesamtliste aggregiert, sinnvollerweise dadurch, dass verkaufsinstanzenspezifische Summen automatisch übernommen werden. Sicherlich wird eine solche Arbeitsmappe schnell sehr mächtig und es bedarf einiger Anwenderkenntnisse, um sie zu erstellen. Aber der Aufwand lohnt sich zweifellos. Regeln Einige Regeln sind für den täglichen Umgang mit diesem Tool unerlässlich: • Erteilte Aufträge fallen aus dem Forecast heraus und werden nicht weiter geführt, auch nicht z. B. zu Dokumentationszwecken. • Es ist eine Aktion im Rahmen des Verkaufsprozesses zu definieren, ab wann ein neues Projekt aufgenommen wird, z. B. eine Angebotsaufforderung oder die Abgabe eines Angebots. • Veränderungen in bestehenden Einträgen sind zu kennzeichnen, um sie schnell erkennen zu können. Diese Kennzeichnung ist nach dem nächsten ManagementReview zu löschen. Kennzeichnungen können weitere Informationen beinhalten, etwa eine grüne Markierung bei einer Verbesserung der Situation und eine rote für eine Verschlechterung. Ferner ist sinnvoll, z. B. in einer Kommentarspalte den veränderten ursprünglichen Wert festzuhalten, um dem Manager die Arbeit zu ersparen, dies in der älteren Datei nachzulesen. Zuletzt der vielleicht am häufigsten vernachlässigte und doch sehr wichtige Aspekt: u

Um die Prognosequalität der Verkäufer zu messen, ist zwingend erforderlich, dass die Forecast-Liste zu jedem Änderungszeitpunkt, also z. B. wöchentlich oder monatlich, gespeichert wird.

Nur so lässt sich zu einem späteren Zeitpunkt rückblickend nachrechnen, wie präzise die Schätzungen einmal waren. Häufig wird hier, selbst in großen Unternehmen mit erfahrenen Controllern und Vertriebsmanagern, der Fehler gemacht, dass eine einzige Master-Datei zwar ständig gepflegt und aktualisiert wird, hierdurch aber die jeweils

3 Ein

Praxisbeispiel, das dieses Verfahren nutzt, ist bspw. beschrieben in Erichsen, 2005.

9.1  Das Grundmodell des rollierenden Forecasts

199

Forecast von Herrn Perl

Abb. 9.1   Verkäuferspezifische Auswertung des rollierenden Forecasts

älteren Daten (Einschätzungen) überschrieben werden und somit für eine spätere Qualitätskontrolle verloren gehen. Damit ist dem Forecaster das wichtigste Instrument für eine Verbesserung des Forecasts genommen und die Prognosequalität wird nicht optimiert (vgl. hierzu Abschn. 3.6).4

9.1.2 Nutzung des rollierenden Forecasts als bereichsspezifische Planungsgrundlage Der in Tab. 9.1 auszugsweise dargestellte Forecast erlaubt nun (wie bereits angedeutet) weitere Auswertemöglichkeiten. So kann je nach Informationsbedarf eine Sortierung nach Verkäufern, Kunden, Produkten, Auftragseingangszeitpunkten, Auftragseingangswahrscheinlichkeiten und nach weiteren Kriterien, welche die Liste enthalten könnte, vorgenommen werden. Auch sind Informationsverdichtungen möglich. Typisch sind für die Zwecke der Vertriebssteuerung: • verkäuferspezifische Auswertungen (Abb. 9.1) • kundenspezifische Auswertungen (Abb. 9.2) • Auftragseingangswahrscheinlichkeitenspezifische Auswertung (Abb. 9.3) Andere betriebliche Funktionsbereiche werden einen anderen Blick auf den Forecast haben. So wird sich das Controlling und letztlich das Cash-Management sowohl für den erwarteten Auftragseingangszeitpunkt interessieren, aber auch die monatlichen maximalen Auftragswerte kennen wollen, um die Bandbreite der Aufgabenstellung für die finanzielle Führung zu kennen (Abb. 9.4). 4 Ehrmann

& Kühnapfel, 2012.

200

9  Prognosen als Managementtool: Der rollierende Forecast

Forecast je Kunde

Abb. 9.2   Kundenspezifische Auswertung des rollierenden Forecasts

Forecast nach Wahrscheinlichkeit

Abb. 9.3   Auswertung des rollierenden Forecasts nach Auftragseingangswahrscheinlichkeiten

Die Produktionsbereiche, aber auch die Beschaffung und die Logistik, werden sich für die produktspezifischen Auswertungen interessieren, umso mehr, je komplexer oder kostenintensiver die Anpassung der Produktionskapazitäten an den Auftragsbestand ist (Abb. 9.5 und 9.6).

9.1.3 Immanente Nachteile des rollierenden Forecasts Der rollierende Forecast weist fünf Problemzonen auf, die entweder in Kauf genommen oder durch Optimierungsmaßnahmen kompensiert werden müssen:

9.1  Das Grundmodell des rollierenden Forecasts

201

Abb. 9.4   Vergleich von Auftrags- und mit der Auftragseingangswahrscheinlichkeit gewichteten Forecast-Werten

Abb. 9.5   Forecast je Produkt bzw. Projektart nach Auftragseingangszeitpunkt

202

9  Prognosen als Managementtool: Der rollierende Forecast

Abb. 9.6   Forecast je Produkt bzw. je Projektart

1. Verzerrungen im Prognoseergebnis durch Fehleinschätzungen der Verkaufsinstanzen 2. Behandlung außergewöhnlicher Projekte 3. Keine Berücksichtigung von Teamarbeit 4. Zersplitterung von kombinierten Aufträgen 5. Rollierender Forecast ≠ periodengenaue Prognose Ad 1: Verzerrungen des Prognoseergebnisses durch Fehleinschätzungen der Verkaufsinstanzen Das ist das Kernproblem aller rollierenden Forecasts und Hauptursache für mangelnde Präzision! Verkäufer sind per se, und dies lehrt die Erfahrung, keine guten Prognostiker und das müssen sie auch nicht sein. In Abschn. 9.2 wird erläutert, wie diesem Problem abgeholfen werden kann. Ad 2: Behandlung außergewöhnlicher Projekte Großprojekte verzerren das Ergebnis, vor allem, wenn die Auftragserteilung für wahrscheinlich gehalten wird. Dann ist ihr relativer und absoluter Beitrag zum Forecast-Wert derart dominant, dass kleinere Projekte irrelevant werden. Um dies zu verhindern, wird häufig der Erwartungswert, also die Auftragseingangswahrscheinlichkeit, auf einen Marginalwert, z. B. 0,1 %, heruntergesetzt. In der berechneten Summe des ForecastWertes ist der Beitrag dieses Großprojektes dann wieder gering genug, um die Prognose nicht zu verzerren. Aber aus Sicht der Gesamtorganisation ist das keine gute Lösung: Kommt der Auftrag, kann es zu Bereitstellungsengpässen kommen, weil nun eine erheblich größere, nicht prognostizierte Menge von was auch immer geliefert werden muss. Wird aber

9.1  Das Grundmodell des rollierenden Forecasts

203

andererseits die Auftragserteilungswahrscheinlichkeit des Großauftrags realistisch kalkuliert und werden dementsprechend Ressourcen bereitgestellt, wären diese, wenn der Auftrag nicht kommt, überflüssig. Das Dilemma ist klar: Egal, wie ein außergewöhnlicher Großauftrag in die Prognose einfließt, in jedem Fall wird das Ergebnis verzerrt und die Ressourcenplanung auf Basis dieser Prognose wird zum Glückspiel. Die Lösung ist letztlich, dass Großprojekte dieser Art überhaupt nicht quantitativ in den rollierenden Forecast einfließen. Bewährt hat sich, sie 1. lediglich als „Erinnerungsposten“ zu führen (z. B. Wahrscheinlichkeit = 0 %) und sie 2. separat in einer Ergänzung zur Prognose möglichst realistisch zu bewerten. Diese zweite Bewertung der Erfolgschance entsteht im Dialog zwischen der Verkaufsinstanz (dem Verkäufer) und dem Management, das letztlich die Entscheidung treffen muss, ob und wenn ja in welchem Maße Ressourcen reserviert, angefordert oder vorgehalten werden. Aufgabe des Forecasters ist es jetzt nur noch, einen Schwellwert zu finden, ab wann ein Großprojekt separat bewertet und ausgewiesen werden sollte. Sinnvoll ist, einen solchen Schwellwert für das Auftragsvolumen zu definieren. Wenn dieses z. B. 10 % der Summe aller Auftragsvolumina ausmacht, ist das Projekt separat auszuweisen. Abhängig ist die Höhe des Schwellwertes von der Flexibilität der Produktion. Eine Unternehmensberatung, deren Produktionsressourcen die Berater sind, oder ein Winzer, der seine Produktion über eine Maximalmenge hinaus nicht steigern kann, werden niedrigere Schwellwerte definieren als beispielsweise ein Handelsunternehmen, das Lastspitzen über Mehrbestellungen ausgleichen kann und dessen Maximalauslastung zeitnah durch das Anmieten weiterer Logistikkapazitäten erhöht werden kann. Ad 3: Keine Berücksichtigung von Teamarbeit Da der rollierende Forecast immer auch ein Management-Tool ist, das zur Steuerung der Vertriebsinstanzen genutzt wird, ist eine Zuweisung von Projekten zu Verkäufern üblich. Werden Interessentenkontaktsituationen nun aber teamorientiert gestaltet, ist es nicht mehr möglich, eine Auswertung nach personenindividuellen Forecasts zu machen, ohne die Zuarbeit anderer Verkäufer außer Acht zu lassen. Somit werden Altruismus und die Bereitschaft, Kollegen zu helfen, nicht belohnt. Es muss aber dringend von dem Versuch abgeraten werden, die eindeutige 1:n-Beziehung von Projekten (1 Verkäufer → n Projekte) zugunsten einer pro-rata-Verteilung aufzugeben. Der disziplinierende Effekt der eindeutigen Verantwortlichkeit ist zweifelsfrei größer als eine wie auch immer versuchte Gerechtigkeit, um Zuarbeiten und somit vielleicht auch Ansprüche an Provisionen auszudrücken. u

Der rollierende Forecast ist ein Management-Tool, aber ihn nun auch zu einem Instrument für die Berechnung von Provisionen zu machen, würde ihn überfordern.

204

9  Prognosen als Managementtool: Der rollierende Forecast

Möglich ist allerdings, neben Individuen auch Verkaufsteams als Verkaufsinstanzen zu führen, und letztlich ist eine Filiale oder eine Vertriebsniederlassung nichts anderes. Ad 4: Zersplitterung kombinierter Aufträge Neben der Eindeutigkeit hinsichtlich des Verantwortlichen für die Interessentenkontaktsituation sollte der rollierende Forecast auch eindeutig hinsichtlich der Projekt- oder Produktart sein. Maßstab ist, dass der Forecast für die Produktionsbereiche Planungsgrundlage sein kann, und das wird er in der Regel nur errechnet, wenn er ausweist, welche Produkte verkauft werden. Um diesem Anspruch gerecht zu werden, kann es sinnvoll sein, die einzelnen Verkaufsprojekte zu untergliedern. Aus einem Projekt werden dann vielleicht zwei, drei oder mehr, deren Zusammengehörigkeit ggf. markiert werden sollte. Paketpreise im Angebot, die im rollierenden Forecast zu Auftragswerten werden, sind pro rata aufzuteilen. Ad 5: Rollierender Forecast ≠ periodengenau Prognose In der einleitenden Auflistung der wichtigsten Aspekte für die Interpretation (und Optimierung) des rollierenden Forecasts wurde bereits darauf verwiesen, dass durch dessen Konstruktion grundsätzlich keine periodengenaue Prognose garantiert werden kann. Immer ist es möglich, dass Kunden Aufträge erteilen, die nicht im Forecast aufgeführt waren, weil sie nicht durch Verkaufsaktivitäten initiiert wurden. Insofern reicht ein rollierender Forecast als Planungsgrundlage nicht aus, sondern ist – wie alle anderen hier vorgestellten Methoden auch – lediglich ein Teil des kombinierten Forecasts. Bewährt hat sich die Kombination mit top-down-Modellen, etwa Marktanteilsanalysen, sowie mit Extrapolationen von historischen Zeitreihen, sofern solche vorliegen. u

Je länger ein rollierender Forecast in die Zukunft reicht, desto unvollständiger werden die Auftragseingänge aufgeführt sein. Somit ist ein rollierender Forecast immer durch andere Prognoseverfahren zu ergänzen, wenn eine periodengenaue Prognose erstellt werden soll.

9.2 Optimierung des Grundmodells des rollierenden Forecasts Um einen rollierenden Forecast zu optimieren, kann der Prognoseersteller 1. die Methode verfeinern und 2. versuchen, die Inputdaten zu verbessern. In der betrieblichen Praxis werden sich diese zwei Themenstellungen nicht voneinander trennen lassen. Methodische Veränderungen werden zudem vorgenommen, um den rollierenden Forecast als Management-Tool zu optimieren. Dagegen ist nichts

9.2  Optimierung des Grundmodells des rollierenden Forecasts

205

e­ inzuwenden, sofern die ursprüngliche Zielsetzung (Prognose) nicht „verwässert“ wird. Und stets wird es bei der Optimierung darum gehen, die zugelieferten Schätzdaten der Verkaufsinstanzen zu adjustieren. Bleiben wir bei der für die Zwecke der Vertriebsprognose wichtigen Aufgabe, der Verbesserung der Inputdaten. Für diese gibt es zwei Möglichkeiten: 1. Adjustierung der von den Verkaufsinstanzen zugelieferten Daten durch den Forecaster. 2. Schulung der Verkaufsinstanzen, damit diese verlässlichere Daten, also realistischere Einschätzungen der Zukunft, zuliefern. Die erste Möglichkeit sieht einfacher aus: Jeder Verkäufer schätzt nach bestem Wissen und Gewissen und der Forecaster bereitet die zugelieferten Rohdaten so auf, dass sie der erwarteten Zukunft nahekommen. Hingegen erscheint die zweite Möglichkeit schwierig, weil es kaum möglich sein dürfte, dauerhaft alle einschätzungsdominierenden Verzerrungen und Interessen auszuschließen. Eine Schulung, die Erfahrungen sind hier eindeutig, hilft nur kurzfristig, denn schon nach ein paar Wochen werden wieder die alten Heuristiken angewendet. Tatsächlich ist der Optimierungsprozess eine Mischung aus beiden Ansätzen. u

Ausgangspunkt ist die Einsicht, dass insbesondere Verkäufer ein anderes Selbstverständnis haben als Controller und das Ausfüllen von Excel-Listen als lästig und insgeheim überflüssig empfinden, denn ihre Siege und Erfolge werden nicht am Computer, sondern beim Kunden errungen.

Also werden sie wenig Liebe und Aufmerksamkeit in die Lieferung von Inputdaten für Prognosen investieren. Mehr noch: Da der rollierende Forecast als Management-Tool ihre Arbeit nachvollziehbar macht und jedes dokumentierte Projekt, vollkommen gleich, mit welcher Wahrscheinlichkeit der Auftragseingang bewertet wird, aus ihrer Sicht eine Verpflichtung gegenüber dem Vertriebsleiter darstellt, werden sie interessengeleitet bewerten. Die meisten Verkäufer neigen zu • Übertreibungen beim Auftragsvolumen, denn das wertet ihre Projekte auf, • Untertreibungen in der Auftragseingangswahrscheinlichkeit, denn das reduziert die Verpflichtung und das Risiko, zu enttäuschen, und einer • zu optimistischen Einschätzung hinsichtlich des Zeitpunkts der Auftragsvergabe. Leider ist dieses Grundmuster zwar typisch, aber innerhalb einer Gruppe von Verkäufern zeigt sich eine sehr breite Streuung von Charakteren. Es wird sich neben diesem Muster auch eines von Typen zeigen, die extrem progressiv schätzen und davon überzeugt sind, nahezu jedes Projekt „zu holen“. Interessenterweise lassen sich diese Charaktere auch durch die natürlicherweise sich einstellenden Misserfolge nicht von

206

9  Prognosen als Managementtool: Der rollierende Forecast

ihrer ­Grundorientierung abbringen und glauben auch weiterhin an ihren Erfolg, lernen also nicht aus ihren Fehleinschätzungen.5 Was kann ein Forecaster also tun? Er wird einen zweistufigen Selbstregulierungsmechanismus aufbauen. Auf der ersten Stufe wird die Einschätzung jeder Zahl eines jeden Verkäufers mit einem Basislevel, quasi einem gruppen- oder marktspezifischen Durchschnittswert, verglichen. Dies ist in Abschn. 9.2.1 erläutert. Auf der zweiten Stufe erfolgt die Spiegelung an der individuellen Performance, also dem individuellen Basislevel. u

Die Reflexion individueller Einschätzungen am markt-, gruppen- und personenspezifischen Basislevel diszipliniert und zwingt, sich selbst, dem Management und dem Forecaster Ausreißer zu begründen. Das Ergebnis ist die gewünschte Regression zum Mittelwert.

Diese Regression zum Mittelwert (engl.: Regression to the mean) ist ein wesentlicher Effekt: Ist eine statistische Grundgesamtheit ausreichend groß, kann ein Mittelwert errechnet werden. Bei 15 Verkaufsprojekten ist das sicherlich noch nicht möglich, aber bei 50, 100 oder mehr Projekten, die entweder parallel existieren oder die im Zeitverlauf „erlebt“ werden, bilden sich Mittelwerte für alle Schätzparameter heraus, hier insbesondere für die Abschlusswahrscheinlichkeit und die Akquisitionsdauer. Solche Erfahrungswerte sind Gold wert: Wenn zu einem bestimmten Zeitpunkt ein rollierender Forecast eine gewichtete Auftragseingangswahrscheinlichkeit aufweist (z.  B. 48 %), die signifikant vom Mittelwert abweicht (z. B. 25 %), so weist diese auf eine zu optimistische Stimmung im Lager der Verkäufer hin. Finden sich keine objektiven Gründe, die eine solche positive Einschätzung der Verkaufssituationen legitimieren, kann und sollte der Forecaster eine Adjustierung der Einschätzungen vornehmen. Aber dazu gleich mehr.

9.2.1 Adjustierung mithilfe des Basislevels Ein zentraler Begriff für die Optimierung des rollierenden Forecasts ist der Basislevel, der zuweilen auch Basisrate genannt wird. Hierunter ist eine statistische Größe zu verstehen, und zwar nichts anderes als der statistische Mittelwert einer zu schätzenden Größe.

5 Diese

Unfähigkeit, zu lernen und das eigene Schätzverhalten infrage zu stellen, haben wir auch schon weiter vorne bei Experten wie CFOs, Weingroßhändlern und Ärzten kennen gelernt. Es ist definitiv keine Fragen des Intellekts oder der fachspezifischen Bildung, wenn sich Experten durch mangelnde Selbstreflexion auszeichnen, sondern hier sind tiefenpsychologische Prozesse im Gange, die wir nur schwer erklären können. Der Prognoseersteller kann hier nur eines tun: Im Bewusstsein dieser Wirkungsmechanismen muss er die Forecast-Methode adaptieren.

9.2  Optimierung des Grundmodells des rollierenden Forecasts

207

Ein Beispiel: Es werden die Abschlussnoten von Hochschulabsolventen der Studiengänge Biologie und Jura verglichen. Der frisch examinierte Biologe glänzt mit einer 2,0, der Jurist erreicht nur eine 2,9. Tatsächlich aber ist ein wertender Vergleich der Studienleistungen nur möglich, wenn die Notendurchschnitte der Studiengänge als Basislevel mit berücksichtigt werden. Hier gilt: Im Studienfach Biologie erreichen 98 % der Absolventen die Note sehr gut oder gut, im Fach Jura nur 7 %.6 Der Jurist hat also relativ besser abgeschnitten als der Biologe. Für die Bewertung eines Ergebnisses ist es also hilfreich, wenn nicht gar grundsätzliche Voraussetzung, den relativen Durchschnitt – also den Basislevel – zu kennen. 120 km/h kann rasant sein, wenn im Schnitt alle anderen nur 50 km/h fahren, oder arg langsam, wenn die Durchschnittsgeschwindigkeit bei vielleicht 160 km/h liegt. Dennoch wird dem Basislevel in der betrieblichen Praxis oft keine Beachtung geschenkt, weil die grundsätzliche Vermutung besteht, dass solche allgemeinen statistischen Basisraten für eine Prognosesituation irrelevant sind, wenn konkrete Einzelfallinformationen zur Verfügung stehen. Aber das ist ganz offensichtlich ein Irrglaube. u

Insbesondere dann, wenn Prognosen auf Basis von Einzelfallinformationen erstellt werden, sind Basisraten unverzichtbarer für die Prüfung intuitiver Einschätzungen.

Denn es gilt der Grundsatz: u

Wenn es keine besseren oder verlässlicheren Informationen gibt, ist der Basislevel der zu nutzende Standardwert.

Nun sind zwei Grundtypen von Basislevels zu unterscheiden: 1. Basislevel auf Basis von Anteilsberechnungen 2. Basislevel auf Basis von Erfahrungswerten Ad 1: Basislevel auf Basis von Anteilsberechnungen Eine wertvolle Hilfe für die Bewertung von Vertriebsprognosen ist es, wenn der Marktanteil und das zu realisierende Marktvolumen des eigenen Unternehmens in einem definierten Markt bekannt sind oder zumindest hinreichend zuverlässig geschätzt werden können. Das muss keine präzise Prognose sein, ein ungefährer Wert reicht aus. Wenn dann noch die prozentuale Verteilung dieser Umsätze über die 12 Monate eines Jahres bekannt ist, z. B. aus den Vorjahren, dann ist auch möglich, einen vermutlichen monatlichen Auftragseingang als Basislevel zu berechnen. Das ist, dies sei deutlich gesagt, keine Prognose, es ist lediglich ein Hilfsmittel zur Bewertung einer Vertriebsprognose. Tab. 9.2 zeigt ein Beispiel, Abb. 9.7 veranschaulicht die monatliche Abweichung.

6 O.v.,

2012.

208

9  Prognosen als Managementtool: Der rollierende Forecast

Tab. 9.2  Forecast-Wert im Vergleich zum Basislevel Monat

Monatlicher Umsatzanteil, Ø der Vorjahre

Basislevel

Forecast-Wert

Prozentuale Abweichung

Gesamtumsatz des Marktes laut Branchenreport: 120 M€ Geschätzter Marktanteil des eigenen Unternehmens: 3,5 % Berechneter Umsatz des eigenen Unternehmens: 4,2 M€ Jan

6,4 %

270.386 €

290.000 €

6,8 %

Feb

6,0 %

252.361 €

310.000 €

18,6 %

Mrz

7,3 %

306.438 €

275.000 €

11,4 %

Apr

9,9 %

414.592 €

375.000 €

10,6 %

Mai

8,6 %

360.515 €

310.000 €

16,3 %

Jun

7,3 %

306.438 €

300.000 €

2,1 %

Jul

6,4 %

270.386 €

290.000 €

6,8 %

Aug

5,6 %

234.335 €

300.000 €

21,9 %

Sep

6,4 %

270.386 €

320.000 €

15,5 %

Okt

9,0 %

378.541 €

450.000 €

15,9 %

Nov

12,4 %

522.747 €

420.000 €

24,5 %

Dez

14,6 %

612.876 €

450.000 €

36,2 %

Summe

100,0 %

4.200.000 €

4.090.000 €

MAPE

15,5 %

Abb. 9.7   Monatliche absolute Abweichung des Forecast-Wertes vom Basislevel

9.2  Optimierung des Grundmodells des rollierenden Forecasts

209

Die durchschnittliche absolute prozentuale Abweichung des Forecast-Wertes vom Basislevel von 15,5 % deutet schon darauf hin, dass die Prognose zu überdenken ist. Aber die Analyse der jeweiligen monatlichen absoluten Abweichungen, die Abb. 9.7 zeigt, verdeutlicht noch mehr: Die Schätzfehler (in Relation zum Basislevel) sind nachgerade chaotisch verteilt. Doch die Analyse ist hier noch nicht fertig, denn es ist wie beim Beispiel mit den Absolventen der Studiengänge Biologie und Jura zu prüfen, wie der MAPE der Auftragseingänge von den Basislevels in den Vorjahren war. Möglicherweise lagen ähnliche signifikante monatliche Schwankungen vor, die sich im langjährigen Durchschnitt jedoch ausglichen. Vielleicht ist der MAPE von 15,5 % ein typischer Wert, eben weil das Geschäft volatil ist? Ein ergänzender Ansatz ist, den Basislevel unternehmensintern festzulegen. Wenn sich z. B. bisher zeigte, dass vier Vertriebsdirektionen jeweils 25 % zum Gesamtumsatz beitrugen, so wird auch der Basislevel jeder einzelnen Vertriebsdirektion 25 % des Gesamt-Forecasts betragen. Ausreißer von diesen Anteilen sind zu analysieren.7 Auch hier kann der MAPE als Maßstab dafür dienen, ab wann eine Adjustierung oder eine Überarbeitung des Forecasts angezeigt ist. Ad 2: Basislevel auf Basis von Erfahrungswerten Erfahrungswerte spielten auch schon bei der zuvor beschriebenen Methode, Basislevels auf Basis von Anteilen zu berechnen, eine Rolle, denn ohne Erfahrungswerte kann dies nicht geschehen. Liegen jedoch mehr Erfahrungswerte in Form ehemaliger Prognosen und vor allem den dann sich einstellenden realen Ergebnissen vor, so baut sich ein wertvoller Schatz für den Forecaster auf, um rollierende Forecasts zu verbessern. Voraussetzung ist aber, Periode für Periode und Aktualisierung für Aktualisierung den Stand des rollierenden Forecasts sowie die späteren realen Werte zu speichern. Überprüft werden können dann 1. die Entwicklung der Auftragseingangswahrscheinlichkeiten, die zum Auftragseingangszeitpunkt hin steigen müssten, um schließlich 100 % (Zusage) oder 0 % (Absage) anzunehmen, 2. die Zeitpunkte der Auftragseingänge, die sich möglichst nicht von den prognostizierten Zeitpunkten unterscheiden sollten, sowie 3. die Auftragsvolumina, die sich ebenfalls nicht von den prognostizierten Werten unterscheiden sollten, denn sie waren Vertragsgegenstand, 4. eventuelle Veränderungen in den Produktzusammensetzungen. Für die Fälle 2 und 3 kann der MAPE errechnet werden. Interessant dürfte dabei sein, wie sich der MAPE in Abhängigkeit zur zeitlichen Nähe der Auftragsvergabe verändert,

7  Der Hinweis ist angebracht, dass dadurch nicht verhindert werden kann, dass alle vier Vertriebsdirektionen anteilig gleich zu optimistisch oder zu pessimistisch prognostizieren. Um dies auszuschließen, bedarf es einer Kombination beider hier beschriebenen Methoden.

210

9  Prognosen als Managementtool: Der rollierende Forecast

denn je näher der Auftragsvergabezeitpunkt rückt, desto geringer müsste dieser Wert werden. MAPE und Auftragseingangswahrscheinlichkeit sollten also gegenläufig sein, alles andere wäre verwunderlich. Neben dem Basislevel für Erfahrungswerte, die den rollierenden Forecast insgesamt betreffen, spielen des Weiteren Basislevel für Erfahrungswerte auf verkaufsinstanzenindividueller Ebene eine große Rolle. Für jede Verkaufsinstanz ist ein Basislevel zu berechnen, der folgende Frage beantwortet: Welche durchschnittliche gewichtete Auftragseingangswahrscheinlichkeit haben Verkaufsprojekte von Verkäufer A?

Gewichtet werden die Wahrscheinlichkeiten mit dem Auftragswert, also dem Umsatzvolumen laut Angebot. So ergibt sich eine gewichtete Erfolgsquote als Basislevel, anhand derer die Schätzqualität jedes einzelnen Verkäufers überprüft werden kann. Diese Schätzqualität ist allerdings kein absoluter Maßstab (Biologie vs. Jura!), sondern allein die Messlatte für den Verkäufer selbst. Denn je nach Charaktertyp gibt es solche, die Angebote zu einem frühen Zeitpunkt ausreichen und die naturgemäß geringe Abschlussquoten haben und solche, die Angebote erst nach langer Vorarbeit unterbreiten und bei denen die Abschlussquote höher ist. Bei beiden Typen kann der Auftragseingang je Periode aber gleich sein. Dennoch werden sich die Basislevels unterscheiden. Diese Unterscheidung von Charaktertypen kann zudem genutzt werden: Wenn eine verkäuferspezifische Berechnung der Basislevels nicht sinnvoll erscheint, können Cluster von Charaktertypen definiert und die Verkäufer diesen zugeteilt werden. Ziel ist aber immer, einen Basislevel für die Einschätzung von Abschlusswahrscheinlichkeiten zu ermitteln, um die aktuelle Prognose einschätzen zu können. u Der verkaufsinstanzen- bzw. typenclusterindividuelle Basislevel dient dazu,

je Periode zu überprüfen, ob die durchschnittliche gewichtete Schätzung der Abschlusswahrscheinlichkeiten in einem üblichen Rahmen liegt. Ausreißer hiervon deuten entweder auf eine interessengeleitete Prognose oder auf eine untypische Verteilung von Verkaufsprojekten hin, z. B., wenn sich diese in einem sehr frühen oder einem sehr späten Stadium befinden. Zu erwähnen ist hier noch, dass diese Betrachtung nur funktioniert, wenn die Verkaufsinstanz, deren individueller Basislevel beobachtet wird, eine ausreichend große Anzahl von Projekten verfolgt. Liegt diese unter vielleicht 200, so ist die statistische Volatilität zu groß und damit der Vergleich von Werten mit dem Basislevel durch zu starke Schwankungen nicht aussagekräftig genug. Beispiele für Basislevels In b2b-Vertrieben werden zahlreiche Varianten des Basislevels genutzt. Die Idee ist regelmäßig, einen Richtwert zu haben, der zum einen genutzt wird, wenn kein anderer

9.2  Optimierung des Grundmodells des rollierenden Forecasts

211

Prognosewert verfügbar ist und zum anderen, um das Schätzverhalten der Verkäufer zu beeinflussen (hier: zu nivellieren). Solche Basislevels sind beispielsweise: • Ø Auftragseingang pro Verkäufer und Monat • Ø Auftragseingang pro Verkäufer einer bestimmten Qualifikation (Junior Account Manager, Account Manager, Senior Account Manager usw.) und Monat • Ø Umsatz je Quadratmeter, je FTE-Äquivalent usw. • Ø Zeitdauer für Verkaufsprojekte für eine bestimmte Produktart • Ø Angebotswert für Verkaufsprojekte für eine bestimmte Produktart

9.2.2 Objektive Inputdaten des rollierenden Forecasts Einige der Daten, die ein rollierender Forecast verwendet, sind nicht intuitiv geschätzt, sondern objektiv nachprüfbar. Es handelt sich um die Eckdaten des Angebots, das Gegenstand der Verhandlung mit dem Interessenten ist. Insbesondere sind dies: • Auftragswert • Produktzusammensetzung • Lieferkonditionen • Liefer- bzw. Leistungserbringungszeitpunkt (Auftragsdatum) Diese Werte werden in den rollierenden Forecast übernommen, aber unter Umständen wäre es ein Fehler, diese ohne Adjustierung „abzuschreiben“. Insbesondere betrifft dies den Auftragswert und das Auftragsdatum. Übertrag des Auftragsdatums aus dem Angebot in den rollierenden Forecast: Das Auftragsdatum bestimmt zumeist der Kunde und wird in der Regel von dem für den Kunden passenden Liefer- bzw. Leistungserstellungsdatum zeitlich rückrechnend bestimmt: Wann muss ein Auftrag erteilt werden, damit die Belieferung pünktlich beginnen kann? Wird ein solcher Zeitpunkt im Angebot nicht genannt, schätzt der Verkäufer den vermuteten Auftragseingangszeitpunkt. Wie oben ausführlich beschrieben, wird auch hier ein Basislevel (hier das zeitliche Intervall zwischen Angebotsabgabe und Auftragsannahme) eine Richtschnur für die Schätzung sein. Übertrag des Auftragswertes aus dem Angebot in den rollierenden Forecast Bei der Übernahme des Auftragswertes aus dem Angebot in die Rubrik „Auftragswert“ des rollierenden Forecasts wird geprüft, ob dieser Wert vorher zu adjustieren ist. Es ist keineswegs selbstverständlich, dass der Angebotspreis auch der Auftragswert ist, denn im Laufe der Verhandlungen mit dem Interessenten wird dieser Preis sicherlich zur Disposition stehen.

212

9  Prognosen als Managementtool: Der rollierende Forecast

Nun wäre es ein Leichtes, die auftragstypischen Rabatte, Boni und Skonti bzw. Nachlässe anderer Art von dem Angebotspreis abzuziehen, um einen realistischeren Auftragswert für den Forecast zu erhalten. Aber hier zeigt sich für den Manager ein Dilemma: Einerseits möchte er mit realistischen Werten arbeiten, andererseits schlägt dann der Priming-Effekt (vgl. Abschn. 4.4.1) voll durch: Akzeptiert der Manager einen niedrigeren als den Angebotswert, und sei es nur, weil er diesen als realistischen Wert in den Forecast übernimmt, so wirkt dies wie eine Erlaubnis für den Verkäufer, den Preis nachzulassen. Er wird sich möglicherweise nicht mehr anstrengen, einen höheren Preis durchzusetzen, denn der niedrigere ist bereits akzeptiert worden. Gibt es einen Ausweg? Nein, es gibt nur die Möglichkeit, auf den Angebotspreis zu bestehen und vom Forecaster den Basislevel der Preisnachlässe ausrechnen zu lassen, um den mit dieser Quote adjustierten Betrag zu übernehmen. Er beugt sich der Gefahr des Primings und hat lediglich die Möglichkeit, die Rabattquote in der Berechnung von auftragsbezogenen Provisionen zu berücksichtigen, sofern dies vorgesehen ist. Immerhin hat die Berechnung eines Basislevels und die Korrektur des Angebotspreises um die durchschnittliche absolute Abweichung einen geringeren Priming-Effekt, als würde der Verkäufer von sich aus einen niedrigeren Auftragswert als den Angebotspreis ansetzen. Ich empfehle, den durchschnittlichen Preisnachlass im rollierenden Forecast nicht je Angebot einzukalkulieren, sondern erst in die Summe der Forecast-Werte. Übernahme von Angeboten im Frühstadium in den rollierenden Forecast Liegen noch keine konkreten Daten über ein Verkaufsprojekt vor, weil z. B. noch kein Angebot ausformuliert und unterbreitet wurde, und besteht dennoch der Wunsch, auch solche Frühphasenprojekte im rollierenden Forecast zu zeigen, so sind „mittlere“ geschätzte Auftragswerte einzutragen, aber mit einer marginalen Eintrittswahrscheinlichkeit zu bewerten, etwa 0,1 %. Hier spielt die Funktion des rollierenden Forecasts als Management-Tool die dominierende Rolle und der quantitative Einfluss auf die ForecastWerte ist gering zu halten. Dennoch ist wichtig, schon jetzt Auftragswerte und Auftragseingangszeitpunkte zu schätzen, erstens, weil dies den Verkäufer in die Pflicht nimmt, zweitens, um Erfahrungen über typische Verkaufsprojektverläufe zu sammeln. Wenn dies nicht gewünscht ist, ist festzulegen, ab wann ein Interessentenkontakt in den Forecast aufgenommen wird. Solche Meilensteine könnten • die Angebotsaufforderung durch den Interessenten, • die Angebotsabgabe oder, je nach Branche sinnvoll, • die Angebotspräsentation sein. sein.

9.2  Optimierung des Grundmodells des rollierenden Forecasts

213

9.2.3 Geschätzte Inputdaten des rollierenden Forecasts Rollierende Forecasts „leben“ von den Einschätzungen der Kunden- bzw. Interessentenkontaktsituation, die Verkaufsinstanzen (Verkäufer) als „Partei“ abgeben. Viel besser wäre es natürlich, die Interessenten selbst die Auftragswahrscheinlichkeit angeben zu lassen, aber auch sie sind Partei und werden befürchten, dass eine hohe Wahrscheinlichkeit den Wunsch nach einem Abschluss verraten und ihre Verhandlungsposition schwächen würde. Ganz offensichtlich sind die Auftragseingangswahrscheinlichkeit, vermutlich auch der Auftragswert und der Beauftragungszeitpunkt (obgleich beides im Angebot steht), Schätzwerte, die den üblichen kognitiven Verzerrungen unterliegen. Ein Verkäufer, der dennoch intuitive Schätzungen abgeben muss, wird dies bestenfalls nach bestem Wissen und Gewissen tun. Er unterliegt dabei den unbewussten Einflüssen all der beschriebenen Verzerrungen und wird seine Einschätzungen letztlich heuristisch vornehmen. Er wird auf seine Erfahrung bauen und entsprechend verfügbarer Beispiele aus der Vergangenheit eine Prognose vornehmen.8 Solche Verfügbarkeitsheuristiken (vgl. Abschn. 4.4.2) lassen uns glauben, dass ein Abschluss gelingt, wenn uns ähnliche Situationen in den Sinn kommen, bei denen dies auch gelungen ist. Wir erwarten dann einen ähnlichen Ausgang und haben damit unwillkürlich ein Muster konstruiert, das wir anwenden. Ein zweites Phänomen intuitiver Heuristik ist, dass wir – ebenfalls unwillkürlich – bei komplexen Fragen die Frage selbst austauschen. Wir beantworten nicht die Frage „Mit welcher Wahrscheinlichkeit wird uns der Interessent A im Juni 2024 einen Auftrag über 250 Tsd. € erteilen?“, weil die Frage viel zu komplex ist, sondern ersetzen sie durch die Frage „Wie eloquent verlief der Interessentenkontakt bisher?“. Aber, noch einmal: Wir bemerken diese Ersetzung der Frage nicht. Wir gehen sogar so weit, dass, wenn wir eine erste intuitive Einschätzung gemacht haben, und sei es durch die Ersetzung im zuvor beschriebenen Sinne, wir nach Argumenten suchen, um diese erste Einschätzung zu stützen. Wir klammern uns sozusagen mit Argumenten, die nur unwesentlich für die ursprüngliche Frage nach der Beurteilung der Auftragschancen sind, an unser Bild der Wirklichkeit. Es ist quasi eine zweifache Selbsttäuschung, die wir nicht bewusst wahrnehmen. Lädt uns z. B. der Einkäufer zum Essen ein, muss das kein Signal sein dafür, dass wir den Auftrag erhalten, weil wir nicht einmal wissen, ob er nicht alle anderen konkurrierenden Anbieter ebenfalls eingeladen hat. Aber wir werten es als positiv und als Beweis dafür, dass wir einen prima Kundenkontakt haben und dies wiederum ist für uns ein starkes Indiz dafür, dass wir den Auftrag erhalten werden.

8  Zur

Rolle des Vertriebs als Experte zur Analyse von Einkaufsentscheidungen siehe auch Brinkmann, 2006, S. 77 ff.

214

9  Prognosen als Managementtool: Der rollierende Forecast

Die Abschätzung der Eintrittswahrscheinlichkeit eines Abschlusses basiert immer auf der Beobachtung einer begrenzten Anzahl von Faktoren. Diese Abschätzung unterliegt jeweils einer Fehlerhäufigkeit in Höhe der Standardabweichung. Was wäre nun, wenn wir diese Anzahl von Faktoren erhöhen würden? Dann wäre der Aufwand der jeweiligen Abschätzung natürlich höher. Aber wäre die Standardabweichung auch geringer und die Prognose damit besser? Ziel wäre die perfekte Voraussage, also ein „Ja“ oder „Nein“ zu einem möglichst frühen Zeitpunkt, möglichst einem, an dem die Kosten für die Abschätzung geringstmöglich wären, bestenfalls bereits vor dem Erstkontakt. Aber dann wären viele Faktoren noch gar nicht bekannt, etwa der Grad an kaufbestimmender Sympathie zwischen Ein- und Verkäufer. Außerdem würde sich nur die Einschätzung der Wahrscheinlichkeit verbessern, nicht aber die Wahrscheinlichkeit erhöhen. Denn die Aussage, dass die Abschlusswahrscheinlichkeit 25 % beträgt, bedeutet, dass in 25 % der Fälle, in denen die Faktorenkonstellation exakt so ist, wie sie zum Zeitpunkt der Prognose festgestellt wird, ein Abschluss getätigt werden konnte. Das ist natürlich nur ein theoretischer Wert, denn die Faktorenkonstellation kann niemals exakt gleich sein. Kennen wir nun mehr Faktoren, wird sich die Wahrscheinlichkeit präzisier berechnen lassen, vielleicht mit dem Ergebnis 30 oder 40 %. Das ist durchaus nützlich, macht es einen Forecast, in dem viele Einzelprojekte betrachtet werden, doch präziser. Doch um wie viel? Rechtfertigt die Verbesserung der Prognosequalität die Mehrkosten? Ist der Grenznutzen dann noch positiv? Zuletzt, und damit kommen diese Ausführungen, die der generellen Schulung des Denkens eines Forecasters dienen, zum Ende, sollten wir die Kluft zwischen statistischem und intuitivem Denken berücksichtigen: Intuitiv akzeptieren wir – also vornehmlich auch die Verkäufer, um die es hier als Inputdatenlieferanten geht – Kausalketten. Sind Schlussfolgerungen nachvollziehbar – kohärent– miteinander verbunden und bekommen sie noch dadurch Gewicht, das sie • einfach sind, • uns bestätigende Beispiele einfallen oder • Experten sie bestätigen, so halten wir erkannte Muster für wahr und allgemein gültig (vgl. Abschn. 4.4.1). Bereitwillig schließen wir vom Besonderen auf das Allgemeine und deuten fortan bestimmte Erlebnisse und Ereignisse („Prädiktorenkonstellationen“) als deutliches Zeichen für einen Abschluss. Die Auftragseingangswahrscheinlichkeit wird z. B. hoch eingeschätzt, weil der Einkäufer positive Signale sendete, die in einigen Projekten, an die wir uns erinnern können, Vorboten eines Auftrags waren. u

Aber wir dürfen der Verfügbarkeitsheuristik als Wahrnehmungsverzerrung nicht auf den Leim gehen: Nur, weil wir uns an Leuchtturm-Stories erinnern, heißt das

9.2  Optimierung des Grundmodells des rollierenden Forecasts

215

noch lange nicht, dass diese der Normalfall sind. Es sind vielmehr die Ausnahmen, denn sonst wären sie ja keine Geschichte wert und wir würden sie vergessen.9 Aber: Umgekehrt sind wir nur widerwillig bereit, vom Allgemeinen auf das Besondere zu schließen. Statistische Selbstverständlichkeiten wie die Gültigkeit von Basislevels oder die ebenfalls statistisch nachvollziehbare Regression zum Mittelwert (vgl. Abschn. 4.5) sind uns intuitiv fremd. Wir lieben Kausalzusammenhänge, tun uns aber schwer bei Ableitungen. Abschätzung der Auftragseingangswahrscheinlichkeit durch den Verkäufer Über die Folgen des Einflusses der Wahrnehmungsverzerrungen auf die Treffsicherheit, mit der Verkäufer Auftragseingangswahrscheinlichkeiten abschätzen, wurde nun ausreichend geschrieben. Es sollte klar sein, dass ein Forecaster den intuitiven Einschätzungen der Verkäufer nicht trauen darf, wenn seine Prognose hinreichend präzise sein soll. Ein probates Mittel zur Disziplinierung der Verkäufer und zur Adjustierung ihrer Schätzwerte ist der Basislevel, der für den Vertrieb, für Teile des Vertriebs oder jeden Verkäufer individuell berechnet und als Richtschnur verwendet werden kann. Ist der Basislevel dem Verkäufer bekannt, wirkt er wie Priming. Ein Priming der nützlichen Art. Aber Achtung! Wie ist dann, wenn die Adjustierung von individuellen Schätzungen mittels der Basislevels als Maßnahme umgesetzt wird, die Einschätzung einer Abschlusswahrscheinlichkeit zu bewerten? Hat der Verkäufer seinen individuellen Basislevel bereits berücksichtigt, also selbst adjustiert, oder ist seine Schätzung „jungfräulich“, also nur durch die Betrachtung der konkreten Verkaufssituation auf Basis seiner intuitiven Einschätzung zustande gekommen? Oder, fatal!, hat der Verkäufer seinen Basislevel „ein bisschen“ berücksichtigt? Wird der Basislevel kommuniziert und zur Adjustage eingesetzt, müssen Spielregeln verabredet werden, wie Verkäufer damit umgehen sollen. u

Kennen Verkäufer ihren bzw. ihre Basislevel, damit sie zukünftige Schätzungen an diesem bzw. diesen nivellieren, so sollten sie angewiesen werden, ihre Abschätzungen bewusst zu adjustieren.

Es ist ein Lernprozess, intuitive und oft spontane Einschätzungen einer Verkaufssituation durch ein bewusstes, durch Quoten beeinflusstes Vorgehen zu ersetzen. Darum ist eine

9 Dieser Effekt wurde schon oft nachgewiesen, z. B. im Zusammenhang mit dem vermuteten Einfluss von Top-Managern auf die Entwicklung von Unternehmen: Wir nehmen, geprägt von Erfolgsgeschichten, die wir in Management-Magazinen lesen, an, dass es einzelne Personen sind, die Unternehmensgeschicke gestalten. Tatsächlich aber ist der Einfluss von Individuen sehr gering. Vgl. Malmendier & Tate, 2009 und Kahneman, 2012, S. 321. Es darf angenommen werden, dass dies auch für Verkäufer gilt.

216

9  Prognosen als Managementtool: Der rollierende Forecast

Reflexion des Vorgehens erforderlich, ein Thematisieren, ein Diskutieren über die Methodik. Verkäufer sollen jahrelang erlernte heuristische Entscheidungsprozesse durch kalkuliertes Vorgehen austauschen, und das, ohne dass sie davon einen konkreten Nutzen haben. Zweifellos ist das ein langfristiger Prozess, der nur gelingt, wenn der Prognostik Raum gegeben wird. Darum werden im weiteren Verlauf dieses Kapitels Möglichkeiten beschrieben, diesen Prozess zu unterstützen. Identifikation von Faktoren (Prädiktoren) zur Schätzung der Auftragseingangswahrscheinlichkeit Zuweilen ist das Abschätzen der Auftragseingangswahrscheinlichkeit nicht viel besser als raten. Dies kann zwei Ursachen haben: 1. Die Verkäufer wissen, welche Faktoren (Prädiktoren) den Erfolg determinieren, verfügen aber über keine relevanten Informationen über sie. 2. Die Verkäufer wissen nicht, welche Faktoren erfolgsdeterminierend sind. Informationen, über die sie verfügen, betreffen weniger relevante oder gar irrelevante Faktoren. Es ist also in einem ersten Schritt wichtig, die richtigen Faktoren zu kennen, die über die Auftragseingangswahrscheinlichkeit entscheiden. Nennen wir sie Prädiktoren. In einem zweiten Schritt werden natürlich projektspezifische Informationen benötigt, um mittels dieser Faktoren eine Prognose vornehmen zu können. In der betrieblichen Praxis ist jedoch häufig festzustellen, dass Verkäufer viel Energie und Zeit investieren, um Informationen über Faktoren zu beschaffen, die keinen oder nur einen geringen Einfluss auf die Auftragsvergabe haben. Die „Sofortmaßnahme am Unfallort“ ist, dass der Forecaster die verkaufsinstanzenspezifischen Basislevels zur Erstellung des rollierenden Forecasts verwendet. Das kann aber nur eine Übergangslösung sein, denn sonst ist der rollierende Forecast zwar ein Tool zur Dokumentation des Projektfortschritts, aber als Prognoseinstrument nicht besser als der Forecast auf Basis eines gleitenden Durchschnitts. Also muss sich die zweite Aufgabe, die Suche nach Prädiktoren, anschließen. Erstaunlicherweise tun sich Unternehmen hier schwer. Es wird eher eine Adjustierung des Forecast-Ergebnisses mittels eines Korrekturfaktors versucht, als die Methode infrage zu stellen, was bei einem rollierenden Forecast bedeutet, nach aussagekräftigeren Prädiktoren zu fahnden. Unternehmen sind sich ihrer Fehler treu und tendieren dazu, an dem Herumzudoktern, was sie sehen, anstatt sich über das Gedanken zu machen, was sie nicht sehen. Um zu verdeutlichen, was gemeint ist, möge das folgende, recht bekannte Beispiel aus der Medizin dienen: Um die Überlebenswahrscheinlichkeit von Neugeborenen einzuschätzen und noch im Kreißsaal zu entscheiden, ob eine außergewöhnliche Behandlung direkt nach der Geburt erforderlich ist oder nicht, haben Ärzte früher den Zustand des Säuglings intuitiv bewertet. Die Fehlerquote war recht hoch. Zu hoch. Die Ärztin Virginia Apgar entwickelte als Alternative ein Multifaktorenmodell, bei dem

9.2  Optimierung des Grundmodells des rollierenden Forecasts

217

Ärzte exakt fünf Prädiktoren mit einem Punktwert von 0, 1 oder 2 bewerten. Die isolierte Betrachtung jedes einzelnen Prädiktors war exakter und die Summe der Punktwerte ergab ein verlässliches Bild des Gesamtzustands. Wird nun ein bestimmter Summenwert nicht erreicht, werden unverzüglich Maßnahmen zur besonderen Behandlung des Neugeborenen eingeleitet.10 Genau um ein solches Konzept geht es hier: Wenn die Prädiktoren, die einen Abschluss anzeigen, gefunden werden, reicht ein einfaches Bewertungsschema, um eine Abschlusswahrscheinlichkeit zu prognostizieren. Nicht mehr der durch Wahrnehmungsverzerrungen getrübte Blick auf die Verkaufssituation wäre nun Grundlage einer Beurteilung, auch nicht mehr die Interessen des Verkäufers, sondern der isolierte Blick auf jeden einzelnen Prädiktor und dessen Bewertung; Objektivierung anstatt Emotionalisierung. u

Experten können ihre Prognosen dadurch verbessern, dass sie sich zunächst auf die einzelnen Prädiktoren konzentrieren und diese einzuschätzen versuchen, ohne an das Gesamtproblem zu denken.

Der Korrelationskoeffizient dieser Prädiktoren sollte mindestens 0,3 betragen. Ideal wäre natürlich 1,0, aber das ist ein theoretischer Wert. Würde beispielsweise festgestellt werden, dass eine Einladung des Verkäufers zum Abendessen durch den Einkäufer in 40 % aller Fälle auch zu einer Auftragsvergabe führt, dann wäre der Korrelationskoeffizient 0,4. Die Einladung ist als alleiniger Faktor ein recht unzuverlässiger Prädiktor, denn immerhin folgt auf 60 % aller Einladungen kein Auftrag und viele Aufträge werden sicherlich erteilt, ohne dass irgendjemand zum Essen eingeladen wurde. Aber in Kombination mit anderen Faktoren kann die Einladung wichtig sein: Wenn die Aufforderung für eine Angebotspräsentation in 30 % einen Auftrag nach sich zieht und die Einladung zum Abendessen in 40 % aller Fälle, so kann dies in Kombination (wobei der kombinierte Korrelationsfaktor zu ermitteln wäre) eine recht zuverlässige Prognose ergeben. Die entscheidende Frage ist also: Kennen Vertriebsmanager und Verkäufer die für ihr Geschäft maßgeblichen Prädiktoren? Und wenn nicht: Warum nicht? Wie kann sich ein Vertrieb auf die erfolgstreibenden Aktivitäten konzentrieren, wenn unklar ist, welche das sind? Werden dann nicht Angebote verteilt wie Handzettel im Bundestagswahlkampf? Wenn also die Aufgabe verstanden und angegangen wird, herauszufinden, welches die Erfolgsfaktoren für den eigenen Verkauf sind, dann werden als Projektergebnis Prädiktoren identifiziert, mittels derer die Auftragseingangswahrscheinlichkeit (AEW) eines Verkaufsprojektes algorithmenbasiert errechnet werden kann:

10 Die

Prädiktoren sind Atmung, Herztätigkeit, Hautfarbe, Muskeltonus und Reflexe. Dieses Verfahren ist heute ein Standard in Kreißsälen und führte zu einem signifikanten Rückgang der Säuglingssterblichkeit. Vgl. Apgar, 1953.

218

9  Prognosen als Managementtool: Der rollierende Forecast

AEW (in %) =

Faktor A ∗ Punktwert A + Faktor B ∗ Punktwert B usw. ∗ 100 Maximale Summe aller Punktwerte

Das Ergebnis ist ein Prozentwert. Von Periode zu Periode wird nun jeder Verkäufer seine Projekte neu bewerten, indem er die jeweiligen Faktoren bewertet. Mit der Zeit wird eine gewisse Professionalität im Umgang mit den Bewertungsfaktoren entstehen, die das Ergebnis besser macht. Ausreißer sind dann analytisch begründbar, ansonsten wird eine gewünschte Regression zum Mittelwert und eine geringere Schwankung um den Basislevel zu beobachten sein. Adjustage von Schätzungen durch den Forecaster Es sollte immer das Ziel sein, dass die objektiv vorhandenen und die von den Verkaufsinstanzen geschätzten Inputdaten eine möglichst hohe Qualität haben, die sich an den später erreichten realen Werten bemisst. Zuweilen aber sind die Maßnahmen, die zur Verbesserung der Inputdaten dienen und die in diesem und dem vorherigen Abschn. 9.2.2 beschrieben wurden, nicht erfolgreich oder nicht erfolgreich genug. Dann besteht für den Forecaster die Möglichkeit, seinerseits • die Inputdaten oder • das Prognoseergebnis zu adjustieren. Welche Möglichkeiten er hat, die Inputdaten zu behandeln, wurde zuvor detailliert gezeigt: Der Basislevel dient als Richtschnur für die Bewertung der Inputdaten, der MAPE als Messwert und mit der statistischen Notwendigkeit der Regression zum Mittelwert im Hinterkopf wird der Forecaster eine brauchbare Adjustage erreichen. Wie gut dies gelingt, zeigt die ständige Beobachtung der Prognosegenauigkeit, die wiederum verlangt, dass Forecast und Istwert Periode für Periode dokumentiert werden. Bei der Adjustage der Forecast-Ergebnisse gibt es wiederum mehrere Angriffspunkte: Entweder kann der Forecaster die Forecast-Werte • je Verkaufsprojekt, • der Summe der Projekte einer Verkaufsinstanz oder • der Summe der Projekte des Vertriebs insgesamt korrigieren. Auch ist es möglich, aber weniger häufig anzutreffen, die Forecast-Werte bei Projekten einer bestimmten Volumen-Größe zu adjustieren, wobei hier daran erinnert werden soll, dass über ein definiertes Volumen hinausgehende Mammutprojekte, die Ausreißer, gesondert behandelt werden sollten. u

Notwendig ist immer die Kenntnis des jeweiligen Basislevels, denn dieses ist der Standardwert, der verwendet wird, wenn keine Informationen vorliegen, die eine andere Bewertung rechtfertigen.

9.2  Optimierung des Grundmodells des rollierenden Forecasts

219

Die Adjustierung ist nun einfach: Wenn bekannt ist, dass ein Verkäufer systematisch zu optimistisch schätzt, wird die Überschätzung bewertet und durch einen Faktor ausgeglichen. Überschätzt er beispielsweise im Durchschnitt um 20 %, so ist der Ausgleichsfaktor 0,833, um den Basislevel zu erreichen. Unterschätzt er um 30 %, so ist der Ausgleichsfaktor 1,43. Voraussetzung ist, dass die Unter- oder Überschätzung systematisch ist. Ist sie chaotisch, so ist es nicht möglich, einen Ausgleichsfaktor zu bestimmen, der zu einer präziseren Prognose führt. Hier bleibt dem Forecaster nichts anderes übrig, als die Unzuverlässigkeit des Inputs an der Wurzel zu packen und die Verkäufer zu schulen. Wie so oft kann mit einem systematischen Fehler besser umgegangen werden als mit einem unsystematischen. u

Die Nachjustierung von Ergebnissen des rollierenden Forecasts mithilfe von Korrekturfaktoren ist legitim, wenn die Fehleinschätzungen nach Richtung und Höhe regelmäßig zu hoch oder zu niedrig sind.

Natürlich ist dies nach strenger Lehre unbefriedigend. Viel besser wäre es, wenn die richtigen Prädiktoren ermittelt würden und die Verkaufsinstanzen lernten, diese korrekt zu bewerten. Aber in der betrieblichen Praxis wäre es vermessen, zu glauben, dass sich z. B. Verkäufer intensiv mit dieser Materie beschäftigen wollen, denn ihre Aufgabe ist es, zu verkaufen. Wenn die Fehleinschätzungen regelmäßig und systematisch erfolgen, sollte der Forecaster zufrieden sein, denn das wäre bereits eine solide Arbeitsgrundlage für ihn. Vorgabe von Bewertungskorridoren zur Nivellierung individueller Schätzungen Die Einschätzung von Auftragseingangswahrscheinlichkeiten unterliegt so ziemlich allen Wahrnehmungsverzerrungen, die in Abschn. 4.4 beschrieben wurden. Wie beschrieben dienen erfreuliche Erlebnisse als Prädiktoren für einen Erfolg, ohne dass darüber nachgedacht wird, ob diese Erlebnisse mit dem Erfolg auch tatsächlich in Zusammenhang stehen (der Korrelationskoeffizient tendiert dann gegen 0). Ein Problem für die Qualität des Forecasts ist es aber, dass die Verkäufer unterschiedlich optimistisch oder pessimistisch eingestellt sind. Dies liegt sicherlich an ihrer charakterlichen Grunddisposition und lässt sich nicht verändern. Der eine verspricht sich durch forsches Auftreten Vorteile, der andere möchte sich und anderen durch betont pessimistische Schätzungen Enttäuschungen ersparen. Die Lösung ist die Vorgabe von Bewertungskorridoren. u Ein probates Mittel, um die Einschätzung von Auftragseingangswahrschein-

lichkeiten zu harmonisieren, ist die Vorgabe von Bewertungskorridoren. Einem abgrenzbaren Projektfortschritt wird eine Bandbreite von Wahrscheinlichkeitswerten zugewiesen, innerhalb derer eine projektspezifische Einschätzung vorgenommen werden darf.

220

9  Prognosen als Managementtool: Der rollierende Forecast

Tab. 9.3  Zuweisung von Wertekorridoren für die Bewertung der Auftragseingangswahrscheinlichkeit Prozessschritt

Tätigkeit/Aktion

Erlaubte Werte für W´keit (%)

Erlaubter Auftragswert

Interessentenkontakt

Positiver Erstkontakt

0,1

1 €

Angebotsaufforderung

Bis 9

10 % des vermuteten Auftragswertes

Angebot abgegeben

10

Auftragswert

Angebot wurde präsentiert, positives Feedback während oder direkt nach der Präsentation

11–20

Angebot in Nachverhandlung

21–30

Angebot in Endverhandlung (Lieferkonditionen, Details)

31–50

Positiver Zweitkontakt Angebot

Angebotsverhandlung

Auftragswert

Angebot beim Interessenten in 51–75 der Endprüfung (Jurist) Interessent signalisiert Annahme Interessent kündigt Annahme durch eine Mail oder einen Anruf an

76–90

Letter of Intent Kauf

Rechtsverbindliche Annahme

100

Auftragswert

Abweichungen vom Korridor erlaubter Werte sind nicht zugelassen oder müssen gesondert begründet werden. Tab.  9.3 zeigt eine exemplarische Prozessschrittfragmentierung mit einem jeweils zugewiesenen Wertekorridor.11 Die hier gezeigten Wertekorridore sind für Branchen sinnvoll, bei denen Angebote häufig versendet werden. Exakt eines von 10 Angeboten ist erfolgreich, und ist die Quote höher, so ist der Basislevel von 10 % für den Prozessschritt „Abgabe Angebot“ höher anzusetzen. Auch ist für den Prozessschritt „Angebot in Nachverhandlung“ ein Korridor von 21 bis 30 % vorgesehen, was nichts anderes bedeutet, als dass zwei bis drei von zehn nachverhandelten Angeboten auch angenommen werden. In anderen Branchen wird diese Quote anders sein und es ist Aufgabe des Forecasts, • den Angebotsprozess in sinnvolle, durch Meilensteine klar voneinander abgrenzbare Prozessschritte zu unterteilen und

• den Basislevel der Auftragseingangswahrscheinlichkeit für jeden Prozessschritt zu ermitteln. 11 Kühnapfel,

2014b, S. 23.

9.2  Optimierung des Grundmodells des rollierenden Forecasts

221

9.2.4 Ist es sinnvoll, die Prognosequalität zu prämieren? Immer wieder gibt es Versuche, die Qualität von Vertriebsforecasts zu steigern, indem das Gehalt der Inputdatengeber (Verkaufsinstanzen) an sie gekoppelt wird. Verkäufer werden beispielsweise dafür belohnt oder bestraft, dass sie Inputdaten rechtzeitig und vollständig liefern, seltener dafür, dass sich ihre Einschätzungen als realistisch erweisen und zu einer präzisen Prognose führen. Da insbesondere Verkäufer auf dem b2b-Sektor primär an ihren Verkaufserfolgen gemessen werden und nicht daran, wie zuverlässig sie „Listen“ ausgefüllt und gepflegt haben, ist die Motivation über einen Bonus/Malus natürlich kein schlechter Gedanke. Über den Gehaltszettel lässt sich so manches Verhalten steuern. Jedoch seien zwei Aspekte zu bedenken: 1. Es ist ein messbares und nachvollziehbares Sanktionssystem zu finden. Dem Verkäufer muss klar sein, wofür er eine Belohnung bzw. eine Bestrafung erhält und in welcher Höhe, wenn er eine Regel einhält oder bricht. 2. Zuarbeiten für Controlling-Aufgaben, und auch die Erstellung einer Prognose ist eine solche, kosten Zeit, die dann nicht mehr für die Hauptaufgabe, nämlich das Verkaufen bzw. Betreuen der Kunden, zur Verfügung steht. Es ist nun eine Interessensabwägung, inwieweit Verkäufer für administrative Arbeiten sanktioniert werden. Abhängig sein sollte das vor allem davon, wie wichtig der Forecast als Planungsgrundlage anderer betrieblicher Funktionalbereiche, also für das Unternehmen, oder als Management-Tool für den Vertriebsmanager ist. Eine grundsätzliche Empfehlung ist somit nicht sinnvoll. Meine eigene Erfahrung ist eine ganz andere: Auch in den Vertrieben der von mir geführten Unternehmen war ich mit der Qualität und Pünktlichkeit der Inputdatenlieferung unzufrieden. Quantitative Sanktionierungsmaßnahmen brachten aber wenig und es war letztlich stets kostengünstiger und für den Betriebsfrieden sinnvoller, einen Assistenten den Verkäufern „hinterherlaufen“ zu lassen, um die Daten zu sammeln und an die Bearbeitung der Excel-Sheets zu erinnern, als disziplinarische Maßnahmen zu verhängen. Diese waren nur in sehr wenigen Fällen erforderlich, also dann, wenn Verkäufer partout nicht einsehen wollten, dass ein rollierender Forecast benötigt wird.

9.2.5 Bedeutung von Loss-Order-Reports Loss-Order-Reports sind unbeliebt. Kein Verkäufer möchte nach einer Niederlage, also einem ausgeschlagenen Angebot, länger als unbedingt erforderlich darüber diskutieren. Auch wird er, um sein Selbstwertgefühl zu erhalten, zwar Erfolge mit der eigenen Schaffenskraft begründen, aber Misserfolge auf äußere Einflüsse schieben. Das ist selten ein bewusster Akt der Rechtfertigung, sondern eine psychologische Zwangsläufigkeit,

222

9  Prognosen als Managementtool: Der rollierende Forecast

die sich herausbildet, wenn Verkäufer mit Misserfolgsquoten von 30 %, 50 % oder oft auch 90 %, wie sie in vielen b2b-Vertrieben üblich sind, leben müssen. Über je mehr Resilienz ein Verkäufer verfügt, also über die Fähigkeit, auch nach einer Niederlage aus dem Zustand der Enttäuschung herauszukommen und sein Selbstwertgefühl wiederherzustellen, desto nüchterner wird er Misserfolge analysieren können. Je geringer diese Resilienz aber ausgeprägt ist, desto eher werden äußere Umstände als Erklärung für abgelehnte Angebote herhalten müssen. Aber ein Forecaster, und oft genug auch ein Manager, sind zweifellos nicht in der Lage, das Maß an individueller Resilienz eines Verkäufers „von außen“ zu beurteilen. Also werden sie auch nicht bewerten können, wie zutreffend Erklärungen für Ablehnungen von Angeboten sind. Seltsamerweise schließen viele Unternehmen des b2b-Sektors daraus, dass es nicht sinnvoll sei, sich viel mehr mit Loss-Order-Analysen zu beschäftigen, als in Vertriebsmeetings kurz über nicht erfolgreiche Angebote zu sprechen. So aber bilden sich Mustervermutungen aus, die wir als Repräsentativitätsheuristiken kennen und die fortan nicht nur Analysen durch Banalerklärungen ersetzten (was schon schlimm genug wäre), sondern auch selbst zu Handlungsmaximen werden. Das Scheinmuster „In der Vertriebsregion Nord ist der Wettbewerbsdruck sehr stark“, das zustande kommt, weil die Verkäufer dieser Region sich unbewusst und insgeheim auf die Erklärung „überproportional preisgünstige Angebote der Wettbewerber“ geeinigt haben, führt zu einem Priming und fortan werden dort Angebotspreise niedriger sein, weil unterstellt wird, dass auch der Wettbewerb billig sei. Damit wird auch der Deckungsbeitrag der Nord-Angebote geringer sein. Die Mechanik eines sinnvollen Loss-Order-Reports ist in Fachbüchern nachzulesen.12 Hier soll der Hinweis auf die Notwendigkeit genügen, dass ein Forecaster an diesem Prozess beteiligt werden sollte, denn zum einen öffnet es ihm den Blick auf die Psychologie im Vertrieb und damit die Ursachen für Fehleinschätzungen von Verkaufsprojekten, zum anderen kann er selbst Einfluss auf diese Projekte nehmen und somit zugleich den Grundstein für eine bessere Schätzqualität für Inputdaten legen.

12 So

z. B. in Kühnapfel, 2013a, S. 376 ff.

Prognosen auf Grundlage individueller Expertise

10

Der in Kap. 9 behandelte rollierende Forecast basiert auf Einschätzungen wesentlicher Parameter durch Verkaufsinstanzen, meist Verkäufer. Diese sind Experten für die zielgerichtete Gestaltung der Interessentenkontaktsituation. Nur sie erleben diese Interaktion, nur sie sind in der Lage, daraus die Folgen für die Zukunft abzuleiten. Jedenfalls sollten sie das sein. Insofern ist der rollierende Forecast bereits eine Prognose-Methode, die auf individueller Expertise basiert. Gegenstand dieses Kapitels sind nun Methoden, die sich nicht mit Verkaufsprojekten beschäftigen, sondern eine Gesamtsituation und deren Verlauf „von oben“ betrachten. Oftmals werden diese Verfahren als Top-downMethoden bezeichnet, im Gegensatz zur Bottom-up-Methode des rollierenden Forecasts, denn sie beschäftigen sich nicht mit einzelnen, konkreten Angebotssituationen, sondern betrachten Umwelt- und Marktkonstellationen. 

Gemeinsam ist allen expertengestützten Verfahren (engl.: Judgemental Forecast), dass sie sich auf Meinungen, Wissen, Intuition und Erfahrung von Individuen abstützen.1

Ein Grundpfeiler sind intuitive Regeln. Diese Regeln sind Ausdrücke in der „Wenn … dann …“- oder in der „Je mehr … desto …“-Form. Mit intuitiven Regeln arbeiten Menschen, um ihr unbewusstes Wissen zu nutzen und „unbewusst“ heißt, dass sie diese Regeln nicht externalisieren können. Sie können sie nicht ausformulieren. Würden wir beispielsweise aufgefordert werden, alle Regeln aufzuschreiben, die uns entscheiden lassen, ein ankommendes Telefongespräch nach einem Blick auf die Rufnummernanzeige anzunehmen, würden wir scheitern. Wir würden sicherlich

1 Makridakis,

et al., 1980, S. 207 ff.

© Der/die Herausgeber bzw. der/die Autor(en), exklusiv lizenziert an Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2023 J. B. Kühnapfel, Vertriebsprognosen, https://doi.org/10.1007/978-3-658-42876-1_10

223

224

10  Prognosen auf Grundlage individueller Expertise

einige Regeln finden (Hauptkunde  =  Gespräch annehmen, Chef  = Telefon klingeln lassen usw.), aber andere Regeln würden unbewussten Entscheidungsprozessen oder auch Stimmungen unterliegen. Ob wir beispielsweise das Gespräch eines „anonymen Anrufers“ annehmen, hinge vielleicht von äußern Umständen ab, z. B., ob wir gerade Zeit haben oder nicht, vielleicht aber auch von den Vorerfahrungen mit anderen Anrufern, die ihre Nummer ebenfalls nicht anzeigen ließen. Es würde uns nicht gelingen, das komplette Regel-Konglomerat für diese vergleichsweise einfache Aufgabe aufzuschreiben. Aber wie soll sich ein Experte dann all die Regeln bewusst machen, die ein viel komplexeres Problem betreffen, z. B. eine Prognose? Halten wir fest: Es ist nicht Unwilligkeit von Experten, die Externalisierung verhindert, es ist die Art und Weise, wie unser Gehirn funktioniert. Dabei wäre die Regelexternalisierung wünschenswert. Wenn sie gelänge, könnten Computer mit ihrer Hilfe recht präzise Prognosen erstellen, z. B., indem sie Entscheidungsbäume konstruieren („Judgemental Bootstrapping“) und so äußerst komplexe Ausgangskonstellationen und Faktorenmodelle berücksichtigen. Es ist nicht verwunderlich, dass softwaregestützte Expertensysteme lange Zeit Gegenstand der Forschung rund um die künstliche Intelligenz waren und die Hoffnung bestand, dass Computer Regelsysteme von Experten erlernen könnten, um sie selbst anzuwenden und weiterzuentwickeln. Bisher hat das kaum funktioniert. Ein weiterer Aspekt darf hier nicht unerwähnt bleiben: Wir können Intuition nicht verhindern. Kontinuierlich beeinflusst sie unser vorgeblich intellektuelles Urteilsvermögen – immer! Das geht sogar so weit, dass wir zuweilen intellektuell erkennen, dass unsere Intuition falsch ist und wir diese auf der bewussten Ebene verwerfen, aber sie arbeitet trotzdem weiter und besteht auf ihrem falschen Einfluss. Auch wenn in einem Vertriebsprozess ein bestimmtes Muster an Faktoren als falsch identifiziert wird, weil sich z. B. herausstellt, dass die Einladung des Einkäufers zum Essen kein Indiz für eine zu erwartende Auftragsvergabe ist (sondern lediglich bedeutet, dass sich der Gesprächspartner sein eigenes opulentes Mittagsmahl als Geschäftsessen vom Unternehmen bezahlen lässt), lebt die Verfügbarkeitsheuristik fort. Aber es gibt ein Gegenmittel: 

Außenstehende erkennen unsere eigenen Fehleinschätzungen besser als wir selbst, vor allem dann, wenn die Urteile auf Intuition basieren. Auch halten wir weniger an unseren eigenen Fehleinschätzungen fest, wenn sie von Außenstehenden „entlarvt“ wurden.

Wir unterliegen alle, und noch viel mehr als Experten auf unserem Gebiet, dem Muster der Kompetenzillusion.2 Wir konstruieren Modelle bzw. Versionen der „Wirklichkeit“, bewusst oder unbewusst, weil wir die Wirklichkeit auf die uns interessierenden

2  Kahneman,

2012, S. 289 ff. widmet in seinem Buch einen umfangreichen Abschnitt diesem Thema, sodass ich mich hier kurz halten möchte.

10  Prognosen auf Grundlage individueller Expertise

225

Aspekte reduzieren müssen.3 Wir können das Marktgeschehen nicht vollumfänglich beschreiben, wir können es auch nicht zuverlässig erklären, wenn es bereits geschehen ist (Vergangenheit) und wir können es erst recht nicht für die Zukunft verstehen. Viel zu viele Subjekte und deren Entscheidungen wären zu berücksichtigen und weil diese Entscheidungen in der Regel nicht rational getroffen werden, kann auch ein Supercomputer die Zukunft nicht kalkulieren. Auch dieser müsste, so, wie wir es auch tun, die Modelle bzw. ihre Einflussfaktoren reduzieren. Was bleibt, ist eine Landkarte der Zukunft, auf der die Straßen zu Strichen und die Städte zu Flecken werden, aber die Tagesbaustelle eben nicht abgebildet ist. Doch die Landkarte ist handlich und erfüllt in der Regel ihre Funktion, uns von A nach B zu führen. Wenn nun also Experten versuchen, die Zukunft zu prognostizieren, müssen sie die Wirklichkeit und damit die Verflechtungen der Handelnden auf eine überschaubare Menge reduzieren. Die größte Gefahr geht dabei nicht von den bewussten Auslassungen aus, sondern von dem, was selbst die Experten nicht erkennen, von dem sie also nicht wissen, dass sie es wissen müssten. Es ist das, was in Abschn. 2.1 in Abb. 2.2 als „Blind Spot“ bezeichnet wird. Auch der noch so große Experte macht Vorhersagefehler, weil die Welt, ja nicht einmal der zu prognostizierende Absatzmarkt als winziger Ausschnitt davon, vorhersagbar sind. Und ein noch so großes Selbstvertrauen, ein noch so großes Renommee oder ein noch so hoher Manntagespreis des Experten sind keine Garanten, ja nicht einmal zuverlässige Indikatoren für die Qualität seiner Prognose. Aber was bedeutet das? Heißt das, dass wir Experten nicht trauen dürfen? Sollten wir auf expertenbasierte Prognoseverfahren wie die Delphi-Methode verzichten? Nein, das wäre schade, denn diese qualitativen Prognoseverfahren sind nicht nur sehr nützlich, um quantitative Methoden im Rahmen des kombinierten Forecasts zu ergänzen, sondern sie sind sogar die einzige Möglichkeit, um Ausreißer oder außergewöhnliche Trends in der Zukunft zu erkennen, denn Zeitreihenanalysen eignen sich nicht dafür. Aber um dies zu leisten, bedarf es einer Gegenkontrolle, einer „zweiten Meinung“, eines Ausgleichs, dessen sich die Experten bewusst sind und der sie zu einer Reflexion ihrer eigenen Analysen zwingt. 

Prognosen, die von Experten aufgrund ihres Wissens erstellt werden, sind nur nützlich, wenn sie systematisch erstellt werden. Dies bedeutet, dass dem Prognoseprozess eine Methode zugrunde zu legen ist, die dafür sorgt, dass der Experte oder die Experten ihre Einschätzungen der Zukunft begründen und verteidigen. Die jeweiligen Anteile von „Wissen“, „Vermuten“ und „Raten“ müssen erkennbar sein.

Das Prinzip expertengestützter Forecast-Methoden muss also sein, intuitive, unbewusste Prozesse von den bewussten, regelbasierten Ableitungen zu trennen. Es geht nicht

3 Siehe

hierzu Wehr, 2014. Für monetäre Entscheidungen siehe Fellner, et al., 2004.

226

10  Prognosen auf Grundlage individueller Expertise

darum, Intuition zu eliminieren, es geht darum, sie erkennbar zu machen; denn dann kann der Verlässlichkeitsgrad geschätzt werden, dann kann der Manager entscheiden, in welchem Maße er seine unternehmerischen Entscheidungen auf die Prognose abstützt.

10.1 Grundsätzliche Überlegungen zur individuellen expertengestützten Prognose Die bisherigen Darstellungen reichen sicherlich aus, um das Für und Wider meinungsgestützter Prognosen zu beurteilen. Der wichtigste Vorteil ist, dass Intuition Wissen und Ahnungen zugänglich macht, die keinen formalen Regeln unterliegen. Der wichtigste Nachteil sind die damit verbundenen Wahrnehmungsverzerrungen. Um es deutlich zu schreiben: In einem kombinierten Forecast darf expertenbasierte Prognose, um die es hier in diesem Kapitel geht, nicht fehlen.4 Sie ist nützlich, um Ereignisse in der Zukunft vorherzusehen, die sich nicht durch Regeln und formalisierte Muster gestützt prognostizieren lassen. Ob ein Wettbewerber z. B. eine marktbeeinflussende Produktinnovation plant, erfährt der „alte Hase“ aus seinem Beziehungsnetzwerk und kann diese Information nutzen. Eine Trendfortschreibung kann diese Expertise natürlich nicht berücksichtigen. Der Experte wird also einen eigenen Absatzeinbruch für die Zeit nach der Markteinführung des Wettbewerbsproduktes voraussagen und wenn seine Informationen gut und belastbar waren, wird dieser auch erfolgen. Aber was nutzt eine solche Aussage tatsächlich? Sie weist auf einen Trendbruch hin, das ist sehr wichtig, aber wenn sie auch als Planungsgrundlage für alle anderen betrieblichen Funktionalbereiche dienen soll (und genau das ist die Aufgabe einer Vertriebsprognose), reicht sie nicht aus. Die weiterführenden Fragen, die sich nun stellen, sind: Wie sehr leidet der eigene Absatz, gemessen in Stücken oder Euro? Kann der Experte, der die Marktturbulenz vorausgesagt hat, auch einschätzen, welche Auswirkungen sie hat? Besitzt er auch dafür die Expertise? Hier reichen qualitative intuitive Einschätzungen nicht aus. Gefragt ist die „Übersetzung“ in quantitative, absolute Werte oder prozentuale Veränderungen. Genau dies ist die Schnittstelle, die Experten oft scheuen und die mit geeigneten Methoden, wie sie nachfolgend beschrieben werden, bearbeitet werden muss. Wie wird Expertise erworben? Hierfür müssen zwei grundsätzliche Voraussetzungen gegeben sein: 1. Eine Umgebung, die hinreichend regelmäßig ist, um vorhersagbar zu sein. 2. Die Möglichkeit, diese Regelmäßigkeiten durch langjährige Übung zu erlernen.

4  Zum

Nutzen der Integration mehrere individueller, intuitiver Forecasts in den kombinierten Forecast siehe auch Ashton & Ashton, 1985.

10.1  Grundsätzliche Überlegungen zur individuellen ...

227

Diese beiden Faktoren, sowohl der intrinsische als auch der extrinsische, können auch ausschließend betrachtet werden: 1. Ist die Zukunft nicht hinreichend stabil, ist sie auch für einen Experten unberechenbar und damit nicht vorhersagbar. 2. Hat die betreffende Person keine Erfahrungen mit der Prognoseumwelt, ist sie auch kein Experte. Ad 1: Was ist eine hinreichend stabile Umgebung? Wenn wir Prognoseumgebungen betrachten, gibt es unterschiedliche Stufen, die zu unterschiedlicher Prognosesicherheit führen: Die sichere Prognose: Die Konstellation der Gestirne ist z. B. eine äußerst regelmäßige Umgebung. Die Muster (Regeln) sind erlernbar. Nach einiger Zeit kann jeder zum Experten werden und die zukünftige Konstellation vorhersagen. Es gibt keine relevanten unberechenbaren Einflussfaktoren. Ausreißer, etwa ein plötzlich auftauchender Punkt am Firmament, z. B. ein Komet, werden leicht erkannt. Die unsichere Prognose 1. Grades: Bei einem offenen Brettspiel wie Mühle, Dame, Schach oder einem einfachen Würfelspiel sind die Regeln ebenfalls bekannt und die Folgen einer Handlung sind berechenbar. Alle Informationen stehen allen Teilnehmern zur Verfügung. Nur eine unbekannte Größe beeinflusst das Geschehen, nämlich die Handlungsabsichten eines Wettbewerbers. Der Experte kennt alle Regeln, es gibt kein „Glück“, keine Unbekannten und er kann die Handlungsfolgen berechnen, und zwar für alle denkbaren Aktionen, die dem Wettbewerber in den Sinn kommen. Das macht Umgebungen wie diese Spiele berechenbar, auch wenn die Fülle an Handlungsmöglichkeiten verhindert, dass jegliche denkbare Konstellation in der Zukunft antizipiert werden kann. Somit bietet sich an, Computer zu nutzen, um alle denkbaren Handlungsabfolgen durchzurechnen und anhand der Ergebnisse zu beurteilen, welche Maßnahmen sinnvoll und welche unsinnig sind. Die unsichere Prognose 2. Grades: Zu den vorher unbekannten Handlungen des Wettbewerbers kommen, was die Unsicherheit erhöht, Informationen hinzu, die nur eine Partei besitzt („asymmetrisches Wissen“). So kennt z. B. bei einem Skat-Spiel eine Partei nur ihre eigenen Karten und kann eine sich daraus ergebende optimale Spielstrategie entwickeln. Die Gegenpartei muss aus dem Spielverlauf Schlüsse ziehen und somit hat jeder Experte seine eigenen Karten, die sukzessiven Handlungen des Gegners und natürlich die fixen Regeln des Spiels als Informationsquelle, um eine Prognose über den Spielverlauf zu erstellen. Die Zukunft ist immer noch statistisch robust, da Regeln und Handlungskorridore bekannt sind. Doch bestimmen Erfahrungen und Übung der Spieler in hohem Maße den Ausgang. Während bei einer unsicheren Prognose 1. Grades noch schierer Fleiß half, zu prognostizieren, sind nun Erfahrungen von größerer Bedeutung.

228

10  Prognosen auf Grundlage individueller Expertise

Die unsichere Prognose 3. Grades: Nun werden auch die Regeln unklar. Nicht nur die Handlungsabsichten der Gegner und deren exklusive Informationen sind dem Experten unbekannt, auch die Regeln des „Spiels“ sind variabel. Damit sind in erster Linie die formalen Regeln gemeint, aber auch die informellen und jene, die sich bisher bewährt hatten. Wenn z. B. die Regel ist, dass die Produktentwicklung für ein neues Automobil vier Jahre dauert, ist es für einen Experten überraschend, wenn es einem Anbieter gelingt, ein neues Produkt in vielleicht nur zwei Jahren zur Marktreife zu bringen. Die Zukunft ist nun statistisch nicht mehr „regelmäßig“ (im wahrsten Sinne des Wortes). Die Voraussetzung der hinreichend stabilen Umgebung ist bei der unsicheren Prognose 3. Grades nicht mehr gegeben. Ad 2: Wann hat ein Experte hinreichend genug gelernt? Es gibt selbstverständlich keinen Zeitpunkt, ab dem davon ausgegangen werden darf, dass ein Experte über so viel Erfahrung mit einer Prognoseumgebung verfügt, dass seine Forecasts als präzise gelten dürfen. Vielmehr ist davon auszugehen, dass je komplexer die Umwelt ist, es desto mehr Zeit bedarf, bis hinreichend umfangreiche Erfahrung angesammelt ist. Im betrieblichen Umfeld mag darum eine einfache Regel lauten: Je mehr Erfahrung ein Experte besitzt, desto besser. Ein sattsam bekanntes Problem ist allerdings die subjektive Überzeugtheit eines Experten auf Basis eines relativen Informationsvorsprungs. In einer Gruppe reichlich unerfahrener Verkäufer, die ein neues Produkt vertreiben sollen, ist einer, der dieses schon einige Monate getan hat der Erfahrenste und zugleich der Experte, obwohl er objektiv betrachtet selbst noch ein Anfänger ist. Wer einmal auf dem Mount Everest war, weiß anderen, die es auch einmal versuchen wollen, viele Geschichten zu erzählen, aber er kennt eben nur seine einmal begangene Tour und auch die Konstellation der erfolgsrelevanten Parameter (Wind, Wetter, Schneehöhen, Zustand der Gerätschaften, seine eigene Form usw.) war einmalig. Er ist kein Experte, aber er wird sich dafür halten, denn sein Informationsvorsprung zu allen anderen ist gewaltig. Doch ist subjektive Überzeugtheit kein Maß für die Qualität einer Prognose. Und so ist es typisch für expertenbasierte, intuitive Prognosen, dass sie • • • •

zu extrem sind, auf Selbstüberschätzung, genährt vom relativen Wissensvorsprung, basieren, von Wahrnehmungsverzerrungen beeinflusst werden, unklare Heuristiken nutzen, die später nicht mehr nachvollzogen werden können und dass • Adressaten der Gefahr unterliegen, jene Prognosen für richtig zu halten, die kognitiv leicht erscheinen, also auf subjektiv und situativ nachvollziehbaren Kausalketten basieren.5 5  Vgl.

hierzu auch Kahneman, 2012. Aber es ist auch möglich, Fehler in intuitiven Prognosen mathematisch zu beschreiben und in Beziehung zum Aufwand zu setzen. Vgl. bspw. Staelin & Turner, 1973. Der Nutzwert solcher Verfahren für Vertriebsprognosen ist allerdings gering.

10.1  Grundsätzliche Überlegungen zur individuellen ...

229

Tatsächlich aber sind Prognosen auf Grundlage persönlicher Expertise umso unsicherer, je • komplexer die Aufgabenstellung ist, • unsicherer die zu erwartende Umwelt ist und je • weniger die Einschätzung durch die Experten mit quantitativen Daten untermauert werden kann.6 Gerade der letzte Punkt ist bei expertenbasierten Prognosen von großer Bedeutung. Gelingt es, Fakten und objektives Wissen zur Untermauerung einer Prognose zu finden, so ist dieses zu dokumentieren. Nur so kann der „Faktor Intuition“ isoliert werden, aber – ich wiederhole mich – nicht, um ihn zu eliminieren, sondern nur, um ihn zu beschreiben. Warum haben Schachgroßmeister untrügliche Intuitionen? An dieser Stelle ist noch einmal ein Blick in die Welt des Schachspiels nützlich, um zu verstehen, wie ein Experte „funktioniert“: In dem bereits zitierten, wunderbaren Aufsatz von Simon7 beschreibt er, dass Schachgroßmeister auf die Frage, wie sie ihren nächsten Zug finden, regelmäßig von Intuition sprechen. Sie erläutern, dass ihnen der nächste Zug recht schnell einfalle, sie sich aber anschließend die Zeit nehmen, die Folgen dieses Zuges zu durchdenken. In den allermeisten Fällen sei dieser nächste Zug der richtige, nur selten werde er verworfen. Dies mache auch Simultanspiele möglich, bei denen Großmeister gegen 10, 20 oder gar 50 Gegner gleichzeitig antreten. Hier verließen sie sich vollends auf ihre Intuition, auf diesen ersten Einfall, ohne sich die Zeit für eine Überprüfung und eine Folgenabwägung zu nehmen. In den allermeisten Fällen ginge dies gut. Was aber macht diese Intuition aus? Warum haben diese Großmeister diese Einfälle für den nächsten genialen Zug und benötigen dafür nur wenige Sekunden? Ein einfacher Versuch zur Beantwortung dieser Fragen war, Experten und Laien Bretter mit 25 Spielfiguren in ungewöhnlichen Konstellationen zu zeigen. Sie hatten nun 5–10 s, sich die jeweilige Figurenkonstellation einzuprägen. Großmeister konnten durchschnittlich 23 bis 24 Figuren richtig reproduzieren, Laien ca. 6. Und es war nicht Intelligenz oder ein fotografisches Gedächtnis, was die Großmeister auszeichnete. Es war schlichtweg die Erfahrung und damit das Wiedererkennen, das sie zu dieser Leistung befähigte. Auch, wenn die Konstellationen neu waren, erinnerten sie an bekannte Figurenaufstellungen und es war nur noch notwendig, sich die Abweichungen zu merken. Simon ging davon aus, dass sich ein Schachgroßmeister ca. 50.000 Aufstellungen und auch die sich aus diesen Konstellationen ergebenden Folgen merken kann.

6 Stewart, 7 Simon,

2002. 1987.

230

10  Prognosen auf Grundlage individueller Expertise

Das ist Erfahrung. Nichts anderes. Über Jahre oder Jahrzehnte wird Mustererkennung trainiert, die zu dem führt, was uns Laien wie magische Intuition erscheint, doch es ist nur langjährige Arbeit und lehrt, dass Expertise und daraus entstehende verlässliche Intuition die Bedingungen „stabile Umwelt“ (was beim Schach durch das Regelwerk gegen ist) und „langjährige Erfahrung“ benötigt. Exkurs 1: Der Chef-Forecast

Ein Sonderfall der Alte-Hasen-Meinung soll hier kurz beschrieben werden: Die Prognose des Chefs. Dabei ist es unerheblich, auf welcher Hierarchiestufe dieser „Chef“ angesiedelt ist oder ob er als Experte im oben beschriebenen Sinne gelten darf: Er bestimmt eine Prognose und diese wird dann zur Planungsgrundlage. Eine solche im anglikanischen Sprachraum auch als „evangelikaler Forecast“ bezeichnete Prognose ist letztlich nichts anderes als eine Zielvorgabe. Sie hat somit eine Funktion im Rahmen der Führung und Ressourcenallokation, aber sagt nichts über die wahrscheinliche Zukunft aus.8 Wird in einem Unternehmen ein evangelikaler Forecast erstellt, sind sämtliche Regeln der Prognostik außer Kraft gesetzt.

Exkurs 2: Das Judgemental Bootstrapping

Insbesondere Armstrong propagiert die Methode des Judgemental Bootstrappings, die hier nur angerissen, aber nicht weiter erläutert wird. Eine deutsche Übersetzung hierfür gibt es nicht. Die Idee ist, aus den Regeln, die ein Experte für die Erstellung einer Prognose angewendet hat, auf die Datengrundlage rückschließen zu können, um diese wiederum für weitere Prognosen zu verwenden. Dies reduziert kognitive Verzerrungen und macht die Regeln für andere nutzbar. Tests zeigen, dass das Judgemental Bootstrapping in den allermeisten Fällen zu einem besseren Forecast führt als nicht-regelbasierte Forecasts von Experten.9 Die Schwierigkeit ist, wie oben ausführlich dargestellt, die Argumentation eines prognostizierenden Experten in einen Regelkatalog zu übersetzen. Natürlich geht damit die Intuition und die Flexibilität des Experten selbst verloren, aber Nachvollziehbarkeit wird gewonnen. Das Vorgehen erfolgt rückwärts: Von einem Forecast ausgehend werden die Regeln abgeleitet, die der Experte nutzte, um diesen Forecast zu erstellen. Dabei werden ökonometrische Verfahren angewendet, die der Methode der kleinsten Quadrate ähneln. Die Schätzvariablen werden identifiziert und quantifiziert.

8 Vgl.

hierzu Gilliland, 2010, S. 65. hierzu die ausführlichen Erläuterungen in Armstrong, 2002d. Aber: Die dort dargestellten Ergebnisse konnten von mir nicht nachvollzogen werden.

9 Vgl.

10.2  Institutionalisierte Estimation Group

231

10.2 Institutionalisierte Estimation Group Eine Estimation Group ist ein Team von Vertretern unterschiedlicher Interessen, die gemeinsam eine Prognose erstellen. Diese Prognose wird dann Teil des kombinierten Forecasts. Anders als bei der Delphi-Befragung agieren die Gruppenmitglieder offen und diskutieren miteinander. Gegenseitige Inspiration, Meinungsaustausch, aber auch Meinungsstreit und gruppendynamische Prozesse sind gewünscht. Einige organisatorische Prinzipien sind dabei von besonderer Bedeutung: • Die Estimation Group ist eine Gruppe von Experten mit einem jeweils eigenen Fachwissen. • Die optimale Gruppengröße beträgt vier bis zehn Personen. • Die Mitglieder sollten sich wie folgt zusammensetzen: – Forecaster als Moderator – Vertreter des Vertriebs, z. B. Verkäufer und Vertriebsmanager – Vertreter jener betrieblicher Funktionalbereiche, für die der Forecast die Planungsgrundlage bildet (Produktion, Einkauf usw.) – Unternehmensleitung – Marketing – Ggf. Berater, Vertreter von Branchenverbänden, Vertreter von Kundenclubs usw. • Die Gruppe muss stabil sein, damit langfristig Erfahrungen mit der Präzision der Prognosen gesammelt und in den nächsten Forecast-Zyklus eingebracht werden können. Ein Austausch der Mitglieder ist nicht erwünscht. • Die Gruppe trifft sich unter der Leitung des Forecasters regelmäßig. Aufgabe der Estimation Group Sitzungen der Estimation Group haben einen ungewöhnlichen Charakter: Zielsetzung ist nicht, einen für das Unternehmen als Planungsgrundlage verbindlichen Forecast zu erstellen. 

Zielsetzung ist, eine weitere Komponente des kombinierten Forecasts zu liefern, die „Estimation Group-Prognose“.

Dieser Aspekt ist wesentlich und sicherlich ist er nur schwer zu vermitteln, denn fachlich und hierarchisch gut besetzte Teams werden in der Regel etabliert, um Konsensentscheidungen zu treffen. Hier ist das nicht der Fall. Es gibt nichts zu entscheiden, sondern es ist eine Prognose zu erstellen, die der Forecaster als eine von mehreren in einem kombinierten Forecast verwenden wird. Aber die endgültige Prognose veröffentlicht der Forecaster, nicht die Estimation Group. Der Estimation Group werden alle anderen Prognosen vorgestellt, die vorliegen. Sicherlich werden dies die quantitativen Prognosen auf Basis von Zeitreihenanalysen sein, mindestens aber der naive Forecast. Die Mitglieder der Estimation Group werden

232

10  Prognosen auf Grundlage individueller Expertise

nun diese Forecasts diskutieren und intuitiv bewerten. Sie diskutieren Trends, saisonale Effekte, Zyklen, aber vor allem erwartete Ereignisse in der Zukunft. Marktgerichtete Aktivitäten der Wettbewerber, vermutete Veränderungen des Kundenverhaltens oder Änderungen der gesetzlichen Rahmenbedingungen, also vor allem jene Ereignisse, welche die Umwelt instabil machen und die von algorithmenbasierten Modellen nicht erfasst werden können, werden besprochen und ihre Auswirkungen eingeschätzt. Sicherlich wird über die Gefahren der „Schwarzen Schwäne“ und der „Blind Spots“ (die unbekannten Unbekannten) gesprochen. Im Ergebnis wird die Estimation Group – das zeigen die Erfahrungen – aber keinen eigenständigen Forecast erstellen, denn dazu bräuchte es einer Methode, sondern es werden die vorhandenen Zeitreihenextrapolationen adjustiert. Bei einem Konsens wird beispielsweise eine Trendfortschreibung auf Basis der exponentiellen Glättung mit einem Alpha-Faktor von 0,6 als wahrscheinlich deklariert, aber eine „Delle“ mit einem Sprung des Levels um ‒10 % für das übernächste Quartal erwartet, weil ein Wettbewerber eine Produkteinführung plant. 

Insofern ist die Prognose, welche die Estimation Group liefert, selbst schon eine Kombination verschiedener Forecasts mit anschließender intuitiver bzw. qualitativer Adjustage.

Der Forecaster hat das letzte Wort Noch einmal sei betont, dass der Forecaster die Gruppenmoderation übernimmt, und zwar auch dann, wenn er hierarchisch einen niedrigeren Status als einige der Mitglieder der Gruppe hat. Dies sollte bei einem von Fachwissen getriebenen Thema wie diesem möglich sein. Die Aufgaben des Moderators sind im Einzelnen: • Vorstellen der Abweichungsanalyse der bisherigen Prognose(n) im Kontext vorliegender Istdaten, Präsentation der vermuteten Ursachen und Vorstellung der Maßnahmen zur Verbesserung zukünftiger Prognosen. • Permanentes Sortieren der Diskussionsbeiträge, um jene Aspekte herauszuarbeiten, die prognoserelevant sind. • Sicherstellen, dass die Mitglieder der Estimation Group „Prognosen“ nicht mit „Zielplanungen“ verwechseln (was im Laufe von Diskussion erfahrungsgemäß regelmäßig passiert). • Herbeiführen eines Konsenses. Natürlich ist es möglich, dass im Ergebnis der Gruppendiskussion mehrere Forecasts entstehen. Normalerweise werden diese unterschiedlich wahrscheinlich sein, ohne dass die Eintrittswahrscheinlichkeiten konkretisiert werden können. Inwieweit diese jeweils in den kombinierten Forecast einfließen, entscheidet der Forecaster unter rein methodischen Gesichtspunkten. Und genau dies ist auch die Anforderung an ihn selbst: Ungeachtet aller

10.3 Delphi-Befragung

233

persönlichen Vorlieben ist sein Job, methodenorientiert und objektiv zu arbeiten. Seine Leistung wird an der Präzision seiner Vertriebsprognose gemessen. Die Estimation Group hilft ihm dabei, ist aber nicht schuld, wenn seine Prognose nichts taugt. Der Nutzen der Estimation Group Der wesentliche Nutzen der Estimation Group ist, vor allem bei einer instabilen Umwelt zukünftige Ereignisse zu erkennen und deren Bedeutung abzuschätzen. Sie ist für den Forecaster eine wertvolle Quelle, denn natürlich ist es ihm selbst nicht möglich, sämtliche Aspekte selbst im Blick zu haben. Dadurch, dass die wesentlichen Fachabteilungen einbezogen werden können, fördert die Estimation Group die Glaubwürdigkeit der Forecasts. Sie werden häufiger als Planungsgrundlage verwendet, Risikopuffer werden abgebaut. Aber natürlich dient die Estimation Group auch dazu, die Arbeit des Forecasters zu kontrollieren. Auch wenn sie keine disziplinarische Funktion hat und auch kein „Audit“ sein darf, wird sich der Forecaster ihr immer wieder erklären müssen. Spätestens dann, wenn die einzelne Prognose der Estimation Group präziser war als der kombinierte Forecast, den der Forecaster erstellt, hat er ein Erklärungsproblem.

10.3 Delphi-Befragung Während die Mitglieder einer Estimation Group offen und konfrontativ Prognosen diskutieren, um im Ergebnis eine weitere dem kombinierten Forecast hinzuzufügen, ist das organisatorische Grundprinzip der Delphi-Methode die Befragung von Experten unter Ausschaltung gruppendynamischer Effekte. Die Fachleute sollen ihre Meinungen urteilsfrei äußern, ohne Furcht vor Blamage oder Sanktionen. Dennoch entsteht eine Gruppenprognose. Entwickelt wurde diese Methode in den 50er Jahren von der amerikanischen RAND Corporation.10 Die charakteristischen Eigenschaften sind:11 • Expertise: Nur Fachleute, dich sich mit unterschiedlichen Aspekten des Prognoseproblems beschäftigt haben, arbeiteten an der Prognose mit. • Anonymität und Vertraulichkeit: Die Experten dürfen sich kennen, ja, sie dürfen sogar wissen, dass sie Teil der jeweiligen Delphi-Befragung sind, aber sie dürfen niemals die jeweiligen Zuarbeiten der anderen Experten inhaltlich kennen. • Iteration: Der Prognoseprozess vollzieht sich in mehreren Runden (Iterationen), jeweils mit Informationsrückkoppelung; es entsteht eine konsensuale Prognose.

10 Vgl.

hierzu bspw. Brockhoff, 1977, S. 81 ff. und Hansmann, 1983, S. 22–26. 1983, S. 22.

11 Hansmann,

234

10  Prognosen auf Grundlage individueller Expertise

Die Experten erhalten die Chance, inspiriert durch die (anonymisierte) Meinungen anderer, ihre eigene zu überarbeiten und vielleicht sogar zu verwerfen, ohne dass dies für sie nachteilige Folgen hat.12 Somit werden gruppendynamische Effekte ausgeschlossen. Ein dominierender Experte oder „der Chef“ kann die Aussagen anderer nicht beeinflussen. Unbequeme Äußerungen fallen leichter, introvertierte Personen kommen ebenso zu Wort wie extrovertierte, mangelndes Ausdrucksvermögen spielt keine Rolle mehr. Natürlich ist eine Delphi-Befragung nur möglich, wenn ausreichend viele Experten zur Verfügung stehen. Es sollten mindestens vier sein, möglichst mehr, wobei der Forecaster als Moderator des Verfahrens nicht mitzählt. Somit ist diese Methode sinnvoll, wenn zahlreiche Experten eingebunden werden sollen, z. B. eine große Anzahl von Filialleitern oder die Führungskräfte mehrerer Funktionalbereiche. Und um den Aufwand einer Delphi-Befragung zu begründen, genügt folgendes interessantes Ergebnis einer empirischen Analyse: Delphi-Befragungen gewinnen gegenüber Forecasts einzelner Experten in fünf von sechs Fällen!13 Der Ablauf einer Delphi-Befragung: Der Ablauf folgt stets einem etablierten und bewährten Muster. Abweichungen hiervon sollten nur vorgenommen werden, wenn ausreichend Erfahrungen gesammelt wurden. „Abkürzungen“ und „Auslassungen“ sind zu vermeiden.14 1. Spielregeln definieren: Der Forecaster als Moderator stellt sicher, dass alle Teilnehmer den Verfahrensablauf kennen. Insbesondere sollte er darauf hinweisen, dass das Abstimmen, Vergleichen oder Diskutieren von Antworten nicht hilfreich, ja sogar kontraproduktiv ist. Ebenso sollte klargestellt werden, dass die entstehende Konsensprognose nicht etwa der Forecast ist, sondern Teil des kombinierten Forecasts. 2. Teilnehmerkreis festlegen: Einzubeziehen sind all jene, von denen entweder ein sinnvoller Beitrag erwartet wird oder deren Einbeziehung aus Gründen der Akzeptanz sinnvoll ist. 3. Thema benennen: Die Fragestellung wird vom Moderator sorgfältig ausformuliert. Ferner werden Zeitpunkt, Umfang, Art und Syntax des erwarteten Rücklaufs definiert. Bewährt hat sich,

12 Wir wissen sicherlich auch aus eigener Erfahrung um unser Beharrungsvermögen. Eine eigene, gegenüber anderen geäußerte Meinung zu verwerfen fällt nicht leicht, weil befürchtet wird, dass zukünftig geäußerte Meinungen kein Gewicht mehr haben. 13 Rowe & Wright, 2002 und Rowe, 2001. Eine interessante Anwendung der Delphi-Methode für Forecasts auf Märkten für Finanzdienstleistungen beschreibt Kauko & Palmroos, 2014. 14 Kühnapfel, 2022, S. 120 ff. Anwendungsbeispiele finden sich in Kühnapfel, 2021, S. 231 ff.

10.3 Delphi-Befragung

235

a. das zu prognostizierende Szenario zu umreißen und einzugrenzen, b. offene Fragen zu stellen oder ersatzweise zu kommentierende Hypothesen zu formulieren, c. quantitative Einschätzungen und d. eine Begründung für diese Einschätzung zu verlangen. Die Antworten werden also eine Melange aus qualitativen, vielleicht sogar in Freitext formulierten, sowie quantitativen Antworten sein. Um dem Moderator die Auswertung zu erleichtern, bietet sich an, eine Struktur der Antworten vorzugeben, etwa in Form eines Fragebogens. 4. Bearbeitung der Themenstellung in der ersten Runde durch die Experten: Es ist für den Moderator kaum möglich, sicherzustellen, dass die Bearbeitung zielgerichtet und konzentriert erfolgt. Es besteht immer die Gefahr, dass z. B. eine Führungskraft die Themen von ihrem Assistenten bearbeiten lässt, vielleicht noch einen Blick darauf wirft und diese dann an den Moderator zurücksendet. Die zugesicherte Anonymität wirkt als Schutzschirm auch hier. Sicherlich hängt es mit der Bedeutung der Prognose im jeweiligen Unternehmen zusammen, ob und inwieweit sich vom Alltagsgeschäft gestresste Experten in einer isolierten, intellektuell anspruchsvollen Art und Weise mit dieser Aufgabe beschäftigen. Hier, an dieser Stelle, wollen wir optimistisch davon ausgehen, dass dies so geschieht. 5. Auswertung der Antworten der ersten Runde: Der Moderator wertet die Zukunftsabschätzungen aus. Aus den quantitativen Einschätzungen werden Mittelwerte gebildet, die Standardabweichungen berechnet und die Ausreißer benannt. Die jeweiligen Gründe hierfür werden in Form von Argumentenkatalogen hinzugefügt. Die Anforderung an den Moderator ist an dieser Stelle, die Argumentationsstränge der Experten zu verstehen und so umzusetzen, dass sie in adäquatem Maße berücksichtigt werden. Die Gefahr dieser Methode ist, dass die Iterationen zu einer Regression zum Mittelwert führen. Diese ist aber nicht die Idee. Vielmehr sollen extreme Meinungen andere inspirieren und zu einem „Ach ja, das habe ich nicht bedacht“-Effekt führen. Entsprechend muss der Moderator die Balance zwischen der Durchschnittswertberechnung, der Berücksichtigung von Extrempositionen und dem Verwerfen von Unsinn wahren – sicherlich eine anspruchsvolle Aufgabe, die über den Ergebnisnutzen dieser Methode entscheidet. 6. Rückkopplung: Die Ergebnisaggregation des Moderators wird den Experten zurückgesendet. Das Format ist grundsätzlich egal, bewährt hat sich eine präsentationsartige Struktur, deren Gliederung jener der Ausarbeitung folgt. Oft werden die quantitativen Daten auf der einen und Begründungen und Argumente auf der anderen Seite gegenübergestellt. Hieran schließt sich eine Arbeitsanleitung für die Experten an, aus der hervorgeht, was nun zu tun ist. Grundsätzlich sollen sie noch einmal über ihre eigenen Einschätzungen nachdenken und diese ggf. revidieren. Hierzu würde sich der gleiche wie in Runde 1 verwendete Fragebogen eignen. Oft werden aber auch weitere Fragestellungen hinzukommen, etwa die Einschätzung der Eintrittswahrscheinlichkeit eines

236

10  Prognosen auf Grundlage individueller Expertise

„Schwarzen Schwans“, den einer der Experten in der ersten Runde beschrieben und prognostiziert hat. 7. Bearbeitung der Themenstellung in der zweiten Runde durch die Experten. 8. Auswertung der Antworten der zweiten Runde: Eine konsensuale Prognose entsteht. Immer noch werden Ausreißer und abweichende Einschätzungen von Experten zu finden sein, aber erfahrungsgemäß nähern sich die Expertenmeinungen einem Durchschnittswert. Der Moderator dokumentiert diesen in bewährter Form, wird also immer noch abweichende Meinungen aufführen. Anschließend erhalten die Experten die Auswertung für eine zweite Überarbeitung zurück. 9. Dritte Iteration und Erstellung des Ergebnisses: Nachdem der Moderator die Rückläufer ausgewertet hat, kann er eine quantitative Prognose erstellen. Aber auch vom „Mainstream“ abweichende Meinungen werden berücksichtigt: Die Anzahl, Vehemenz und Klarheit von Argumenten für eine andere, vom Konsens abweichende Prognose, werden weiterhin übernommen und mindern die Eintrittswahrscheinlichkeit der Konsensprognose. Diese wird dennoch Teil des kombinierten Forecasts. Weitere Iterationen sind möglich, auch wenn die Praxis zeigt, dass diese zu nicht viel mehr als immer deutlicheren Mittelwertangleichungen mit immer geringer werdenden Standardabweichungen führt. Das mag den Statistiker befriedigen, aber die Prognose wird dadurch nicht präziser. An dieser Stelle nicht unerwähnt bleiben darf, dass die Delphi-Methode neben der Szenario-Technik als Standardmodell für Langfristprognosen verwendet wird.15 Hier liefern quantitative Zeitreihenextrapolationen nur vage und oft nur zufällig eintreffende Vorhersagen, sodass eine qualitative Abschätzung der Trendverläufe hilfreicher ist als der Versuch, Zielwerte zu orakeln. Fallstricke der Delphi-Befragung Die Delphi-Methode hat sich in der betrieblichen Praxis der Vertriebsprognose bisher nicht durchsetzen können. Vermutet wird oft, dass der Grund der mit ihr verbundene Aufwand sei, aber das stimmt nicht. Der Aufwand ist sogar recht übersichtlich und für jeden einzelnen Experten in Summe nicht mehr als die Teilnahme an einem einzigen Meeting. Die Ursache dürfte vielmehr sein, dass Delphi-Befragungen zuweilen nur als Instrument zur Herstellung von Gruppenkonsens genutzt werden. Aber die Idee ist eine andere, nämlich die Möglichkeit für einen jeden, sanktions- und blamagefrei Meinungen zu äußern. Es liegt wie so oft

15 Gruber

& Venter, 2006.

10.3 Delphi-Befragung

237

• am Forecaster als Moderator einerseits und • an der Bedeutung der Prognose als Planungsgrundlage im Unternehmen andererseits, welche Qualität die Ergebnisse der Delphi-Befragung haben werden. Zuweilen aber erkennen die Experten intuitiv oder bewusst, dass die Iterationen sinnlos sind. Wenn z. B. lediglich quantitative Trend- und Levelabschätzungen abgefragt werden. Dann wird es, sofern ausreichend viele Experten eine Abschätzung abgeben, sinnvoller sein, gleich nach der ersten Runde einen Mittelwert dieser Abschätzungen auszurechnen. Mehr braucht es nicht, denn die Iterationen werden voraussichtlich nur dazu führen, dass mit mehr Aufwand eben dieser Mittelwert bestätigt bzw. der Unterschied der Werte sehr gering sein wird. Dann aber wurde die Methode darauf reduziert, einen Durchschnitt aus intuitiven Individualprognosen zu errechnen. Dann könnte auch eine „Meinungsumfrage“ im gesamten Unternehmen durchgeführt werden, wobei hieraus – bei hinreichend stabilen Umweltbedingungen – durchaus eine recht präzise Prognose entstehen könnte. Abschließend jedoch möchte ich dazu raten, den Aufwand einer Delphi-Befragung zu investieren. Unternehmensinterne Expertise wird leicht erschlossen, die Bedeutung der Prognose für die Unternehmensplanung dokumentiert, Fachverantwortliche werden einbezogen und im Rahmen eines Lernprozesses wird der Forecaster mehr über die Zukunft erfahren, als würde er nur Zeitreihen glätten und extrapolieren.

Prognosetechniken für spezielle Anwendungsfälle

11

11.1 Prognosen auf Basis von Kundenkaufverhalten bzw. -rezensionen und was das mit Big Data zu tun hat Das exorbitante Wachstum der Sozialen Medien einerseits und der Transfer zahlreicher klassischer, etablierter Geschäftsmodelle wie dem Versandhandel auf webgestützte Interaktionsplattformen (Websites und Smartphone-Apps) brachten uns die Möglichkeit, Daten in zuvor unbekannter Menge zu akkumulieren. Big Data war geboren. Und mit Big Data eröffneten sich neue Möglichkeiten, produktbezogene Korrelationen bei Kaufentscheidungen von Privatkunden zu berechnen: • Wenn ein Kunde Produkt A kauft, wird er mit einer Wahrscheinlichkeit von x % auch Produkt B kaufen. • Wenn ein Kunde die Versicherung A gekauft hat und „im Internet“ nach einem Kredit sucht, wird er mit einer Wahrscheinlichkeit von x % auch Versicherung B kaufen. • Wenn ein Interessent die Rezensionen für Produkt A liest und in der Vergangenheit schon Produkt B gekauft hat, wird er mit einer Wahrscheinlichkeit von x % Produkt A auch kaufen, wobei die Kaufwahrscheinlichkeit wiederum von der Höhe der Rezensionen abhängt.1 Im Grunde genommen sind solche Analysen einfach. Es werden

1 Weiterführend

siehe das Modell von Gupta & Schneider, 2016.

© Der/die Herausgeber bzw. der/die Autor(en), exklusiv lizenziert an Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2023 J. B. Kühnapfel, Vertriebsprognosen, https://doi.org/10.1007/978-3-658-42876-1_11

239

240

11  Prognosetechniken für spezielle Anwendungsfälle

1. Daten, die in mathematisch operationalisierbaren Formaten vorliegen, 2. statistische Fachkenntnisse und vor allem 3. Hypothesen benötigt.2 Überraschenderweise ist es am schwierigsten, die richtigen Hypothesen zu formulieren. Big Data-Analysen entstehen nicht aus dem nichts. Es sind immer die Fragen, die an das System gestellt werden, also Vermutungen über die Realität (= Hypothesen). Diese Fragen müssen so formuliert werden, dass der Zusammenhang zweier Variablen mathematisch überprüft werden kann. Hier ist Kreativität gefragt. Mit Blick auf den Markt und seine Determinanten (Kunden, Wettbewerber, Makrofaktoren, Saison usw.) werden Vermutungen über Variablenzusammenhänge geäußert, in eine Datenbankabfrage übersetzt und das Ergebnis sind Korrelations- oder Regressionsfaktoren. Entscheidend ist also, dass Marktexperten und Datenbankfachleute zusammenarbeiten. Erstere stellen die Fragen, letztere übersetzen diese in Abfragen. Aber immer ist das Ergebnis eine Frage der Kreativität und des Datenschatzes. Was hier so einfach klingt, gelingt jedoch nicht allen Unternehmen. Banken, Versicherungen, Versandhändler, Mobilfunkunternehmen, Energiedienstleister und andere, die über große Kundendatenbestände (Big Data) verfügen, tun sich erstaunlich schwer damit, die theoretisch gegebenen Möglichkeiten zu nutzen. Zuweilen gibt es rechtliche Hürden, die Daten zu nutzen, oft ist das Problem aber hausgemacht, etwa durch inkompatible Datenformate oder fehlende fachliche Ressourcen, Fragen der Marktexperten zu beantworten. Doch nicht selten ist es auch mangelnde Kreativität der Marketiers und Vertriebsleute, die richtigen Fragen zu stellen. Prognosen werden dann lieber auf Basis eigener Einschätzungen erstellt, als zu versuchen, diese Einschätzung zu hinterfragen oder zumindest mit einer berechneten Eintrittswahrscheinlichkeit zu untermauern. Vorbilder sind hier Unternehmen, deren Geschäftsmodell es ist, die Interessen ihrer Kunden bzw. Nutzer zu erkennen, um den Kauf weiterer Produkte bzw. die Nutzung weiterer Dienste zu erleichtern. TikTok, Amazon, Alibaba, Netflix, YouTube, Twitch, Threads oder Instagram analysieren das Nutzerverhalten durch einigermaßen komplexe Scoring-Modelle, das Verhalten anderer Nutzer und berechnen auf dieser Basis die Wahrscheinlichkeit, mit der eine Empfehlung ins Schwarze trifft.3 Und je nützlicher diese Empfehlungen von Nutzern empfunden werden, desto mehr wird ihnen vertraut. Ein „Game Changer“ könnte Künstliche Intelligenz werden. Generische Sprachbots, die auf Daten des jeweiligen Unternehmens zugreifen können und in der Lage sind,

2 Ehrmann,

2014. Beispiel für Kurzfristprognosen für Fast Fashion-Produkte auf Basis von Big Data-Auswertungen der Kundenrezensionen beschreiben See-To & Ngai, 2018, und Beheshti-Kashi, et al., 2015. Mit der Prognosequalität bei Nutzung von großen Datenmengen des Einzelhandels beschäftigt sich Kolassa, 2016.

3 Ein

11.2  Prognosen auf Basis von Marktanalysen

241

unterschiedliche Formate zu interpretieren, könnten in der Lage sein, Fragen der Marktexperten zu beantworten. IT-Expertise wäre dann nicht mehr auf der operationalen Ebene erforderlich4, um Variablenverknüpfungen einer Hypothese (Frage) zu konstruieren, sondern auf der Meta-Ebene, nämlich einen Bot zu konstruieren, der die Variablen einer Hypothese identifiziert, auf die vorhandenen Datenbestände zurückgreift, ein adäquates mathematisches (Prognose-)Modell auswählt und so die Fragen beantwortet (mehr dazu siehe Abschn 11.5). Genau dies ist das Geschäftsmodell von Anbietern wie OpenAI oder Aleph Alpha und möglicherweise gelingt es diesen Unternehmen eher, ein Metamodell marktfähig anzubieten, das Unternehmen erwerben und einsetzen können, die über (vielleicht ungeordnete) Datenbestände verfügt, als dass sie operationale IT-Kompetenz erwerben. Letzteres ist es den Unternehmen ja auch bisher nicht gelungen. Die Prognosemodelle selbst hingegen sind mathematisch simple Korrelations- und Regressionsanalysen, die bereits hinreichend beschrieben wurden. Die Schwierigkeit liegt in der Umsetzung und ich wage die Prognose, dass es noch lange große Unterschiede zwischen Unternehmen geben wird, die diese Werkzeuge beherrschen und solchen, die es nicht können. Wer wird überleben?

11.2 Prognosen auf Basis von Marktanalysen Ein recht komplexes Feld der Prognostik ist die Erstellung von Forecasts auf Basis von Marktanalysen. Sie dienen der Prognose langfristiger Nachfrage bzw. der Abschätzung zukünftiger Marktkonstellationen. In der Regel werden Marktforscher diese Prognosen erstellen und sie dienen – anders als Vertriebsprognosen – seltener als operative Planungsgrundlage für betriebliche Funktionalbereiche als der generellen Einschätzung von Marktchancen und somit strategischen Handlungs- und Investitionsentscheidungen, insbesondere im Marketing.5 Dennoch ist es nützlich, diese Prognosemethoden zu kennen, um ihre Ergebnisse für Vertriebs-Forecasts zu nutzen. Somit reicht an dieser Stelle aus, einige wesentliche Aspekte zu beschreiben. Ferner beschränke ich mich auf Techniken, die in Vertriebsorganisationen zum Einsatz kommen. Das weite Feld der marketingspezifischen Prognostik lasse ich außen vor. Im konkreten Bedarfsfall sei auf gängige Literatur zur Marktforschung verwiesen, die zahlreich angeboten wird. Analogiemethode bei ähnlichen Marktkonstellationen Die im Vertrieb am häufigsten anzutreffende Methode ist die Analogiemethode. Sie ist ebenso einfach wie eingängig: Es wird ein dem Prognoseobjekt vergleichbarer Markt

4  Eine

Idee in die Art der erforderlichen Expertise vermittelt das theoretische Konzept von Sohrabpour, et al., 2021. 5 Bzgl. Marketing-Prognosen siehe bspw. Armstrong & Brodie, 1999.

242

11  Prognosetechniken für spezielle Anwendungsfälle

gesucht, dessen Entwicklung repräsentativ erscheint. Oft sind solche Märkte im Ausland zu finden, in denen ein Produkt bereits zu einem früheren Zeitpunkt eingeführt wurde. Auch ausgewiesene Testmärkte eignen sich. Es werden die wesentlichen Determinanten wie das Nachfrageverhalten, die Marktgröße, die Wettbewerbssituation, die Art und Weise des eigenen Vertriebs und die eigene Kommunikationspolitik (usw.) verglichen und wenn diese ähnlich sind, wird eine kongruente Entwicklung unterstellt.6 Unterschiede zwischen den analogen Märkten und dem eigenen werden mit Korrekturziffern angepasst. Eine typische Anwendung ist die Prognose der Entwicklung der Vertriebsleistung bei der Eröffnung von Filialen („Roll out“). Wenn Erfahrungswerte vorliegen, wie sich der Umsatz in bereits eröffneten Filialen entwickelte, kann analog zu diesen auf den Umsatzverlauf einer weiteren zu eröffnenden Filiale geschlossen werden. Möglicherweise werden Adjustierungen der Werte vorgenommen, z. B. durch eine Proportionalisierung der Verkaufsfläche, der Anzahl von Besuchern usw. Es gilt:

Sind ähnliche Marktsituationen bekannt, darf aus einem bekannten Umsatzverlauf auf einen zu prognostizierenden geschlossen werden, sofern die gleichen Faktoren absatzbestimmend sind. Je vergleichbarer die Situationen sind, desto eher kann eine kongruente Entwicklung erwartet werden.

Analogiemethode bei korrelierenden Indikatoren Die Analogiemethode ist einfach anzuwenden, wenn eine bekannte Marktkonstellation als vorauseilender „Scout“ dient. Komplexer ist es, wenn kein solcher Scout zur Verfügung steht, sondern lediglich eine „Spur“ den Weg, also die Absatzentwicklung, markiert. Solche Markierungen werden als Indikatoren („Anzeiger“) bezeichnet und sie eignen sich durchaus für eine Vertriebsprognose, wenn sie zeitlich weit genug vorauseilen. So wird beispielsweise die Anzahl fertiggestellter Wohnungen ein guter Indikator für den Absatz von Gaszentralheizungen sein. Da Monate im Voraus bekannt ist, wann die Wohnungen fertiggestellt sein werden, eilt diese Zeitreihe dem gesuchten Prognosewert voraus.7 Ursache (Fertigstellung von Immobilien) und Wirkung (Absatz von Heizungen) stehen in einem kausalen Zusammenhang.

6 Das

gilt natürlich auch für die Erschließung neuer Kunden bei vorhandenen Produkten. Ein Beispiel aus dem Musikvertrieb beschreibt Fader & Hardie, 2001. 7 Vgl. hierzu auch Becker, 2011, S. 266 und Mertens, 2005, S. 205. Die Analogie zwischen dem Absatz von Haushaltsgeräten und der Fertigstellung von Häusern ist beschrieben in Carman, 1972.

11.2  Prognosen auf Basis von Marktanalysen

243

Deutlich zu warnen ist jedoch vor der allzu phantasievollen Suche nach Analogien. Oft zeichnen sich Analytiker dadurch aus, dass sie durch die Auswertung umfangreicher Datenbestände Analogien entdecken, die tatsächlich für eine bestimmte Zeit Gültigkeit hatten. Insbesondere jetzt, wo Big Data-Ansätze in aller Munde sind, greift diese Krankheit der Scheinkorrelationen um sich. Tatsächlich können solche Korrelationen bestehen, aber es ist ebenso möglich, dass sich lediglich aufgrund „übergeordneter Umstände“ die Faktoren ähnlich entwickelten, es aber keinen kausalen Zusammenhang zwischen ihnen gibt. So wird sicherlich nachzuweisen sein, dass der Absatz von Flachbildschirmen zeitlich dem Absatz von Computern folgte und der kausale Zusammenhang kann mit kognitiver Leichtigkeit konstruiert werden. Er erscheint dann folgerichtig und wird nicht weiter infrage gestellt. Tatsächlich aber sind die Absatzmärkte nur in einem kleinen Teilbereich korrelierend, aber für beide gilt, dass Privathaushalte technologisch aufgerüstet haben. Für die Zukunft muss das aber nicht gelten.8 Markt- und Marktanteilsprognosen Manchmal ist es leichter, anstatt Abverkaufszahlen oder Umsätze (bottom up) die zu erwartende Größe eines Marktes sowie den eigenen Marktanteil abzuschätzen (top down). Auf jeden Fall kann eine solche Marktanteilsprognose zur Prüfung des Verkaufs-Forecasts verwendet werden.9 Sie bietet sich insbesondere bei stabilen Umweltbedingungen an, also Märkten mit voraussagbarem Trend und ebenso voraussagbarer Marktanteilsverteilung. Am Rande: Es haben sich zahlreiche weitere Modelle zur Abschätzung von Marktanteilen bewährt, die jedoch zu grob sind, um als Vertriebs-Forecasts dienen zu können. In der Regel handelt es sich um expertengestützte Verfahren, wie sie in Kap. 10 beschrieben wurden. Zielgruppen- und Kaufverhaltensprognosen Ist die Zielgruppe für den zu prognostizierenden Umsatz bekannt, kann deren Kaufabsicht erforscht und als Grundlage einer Prognose genutzt werden. Voraussetzung ist allerdings eine verlässliche Segmentierung bzw. Clusterung der Kunden mittels nachvollziehbarer Methoden und objektiver Kriterien.10 Tatsächlich haben zahlreiche Studien nachgewiesen, dass es einen positiven Zusammenhang zwischen der Kaufabsicht und dem Kaufverhalten gibt11 und es wurde sogar ermittelt, dass die Erforschung von

8 Silver

bezeichnet nicht existente Analogien von Indikatoren, die nur zeitweise korrelieren, als „Magic Bullets“. Silver, 2012, S. 67. 9 Armstrong & Brodie, 1999 und Brodie, et al., 2002. 10 Ausführlich beschrieben in Kühnapfel, 2013a, S. 251 ff. Vgl. zur Bedeutung der Segmentierung Morwitz & Schmittlein, 1992. 11 Exemplarisch: Bemmaor, 1995. Eine mögliche Methode beschreiben Moe & Fader, 2002. Eine Fallstudie (Lucent Technologies) beschreibt Moon, et al., 2000.

244

11  Prognosetechniken für spezielle Anwendungsfälle

­ aufabsichten bei existierenden Konsumprodukten zu genaueren Vertriebsprognosen K führt als die Extrapolation von Vergangenheitswerten.12 Das klingt selbstverständlich, ist es aber nicht. Außerdem wird sich eine Marktforschung, die den Namen verdient, nicht mit einer direkten Fragenform begnügen („Würden Sie dieses Produkt kaufen?“), denn die Ergebnisse sind nur sehr begrenzt nutzbar und in jedem Falle für eine Vertriebsprognose zu unspezifisch. Für den Fall von Prognosen auf dem b2b-Markt eignen sich Abfragen von Kundeneinstellungen, z. B. mittels des Net Promoter Scores, bei dem aus der Antwort einer einzigen Frage an einen Kunden („How likely is it that you would recommend [the company, the product] to a friend or colleague?“) unter Anwendung eines recht einfachen Algorithmus auf die zukünftige Umsatzentwicklung geschlossen werden kann.13 Andere Verfahren, wie der „Knowledge of Customer Index“ arbeiten mit einer ähnlichen Idee, nämlich aus der Kenntnis der eigenen Klientel auf den zukünftigen Umsatz zu schließen.14 Der Vorteil von Kaufabsichtsuntersuchungen ist, dass die Ergebnisse eingängig und wie Beweise daherkommen. Werden diese Untersuchungen fachlich korrekt durchgeführt, also hinsichtlich Fragetechnik, Stichprobenauswahl und Auswertemethode nach den geltenden Regeln sachgerechter Marktforschung, bekommen die Ergebnisse nachgerade Beweischarakter. Es ist nicht verwunderlich, dass ca. 70–90 % der Konsumgüterhersteller Daten über Kaufabsichten von Konsumenten verwenden, um die zukünftige Nachfrage abzuschätzen.15 Abschließend sollen hier die neun Prinzipien der Befragung von Kunden mit dem Ziel der Prognose ihres Kaufverhaltens aufgelistet werden, die Morwitz vorschlägt, denn sie lassen sich kaum prägnanter darstellen:16 • Verwende Wahrscheinlichkeiten, um auszudrücken, was Konsumenten in der Zukunft beabsichtigen zu tun. • Sorge dafür, dass die Befragten ausschließlich ihr eigenes Kaufverhalten betrachten, wenn sie ihre Kaufabsichten beurteilen.

12 Armstrong, et al., 2000. Das Autorenteam zeigt anhand von vier Praxisfällen, dass Forecasts, die auf Kaufabsichtsbefragungen basieren, präziser sind als Zeitreihenextrapolationen. Ihre Schlussfolgerung ist, dass der sinnvollste Weg sei, Zeitreihen mit den Kundenforschungsdaten zu adjustieren. Dies reduziere Forecast-Fehler um bis zu einem Drittel. 13 Das Konzept wurde entwickelt von Reichheld und besticht durch seine nachweisbare Zuverlässigkeit der Ergebnisse, die allerdings recht grob sind, da sie einen weiten Prognosewertkorridor umfassen: Reichheld, 2006. Siehe eine zusammenfassende Beschreibung in Kühnapfel, 2013a, S. 287 ff. 14 Kühnapfel, 2013a, S. 270 ff. 15 Jamieson & Bass, 1989, und dieser Anteil dürfte sich bis heute noch erhöht haben. 16 Morwitz, 2002, S. 34 ff.

11.3  Szenario-Technik als Prognosemethode …

245

• Verwende nicht sklavisch die Ergebnisse der Befragung, sondern eliminiere vermutliche Verzerrungen (Kauf, weil er gegenwärtig cool erscheint usw.). • Verwende Erfahrungswerte, um zu beurteilen, inwieweit Kaufabsichten korrekt wiedergegeben werden. • Segmentiere die Befragten, um ihre Kaufabsichtseinschätzungen einzusortieren. • Verwende die Kaufabsichten, um einen Korridor wahrscheinlicher Prognosen abzuschätzen. • Vertraue eher Kaufabsichtseinschätzungen von Probanden, die bereits an Untersuchungen teilgenommen haben. • Berücksichtige, dass das Messen von Kaufabsichten das Verhalten der Probanden beeinflussen kann (sofern die Anzahl der Befragten relevant ist).17 • Berücksichtige, dass die Probanden, die sich nicht korrekt an ihren letzten Kauf erinnern können, tendenziell auch ihr zukünftiges Verhalten inakkurat abschätzen werden.

11.3 Szenario-Technik als Prognosemethode für Workshops und andere einmalige Anlässe Der Grund, im Rahmen von Workshops Prognosen zu erstellen, ist regelmäßig, die versammelten Teilnehmer auf ein gemeinsames Ziel einzuschwören. Die Ergebnisse sollen natürlich möglichst präzise sein, aber solange sie aus Sicht des Managements den Zielen ähneln und in die gleiche Richtung gehen, ist es nicht so wichtig, ob der Prognosefehler (z. B. MAPE) größer oder kleiner ausfällt. Prognosen sind dann Führungs- und Motivationsinstrumente. Wird der Forecaster als unternehmensinterner Experte für Prognosen gebeten bzw. beauftragt, im Rahmen eines Workshops durch die anwesende Gruppe eine Vertriebsprognose zu erstellen, benötigt er einen Werkzeugkasten an Methoden. Die allermeisten bisher vorgestellten Prognosetechniken eignen sich für diese Aufgabenstellung nicht. Weder lassen sich Zeitreihenanalysen noch rollierende Forecasts in Gruppenarbeit erstellen, die Delphi-Methode nutzt explizit Anonymität, die Forecast Estimation Group entwickelt ihre Qualität durch kontinuierliche Arbeit und die Top-down-Forecasts, die in Abschn 11.2 vorgestellt wurden, benötigen Zeit für die Marktforschung. All diese Techniken sind ungeeignet, aber es gibt eine Methode, mittels derer sich Prognosen in Gruppenarbeit erstellen lassen: die Szenario-Technik.

17 Probanden

verhalten sich anders, sobald sie wissen, dass sie Teil einer Untersuchung sind. Diese als „Hawthorne-Effekt“ bekannte Verzerrung, die sich ursprünglich auf Beobachtungen als Untersuchungsmethode bezog, kann im Rahmen einer Ergebnisadjustierung korrigiert werden.

246

11  Prognosetechniken für spezielle Anwendungsfälle

Was ist ein Szenario? Szenarien sind keine Prognosen. Es sind mögliche Zukünfte, die sich in ihren Ausprägungen unterscheiden und die jeweils unterschiedlich realistisch sind. Ihre jeweilige Eintrittswahrscheinlichkeit wird auch als Erwartungswert bezeichnet.

Szenarien haben den Nutzen, eine Unternehmensorganisation auf mögliche Zukünfte vorzubereiten.18

So lassen sich rechtzeitig Handlungen planen. Somit ersetzt ein Szenario eine strategische Prognose, vor allem dann, wenn die Umwelt derart instabil ist, dass sowohl Zeitreihenextrapolationen als auch intuitive Expertenprognosen keine Aussagekraft haben. Das Problem ist nun paradoxerweise, dass es leichtfällt, sich Szenarien auszudenken. Ohne Mühe können wir gleich mehrere beschreiben, können die Voraussetzungen und Rahmenbedingungen benennen, unter denen sie eintreten werden und wir sind sogar in der Lage, deren Auswirkungen zu beschreiben. Was wir hingegen nicht können, ist die Eintrittswahrscheinlichkeit einzelner Szenarien zu bestimmen. So lässt sich sogar im Selbstversuch eine typische kognitive Verzerrung erkennen: Wenn wir uns extreme Szenarien einfallen lassen, erscheinen sie anfänglich unwahrscheinlich. Wenn wir uns aber intensiver mir ihnen beschäftigen, die Eintrittsvoraussetzungen und die Folgen beschreiben und sie uns intensiver vor Augen führen, werden sie immer wahrscheinlicher, realistischer. Dieser Effekt ähnelt dem Mechanismus der Repräsentativitätsheuristik und die Gefahr für einen Workshop ist die gleiche: Wird ein Szenario von einem rhetorisch geschickten Teilnehmer „verkauft“ und argumentiert er mit einleuchtenden Kausalketten, wird diese kognitive Leichtigkeit mit Zustimmung belohnt. Ein Szenario erscheint dann realistisch, nur, weil es einleuchtet. Diesem Mechanismus kann durch die Einhaltung einer erprobten Methode entgegengewirkt werden. Und tatsächlich ist die Szenario-Technik nicht etwa der Oberbegriff für ein grob umrissenes Verfahren, sondern eine explizit und in spezifischer Literatur beschriebene Methode mit sehr genau einzuhaltenden Verfahrensschritten.19 Der Nutzen der Szenario-Technik Grundsätzlich dient die Szenario-Technik dazu, eine „begrenzte Anzahl alternativer Zukunftsverläufe, z. B. Markttrends, zu entwickeln. Dabei werden Interdependenzen der Einflussfaktoren berücksichtigt und die Eintrittswahrscheinlichkeit der jeweiligen Verläufe, der „Szenarien“, ermittelt.“20 Es sollen also mehrere Szenarien entwickelt werden,

18 Silver,

2012, S. 229. 1998, Wilms, 2006, Dönitz, 2009 und Schnaars & Topol, 1987. 20 Kühnapfel, 2013a, S. 125. 19 Reibnitz,

11.3  Szenario-Technik als Prognosemethode …

• • • •

247

die unterschiedliche Zukünfte antizipieren, die einen jeweils anderen Erwartungswert besitzen, die aber auch unterschiedliche Handlungen erforderlich machen und die einen langfristigen Blick nach vorne ermöglichen.21

Die Methode ist anspruchsvoll und verlangt eine exakte Moderation. Die Mitglieder des Workshops müssen sich an die Arbeitsschritte halten, Abkürzungen sind nicht akzeptabel. Ferner wird eine Software benötigt, um in einem späteren Arbeitsschritt (siehe unten) eine komplexe Auswertung zu berechnen. Dies ist erforderlich, denn eines der Grundprinzipien dieser Methode ist, das betrachtete Gesamtthema (die Zukunft) zu fragmentieren, sodass isolierte, fassbare und bewertbare Ausschnitte diskutiert und erst am Schluss wieder zusammengeführt werden. Und genau hier liegt die Crux der Methode: Die Fragmentierung verhindert ein vorschnelles Urteilen über das, was – weil es kognitiv leicht daherkommt – realistisch erscheint und was nicht. Wenn Moderator und Team alles richtig gemacht haben, erhalten sie im Ergebnis eine Anzahl von Szenarien mit einem akzeptablen Erwartungswert. Hilfreich ist, sich auf wenige Szenarien zu beschränken, z. B. drei, die eigene Bezeichnungen erhalten (z. B. „optimistisches“, „realistisches“ oder „pessimistisches“ Szenario). Während des Prozesses entstehen aber auch weitere, extremere Szenarien, die nicht etwa „weggeworfen“ werden, sondern dazu dienen können, die Organisation auf extreme Zukunftsverläufe, vor allem das Eintreffen Schwarzer Schwäne, vorzubereiten. Vorgehen bei der Szenario-Technik Nachfolgend ist ein typisches Vorgehensmodell beschrieben. Es sei jedoch explizit darauf hingewiesen, dass diese Beschreibung nicht ausreicht, um einem Forecaster die Moderation dieser Methode auf einem Workshop zu ermöglichen. Sie reicht lediglich dazu aus, sich in die Aufgabenstellung einzuarbeiten und die Methodik zu verstehen, aber der Moderator wird nicht umhinkommen, sich intensiver mit ihr zu beschäftigen:22 1. Spielregeln und Vorgehen erläutern: Der Moderator erläutert das Verfahren und die Anforderungen an die Workshop-Teilnehmer. 2. Fragestellung formulieren: Wie auch bei allen anderen hier vorgestellten Methoden und insbesondere den kreativen Verfahren, zu denen ausdrücklich – aber nicht unumstritten – die Szenario-Technik gehört, ist die Fragestellung sauber und präzise zu formulieren. Führt beispielsweise ein Baugroßhandel eine Szenario-Technik durch, um über anstehende Erweiterungsinvestitionen in Vertrieb und Lager zu befinden,

21 Gruber

& Venter, 2006. wird das „klassische“ Vorgehensmodell dargestellt. Es haben sich jedoch, insbesondere getrieben durch Unternehmensberater, zahlreiche Varianten herausgebildet. Vgl. Dönitz, 2009, S. 9 ff. Die Vorgehensbeschreibung ist entnommen aus Kühnapfel, 2013a, S. 125–127. 22 Hier

248

11  Prognosetechniken für spezielle Anwendungsfälle

böte sich die Frage an: „Wie werden mittelständische Bauhandwerksbetriebe in 10 Jahren ihre Materialien beschaffen?“ 3. Einflussfaktoren identifizieren: Welche Faktoren beeinflussen die Szenarien, in unserem Beispiel also das Beschaffungsverhalten der Bauhandwerksbetriebe? Diese Einflussfaktoren werden „Deskriptoren“ genannt, weil sie durch ihre Ausprägung den Verlauf der Zukunft beschreiben. Typisch ist, dass je nach Themenstellung 10 bis über 30 Deskriptoren gefunden werden. 4. Interdependenzen der Deskriptoren bewerten (Einflussanalyse): In einer Einflussmatrix wird bewertet, wie sich die Deskriptoren gegenseitig beeinflussen. Das Verfahren ähnelt der Paarvergleichsmethode, die in Nutzwertanalysen für die Gewichtung von Kriterien angewendet wird.23 Für jedes Faktorenpaar wird bewertet, inwieweit sich die betrachteten Faktoren gegenseitig beeinflussen. Die Einschätzung darf in einfacher Form erfolgen (gar nicht – gering – unbekannt – mittel – hoch), wobei die Einschätzungen in Werte zu übersetzen sind, um die Ergebnisse auswerten zu können (z. B. „gar nicht“ = 4 Punkte, „gering“ = 3 Punkte und so fort). Die Auswertung erfolgt mittels der Faktorenanalyse, und spätestens hier muss der Vertriebscontroller wissen, was das ist und wie es funktioniert. Der Einsatz von Software ist hier nicht nur sinnvoll, sondern nahezu unumgänglich. Das Ergebnis ist, dass die vormals meist recht große Anzahl von Deskriptoren auf eine überschaubare Anzahl von Hauptfaktoren reduziert wird. Diese wenigen übrigbleibenden Faktoren beschreiben das Szenario stellvertretend für die Gesamtheit aller Faktoren. Für diese Haupteinflussfaktoren werden nun jeweils einige wenige Entwicklungsverläufe angenommen, im Baubedarfsgroßhandelsbeispiel für den hier willkürlich ausgewählten Faktor „Bedeutung von Lieferantenkrediten“ sind dies die Entwicklungsverläufe • „hoch“: Großhandel überbrückt die Vorfinanzierung der zu beschaffenden Materialien, bis der Bauherr bezahlt, • „mittel“: Zahlungsziel von 4–6 Wochen bleibt marktüblich oder • „niedrig“: Banken sehen dies zukünftig als Kerngeschäft, stellen das erforderliche Working Capital und finanzieren vor. 5. Kombination möglicher Entwicklungsverläufe der Hauptfaktoren: Es werden Verläufe der verbleibenden Hauptfaktoren miteinander kombiniert. Dies lässt eine große Anzahl von Szenarien entstehen, die dem Produkt aus der Anzahl der Haupteinflussfaktoren mit der Anzahl der jeweiligen Entwicklungsverläufe je Faktor entspricht. Bei z. B. sieben Hauptfaktoren und jeweils drei Entwicklungsverläufen verbleiben 21 Szenarien. Zum Glück werden sich Kombinationen untereinander offensichtlich ausschließen oder sind doch zumindest derart unrealistisch, dass es wenig sinnvoll ist, diese weiter zu beachten. Solche Szenarien können gestrichen

23 Beschrieben

in Kühnapfel, 2014a, S. 14–16 und Kühnapfel, 2014b.

11.3  Szenario-Technik als Prognosemethode …

249

werden. Als Verfahren für die Zusammenstellung der Hauptfaktoren und zur Überprüfung derer Widerspruchsfreiheit haben sich sowohl die intuitive Herangehensweise als auch die Anwendung komplexer Algorithmen durchgesetzt.24 Das Problem ist, dass intuitive Verfahren auf der Subjektivität der Teilnehmer basieren und für die Anwendung der Algorithmen Software erforderlich ist, deren Verbreitung im Markt gering ist. Beides ist unbefriedigend. 6. Auswahl der weiter zu betrachtenden Szenarien: Dieser Schritt ist der methodisch unsauberste und folglich passieren hier auch die meisten Fehler. Es wird vom Moderator, vielleicht in Abstimmung mit den Teilnehmern, eine handhabbare Zahl von Entwicklungsverläufen der Hauptfaktoren ausgewählt; typisch ist eine Anzahl von drei bis acht, die verbal beschrieben werden. Auch ist es klug, den Szenarien einen plakativen Namen zu geben, um sie in der Diskussion benennen zu können. Empfehlenswert ist, die zwei Szenarien, die im Set der verbliebenen zwar als realistisch eingestuft und darum beibehalten wurden, aber die Extreme markieren, nicht zu streichen, sondern weiterhin zu betrachten. Oft zeigt sich, dass deren Eintrittswahrscheinlichkeit zwar gering, deren Auswirkungen auf das Unternehmen jedoch extrem folgenreich sind. Normalerweise wird in der gängigen Literatur nun empfohlen, die Eintrittswahrscheinlichkeiten der jeweiligen Szenarien zu berechnen. Allerdings ist bei dem bis hier beschriebenen Vorgehen nicht möglich, mehr zu tun, als eine subjektive Einschätzung vorzunehmen. Diese ist wenig hilfreich. Vielmehr sollte ganz bewusst auf diesen Zwischenschritt verzichtet und zunächst davon ausgegangen werden, dass jedes Szenario, auch das extremste, mit der gleichen Wahrscheinlichkeit eintreffen kann. Zielsetzung der Szenarioanalyse ist nicht, die Zukunft vorherzusagen, sondern die Organisation mit möglichen Zukünften zu konfrontieren, sodass die handelnden Personen sich gedanklich damit beschäftigen. Für diesen Zweck ist es unerheblich, die Eintrittswahrscheinlichkeit zu kennen, solange der Eintritt realistisch ist. 7. Bewertung der Auswirkungen der Szenarien auf das Unternehmen (Wirkungsanalyse): Für jedes einzelne Szenario wird untersucht, welche Auswirkungen es auf das Unternehmen hat. Sinnvoll ist ein strukturierter Vergleich, um für alle Szenarien die jeweils gleiche Folgeabschätzung vorzunehmen, z. B. in Form einer Tabelle. Je nach Fragestellung können die Auswirkungen sogar quantifiziert werden. Wenn beispielsweise ein Szenario eine Zunahme von Systemmodulen anstelle von Einzelbauteilen um x % voraussagt, so entspräche dies einem ausgleichslosen Absatzrückgang von Einzelbauteilen, sofern die Systemmodule vom Hersteller direkt an das Bauhandwerk ausgeliefert werden und den Großhandel als Verkaufsinstanz umgehen würden. 8. Aktivitätenplan: Für jedes Szenario ist ein Aktivitätenplan zu entwickeln, um das Unternehmen bestmöglich zu rüsten. Zuweilen werden die Aktivitäten für

24 Dönitz,

2009, S. 15.

250

11  Prognosetechniken für spezielle Anwendungsfälle

u­nterschiedliche Szenarien die gleichen sein oder sich zumindest ähneln. Doch andere wiederum sind konträr, was eine – strategische – Entscheidung verlangt. Hiermit verbunden ist die Einschätzung der Handlungsfolgen (Kosten, Nutzen usw.), um die wirtschaftliche Position des Unternehmens bei Eintritt des jeweils betrachteten Szenarios beurteilen zu können. Mit der Szenario-Technik eng verknüpft ist die Notwendigkeit eines Frühwarnsystems. Insbesondere dem Vertrieb und hier dem Forecaster kommt dabei eine wichtige Funktion zu, denn Veränderungen im Nachfrageverhalten sollten im Verkauf, also dort, wo die Kundenkontaktsituation „lebt“, als erstes wahrzunehmen sein.25 Zuweilen lässt sich die Entwicklung von Szenarien kaum noch von der Erstellung langfristiger Prognosen unterscheiden, vor allem, wenn Daten mehrerer Abstraktionsstufen berücksichtigt werden sollen. So beschreibt Wang ein Prognosemodell für den Einzelhandel, das Wirtschaftsindikatoren samt zugehöriger Zeitverzögerungen und Wechselwirkungen bzw. Abhängigkeiten zwischen Wirtschaftssektoren, aber auch konkurrierenden Unternehmen berücksichtigt, um mit einer „Deep-Learning-Platform“ Absatzprognosen wir Einzelhändler zu erstellen.26 Wangs Anspruch an seine Arbeit führt leider zu einem Modell, das für die betriebliche Praxis viel zu kompliziert ist. Bezeichnenderweise finden sich in der Literatur keine „Realitäts-Checks“ seines Modells.

11.4 Prognosen für neue Produkte und in Start-up-Situationen In Abschn. 10.1 wird beschrieben, dass für den Aufbau von vertrauenswürdiger Expertise zwei Faktoren erforderlich sind: Eine hinreichend stabile Umgebung und langjährige Erfahrung. Hier ist der Verkäufer der Experte und ihm geht es um das Erlernen von Regelmäßigkeiten. Nur so können Experten die diversen Umweltkonstellationen und die Ursache-Wirkungsbeziehungen erlernen, die sie dann unbewusst oder bewusst in ihre expertengestützten, intuitiven Prognosen einfließen lassen. Bei neuen Produkten und in Start-up-Situationen, die ich nachfolgend „neue Aktivitäten“ nenne, ist weder das eine noch das andere gegeben: 

Die abzuschätzende Situation ist noch unbekannt und somit kann kein Experte eine langjährige Erfahrung im Erkennen von Mustern haben. Allenfalls auf einer Metaebene kann ein Experte Erfahrungen besitzen, z. B., weil er schon z­ ahlreiche

25 Frühwarnsysteme

im Vertriebscontrolling sind beschrieben in Kühnapfel, 2013a, S. 79 ff. 2022. Weiterführend zum Thema „Nowcasting“, aber ebenso komplex: Banbura, et al., 2010, Fildes & Ma, 2018, und für den Automobilsektor Nymand-Andersen & Pantetidis, 2018. 26 Wang,

11.4  Prognosen für neue Produkte und in Start-up-Situationen

251

Markteintrittssituationen erlebt und gelernt hat, die erfolgsbeeinflussenden Faktoren zu erkennen und einzuschätzen.27 Wenn nun aber sämtliche Prognosemethoden ausscheiden, die historische Daten in Form von Zeitreihen verwenden, bleiben lediglich • der rollierende Forecast, • die Analogiemethode, sowie • der expertengestützte, intuitive Forecast sowie • Top-down-Abschätzungen übrig. In der betrieblichen Praxis ist die Gefahr bei Prognosen für neue Aktivitäten besonders groß, dass der Forecast eine Zielsetzung widerspiegelt. Auch haben empirische Untersuchungen gezeigt, dass der MAPE bis zu 65 % betragen kann, wenn der Absatz neuer Produkte prognostiziert werden soll.28 Hinzu kommt, dass gleiche mehrere Wahrnehmungsverzerrungen die jeweils Prognostizierenden dazu verführen, überoptimistisch zu sein, und zwar umso mehr, je mehr sie involviert sind. Dies zeigt sich vor allem, wenn Produktmanager mit einer optimistischen Absatzprognose für ihre Produktidee kämpfen oder wenn Unternehmer Investoren von ihrer Geschäftsidee überzeugen möchten.29 Die Frage erscheint berechtigt, ob Forecasts unter solchen Umständen die Mühe wert sind. Aber natürlich sind sie das, denn selbstverständlich benötigen die involvierten betrieblichen Funktionalbereiche eine Planungsgrundlage, z. B. für Produktions- und Beschaffungsmengen oder Finanzierungsmittel. Zwar könnten diese Vorgaben auch das Resultat von Zielvorgaben der Unternehmensführung sein, doch ist es sinnvoll, auch im Falle neuer Aktivitäten einen Forecast aufzustellen, der den Zielvorgaben gegenübergestellt wird, damit überprüft werden kann, wie realistisch diese sind. 

Prognosen für neue Aktivitäten dienen der Einschätzung der Sinnhaftigkeit von Zielvorgaben und sind somit nicht Planungsgrundlage, sondern ein Kontrollinstrument.

27 Zu Vertriebsprognosen in High-Tech-Märkten siehe Gnibba, 2006, Decker & Gnibba-Yukawa, 2010 sowie bzgl. intuitiver Prognosen Scott & Keiser, 1984, zu solchen auf Konsumgütermärkten die immer noch aktuellen Aufsätze von Heeler & Hustad, 1980 und Brown, et al., 1965 sowie Urban, et al., 1993, zum Spezialfall der Prognose für den Absatz neuer Produkte in neuen Firmen Gartner & Thomas, 1993. Grundlegend: Tull, 1967, Urban, et al., 1996, Jain, 2007. 28 Armstrong & Brodie, 1999. 29 Tyebjee, 1987. Sicherlich ist dies auch eine mehr als gute Begründung dafür, dass Prognosen von Personen erstellt werden sollten, denen eine neutrale, nachgerade nüchterne Sicht auf das Prognoseobjekt unterstellt werden darf.

252

11  Prognosetechniken für spezielle Anwendungsfälle

Tab. 11.1  Beispiele tendenziöser Prognosen für neue Aktivitäten Stakeholder

Tendenz der Prognose

Erläuterung

Verkäufer und Vertrieb

Niedrig

Beharrung, Reduzierung der Erwartungshaltung, Festhalten an den bekannten, gut einschätzbaren Produkten und am berechenbaren Provisionssystem, Vermeidung von Verkaufsrisiken (Wie kommt das neue Produkt bei vorhandenen Kunden an?)

Marketing, insb. Produktmanagement

Optimistisch

Risikoorientiert, Primat des Wandels, Glaube an Neuerungen, Angst davor, im Wettbewerb ins Hintertreffen zu geraten

Produktion, Beschaffung

Indifferenz

Rolle des internen Dienstleisters und Umsetzers, aber nicht in der unternehmerischen Verantwortung

Unternehmensführung

Fallspezifische Einschätzung

Kritisch, wenn vorhandene Marktposition gefährdet wird (etabliertes Produkt wird ausgetauscht) oder hohe Kosten die Unternehmenssubstanz gefährden, mutig, wenn Handlungsdruck besteht

Unabhängige Experten

Tendenziell ausgewogen Voraussetzung: kompetente Experten, jedoch Gefahr der Interessensvermengung, wenn z. B. neue Aktivitäten Beratungsaufträge bringen

In den meisten Unternehmen werden, um die Chancen einer neuen Aktivität einzuschätzen, die verschiedenen Interessenträger („Stakeholder“) diskutieren. Es werden intuitive Einschätzungen ausgetauscht („Ich glaube, dass …“) und um die Lufthoheit über den Meeting-Tischen gerungen. Meinungen setzen sich durch, weil ihre Vertreter geschickt argumentieren und sie am besten die Gesetzmäßigkeit der „Glaubwürdigkeit durch kognitive Leichtigkeit“ berücksichtigen. Es entwickelt sich situative Prophetie. Die Vertriebsprognosen, die so entstehen, spiegeln Meinungen, Hoffnungen und Ängste wider. Sie bekommen durch ihnen innewohnende Tendenzen den Charakter von Argumenten. Tab. 11.1 illustriert Beispiele tendenziöser intuitiver Prognosen. Spätestens hier wird klar, dass versucht werden sollte, der interessengetriebenen eine methodisch objektive Prognose gegenüberzustellen. Sie wird wie immer bei Vertriebsprognosen Zielwerte und Eintrittswahrscheinlichkeiten umfassen, damit die letztlich entscheidenden Personen, hier die Unternehmensführung, eine Maß für das Risiko ihrer Entscheidungen erhält. Diese Vertriebsprognosen werden je nach Entwicklungsphase der neuen Aktivität unterschiedlich erstellt werden können, denn es liegen jeweils andere Informationen vor. Typisch sind die drei nachfolgend dargestellten Phasen: 1. Ideenphase: Es werden neue Aktivitäten erdacht und deren Auswirkungen auf die Position des eigenen Unternehmens projiziert. In dieser Phase sind Prognosen Teil

11.4  Prognosen für neue Produkte und in Start-up-Situationen

253

von Planspielen im Sinne theoretischer Überlegungen. Investitionen darüber hinaus finden zunächst keine statt, die meisten Ideen werden wieder verworfen. 2. Entwicklungsphase: Eine Idee wird goutiert, die Markteinführung entschieden, Investitionen in die Entwicklung z. B. eines neuen Produktes sowie dessen Markteinführung erfolgen. Markt- und Kundentests können mit Prototypen erfolgen. Marktanalysen-basierte Prognosen entstehen. Es besteht für die Unternehmensführung noch immer die Möglichkeit, mit vertretbarem Aufwand die Einführung zu stoppen. 3. Einführungsphase: Die neue Aktivität wird öffentlich. Z. B. ersetzt das neue Produkt ein altes und insofern markiert die Einführung den „Point of no return“. Kunden und Wettbewerber werden mit der Neuerung konfrontiert, die Unternehmensorganisation, so auch der Vertrieb, stellt bzw. stellen sich um. Nachfolgend werden die Möglichkeiten für Prognosen oder für Prognose-Surrogate in diesen drei Phasen dargestellt.

11.4.1 Prognosen für neue Aktivitäten in der Ideenphase Naturgemäß dominieren in dieser Phase intuitive, expertengestützte Prognosetechniken. Meinungen erfahrener Personen ersetzen Forecasts. Günstigstenfalls können Analogien gefunden und mittels der in Abschn. 11.2 beschriebenen Analogiemethode für einen vagen Forecast genutzt werden. In jedem Falle werden die Eintrittswahrscheinlichkeiten verschiedener Prognosen unpräzise bleiben. Ersatzweise werden die Ergebnisse von Marktforschungen verwendet, um Tendenzaussagen zu erhalten. Grundsätzlich gilt: 

Je neuartiger die Aktivität ist und desto weniger Erfahrungen mit Vergleichbarem vorliegen, desto unsicherer werden auch die Prognosen.

Dennoch ist es erforderlich, Forecasts zu erstellen, und das ist auch gut so, sofern deren Aussagewert und somit deren Belastbarkeit für Planungen klar benannt werden. Werden diese nicht deutlich dokumentiert, entsteht ein Priming-Effekt und die Prognose trübt den Blick auf das Projekt, indem sie es beeinflusst. Ein Beispiel: Bei Neugründungen (Start-ups) werden Geschäftspläne ausgearbeitet, die durch die Extrapolation von Annahmen in mathematischem Sinne, also Multiplikationen, äußerst präzise Werte wiedergeben. So wird beispielsweise der Umsatz im fünften Jahr nach Gründung bis zur zweiten Nachkommastelle berechnet. Erfahrungsgemäß wird diese Scheinpräzision auch erwartet und Investoren wären eher irritiert, wenn anstatt solcher errechneter Werte Korridore oder gerundete Zahlen angegeben würden. Auch machen sich weder die Entrepreneure noch die Investoren die Mühe, Eintrittswahrscheinlichkeiten für die Geschäftspläne zu schätzen. Ein Fehler? Ja. Doch gibt es eine Managementtechnik, die diese Lücke schließt, und die wird in der Regel auch genutzt: Sensitivitätsanalysen. Sie werden erstellt, um erstens die sensiblen

254

11  Prognosetechniken für spezielle Anwendungsfälle

Faktoren zu identifizieren und zweitens diese im Sinne von Simulationen zu variieren. So entsteht ein „Gefühl“ für die Robustheit der Geschäftspläne, das sonst Eintrittswahrscheinlichkeiten vermittelt hätte. Tatsächlich gibt es keine wirklich sinnvollen Prognosetechniken, die ein besseres Ergebnis garantieren als ein solches Vorgehen. Was an dieser Stelle empfohlen werden soll, und hier fließen meine persönlichen Erfahrungen sowohl mit der Einführung neuer Produkte als auch mit Start-upSituationen ein, ist, dass möglichst viele Schätzungen von Experten eingeholt werden sollten:  Die sinnvollste Prognosemethode in der Ideenphase ist die expertenbasierte

Schätzung: Experten schätzen unabhängig voneinander die Zukunft ein, und zwar sowohl quantitativ (z. B. Umsatzentwicklung, Entwicklung des Absatzes in Stücken, Entwicklung des Marktanteils usw.) als auch qualitativ, in dem sie ihre Schätzungen begründen. Die extrem ausfallenden Schätzungen markieren die obere und untere Grenze des Erwartungskorridors und der Durchschnitt wird – wie bei einem kombinierten Forecast  – eine verlässlichere Einschätzung des Zukunftsverlaufs bieten als die meisten anderen Methoden. Möglich ist, dieses Verfahren auszuweiten und die DelphiMethode anzuwenden. Dann wird kein Durchschnittswert errechnet, sondern durch eine zweite Iteration und ggf. durch eine dritte wird eine Konsensprognose erstellt (siehe Abschn. 10.3).

11.4.2 Prognosen für neue Aktivitäten in der Entwicklungsphase Die Entscheidung für die neue Aktivität ist getroffen. Jetzt wird ein Forecast benötigt, der zur Grundlage der operativen Planung wird, insbesondere der Ressourcenplanung. Gefragt sind zukünftige Abverkaufsmengen. Allerdings liegen in dieser Phase keine Erfahrungen vor, der Verlauf der Absatzkurve ist unbekannt, es gibt noch zu viele unbekannte Faktoren.30 Doch außer den Produktentwicklungskosten sind es die Markteinführungskosten, die zum einen den größten Kostenblock ausmachen und zum anderen ihrerseits den Markteinführungserfolg bestimmen. Es kann also bei einer Vertriebsprognose nicht von einem fixen Ressourceneinsatz ausgegangen werden, sondern gefragt ist die Gestaltung der gewinnoptimalen Balance von Marketing-Aufwendungen und Erlösen – die Preisabsatzfunktion.31 Für eine Vertriebsprognose fehlen die Inputdaten, aber die Inputdaten würden sich aus der Vertriebsprognose ergeben. Was also ist zu tun?

30 Vgl.

hierzu weiterführend Fader & Hardie, 2002. spielen dabei noch weitere Faktoren eine Rolle, etwa Mengendegressionseffekte (Economies of Scale), auf die hier aber nicht eingegangen wird. 31  Natürlich

255

11.4  Prognosen für neue Produkte und in Start-up-Situationen

Das gängige Instrument ist, frühzeitig einen Test- oder Vorabverkauf der neuen Produkte zu versuchen. Bekannt ist dieses Vorgehen vor allem im Dienstleistungsgeschäft: Da hier produktbedingt der Verkauf vor der Leistungserbringung erfolgt, der Kunde also grundsätzlich ein Produkt aufgrund von Beschreibungen und Erzählungen erwirbt, ist es sehr einfach, ein Produkt gedanklich zu konstruieren, zu verkaufen und so Kundenreaktionen einzusammeln. So kann ein gänzlich neuer Mobilfunktarif oder ein neues, bisher nicht existentes Versicherungsprodukt angeboten werden, ohne dass die Produktentwicklung abgeschlossen bzw. die Dienstleistung marktreif wäre. Das Feedback dient außer der Hochrechnung zu einer Prognose auch der Anpassung der Produkt-Features, sofern das in dieser Phase noch möglich ist. Für die auf solchen Test- oder Vorabverkaufsdaten basierende Vertriebsprognose entscheidend ist nun der Algorithmus, der für die Hochrechnung verwendet wird. Vor allem, wenn der erwartete Absatz keine lineare Funktion der Zeit ist, sondern der Trend durch interaktive Prozesse, Marktkommunikationsmaßnahmen (Werbung), die Kontrahierung neuer Vertriebspartner oder Sonderaktionen (Preisangebote usw.) signifikant beeinflusst wird, ist eine Extrapolation schwierig. Darum muss neben • der Messung der Absatzmenge bzw. dem Umsatz je Verkaufszeit auch • der Trendverlauf über den Testzeitraum hinaus

?

Sättigungslevel

?

Sättigungs -level

Stück

Stück

prognostiziert werden. Mögliche Verläufe zeigt Abb. 11.1 und die Graphen, die Trends repräsentieren, ähneln jenen aus Abb. 8.2. Auch hier spielen der Level, Steigungen,

Zeitpunkt Trendwende

?

t

t

?

Stück

Stück

? Verlauf offen

Verlauf offen

Zeitpunkt Trendwende?

t

Stück

Stück

t

?

Verlauf offen

t

Abb. 11.1   Typische Verläufe von Absatzfunktionen neuer Produkte

?

t

256

11  Prognosetechniken für spezielle Anwendungsfälle

Sprünge, Wendepunkte, Sättigungslevel und Zyklen wie z. B. saisonale Verläufe eine Rolle.32 Die oberen zwei Verläufe zeigen glockenförmige Kurven, bei denen es jeweils einen Sättigungslevel gibt. Die Fragen, die sich im Kontext der Prognose stellen, sind: • Bei welcher Absatzmenge ist der Sättigungslevel erreicht? • Wann ist diese maximale Absatzmenge erreicht? Und für den Spezialfall des oben rechts dargestellten Trendverlaufs: • Wann ist der Zeitpunkt erreicht, ab dem sich die Steigung der Verkaufskurve signifikant ändert? Wann ist die Trendwende erreicht? Ab welchem Zeitpunkt müssen ausreichend Produkte bereitgestellt werden, um den Absatzboom mitnehmen zu können. Die beiden mittleren Verläufe zeigen typische, unstete aber tendenziell mehr oder weniger eindeutige Verläufe. Der linke stellt eine zwar geringer werdende, aber immer noch eindeutig steigende Verkaufskurve dar. Der rechte Verlauf ist typisch für einen Testzeitraum, der nur begrenzte Informationen liefern kann: Der Verlauf ist nicht eindeutig, vielleicht, weil nur wenige erfolgreiche Testverkäufe die Funktion beeinflusst haben. Grundsätzlich ist auch hier ein Trend mit positiver Steigung zu erkennen. Ganz ähnlich ist der Verlauf unten rechts zu bewerten, denn auch hier ist zu prüfen, auf welcher Mengenbasis die Daten entstanden. Zuletzt ist noch der Verlauf unten links anzusprechen, denn ihm kommt bei neuen Aktivitäten eine ganz besondere Bedeutung zu: Der „Hockey Stick“. Dieser findet sich in der Mehrzahl von Präsentationen zu neuen Aktivitäten. Er ist Ausdruck der Hoffnung, dass ab einem zukünftigen Zeitpunkt der Absatz exponentiell steigen wird. Diese Vielzahl möglicher Verläufe zeigt, dass es nicht einfach ist, aus den Abverkäufen, die in einem kurzen (Test-) Zeitraum getätigt werden, auf die spätere Entwicklung des Absatzes zu schließen. Mal ist der Testzeitraum repräsentativ, mal nicht, aber wann er es ist, erschließt sich nicht aus den Daten. Und als ob diese Unsicherheiten für den Forecaster noch nicht problematisch genug wären, kommt als weiterer Faktor hinzu, dass auch das Verhalten der Verkäufer im Testzeitraum die Ergebnisse beeinflusst, auch dann, wenn dies nicht beabsichtigt ist. Sie werden weniger offensiv verkaufen, denn wenn das Produkt noch nicht vollends verfügbar ist, werden sie spätestens bei der Frage nach einem Liefertermin lügen müssen. Das bremst, vor allem, wenn Interessenten bzw. Kunden gegenübersitzen, die wichtig sind. Lügen die Verkäufer aber nicht, müssen sie eine antizipierende Frage stellen („Würden Sie das Produkt kaufen, wenn es verfügbar wäre?“) und diese führt regelmäßig zu überoptimistischen Werten, denn die meisten Kunden überschätzen ihre Kauflust bis genau

32 Vgl.

hierzu weiterführend Meade & Islam, 2002 und Armstrong & Brodie, 1999.

11.4  Prognosen für neue Produkte und in Start-up-Situationen

257

zu dem Zeitpunkt, an dem der Kauf rechtsverbindlich wird. Das gilt für den Konsumwie für den Investitionsgütermarkt gleichermaßen. Was ist also zu tun? Eine ideale Lösung gibt es nicht. Mein Vorschlag an dieser Stelle ist unter der Prämisse zu verstehen, dass eine funktionierende, auf Vertrauen basierende Kundenbeziehung in jeder Geschäftsform heilig ist. Dann gilt: Der Verkäufer darf nicht lügen! Er darf den Kunden interviewen, mit ihm über das geplante neue Produkt sprechen, aber er darf keinesfalls so tun, als sei es schon verfügbar, nur um dann im Falle eines Verkaufs den Liefertermin nach hinten zu schieben. Eine sinnvolle Alternative ist die Abfrage des Net Promoter Scores, wie er in Abschn. 10.1 unter der Zwischenüberschrift „Zielgruppen- und Kaufverhaltensprognosen“ beschrieben wurde. Die Frage wird jedoch abgewandelt in: „Wie wahrscheinlich ist es, dass Sie dieses Produkt kaufen werden?“. Auch hier soll der Befragte die Wahrscheinlichkeit auf einer Skala von 1 bis 10 eintragen. Entscheidend ist nun der Algorithmus, der angewendet wird, um die Kaufwahrscheinlichkeit zu schätzen. Es gilt: • Wahrscheinlichkeit 0 bis 6: „Skeptiker“, Kauf – wenn überhaupt – erst in der Reifephase denkbar. • Wahrscheinlichkeit 7 und 8: „Follower“, Kauf nach der Einführungs- in der Wachstumsphase. • Wahrscheinlichkeit 9 und 10: „Early Adopter“, Kauf bereits in der Innovations- bzw. der Einführungsphase. Der Net Promoter Score errechnet sich nun aus der Subtraktion der „Skeptiker“ (zuweilen im Kontext des Net Promoter Scores auch „Kritiker“ genannt) von den „Early Adopters“ (bzw. „Promotoren“). Die Follower bleiben in der Berechnung außen vor. Abb. 11.2 veranschaulicht ein mögliches Ergebnis. Was bedeutet das Ergebnis von hier 18 %? Es liefert eine Indikation über die zu erwartende Akzeptanz der neuen Aktivität. Allerdings bedeutet es nicht, dass 18 % der Zielgruppe das Produkt auch tatsächlich kaufen werden! Das NPS-Modell von Reichheld ist lediglich ein Stimmungsbarometer, dessen Treffgenauigkeit in der Praxis jedoch überzeugt. Das Ergebnis kann übrigens auch negativ werden, wenn mehr Skeptiker als Early Adopters vorhanden sind. Das ist dann zwar kein hinreichender Beweis dafür, dass sich das Engagement nicht lohnt, aber es ist eine deutliche Warnung.

11.4.3 Prognosen für neue Aktivitäten in der Einführungsphase Wenn ein Produkt erst einmal eingeführt ist, kann extrapoliert werden. Die Abverkaufszahlen der Einführungs- bzw. Anfangsphase dienen als Grundlage und einen typischen S-förmigen Verlauf unterstellend wird der Forecast errechnet. Doch wie zuverlässig ist diese Methode? Sie ist natürlich nur dann ausreichend genau, wenn die weitere Entwicklung der Absatzzahlen dem unterstellten Muster folgt. Doch die alternativen

258

11  Prognosetechniken für spezielle Anwendungsfälle

Wie wahrscheinlich ist es, dass Sie Produkt x kaufen werden?

Skeptiker

0

Wird nicht geschehen

1

2

3

Follower

4

5

6

7

8

Early Adopters

9

10

Auf jeden Fall

Beispiel: • 32% Early Adopters • 54% Follower • 14% Skeptiker

NPS: 32% - 14% = 18%

Abb. 11.2   Adaption des Net Promoter Scores auf Prognosen in der Entwicklungsphase

­Verläufe, die Abb.  11.1 zeigt, machen deutlich, wie kritisch Unterstellungen sein können. Immerhin stehen im Gegensatz zur Ideen- oder Entwicklungsphase erste Erfahrungen mit realen Verkäufen zur Verfügung, doch besonders belastbar sind diese noch nicht. Sie werden stark von den Markteinführungsaktivitäten des Marketings abhängig sein. Abb. 11.3 illustriert, welche grundsätzlichen Verläufe der Abverkäufe es nach einer Einführungsphase geben kann und tatsächlich finden sich für die Kurven (a), (b) und (c) eine Fülle von Beispielen aus allen denkbaren Branchen. Auffällig ist, dass der Verkauf in der Einführungsphase stetig stieg. Bei genauem Hinschauen fällt jedoch auf, dass die Zunahme der Steigerung je Monat immer geringer wird. Die Absatzkurve verläuft konvex. Ist das bereits ein Zeichen für eine Stagnation in naher Zukunft? Nun, die Kurve (b) schreibt den bisherigen Verlauf fort. Die mathematische Funktion, die für die Beobachtungsperiode galt, gilt auch darüber hinaus, wobei die beschriebene Verringerung der Steigerung je Monat augenfällig ignoriert wird. Der Verlauf (c) zeigt einen Absatzeinbruch. Die Ursache kann eine Reaktion des Wettbewerbs sein, aber auch das Erreichen einer Sättigung. Verlauf (a) zeigt eine erfreuliche Entwicklung, die, träfe sie ein, unbeachtet vielleicht zu Lieferengpässen führen könnte. Häufiger als die Verläufe in Abb. 11.3 werden allerdings jene in Abb. 11.4 anzutreffen sein. Hier verläuft die Absatzkurve im Testzeitraum konkav, die Steigerung der Abverkaufszahlen je Monat wächst. Üblicherweise wird ein Verlauf wie in Kurve (b) dargestellt angenommen (S-Kurve). Die Frage ist allerdings, wann der Wendepunkt erreicht ist, die Absatzmenge je Zeiteinheit also nur noch unterproportional zunimmt. Nicht verwunderlich ist, dass insbesondere Start-up-Unternehmen gerne Kurven wie jene als (a) bezeichnete zeigen. Diese „Hockey-Stick“-Funktionen setzen auf die Zukunft und entschuldigen einen

11.4  Prognosen für neue Produkte und in Start-up-Situationen

259

(a)

Weiterer Verlauf offen

(b)

?

(c)

Beobachtungszeitraum

Zukunft

Abb. 11.3   Fortsetzung des Verkaufserfolgs eines neuen Produktes nach einer Einführungsphase (Verlaufsform 1)

schleppenden Markteintritt. Und tatsächlich erinnern wir uns an viele Unternehmen mit genau einem solchen Verlauf, von McDonald über Facebook bis hin zu Google und WhatsAS. Ihnen war gemeinsam, dass ihre Abverkäufe nach einer eher moderaten Einführungsphase exorbitant stiegen. Doch lauert hier die Wahrnehmungsverzerrung der Repräsentativitätsheuristik: Wir erinnern uns an solche Leuchtturmprojekte und halten ihren Erfolg für „normal“, weil sie uns leicht und zahlreich einfallen. Tatsächlich aber bilden Verläufe wie jene in (b) und (c) gezeigten die große Mehrzahl bei Produktinnovationen und Start-up-Situationen, wir erinnern uns aber nicht an sie, weil sie nie bekannt wurden. Und wenn wir uns an spektakuläre Fehlschläge erinnern, sind wir eifrig darin, Erklärungen dafür zu konstruieren, um sie als Einzelfälle zu brandmarken, die sich so sicherlich nicht wiederholen können. Wir verkennen dabei jedoch, dass die Unternehmer, die hinter diesen Fehlschlägen stehen, vermutlich keineswegs dümmer waren als wir selbst. Sie verfügten aber zu dem Zeitpunkt, zu dem sie ihre Entscheidungen trafen, naturgemäß nicht über unsere Informationen. Klar ist: Die allermeisten neuen Aktivitäten scheitern und es ist bezeichnend, dass Prognosen dies selten vorher zeigten und wenn, diese nicht beachtet wurden.33

33 Vermutlich scheitern 85–95 % aller technischen Innovationen: Bauer, 2006. Interessanterweise hatte Bauer Mühe, für seine Forschungen Unternehmen dazu zu bewegen, über ihre Fehlschläge zu berichten. Viele gaben sogar an, bisher keine gehabt zu haben. Vgl. hierzu auch Schnabel, 2004.

260

11  Prognosetechniken für spezielle Anwendungsfälle

(a) Weiterer Verlauf offen

(b)

?

(c)

Beobachtungszeitraum

Zukunft

Abb. 11.4   Fortsetzung des Verkaufserfolgs eines neuen Produktes nach einer Einführungsphase (Verlaufsform 2)

Exkurs: Prognosen nach Produkteinführung in der Konsumgüterindustrie

Einen Sonderfall stellt die Konsumgüterindustrie dar: Hier gehören Produktinnovationen zum Tagesgeschäft und entsprechend professionell gehen die Unternehmen damit um. Doch was macht gerade die Konsumgüterunternehmen so besonders? 1. Es ist ein recht hohes Maß an Risikobereitschaft hinsichtlich einzelner Produkte festzustellen. Das ist auch nicht verwunderlich, denn die Folgen eines Fehlschlags sind für Mehrproduktunternehmen nicht verheerend. 2. Die Entwicklung eines Konsumproduktes ist vergleichsweise kostengünstig. 3. Testmärkte sind etabliert und das Verfahren ist geübt, z. B. in Testverkaufsfilialen von Einzelhandelsunternehmen. 4. Es liegen hinreichend viele Erfahrungen (Expertise) vor, um von Testergebnissen zuverlässig auf den späteren Erfolg schließen zu können. Der typische Beobachtungszeitraum für Consumer-Produkte beträgt 52 Wochen. Woche für Woche werden die Ist-Abverkaufsdaten des Testmarktes mit den

11.4  Prognosen für neue Produkte und in Start-up-Situationen

261

Prognosen verglichen. Die Istdaten werden in die Zeitreihe übernommen und somit das Jahresendergebnis Woche für Woche valider.34 Aber das reicht nicht: Die ursprüngliche Zeitreihe muss erhalten bleiben und es muss Woche für Woche untersucht werden, ob eine systematische Abweichung vorliegt, also eine Unteroder Überschätzung. Wenn dies gegeben ist, muss die Extrapolationsformel mit dem Ziel angepasst werden, dass die Prognosewerte in den darauffolgenden Wochen um die Ist-Verkaufszahlen schwanken. Erst dann, wenn die Werte mal darüber und mal darunter liegen und die Addition der Abweichungswerte einen Wert idealerweise von 0 ergibt, ist die Extrapolationsformel korrekt. Typisch für die Konsumgüterindustrie sind auch CONJOINT-Analysen (Verbundmessung). Es handelt sich um eine multivariate Analyse, bei der ein Produkt in viele Variablen, die einen Konsumenten zu einem Kauf bewegen, zerlegt und einzeln gemessen werden. Konsumenten werden dafür gebeten, ein Urteil über Produkte und deren einzelne Eigenschaften abzugeben. CONJOINT-Analysen gehören zum Standard-Repertoire von Konsumgüterherstellern, z. B., um die kaufentscheidenden Produkteigenschaften zu isolieren.35 Die Frage ist nun, inwiefern die Ergebnisse dazu taugen, um die zukünftige Nachfrage zu prognostizieren. Nach gängiger Meinung ist dies unter folgenden Umständen möglich:36 • Befragte repräsentieren den Zielmarkt, sodass die Ergebnisse hochgerechnet werden können. • Befragte sind die Entscheider für den Kauf des Produktes. • Die Entscheidungsalternativen können aussagekräftig mit einer überschaubaren Anzahl von „Attributen“ beschrieben werden. • Befragte nehmen bewusst an der Analyse teil und sind sich der Bedeutung ihrer Urteile bewusst. • Die Befragung ist mit der späteren realen Einkaufssituation vergleichbar, insbesondere hinsichtlich Alternativen usw. Das Set an „Attributen“ ist komplett, sodass in der späteren realen Einkaufssituation keine weiteren, kaufentscheidungsbeeinflussenden Faktoren hinzukommen. • Die angegebene Produktwahl der Befragten wird mit dem gemessenen „Grad der Kaufabsicht“ gewichtet.

34 Fader

& Hardie, 2002. werden CONJOINT-Analysen mit der Monte-Carlo-Technik verknüpft, um Simulationen als Prognosen zu verwenden. Siehe Hillig, 2006. 36 Witting & Bergestuen, 2002. 35  Zuweilen

262

11  Prognosetechniken für spezielle Anwendungsfälle

CONJOINT-Analysen können wertvolle Informationen für Forecasts liefern. Da sie jedoch nur den gegenwärtigen Markt untersuchen, sind sie als Prognoseinstrument mit Vorsicht zu gebrauchen. Der zukünftige Markt mit all seinen Interdependenzen kann (und wird meist auch) anders als der erwartete sein.37

11.5 Der Einfluss der KI auf die Prognostik Für die Überarbeitung dieses Buches habe ich mich intensiv mit den Möglichkeiten der aktuell verfügbaren KI-Systeme beschäftigt. Tatsächlich ist es möglich, bspw. in ChatGPT Listen von Vergangenheitsdaten einzugeben und sich einen Trend nach diversen Vorgaben ausrechnen zu lassen. Jetzt zum Aber: Das ist keineswegs die „Kernkompetenz“ dieser Systeme. Bei diesen handelt es sich um „Sprach-Bots“. Die Abkürzung „GPT“ steht für „Generative Pretrained Transformer“ und genau das sind sie auch: Ausgesprochen hilfreiche Systeme, die aus einer Eingabe unter Zuhilfenahme eines Pools von Trainings- und Wissensdaten Texte formuliert, Codes schreibt oder Bilder konstruieren. Sie können auch in gewissen Grenzen rechnen, wobei klar ist, dass sich diese Grenzen immer weiter verschieben werden. KI-Systeme liefern zuverlässig Antworten, aber sie tun es auch dann, wenn sie Wissenslücken haben. Es gibt immer kontextbezogene Wortfolgewahrscheinlichkeiten, sodass ein KI-System selten sprachlos ist. Es halluziniert. Da ich den Einsatz von KI-Systemen in der Prognostik für ein überaus bedeutendes halte, habe ich dennoch diverse Versuche unternommen, quantitative und qualitative Prognosen erstellen zu lassen. Aber es ist mir nicht zuverlässig gelungen. • Einfache Trendextrapolationen wurden korrekt berechnet. • Bei der exponentiellen Glättung einer Datenreihe gelang dies nur, wenn ich mich auf den Alpha-Faktor beschränkte. Nach der Hinzunahme des Beta- bzw. des GammaFaktors waren die Berechnungen fehlerhaft. • Komplexere Berechnungen (etwa polynomische Funktionen) führten zu Ergebnissen, die teilweise, aber eben nicht immer, korrekt waren. • Verschiedene Frageformulierungen, deren Antworten zur Erstellung qualitativer Prognosen genutzt werden könnten, sind gescheitert. Das Fazit: Einfache Mathematik beherrschen aktuelle KI-Modelle. Excel ist allerdings besser dafür geeignet. Bei komplexeren Aufgaben ist unklar, ob die Ergebnisse stimmen

37  Siehe die umfangreichen Darstellungen und Verweise auf zahlreiche Studien in Witting & Bergestuen, 2002, S. 154 ff.

11.5  Der Einfluss der KI auf die Prognostik

263

und damit scheiden KI-Modelle hier aus. Qualitative Aspekte lassen sich von KISystemen nicht beantworten, jedenfalls so lange nicht, bis adäquate Wissensbasen installiert werden. Und hier liegt die Crux: KI-Modelle sind sehr wohl geeignet, Input für Prognosen zu leisten, setzen aber eine Basis voraus, die von Unternehmen geschaffen werden muss. Genau das ist das Geschäftsmodell der Anbieter wie OpenAI oder Aleph Alpha und so werden wir in den nächsten Jahren und Jahrzehnten nach dem Taschenrechner und Excel eine dritte Generation unternehmenseigener Prognostik erleben: Die KI-gestützten Forecasts, die bspw. im Kontext KI-basierter ERP-Systeme38 entwickelt werden und die einen kombinierten Forecast auf Basis aller verfügbaren Unternehmensund Marktdaten entwickeln. Bis es so weit ist, müssen wir das noch selbst erledigen.

38 Enterprise

Ressource Planung, etwa SAP-Hana.

Schlusswort – eine Prognose der Prognose

12

Meine Vorstellung vom Leser, den ich beim Schreiben dieses Buches vor Augen hatte, war die eines Vertriebscontrollers. Seine Aufgabe ist, als Teil des Vertriebs dem Vertriebsmanagement, vielleicht auch dem Unternehmensmanagement, Informationen zu liefern, damit diese ihren Job erfolgreich erledigen können. Die luxuriöse Situation für einen Vertriebscontroller ist, dass er (in der Regel) keine unternehmerische Verantwortung trägt. Diese Position verpflichtet aber auch: Sie verpflichtet zu Neutralität, Objektivität und Expertise. Dies macht ihn mit einem Hofnarren im Sinne der mittelalterlichen Höfekultur vergleichbar, der die zugesicherte Narrenfreiheit nutzen durfte und musste, um unbequeme Wahrheiten zu äußern und seinen Herren daran zu erinnern, dass auch er Pflichten habe. Diese Allegorie mag lustig klingen, birgt aber viel Wahres: Die Wertschöpfung des Vertriebscontrollers im Allgemeinen und die des Forecasters im Besonderen ist es, Zielen das Wahrscheinliche gegenüberzustellen. Seine Aufgabe ist nicht, Pläne zu untermauern, sondern zu überprüfen, ob diese aufgehen können oder nicht. Und aus Sicht des Managements bedeutet es: Nur, wenn der Forecaster sanktionsfrei prognostizieren darf, auch auf die Gefahr hin, Ziele infrage zu stellen, ist er wirkungsvoll. Oben schrieb ich aber auch von Expertise als einer Verpflichtung. Dies wird oft verkannt. Schlechte Prognosen führen dazu, dass ihnen zukünftig nicht mehr geglaubt wird. Genau das ist das typische Schicksal von Vertriebsprognosen in den meisten Unternehmen, die ich kennengelernt habe. Solche Forecasts werden innerhalb des Vertriebs als Managementinstrument behandelt, außerhalb ignoriert. Eine Qualitätskontrolle findet selten statt, vielleicht, weil „es sich nicht lohnt“.1 Nun sind Manager von Unternehmen alles andere als naiv. Ihnen ist bewusst, dass ein präziser Forecast nützlich wäre und helfen würde, Transaktionskosten im Unternehmen zu reduzieren.2 Aber sie haben

1 Ehrmann 2 Ehrmann

& Kühnapfel, 2012. & Kühnapfel, 2013b.

© Der/die Herausgeber bzw. der/die Autor(en), exklusiv lizenziert an Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2023 J. B. Kühnapfel, Vertriebsprognosen, https://doi.org/10.1007/978-3-658-42876-1_12

265

266

12  Schlusswort – eine Prognose der Prognose

gelernt, dass die verfügbaren Prognosen fehlerbehaftet sind, so fehlerbehaftet, dass sie nutzlos sind. Die Lösung ist Know-how: Wenn ein Forecaster die Expertise einbringt, einen wirklich guten, treffsicheren Forecast zu erstellen, wird diese Prognose auch beachtet und zu dem werden, wozu sie erstellt wurde: zur Planungsgrundlage. Fraglos: Expertise ist schwer zu erwerben. Wie dieses Buch zeigt, sind die Anforderungen vielfältig. Ein guter Forecaster beherrscht 10, vielleicht 15 Varianten von Vertriebsprognosen und er kennt die jeweiligen Adaptionsmöglichkeiten. Es ist seine Klaviatur, auf der er eine Komposition von Methoden hervorbringt und zu einem kombinierten Forecast vereint. Einige Methoden erfordern statistisches Fachwissen, andere Moderationsfähigkeiten. Er muss um die Effekte von Wahrnehmungsverzerrungen wissen und einen Plan entwickeln, wie er diese so weit wie möglich ausschließt. Er braucht Problemlösungsfantasie, wenn er nicht die Inputdaten erhält, die er braucht. Und er braucht Zeit, Geld und Handlungsrechte, um all dies umzusetzen. Ist dies gegeben, kann eine gute Prognose gelingen, also eine, die einen Zukunftswert so präzise wie möglich schätzt und eine Eintrittswahrscheinlichkeit benennt, die dem Management die Einschätzung der Zukunft ermöglicht. Jede andere Form der Erstellung von Vertriebsprognosen ist Murks. Die fachfremde Sekretärin oder den frisch von der Hochschule kommenden Praktikanten zu bitten, einen rollierenden Forecast zu pflegen, ist Zeitverschwendung. Es ist dann nur eine Projektliste, ein „Verkaufsprojekte-Dokumentations-Tool“, aber als Prognose-Tool ist es unbrauchbar. Also: Machen wir es richtig oder gar nicht.

Literatur

Adams, A. J., 1986. Procedures for Revising Management Judgement Forecasts. Journal of Academy of Marketing Science, September, pp. 52–57. Ahlburg, D. A., 2002. Population Forecasting. In: J. S. Armstrong, ed. Principles of Forecasting. A Handbook for Researchers and Practitioners. New York et al.: Kluwer Academics Publisher, pp. 557–575. Apgar, V., 1953. A proposal for a new method of evaluation of the newborn. Current Researches in Anesthesia & Analgesia, pp. 260–267. Archibald, B. C. & Koehler, A. B., 2003. Normalization of seasonal factors in Winters’ methods. International Journal of Forecasting, Januar-März, pp. 143–148. Arellano, F. & Hussain, A. Y., 2008. Measuring Forecast Errors in the Percentage of Sales Method, http://papers.ssrn.com/sol3/papers.cfm?abstract_id=1095652, zuletzt geprüft am 6.8.2023: University of Dallas. Armstrong, J. S., 2002. Combining Forecasts. In: J. S. Armstrong, ed. Principles of Forecasting. A Handbook for Researchers and Practitioners. New York et al.: Kluwer Academics Publisher, pp. 417–439. Armstrong, J. S., 2002. Evaluating Forecasting Methods. In: J. S. Armstrong, ed. Principles of Forecasting. A Handbook for Researchers and Practitioners. 2002: Kluwer Academics Publishers, pp. 443–472. Armstrong, J. S., 2002. Extrapolation for Time-Series and Cross-Sectional Data. In: J. S. Armstrong, ed. Principles of Foecasting. A Handbook für Researchers and Practitioners. New York et al.: Kluwer Academics Publisher, pp. 217–243. Armstrong, J. S., 2002. Judgmental Bootstrapping: Inferring Expert´s Rules for Forecasting. In: J. S. Armstrong, ed. Principles of Forecasting: A Handbook for Researchers and Practitioners. New York et al.: Kluwer Academics Publisher, pp. 171–192. Armstrong, J. S., 2002. Selecting Forecating Methods. In: J. S. Armstrong, ed. Principles of Forecating. A Handbook for Researchers and Practitioners. New York et al.: Kluwer Academic Publishers, pp. 365–386. Armstrong, J. S., 2002. Standards and Practices for Forecasting. In: J. S. Armstrong, ed. Principles of Forecasting. A Handbook for Researchers and Practitioners . New York et al.: Kluwer Academics Publishers , pp. 679–732. Armstrong, J. S., Adya, M. & Collopy, F., 2001. Rule-Based Forecasting: Using Judgment in Time-Series Forecasting. Principles of Forecasting, pp. 259–282. Armstrong, J. S. & Brodie, R. J., 1999. Forecasting for Marketing. In: G. J. Hooley & M. K. Hussey, eds. Quantitative Methods in Marketing. 2. ed. London: International Thompson Business Press, pp. 92–119. © Der/die Herausgeber bzw. der/die Autor(en), exklusiv lizenziert an Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2023 J. B. Kühnapfel, Vertriebsprognosen, https://doi.org/10.1007/978-3-658-42876-1

267

268

Literatur

Armstrong, J. S. & Brodie, R. J., 1999. Forecasting for Marketing. In: G. J. Hooley & M. K. Hussey, eds. Quantitative Methods in Marketing. London: Interantional Tompson Business Press, pp. 92–119. Armstrong, J. S., Morwitz, V. G. & Kumar, V., 2000. Sales Forecasts for Existing Consumer Products and Services: Do Purchase Intentions Contribute to Accuracy?. International Journal of Forecasting, Heft 3, pp. 383–397. Ashenfelter, D. A., 1995. Bordeaux Wine Vintage Quality and the Weather. Chance, Issue 4, pp. 7–14. Ashton, A. H. & Ashton, R. H., 1985. Aggregating Subjective Forecasts: Some Empirical Results. Management Science, Dezember, pp. 1499–1508. Auer, B. & Rottmann, H., 2010. Statistik und Ökonometrie für Wirtschaftswissenschaftler. Wiesbaden: Springer Gabler. Babcock, L. & Loewenstein, G. F., 1997. Explaining Bargaining Impasse: The Role of SelfServing Biases. Journal of Economic Perspectives, Issue Bd. 11, pp. 109–126. Banbura, M., Giannone, D. & Reichlin, L., 2010. Nowcasting, Frankfurt: EconStor. Bandara, K. et al., 2019. Sales Demand Forecast in E-commerce using a Long Short-Term Memory Neural Network Methodology. Computer Science > Machine Learning, August, p. o.S.. Bauer, R., 2006. Gescheiterte Innovationen: Fehlschläge und technologischer Wandel. Frankfurt: Campus. Becker, F. G., 2011. Grundlagen der Unternehmensführung. Einführung in die Managementlehre. Berlin: ESV. Beckwith, N. E. & Lehmann, D. R., 1975. The Importance of Halo Effects in Multi-Attribute Attitude Models. Journal of Marketing Research, Issue 3, pp. 265–275. Beheshti-Kashi, S. et al., 2015. A survey on retail sales forecasting and prediction in fashion markets. Systems Science and Control Engineering, Nummer 3, pp. 154–161. Bemmaor, A. C., 1995. Predicting Behaviour from Intention-to-buy Measures: The Parametric Case. Journal of Marketing Research, Heft 32, pp. 176–191. Boden, A., 1995. Kurzfristige Tagesprognosen unter Berücksichtigung kalendarischer Einflüsse (Diss.). Fankfurt: Lang. Böll, S. & Schmergal, C., 2014. Aus der Glaskugel. Der Spiegel Nr. 25, pp. 40–41. Bradosti, H. & Singh, U. S., 2015. Predicting the Market Potential Using Time Series Analysis. International Journal of Social Sciences & Educational Studies, Dezember, pp. 57–65. Brinkmann, J., 2006. Buying Center-Analyse auf der Basis von Vertriebsinformationen. Wiesbaden: Deutscher Universitäts-Verlag. Brockhoff, K., 1977. Prognoseverfahren für die Unternehmensplanung. Wiesbaden: Gabler. Brodie, R. J., Danaher, P. J., Kumar, V. & Leeflang, P. S. H., 2002. Econometric Models for Forecasting Market Share. In: J. S. Armstrong, ed. Principles of Forecasting. A Handbook for Researchers and Practitioners. New York et al.: Kluwer Academics Publishers, pp. 597–611. Brown, D. A., Buck, S. F. & Pyatt, F. G., 1965. Improving the Sales Forecast for Consumer Durables. Journal of Marketing Reserach, August, pp. 229–234. Brown, R. G. & Meyers, R. F., 1961. The Fundamental Theorem of Exponential Smoothing. Operations Research, 5, pp. 673–685. Brühl, B. et al., 2009. A Sales Forecast Model for the German Automobile Market Based on Time Series Analysis and Data Mining Methods. In: P. Perner, ed. Advances in Data Mining. Applications and Theoretical Aspects. Berlin, Heidelberg: Springer, pp. 146–160. Carbone, R. u. A. J. S., 1982. Evaluation of Extrapolative Forecasting Methods: Results of a Survey of Academicians and Practioners. Journal of Forecasting, April/Juni, pp. 215–217.

Literatur

269

Carman, H. F., 1972. Improving Sales Forecasts for Appliances. Journal of Marketing Research, Mai, pp. 214–218. Chang, S. H. & Fyffe, D. E., 1971. Estimation of Forecast Errors for Seasonal-Style-Goods Sales. Management Science, Oktober, pp. 89–96. Christensen-Szalanski, 1991. The hindsight bias: A meta-analysis. Organizational Behavior and Human Decision Processes, Februar, pp. 147–168. Cox jr., J. E. & Loomis, D. G., 2002. Diffusion of Forecasting Principles Through Books. In: J. S. Armstrong, ed. Principles of Forecasting. A Handbook für Researchers and Practitioners. New York et al.: Kluwer Academics Publisher, pp. 633–649. Cron, W. L. & Decarlo, T. E., 2010. Sales Management. Concepts and Cases. 10. ed. New York: John Wiley & Sons. Csikszentmihalyi, M. & Nakamura, J., 2010. Effortless attention in everyday life: A systematic phenomenology. In: B. Bruya, ed. Effortless Attention: A New Perspective in the Cognitive Science of Attention and Action. Boston: MIT Press, pp. 179–189. Dalrymple, D., Cron, W. L. & Decarlo, T. E., 2001. Sales Management. 7. ed. New York: John Wiley & Sons (aktuelle Auflage: 10. aus 2008, aktueller Titel: "Dalrymple´s Sales Management: Concepts and Cases)). Dalrymple, D. J., 1975. Sales Forecasting Methods and Accuracy. Business Horizons, Dezember, pp. 69–73. Dalrymple, D. J., 1987. Sales Forecasting Practices: Result from a United States Survey. International Journal of Forecasting, Issue 3, pp. 379–391. Dana, J. & Dawes, R. M., 2004. The Superiority of Simple Alternatives to Regression for Social Science Predictions. Journal of Educational and Behavioral Statistics , September, pp. 317– 331. Dawes, R. M., 1979. The robust beauty of improper linear models in decision making. American Psychologist, Juli, pp. 571–582. Dawes, R. M. & Corrigan, B., 1974. Linear models in decision making. Psychological Bulletin, Februar, pp. 95–106. Decker, R. & Gnibba-Yukawa, K., 2010. Sales Forecasting in High-Technology Markets: A Utility-Based Approach. Journal of Production Innovation Management, Januar, pp. 115–129. Deistler, M. & Neusser, K., 2012. Prognose uni- und multivariater Zeitreihen. In: P. Mertens & S. Rässler, eds. Prognoserechnung. Berlin, Heidelberg: Springer, pp. 225–256. Dekimpe, M. G. & Hanssens, D. M., 1995. The Persistence of Marketing Effects on Sale. Marketing Science, Winter, pp. 1–21. Dettmer, M., 2014. Zahltag in Maracana. Der Spiegel, Ausgabe 23, p. 77. Dilgard, L. A., 2009. Worst Forecasting Practices in Corporate America and their Solutions – Case Studies. Journal of Business Forecasting, Sommer, pp. 4–13. Dönitz, E. J., 2009. Effizientere Szenariotechnik durch teilautomatische Generierung von Konsistenzmatrizen. In: Was ist Szenariotechnik?. Berlin, Heidelberg: Springer, pp. 6–44. Dorn, H. F., 1950. Pitfalls in Population Forecasts and Projections. Journal of the American Statistical Association, Heft 251, pp. 311–334. DWD, D. W., 2009. Wie gut sind Wettervorhersagen? Qualitätsprüfung beim DWD, Frankfurt: Eigenverlag. Ehrmann, T. & Kühnapfel, J. B., 2012. Das Risiko des Nicht-Hinschauens. Warum Unternehmen ihren Vertriebs-Forecast nur unzureichend pflegen. ZfO - Zeitschrift Führung und Organisation, 04, pp. 249–251. Ehrmann, T. & Kühnapfel, J. B., 2013. Die Rolle des Vertriebscontrollings in der Organisation. Der Betriebswirt, Heft 2, pp. 10–14.

270

Literatur

Ehrmann, T. u. K. J., 2014. Big Data - Wunderwaffe oder Rohrkrepierer?. zfo - Zeitschrift Führung und Organisation, Juni, pp. 395–397. Ekern, S., 1981. Adaptive Exponential Smoothing Revisited. Journal of the Operational Research Society, September, pp. 775–782. Emmett, R. B., 2020. Rconsidering Frank Knight’s Risk, Uncertainty, and Profit. The Independent Review, Nummer 4, pp. 533–541. Endel, T. & Schacter, D. L., 1990. Priming and human memory systems. Science , Januar, pp. 301– 306. Erichsen, J., 2005. Praxisbeispiel einer operativen Absatzplanung. Bilanzbuchhalter und Controller, 8, p. 174 ff.. Fader, P. S. & Hardie, B. G. S., 2001. Forecasting Repeat Sales at CDNOW: A Case Study. Interfaces, Mai/Juni, pp. 94–107. Fader, P. S. & Hardie, B. G. S., 2002. Forecasting Trial Sales of New Consumer Packaged Goods. In: J. S. Armstrong, ed. Principles of Forecasting. A Handbook for Researchers and Practitioners. New York et al.: Kluwer Academics Publisher, pp. 613–630. Feindt, M. & Kerzel, U., 2015. Prognosen bewerten. Statistische Grundlagen und praktische Tipps. Berlin, Heidelberg: Springer. Fellner, G., Güth, W. & Maciejovsky, B., 2004. Illusion of expertise in portfolio decisions: an experimental approach. Journal of Economic Behavior and Organization, November, pp. 355– 376. Fildes, R. & Ma, S., 2018. Retail forecasting: research and practise, Lnacaster, UK: s.n. Fischhoff, B., 2002. Learning Form Experience: Coping with Hindsight Bias and Ambiguity. In: J. S. Armstrong, ed. Principles of Forecasting. A Handbook for Researchers and Practitioners. New York et al.: Kluwer Academics Publishers, pp. 543–554. Fisman, R., 2006. The Effect of Foreign Competition on Forecasting Bias. Review of Economics and Statistics, Februar, pp. 61–68. Gartner, W. B. & Thomas, R. J., 1993. Factors Affecting New Product Forecasting Accuracy in New Firms. Journal of Production Innovation Management, Januar, pp. 35–52. Gehmacher, E., 1971. Methoden der Prognostik. Eine Einfühung in die Probleme der Zukunftsforschung und Langfristplanung. Freiburg: Rombach. Gillen, B. J., Plott, C. R. & Shum, M., 2013. Inside Intel: Sales Forecasting Using an Information Aggregation Mechanism. Pasadena: California Institute of Technology. Gilliland, M., 2003. Fundamental Issues in Business Forecasting. The Journal of Business Forecasting, Sommer, pp. 7–13. Gilliland, M., 2010. The Business Forecasting Deal. Hoboken, New Jersey: John Wiley & Sons. Gisholt, O., 1976. Marketing-Prognosen unter besonderer Berücksichtigung der Delphi-Methode. Bern: Haupt. Gnibba, K., 2006. Modellgestützte Absatzprognosen auf High-Tech-Märkten. Eine theoretische und empirische Untersuchung (Diss.). Bielefeld: http://pub.uni-bielefeld.de/publication/2304376, zuletzt geprüft am 10.7.2014. Gossen, H. H., 1854. Entwicklung der Gesetze des menschlichen Verkehrs und der daraus fließenden Regeln für menschliches Handeln. Braunschweig: Vieweg. Grodd, M. et al., 2022. Prognosemodelle zur Steuerung von intensivmedizinischen COVID-19Kapazitäten in Deutschland. Medizinische Klinik - Intensivmedizin und Notfallmedizin, März, pp. !-/. Gruber, M. & Venter, C., 2006. Die Kunst, die Zukunft zu erfinden - Theoretische Erkenntnisse und empirische Befunde zum Einsatz des Corporate Forsight in deutschen Großunternehmen. zfbf, November, pp. 958–984.

Literatur

271

Gupta, S. & Schneider, M. J., 2016. Forecasting sales of new and existing products using consumer reviews: A random projections approach. International Journal of Forecasting, April-Juni, pp. 243–256. Handzic, M., 2001. Does More Information Lead to Better Informing?. Forschungsbericht der University of New South Wales, Australien, Juni. Hansen, K., 2012. Prognose mithilfe von Markov-Prozessen. In: P. Mertens & S. Rässler, eds. Prognoserechnung. Berlin, Heidelberg: Springer, pp. 279–308. Hansmann, K.-W., 1983. Kurzlehrbuch Prognoseverfahren. Wiesbaden: Gabler. Härdle, W. K., Schulz, R. & Wang, W., 2012. Prognose mit nichtparametrischen Verfahren. In: P. Mertens & S. Rässler, eds. Prognoserechnung. Berlin, Heidelberg: Springer, pp. 167–181. Harrison, P. J., 1967. Exponential Smoothing and Short-Term Sales Forecasting. Management Sciences, Juli, pp. 821–842. Harvey, N., 2002. Improving Judgement in Forecasting. In: J. S. Armstrong, ed. Principles of Forecasting. A Handbook for Researchers and Practitioners. New York et al.: Kluwer Academics Publisher, pp. 59–80. Hawking, S. & Mlodinow, L., 2011. Der große Entwurf: Eine neue Erklärung des Universums. 2. ed. Reinbek: rororo. Heeler, R. M. & Hustad, T. P., 1980. Problems in Predicting New Product Growth for Consumer Durables. Management Science, Oktober, pp. 1007–1020. Helten, E., 1981. Methoden und Grenzen der Prognose im Versicherungsunternehmen. Zeitschrift für die gesamte Versicherungswissenschaft, pp. 335–365. Helweg-Larsen, M. & Shepperd, J. A., 2001. Do Moderators of the Optimistic Bias Affect Personal or Target Risk Estimates? A Review of the Literature. Personality and Social Psychology Review, Nr. 1, pp. 74–95. Hillig, T., 2006. Verfahrensvarianten der Conjoint-Analyse zur Prognose von Kaufentscheidungen: Eine Monte-Carlo-Simulation. Wiesbaden: Deutcher Universitäts-Verlag. Hogarth, R. M. & Makridakis, S., 1981. Forecasting and Planning: An Evaluation. Management Science, Februar, pp. 115–138. Holt, C. C., 1957 . Forecasting Seasonals and Trends by Exponentially Weighted Moving Avarages. Office of Naval Research. Research Memorandum No. 52. Reprint in International Journal of Forecasting, Vol. 20, Iss. 1, Januar-März 2004, Seite 5–10. Homburg, C., Artz, M., Wieseke, J. & Schenkel, B., 2008. Gestaltung und Erfolgsauswirkungen der Absatzplanung: Eine branchenübergreifende emprische Analyse. Zeitschrift für betriebswirtschaftliche Forschung, November, pp. 634–570. Hüttner, M., 1986. Prognoseverfahren und ihre Anwendung. Berlin: Walter de Gruyter. Ionnidis, J. P., Cripps, S. & Tanner, M. A., 2022. Forecasting for COVID-19 has failed. International Journal of Forecasting, April-Juni, pp. 423–438. Ireland, R., 2005. ABC of Collaborative Planning Forecasting and Replenishment. The Journal of Business Forecasting, Sommer, pp. 3–10. Ireland, R., 2005. ABC of Collaborative Planning Forecasting and Replenishment. Journal of Business Forecasting, Sommer, pp. 3–10. Jain, C. L., 2007. Benchmarking New Product Forecasting. Journal of Business Forecasting, Winter, pp. 28–29. Jamieson, L. F. & Bass, F. M., 1989. Adjusting stated intention measures to predict trial purchase of new products: A comparison of models and methods. Journal of Marketing Research, August, pp. 336–345. Jensen, M. C., 2001. Corporate Budgeting is Broken - Let’s Fix It. Harvard Business Review, November, pp. 94–101.

272

Literatur

Jiménez, F. & Garcia, J. M., 2017. Multi-objective evolutionary feature selection for online sales forecasting. Neurocomputing, Nummer 234, pp. 75–92. Kahneman, D., 1973. Attention and Effort. New Jersey: Prentice Hall. Kahneman, D., 2012. Schnelles Denken, langsames Denken. 16. ed. München: Siedler. Kahneman, D. & Frederick, S., 2001. Representativeness revisited: Attribute substitution in intuitive judgment1. In: T. Gilovich, D. Griffin & D. Kahneman, eds. Heuristics and Biases: The Psychology of Intuitive Judgment. Cambridge: Cambridge University Press, pp. 49–81. Kahneman, D. & Klein, G., 2009. Conditions for Intuitive Expertise A Failure to Disagree. American Psychologist, Oktober, pp. 515–526. Kahneman, D., Sibony, O. & Sunstein, C. R., 2021. Noise. Was unsere Entscheidungen verzerrt und wie wir sie verbessern können. München: Siedler. Kahneman, D., Slovic, P. & Tversky, A., 1982. Judgement under Uncertainty: Heuristics and Biases. Cambridge: Cambridge University Press. Kahneman, D. & Tversky, A., 1973. On the Psychology of Prediction. Psychological Review, Juli, pp. 237–251. Kahneman, D. & Tversky, A., 1974. Judgment under Uncertainty: Heuristics and Biases. Science, September, pp. 1124–1131. Kauko, K. & Palmroos, P., 2014. The Delphi Method in Forecasting Financial Marketets - An Experimental Study. International Journal of Forecasting, April-Juni, pp. 313–327. Knight, F. H., 1921. Risk, Uncertainty and Profit. Cambridge: The Riverside Press. Kolassa, S., 2016. Evaluating predictive count data distributions in retail sales forecasting. International Journal of Forecasting , Nummer 3, pp. 788–803. Kollenbroich, P., 2015. Rechnen ist genauer als raten - wenigstens ein bisschen. https://www. spiegel.de/wirtschaft/soziales/konjunktur-prognosen-wie-gut-sind-die-vorhersagen-a-1068669. html. [Accessed 28 07 2023]. Kremer, D., 2023. Die besten Fondgesellschaften. Frankfurter Allgemeine Zeitung, 09 April. Kühnapfel, J., 2013. Vertriebscontrolling. Wiesbaden: Springer Gabler. Kühnapfel, J. B., 2013. Die Aufgaben des Vertriebscontrollers. Controlling & Management Review, Heft 2, pp. 36–46. Kühnapfel, J. B., 2014. Nutzwertanalysen in Marketing und Vertrieb. Wiesbaden: Springer Gabler. Kühnapfel, J. B., 2014. Vertriebsprognosen. Wiesbaden: Springer Gabler. Kühnapfel, J. B., 2019. Die Macht der Vorhersage. Smarter leben durch bessere Prognosen. Wiesbaden: Springer Gabler. Kühnapfel, J. B., 2021. Scoring und Nutzwertanalysen. Wiesbaden: Springer Gabler. Kühnapfel, J. B., 2022. Vertriebscontrolling. Methoden im praktischen Einsatz. 3. ed. Wiesbaden: SpringerGabler. Küsters, U., 2012. Evaluation, Kombination und Auswahl betriebswirtschaftlicher Prognoseverfahren. In: S. u. M. P. Rässler, ed. Prognoserechnung. Heidelberg: Physica-Verlag, pp. 423–467. Küsters, U., 2012. Evaluation, Kombination und Auswahl betriebswirtschaftlicher Prognoseverfahren. In: S. Rässler & P. Mertens, eds. Prognoserechnung. Heidelberg: Physica-Verlag, pp. 423–467. Küsters, U., 2012. Evaluation, Kombination und Auswahl betriebswirtschaftlicher Prognoseverfahren. In: P. Mertens & S. Rässler, eds. Prognoserechnung. Berlin, Heidelberg: Springer, pp. 423–467. Küsters, U. u. B. C., 2005. Monitoring von Prognosemodellen. In: S. Rässler & P. Mertens, eds. Prognoserechnung. 6. ed. Heidelberg: Physica-Verlag, pp. 335–367. Laumann, H., 1980. Ansätze zu einer Methodologie der Prognostik (Dissertation). Mannheim: Selbstverlag.

Literatur

273

Lawrence, M., O’Conner, M. & Edmundson, B., 2000. A field study of sales forecasting accuracy and processes. European Journal of Operational Research, pp. 151–160. Lewandowski, R., 1980. Prognose- und Informationssysteme und ihre Anwendungen, Band II. Berlin: de Gruyter. Luo, J., 2021. Forecasting COVID-19 pandemic: Unknown unknowns and predictive monitoring. Technological Forecasting and Social Change, Ausgabe 166, p. o.S.. Luxhoj, J. T., Riis, J. O. & Stensballe, B., 1996. A hybrid econometric-neural network modeling approach for sales forecasting. International Journal of Production Economics, pp. 175–192. Machrzina, K. & Wolf, J., 2008. Unternehmensführung. 6. ed. Wiesbaden: Springer Gabler . Makridakis, S. & Hibon, M., 1979. Accuracy of Forecasting: An Empirical Investigation. Journal of the Royal Statistical Society, pp. 97–145. Makridakis, S., Assimakopolous, V. & Spiliotis, E., 2018. The M4 Competition: Results, findings, conclusion and way forward. International Journal of Forecasting, Oktober-Dezember, pp. 802–808. Makridakis, S. & Hibon, M., 2000. The M3 Competition: Results, Conclusions, and Implications. International Journal of Forecasting, Issue 16, pp. 451–476. Makridakis, S., Reschke, H. & Wheelwright, S. C., 1980. Prognosetechniken für Manager (Original: Forecasting Methods for Management, J. Wiley & Sons, 3. Auflage). Wiesbaden: Gabler. Makridakis, S., Spiliotis, E. & Assimakopoulos, V., 2020. The M4 Competition: 100,000 time series and 61 forecasting methods. International Journal of Forecasting, Januar-März, pp. 54–74. Makridakis, S., Spiliotis, E. & Assimakopoulos, V., 2022. M5 accuracy competition: Results, findings, and conclusions. International Journal of Forecasting, Nummer 4, pp. 1346–1364. Makridakis, S., Spiliotis, E. & Assimakopoulus, V., 2022. Predicting/hypothesizing the findings of the M5 competition. International Journal of Forecasting, Nummer 4, pp. 1337–1345. Malmendier, U. & Tate, G., 2009. Superstar CEOs. Quarterly Journal of Economics, Issue 24, pp. 1593–1638. McCloskey, D. N., 1992. The Art of Forecasting: From Ancient to Modern Times. Cato Journal, Frühjahr/Sommer, pp. 23–43. McGregor, D., 1938. The major determinants of the prediction of social events. The Journal of Abnormal and Social Psychology, April, pp. 179–204. Meade, N. & Islam, T., 2002. Forecasting the Diffusion of Innovations: Implications for TimeSeries Extrapolation. In: J. S. Armstrong, ed. Principles of Forecasting. A Handbook for Researchers and Practitioners. New York et al.: Kluwer Academics Publisher, pp. 577–595. Meehl, P. E., 1954. Clinical versus statistical prediction: A theoretical analysis and a review of the evidence. Minneapolis: University of Minnesota Press. Meehl, P. E., 1986. Causes and Effects of My Disturbing Little Book. Journal of Personality Assessment, Issue 3, pp. 370–375. Menges, G., 1967. Ökonometrische Prognosen. Statistische Hefte, pp. 18–31. Mentzer, J. T., 1988. Forecasting with Adaptive Extended Exponential Smoothing. Journal of the Academy of Marketing Science, Herbst, pp. 62–70. Mertens, P. u. R. S., 2005. Prognoserechnung. 6. ed. Heidelberg: Physica-Verlag. Mest, D. P. & Plummer, E., 2003. Analysts’ Rationality and Forecast Bias: Evidence from Sales Forecasts. Review of Quantitative Finance and Accounting, pp. 103–122. Moe, W. W. & Fader, P. S., 2002. Using Advance Purchase Orders to Forecast New Product Sales. Marketing Science, Sommer, pp. 347–364. Moon, M. A., Mentzer, J. T., Smith, C. D. & Garver, M. S., 1988. Seven Keys to Better Forecasting. Business Horizons, September/Oktober, pp. 44–52.

274

Literatur

Moon, M. A., Mentzer, J. T. & Thomas, D. E., 2000. Customer Demand Planning at Lucent Technologies. Industrial Marketing Management, Januar, pp. 19–26. Moriarty, M. M., 1985. Design Features of forecasting Systems Involving Management Judgements. Journal of Marketing Research , November, pp. 353–364. Morlidge, S., 2014. Do Forecasting Methods Reduce Avoidable Error? Evidence from Forecasting Competitions. Forsight, Winter, pp. 34–39. Morwitz, V. G., 2002. Methods for Forecasting From Intentions Data. In: J. S. Armstrong, ed. Principbles of Forecasting. A Handbook for Researchers and Practitioners. New York et al.: Kluwer Academis Publisher, pp. 33–56. Morwitz, V. G. & Schmittlein, D., 1992. Using Segmentation to Improve Sales Forecasts Based on Purchase Intent: Which ““Intenders” Actually Buy?. Journal of Marketing Research, November, pp. 391–405. Müller, H. C., 2011. Forecast Errors in Undisclosed Management Sales Forecasts: The Disappearance of the Overoptimism Bias, http://hdl.handle.net/10419/54195, zuletzt geprüft am 9.7.2014: Arbeitspapier des „Düsseldorf Institut for Competition Economies DICE“ Nr. 40. Neely, J. H., 1977. Semantic priming and retrieval from lexical memory: Roles of inhibitionless spreading activation and limited-capacity attention. Journal of experimental psychology: general, Issue 4, pp. 226–254. Neely, J. H., 1991. Semantic priming effects in visual word recognition: A selective review of current findings and theories. In: D. Besner & G. W. Humphreys, eds. Basic Processes in Reading: Visual Word Recognition. Oxon et al.: Psychology Press, pp. 264–336. Nickerson, R. S., 1998. Confirmation Bias: A Ubiquitous Phenomenon in Many Guises. Review of General Psychology, Nr. 2, pp. 175–220. Nisbett, R. E. & Wilson, T. D., 1977. The halo effect: Evidence for unconscious alteration of judgments. Journal of personality and social psychology, Issue 4, pp. 250–256. Nymand-Andersen, P. & Pantetidis, E., 2018. Google Econometrics: Nowcasting Euro Area Cas Sales and Big Data Quality Requirements, Frankfurt: s.n. o.V., 2012. Prüfungsnoten an Hochschulen im Prüfungsjahr 2010. Arbeitsbericht mit einem Wissenschaftspolitischen Kommentar des Wissenschaftsrates, Hamburg: s.n. o.V., 2014. Spanien wird Fußball-Weltmeister. Frankfurter Allgemeine Zeitung vom 12. Juni 2014. o.V., 2022. Die Profis für Fehlprognosen sitzen in der Federal Reserve. Frankfurter Allgemeine Zeitung, 14 September. Oehmke, P., 2013. Was stimmte. Der Spiegel Nr. 23, pp. 130–133. Ord, K. & Fildes, R., 2013. Principles of Business Forecasting. Mason, Ohio: South Western. Papacharalampous, G. & Tyralis, H., 2018. Comparison of 20 univariate time series forecasting models regarding their one-step ahead forecasting properties. file:///C:/Users/kuehn/Downloads/one-step_ahead_forecasting_reports-1.pdf [Accessed 27 07 2023]. Papacharalampous, G., Tyralis, H. & Koutsoyiannis, D., 2018. One-step ahead forecasting of geophysical prosesses within a purely statistical framwork. Geoscience Letters (Open Access), Ausgabe 5. Petropoulos, F., Apiletti, D. & Assimakopoulos, V., 2022. Forecasting: theory and practice. International Journal of Forecasting, Nummer 38, pp. 705–871. Pilinkiené, V., 2008. Selection of Market Demand Forecast Methods: Criteria and Application. Engineering Economics, pp. 19–25. Popper, K. R., 1957. Das Elend des Historizismus. Tübingen: Mohr. Popper, K. R., 1965. Prognose und Prophetie in den Sozialwissenschaften. In: E. Topitsch, ed. Logik der Sozialwissenschaften. Köln, Berlin: Kiepenheuer & Witsch, p. 115 ff. Popper, K. R., 1973. Vermutungswissen: meine Lösung des Induktionsproblems. In: K. R. Popper, ed. Objektive Erkenntnis. Ein evolutionärer Entwurf. Hamburg: Hoffmann und Campe, pp. 13–43.

Literatur

275

Pronin, E. & Kugler, M. B., 2007. Valuing thoughts, ignoring behavior: The introspection illusion as a source of the bias blind spot. Journal of Experimental Social Psychology, Issue 43, pp. 565–578. Rahimi, I., Chan, F. & Gandomi, A. H., 2021. A review on COVID-19 forecasting models. Neural Computing and Applications, Februar, p. o.S.. Redfield, J. W., 1951. Elements of Forecasting. Harvard Business Review , Nr. 6, pp. 81–91. Reibnitz, U. v., 1998. Szenario-Technik. Instrumente für die unternehmerische und persönliche Erfolgsplanung. 2 ed. Wiesbaden: Gabler. Reichard, R., 1965. What’s New in Sales Forecasting: A Survey of Current Company Practices. Management Review, September, pp. 34–45. Reichheld, F. F., 2006. The One Number You Need to Grow. Harvard Business Review, Dezember, pp. 46–54. Rothe, J. T., 1978. Effectiveness of Sales Forecasting Methods. Industrial Marketing Management, pp. 114–118. Rowe, G., 2001. Expert Opinions in Forecasting: The Role of the Delphi Technique. In: J. S. Armstrong, ed. Principles of Forecasting. New York: Kluwer Academic Publisher, pp. 125–144. Rowe, G. & Wright, G., 2002. Expert Opinions in Forecasting: The Role of the Delphi Technique. In: J. S. Armstrong, ed. Principles of Forecasting. A Handbook for Researchers and Practitioners. New York et al.: Kluwer Academics Publisher, pp. 125–144. Sageart, Y. R., Aghezzaf, E.-H., Kourentzes, N. & Desmet, B., 2018. Tactical sales forecasting using a very large set of macroeconomic indicators. European Journal of Operational Research, Januar, pp. 558–569. Samuelson, W. & Zeckhauser, R., 1988. Status Quo Bias in Decision Making. Journal of Risk and Uncertainty, Issue 1, pp. 7–59. Sanders, N. R. & Ritzman, L. P., 2002. Judgmental Adjustment of Statistical Forecasts. In: J. S. Armstron, ed. Principles of Forecasting. A Handbook for Researchers and Practitioners. New York et al.: Kluwer Academics Publisher, pp. 405–416. Schencking, F. & Schwenker, B., 2022. Illusion der Berechenbarkeit. Frankfurter Allgemeine Zeitung, 14 November. Schira, J., 2005. Statistische Methoden der VWL und BWL. Theorie und Praxis. 2. Auflage ed. München: Pearson Education. Schnaars, S. P., 1986. An Evaluation of Rules for Selecting an Extrapolation Model on Yearly Sales Forecasts. Interfaces, Dezember, pp. 100–107. Schnaars, S. P. & Topol, M. T., 1987. The Use of Multiple Scenarios in Sales Forecasting. International Journal of Forecasting, September, pp. 405–419. Schnabel, U., 2004. Gut gemeint ist schlecht erfunden. Die Zeit, Issue 23. Schwarz, N. et al., 1991. Ease of retrieval as information: Another look at the availability heuristic. Journal of Personality and Social psychology, Issue 2, pp. 195–202. Schweitzer, M. E. & Cachon, G. P., 2000. Decision bias in the newsvendor problem with a known demand distribution: Experimental evidence. Management Science, März, pp. 404–420. Scott, J. E. & Keiser, S. K., 1984. Forecasting Acceptance of New Industrial Products with Judgment Modeling. Journal of Marketing, Frühjahr, pp. 54–67. See-To, E. W. K. & Ngai, E. W. T., 2018. Customer reviews for demand distribution and sales nowcasting: a big data approach. Annals of Operations Research, Ausgabe 270, p. 415–431. Shakeel, S. M. et al., 2021. COVID-19 prediction models: a systematic literature review. Osong Public Health Research Perspect, August, p. 215–229. Siedenbiedel, C., 2022. Die EZB will ihre Prognosen ändern. Frankfurter Allgemeine Zeitung, 17 September.

276

Literatur

Silver, N., 2012. The Signal and the Noise. Why So Many Predictions Fail - but Some Don´t. New York: Penguin Press. Simon, H. A., 1987. Making management decisions: The role of intuition and emotion. The Academy of Management Executive, Februar , pp. 57–64. Simon, H. A., 1987. Making Management Decisions: The Role of Intuition and Emotion, Pittsburgh, USA: Academie of Management Executive der Carnegie-Mellon University. Singh, S., 2014. Critical Skills for the Business Forecaster. Foresight, Winter, pp. 5–11. Sohrabpour, V., Oghazi, P., Toorajipour, R. & Nazarpour, A., 2021. Expoert sales forecasting using artificial intelligence. Technological Forecasting and Social Change, November, pp. o.,S.. Staelin, R. & Turner, R. E., 1973. Error in Judgemental Sales Forecasts: Theory and Results. Journal of Marketing Research, Februar, pp. 10–16. Stellwagen, E., 2007. Forecasting 101: How to Forecast Data Containing Outliers. Trends, September. Stewart, T. R., 2002. Improving Reliability of Judgemental Forecasts. In: J. S. Armstrong, ed. Principles of Forecasting. A Handbook for Researchers and Practitioners. New York et al.: Kluwer Academics Pubisher, pp. 81–106. Swinkels, L. & Umlauft, T. S., 2022. The Buffett Indicator: International Evidence, s.l.: SSRN. Taleb, N. N., 2010. Der Schwarze Schwan: Die Macht höchst unwahrscheinlicher Ereignisse. München: Deutscher Taschenbuch Verlag. Tashman, L. J. & Hoover, J., 2002. Diffusion of Forecasting Principles Through Software. In: J. S. Armstrong, ed. Principles of Forecasting. A Handbook for Researchers and Practitioners . New York et al.: Kluwer Academics Publisher, pp. 651–676. Thomas, R. J., 1993. Method and Situational Factors in Sales Forecast Accuracy. Journal of Forecasting, Januar, pp. 69–77. Treyer, O. A., 2010. Business Forecasting. Bern: Haupt. Tull, D. S., 1967. The Relationship of Actual and Predicted Sales and Profits in New-Product Indtroductions. Journal of Business, Juli, pp. 233–249. Tyebjee, T. T., 1987. Behavioral Biases in New Product Forecasting. International Journal of Forecasting, Heft 3, pp. 393–404. Urban, G. L., Hulland, J. S. & Weinberg, B. D., 1993. Premarket Forecasting for New Consumer Durable Goods: Modeling Categorization, Elimination, and Consideration Phenomena. Journal of Marketing, April, pp. 47–63. Urban, G. L., Weinberg, B. D. & Hauser, J. R., 1996. Premarket Forecasting of Really-New Products. Journal of Marketing, Januar, pp. 47–60. Walker, K. B. & McClelland, L. A., 1991. Management Forecasts and Statistical Prediction Model Forecasts in Corporate Budgeting. Journal of Account Research, Nummer 2, pp. 371–81. Wallace, T. F. & Stahl, R. A., 2002. Sales Forecasting. A New Approach. 4. Auflage ed. Cincinnati, Ohio: Wallace & Company. Wang, C.-H., 2022. Considering economic indicators and dynamic channel interactions to conduct sales forecasting for retail sectors. Computers & Industrial Engineering, März, p. o.S.. Webby, R., O´Conner, M. & Lawrence, M., 2002. Judgmental Time-Series Forecasting Using Domain Knowledge. In: J. S. Armstrong, ed. Principles of Forecasting. A Handbook for Researchers and Practitioners. New York et al.: Kluwer Academics Publishers, pp. 387–403. Wehr, M., 2014. Die Kompetenzillusion. Frankfurter Allgemeine Zeitung. Welge, M. K. u. A.-L. A., 2012. Strategisches Management. 6 ed. Wiesbaden: Gabler Springer. West, D. C., 1994. Number of Sales Forecast Mehtods and Marketing Management. Journal of Forecasting, Nr. 4, pp. 395–407. Wilms, F. E. P., 2006. Szenariotechnik: Vom Umgang mit der Zukunft. Bern: Haupt-Verlag.

Literatur

277

Winklhofer, H., Diamantopoulos, A. & Witt, S. F., 1996. Foreasting practice: A review of the empirical literature and an agenda for future research. International Journal of Forecasting, 12, pp. 193–221. Winter, P. R., 1960. Forecasting Sales by Exponentially Weighted Moving Averages. Management Science, April, pp. 324–342. Witting, D. R. & Bergestuen, T., 2002. Forecasting with Conjoint Analysis. In: J. S. Armstrong, ed. Principles of Forecasting. A Handbook for Researchers and Practitioners. New York et al.: Kluwer Academics Publisher, pp. 147–167. Yang, C.-L. & Sutrisno, H., 2018. Short-Term Sales Forecast of Perishabe Goods for Franchise Business. s.l., s.n., pp. 101–105. Yokum, T. & Armstrong, J. S., 1995. Beyond Accuracy: Comparison of Criteria Used to Select Forecasting Methods. International Jounal of Forecasting, Issue 11, pp. 591–597. Zhang, Y., Zhong, M., Geng, N. & Jiang, Y., 2017. Forecatsing elecric vehicles sales with univariate and multivariate time series models: The case of China. PLOS One, Mai, pp. 1–15. Adams, A. J., 1986. Procedures for Revising Management Judgement Forecasts. Journal of Academy of Marketing Science, September, pp. 52–57. Ahlburg, D. A., 2002. Population Forecasting. In: J. S. Armstrong, ed. Principles of Forecasting. A Handbook for Researchers and Practitioners. New York et al.: Kluwer Academics Publisher, pp. 557–575. Apgar, V., 1953. A proposal for a new method of evaluation of the newborn. Current Researches in Anesthesia & Analgesia, pp. 260–267. Archibald, B. C. & Koehler, A. B., 2003. Normalization of seasonal factors in Winters’ methods. International Journal of Forecasting, Januar-März, pp. 143–148. Arellano, F. & Hussain, A. Y., 2008. Measuring Forecast Errors in the Percentage of Sales Method, http://papers.ssrn.com/sol3/papers.cfm?abstract_id=1095652, zuletzt geprüft am 6.8.2023: University of Dallas. Armstrong, J. S., 2002. Combining Forecasts. In: J. S. Armstrong, ed. Principles of Forecasting. A Handbook for Researchers and Practitioners. New York et al.: Kluwer Academics Publisher, pp. 417–439. Armstrong, J. S., 2002. Evaluating Forecasting Methods. In: J. S. Armstrong, ed. Principles of Forecasting. A Handbook for Researchers and Practitioners. 2002: Kluwer Academics Publishers, pp. 443–472. Armstrong, J. S., 2002. Extrapolation for Time-Series and Cross-Sectional Data. In: J. S. Armstrong, ed. Principles of Foecasting. A Handbook für Researchers and Practitioners. New York et al.: Kluwer Academics Publisher, pp. 217–243. Armstrong, J. S., 2002. Judgmental Bootstrapping: Inferring Expert´s Rules for Forecasting. In: J. S. Armstrong, ed. Principles of Forecasting: A Handbook for Researchers and Practitioners. New York et al.: Kluwer Academics Publisher, pp. 171–192. Armstrong, J. S., 2002. Selecting Forecating Methods. In: J. S. Armstrong, ed. Principles of Forecating. A Handbook for Researchers and Practitioners. New York et al.: Kluwer Academic Publishers, pp. 365–386. Armstrong, J. S., 2002. Standards and Practices for Forecasting. In: J. S. Armstrong, ed. Principles of Forecasting. A Handbook for Researchers and Practitioners . New York et al.: Kluwer Academics Publishers , pp. 679–732. Armstrong, J. S., Adya, M. & Collopy, F., 2001. Rule-Based Forecasting: Using Judgment in Time-Series Forecasting. Principles of Forecasting, pp. 259–282. Armstrong, J. S. & Brodie, R. J., 1999. Forecasting for Marketing. In: G. J. Hooley & M. K. Hussey, eds. Quantitative Methods in Marketing. 2. ed. London: International Thompson Business Press, pp. 92–119.

278

Literatur

Armstrong, J. S. & Brodie, R. J., 1999. Forecasting for Marketing. In: G. J. Hooley & M. K. Hussey, eds. Quantitative Methods in Marketing. London: Interantional Tompson Business Press, pp. 92–119. Armstrong, J. S., Morwitz, V. G. & Kumar, V., 2000. Sales Forecasts for Existing Consumer Products and Services: Do Purchase Intentions Contribute to Accuracy?. International Journal of Forecasting, Heft 3, pp. 383–397. Ashenfelter, D. A., 1995. Bordeaux Wine Vintage Quality and the Weather. Chance, Issue 4, pp. 7–14. Ashton, A. H. & Ashton, R. H., 1985. Aggregating Subjective Forecasts: Some Empirical Results. Management Science, Dezember, pp. 1499–1508. Auer, B. & Rottmann, H., 2010. Statistik und Ökonometrie für Wirtschaftswissenschaftler. Wiesbaden: Springer Gabler. Babcock, L. & Loewenstein, G. F., 1997. Explaining Bargaining Impasse: The Role of SelfServing Biases. Journal of Economic Perspectives, Issue Bd. 11, pp. 109–126. Banbura, M., Giannone, D. & Reichlin, L., 2010. Nowcasting, Frankfurt: EconStor. Bandara, K. et al., 2019. Sales Demand Forecast in E-commerce using a Long Short-Term Memory Neural Network Methodology. Computer Science > Machine Learning, August, p. o.S.. Bauer, R., 2006. Gescheiterte Innovationen: Fehlschläge und technologischer Wandel. Frankfurt: Campus. Becker, F. G., 2011. Grundlagen der Unternehmensführung. Einführung in die Managementlehre. Berlin: ESV. Beckwith, N. E. & Lehmann, D. R., 1975. The Importance of Halo Effects in Multi-Attribute Attitude Models. Journal of Marketing Research, Issue 3, pp. 265–275. Beheshti-Kashi, S. et al., 2015. A survey on retail sales forecasting and prediction in fashion markets. Systems Science and Control Engineering, Nummer 3, pp. 154–161. Bemmaor, A. C., 1995. Predicting Behaviour from Intention-to-buy Measures: The Parametric Case. Journal of Marketing Research, Heft 32, pp. 176–191. Boden, A., 1995. Kurzfristige Tagesprognosen unter Berücksichtigung kalendarischer Einflüsse (Diss.). Fankfurt: Lang. Böll, S. & Schmergal, C., 2014. Aus der Glaskugel. Der Spiegel Nr. 25, pp. 40–41. Bradosti, H. & Singh, U. S., 2015. Predicting the Market Potential Using Time Series Analysis. International Journal of Social Sciences & Educational Studies, Dezember, pp. 57–65. Brinkmann, J., 2006. Buying Center-Analyse auf der Basis von Vertriebsinformationen. Wiesbaden: Deutscher Universitäts-Verlag. Brockhoff, K., 1977. Prognoseverfahren für die Unternehmensplanung. Wiesbaden: Gabler. Brodie, R. J., Danaher, P. J., Kumar, V. & Leeflang, P. S. H., 2002. Econometric Models for Forecasting Market Share. In: J. S. Armstrong, ed. Principles of Forecasting. A Handbook for Researchers and Practitioners. New York et al.: Kluwer Academics Publishers, pp. 597–611. Brown, D. A., Buck, S. F. & Pyatt, F. G., 1965. Improving the Sales Forecast for Consumer Durables. Journal of Marketing Reserach, August, pp. 229–234. Brown, R. G. & Meyers, R. F., 1961. The Fundamental Theorem of Exponential Smoothing. Operations Research, 5, pp. 673–685. Brühl, B. et al., 2009. A Sales Forecast Model for the German Automobile Market Based on Time Series Analysis and Data Mining Methods. In: P. Perner, ed. Advances in Data Mining. Applications and Theoretical Aspects. Berlin, Heidelberg: Springer, pp. 146–160. Carbone, R. u. A. J. S., 1982. Evaluation of Extrapolative Forecasting Methods: Results of a Survey of Academicians and Practioners. Journal of Forecasting, April/Juni, pp. 215–217.

Literatur

279

Carman, H. F., 1972. Improving Sales Forecasts for Appliances. Journal of Marketing Research, Mai, pp. 214–218. Chang, S. H. & Fyffe, D. E., 1971. Estimation of Forecast Errors for Seasonal-Style-Goods Sales. Management Science, Oktober, pp. 89–96. Christensen-Szalanski, 1991. The hindsight bias: A meta-analysis. Organizational Behavior and Human Decision Processes, Februar, pp. 147–168. Cox jr., J. E. & Loomis, D. G., 2002. Diffusion of Forecasting Principles Through Books. In: J. S. Armstrong, ed. Principles of Forecasting. A Handbook für Researchers and Practitioners. New York et al.: Kluwer Academics Publisher, pp. 633–649. Cron, W. L. & Decarlo, T. E., 2010. Sales Management. Concepts and Cases. 10. ed. New York: John Wiley & Sons. Csikszentmihalyi, M. & Nakamura, J., 2010. Effortless attention in everyday life: A systematic phenomenology. In: B. Bruya, ed. Effortless Attention: A New Perspective in the Cognitive Science of Attention and Action. Boston: MIT Press, pp. 179–189. Dalrymple, D., Cron, W. L. & Decarlo, T. E., 2001. Sales Management. 7. ed. New York: John Wiley & Sons (aktuelle Auflage: 10. aus 2008, aktueller Titel: Dalrymple’s Sales Management: Concepts and Cases)). Dalrymple, D. J., 1975. Sales Forecasting Methods and Accuracy. Business Horizons, Dezember, pp. 69–73. Dalrymple, D. J., 1987. Sales Forecasting Practices: Result from a United States Survey. International Journal of Forecasting, Issue 3, pp. 379–391. Dana, J. & Dawes, R. M., 2004. The Superiority of Simple Alternatives to Regression for Social Science Predictions. Journal of Educational and Behavioral Statistics , September, pp. 317– 331. Dawes, R. M., 1979. The robust beauty of improper linear models in decision making. American Psychologist, Juli, pp. 571–582. Dawes, R. M. & Corrigan, B., 1974. Linear models in decision making. Psychological Bulletin, Februar, pp. 95–106. Decker, R. & Gnibba-Yukawa, K., 2010. Sales Forecasting in High-Technology Markets: A Utility-Based Approach. Journal of Production Innovation Management, Januar, pp. 115–129. Deistler, M. & Neusser, K., 2012. Prognose uni- und multivariater Zeitreihen. In: P. Mertens & S. Rässler, eds. Prognoserechnung. Berlin, Heidelberg: Springer, pp. 225–256. Dekimpe, M. G. & Hanssens, D. M., 1995. The Persistence of Marketing Effects on Sale. Marketing Science, Winter, pp. 1–21. Dettmer, M., 2014. Zahltag in Maracana. Der Spiegel, Ausgabe 23, p. 77. Dilgard, L. A., 2009. Worst Forecasting Practices in Corporate America and their Solutions - Case Studies. Journal of Business Forecasting, Sommer, pp. 4–13. Dönitz, E. J., 2009. Effizientere Szenariotechnik durch teilautomatische Generierung von Konsistenzmatrizen. In: Was ist Szenariotechnik?. Berlin, Heidelberg: Springer, pp. 6–44. Dorn, H. F., 1950. Pitfalls in Population Forecasts and Projections. Journal of the American Statistical Association, Heft 251, pp. 311–334. DWD, D. W., 2009. Wie gut sind Wettervorhersagen? Qualitätsprüfung beim DWD, Frankfurt: Eigenverlag. Ehrmann, T. & Kühnapfel, J. B., 2012. Das Risiko des Nicht-Hinschauens. Warum Unternehmen ihren Vertriebs-Forecast nur unzureichend pflegen. ZfO - Zeitschrift Führung und Organisation, 04, pp. 249–251. Ehrmann, T. & Kühnapfel, J. B., 2013. Die Rolle des Vertriebscontrollings in der Organisation. Der Betriebswirt, Heft 2, pp. 10–14.

280

Literatur

Ehrmann, T. u. K. J., 2014. Big Data - Wunderwaffe oder Rohrkrepierer?. zfo - Zeitschrift Führung und Organisation, Juni, pp. 395–397. Ekern, S., 1981. Adaptive Exponential Smoothing Revisited. Journal of the Operational Research Society, September, pp. 775–782. Emmett, R. B., 2020. Rconsidering Frank Knight´s Risk, Uncertainty, and Profit. The Independent Review, Nummer 4, pp. 533–541. Endel, T. & Schacter, D. L., 1990. Priming and human memory systems. Science , Januar, pp. 301– 306. Erichsen, J., 2005. Praxisbeispiel einer operativen Absatzplanung. Bilanzbuchhalter und Controller, 8, p. 174 ff.. Fader, P. S. & Hardie, B. G. S., 2001. Forecasting Repeat Sales at CDNOW: A Case Study. Interfaces, Mai/Juni, pp. 94–107. Fader, P. S. & Hardie, B. G. S., 2002. Forecasting Trial Sales of New Consumer Packaged Goods. In: J. S. Armstrong, ed. Principles of Forecasting. A Handbook for Researchers and Practitioners. New York et al.: Kluwer Academics Publisher, pp. 613–630. Feindt, M. & Kerzel, U., 2015. Prognosen bewerten. Statistische Grundlagen und praktische Tipps. Berlin, Heidelberg: Springer. Fellner, G., Güth, W. & Maciejovsky, B., 2004. Illusion of expertise in portfolio decisions: an experimental approach. Journal of Economic Behavior and Organization, November, pp. 355– 376. Fildes, R. & Ma, S., 2018. Retail forecasting: research and practise, Lnacaster, UK: s.n. Fischhoff, B., 2002. Learning Form Experience: Coping with Hindsight Bias and Ambiguity. In: J. S. Armstrong, ed. Principles of Forecasting. A Handbook for Researchers and Practitioners. New York et al.: Kluwer Academics Publishers, pp. 543–554. Fisman, R., 2006. The Effect of Foreign Competition on Forecasting Bias. Review of Economics and Statistics, Februar, pp. 61–68. Gartner, W. B. & Thomas, R. J., 1993. Factors Affecting New Product Forecasting Accuracy in New Firms. Journal of Production Innovation Management, Januar, pp. 35–52. Gehmacher, E., 1971. Methoden der Prognostik. Eine Einfühung in die Probleme der Zukunftsforschung und Langfristplanung. Freiburg: Rombach. Gillen, B. J., Plott, C. R. & Shum, M., 2013. Inside Intel: Sales Forecasting Using an Information Aggregation Mechanism. Pasadena: California Institute of Technology. Gilliland, M., 2003. Fundamental Issues in Business Forecasting. The Journal of Business Forecasting, Sommer, pp. 7–13. Gilliland, M., 2010. The Business Forecasting Deal. Hoboken, New Jersey: John Wiley & Sons. Gisholt, O., 1976. Marketing-Prognosen unter besonderer Berücksichtigung der Delphi-Methode. Bern: Haupt. Gnibba, K., 2006. Modellgestützte Absatzprognosen auf High-Tech-Märkten. Eine theoretische und empirische Untersuchung (Diss.). Bielefeld: http://pub.uni-bielefeld.de/publication/2304376, zuletzt geprüft am 10.7.2014. Gossen, H. H., 1854. Entwicklung der Gesetze des menschlichen Verkehrs und der daraus fließenden Regeln für menschliches Handeln. Braunschweig: Vieweg. Grodd, M. et al., 2022. Prognosemodelle zur Steuerung von intensivmedizinischen COVID-19Kapazitäten in Deutschland. Medizinische Klinik - Intensivmedizin und Notfallmedizin, März, pp. !-/. Gruber, M. & Venter, C., 2006. Die Kunst, die Zukunft zu erfinden - Theoretische Erkenntnisse und empirische Befunde zum Einsatz des Corporate Forsight in deutschen Großunternehmen. zfbf, November, pp. 958–984.

Literatur

281

Gupta, S. & Schneider, M. J., 2016. Forecasting sales of new and existing products using consumer reviews: A random projections approach. International Journal of Forecasting, April-Juni, pp. 243–256. Handzic, M., 2001. Does More Information Lead to Better Informing?. Forschungsbericht der University of New South Wales, Australien, Juni. Hansen, K., 2012. Prognose mithilfe von Markov-Prozessen. In: P. Mertens & S. Rässler, eds. Prognoserechnung. Berlin, Heidelberg: Springer, pp. 279–308. Hansmann, K.-W., 1983. Kurzlehrbuch Prognoseverfahren. Wiesbaden: Gabler. Härdle, W. K., Schulz, R. & Wang, W., 2012. Prognose mit nichtparametrischen Verfahren. In: P. Mertens & S. Rässler, eds. Prognoserechnung. Berlin, Heidelberg: Springer, pp. 167–181. Harrison, P. J., 1967. Exponential Smoothing and Short-Term Sales Forecasting. Management Sciences, Juli, pp. 821–842. Harvey, N., 2002. Improving Judgement in Forecasting. In: J. S. Armstrong, ed. Principles of Forecasting. A Handbook for Researchers and Practitioners. New York et al.: Kluwer Academics Publisher, pp. 59–80. Hawking, S. & Mlodinow, L., 2011. Der große Entwurf: Eine neue Erklärung des Universums. 2. ed. Reinbek: rororo. Heeler, R. M. & Hustad, T. P., 1980. Problems in Predicting New Product Growth for Consumer Durables. Management Science, Oktober, pp. 1007–1020. Helten, E., 1981. Methoden und Grenzen der Prognose im Versicherungsunternehmen. Zeitschrift für die gesamte Versicherungswissenschaft, pp. 335–365. Helweg-Larsen, M. & Shepperd, J. A., 2001. Do Moderators of the Optimistic Bias Affect Personal or Target Risk Estimates? A Review of the Literature. Personality and Social Psychology Review, Nr. 1, pp. 74–95. Hillig, T., 2006. Verfahrensvarianten der Conjoint-Analyse zur Prognose von Kaufentscheidungen: Eine Monte-Carlo-Simulation. Wiesbaden: Deutcher Universitäts-Verlag. Hogarth, R. M. & Makridakis, S., 1981. Forecasting and Planning: An Evaluation. Management Science, Februar, pp. 115–138. Holt, C. C., 1957 . Forecasting Seasonals and Trends by Exponentially Weighted Moving Avarages. Office of Naval Research. Research Memorandum No. 52. Reprint in International Journal of Forecasting, Vol. 20, Iss. 1, Januar-März 2004, Seite 5–10. Homburg, C., Artz, M., Wieseke, J. & Schenkel, B., 2008. Gestaltung und Erfolgsauswirkungen der Absatzplanung: Eine branchenübergreifende emprische Analyse. Zeitschrift für betriebswirtschaftliche Forschung, November, pp. 634–570. Hüttner, M., 1986. Prognoseverfahren und ihre Anwendung. Berlin: Walter de Gruyter. Ionnidis, J. P., Cripps, S. & Tanner, M. A., 2022. Forecasting for COVID-19 has failed. International Journal of Forecasting, April-Juni, pp. 423–438. Ireland, R., 2005. ABC of Collaborative Planning Forecasting and Replenishment. The Journal of Business Forecasting, Sommer, pp. 3–10. Ireland, R., 2005. ABC of Collaborative Planning Forecasting and Replenishment. Journal of Business Forecasting, Sommer, pp. 3–10. Jain, C. L., 2007. Benchmarking New Product Forecasting. Journal of Business Forecasting, Winter, pp. 28–29. Jamieson, L. F. & Bass, F. M., 1989. Adjusting stated intention measures to predict trial purchase of new products: A comparison of models and methods. Journal of Marketing Research, August, pp. 336–345. Jensen, M. C., 2001. Corporate Budgeting is Broken - Let’s Fix It. Harvard Business Review, November, pp. 94–101.

282

Literatur

Jiménez, F. & Garcia, J. M., 2017. Multi-objective evolutionary feature selection for online sales forecasting. Neurocomputing, Nummer 234, pp. 75–92. Kahneman, D., 1973. Attention and Effort. New Jersey: Prentice Hall. Kahneman, D., 2012. Schnelles Denken, langsames Denken. 16. ed. München: Siedler. Kahneman, D. & Frederick, S., 2001. Representativeness revisited: Attribute substitution in intuitive judgment1. In: T. Gilovich, D. Griffin & D. Kahneman, eds. Heuristics and Biases: The Psychology of Intuitive Judgment. Cambridge: Cambridge University Press, pp. 49–81. Kahneman, D. & Klein, G., 2009. Conditions for Intuitive Expertise A Failure to Disagree. American Psychologist, Oktober, pp. 515–526. Kahneman, D., Sibony, O. & Sunstein, C. R., 2021. Noise. Was unsere Entscheidungen verzerrt und wie wir sie verbessern können. München: Siedler. Kahneman, D., Slovic, P. & Tversky, A., 1982. Judgement under Uncertainty: Heuristics and Biases. Cambridge: Cambridge University Press. Kahneman, D. & Tversky, A., 1973. On the Psychology of Prediction. Psychological Review, Juli, pp. 237–251. Kahneman, D. & Tversky, A., 1974. Judgment under Uncertainty: Heuristics and Biases. Science, September, pp. 1124–1131. Kauko, K. & Palmroos, P., 2014. The Delphi Method in Forecasting Financial Marketets – An Experimental Study. International Journal of Forecasting, April-Juni, pp. 313–327. Knight, F. H., 1921. Risk, Uncertainty and Profit. Cambridge: The Riverside Press. Kolassa, S., 2016. Evaluating predictive count data distributions in retail sales forecasting. International Journal of Forecasting , Nummer 3, pp. 788–803. Kollenbroich, P., 2015. Rechnen ist genauer als raten - wenigstens ein bisschen. https://www. spiegel.de/wirtschaft/soziales/konjunktur-prognosen-wie-gut-sind-die-vorhersagen-a-1068669. html. [Accessed 28 07 2023]. Kremer, D., 2023. Die besten Fondgesellschaften. Frankfurter Allgemeine Zeitung, 09 April. Kühnapfel, J., 2013. Vertriebscontrolling. Wiesbaden: Springer Gabler. Kühnapfel, J. B., 2013. Die Aufgaben des Vertriebscontrollers. Controlling & Management Review, Heft 2, pp. 36–46. Kühnapfel, J. B., 2014. Nutzwertanalysen in Marketing und Vertrieb. Wiesbaden: Springer Gabler. Kühnapfel, J. B., 2014. Vertriebsprognosen. Wiesbaden: Springer Gabler. Kühnapfel, J. B., 2019. Die Macht der Vorhersage. Smarter leben durch bessere Prognosen. Wiesbaden: SpringerGabler. Kühnapfel, J. B., 2021. Scoring und Nutzwertanalysen. Wiesbaden: SpringerGabler. Kühnapfel, J. B., 2022. Vertriebscontrolling. Methoden im praktischen Einsatz. 3. ed. Wiesbaden: SpringerGabler. Küsters, U., 2012. Evaluation, Kombination und Auswahl betriebswirtschaftlicher Prognoseverfahren. In: S. u. M. P. Rässler, ed. Prognoserechnung. Heidelberg: Physica-Verlag, pp. 423–467. Küsters, U., 2012. Evaluation, Kombination und Auswahl betriebswirtschaftlicher Prognoseverfahren. In: S. Rässler & P. Mertens, eds. Prognoserechnung. Heidelberg: Physica-Verlag, pp. 423–467. Küsters, U., 2012. Evaluation, Kombination und Auswahl betriebswirtschaftlicher Prognoseverfahren. In: P. Mertens & S. Rässler, eds. Prognoserechnung. Berlin, Heidelberg: Springer, pp. 423–467. Küsters, U. u. B. C., 2005. Monitoring von Prognosemodellen. In: S. Rässler & P. Mertens, eds. Prognoserechnung. 6. ed. Heidelberg: Physica-Verlag, pp. 335–367. Laumann, H., 1980. Ansätze zu einer Methodologie der Prognostik (Dissertation). Mannheim: Selbstverlag. Lawrence, M., O´Conner, M. & Edmundson, B., 2000. A field study of sales forecasting accuracy and processes. European Journal of Operational Research, pp. 151–160.

Literatur

283

Lewandowski, R., 1980. Prognose- und Informationssysteme und ihre Anwendungen, Band II. Berlin: de Gruyter. Luo, J., 2021. Forecasting COVID-19 pandemic: Unknown unknowns and predictive monitoring. Technological Forecasting and Social Change, Ausgabe 166, p. o.S.. Luxhoj, J. T., Riis, J. O. & Stensballe, B., 1996. A hybrid econometric-neural network modeling approach for sales forecasting. International Journal of Production Economics, pp. 175–192. Machrzina, K. & Wolf, J., 2008. Unternehmensführung. 6. ed. Wiesbaden: Springer Gabler . Makridakis, S. & Hibon, M., 1979. Accuracy of Forecasting: An Empirical Investigation. Journal of the Royal Statistical Society, pp. 97–145. Makridakis, S., Assimakopolous, V. & Spiliotis, E., 2018. The M4 Competition: Results, findings, conclusion and way forward. International Journal of Forecasting, Oktober-Dezember, pp. 802–808. Makridakis, S. & Hibon, M., 2000. The M3 Competition: Results, Conclusions, and Implications. International Journal of Forecasting, Issue 16, pp. 451–476. Makridakis, S., Reschke, H. & Wheelwright, S. C., 1980. Prognosetechniken für Manager (Original: Forecasting Methods for Management, J. Wiley & Sons, 3. Auflage). Wiesbaden: Gabler. Makridakis, S., Spiliotis, E. & Assimakopoulos, V., 2020. The M4 Competition: 100,000 time series and 61 forecasting methods. International Journal of Forecasting, Januar-März, pp. 54–74. Makridakis, S., Spiliotis, E. & Assimakopoulos, V., 2022. M5 accuracy competition: Results, findings, and conclusions. International Journal of Forecasting, Nummer 4, pp. 1346–1364. Makridakis, S., Spiliotis, E. & Assimakopoulus, V., 2022. Predicting/hypothesizing the findings of the M5 competition. International Journal of Forecasting, Nummer 4, pp. 1337–1345.. Malmendier, U. & Tate, G., 2009. Superstar CEOs. Quarterly Journal of Economics, Issue 24, pp. 1593–1638. McCloskey, D. N., 1992. The Art of Forecasting: From Ancient to Modern Times. Cato Journal, Frühjahr/Sommer, pp. 23–43. McGregor, D., 1938. The major determinants of the prediction of social events. The Journal of Abnormal and Social Psychology, April, pp. 179–204. Meade, N. & Islam, T., 2002. Forecasting the Diffusion of Innovations: Implications for TimeSeries Extrapolation. In: J. S. Armstrong, ed. Principles of Forecasting. A Handbook for Researchers and Practitioners. New York et al.: Kluwer Academics Publisher, pp. 577–595. Meehl, P. E., 1954. Clinical versus statistical prediction: A theoretical analysis and a review of the evidence. Minneapolis: University of Minnesota Press. Meehl, P. E., 1986. Causes and Effects of My Disturbing Little Book. Journal of Personality Assessment, Issue 3, pp. 370–375. Menges, G., 1967. Ökonometrische Prognosen. Statistische Hefte, pp. 18–31. Mentzer, J. T., 1988. Forecasting with Adaptive Extended Exponential Smoothing. Journal of the Academy of Marketing Science, Herbst, pp. 62–70. Mertens, P. u. R. S. (., 2005. Prognoserechnung. 6. ed. Heidelberg: Physica-Verlag. Mest, D. P. & Plummer, E., 2003. Analysts’ Rationality and Forecast Bias: Evidence from Sales Forecasts. Review of Quantitative Finance and Accounting, pp. 103–122. Moe, W. W. & Fader, P. S., 2002. Using Advance Purchase Orders to Forecast New Product Sales. Marketing Science, Sommer, pp. 347–364. Moon, M. A., Mentzer, J. T., Smith, C. D. & Garver, M. S., 1988. Seven Keys to Better Forecasting. Business Horizons, September/Oktober, pp. 44–52. Moon, M. A., Mentzer, J. T. & Thomas, D. E., 2000. Customer Demand Planning at Lucent Technologies. Industrial Marketing Management, Januar, pp. 19–26.

284

Literatur

Moriarty, M. M., 1985. Design Features of forecasting Systems Involving Management Judgements. Journal of Marketing Research , November, pp. 353–364. Morlidge, S., 2014. Do Forecasting Methods Reduce Avoidable Error? Evidence from Forecasting Competitions. Forsight, Winter, pp. 34–39. Morwitz, V. G., 2002. Methods for Forecasting From Intentions Data. In: J. S. Armstrong, ed. Principbles of Forecasting. A Handbook for Researchers and Practitioners. New York et al.: Kluwer Academis Publisher, pp. 33–56. Morwitz, V. G. & Schmittlein, D., 1992. Using Segmentation to Improve Sales Forecasts Based on Purchase Intent: Which "Intenders" Actually Buy?. Journal of Marketing Research, November, pp. 391–405. Müller, H. C., 2011. Forecast Errors in Undisclosed Management Sales Forecasts: The Disappearance of the Overoptimism Bias, http://hdl.handle.net/10419/54195, zuletzt geprüft am 9.7.2014: Arbeitspapier des „Düsseldorf Institut for Competition Economies DICE“ Nr. 40. Neely, J. H., 1977. Semantic priming and retrieval from lexical memory: Roles of inhibitionless spreading activation and limited-capacity attention. Journal of experimental psychology: general, Issue 4, pp. 226–254. Neely, J. H., 1991. Semantic priming effects in visual word recognition: A selective review of current findings and theories. In: D. Besner & G. W. Humphreys, eds. Basic Processes in Reading: Visual Word Recognition. Oxon et al.: Psychology Press, pp. 264–336. Nickerson, R. S., 1998. Confirmation Bias: A Ubiquitous Phenomenon in Many Guises. Review of General Psychology, Nr. 2, pp. 175–220. Nisbett, R. E. & Wilson, T. D., 1977. The halo effect: Evidence for unconscious alteration of judgments. Journal of personality and social psychology, Issue 4, pp. 250–256. Nymand-Andersen, P. & Pantetidis, E., 2018. Google Econometrics: Nowcasting Euro Area Cas Sales and Big Data Quality Requirements, Frankfurt: s.n. o.V., 2012. Prüfungsnoten an Hochschulen im Prüfungsjahr 2010. Arbeitsbericht mit einem Wissenschaftspolitischen Kommentar des Wissenschaftsrates, Hamburg: s.n. o.V., 2014. Spanien wird Fußball-Weltmeister. Frankfurter Allgemeine Zeitung vom 12. Juni 2014. o.V., 2022. Die Profis für Fehlprognosen sitzen in der Federal Reserve. Frankfurter Allgemeine Zeitung, 14 September. Oehmke, P., 2013. Was stimmte. Der Spiegel Nr. 23, pp. 130–133. Ord, K. & Fildes, R., 2013. Principles of Business Forecasting. Mason, Ohio: South Western. Papacharalampous, G. & Tyralis, H., 2018. Comparison of 20 univariate time series forecasting models regarding their one-step ahead forecasting properties. file:///C:/Users/kuehn/Downloads/one-step_ahead_forecasting_reports-1.pdf [Accessed 27 07 2023]. Papacharalampous, G., Tyralis, H. & Koutsoyiannis, D., 2018. One-step ahead forecasting of geophysical prosesses within a purely statistical framwork. Geoscience Letters (Open Access), Ausgabe 5. Petropoulos, F., Apiletti, D. & Assimakopoulos, V., 2022. Forecasting: theory and practice. International Journal of Forecasting, Nummer 38, pp. 705–871. Pilinkiené, V., 2008. Selection of Market Demand Forecast Methods: Criteria and Application. Engineering Economics, pp. 19–25. Popper, K. R., 1957. Das Elend des Historizismus. Tübingen: Mohr. Popper, K. R., 1965. Prognose und Prophetie in den Sozialwissenschaften. In: E. Topitsch, ed. Logik der Sozialwissenschaften. Köln, Berlin: Kiepenheuer & Witsch, p. 115 ff.. Popper, K. R., 1973. Vermutungswissen: meine Lösung des Induktionsproblems. In: K. R. Popper, ed. Objektive Erkenntnis. Ein evolutionärer Entwurf. Hamburg: Hoffmann und Campe, pp. 13–43.

Literatur

285

Pronin, E. & Kugler, M. B., 2007. Valuing thoughts, ignoring behavior: The introspection illusion as a source of the bias blind spot. Journal of Experimental Social Psychology, Issue 43, pp. 565–578. Rahimi, I., Chan, F. & Gandomi, A. H., 2021. A review on COVID-19 forecasting models. Neural Computing and Applications, Februar, p. o.S.. Redfield, J. W., 1951. Elements of Forecasting. Harvard Business Review , Nr. 6, pp. 81–91. Reibnitz, U. v., 1998. Szenario-Technik. Instrumente für die unternehmerische und persönliche Erfolgsplanung. 2 ed. Wiesbaden: Gabler. Reichard, R., 1965. What’s New in Sales Forecasting: A Survey of Current Company Practices. Management Review, September, pp. 34–45. Reichheld, F. F., 2006. The One Number You Need to Grow. Harvard Business Review, Dezember, pp. 46–54. Rothe, J. T., 1978. Effectiveness of Sales Forecasting Methods. Industrial Marketing Management, pp. 114–118. Rowe, G., 2001. Expert Opinions in Forecasting: The Role of the Delphi Technique. In: J. S. Armstrong, ed. Principles of Forecasting. New York: Kluwer Academic Publisher, pp. 125–144. Rowe, G. & Wright, G., 2002. Expert Opinions in Forecasting: The Role of the Delphi Technique. In: J. S. Armstrong, ed. Principles of Forecasting. A Handbook for Researchers and Practitioners. New York et al.: Kluwer Academics Publisher, pp. 125–144. Sageart, Y. R., Aghezzaf, E.-H., Kourentzes, N. & Desmet, B., 2018. Tactical sales forecasting using a very large set of macroeconomic indicators. European Journal of Operational Research, Januar, pp. 558–569. Samuelson, W. & Zeckhauser, R., 1988. Status Quo Bias in Decision Making. Journal of Risk and Uncertainty, Issue 1, pp. 7–59. Sanders, N. R. & Ritzman, L. P., 2002. Judgmental Adjustment of Statistical Forecasts. In: J. S. Armstron, ed. Principles of Forecasting. A Handbook for Researchers and Practitioners. New York et al.: Kluwer Academics Publisher, pp. 405–416. Schencking, F. & Schwenker, B., 2022. Illusion der Berechenbarkeit. Frankfurter Allgemeine Zeitung, 14 November. Schira, J., 2005. Statistische Methoden der VWL und BWL. Theorie und Praxis. 2. Auflage ed. München: Pearson Education. Schnaars, S. P., 1986. An Evaluation of Rules for Selecting an Extrapolation Model on Yearly Sales Forecasts. Interfaces, Dezember, pp. 100–107. Schnaars, S. P. & Topol, M. T., 1987. The Use of Multiple Scenarios in Sales Forecasting. International Journal of Forecasting, September, pp. 405–419. Schnabel, U., 2004. Gut gemeint ist schlecht erfunden. Die Zeit, Issue 23. Schwarz, N. et al., 1991. Ease of retrieval as information: Another look at the availability heuristic. Journal of Personality and Social psychology, Issue 2, pp. 195–202. Schweitzer, M. E. & Cachon, G. P., 2000. Decision bias in the newsvendor problem with a known demand distribution: Experimental evidence. Management Science, März, pp. 404–420. Scott, J. E. & Keiser, S. K., 1984. Forecasting Acceptance of New Industrial Products with Judgment Modeling. Journal of Marketing, Frühjahr, pp. 54–67. See-To, E. W. K. & Ngai, E. W. T., 2018. Customer reviews for demand distribution and sales nowcasting: a big data approach. Annals of Operations Research, Ausgabe 270, p. 415–431. Shakeel, S. M. et al., 2021. COVID-19 prediction models: a systematic literature review. Osong Public Health Research Perspect, August, p. 215–229. Siedenbiedel, C., 2022. Die EZB will ihre Prognosen ändern. Frankfurter Allgemeine Zeitung, 17 September.

286

Literatur

Silver, N., 2012. The Signal and the Noise. Why So Many Predictions Fail – but Some Don´t. New York: Penguin Press. Simon, H. A., 1987. Making management decisions: The role of intuition and emotion. The Academy of Management Executive, Februar , pp. 57–64. Simon, H. A., 1987. Making Management Decisions: The Role of Intuition and Emotion, Pittsburgh, USA: Academie of Management Executive der Carnegie-Mellon University. Singh, S., 2014. Critical Skills for the Business Forecaster. Foresight, Winter, pp. 5–11. Sohrabpour, V., Oghazi, P., Toorajipour, R. & Nazarpour, A., 2021. Expoert sales forecasting using artificial intelligence. Technological Forecasting and Social Change, November, pp. o.,S.. Staelin, R. & Turner, R. E., 1973. Error in Judgemental Sales Forecasts: Theory and Results. Journal of Marketing Research, Februar, pp. 10–16. Stellwagen, E., 2007. Forecasting 101: How to Forecast Data Containing Outliers. Trends, September. Stewart, T. R., 2002. Improving Reliability of Judgemental Forecasts. In: J. S. Armstrong, ed. Principles of Forecasting. A Handbook for Researchers and Practitioners. New York et al.: Kluwer Academics Pubisher, pp. 81–106. Swinkels, L. & Umlauft, T. S., 2022. The Buffett Indicator: International Evidence, s.l.: SSRN. Taleb, N. N., 2010. Der Schwarze Schwan: Die Macht höchst unwahrscheinlicher Ereignisse. München: Deutscher Taschenbuch Verlag. Tashman, L. J. & Hoover, J., 2002. Diffusion of Forecasting Principles Through Software. In: J. S. Armstrong, ed. Principles of Forecasting. A Handbook for Researchers and Practitioners . New York et al.: Kluwer Academics Publisher, pp. 651–676. Thomas, R. J., 1993. Method and Situational Factors in Sales Forecast Accuracy. Journal of Forecasting, Januar, pp. 69–77. Treyer, O. A., 2010. Business Forecasting. Bern: Haupt. Tull, D. S., 1967. The Relationship of Actual and Predicted Sales and Profits in New-Product Indtroductions. Journal of Business, Juli, pp. 233–249. Tyebjee, T. T., 1987. Behavioral Biases in New Product Forecasting. International Journal of Forecasting, Heft 3, pp. 393–404. Urban, G. L., Hulland, J. S. & Weinberg, B. D., 1993. Premarket Forecasting for New Consumer Durable Goods: Modeling Categorization, Elimination, and Consideration Phenomena. Journal of Marketing, April, pp. 47–63. Urban, G. L., Weinberg, B. D. & Hauser, J. R., 1996. Premarket Forecasting of Really-New Products. Journal of Marketing, Januar, pp. 47–60. Walker, K. B. & McClelland, L. A., 1991. Management Forecasts and Statistical Prediction Model Forecasts in Corporate Budgeting. Journal of Account Research, Nummer 2, pp. 371–81. Wallace, T. F. & Stahl, R. A., 2002. Sales Forecasting. A New Approach. 4. Auflage ed. Cincinnati, Ohio: Wallace & Company. Wang, C.-H., 2022. Considering economic indicators and dynamic channel interactions to conduct sales forecasting for retail sectors. Computers & Industrial Engineering, März, p. o.S.. Webby, R., O’Conner, M. & Lawrence, M., 2002. Judgmental Time-Series Forecasting Using Domain Knowledge. In: J. S. Armstrong, ed. Principles of Forecasting. A Handbook for Researchers and Practitioners. New York et al.: Kluwer Academics Publishers, pp. 387–403. Wehr, M., 2014. Die Kompetenzillusion. Frankfurter Allgemeine Zeitung. Welge, M. K. u. A.-L. A., 2012. Strategisches Management. 6 ed. Wiesbaden: Gabler Springer. West, D. C., 1994. Number of Sales Forecast Mehtods and Marketing Management. Journal of Forecasting, Nr. 4, pp. 395–407. Wilms, F. E. P., 2006. Szenariotechnik: Vom Umgang mit der Zukunft. Bern: Haupt-Verlag.

Literatur

287

Winklhofer, H., Diamantopoulos, A. & Witt, S. F., 1996. Foreasting practice: A review of the empirical literature and an agenda for future research. International Journal of Forecasting, 12, pp. 193–221. Winter, P. R., 1960. Forecasting Sales by Exponentially Weighted Moving Averages. Management Science, April, pp. 324–342. Witting, D. R. & Bergestuen, T., 2002. Forecasting with Conjoint Analysis. In: J. S. Armstrong, ed. Principles of Forecasting. A Handbook for Researchers and Practitioners. New York et al.: Kluwer Academics Publisher, pp. 147–167. Yang, C.-L. & Sutrisno, H., 2018. Short-Term Sales Forecast of Perishabe Goods for Franchise Business. s.l., s.n., pp. 101–105. Yokum, T. & Armstrong, J. S., 1995. Beyond Accuracy: Comparison of Criteria Used to Select Forecasting Methods. International Jounal of Forecasting, Issue 11, pp. 591–597. Zhang, Y., Zhong, M., Geng, N. & Jiang, Y., 2017. Forecatsing elecric vehicles sales with univariate and multivariate time series models: The case of China. PLOS One, Mai, pp. 1–15.

Stichwortverzeichnis

A Abweichung absolute, 136 durchschnittliche absolute, 137 durchschnittliche absolute prozentuale, 137 Adjustieren von Forecasts, 52 Adjustierung Dokumentation, 56 historischer Daten, 157 Korrektur, 56 Prozess, 56 Aleph-Alpha, 241 Algorithmen, 151 Alpha-Wert, 175 Ältestenrat, 54 Analogiemethode, 241, 253 Änderungshistorie, 21 Ankerheuristik, 82 Ankerreiz, 83 ARIMA, 190 ARMA-Modell, 191 ARMAX, 191 Auftragseingangswahrscheinlichkeit, 194, 199, 205 Ausnahme, 95 Ausreißer, 54, 69, 95, 158 Bereinigung, 104 destruktive Maßnahmen, 104 einmalige, 96 kurative Maßnahmen, 104 mit allmählicher Trendnomalisierung, 100 niveauverschiebende, 99 saisonaler, 101 selbst korrigierende, 98

trendverändernder, 101 trendzerstörender, 102 Typen, 96, 158 überlagernder, 103

B Banalprognose, 62 Basislevel, 206, 218 Anteilsberechnung, 207 Beispiele, 210 Erfahrungswerte, 209 individueller, 206 Basisrate, 70, 93, 206 Bauchentscheidung, 56 Bauchprognose, 142 Bestätigungsverzerrung, 76 Beta-Wert, 184 Bewährungsgrad, 10 Bewertungskorridor, 219 Bias, 74 Big Data, 239, 243 Blind Spot, 20, 225, 232 Börsencrash, 106 Box-Jenkins, 190

C ChatGPT, 262 Chef-Prognose, 230 Commitment, persönliches, 29 CONJOINT-Analyse, 261 COVID-19, 9 CPFR, 33

© Der/die Herausgeber bzw. der/die Autor(en), exklusiv lizenziert an Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2023 J. B. Kühnapfel, Vertriebsprognosen, https://doi.org/10.1007/978-3-658-42876-1

289

290 D Daten, historische, 63 Daumenregel, 82 Deckungsbeitrag, 29 Delphi-Methode, 233, 254 Determinismus, 9 Dissonanztheorie, 83 Domain Knowledge, 53 Durchschnitt, gleitender, 168 Durchschnittswertextrapolation, 67, 164

E Economies of Scale, 254 Eintrittswahrscheinlichkeit, 17, 72, 94, 117 Entscheidungsbaum, 224 Entspontanisierung, 94 Erfahrungswissen, 54 Erfolgsfaktor guter Forecasts, 28 ERP-System, 28 Erwartungswert, 139 Estimation Group, 231 Experte, 87 Expertenwissen, 52 Expertise, 226, 265 Extrapolation Durchschnittswert, 164

F Fachwissen s. Expertise Finanzkrise, 160 Forecast, naiver Modifikationen, 145 saisonale Einflüsse, 149 trendbereinigt, 149 Forecast, 7 Adjustage, 53 als Planungsgrundlage, 42 Estimation Group, 245 evangelikaler, 230 kombinierter, 27, 40, 48, 90, 108, 231 Gewichtung, 49 Gewichtungsfaktoren, 50 Korridor der Prognosewerte, 59 kumulierter, 57 naiver, 122, 141, 145 Qualität, 58 rollierender, 55, 193

Stichwortverzeichnis Forecaster Know-how, 29 Unabhängigkeit, 53 Frühwarnsystem, 106, 250 Führung, finanzielle, 23 Funktion, polynomische, 68, 178

G Gamma-Wert, 183 Gaußsche Normalverteilung, 56, 140 Gefahr der plausiblen Prognose, 73 Glättung, exponentielle, 175 adaptive, 179 doppelte, 180 einfache, 176 erweiterte nach Winter, 184 Zweiparameterglättung, 183 Glättungsfaktor Alpha, 175 Gleichung, quadratische, 68 Glockenkurve, 174, 256 Glück, 71, 80 Glücksbringer, 1

H Halo-Effekt, 76, 78 Hawthorne-Effekt, 245 Heuristik, 82, 213 Historizismus, 10 Hockey Stick, 120, 256, 258

I Illusion der objektiven Selbstbeobachtung, 81 der Zwangsläufigkeit, 71 Intuition, 54, 86

J Judgemental Bootstrapping, 224, 230 Judgemental Forecast, 223

K Kaufverhalten, 243 Kausalkette, 1, 74 Kausalzusammenhang, 5, 70

Stichwortverzeichnis KI (Künstliche Intelligenz), 224, 240, 262 Know-how, 120 Knowledge of Customer Index, 244 Kohärenz, 77, 214 Kompetenzillusion, 224 Konfidenzintervall, 94 Konjunktur, 157 Konjunkturforschung, 52 Konsumgut, 260 Korrekturfaktor, 55, 219 Korrelationskoeffizient, 90, 188 Kundenkontaktsituation, 30 Künstliche Intelligenz (KI), 224, 240, 262 Kurzfristprognose, 22

L Langfristprognose, 22, 236, 241 Leichtigkeit assoziative, 73 kognitive, 77, 104, 246 Liquiditätsplanung, 23 Loss-Order-Reports, 84

M M3-Wettbewerb, 45, 153 MAPE, 67, 137, 165 Marketingmix, 24 Markt, neuer, 193 Marktanalyse, 241 Marktanteil, 243 Marktforschung, 241 Stichprobenauswahl, 244 Mean absolute percentage error, 137 Mean avarege error, 137 Mean error, 136 Menschenverstand, gesunder, 66 Methode der kleinsten Quadrate, 230 Methodenwahl, 109 Methodenwettbewerb, 44 Modell, autoregressives, 190 Monte-Carlo-Simulation, 190, 261 Mustererkennung, 80

N Nachjustieren, 33 Narrative Fallacy, 70

291 NERD, 73 Net Promoter Score, 244, 257 Noise, 28 Normalverteilung, 140 Normprozess der Forecast-Erstellung, 34

O Objektivierung, 92 Ökonometrie, 186 Omen, 1 OpenAI, 241 Outlier, 95 Out of sample, 104 Overfitting, 65, 98 Over- und Underfitting, 152

P Pattern, 10 Pech, 71, 80 Planungsgrundlage, 117 Planungsprozess, 6 Präsentation einer Prognose, 72 Preisabsatzfunktion, 254 Priming, 215, 222, 253 Priming-Effekt, 78, 114 Produkt, neues, 193, 250 Produktionsprogrammplanung, 24 Prognose algorithmenbasierte, 89, 110 Automatisierung, 110 Bedarf, 113 bedingte, 11 expertengestützte, 223 Expertise, 120, 253 Genauigkeit, 114 Grundmuster, 114 Inputdaten, 119 intuitive, 87 Kosten, 118 kurzfristige, 166 langfristige, 236 Präzision, 115 Scheingenauigkeit, 116 Prognosegegenstand, 7 Prognosegenauigkeit, 27, 45 Prognosehorizont, 21 Prognoseintervall, 21

292 Prognoseprozess, 18, 27, 32 initialer Prozess, 18 Regelmäßigkeit, 111 repetitiver Prozess, 18 Prognosequalität, 58, 131 Kriterien, 131 Messsystem, 131 Prognose-Software, 28 Prognosesystem, 19 Prognoseteam, 27 Prognosewert, 7 Prognosewertkorridor, 116 Prognosezweck, 21 Programmierung, semantische, 78 Prophetie, 5, 52, 252 Prophezeihung selbsterfüllende, 10 selbstzerstörende, 10

R Random Walk, 146 Rationalitätsgrad einer Prognose, 10 Rauschen, 28 Regel formale, 226 intuitive, 223 Regression autoregressive, 190 einfache, 187 Eingleichungsmodell, 189 Mehrgleichungsmodelle, 190 multiple, 189, 191 Regressionsanalyse, 187 Regression zum Mittelwert, 103, 118, 206, 218, 235 Repräsentativitätsheuristik, 85, 222, 246, 259 Resilienz, 222 Risikopuffer, 23 Risk Management, 106 Rohdaten, 38 Rückschaufehler, 79

S Saisonale Random Walk, 146 Saisonfigur, 171, 174 Saisonindizes, 170 Sales Funnel, 8

Stichwortverzeichnis Sättigungslevel, 256 Schach, 5 Schwankung, saisonale, 170 Schwarze Schwäne, 9, 105, 247 Sensitivitätsanalyse, 253 Serie, 157 Signal, 28 Simulation, 261 Software für Forecasts, 118 Soziale Medien, 239 Sprach-Bots, 262 Standardabweichung, 139 Standard Deviation, 139 Start-up, 193, 250, 253, 258 Geschäftspläne, 253 Status-Quo-Bias, 80 Stereotyp, 85 Strategie, 30 Szenario, 104, 249 Szenariotechnik, 236 Deskriptoren, 248 Einflussfaktoren, 248 Erwartungswert, 246 Szenario-Technik, 245 Deskriptoren, 248 Erwartungswert, 246 Nutzen, 246 Vorgehen, 247 Wirkungsanalyse, 249

T Transaktionskosten, 42, 74 Trend, 155 stabiler, 55 stagnierend, 165 Trendextrapolation, lineare, 67 Trendfortschreibung, einfache, 162 Trendfunktion, 171 Trendverlauf, 255 konstante Werte, 154 saisonaler Verlauf, 155 Trendende, 155

U Überanpassung der Prognosewerte, 65 Überoptimismus, 79 Ukrainekrieg, 9

Stichwortverzeichnis Unabhängigkeit des Forecasters, 31 Unbekannte, unbekannte, 20, 187, 225, 232 Underfitting, 65, 98 Unteranpassung der Prognosewerte, 65 Unternehmensentwicklung, strategische, 8 Unternehmensplanung, 23 Urteilsheuristik, 82

V Veränderungsaversion, 80 Verfügbarkeitsheuristik, 84, 213, 214, 224 Verhaltensökonomie, 53 Verkaufsprognose, 6 Verknüpfung, kausale, 73 Verlustaversion, 80 Vertriebscontroller, 29, 30, 265 Vertriebs-Forecast, 7 Verzeihung, selbstwertdienliche, 76 Verzerrung kognitive, 75 narrative, 70

293 Vorhersagen, 7

W Wahrnehmungsverzerrung, 53, 74, 120, 194, 219, 251 Walmart, 33 Werteverlauf einer Zeitreihe, 63 Workshop, 245

Z Zeitreihenanalyse, 52, 152 Zielgruppe, 243 Cluster, 243 Segmentierung, 243 Zielinteresse, 54 Zielplanung, 74 Zielvereinbarung, 6 Zielwert, 16 Zufall, 4 Zyklus, 157, 170