Marktforschung: Grundlagen und praktische Anwendungen [5., überarb. und erw. Aufl.] 9783486847963

Das Lehrbuch vermittelt in komprimierter Form die wesentlichen Begriffe und Methoden der Marktforschung. Der Autor konze

282 90 13MB

German Pages 283 [288] Year 2014

Report DMCA / Copyright

DOWNLOAD PDF FILE

Recommend Papers

Marktforschung: Grundlagen und praktische Anwendungen [5., überarb. und erw. Aufl.]
 9783486847963

  • 0 0 0
  • Like this paper and download? You can publish your own PDF file online for free in a few minutes! Sign Up
File loading please wait...
Citation preview

Managementwissen für Studium und Praxis Herausgegeben von Professor Dr. Dietmar Dorn und Professor Dr. Rainer Fischbach Lieferbare Titel: Anderegg, Grundzüge der Geldtheorie u n d Geldpolitik Arrenberg • Kiy • Knobloch • Lange, Vorkurs in Mathematik, 3. Auflage Barth • Barth, Controlling, 2. Auflage Behrens • Kirspel, Grundlagen der Volkswirtschaftslehre, 3. Auflage Behrens • Hilligweg • Kirspel, Übungsbuch zur Volkswirtschaftslehre Behrens, Makroökonomie - Wirtschaftspolitik, 2. Auflage Bontrup, Volkswirtschaftslehre, 2. Auflage Bontrup, Lohn u n d Gewinn, 2. Auflage Bontrup • Pulte, Handbuch Ausbildung Bradtke, Mathematische Grundlagen für Ökonomen, 2. Auflage Bradtke, Übungen u n d Klausuren in Mathematik für Ökonomen Bradtke, Statistische Grundlagen für Ökonomen, 2. Auflage Bradtke, Grundlagen im Operations Research für Ökonomen Busse, Betriebliche Finanzwirtschaft, 5. Auflage Camphausen, Strategisches Management, 2. Auflage Dinauer, Grundzüge des Finanzdienstleistungsmarkts, 2. Auflage Dorn • Fischbach, Volkswirtschaftslehre 11, 4. Auflage Dorsch, Abenteuer Wirtschaft 7 5 Fallstudien mit Lösungen Drees-Behrens • Kirspel • Schmidt • Schwanke, Aufgaben u n d Fälle zur Finanzmathematik, Investition u n d Finanzierung, 2. Auflage Drees-Behrens • Schmidt, Aufgaben u n d Fälle zur Kostenrechnung, 2. Auflage Fischbach • Wollenberg, Volkswirtschaftslehre 1, 13. Auflage Götze • Deutschmann • Link, Statistik Gohout, Operations Research, 3. Auflage Haas, Kosten, Investition, Finanzierung - Planung u n d Kontrolle, 3. Auflage Haas, Access u n d Excel im Betrieb Haas, Excel im Betrieb, Gesamtplan Hans, Grundlagen der Kostenrechnung Heine • Herr, Volkswirtschaftslehre, 3. Auflage

Hoppen, Vertriebsmanagement Koch, Marktforschung, 5. Auflage Koch, Betriebswirtschaftliches Kosten- u n d Leistungscontrolling in Krankenhaus u n d Pflege, 2. Auflage Laser, Basiswissen Volkswirtschaftslehre Martens, Statistische Datenanalyse mit SPSS für Windows, 2. Auflage Mensch, Finanz-Controlling. 2. Auflage Peto, Grundlagen der MakroÖkonomik,^.Auflage Piontek, Controlling, 3. Auflage Piontek, Beschaffungscontrolling,3. Aufl. Plümer, Logistik u n d Produktion Posluschny, Controlling für das Handwerk Posluschny, Kostenrechnung für die Gastronomie, 2. Auflage Rau, Planung, Statistik u n d Entscheidung Betriebswirtschaftliche Instrumente für die Kommunalverwaltung Rothlauf, Total Quality Management in Theorie u n d Praxis, 2. Auflage Rudolph, Tourismus-Betriebswirtschaftslehre, 2. Auflage Rüth, Kostenrechnung, Band 1,2. Auflage Schambacher· Kiefer, Kundenzufriedenheit, 3.Auflage Schuster, Kommunale Kosten- u n d Leistungsrechnung, 2. Auflage Schuster, Doppelte Buchführung fÜT Städte, Kreise u n d Gemeinden, 2. Auflage Specht • Schweer • Ceyp, Markt- u n d ergebnisorientierte Untemehmensführung, 6. Auflage Stahl, Internationaler Einsatz von Führungskräften Stender-Monhemius, Marketing - Grundlagen mit Fallstudien Stibbe, Kostenmanagement, 3. Auflage Strunz • Dorsch, Management Strunz · Dorsch, Internationale Märkte Weeber, Internationale Wirtschaft Wilde, Plan- u n d ProzesskostenTechnung Wilhelm, Prozessorganisation, 2. Auflage Wömer, Handels- u n d Steuerbilanz nach neuem Recht, 8. Auflage Zwerenz, Statistik, 3. Auflage Zwerenz, Statistik verstehen mit Excel - Buch mit Excel-Downloads, 2. Auflage

Marktforschung Grundlagen und praktische Anwendungen

von Professor

Dr.Jörg Koch

5., überarbeitete und erweiterte Auflage

Oldenbourg Verlag München

Bibliografische Information der Deutschen Nationalbibliothek Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über abrufbar.

© 2009 Oldenbourg Wissenschaftsverlag GmbH Rosenheimer Straße 145, D-81671 München Telefon: (089) 45051-0 oldenbourg.de Das Werk einschließlich aller Abbildungen ist urheberrechtlich geschützt. Jede Verwertung außerhalb der Grenzen des Urheberrechtsgesetzes ist ohne Zustimmung des Verlages unzulässig und strafbar. Das gilt insbesondere für Vervielfältigungen, Übersetzungen, Mikroverfilmungen und die Einspeicherung und Bearbeitung in elektronischen Systemen. Lektorat: Wirtschafts- und Sozialwissenschaften, [email protected] Herstellung: Anna Grosser Coverentwurf: Kochan & Partner, München Gedruckt auf säure- und chlorfreiem Papier Druck: Grafik + Druck, München Bindung: Thomas Buchbinderei GmbH, Augsburg ISBN 978-3-486-58765-4

Vorwort zur 5. Auflage Mit der nunmehr 5. Auflage wird dokumentiert, dass sich das Buch am Markt durchgesetzt hat und eine gute Resonanz sowohl im Hochschulbereich wie in der Praxis findet. Zum Erscheinen der neuen Auflage war es notwendig, einige Kapitel zu aktualisieren und zu überarbeiten. Dies betrifft insbesondere die Instrumente der qualitativen Forschung und der Erhebung im Internet. Aufgrund der Globalisierung und Internationalisierung der Märkte war es notwendig, das Thema „Internationale Marktforschung" in das Buch aufzunehmen. Mit diesen Änderungen und Ergänzungen bietet das Buch einen umfassenden Überblick über die moderne Marktforschung. Die Reaktionen aus der Leserschaft zeigen, dass das Buch auch viel Interesse bei den Praktikern aus dem Marketing und Vertrieb gefunden hat. Dies betrifft insbesondere das Kapitel 4 „Spezielle Erhebungs- und Untersuchungsverfahren in der Praxis". Der Autor hofft, dass die Konzeption des Buches „verständlich - übersichtlich - prägnant" auch weiterhin so regen Anklang findet wie bisher. Prof. Dr. J. Koch

Nürnberg, Sommer 2008

[email protected]

Vorwort zur 1. Auflage Das vorliegende Buch ist in erster Linie für Studierende mit dem Schwerpunkt Marketing gedacht. Es soll in komprimierter Form die wesentlichen Begriffe und Methoden der Marktforschung vermitteln. Dabei hat sich der Autor insbesondere auf jene Forschungs- und Anwendungsbereiche konzentriert, die in der Marketingpraxis von Bedeutung sind. Insofern ist der Inhalt auch für Praktiker im Marketing und Vertrieb von Interesse. Es wurde bewusst auf eine leicht verständliche Darstellung Wert gelegt, die z.B. keine statistischen oder mathematischen Kenntnisse voraussetzt. Dank gebührt Frau Christa Weinmann vom Gong Verlag, Nürnberg, für die sorgfältige textliche Bearbeitung. Über Hinweise und Anregungen aus dem Kreise der Nutzer würde sich der Autor freuen. Prof. Dr. J. Koch

Nürnberg, Sommer 1995

Inhaltsverzeichnis Vorwort zur 5. Auflage

V

Vorwort zur 1. Auflage

V

1

Grundlagen der Marktforschung

1

1.1 1.1.1 1.1.2 1.1.3 1.1.4 1.1.5

Begriffe und Abgrenzungen Definition Aufgaben der Marktforschung „Marktforschung" und „Marketingforschung" Einsatzgebiete der Marktforschung Formen der Marktforschung

1 1 1 2 3 3

1.2 1.2.1 1.2.2 1.2.3 1.2.4

Bedeutung von Informationen im Marketing-Entscheidungsprozess Information und Entscheidung Phasen des Marketing-Entscheidungsprozesses Informationsgrad Bewertungskriterien für Informationen

5 5 5 9 10

1.3 1.3.1 1.3.2

Der Marktforschungsprozess Idealtypischer Ablauf Erläuterung der Ablaufphasen

10 10 11

1.4 1.4.1 1.4.2 1.4.3

Stand und Entwicklung der Marktforschung Stand der Marktforschung Zukünftige Entwicklung der Marktforschung Datenschutz und qualitative Standards

12 12 13 14

1.5 1.5.1 1.5.2 1.5.3

Träger/Organe der Informationsbeschaffung Eigenmarktforschung Fremdmarktforschung Vor- und Nachteile der Fremd- bzw. Eigenmarktforschung

15 15 17 19

2

Auswahlverfahren

21

2.1 2.1.1 2.1.2 2.1.3

Grundgesamtheit und Repräsentanz Grundgesamtheit Begriff der „Repräsentanz" Grundformen der Auswahlverfahren

21 21 21 22

2.2 2.2.1 2.2.2

Zufallsauswahlverfahren (random sampling) Prinzip der Randomverfahren (probability sampling) Einfache, reine Zufallsauswahl (simple random sampling)

23 23 23

Inhaltsverzeichnis

VIII 2.2.3 2.2.4 2.2.5 2.2.6

Klumpenauswahlverfahren (cluster sampling) Geschichtete Zufallsauswahl (stratified sampling) Mehrstufige Verfahren (multistage sampling) Vor- und Nachteile der Random-Verfahren

24 25 27 28

2.3 2.3.1 2.3.2 2.3.3 2.3.4 2.3.5

Verfahren der bewussten Auswahl (Quoten-Verfahren) Voraussetzungen Quoten-Verfahren (quota sampling) Typische Auswahl (purpursive sampling) Auswahl nach dem Konzentrationsprinzip (cut-off-technique) Vor- und Nachteile des Quotenverfahrens

29 29 29 29 30 30

2.4 2.4.1 2.4.2 2.4.3 2.4.4

Berechnung von Stichprobenfehlern und -großen Systematische und Zufallsfehler Parameter von Häufigkeitsverteilungen Berechnung von Streumaßen in Stichproben Bestimmung des Stichprobenumfanges

31 31 31 33 37

3

Methoden der Informationsgewinnung

41

3.1 3.1.1 3.1.2 3.1.3

Forschungsdesign Explorative Forschung Deskriptive Forschung Experimentelle Forschung

41 41 41 41

3.2 3.2.1 3.2.2 3.2.3

Informationsquellen Vorgehensweise bei der Suche von Informationsquellen Sekundärforschung Primärforschung

42 42 42 48

3.3 3.3.1 3.3.2 3.3.3 3.3.4 3.3.5 3.3.6 3.3.7

Befragung Formen der Befragung Befragungsinstrumente in der Praxis Frageformen Skalierungsformen Frageformulierung Interviewer und Befragungsumfeld Fragebogenentwicklung

48 48 49 62 63 66 66 67

3.4 3.4.1 3.4.2 3.4.3 3.4.4

Beobachtung Wesen der Beobachtung Formen der Beobachtung Anwendungsbereiche und Methoden der Beobachtung Grenzen der Beobachtung

69 69 69 70 73

3.5 3.5.1 3.5.2 3.5.3 3.5.4 3.5.5

Experiment/Test Wesen und Ziel von Experimenten Kontrolle „externer" Störvariablen Verschiedene Arten von Experimenten Typische Versuchsanordnungen Anwendung von Tests in der Praxis

73 73 74 74 75 78

Inhaltsverzeichnis

IX

4

Spezielle Erhebungs- und Untersuchungsverfahren in der Praxis

81

4.1 4.1.1 4.1.2 4.1.3 4.1.4 4.1.5

Panel- bzw. Trackingforschung Wesen und Aufgabe des Panels Verbraucherpanel/consumer panel Handelspanel (retail tracking) Fernsehpanel Weiterentwicklung der Panels

81 81 82 94 103 105

4.2 4.2.1 4.2.2 4.2.3 4.2.4 4.2.5

Tests und Testmarktforschung Produkttest Storetest (Ladentest) Markttest (Regionaltest) Mini-Testmarkt-Verfahren Testmarktsimulation (Labortest)

106 106 110 112 113 118

4.3 4.3.1 4.3.2 4.3.3

Marken- und Markenwertforschung Bedeutung der Marke Finanzorientierte Modelle Absatzorientierte Modelle

121 121 121 122

4.4 4.4.1 4.4.2 4.4.3 4.4.4 4.4.5

Werbewirkungsforschung Werbewirkungsmodelle Operative Kriterien der Werbewirkung Werbewirkung und Werbeerfolg Verfahren zur Überprüfung der Werbewirkung Verfahren zur Überprüfung des Werbeerfolges

129 130 131 131 133 141

4.5 4.5.1 4.5.2 4.5.3 4.5.4 4.5.5 4.5.6 4.5.7 4.5.8

Einstellungsforschung Einsatzgebiete Grundlagen der Einstellungsforschung Struktur von Einstellungen Einstellung und Image Einstellungsmessung Verfahren der Selbsteinstufung (Rating Skalen) Verfahren der Fremdeinstufung Verfahren zur Zufriedenheitsmessung

142 142 143 144 145 145 147 148 156

4.6 4.6.1 4.6.2 4.6.3

Segmentationsforschung Voraussetzungen zur Segmentierung Segmentierung anhand psychografischer Kriterien Segmentierung auf Grund von Panel-Daten

159 159 160 163

4.7 4.7.1 4.7.2 4.7.3

Mediaforschung Werbeträgerstatistik Quantitative Werbeträgerforschung Qualitative Werbeträgerforschung

164 165 166 172

4.8 4.8.1 4.8.2

Internationale Marktforschung Situation und Entwicklung Probleme und Besonderheiten

174 174 176

X

Inhaltsverzeichnis

4.8.3 4.8.4 4.8.5

Spezielle Anforderungen Internationale Sekundärforschung Internationale Primärforschung

177 177 178

5

Datenauswertung und -analyse

181

5.1

Auswertungstechniken

181

5.2 5.2.1 5.2.2

Messtheoretische Grundlagen Merkmale und Messniveaus Güte der Messung

182 182 183

5.3

Wesen der statistischen Verfahren

184

5.4 5.4.1 5.4.2 5.4.3 5.5 5.5.1 5.5.2 5.5.3

Univariate Verfahren Eindimensionale Häufigkeitsverteilungen Lageparameter Streuparameter Bivariate Verfahren Kreuztabellierung Einfache Korrelationsanalyse Einfache Regressionsanalyse

184 184 185 186 186 186 187 189

5.6 5.6.1 5.6.2 5.6.3 5.6.4 5.6.5 5.6.6 5.6.7 5.6.8

Multivariate Verfahren Wesen und Klassifikation Multiple Regressionsanalyse Varianzanalyse (Streuungszerlegung) Diskriminanzanalyse (Trennverfahren) Faktorenanalyse Clusteranalyse Multidimensionale Skalierung (MDS) Conjoint Measurement (CM)

193 193 194 195 200 205 217 224 228

5.7 5.7.1 5.7.2 5.7.3

Statistische Prüfverfahren Grundlagen der Prüfverfahren Parametertests Anpassungstests

233 233 235 237

6

Prognoseverfahren

241

6.1 6.1.1 6.1.2 6.1.3 6.1.4

Wesen der Prognose Begriffsbestimmung Grenzen der Prognose Arten von Prognosen Vorgehensweise

241 241 241 242 242

6.2 6.2.1 6.2.2 6.2.3 6.2.4

Quantitative Verfahren Trendextrapolation Methode der gleitenden Durchschnittswerte Exponentielle Glättung Multivariate Prognosemodelle

243 243 246 247 247

Inhaltsverzeichnis

XI

6.2.5

Wirkungsprognose

248

6.3 6.3.1 6.3.2 6.3.3 6.3.4

Qualitative Verfahren Expertenbefragung Delphi-Methode Szenario-Technik Prognoseverfahren für neue Produkte

248 249 249 251 252

7

Dokumentation und Präsentation von Ergebnissen

253

7.1 7.1.1 7.1.2

Marktforschungsbericht Inhaltliche Aspekte Formale Aspekte

253 253 254

7.2 7.2.1 7.2.2

Mündliche Präsentation Ergebnisdarstellung Organisation

254 254 255

7.3 7.3.1 7.3.2

Darstellungsformen Tabellen Grafiken

255 256 256

LiteraturverzeichnisZ-Empfehlungen

259

KAPITEL 1 Standardwerke/Grundlagen der Marktforschung

259

KAPITEL 2 Auswahlverfahren und Stichprobenfehler

260

KAPITEL 3 Methoden der Informationsgewinnung

260

KAPITEL 4 Spezielle Erhebungs- und Untersuchungsverfahren

261

KAPITEL 5 Datenauswertung und -analyse

266

KAPITEL 6 Prognoseverfahren

267

KAPITEL 7 Dokumentation und Präsentation von Ergebnissen

267

Sachwortregister

269

1

Grundlagen der Marktforschung

1.1

Begriffe und Abgrenzungen

1.1.1

Definition

„Marktforschung ist die systematische Sammlung, Aufbereitung, Analyse und Interpretation von Daten über Märkte und Marktbeeinflussungsmöglichkeiten zum Zweck der Informationsgewinnung für Marketingentscheidungen." (Böhler 2004, S. 19, Fantapie- Altobelli 2007, S. 5) Die Vorgehensweise (Prozess) der Marktforschung ist systematisch, objektiv und zielorientiert. Die Marktforschung ist somit eine angewandte (empirische) Wissenschaft. Ihre Untersuchungs-, Erhebungs- und Auswertungsmethoden entlehnt sie aus angrenzenden Wissenschaftsbereichen wie Soziologie, Psychologie, Statistik.

1.1.2

Aufgaben der Marktforschung

Die Aufgabe der Marktforschung besteht darin, Informationen als Grundlage für unternehmerische, betriebliche Entscheidungen speziell im Bereich Marketing zu beschaffen. (Bruhn 2007, S. 87ff). Es gibt sieben wesentliche Aufgaben der Marktforschung: •

• •

• • • •

Beschaffung von Informationen vom bzw. über den Markt. Die Marktstruktur, die Marktpartner, alle relevanten Marktaktivitäten und Umweltbedingungen des Unternehmens können dabei Objekt der Untersuchung sein (Informationsversorgung). Unklare Sachverhalte sollen durch Informationen präzisiert und objektiviert werden (Unsicherheitsreduktion). Entscheidungs- und Planungsprozesse im Unternehmen (speziell im Marketing) sollen durch einen höheren Informationsgrad sicherer gemacht werden (Planungssicherheit) . Gefahren und Risiken in den Märkten sollen frühzeitig erkannt und berechenbar gemacht werden (Frühwarnung). Chancen in den Märkten sollen systematisch erkundet und aufgezeigt werden (Prognose). Aus der Menge verfügbarer Informationen sind die relevanten und qualitativ brauchbaren herauszuselektieren (Selektionsfunktion). Die Informationen sind aufbereitet und für den jeweiligen Zweck nutzbar vorzuhalten (Informationsmanagement).

1 Grundlagen der Marktforschung

2

1.1.3

„Marktforschung" und „Marketingforschung"

In den ersten beiden Auflagen dieses Buches wurde noch zwischen „Marktforschung" (market research) und „Marketingforschung" (marketing-research) unterschieden. Danach bezog sich die Marktforschung auf die Erhebung von externen Informationen in den Beschaffungs- und Absatzmärkten, während sich die Marketingforschung auf die Erhebung interner und externer Informationen, speziell in den Absatzmärkten, bezog (siehe Abb. 1).

Marktforschung Externe Informationen Beschaffungsmarktforschung

Interne Informationen

Absatzmarktforschung Marketingforschung

Abbildung 1: Klassische Abgrenzung zwischen Markt- und Marketingforschung Quelle: Weis/Steinmetz (2005, S. 16)

Die Weiterentwicklung und der Stand des heutigen Marketings lassen diese Unterscheidung nicht mehr sinnvoll erscheinen. Die Konzeption des „integrierten Marketings" (Meffert et al. 2008, S. 71ff) geht davon aus, dass die Maßnahmen des Marketings nicht allein auf die Absatzmärkte ausgerichtet sind, sondern alle Austauschbeziehungen des Unternehmens beeinflussen. Marketing kann sich auf die Rohstoff-, Kapital- und Arbeitsmärkte richten (Beschaffungsmarketing), es kann die Konkurrenz betreffen (wettbewerbsorientiertes Marketing), es kann in Richtung der Absatzmittler zielen (handelsgerichtetes Marketing) oder auf die Endabnehmer ausgerichtet sein (Investitionsgüter-, Konsumgüter-, Dienstleistungsmarketing). Da Marketing auch die Gestaltung der Beziehungen zur Öffentlichkeit (Public Marketing) beinhaltet und sich an die eigenen Mitarbeiter richtet (internes Marketing), handelt es sich um ein ganzheitliches Konzept, das eine Eingrenzung allein auf die Absatzmärkte als nicht sinnvoll erscheinen lässt. Gleiches gilt konsequenterweise auch für die Marketingforschung. Die Abgrenzung zwischen Markt- und Marketingforschung erübrigt sich demnach! (Vgl. Hüttner/Schwarting 2002, S. 1; Hammann/Erichson 2000, S. 31, Decker/Wagner 2002, S. 31ff))

1.2 B e d e u t u n g von Informationen im Marketing-Entscheidungsprozess

1.1.4

3

Einsatzgebiete der Marktforschung

D i e E i n s a t z g e b i e t e der Marktforschung u m f a s s e n alle r e l e v a n t e n

Umweltfaktoren

d e s U n t e r n e h m e n s (vgl. W e i s / S t e i n m e t z 2 0 0 5 , S. 2 0 ) : Erforschung von Märkten

Erforschung von Marktpartnern





Reaionen: - regionale Märkte - nationale Märkte - internationale Märkte



Strukturen: - Marktpotenzial - Marktvolumen - Marktanteile - Marktsegmente • Entwicklungen: - Markttrends - Marktprognosen - Chancen- und Risiko-Analysen - Wertewandel

Käufer/Konsumenten/Nutzer: - Käuferstrukturen/-segmente - Käufereinstellungen/-verhalten - Kundenzufriedenheit/-loyalität - Käuferwanderungen/-Gain + Loss - Kaufkraftdaten - Verbraucherpanels



Konkurrenten: - Konkurrenzbeobachtung - Konkurrenzanalysen - Benchmarking - Marktanteile • Absatzmittler: - Standortanalysen - Kundenfrequenzanalysen - Sortimentsanalysen - Handelspanels

Erforschung des Marketing-Mix •

Produkt: - Produktakzeptanztest - Handhabungstest - Verpackungstest - Markenzeichen-/Namenstest - Imageuntersuchungen - Produkttestmärkte



Preis: - Preisanalysen - Preisfixierungen - Preisreagibilität

1.1.5



Distribution: - Absatzwegeanalysen - Distributionserhebungen - Handelspanels - Storetests - Untersuchungen im Außendienst - Mystery Shopping - Vertriebsaudits • Kommunikation/Media: - Werbemitteltests (Pre- und Posttests) - Werbewirkungsanalysen - Werbeerfolgskontrolle - Werbeträgeranalysen - Rezipientenforschung - Imageanalysen/Markenforschung

Formen der Marktforschung

J e nach U n t e r s u c h u n g s z w e c k und Zielsetzung lassen sich sehr

unterschiedliche

F o r m e n der Marktforschung unterscheiden: •

n a c h Art der

Untersuchungsgebiete:

- internationale Marktforschung = E r h e b u n g v o n Informationen a u s internationalen M ä r k t e n

1 Grundlagen der Marktforschung

4 - nationale/regionale Heimmärkten •

Marktforschung

= Erhebung von

Informationen aus

nach Art des Untersuchungsobjektes (Behrens 1974): - ökoskopische Marktforschung = Erhebung „objektiver", sachbezogener Marktgrößen, z.B. Umsätze, Preise, Marktanteile usw. - demoskopische Marktforschung = Erhebung „subjektiver", verhaltensbezogener Marktinformationen, z.B. Einstellungen/Motive/Verhalten der Verbraucher



nach Art des Bezugszeitraumes (Schäfer 1978): - Absatzbeobachtung = laufende Beobachtung von Entwicklungen im Markt (Zeitreihenanalysen) - Absatzanalyse = zeitpunktbezogene Untersuchungen)



Erhebung

von

Daten

(ad-hoc-

nach dem Forschungsdesign (Selltiz 1972): - explorative Marktforschung = Erforschung unbekannter Strukturen (z.B. Pilotstudien/Hypothesenfindung) - deskriptive Marktforschung = Beschreibung von Tatbeständen und Sachverhalten (z.B. Monitoring) - experimentelle Marktforschung = Untersuchung von Ursache - Wirkungsbeziehungen (z.B. Tests)



nach Art der Informationsgewinnung: - Sekundärforschung (desk research) = Auswertung bereits vorliegender Ergebnisse aus internen und externen Datenquellen - Primärforschung (field research) = Gewinnung originärer Daten unter Vorgabe eines definierten Untersuchungszwecks



nach Häufigkeit der Erhebung: - ad hoc-Untersuchung = einmalige aktuelle Erhebung zu einem bestimmten Untersuchungszweck - Wiederholungsbefragung = wiederholte Befragung derselben (Panel) oder verschiedener Stichproben (Tracking)



nach Art der eingesetzten Untersuchungsmethoden: - guantitative Marktforschung = Datenerhebung anhand standardisierter Untersuchungsmethoden, die statistische Repräsentanz der Ergebnisse gewährleisten (große Stichproben!) - Qualitative Marktforschung (psychologische Marktforschung) = Datenerhebung von subjektiven Tatbeständen anhand spezifischer (psychologischer) Methoden mit dem Ziel typisierender Ergebnisse (kleine Stichproben!)



nach Art der Bereiche/Instrumente: - sektorale Marktforschung = Untersuchung von Konsumgütern, Investitionsgütern, Dienstleistungen - instrumentale Marktforschung = Untersuchung der Marketinginstrumente, wie Produkt-, Preis-, Distributions-, Kommunikationspolitik

1.2 Bedeutung von Informationen im Marketing-Entscheidungsprozess •

5

nach der Ausrichtung (Rogge 1992): - retrospektive Marktforschung = Beschaffung vergangenheitsbezogener Daten (back data) - rekognoszierende Marktforschung = Beschaffung gegenwartsbezogener Daten zur Absicherung laufender Entscheidungen - prospektive Marktforschung = Beschaffung zukunftsbezogener Daten, die eine Prognose auf zukünftige Entwicklungen ermöglichen



nach dem Ort der Erhebung: - Feldforschung = Erhebung der Daten im Markt/vor Ort - Studio-ZLaborforschung = Erhebung der Daten im Studio/Labor (unter künstlichen Bedingungen)



nach Art der Nutzung im Planungsprozess: - operativ/taktische Marktforschung = Bereitstellung von Informationen für das operative Marketing-Mix - strategische Marktforschung = Bereitstellung von Informationen für die langfristige strategische Planung



nach dem Träger der Marktforschung: - Eigenmarktforschung = betriebliche Marktforschung - Fremdmarktforschung = Institutsmarktforschung

1.2

Bedeutung von Informationen im MarketingEntscheidungsprozess

1.2.1

Information und Entscheidung

Informationen dienen als Grundlage für die Entscheidungsfindung im Marketing. Unter einer Information versteht man eine „Wissenseinheit", die entscheidungsrelevant ist. Informationen sollten neutral und objektiv sein und unabhängig vom Nutzen bzw. von der Nutzung (vgl. Hammann/Erichson 2000, S. 2; Kamenz 2008, S. 1ff). Eine Entscheidung ist die Auswahl einer Handlungsalternative aus mehreren realisierbaren Handlungsmöglichkeiten. Die Informationen dienen dazu, Entscheidungsprobleme zu erkennen, zu beurteilen und möglichst optimal zu lösen.

1.2.2

Phasen des Marketing-Entscheidungsprozesses

Die Beschaffung von Informationen durch die Marktforschung erfolgt entlang des Management-Entscheidungsprozesses (vgl. Böhler 2004, S. 26/27). Dieser besteht aus 4 wesentlichen Phasen: Analyse, Konzeption, Durchführung und Kontrolle (siehe Abb. 2).

1 Grundlagen der Marktforschung

6

Abbildung 2: Management-Entscheidungsprozess Quelle: Koch 1999, S. 30

In jeder dieser Phasen werden Informationen zur Entscheidungsfindung benötigt. Dabei ist zu berücksichtigen, dass die verschiedenen Phasen miteinander vernetzt sind, so dass u.a. Informationen aus vorhergehenden Phasen übernommen werden können. Im Einzelnen lässt sich der Informationsbedarf in den 4 Phasen wie folgt beschreiben: •

Analysephase: Das Erkennen und Bewerten der Marketingsituation bildet den Ausgangspunkt für den Marketing-Entscheidungsprozess. Die Situationsanalyse besteht im Wesentlichen aus zwei Teilen: einer externen Umweltanalyse und einer internen Unternehmensanalyse (vgl. Steinmann/Schreyögg 2005, S. 154ff) Die Umweltanalyse bezieht sich zum einen auf die „Mikrournwelt", d.h. den Markt des Unternehmens. Benötigt werden Informationen über die - Marktstruktur (Potenzial, Volumen, Segmente, Reifegrad, Kaufkraft, Distributionskanäle, Entwicklung usw.) - Kunden (Potenzial, demografische Struktur, Bedürfnisse, Einstellungen, Verhaltensweisen usw.) - Wettbewerber (Marktanteile, Strategien, Stärken und Schwächen, eingesetzte Marketinginstrumente usw.) -Absatzmittler usw.)

(Funktionsleistung,

Marktbedeutung,

Sortimente,

Strategien

Zum anderen sollte die Umweltanalyse die „Makroumwelt" des Unternehmens erfassen. Hierzu zählen folgende Informationsbereiche:

1.2 Bedeutung von Informationen im Marketing-Entscheidungsprozess

7

- makro-ökonomische Umwelt (Bruttosozialprodukt, Konjunkturdaten, volkswirtschaftliche Rahmendaten usw.) - politisch-rechtliche Umwelt (Gesetze, Verordnungen, Auflagen und Bestimmungen des Staates usw.) - sozio-kulturelle Umwelt (demografische Entwicklung der Bevölkerung, Typologien, Wertemuster usw.) -technologische Umwelt (technische Standards, Verfahrenstechniken, Patente, technische Innovationen usw.) Die Unternehmensanalyse soll die interne Situation des Unternehmens beschreiben und bewerten. Bewährt hat sich hierbei die „SWOT-Analyse", bestehend aus - Stärken-ZSchwächen-Analyse (Finanzkennzahlen, Kostenstruktur, Technik, Human Resources, technisches Know-how, Forschungskapazitäten, Image usw.) und die - Chancen-ZRisiken-Analvse (einerseits Wachstumsmärkte, neue Produktmärkte, ungenutzte Potenziale; andererseits stagnierende Märkte, Wettbewerbsdruck, restriktive Gesetze usw.) Im Rahmen der Situationsanalyse hat die Marktforschung alle Informationen, die zur Darstellung und Bewertung der Ausgangslage benötigt werden, zu beschaffen und dem Management zur Verfügung zu stellen. Das Management muss in die Lage versetzt werden, einerseits Probleme eindeutig zu definieren, andererseits Chancen zu erkennen! •

Konzeptionsphase: Diese Phase ist durch drei wesentliche Entscheidungsschritte gekennzeichnet: Festlegung der strategischen und operativen Marketingziele und Auswahl des Zielmarktes, Formulierung und Auswahl der Marketingstrategien, Festlegung der absatzpolitischen Instrumente (Marketing-Mix). Im Rahmen der Zielbestimmung hat die Marktforschung die Aufgabe, Informationen zu beschaffen, die eine Definition, Gliederung und Auswahl der Ziele ermöglichen. - Zielmärkte (welche Märkte oder Segmente sollen bearbeitet werden?) - Unternehmensziele (welche Ziele sollen verfolgt werden, wie lassen sich diese qualitativ beschreiben und quantifizieren?) - Marketingziele (welche Bereichsziele sind zu formulieren?) Um die Ziele zu erreichen, sind Strategien auszuwählen und zu formulieren. Die Marktforschung kann mithelfen, die optimalen Handlungsalternativen bzw. den richtigen Strategiemix zu finden. Folgt man Becker (2006, S. 147ff), so sind Entscheidungen auf 4 Strategieebenen zu fällen: - Marktfeldstrategien (welche Strategiealternative ist am wirkungsvollsten: Marktdurchdringung, Marktentwicklung, Produktentwicklung oder Diversifikation?) - Marktstimulierungsstrategien (soll das Unternehmen eine Preis-/Mengen- oder eine Präferenzstrategie fahren?)

1 Grundlagen der Marktforschung

8

- Marktparzellierung (in welcher Form sollen die ausgewählten Märkte bearbeitet werden: Massenmarktstrategie oder Segmentierungsstrategie?) - Marktarealstrategie (welche Marktareale soll das Unternehmen abdecken: lokale, regionale, nationale oder internationale?) Den dritten Baustein der Konzeption stellt das Marketing-Mix dar. In diesem Zusammenhang interessieren alle Informationen, die zur Auswahl, Gestaltung und Durchführung der absatzpolitischen Instrumente dienen. - Produktpolitik (Produktgestaltung, Qualität, Service, Programm, Markenführung, Verpackung usw.) - Kontrahierungspolitik Konditionen usw.)

(Preisfindung,

Preisakzeptanz,

Preisdifferenzierung,

- Distributionspolitik (Absatzwege, Absatzformen, Bedeutung der Absatzkanäle, Logistik usw.) -Kommunikationspolitik (Konzeption und Akzeptanz werblicher Maßnahmen, Werbewirkung und Werbeerfolg, Wirkungsweise des Kommunikationsmixes usw.) Im Rahmen der Konzeptionsphase kommt es vor allem darauf an, dem Management solche Informationen zu liefern, die ihm ermöglichen, die optimale Handlungsalternative auszuwählen! •

Durchführungsphase: In dieser Phase geht es um die Realisierung der strategischen und operativen Maßnahmen. Der Informationsbedarf des Unternehmens erstreckt sich vor allem auf die Reaktionen und das Verhalten der wichtigsten Marktpartner. - Kunden

(Produktakzeptanz, Kundenzufriedenheit, Werberecall, Wiederkaufbereitschaft, allgemeines Kaufverhalten usw.)

- Handel

(Aufnahmebereitschaft, Endverbraucherabsatz, Distributionswerte, VKF-Maßnahmen usw.)

- Konkurrenten

(strategische Reaktionen, taktische Maßnahmen im Bereich des Marketing-Mix, Positionierungen usw.) Das Unternehmen benötigt insbesondere Informationen, die es in die Lage versetzen, kurzfristig auf Änderungen und Fehlentwicklungen im Markt zu reagieren!



Kontrollphase: Die Kontrollphase hat die Aufgabe, im Sinne eines Soll-Ist-Vergleiches festzustellen, ob und inwieweit die gesetzten Ziele erreicht wurden? Informationen werden benötigt über - betriebliche Kennzahlen (wie Umsatz, Kosten, Deckungsbeiträge) -quantitative Marktdaten (wie Marktanteile, Distributionszahlen, Potenziale, Käuferstrukturen, Marktentwicklungen usw.) - qualitative Marktdaten (wie Positionierung, Images, Kundenzufriedenheit, Verbrauchereinstellungen usw.)

1.2 Bedeutung von Informationen im Marketing-Entscheidungsprozess

9

In dieser Phase geht es darum, eine gezielte Abweichungsanalyse zu erstellen, die Informationen darüber liefert, wo die Ursachen für eventuelle Abweichungen liegen. Nur so kann eine Datenbasis erstellt werden, die Grundlage für die folgende Planungsperiode wird.

1.2.3

Informationsgrad

Durch die sich schnell ändernden Marktsituationen ist in den meisten Fällen der Informationsstand der Unternehmen bzw. des Marketings unvollkommen. Je nach dem Grad des Informationsstandes lassen sich vier typische Entscheidungssituationen unterscheiden (vgl. Weis/Steinmetz 2005, S. 24ff): •

unter Sicherheit: Alle erforderlichen Informationen liegen exakt und vollständig vor; die Entscheidung birgt kein Risiko mehr! Kommt in der Praxis kaum vor!



unter Risiko: Bestimmte Informationen liegen vor, aber nicht komplett. Es gibt Wahrscheinlichkeiten, mit denen (bei Nutzung der vorhandenen Informationen) Ergebnisse eintreffen werden, die Gegenstand der Entscheidungssituation waren.



unter Unsicherheit: Es liegen Informationen vor, die aber nicht geeignet sind, Voraussagen über die Wahrscheinlichkeit des Eintreffens bestimmter Ergebnisse zu machen. Die Entscheidungen sind deshalb durch Unsicherheit geprägt!



unter vollkommener Uninformation: Es liegen keinerlei Informationen für Marketing-Entscheidungen vor. Dieser Fall ist in der Praxis kaum gegeben! Marketing-Entscheidungen fallen deshalb meistens unter Risiko bzw. Unsicherheit, da der Informationsstand unvollkommen ist. Die Ausprägung des jeweiligen Informationsstandes wird als „Informationsgrad" bezeichnet, der sich durch folgenden Quotienten ausdrücken lässt: , , , „ . tatsächlich vorhandene Informationen Informationsgrad (I): notwendige Informationen Je nach Entscheidungssituation im Unternehmen wird der Quotient zwischen den Extremwerten „Null" = vollkommenes Fehlen von Informationen und „Eins" = Vorhandensein aller notwendigen Informationen variieren. Inwieweit ein Unternehmen einen möglichst hohen Informationsgrad anstrebt, ist u.a. eine Frage der Kosten. Mit höherem Informationsbedarf wachsen die Kosten der Informationsbeschaffung überproportional an. Es ist deshalb ein Informationsoptimum anzustreben.

1 Grundlagen der Marktforschung

10

1.2.4

Bewertungskriterien für Informationen

Informationen beinhalten entscheidungsrelevantes und zweckgebundenes Wissen, das für den Empfänger neu ist. Sollen die Informationen für den Empfänger sinnvoll und nützlich sein, so müssen bestimmte Anforderungen erfüllt sein. •

Relevanz: Von Interesse sind nur solche Informationen, die für den Entscheidungstatbestand relevant sind.



Vollständigkeit: Es ist ein möglichst hoher, aber vertretbarer Informationsgrad anzustreben.



Aktualität: Möglichst aktuelle, keine veralteten Informationen verwenden, die in der Planung zu Fehlentscheidungen führen können.



Objektivität: Informationen sind dann objektiv, wenn sie unbeeinflusst und neutral von Untersuchungsleitern erhoben werden. Die Forderung nach Objektivität bezieht sich auf die Erhebung, Auswertung und Interpretation von Informationen und Ergebnissen.



Sicherheit: Möglichst solche Informationen verwenden, die die Unsicherheit der Entscheidung mindern, d.h. eine höhere Wahrscheinlichkeit eines prognostizierten Eintritts garantieren.



Nützlichkeit: Informationen sind im wirtschaftlichen Sinne dann nützlich, wenn ihre Beschaffung niedrigere Kosten verursacht als der Ertrag (Mehrwert) aus ihrer Verwendung. Es geht also um eine Kosten-/Nutzen-Analyse. In der Praxis lassen sich die Kosten der Informationsbeschaffung relativ leicht ermitteln - nicht aber der Nutzwert ihrer Verwendung. Theoretisch lässt sich das Problem der Gewinnerwartung durch die Anwendung des Bayes'schen Ansatzes (vgl. Hammann/Erichson 2000, S. 55ff; Berekoven/Eckert/Ellenrieder 2006, S. 29ff) lösen.

1.3

Der Marktforschungsprozess

1.3.1

Idealtypischer Ablauf

Marktforschung bzw. eine Marktforschungsstudie läuft normalerweise in Phasen oder Stufen ab. Entsprechend des allg. Kommunikationsprozesses (Analyse - Erhebung - Übermittlung - Verarbeitung - Speicherung - Verwertung) vollzieht sich auch der Marktforschungsprozess. In idealtypischer Form läuft er in 5 Phasen ab: Man spricht auch von den „5 D's" in der Marktforschung (vgl. Hüttner/Schwarting 2002, S. 17; Pfaff 2005, S. 17f):

1.3 Der Marktforschungsprozess

11

1. Phase: Definition 2. Phase: Design 3. Phase: Datengewinnung 4. Phase: Datenanalyse 5. Phase: Dokumentation Je nach Aufgabenstellung und Problem können die fünf Phasen inhaltlich unterschiedlich gestaltet sein.

1.3.2

Erläuterung der Ablaufphasen

1. Phase: Definition: Im Rahmen oder Ablauf des Marketingentscheidungsprozesses tauchen Fragen auf, die ohne zusätzliche Informationen nicht beantwortet werden können. Der notwendige Informationsbedarf muss nach Art, Qualität und Umfang möglichst präzise definiert werden. Außerdem ist die Zielsetzung zu formulieren. Es hat sich als sinnvoll erwiesen, die Problem- bzw. Fragestellung in Form von Hypothesen zu formulieren (siehe Pkt. 3.1), die dann durch die nachfolgende Untersuchung verifiziert oder falsifiziert werden können (Böhler 2004, S. 34f; Kuss 2004, S. 21; Raab/Unger 2004, S. 23f). Außerdem ist ein Terminplan für die Bereitstellung der Informationen aufzustellen (Briefinqpapier). Checkliste: 1. Ausgangslage beschreiben! 2. Zielsetzung/Aufgabenstellung des Projektes erklären! 3. „Zielmarkt" (Zielgruppe/n) der Forschung festlegen! 4. Benötigte Informationen nach Art, Umfang und Qualität definieren! 5. Welche Informationen können intern, welche sollen extern beschafft werden? 6. Welche externen Informationen sind durch Sekundärforschung, welche durch Primärforschung zu erheben? 7. Wann sollen die benötigten Informationen zur Verfügung stehen? 8. Welcher Kostenrahmen steht für die Beschaffung der Informationen zur Verfügung? 2. Phase: Design Je nach Zielsetzung ist die Art des Forschungsdesigns festzulegen (explorativ, deskriptiv oder experimentell (siehe Pkt. 3.1). Es ist zu klären, ob die notwendigen Informationen bereits in internen oder externen Informationsquellen vorliegen oder ob Primärforschung betrieben werden muss. Trifft letzteres zu, so muss über das Auswahlverfahren (Random/Quota), die Zielgruppe und die Erhebungsmethode (Befragung, Beobachtung, Test) entschieden werden. Falls eine Befragung geplant wird, ist ein Fragebogen zu entwickeln (siehe Punkt 3.3).

1 Grundlagen der Marktforschung

12

3. Phase: Datengewinnung Je nach der gewählten Erhebungsmethode ist entweder eine Beobachtungs-/Testsituation zu planen oder ein „Feld" (Interviewer) zu organisieren (siehe Kapitel 3). 4. Phase: Datenanalyse Die Daten sind zu erfassen (EDV) und je nach Bedarf mit verschiedenen Auswertungsverfahren zu analysieren (siehe Kapitel 5). 5. Phase: Dokumentation Die vorliegenden Daten sind entsprechend des Informationsbedarfes zu interpretieren, darzustellen und in einem Bericht niederzulegen (siehe Kapitel 7).

1.4

Stand und Entwicklung der Marktforschung

1.4.1

Stand der Marktforschung

Der momentane Stand der Marktforschung ist dadurch gekennzeichnet, dass sie sich in zwei Bereiche gliedert, in die qualitative und die quantitative Marktforschung. • Qualitativ/psychologische/morphologische Marktforschung Ca. 10 % aller Ausgaben für Marktforschung entfallen It. ADM 2003 auf diesen Bereich. Es geht um die qualitative Untersuchung von „subjektiven" Sachverhalten unter Verwendung psychologischer, projektiver und assoziativer Methoden. Im Vordergrund steht das weite Feld der Einstellungs-, Motiv- und Verhaltensforschung. Untersuchungsbasis sind Gruppen und kleine Stichproben bis ca. 200 Fälle. • Quantitativ/repräsentative Marktforschung Dieser Forschungsbereich deckt ca. 90 % aller Ausgaben für Marktforschung ab. Es geht um die Erhebung „objektiver" Sachverhalte auf der Basis repräsentativer Stichproben. Typische Bereiche dieser Forschung sind die Umfrage- und Testmarktforschung sowie die Verbraucher- und Handelspanels. Im Rahmen der quantitativen Forschung werden grundsätzlich zwei Arten von Untersuchungen unterschieden; nämlich Querschnitts- und Längsschnitts-Untersuchungen. Querschnittsuntersuchunqen sind Studien, bei denen quantitative Aussagen bzw. Ergebnisse produziert werden sollen, die auf einen bestimmten Zeitpunkt bezogen sind. Typisch sind Studien im Rahmen der Umfrageforschung. Länqsschnittsuntersuchunqen sind Erhebungen über einen längeren Zeitraum, mit denen man dynamische Veränderungen untersuchen will. Typisch sind Erhebungen im Rahmen von Verbraucher- und Handelspanels (vgl. Kuss 2004, S. 16; Pfaff 2005, S. 49f). Die Entwicklung der Marktforschung ist derzeit durch eine starke Internationalisierung und den verstärkten Einsatz apparativer und EDV-technischer Methoden sowie des Internets gekennzeichnet.

1.4 Stand und Entwicklung der Marktforschung qualitativ:

- Exploration

quantitativ:

13 - mündliche Befragung

- Tiefeninterview

- schriftliche Befragung

- proj. Verfahren

- telefonische Befragung

- Gruppendiskussion

- online Befragung

Abbildung 3: Qualitative und quantitative Marktforschungsverfahren Quelle: Weis/Steinmetz 2002, S. 31

1.4.2

Zukünftige Entwicklung der Marktforschung

(nach Weis/Steinmetz: 2005, S. 43f) •









• •

• •



• •

Marktforschung wird noch stärker als heute in das Marketing integriert werden, so dass ein sog. „Informationsmanager" entstehen wird, der sowohl von der Anforderungsseite (Problemseite) als auch von der Informationsbereitstellungsseite optimal vorgeht. Neue und leistungsfähigere Marketing-Informationssysteme werden aufgrund leistungsfähigerer Modelle und Techniken zur Verfügung stehen. (Datenbanken/Data-Warehouses, Data-Mining). Die Kooperation zwischen der betrieblichen Marktforschung und den Marktforschungsinstituten wird sich in der Weise verändern, dass die Informationsnachfrage einen stärkeren Einfluss hat und größere Bedeutung gewinnt. Die neuen Kommunikationstechniken werden zunehmend dazu beitragen, die externen Datenbanken intensiver zu nutzen, um das Informationsangebot für das Marketing zu erhöhen. Es steht in Zukunft eine immer größere Datenfülle, die durch höhere Fallzahlen, größere Informationstiefe und kürzere Untersuchungszeiträume gekennzeichnet sind, zur Verfügung. Hochentwickelte professionelle Forschung und Marktforschung durch Spezialisten gewinnt zunehmend an Bedeutung. Die Scanner-Technik trägt u.a. dazu bei, die Panelerhebung quantitativ und qualitativ zu verbessern. Haushalts- und Handelspanelforschung wachsen zusammen (national und international). Face to face-Erhebungen werden im Vergleich zu telefonischen Erhebungen immer mehr abnehmen. Zug um Zug werden „Paper and pencil Methoden" durch elektronische Erfassungs- und Analysesysteme ersetzt. Stärkere Nutzung von digitalen Multimediasystemen! Das World Wide Web (www) bekommt als Informationsquelle, Befragungsinstrument und Datentransporteur eine immer größere Bedeutung. Durch die Globalisierung der Märkte wird die Internationale Marktforschung verstärkt an Bedeutung gewinnen. Dies wird in der Folge zu internationalen Verflechtungen der Marktforschungsinstitute führen. Die schnelle Veränderung der Produktmärkte und geändertes Käuferverhalten machen eine Dynamisierung der Prozesse in der Mafo notwendig. Kostentransparenz zwingt zu einer Standardisierung von Leistungsangeboten\

14

1.4.3

1 Grundlagen der Marktforschung

Datenschutz und qualitative Standards

Grundlage für den Datenschutz der betrieblichen und der Institutsmarktforschung sind das „Bundesdatenschutzgesetz" (BDSG) und das „Teledienstdatenschutzgesetz" (TDDSG). Die datenschutzrechtlichen Anforderungen an die betriebliche Marktforschung sind in § 28, die an die institutionelle Marktforschung in § 30 dargelegt. Das Gesetz ist relevant, wenn es um sog. „personenbezogene Daten" geht. „Personenbezogene Daten" sind Einzelangaben über persönliche oder sachliche Verhältnisse einer bestimmten oder bestimmbaren natürlichen Person" (BDSG § 3,1). Das Gesetz bestimmt, dass für das geschäftsmäßige Erheben, Speichern, Verarbeiten und Übermitteln von personenbezogenen Daten ein Gebrauchsverbot und ein Erlaubnisvorbehalt bestehen. D.h. diese Daten dürfen nur genutzt und gespeichert werden, wenn eine andere Rechtsvorschrift dies ausdrücklich erlaubt oder der Betroffene schriftlich seine Einwilligung erklärt hat. Um dem Gesetz Genüge zu tun, müssen in der Marktforschung personenbezogene Daten für den Zeitraum der Verarbeitungs- und Nutzungsphase anonymisiert oder mit Pseudonymen versehen werden. D.h. es muss eine strikte Trennung zwischen persönlichen Daten (Name, Adresse, Tel.-Nr. usw.) und den übrigen erhobenen Daten sichergestellt sein. Das Gesetz lässt also - falls keine Einwilligung vorliegt ausschließlich die Speicherung, Verarbeitung und Weitergabe von anonymisierten Daten zu. In Bezug auf das Internet bedeuten die gesetzlichen Regelungen, dass nicht nur die Erfassung von personenbezogenen Daten verboten ist, sondern auch die Erfassung von IP-Adressen. Mittels der IP-Adresse wäre nämlich eine eindeutige Identifizierung des Internet-Nutzers möglich. Die Bestimmungen zur Einwilligung der Betroffenen sind in § 3, 7 TDDSG ausgeführt. Prinzipiell erlaubt das BDSG in § 28 die Venwendung von Daten zu unternehmenseigenen Zwecken, wenn es sich um listenmäßig zusammengefasste Daten handelt, die nicht an Dritte weitergegeben werden (vgl. Dannenberg/Barthel 2002, S. 75ff und Theobald/Dreyer/Starsetzki 2003, S. 211 ff). Marktforschungsinstitute unterliegen einer besonderen Meldepflicht und der Aufsicht durch die entsprechenden Landesaufsichtsbehörden für den Datenschutz (vgl. § 32 BDSG). Der „Arbeitskreis Deutscher Markt- und Sozialforschungsinstitute" (ADM) und der „Berufsverband Deutscher Markt- und Sozialforscher" (BVM) haben im Jahre 1999 „Standards zur Qualitätssicherung" in der Marktforschung veröffentlicht. Durch sie soll sichergestellt werden, dass die Institute Normen und Verfahren einhalten, die den aktuellen wissenschaftlichen, methodischen und technischen Stand der Marktforschung repräsentieren. Sie sollen die Grundlage für ein Qualitätsmanagement bilden, das eine Zertifizierung nach der ISO 9000 und 20252 ermöglicht (vgl. Dannenberg/Barthel 2002, S. 75ff und Theobald/Dreyer/Starsetzki 2003, S. 211ff).

1.5 Träger/Organe der Informationsbeschaffung

1.5

Träger/Organe der Informationsbeschaffung

1.5.1

Eigenmarktforschung

15

Wird Marktforschung durch die Unternehmen selbst bzw. deren Organe (z.B. Marktforschungsabteilung) durchgeführt, so sprechen wir von Eigenmarktforschung. Dabei handelt es sich häufig um die Analyse betriebsinterner und externer Daten in Form der Sekundärforschung. Aber auch die Durchführung von Primäruntersuchungen ist möglich, z.B. in Form schriftlicher Befragungen bei Lieferanten, Kunden und Endverbrauchern. Ob es sinnvoll ist, Eigenmarktforschung durchzuführen, hängt von den jeweiligen betrieblichen Notwendigkeiten ab. Wirtschaftlich vertretbar ist eine innerbetriebliche Lösung, wenn folgende Voraussetzungen erfüllt sind: • • • •

regelmäßiger Informationsbedarf, der Marktforschung in größerem Umfange notwendig macht (große Nachfrage) personelle Ausstattung, die das notwendige Fachwissen zur Durchführung von Mafo-Projekten sicherstellt (Fachpersonal) finanzielle Ressourcen, die eine eigene Marktforschung rechtfertigen (Budgets) Geheimhaltung hat Priorität, um Marktforschungsdaten nicht nach außen dringen zu lassen (Wettbewerb)

Das Vorhandensein betrieblicher Marktforscher bzw. einer Marktforschungsabteilung hängt weitgehend von der Unternehmensgröße ab. Während Großbetriebe überwiegend Eigenmarktforschung betreiben, liegt bei Mittel- und Kleinbetrieben der Anteil mit eigener Marktforschung bei ca. 20 % (Kastin 2008, S. 15). Die organisatorische Einordnung der Marktforschung hängt ebenfalls sehr häufig von der Betriebsgröße ab. In Mittel- und Kleinbetrieben ist die Marktforschung überwiegend der Geschäftsführung als Stabsstelle zugeordnet. In Großbetrieben wird sie entweder als Serviceabteilung im Marketing- oder Vertriebsbereich angesiedelt oder sie wird als eigenständiger Funktionsbereich „Informationsmanagement" verselbständigt. Die fortschreitende Spezialisierung in der Marktforschung und der Kostendruck haben dazu geführt, dass die Eigenmarktforschung in der Praxis immer stärker zugunsten der Fremdmarktforschung zurückgedrängt wird (outsourcing). Unabhängig davon, ob die im Unternehmen benötigten Informationen durch Eigenoder Fremdmarktforschung erhoben wurden, fällt der betrieblichen Marktforschung die Aufgabe zu, die Daten gezielt zur Entscheidungsfindung bereitzustellen. Es geht um die Organisation eines effizienten Informationsangebotes. Daten müssen nicht nur beschafft werden, sondern gespeichert, verknüpft und aufbereitet zum richtigen Zeitpunkt verfügbar sein. Dies geschieht in der Praxis durch die Etablierung eines computergestützten Management-Informationssystems (MIS). Ein solches System wird als dialogfähig (interaktiv) bezeichnet, wenn die Benutzer über Terminals, die online mit der Datenbank verbunden sind, mit dem System kommunizieren können (vgl. Hammann/Erichson 2000, S. 47ff; Fantapie-Altobelli 2007, S. 12f; Weis/Steinmetz 2005, S. 51f).

16

1 Grundlagen der Marktforschung

Der Aufbau und die Pflege eines solchen Systems weisen erhebliche Probleme bei der Informationsmenge, -Spezifizierung, -Verknüpfung usw. auf und sind in der Regel nur von Großunternehmen zu bewerkstelligen.

Abbildung 4:Computergestütztes Management-Informationssystem Quelle: Hammann/Erichson 2000, S. 47

Lt. Töffler (IDC-Studie 2005) vollzieht sich die Informationsbearbeitung in 3 Wellen: • • •

datengestützt = Sammeln von Daten und Fakten informationsgestützt = Herausarbeitung von Mustern und Zusammenhängen auf Basis der Daten systemgestützt = Bereitstellung von entscheidungsrelevanten Informationen für Planung und Analyse

Die letzte Phase führt zum Aufbau eines sog. Data-Warehouse. Damit ist gemeint, dass •

alle internen und externen Daten eines Unternehmens in einem umfassenden, einheitlichen Datenmodell abgebildet werden • das Warehouse in kleinere bereichsspezifische Einheiten gegliedert ist (Data Marts) • die Datensätze unter Verwendung statistischer und mathematischer Verfahren in Bezug auf unbekannte Zusammenhänge analysiert werden (Data Mining) Ziel aller Bemühungen ist es, wegzukommen von einfachen mechanistischen Erklärungsversuchen hin zur Bewertung kausaler Zusammenhänge; man möchte Hypothesen verifizieren oder falsifizieren können, klare Handlungsempfehlungen unter-

1.5 Träger/Organe der Informationsbeschaffung

17

breiten und Prognosen erstellen (vgl. Pepels (Hrsg.) 1999, S. 108; Reinke/ Stockmann 2001, S. 285ff, Dannenberg/Barthel 2002, S. 233f).

Externe Daten = Markt

Interne Daten = Unternehmen

Abbildung 5: Struktur eines Data-Warehouses Quelle: eigene Darstellung

1.5.2

Fremdmarktforschung

Von Fremdmarktforschung sprechen wir dann, wenn die Unternehmen Marktforschungsprojekte von Fremdfirmen (Marktforschungsinstituten oder Marktforschungsberatern) durchführen lassen. Dies ist immer dann opportun, wenn keine eigene Marktforschungsabteilung existiert und/oder man über keine Feldorganisation verfügt. In der Bundesrepublik Deutschland gibt es über 500 Firmen und Institutionen, die sich mit Marktforschung beschäftigen. Einen guten Überblick über das Angebot geben das BVM-„Handbuch der Marktforschungsunternehmen", das vom Berufsverband Deutscher Markt- und Sozialforscher e.V. herausgegeben wird, und das ρ & a-Handbuch der Markt- und Marketingforschung, das die Verlagsgruppe Deutscher Fachverlag herausgibt. Im Internet sind Informationen zu erhalten unter: www.bvm.org/www.empirix.net/www.planung-analyse.de. Die Struktur der Anbieter von Marktforschungsleistungen ist sehr heterogen. Dies gilt sowohl für ihre Größe wie für ihr Leistungsspektrum. Neben einem Groß-Institut (GfK-Nürnberg), gibt es gut ein Dutzend Institute zwischen 20 und 200 Mio. € Umsatz sowie zahlreiche Firmen zwischen 1 und 3 Mio. € Umsatz.

1 Grundlagen der Marktforschung

18

Umsatz in Mio. € 2006 1. GfK-Gruppe Nürnberg 2. TNS Infratest-Gruppe, München/Bielefeld

1.100,0

198,0

3. A.C. Nielsen, Frankfurt

78,7

4. Ipsos- Gruppe, Hamburg

52.6

5. Research International, Hamburg

30,0

6. Synovate, Wiesbaden

24,0

7. Psyma Gruppe, Rückersdorf

22,3

8. psychonomics AG, Köln

13.7

9. Krämer Marktforschung, Münster

13,3

10. Foerster & Thelen, Bochum

12.8

Abbildung 6: Die 10 größten Marktforschungsinstitute mit Hauptsitz in Deutschland Quelle: planung & analyse 2/2008

Die verschiedenen Institute lassen sich in folgende Kategorien gliedern: •

Vollservice-lnstitute: sind Unternehmen, die Marktforschungsstudien von der Planung bis zur Ergebnispräsentation durchführen. • Feldorganisationen: sind Spezialinstitute, die über große Interviewerstäbe verfügen, mit denen sie im Auftrag von Marktforschungsinstituten oder anderen Unternehmen Befragungen durchführen. Ihr Angebot besteht also in der Durchführung der Feldarbeit. • Marktforschungsberater: sind selbständig tätige Personen, die sich primär mit der Konzeption, Betreuung und Interpretation von Marktforschungsstudien beschäftigen. Speziell für kleine und mittlere Unternehmen, die über keine eigene Marktforschungsabteilung verfügen, können diese Spezialisten eine große Hilfe bei der Anlage und Durchführung von Studien sein. • Teststudios: sind Unternehmen, die Räumlichkeiten und technisches Equipment für die Durchführung spezieller Untersuchungen anbieten (z.B. Gruppendiskussionen, apparative Tests). • Informationsbroker: sind Spezialisten, die gegen Honorar Informationen beschaffen und auswerten. Dies geschieht unter Nutzung externer Datenbanken! Die Aufzählung macht deutlich, dass die Auswahl eines geeigneten Institutes nicht ganz einfach ist. Folgende Kriterien sind bei der Auswahl zu beachten: • • • •

Leistungsspektrum des Institutes in Bezug auf angewandte Methoden und Verfahren Erfahrungen in bestimmten Märkten Spezialkenntnisse in der Auswahl bestimmter Verfahren (z.B. Panels, Testverfahren) Mitgliedschaft in Organisationen und Verbänden (z.B. ADM = Arbeitskreis Deutscher Markt- und Sozialforschungsinstitute, BVM = Berufsverband Deutscher Markt- und Sozialforscher e.V., ESOMAR = European Society for Opinion and Marketing Research, WAPOR = World Association for Public Opinion Research,

1.5 Träger/Organe der Informationsbeschaffung

• • • • • • •

19

IMF = International Marketing Federation, DGOF = Deutsche Gesellschaft für Online-Forschung, PUMA = Plattform für Unternehmensmarktforscher usw.) personelle Ausstattung (Zahl der Mitarbeiter und ihre Qualifikation) Kundenkreis nach Art und Umfang nachgewiesene Referenzen, Ruf/Image des Institutes (Seriosität, Zuverlässigkeit, Arbeitsweise) Einhaltung von Qualitätsnormen (ISO 9.003) Datenschutzmanagement Konkurrenzausschluss Gründungsjahr des Institutes

1.5.3

Vor- und Nachteile der Fremd- bzw. Eigenmarktforschung Fremdmarktforschung

Vorteile

Nachteile:

• Größere Objektivität

• Einarbeitungszeit erforderlich

• Im Prinzip alle Erhebungsmethoden

• Höhere Kosten

• Schnelle Durchführung

• Geheimhaltung eher gefährdet

• Keine Betriebsblindheit

• Eventuell mangelnde Branchenkenntnisse

• Einsatz von Experten • Höhere Fachkenntnis im Hinblick auf Erhebungs- möglichkeiten

• Kommunikationsprobleme

Eigenmarktforschung Vorteile

Nachteile:

• Keine Einarbeitungszeit

• Eigene Erhebung in der Regel nicht möglich (z.B. bei Panels) • Betriebsblindheit • Self-fullfilling prophecy

• Mit Problematik vertraut • In der Regel geringere Kosten • Datenschutz eher gewährleistet

• Eventuell subjektiv geprägt • Fehlen von Experten und Mitarbeitern • Flächendeckende Groß erhebungen in der Regel nicht möglich • Evtl. lange Bearbeitungszeit

Abbildung 7: Fremd- und Eigenmarktforschung im Vergleich Quelle: Weis/Steinmetz, 2005, S. 36

2

Auswahlverfahren

2.1

Grundgesamtheit und Repräsentanz

2.1.1

Grundgesamtheit

Das folgende Kapitel befasst sich mit der Frage, ob bei einer Untersuchung alle relevanten Merkmalsträger einbezogen werden sollen oder nicht? Aus methodischer Sicht ist eine Vollerhebung (alle Erhebungselemente werden untersucht) in jedem Falle einer Teilerhebung (nur ausgewählte Elemente werden untersucht) vorzuziehen, da sie die größere Sicherheit des Ergebnisses garantiert. Aus forschungsökonomischen Gründen ist es aber sehr häufig sinnvoll, sich auf Teilerhebungen (Stichprobenerhebungen) zu beschränken, weil sie kostengünstiger und organisatorisch besser zu ge-stalten sind. Bevor ein Auswahlverfahren angewendet werden kann, muss zunächst der Kreis von Personen oder Objekten bestimmt werden, der im Sinne der Untersuchung relevant und aussagefähig ist. D.h. es muss zunächst die Grundgesamtheit/Gesamtmasse/Universum bestimmt, definiert und abgegrenzt werden. z.B. Untersuchung zur Einstellung der Wähler —• Grundgesamtheit = Deutsche Bevölkerung ab 18 Jahre z.B. Untersuchung der Leserstruktur einer Abonnementzeitschrift —• Grundgesamtheit = alle Abonnenten z.B.

Imageanalyse eines Einzelhandelsgeschäftes -»· Grundgesamtheit = alle aktuellen und potentiellen Kunden

Generell können wir feststellen: Je kleiner die Grundgesamtheit, desto eher kommt eine Vollerhebung in Frage; je größer die Grundgesamtheit, desto eher kommt eine Teilerhebung in Frage.

2.1.2

Begriff der „Repräsentanz"

Ziel aller Bemühungen bei Teilerhebungen ist es, durch spezielle Auswahlverfahren sicherzustellen, dass die untersuchte Teilmasse (Stichprobe/Sample) in ihrer Struktur der Grundgesamtheit so weit wie möglich entspricht, d.h. „repräsentativ" ist. Dies ist erreicht, wenn sie ein verkleinertes, aber sonst wirklichkeitsgetreues Abbild der Grundgesamtheit darstellt (vgl. Kuss 2004, S. 55).

2 Auswahlverfahren

22

Auf diese Weise will man garantieren, dass sich die Ergebnisse aus der Stichprobe auf die Grundgesamtheit übertragen lassen. Man schließt im Sinne einer „Hochrechnung" (Repräsentationsschluss) von der Stichprobe auf die Grundgesamtheit (induktive/schließende Statistik).

2.1.3

Grundformen der Auswahlverfahren

Soweit wir es mit Teilerhebungen (Stichprobenerhebungen) zu tun haben, unterscheidet man grundsätzlich zwei Verfahrensgruppen: • •

Verfahren der Zufallsauswahl Verfahren der bewussten (nicht zufallsorientierten) Auswahl

Abbildung 8: Typen von Auswahlverfahren Quelle: eigene Darstellung

2.2 Zufallsauswahlverfahren (random sampling)

2.2

Zufallsauswahlverfahren (random sampling)

2.2.1

Prinzip der Randomverfahren (probability sampling)

23

Das Prinzip der Zufallsauswahl beruht auf der Wahrscheinlichkeitstheorie. Es geht von der Vorstellung aus, dass grundsätzlich jedes Element der Grundgesamtheit dieselbe (bzw. eine berechenbare) Chance hat, in die Stichprobe aufgenommen zu werden (Urnenmodell). Über den Auswahlprozess entscheidet allein der Zufall (keine subjektive Beeinflussung von außen). Zufallsfehler lassen sich mathematisch berechnen. Mit zunehmender Größe der Stichprobe (Annäherung an die Grundgesamtheit) steigt die Genauigkeit ihrer Ergebnisse.

2.2.2 •

Einfache, reine Zufallsauswahl (simple random sampling)

Lotterieauswahl: Bedeutet, dass die Elemente für die Stichprobe direkt aus der Grundgesamtheit (sog. Urnenmodell) gezogen werden. Voraussetzung dafür ist aber, dass die Grundgesamtheit (als Datei) vollständig vorliegt und (nach dem Prinzip des Zufalls) durchmischt ist. Da diese Voraussetzungen häufig nicht gegeben sind und das Verfahren sehr umständlich ist, greift man in der Praxis auf andere S/erfahren/Techniken zurück.



Schlussziffernverfahren: Entnommen werden aus einer durchnummerierten Datei alle Elemente, die eine bestimmte Endziffer aufweisen. Für die ausgewählten Endziffern können Auswahlsätze festgelegt werden.



Systematische Zufallsauswahl: Man legt fest, dass jedes s-te Element aus einer Grundgesamtheit Ν gezogen wird, um eine Stichprobe vom Umfang η zu erhalten; dabei wird der Startpunkt t per Zufall ausgewählt. Es gilt:

s =η s=



z.B.

t = 2, η = 6, Ν = 120 2,22,42,62,82,102

Auswahl mit Zufallszahlentabellen: Die als Datei vorliegende Grundgesamtheit (z.B. Namenslisten) wird durchnumeriert und die Zufallsauswahl der Nummern künstlich (z.B. durch einen ZufallsGenerator) simuliert. Die zu ziehenden Nummern (bzw. Namen) werden dann entsprechenden Tabellen entnommen.

2 Auswahlverfahren

24

Beispiel: Aus einer Kartei mit 9.999 Adressen soll eine Stichprobe mit η = 700 Adressen gezogen werden. Als Startpunkt wird die Zahl 5.476 ausgewählt. Es werden so lange Ziffern gezogen, bis man 700 Zahlen bzw. Adressen hat. •

Geburtstagsverfahren: Es werden die Elemente aus einer Datei gezogen, die ein bestimmtes Geburtsdatum (z.B. 3.12.) aufweisen.



Buchstabenauswahl: Es werden die Elemente aus einer Datei gezogen, bei denen z.B. der Familiennamen einen bestimmten Anfangsbuchstaben aufweist.

Vor- und Nachteile der reinen Zufallsauswahl: Vorteile: • • •

Keine Kenntnis der Merkmalsstruktur der Grundgesamtheit notwendig Keine subjektive Manipulation durch den Interviewer bei der Auswahl möglich Berechenbarkeit der Zufallsfehler bei gegebenem Signifikanzniveau und Stichprobenumfang Nachteile: • Höherer Aufwand bei Planung und Durchführung (Kosten!) • Ein ausgewähltes Element kann nachträglich nicht durch ein anderes ersetzt werden. (Problem bei Nichterreichbarkeit oder Auskunftsverweigerung von Personen!) • Die Grundgesamtheit muss vollständig vorliegen und nach dem Zufall „durchmischt" sein. (Ausschaltung von Gesetzmäßigkeiten!)

2.2.3

Klumpenauswahlverfahren (cluster sampling)

Voraussetzung für dieses Verfahren ist es, dass sich die Grundgesamtheit in Elemente-Gruppen („Klumpen") zerteilen lässt. Derartige Klumpen können sein: Betriebe, Haushalte, Vereine, Behörden usw.! Auswahleinheit ist der „Klumpen", nicht die Erhebungseinheit (Person). D.h. in die Stichprobe gehen die ausgewählten Klumpen mit allen Einzelelementen ein! Die Auswahl der Klumpen unterliegt dem Zufallsprinzip. Ein Spezialfall des Klumpenauswahlverfahrens ist das sog. Flächenstichprobenverfahren (area sampling). Dabei wird der Untersuchungsraum (bzw. dessen Fläche) in geografische Klumpen zerlegt, z.B. Regierungsbezirke, Planquadrate, Stadtquartiere, Häuserblocks usw. Die ausgewählten geografischen Klumpen gehen dann mit allen in diesen Gebieten lebenden Einwohnern in die Stichprobe ein! Vor- und Nachteile des Klumpen-Auswahlverfahrens: Vorteile: • Die Grundgesamtheit muss nicht vollständig vorliegen • Das Verfahren ist sehr anwendungsfreundlich und wirtschaftlich • Es brauchen keine Einzelpersonen per Adresse aufgefunden werden, statt dessen können alle Personen des Klumpens (räumliche Konzentration) befragt werden.

2.2 Zufallsauswahlverfahren (random sampling)

25

Nachteile: • •

Probleme tauchen bei diesem Verfahren durch den sog. „Klumpeneffekt" auf. D.h. in den Klumpen sind zu viele Elemente mit gleichen Merkmalen (hohe Homogenität nach innen), wie dies bei reiner Zufallsauswahl zu erwarten gewesen wäre (Beispiel: Wohngebiet mit ausschließlich Beamtenwohnungen, Institut mit überwiegend Wissenschaftlern). Klumpen sollten untereinander möglichst homogen, nach innen möglichst heterogen sein!

2.2.4

Geschichtete Zufallsauswahl (stratified sampling)

Dieses Verfahren bietet sich an, wenn die Grundgesamtheit verschiedene Teilgruppen enthält, die in Bezug auf ausgewählte Kriterien in sich homogen sind. Diese Teilgruppen/Teilgesamtheiten bezeichnet man als „Schichten". Aus jeder Schicht werden dann nach dem Zufallsprinzip Stichproben gezogen. Ziel der Schichtenbildung ist die Reduzierung des Stichprobenfehlers! Voraussetzungen für die Anwendung des Verfahrens: • •

die Schichten sind in sich möglichst homogen (bei heterogener Gesamtmasse) die Verteilung der interessierenden Merkmalsdimensionen muss bekannt sein, um eine Schichtbildung vornehmen zu können. Merkmalsdimensionen zur Schichtenbildung sind überwiegend soziodemografische Merkmale wie Alter, Geschlecht, Einkommen, Beruf usw.

geschichteter Auswahlprozess

Grundgesamtheit (geschichtet)

Auswahl

Stichprobe (geschichtet)

Auswahl i. d. 1. Schicht

" Η Ο Ο

Abbildung 9: Verfahren der geschichteten Zufallsauswahl Quelle: Pepels (Hrsg.) 1999, S. 50

Auswahl i. d. 2. Schicht

ΜW ο ο

Auswahl i. d. 3. Schicht

t ftt I ο οο ο

2 Auswahlverfahren

26

Hinsichtlich des Auswahlsatzes unterscheidet man folgende Schichtungsarten: •

proportional = Jede Schicht ist im gleichen Verhältnis vertreten wie in der Grundgesamtheit (Stichprobenwerte aufaddierbar!) Beispiel für Berechnung des Schichtanteils: Die Auswertung einer Reichweitenuntersuchung zeigt, dass ein lokaler Radiosender folgende Zusammensetzung seiner Hörerschaft hat: 35 % zwischen 14 und 29 Jahren, 40 % zwischen 30 und 39 Jahren, 20 % zwischen 40 und 49 Jahren und 5 % mit 50 Jahren und älter. Der Programmchef möchte eine Hörerbefragung durchführen. Würde man eine bevölkerungsrepräsentative Zufallsstichprobe ziehen, so wäre die Altersklasse über 50 Jahre im Vergleich zu den anderen Klassen überrepräsentiert. Man betrachtet deshalb jede Altersklasse bzw. Schicht als eigenständige Grundgesamtheit und zieht daraus entsprechende Stichproben. Bei einer Stichprobe von 1.000 Hörern z.B.: 350

Personen aus der Altersklasse 14 bis 29 Jahre

400

Personen aus der Altersklasse 30 bis 39 Jahre

200

Personen aus der Altersklasse 40 bis 49 Jahre

50 •

Personen aus der Altersklasse 50 Jahre und älter

disproportional = Schichten haben einen von der Gesamtheit abweichenden Anteil. Beispiel: Umsatzstärkere Betriebe werden stärker gewichtet (z.B. 50 %) als ihnen nach der zahlenmäßigen Gesamtverteilung zustünde (z.B. 10%). D.h. die umsatzstarken Betriebe sind mit dem Auswahlsatz 5 hochgewichtet; konsequenterweise müssen die Ergebnisse mit dem reziproken Auswahlsatz (also 1/5) multipliziert werden, um das Gesamtergebnis zu errechnen.



optimal = Unterfall der disproportionalen Schichtung. Man versucht, den Stichprobenumfang (bei vorgegebenem Zufallsfehler!) zu reduzieren. Prinzip: Aus homogenen Schichten werden kleinere, aus heterogenen Schichten entsprechend größere Teilstichproben gezogen! Vor- und Nachteile der geschichteten Auswahl:

Vorteile: •

Die Streuung des Zufallsfehlers ist bei einer geschichteten Stichprobe kleiner als bei einer reinen Zufallsstichprobe, also Reduzierung des Stichprobenfehlers.

2.2 Zufallsauswahlverfahren (random sampling)

27

Nachteile: •

Ist nur anwendbar, wenn die Verteilung der relevanten Merkmalsdimensionen in der Grundgesamtheit bekannt sind. Es müssen Teilgesamtheiten (Schichten) vorliegen, die weitgehend homogene Elemente enthalten.



Schichten-Stichprobe

Klumpen-Stichprobe



Jede Schicht wird in die Erhebung • einbezogen. Innerhalb jeder Schicht wird durch Zufallsauswahl bestimmt, welche Einheiten in die Erhebung mit einbezogen werden.



Die Streuung von χ bei einer ge- • schichteten Stichprobe ist kleiner als die Streuung der Zufallsstichprobe. Der Genauigkeitsgewinn (d.h. die • Verringerung der Varianz) ist umso größer, je homogener die einzelnen Schichten und je größer die Unterschiede zwischen den einzelnen Schichten sind.



Es wird durch Zufallsauswahl bestimmt, welche Klumpen in die Stichprobe einbezogen werden. Von den ausgewählten Klumpen werden alle Einheiten in die Erhebung einbezogen. Die Streuung von χ bei einer Klumpen-Stichprobe ist größer als die Streuung der Zufallsstichprobe. Der Genauigkeitsverlust (d.h. die Vergrößerung der Varianz) ist umso kleiner, je inhomogener die einzelnen Klumpen und je kleiner die Unterschiede zwischen den einzelnen Klumpen sind.

Abbildung 10: Unterschiede zwischen „Schichten-" und „Klumpen"-Auswahlverfahren Quelle: Pfanznagel 1960, S. 76

2.2.5

Mehrstufige Verfahren (multistage sampling)

In der Praxis werden die vorher beschriebenen Verfahren je nach Notwendigkeit miteinander kombiniert. So stellt z.B. der Arbeitskreis Deutscher Marktforschungsinstitute (ADM) Musterstichproben zur Verfügung, die u.a. für Mediaanalysen genutzt werden. VORSTUFE: Die Bundesrepublik ist in ca. 80.000 Wahlstimmbezirke eingeteilt, die als Grundlage für eine Flächenstichprobe dienen. Dies ist notwendig, da vollständige, aktuelle Daten über die Bevölkerung nicht vorliegen. 1. STUFE: AUSWAHL VON SAMPLING-POINTS Aus dem „Gitternetz" werden nach der uneingeschränkten Zufallsauswahl Sampling-Points (Klumpen) gezogen (mit 200 bis 2.000 Einwohnern). Die Sampling-Points bzw. Stimmbezirke werden nach Gemeindegrößenklassen geschichtet (Boustedt-Ortsgrößenklassen).

2 Auswahlverfahren

28 2. STUFE: AUSWAHL VON HAUSHALTEN

In den Sampling Points erfolgt ab einem zufällig gewählten Startpunkt eine Begehung (random route/random walk). Von diesem Startpunkt aus werden nach festen Regeln fortlaufend ca. 50 Adressen aufgelistet. Aus diesen werden mittels systematischer Zufallsauswahl 4 Adressen gezogen. Insgesamt werden auf diese Weise über 20.000 Adressen als Stichprobe für bevölkerungsrepräsentative Umfragen zur Verfügung gestellt (vgl. Unger/Raab 2004, S. 50; Berekoven et al. 2006, S. 59). 3. STUFE: AUSWAHL VON ZIELPERSONEN Entweder die Zielperson liegt fest (z.B. Hausfrau) oder es wird (z.B. nach dem Geburtstagsverfahren) eine Person ausgewählt, die befragt wird. Umfang und Zusammensetzung der Musterstichproben lassen sich nach Bedarf variieren, da die Pläne nach dem Baukastenprinzip angelegt sind (vgl. Berekoven/Eckert/Ellenrieder 2006, S. 58ff).

2.2.6

Vor- und Nachteile der Random-Verfahren

Vorteile: • • • •

Berechnung der Zufallsfehler bei gegebenem Signifikanzniveau und Stichprobenumfang möglich Einfluss des Interviewers auf die Auswahl der zu befragenden Personen reduziert Abgesehen vom Schichtenverfahren ist eine Kenntnis über die Verteilung relevanter Merkmale nicht notwendig Der Einsatz von statistischen Prüfverfahren (z.B. Chi-Quadrat-Test) ist möglich

Nachteile: • •

Sehr kosten- und zeitaufwendig, insbesondere bei mehrstufigem Verfahren Kein Redressment möglich, d.h. eine nicht erreichte (nach dem Zufallsprinzip bestimmte) Person fällt für die Befragung aus und kann nicht ersetzt werden - Auswahlbasis:

Grundgesamtheit (z.B. Kundenkartei)

- Auswahlprinzip:

Zufallsauswahl (oder bewusste Auswahl)

- Auswahltyp:

z.B. einfache, reine Zufallsauswahl

- Auswahltechnik:

z.B. systematische Auswahl

- Auswahlumfang:

z.B. 100 Personen

Abbildung 11: Elemente eines Auswahlplanes Quelle: Hammann/Erichson 2000, S. 130f

2.3 Verfahren der bewussten Auswahl (Quoten-Verfahren)

2.3

Verfahren der bewussten Auswahl (QuotenVerfahren)

2.3.1

Voraussetzungen

29

Im Gegensatz zu den Random-Verfahren wird bei den Verfahren der bewussten Auswahl die Stichprobe gewissermaßen nach bestimmten Regeln gezielt „konstruiert". Auch hier zählt als oberstes Prinzip, dass die Stichprobe in ihrer Struktur der Grundgesamtheit entsprechen soll, also repräsentativ ist. Die bekanntesten Verfahren der bewussten Auswahl sind: • • •

das Quoten-Verfahren Auswahl nach dem Konzentrationsprinzip die typische Auswahl

2.3.2

Quoten-Verfahren (quota sampling)

Das Quota- oder Quoten-Verfahren beruht auf der Überlegung, dass man eine Stichprobe entwickeln kann, wenn man die Verteilung aller Elemente oder Merkmalsausprägungen in der Grundgesamtheit kennt. D.h. man müsste die Stichprobe so zusammensetzen, dass die Anteile der Elemente/Merkmale (sprich: Quoten) in der Stichprobe exakt denen in der Grundgesamtheit entsprechen (Strukturäquivalenz). Dies ist in der Praxis kaum möglich, da eine Kenntnis über die Verteilung aller Elemente selten vorliegt und auch organisatorisch kaum nachvollzogen werden kann. Man beschränkt sich deshalb auf die Auswahl weniger relevanter Dimensionen, die für den Untersuchungsgegenstand von Bedeutung sind (z.B. bei einer Untersuchung über die Mediennutzung spielen Geschlecht, Alter, Bildung, Standort eine Rolle!). In der Regel sind sozio-demografische Merkmale die Grundlage für die Vorgabe von Quoten. Dies setzt allerdings voraus, dass die Verteilung der relevanten Merkmale in der Grundgesamtheit bekannt ist, damit die Quoten bestimmt werden können (z.B. 49 % Männer/51 % Frauen). In der Praxis werden ca. 4 - 5 relevante Quoten in einem Quotierungsplan festgelegt und per Quotenanweisung dem Interviewer vorgegeben. Dieser hat darauf zu achten, dass nach Abschluss seiner Interviews alle vorgegebenen Quoten erfüllt sind (siehe Quotenanweisung!).

2.3.3

Typische Auswahl (purpursive sampling)

Elemente der Grundgesamtheit werden nach freiem Ermessen ausgewählt, da man sie gewissermaßen als „typisch" ansieht (vertretbar bei weitgehend homogenen Grundgesamtheiten). Üblich beim „Baggern" von Personen auf der Straße, z.B. vor Teststudios.

2 Auswahlverfahren

30

Man schließt von den erzielten Ergebnissen entsprechend auf die Grundgesamtheit, obwohl ein Repräsentanzschluss nicht möglich ist. Insgesamt eher bedenklich in der Anwendung: Wer sagt, was „typisch" ist, wer bestimmt den Umfang der Stichprobe? 17

Gesamtzahl der Interviews: Stadtteil:

Geschlecht: Alter:

Beruf:

Altenbochum

[7]

1234567

Weitmar

[4]

1 234

Wiemelhausen

[6]

123456

männlich

[8]

12345678

weiblich

[9]

123456789

18-29

[2]

12

30-39

[4]

1 234

40-49

[5]

1 2345

50-59

[4]

1 234

60 und älter

[2]

12

Arbeiter

[6]

123456

Angestellter

[4]

1 234

Beamter

[4]

1 234

Selbständig Personenstand:

verheiratet ledig/geschieden

[3] [10] [7]

1 23 1 2 3 4 5 6 7 8 9 10 1234567

Abbildung 12: Quotenanweisung Quelle: Hammann/Erichson 2000, S. 135

2.3.4

Auswahl nach dem Konzentrationsprinzip (cut-off-technique)

Man beschränkt sich auf die Erhebung solcher Elemente, die für den Untersuchungsgegenstand besonders aussagefähig sind und besonderes Gewicht haben. Wird häufig in der Investitionsgütermarktforschung angewandt. D.h. wenige Elemente liefern einen hohen Erklärungsbeitrag für den zu untersuchenden Sachverhalt in der Grundgesamtheit. Z.B.: Es soll das Einkaufsverhalten im Großhandel untersucht werden. Man befragt Einkaufsleiter aus Groß-, Mittel- und Kleinbetrieben.

2.3.5

Vor- und Nachteile des Quotenverfahrens

Vorteile: • • •

schnell und elastisch durchführbar, dadurch geringe Kosten schnelle Anpassung an geänderte Quoten möglich (Redressment) totale Stichprobenausschöpfung

2.4 Berechnung von Stichprobenfehlern und -großen • • •

31

keine Wiederholungsbesuche notwendig normalerweise können Personen anonym bleiben schwierige Quoten können nach dem „Schneeballverfahren" (linkage sampling) gefunden und erfüllt werden

Nachteile: • • • • • •

mathematisch-statistische Fehlerberechnung nicht möglich qualitative, psychologische Merkmale sind häufig nicht zu quotieren Zusammenhang zwischen Quotenmerkmal und Untersuchungsgegenstand liegt häufig nicht vor es kann nur eine beschränkte Anzahl von Merkmalen quotiert werden „leichte Merkmalskombinationen" werden bevorzugt befragt Quotenvorgaben werden nicht eingehalten

2.4

Berechnung von Stichprobenfehlern und -großen

2.4.1

Systematische und Zufallsfehler





Systematische Fehler sind „methodische Fehler", die durch fehlerhafte Anlage, Durchführung und Auswertung von Marktforschungsuntersuchungen bedingt sind. Es sind Fehler, die nicht den Gesetzen der Wahrscheinlichkeitstheorie unterliegen. Solche Fehler sind deshalb nicht berechenbar. Sie streuen im Regelfall nicht gleichmäßig um einen Mittelwert, sondern können unterschiedliche Ausprägungen aufweisen (sich z.B. in eine bestimmte Richtung konzentrieren). Zufallsfehler sind „Stichprobenfehler", die aus der Ziehung von Random-Stichproben resultieren. Sie sind statistisch quantifizierbar, da sie nach den Gesetzen der Wahrscheinlichkeit um einen „Wahren Wert" streuen, so dass sie sich per Saldo ausgleichen. Die Abweichung vom „Wahren Wert" lässt sich als sog. Stichprobenfehler berechnen.

2.4.2 •

Parameter von Häufigkeitsverteilungen

Lageparameter (Mittelwerte) Mit einem Lageparameter wird der in einer Merkmalsverteilung „typischste" Wert (Durchschnittswert!) gekennzeichnet! Normalerweise ist das der arithmetische Mittelwert χ. Der Mittelwert ermöglicht es, die Position mehrerer Merkmalswerte (xi, x 2 ,... Xn) in einer Häufigkeitsverteilung durch einen einzigen Wert zu charakterisieren. Es gilt: -

1

1

N

X = — ix11 + x, N ) = - V X, 2 +x,...x 3 IST Νti '

2 Auswahlverfahren

32 Χ = Mittelwert Xj = Merkmalsträger Ν = Zahl der Merkmalsträger •

Streu parameter Streuparameter sagen aus, in welchem Maße Merkmalswerte (x,) in einer Häufigkeitsverteilung streuen bzw. um einen Mittelwert ( x ) streuen. Streuparameter haben eine große Bedeutung bei der Berechnung von Merkmalsverteilungen in Grundgesamtheiten. Sie haben aber eine besondere Bedeutung bei der Berechnung von Fehlerabweichungen in Zufallsstichproben. Es gilt:

Mittelwert

Grundgesamtheit:

Stichprobe:

χ (oder μ)

x

σ

s

Standardabweichung Varianz

σ

2

s2

Anzahl der Merkmalsträger

Ν

η

Das einfachste Streumaß ist die „Spannweite", die als Differenz zwischen dem kleinsten und größten Messwert definiert ist. Ein weiterer Streuparameter ist die „Varianz". Sie ergibt sich aus der Summe der durchschnittlichen quadratischen Abweichungen ( x j - x ) 2 vom Mittelwert ( x ) dividiert durch die Anzahl der Merkmalswerte (n). Grundgesamtheit:

Stichprobe:

Die Quadratwurzel aus der Varianz wird als „Standardabweichung", Streuung oder mittlere Abweichung bezeichnet. Mit ihrer Hilfe lassen sich Fehler-Intervalle um das arithmetische Mittel ( x ) kennzeichnen. Grundgesamtheit:

σ=

Μ^

Stichprobe:

s=

x

)2

^P>-*

2.4 Berechnung von Stichprobenfehlern und -großen

^

^

^

33

DO,Ο ~7θ



χ +σ



χ



Abbildung 13: Normalverteilung bei kleiner und größerer Streuung Quelle: Berekoven/Eckert/Ellenrieder 2006, S. 202

2.4.3

Berechnung von Streumaßen in Stichproben

Wie bereits ausgeführt, werden in der Marktforschung nur selten Vollerhebungen, sondern überwiegend Teilerhebungen (d.h. Stichprobenerhebungen) durchgeführt. Für den Marktforscher ergibt sich deshalb die Notwendigkeit, von den Stichprobenergebnissen auf die entsprechenden Werte in der Grundgesamtheit zu schließen (Hochrechnung). Ein durch das Stichprobenverfahren (at random) erhobener Wert kann durch das Wirken des Zufallsfehlers nicht einfach auf die Grundgesamtheit übertragen werden; es ergibt sich eine Abweichung (Fehlerspanne) zwischen Stichprobenergebnis und dem „Wahren Wert" in der Grundgesamtheit. Es muss die Frage beantwortet werden: Wie groß ist die Abweichung des Stichprobenergebnisses vom „Wahren Wert"? Die Abweichung wird als „Stichprobenfehler" bezeichnet. Er ist die Differenz zwischen dem Kennwert einer Stichprobe (z.B. dem arithmetischen Mittel der i-ten Stichprobe) und dem „Wahren Wert" der entsprechenden Grundgesamtheit (z.B. dem Mittelwert der Grundgesamtheit). Zieht man eine Stichprobe aus einer recht homogenen Grundgesamtheit, so wird der Stichprobenwert sehr nah beim „Wahren Wert" liegen (z.B. anhand einer Stichprobe von 10 Waschmittelpaketen soll auf das durchschnittliche Füllgewicht aller Pakete eines Loses geschlossen werden). In diesem Falle ist die Streuung gering, so dass die Abweichung vom „Wahren Wert" minimal sein wird. Ist die Grundgesamtheit sehr groß und heterogen, so werden sich von Stichprobe zu Stichprobe sehr unterschiedliche Werte ergeben, die um den „Wahren Wert" streuen werden (z.B. soll durch eine Stichprobe bei 10 Lebensmittelgeschäften auf den Durchschnittsumsatz aller Lebensmittelgeschäfte geschlossen werden). In diesem Falle wird aufgrund der breiten Streuung die Schätzung des richtigen Ergebnisses sehr ungenau sein. Bei den weiteren Überlegungen müssen zwei Fälle unterschieden werden: Entweder das zu untersuchende Merkmal liegt als metrischer (quantitativer) Wert vor (z.B. Durchschnittsumsatz aus verschiedenen Absatzperioden) oder das Untersu-

2 Auswahlverfahren

34

chungsmerkmal liegt als Prozentwert (Anteilswert) vor (z.B. Verwenderanteil aus einer Erhebung). 2.4.3.1 Berechnung mit metrischen Werten (Mittelwerten) Zieht man aus einer Grundgesamtheit sehr viele gleich große Stichproben und errechnet für jede Stichprobe den Mittelwert eines Merkmals x,, so stellt sich spätestens nach ca. 30 Stichproben (n > 30) eine Normalverteilung der Stichprobenmittelwerte ein. Das Mittel dieser Mittelwerte x, (in der Grafik der Gipfelpunkt der Glokkenkurve) wird identisch mit dem arithmetischen Mittelwert der Grundgesamtheit μ sofern die Zahl der Stichproben rapide anwächst und jede Stichprobe ausreichend groß ist. Unter diesen Bedingungen ist die Verteilung der Stichprobenmittelwerte normal. Die Standardabweichung dieser Verteilung ergibt sich nach der Formel (vgl. Clauss/Ebner 1972, S. 155): (bei ^ < 0 , 0 5 ) ^ = Auswahlsatz = Relation Stichprobe: Grundgesamtheit Es gilt: σ* = Standardabweichung des arithmetischen Mittelwertes σ 2 = Varianz der Grundgesamtheit η = Umfang jeder Stichprobe

Abbildung 14: Normalverteilung der arithmetischen Stichprobenmittelwerte Hüttner 1999, S. 55

Für eine Normalverteilung wird angeben, wieviel Prozent aller Messwerte links und rechts von μ liegen. Der Anteil der schraffierten Fläche ist berechnet und beträgt

2.4 Berechnung von Stichprobenfehlern und -großen

35

68,3 %. D.h. 68,3 % aller Messwerte fallen in den Bereich μ ± σ. In diesem Falle ist μ = 0 und σ = 1; man spricht von der Standard-Normalverteilung\ Die Wahrscheinlichkeit, dass die Messwerte in den jeweiligen Abweichungsbereich fallen, lässt sich steigern, wenn der Bereich durch Multiplikation mit dem Sicherheitsfaktor t erweitert wird (μ ± t • σ). Erweitert man den Bereich um das Doppelte (t = 2), so steigt die Wahrscheinlichkeit, dass die Werte in diesen Bereich fallen auf 95,5 % an. Die Bereiche werden „Vertrauens- oder Konfidenzintervalle" genannt. Die Wahrscheinlichkeit, mit der ein Ergebnis in einem Vertrauensintervall liegt, heißt „Vertrauenswahrscheinlichkeit". Sicherheitsfaktor t Vertrauenswahrscheinlichkeit 0,67 1,00

(μ±1σ)

Irrtumswahrscheinlichkeit

50,0 %

50,0 %

68,3 %

31,7%

1,64

90,0 %

10,0%

1,96

95,0 %

5,0 %

95,5 %

4,5 %

99,0 %

1,0%

99,7 %

0,3 %

99,9 %

0,1 %

2,00

(μ±2σ)

2,58 3,00

(μ ± 3σ)

3,29

Eine Vertrauenswahrscheinlichkeit von 95 % führt zu einer Irrtumswahrscheinlichkeit von 5 %; d.h. in 5 % aller Fälle wird der berechnete Wert nicht im Vertrauensbereich liegen. Kennt man den Mittelwert einer Grundgesamtheit (μ), dann kann man mit einer bestimmten Vertrauenswahrscheinlichkeit angeben, welche Kennwerte χ in Stichproben vorgegebenen Umfanges annehmen kann. Dies ist aber nicht das Problem. Wir wollen vielmehr umgekehrt von der Stichprobe auf die Werte der Grundgesamtheit schließen. Die Parameter der Grundgesamtheit sind unbekannt; man betrachtet deshalb die empirisch erhobenen Werte der Stichprobe als Schätzwerte für die Parameter der Grundgesamtheit (z.B. den Wahren Wert). Entsprechend dem bisher Aufgeführten, unterstellt man, dass σ ; « s 9 = ,/— ist. Diese Formel unterscheidet sich von der bisher verwendeten lediglich dadurch, dass statt der Varianz σ2, die uns unbekannt ist, die Varianz s2 der Stichprobe im Zähler steht. Auf diese Weise kann man von bekannten Stichprobenwerten auf die Parameter für die zugehörige Grundgesamtheit schließen. Dazu ein Beispiel: In einer Stichprobe mit η = 900 ergibt sich ein χ = 6 1 , 5 und s2 = 361. Wir wollen Aufschluss erhalten über den Parameter der Grundgesamtheit (μ). Man berechnet zunächst den Schätzwert für den Standardfehler des Mittelwertes:

2 Auswahlverfahren

36

Soll eine Aussage mit einer 99 %igen Vertrauenswahrscheinlichkeit getroffen werden, so ist t = 2,58 (siehe Tabelle). Man kann nun angeben, in welchen Grenzen der Parameter bzw. „Wahre Wert" liegt. x + t-Sj = 61,5±2,58 0,63«61,5±1,6 Mit 99 %iger Sicherheit liegt der „Wahre Wert" (μ) zwischen 59,9 und 63,1! Die Berechnung zeigt, dass man zwar nicht exakt den „Wahren Wert" der Grundgesamtheit ermitteln kann, wohl aber in welchen Grenzen er sich mit einer bestimmten Vertrauenswahrscheinlichkeit bewegt. Es bleibt festzuhalten: Die Güte der Schätzung hängt von den Variablen „Varianz" und „Stichprobengröße" ab, nicht aber von der Relation Stichprobengröße zur Grundgesamtheit (n/N), was vielfach angenommen wird! [Vgl. Pepels (Hrsg.) 2000, S. 29] 2.4.3.2 Berechnung mit Anteilswerten (Prozentsätzen) Die bisherigen Ausführungen bezogen sich auf messbare (quantitative) Merkmale, so wie man sie z.B. aus verschiedenen Skalierungsverfahren gewinnen kann. In der Praxis geht es aber häufig darum, Anteilswerte (in %) zu schätzen bzw. zu berechnen (z.B. wieviel Prozent der Grundgesamtheit sind Leser bzw. Nicht-Leser von Programmzeitschriften?). Es wird also der Anteil von Personen geschätzt, der eine bestimmte Eigenschaft aufweist oder nicht. Es gilt: ρ=

Anteil/Prozentsatz in der Stichprobe, der eine bestimmte Eigenschaft auf weist

q=

Anteil/Prozentsatz in der Stichprobe, der die Eigenschaft nicht aufweist. Ergibt sich aus 100 - p!

η=

Umfang der Stichprobe

Ρ=

zu schätzender Anteil/Prozentsatz in der Grundgesamtheit.

Die Formel für den Standardfehler des Anteilswertes lautet: (bei — < 0,05 ) Ν Man ist nunmehr in der Lage, bei einer vorgegebenen Wahrscheinlichkeit (t) anzugeben, in welchem Intervall der „Wahre Wert" der Grundgesamtheit liegt.

Beispiel: Eine Stichprobenuntersuchung (mit η = 1.000) hat ergeben, dass 40 % aller Personen eine Programmzeitschrift lesen. Die Aussagewahrscheinlichkeit soll bei 95 % liegen.

2.4 Berechnung von Stichprobenfehlern und -großen 40 -1,96 ·

37

< Ρ < 40 +1,96 ·

40 - 3,04 < Ρ < 40 + 3,04 36,96 < Ρ < 43,04 Mit einer Wahrscheinlichkeit von 95 % liegt der „Wahre Wert" zwischen den Werten 36,96 und 43,04. Die Breite des Intervalls beträgt + 3,04 %-Punkte. D.h. zwischen 37 % und 43 % der Grundgesamtheit lesen eine Programmzeitschrift.

2.4.4

Bestimmung des Stichprobenumfanges

In der Praxis taucht für den Marktforscher vor Beginn einer Untersuchung die Frage auf: Wie groß muss der Umfang (n) einer Stichprobe sein, wenn ein bestimmter Vertrauensbereich/Konfidenzintervall eingehalten werden soll (bei einer vorgegebenen Vertrauenswahrscheinlichkeit)? Oder anders ausgedrückt: Wie groß muss eine Stichprobe sein, damit eine bestimmte Fehlertoleranz des Ergebnisses eingehalten werden soll? Bezeichnet man die maximal zulässige Fehlertoleranz mit e, so gelten folgende Formeln: für quantitative Werte (Mittelwerte) •2

2

η = — r2 e

(bei-

Käufer(Käuferreichweite/Penetration)

• was

—•

Marken/Produkte/Artikel

• wieviel



Einkaufsmengen (Menge/Wert abs. und %)

• zu welchem Preis

—>

Preise (eff. Preise/o-Preise

• wie oft

—>

Einkaufsintensitäten (Mengen pro Käufer) Einkaufsstätten

• wo • wann

—•

Einkaufszeiten/-rhythmen

Abbildung 34: Fakts des Verbraucherpanels (Standard) Quelle: eigene Darstellung



Käufer Ein Haushalt/Verbraucher ist dann ein „Käufer", wenn er im Untersuchungszeitraum mindestens 1 χ eine Marke, ein Produkt oder einen Artikel gekauft hat. Unter „Käuferreichweite" versteht man den Anteil der Käufer, gemessen an der Zahl aller Panelteilnehmer in %. Man spricht auch vom „Käuferkreis". Werden die Käufer eines Produktes in Relation zu allen Käufern des jeweiligen Produktfeldes/Warengruppe gesetzt, so sprechen wir von „Käuferpenetration" (in %). Werden im Untersuchungszeitraum vom Käufer mehrere Marken gekauft (im gleichen Produktfeld), so haben wir es mit „Käuferüberschneidungen" zu tun. Beispiel: Käufer Marke A = 400 Käufer Marke Β = 300

= 1.200

Käufer Marke C = 500 Käufer der Warengruppe

=

Strukturüberschneidung

_ 1.200 _ ^ ~

600 600

~

Wer im Erhebungszeitraum ein Produkt mindestens zweimal gekauft hat, gilt als „Wiederkäufer". Das Verhältnis Wiederkäufer zu allen Käufern eines Produktes wird als „Wiederkaufsrate" (in %) bezeichnet. •

Einkaufsmenge Für jedes vom Panelteilnehmer gekaufte Produkt werden die Mengen (in der jeweils typischen Maßeinheit, z.B. Gramm, Liter, Stück usw.) erfasst. Die Ein-

4.1 Panel- bzw. Trackingforschung

91

kaufsmengen geben Auskunft über das Volumen des jeweiligen Produktmarktes. Der prozentuale Anteil der eingekauften Menge eines Produktes/Artikels, bezogen auf die Gesamteinkaufsmenge der jeweiligen Produktgruppe, wird als „mengenmäßiger Marktanteil" (in %) bezeichnet. Der prozentuale Anteil des Umsatzes eines Produktes/Artikels am Gesamtumsatz (Menge χ Preis) der jeweiligen Produktgruppe ist der „wertmäßige Marktanteil" (in%). Die 0 Einkaufsmengen pro Käufer ergeben sich dadurch, dass die erfassten Einkaufsmengen einer Marke durch die Anzahl ihrer Käufer dividiert werden. Der 0 Einkaufswert pro Käufer errechnet sich aus der Division des Gesamtumsatzes einer Marke durch die Zahl der Käufer. •

Preise 0 Preise pro Mengeneinheit errechnen sich dadurch, dass die in einem bestimmten Zeitraum erfassten Ausgaben für eine Marke (Umsatz) durch die Einkaufsmengen dieser Marke dividiert werden. Kaufpreise sind die von den Panelteilnehmern effektiv gezahlten Preise pro Einkaufsakt.



Bedarfsdeckung Die sog. „Bedarfsdeckungsrate" zeigt an, wieviel % seines Bedarfes ein Käufer mit einer Marke/Produkt deckt.



Einkaufsstätten Es wird erfasst, in welchen Betriebstypen und Organisationsformen des Handels die Käufer ihre Einkäufe getätigt haben.



Einkaufszeiten

Es wird festgestellt, an welchenTagen (Datum) die Einkäufe des Haushaltes/der Person erfolgten. SONDERANALYSEN • Käuferstrukturen Z.B.: Wie setzt sich die Käuferschaft einer bestimmten Marke nach soziodemografischen Merkmalen zusammen? •

Motive/Einstellungen Durch Sonderbefragungen bzw. Zusatzerhebungen bei bestimmten Zielgruppen des Panels können auch deren Einstellungen und Motive erfasst werden. Diese können mit dem Einkaufsverhalten der Gruppen korreliert werden.



Markentreue/Markenwechsel Es soll untersucht werden, wie häufig in einem Produktfeld die Käufer eine bestimmte Marke gekauft haben (siehe Beispiel).

92

4 Spezielle Erhebungs- und Untersuchungsverfahren in der Praxis

Lesebeispiel:

Unter den Käufern, die drei verschiedene Marken in der Warengruppe gekauft haben und mindestens 3 mal in der Warengruppe eingekauft haben, hat Marke Α einen Marktanteil von 30 %.

Abbildung 35: Beispiel für Markentreue/Markenwechsel Quelle: GfK-Nürnberg



Käuferkumulation

(Käufer/Wiederkäufer)

Es soll festgestellt werden, wie sich die Käufer und Wiederkäufer einer Marke im Zeitablauf entwickeln. •

Käuferwanderungen Es soll untersucht werden, wie und wohin sich die Käufer einer Marke in verschiedenen Zeiträumen entwickelt haben (Zuwanderer, Abwanderer, Wiederkäufer). (Siehe Beispiel)



Gain and loss-Analyse Es wird in Bezug auf verschiedene Marken untersucht, in welchem Maße sie im Zeitablauf Mengeneinheiten an andere Marken abgegeben oder von diesen hinzugewonnen haben (siehe Beispiel).

4.1 Panel- bzw. Trackingforschung

93

Gesamtkäufer im Jahr = 100 % Marke A

von diesen kauften I nur im 1. Halbjahr

im 1.+2. Halbjahr

nur im 2. Halbjahr

(=Abwanderer

(=Wiederkäufer)

(=Zuwanderer zu

von der Marke A)

der Marke A)

30%

20%

50 %

deren Einkaufs-

deren Einkaufs-

menge im

menge im

2.Halbjahr= 100%

I.Halbjahr = 100% Marke A Marke Β = 15 %

Marke Β = 50 % Marke C = 10 %

Marke C = 60 %

Marke D = 40 % Marke D = 25 % Abbildung 36: Zeitraumbezogene Wanderungsanalyse Quelle: GfK-Nürnberg

Lesebeispiel für Abwanderer der Marke A: 20% der Gesamtkäufer der Marke Α haben diese nur im I.Halbjahr gekauft. Von diesen sind im 2.Halbjahr 50% zur Marke Β gewandert.

4 Spezielle Erhebungs- und Untersuchungsverfahren in der Praxis

94

Abwanderung vom 1. zum 2. Zeitraum

•mum^

ι Iiiwmmmmmmmmmmammm Verlust

Marke

-V

Wiederkauf

Aufrechenbares Segment

;

Gewinne Wiederkauf Aufrechen bares Segment

Abbildung 37: Beispiel für eine Gain and Loss-Innenmatrix Quelle: GfK Panel Services 2007, S. 23

Lesebeispiel für Marke A: 1. Α verliert an Β 10 Einheiten Α gewinnt von Β 50 Einheiten 2. Α verliert insgesamt 50 Einheiten Α gewinnt insgesamt 80 Einheiten 3. Α-Käufer kaufen je 60 Einheiten im Zeitraum 1 UND Zeitraum 2

4.1.3

Saldo = 40 Einheiten (Gewinn von Marke B) Saldo = 30 Einheiten (Gewinn von allen Marken) Summe = 120 Einheiten (Wiederkaufsmenge)

Handelspanel (retail tracking)

Handelspanels sind Erhebungen, die bei einem repräsentativ ausgewählten, im Prinzip gleichbleibenden Kreis von Absatzmittlern in regelmäßigen Abständen über einen längeren Zeitraum zu den gleichen Erhebungspunkten durchgeführt werden. Man unterscheidet im Wesentlichen zwei Arten von Panels: • die Food Panels, in denen alle Warengruppen der Verbrauchsgüterindustrie erfasst werden. Sie werden auch als „Fast Moving Consumer Goods" (FMCG) bezeichnet. • Die Non-Food-Panels, in denen langlebige Gebrauchsgüter erfasst werden, die auch als „Slow Moving Consumer Goods" (SMCG) gekennzeichnet werden. Die Warengruppen können auf der Einzelhandels- und Großhandelsebene erfasst werden, wobei erstere von entscheidender Bedeutung ist. Das erste Handelspanel wurde 1933 von der A. C. Nielsen Company in den USA eingerichtet. In Deutschland bieten A.C. Nielsen und die GfK-Nürnberg Handelspanels an.

4.1 Panel- bzw. Trackingforschung

95

4.1.3.1 Anlage eines Handelspanels • Grundgesamtheit: Die Festlegung der Grundgesamtheit hängt in erster Linie von der zu untersuchenden Warengruppe ab. Will man z.B. die Warengruppe TV-Geräte untersuchen, so gehen in die Grundgesamtheit alle Absatzkanäle ein, über die solche Geräte vertrieben werden (das sind: Elektrofachhandel, Verbrauchermärkte, Cash + Carry, Warenhäuser, Versender, Spezialgeschäfte, Import-Exportgeschäfte, Sonstige). Einzelhandels-Panels für Gebrauchsgüter Augenoptiker

Kopierer-Spezialisten

Autoradio-Spezialisten

Einrichtungshäuser

Bau- und Heimwerkermärkte

Küchenspezialisten/-studios

Büromasch.-/-möbel-Org.mittel-FH

Lebensmittelhandel

Cash & Carry

Motoristen

Computershops/Systemhändler

Papier/Büro/Schreibwaren-FH

Elektro-FH

Sanitätsfach-EH

Elektro-GH

Schuhfach-EH

Fotofach-EH

Software-Spezialversender

Fotofach-EH & Foto-Drogerien

Sportfach-EH

Funkfachhandel

Tapeten/Farben/Lacke-FH

Gartencenter

Telekom-FH

Glas/Porzellan/Keramik-FH

Verbrauchermärkte

Hausrat-Eisenwaren-FH

Warenhäuser/Versender

Kfz-Ersatzteile-GH

Werkzeugmaschinen-FH

Kfz-Ersatzteile-EH

Gastronomie Tankstellen, Kioske, Trinkhallen

Abbildung 38: Einzelhandelspanels der GfK-Nürnberg für Gebrauchsgüter Quelle: GfK-Nürnberg

Über diese Absatzkanäle müssen aus Sekundärquellen (amtliche Statistiken) oder durch Primärerhebungen (Basisstudien) aktuelle Strukturdaten erhoben werden (z.B. Anzahl, Umsatz, Verkaufsfläche usw.). •

Stichprobe: Die Stichprobenbildung erfolgt in der Regel in Form der disproportionalen Schichtung, wobei die umsatzstärkeren Geschäfte stärker gewichtet werden als die kleineren Betriebe (siehe Abbildung). Stichproben der Handelspanels werden nach dem Quotenverfahren ausgewählt. Quotierungsmerkmale sind Region, Betriebstyp, Organisationsform, Umsatz, Verkaufsfläche. Die Stichprobengrößen gehen normalerweise bis zu 1.000 Fälle, maximal bis 2.000 Fälle!

4 Spezielle Erhebungs- und Untersuchungsverfahren in der Praxis

96

4.1.3.2 Probleme beim Aufbau und bei der Führung eines Handelspanels • Anwerbung: Ein Problem stellt die Anwerbung von Geschäften dar, da der Handel aufgrund seiner hohen Konzentration nur über die Zentralen vertraglich gebunden werden kann. Lehnt ein wichtiger Handelspartner die Zusammenarbeit mit den Instituten ab, tauchen sofort Coverage-Probleme auf.

Grundgesamtheit Anzahl

Umsatz

Sample Anzahl

Marken

Umsatzklasse

2-6

15

je WG

-250 Tsd. 15

40

2-8

60

je WG

-500Tsd.

20

50 10

100%

100%

100%

Total 2000

3-13 je WG

je WG

3-21 je WG

H Mio

3-20 je WG

5-75 je WG

2-11

15 25

3-8 je WG

-1 Mio

20 25

Modelle

pro Geschäft

Heterogenität des Sortiments nach Marken und Modellen

Disproportionaler Stichprobenaufbau unter Berücksichtigung der Anzahl der Geschäfte der einzelnen Zellen und deren Umsatzbedingung Abbildung 39: Disproportionaler Stichprobenaufbau Quelle: GfK-Nürnberg

Hochrechnung: Die Stichprobe eines Handelspanels weist durch den disproportionalen Ansatz eine Verzerrung auf. Umsatzstarke Geschäfte erhalten einen höheren Auswahlsatz als kleine Geschäfte. Diese Disproportionalität muss im Rahmen einer Hochrechnung ausgeglichen werden. Dazu werden Grundgesamtheit und Stichprobe in Hochrechnungszellen zerlegt (siehe Abb.). Von jeder Hochrechnungszelle müssen die Zahl der Geschäfte und der Umsatz bekannt sein. Die in den Zellen aufgetretenen Verzerrungen werden durch sog. Hochrechnungsfaktoren wieder ausgeglichen. Coverage: Ähnlich wie beim Verbraucherpanel weist das Handelspanel „CoverageProbleme" auf. D.h. es werden nicht alle relevanten Absatzkanäle erfasst. So fehlen z.B. im Bereich des Lebensmittelhandels die Verkäufe der Aldi-Gruppe, der Norma, von Schlecker und die der Lebensmittelabteilungen der Warenhäuser. Ebenso wenig werden der Versandhandel, Heimdienste und der Fabrikverkauf erfasst. Man kann davon ausgehen, dass in einzelnen Warengruppen

4.1 Panel- bzw. Trackingforschung

97

durch die Panels nur ca. 70 % des Marktes abgedeckt werden. Um diesen Problemen aus dem Wege zu gehen, werden immer mehr Spezialpanels angeboten, die sicherstellen, dass alle Absatzkanäle der untersuchten Warengruppen abgedeckt werden (z.B. TV-Geräte, Drogeriewaren usw.)

FORSCHUNG

ERMITTLUNG DER HOCHRECHNUNGSFAKTOREN Grundgesamtheit

Stichprobe

Gebiet Nord

NRW

Mitte

GfK Hochrechnungsfaktor

Gebiet BWB

Bay

Nord

NRW

Mitte

Gebiet BWB

Bay

Nord

NRW

Mitte

BWB

Bay

- 1 Mio. 1 - 2 Mio. 2-5 Mio. 5-10 Mio. +10 Mio. Umsatzklasse

Zelle von geringer Umsatzbedeutung: geringerer Stichprobenumfang •

höherer Hochrechnungsfaktor pro Geschäft

Zelle von hoher Umsatzbedeutung: größere Stichprobe sinnvoll ^

niedriger Hochrechnungsfaktor pro Geschäft

Abbildung 40: Ermittlung der Hochrechnungsfaktoren Quelle: GfK-Nürnberg

4.1.3.3 Datenerhebung im Handelspanel Die Datenerhebung im Handelspanel erfolgt auf zwei Wegen. •

durch den Außendienst Regelmäßige Inventur (alle 2 Monate) der ausgewählten Geschäfte durch den Außendienst der Institute (Basis = Artikel) Erfasst werden die Bestände an vorrätiger Ware (Verkauf/Lager/Sonderplatzierung), die Einkäufe (anhand von Lieferscheinen) und die aktuellen Verkaufspreise. Erfasst werden die Waren auf maschinenlesbaren Vordrucken (Aktivlisten) oder mit elektronischen Erfassungsgeräten (Handscanner).



durch Datenträgeraustausch Sofern die Handelsorganisation die oben genannten Daten auf Datenträgern erfassen (durch EAN-Scanner/mit Scannerkassen), können diese auf dem Wege des Datenträgeraustausches dem Institut zugeleitet werden.

4 Spezielle Erhebungs- und Untersuchungsverfahren in der Praxis

98

Diese Methode ist kostengünstiger und ermöglicht eine höhere Aktualität der erhobenen Daten. •

Grundprinzip der Erfassung Dem Handelspanel liegt folgendes Erfassungsprinzip zugrunde: Inventur des Lagerbestandes zu Beginn der Periode +

getätigte Einkäufe in der Untersuchungsperiode

./.

Inventur des Lagerbestandes zum Ende der Periode

=

Abverkäufe zwischen den Erhebungsintervallen

Neben den Abverkaufs- und Lagerbestandszahlen sowie den Einkäufen und Preisen können noch weitere Kriterien erfasst werden, wie z.B. - Zweit- und Sonderplatzierungen/Displays - durchgeführte Aktionen - Regalflächenaufteilung - Produktplatzierung - Händlerinformationen 4.1.3.4 Informationsinhalt und -umfang Die in der Standardberichterstattung der Institute ausgewiesenen Informationen werden als „Basisfakts" bezeichnet. Alle originär erhobenen Daten werden in der Berichterstattung nach den Dimensionen Perioden, Gebieten, Geschäftstypen, Organisationsformen und Verkaufsflächen gegliedert. Die Berichterstattung erfolgt je nach Regelung wöchentlich, monatlich, zwei-monatlich oder quartalsweise. STANDARD •

Verkäufe/Endverbraucherabsatz Es werden die tatsächlich verkauften Mengen absolut (in den jeweiligen Maßeinheiten wie Packungen, Kilogramm, Liter usw.) erfasst. Es wird das Marktvolumen, gemessen in Menge, ausgewiesen. Der prozentuale Anteil der verkauften Menge eines Produktes/Artikels, bezogen auf die jeweilige Warengruppe, kennzeichnet den mengenmäßigen Marktanteil (% auf Basis Menge). Durch Multiplikation der verkauften Menge mit dem Verkaufspreis am Erhebungstag erhält man den Verkauf Wert oder Umsatz einer Periode. Setzt man den Umsatz eines Produktes/Artikels in Relation zum Gesamtumsatz der Warengruppe, so errechnet sich der wertmäßige Marktanteil (% auf Basis Wert).



Zukäufe Erfasst werden die ZukäufelEinkäufe des Handels während der Berichtsperiode in Mengeneinheiten. Multipliziert mit den Verkaufspreisen am Erhebungstag erhält man den wertmäßigen Zukauf.

4.1 Panel- bzw. Trackingforschung

99

Wird der prozentuale Anteil des Zukaufs eines Produktes/Artikels auf die jeweilige Warengruppe bezogen, so erhält man den Zukaufsanteil Menge. In ähnlicher Weise erhält man den Zukaufsanteil Wert, wenn man als Berechnungsbasis den Umsatz verwendet. •

Bestände: Der Gesamtbestand weist alle Bestände eines Produkts/Artikels am Erhebungsstichtag aus. Dieser Bestand setzt sich aus den Beständen im Lager und im Verkaufsraum (Regal/Display) zusammen. Der Bestand wird - ähnlich wie die Verkäufe und Einkäufe - nach Menge und Wert in absoluten Zahlen und relativen Anteilen erfasst.



Distribution: Die numerische Gesamtdistribution gibt an, in wie vielen Geschäften ein Produkt/Artikel in der Berichtsperiode geführt wurde. Beispiel: Ist die Gesamtzahl aller Geschäfte im Lebensmittelhandel 69.000 und die Warengruppe wird nur in 65.000 Geschäften geführt, so ist die numerische Distribution dieser Warengruppe 94,2 %. Wurde die Marke X aus dieser Warengruppe nur in 38.000 Geschäften gefunden, so ist die Distribution der Marke bezogen auf den Gesamtmarkt 55,1 %. Von einer numerischen Distributionslücke spricht man, wenn ein Produkt/ Artikel während der Berichtsperiode zwar verkauft wurde, zum Zeitpunkt der Erhebung aber in einem Teil der Geschäfte physisch nicht vorrätig war. Distributionslücken über mehrere Perioden deuten auf eine mangelnde Betreuung der Marke durch den Vertrieb/Außendienst des jeweiligen Unternehmens hin! Aus der Addition der numerischen Bestandsdistribution (Produkt wurde geführt) und der numerischen Distributionslücke (Produkt war nicht vorrätig) ergibt sich die Gesamtdistribution. Die Distributionswerte „Verkauf numerisch" und „Zukauf numerisch" geben an, wieviel Prozent der Geschäfte in der Berichtsperiode ein Produkt/einen Artikel tatsächlich verkauft bzw. eingekauft haben. Beide Messzahlen sind Frühwarnindikatoren für die Unternehmen. Wird ein Produkt von einem größeren Teil der Geschäfte nicht mehr verkauft und eingekauft, droht die Auslistung! Wird die Distribution eines Produktes/Artikels nicht auf die Zahl der Geschäfte, sondern auf den Umsatz der Warengruppe bezogen, so erhält man die gewichtete Distribution. Beispiel: Die Marke X wurde in 38.000 Geschäften mit einem Warenumsatz von 140 T€ geführt. Die gesamte Warengruppe erzielte im gleichen Zeitraum in 65.000 Geschäften einen Umsatz von 360 T€; d.h. die Marke X hat eine gewichtete Distribution von 38,9 %! Wie bei der numerischen Distribution können auch die Distributionslücke, der Bestand, Verkauf und Zukauf gewichtet, d.h. gemessen am Umsatz ausgedrückt werden.



Preise: Im Handelspanel werden die tatsächlichen Verkaufspreise am Erhebungsstichtag erfasst. Darüber hinaus wird der 0 Preis pro Menge ausgewiesen, der sich

4 Spezielle Erhebungs- und Untersuchungsverfahren in der Praxis

100

aus der Division Verkauf Wert durch Verkauf Menge in der Berichtsperiode ergibt. Wie oben schon ausgeführt, können die erhobenen Daten mit anderen Dimensionen korreliert werden, das sind insbesondere die Erhebungszeiten, Einzelhandelstypen, Organisationsformen und Verkaufsflächenklassen. •

Nielsengebiete: Die im Handelspanel übliche Regionaleinteilung der Bundesrepublik beruht auf der von A.C. Nielsen vorgenommenen Gliederung; wobei jedes Gebiet mit einer Kennziffer bezeichnet ist (siehe Abb.).

NielsenGebiete

NielsenStandard-R egjonen

NielsenBallungsräume

Gebiet 1:

Nord: Schleswig-

φ

Hamburg, Bremen,

Holstein, Hamburg

(D Bremen (§) Hannover

Sehl es wig-Hol stein,

Süd: Nieder sachsen,

Nieder sachsen

Bremen

Gebiet 2:

Ost: Westfalen

Nordrhein-Westfalen

West: Nordrhein

Gebiet 3a:

Ost: Hessen

Hessen, Rheinland-

W e t : Rteinland-

Pfalz, Saarland

Pfalz, Saarland

Hamburg

(4) Rihrgebi et

(D Rhein-Main

Gebiet 3b:

Nord: Reg.Bez. Stutt-

(§) Rtein-Neckar

Β aden- Württemb erg

gart, K a i s r u h e

® Stuttgart

Süd: Reg.Bez. Freiburg, Tübingen Gebiet 4:

Nord: Ober-, Mittel-,

(§) Nürnberg

B^ern

Unlerfranken, Oberpfalz

(D München

Süd: Ober-, Niederbayern, Schwaben 5: B a l i η

©Berlin

6: Mecklenburg-Vcrpommern, Brandenburg, Sachsen-Anhalt 7: Thüringen, Sachsen West: Thüringen Ost: Sachsen

© HalleT-apzig -Chemnitz/ ©Dresden © A . C . N i e l sen G m b H

*

Nielsen Abbildung 41: Struktur der Nielsengebiete in Deutschland Quelle: A.C. Nielsen GmbH

Die Gebiete 5 (Berlin) und 6 (Brandenburg, Mecklenburg-Vorpommeren und Sachsen-Anhalt) wurden 2008 zusammengelegt. • Geschäftstypen (nach Größe) SB-Warenhäuser (über 5.000 m2) große Verbrauchermärkte (1.500-5.000 m2)

• Organisationsformen (Key Accounts) Metro Einzelhandel Edeka-Gruppe

4.1 Panel- bzw. Trackingforschung kleine Verbrauchermärkte (800-1.500 m 2 ) 2

101 Markant-Gruppe (Spar/ZEG)

Super SB-Märkte (400-800 m )

Rewe-Gruppe

sonst. SB-Geschäfte (unter 400 m 2 )

Tengelmann Gruppe

Discounter (Aldi/Lidl/Norma/Penny usw.) SONDERANALYSEN Aus den erhobenen Fakts lässt sich eine Reihe wichtiger Kenndaten und Analysen ableiten. •

Bevorratungsdauer: Beschreibt die Zahl von Monaten/Tagen, die ein Artikel bei weiterhin konstantem Absatz durch den Handel nicht nachgeordert werden muss. Bestand Stück χ Zeiteinheiten der Berichtsperiode (Monate/Tage) Verkauf Stück



Umschlagsgeschwindigkeit: Zeigt an, wie oft der zum Erhebungstag festgestellte Bestand eines Artikels in der Berichtsperiode umgesetzt/verkauft wird. Je höher die Umschlagsgeschwindigkeit, desto geringer ist die Kapitalbindung des Handels! Verkauf Menge Gesamtbestand Menge



Lagerproduktivität: Weist nach, wie häufig der Lagerbestand eines Artikels (zum Stichtag) in der Erhebungsperiode umgesetzt wird. Der ausgewiesene Wert ist ein Indikator für die Lagerkapitaibindungl Verkauf Menge Bestand Menge Lager Der Kehrwert dieses Quotienten bezeichnet den



Lagerdruck.

Distributionsqualität: Werden numerische und gewichtete Distribution in Relation zueinander gesetzt, so erhält man eine Aussage über die Distributionsqualität. Distribution gewichtet ges. Distribution numerisch ges. Je deutlicher der Wert über 1 liegt, desto besser ist das Verhältnis zwischen der Anzahl führender Geschäfte und deren Umsatzbedeutung für den untersuchten Artikel. D.h. der Artikel wird überwiegend in großen Geschäften geführt!



Umsatzverluste

durch

Distributionslücken:

Der Umsatzverlust, der durch das physische Fehlen eines Artikels entsteht (Distributionslücke), lässt sich wie folgt berechnen: Zahl der Geschäfte mit Lücken χ 0 Verkauf Wert pro verkaufendem Geschäft und Periode.

102 •

4 Spezielle Erhebungs- und Untersuchungsverfahren in der Praxis Preisabstandsanalyse: Wird ermittelt aus dem Durchschnittspreis des jeweiligen Produktes abzüglich dem Durchschnittspreis der jeweiligen Produktgruppe. Der relative Preisabstand errechnet sich aus dem Verhältnis des Preises des untersuchten Produktes zum 0 Preis der jeweiligen Produktgruppe (Basis = 100).



Vertriebsstrukturanalyse: Soll aufzeigen, welche Bedeutung die verschiedenen Vertriebskanäle für den Absatz eines Produktes haben. Über welchen Vertriebskanal fließt das Produkt ab? Welche Marktanteile erreicht das Produkt in der jeweiligen Warengruppe des Absatzkanals? Ist man eher in kleinen oder großen Outlets vertreten?



Distributionsiiberschneidungsanalyse: Durch diese Analyse soll geklärt werden, welche Marktbedeutung ein Produkt in Abhängigkeit von der Distribution anderer Produkte hat. Führt das Auftreten von Konkurrenzprodukten zu einer Beeinträchtigung des eigenen Absatzes und in welchem Maße?



Distributions-Potenzial-Analyse: Wird durchgeführt, wenn errechnet werden soll, welcher zusätzliche Umsatz durch eine Ausweitung der Distribution möglich ist.



Kontaktstrecken-Analyse: Soll Auskunft geben über die Effizierung der Platzierung in Abhängigkeit von der sichtbaren Breite der Platzierung im Regal (Kontaktstrecke).

Die ausgewiesenen Kennzahlen machen deutlich, dass die Erkenntnisse aus dem Handelspanel insbesondere für den Vertrieb und das Key-Account-Management der Unternehmen von erheblicher Bedeutung sind. 4.1.3.5 Berichterstattung im Handelspanel Die Veröffentlichung der Ergebnisse durch die Institute erfolgt normalerweise ca. 4 Wochen nach Abschluss der jeweiligen Erhebungsperiode durch einen schriftlichen Bericht. Die Berichte werden dem Bezieher des Panels zugesandt und die Daten auf Wunsch präsentiert und interpretiert. Es gibt grundsätzlich 3 Berichtsarten: •

Standard Report: In ihm sind die Ergebnisse der aktuellen Berichtsperiode dargestellt (Aufriss vertikal = Warengruppen/Marken/Produkte/Artikel; Aufriss horizontal = Fakts)



Running Report: Enthält die Daten im Zeitablauf, d.h. alle erfassten Perioden innerhalb des laufenden Jahres (Zeitreihenanalyse)



Sonderanalysen: Werden auf Wunsch des Auftraggebers durchgeführt und dargestellt (siehe voranstehende Seiten)

Die schriftlichen Berichte bereiten aufgrund der Datenfülle erhebliche Probleme bei der Auswertung und Analyse. Seit den 80er Jahren gehen die Institute dazu über, die aktuellen Daten via Datenleitung (online) oder über das Internet den Kunden

4.1 Panel- bzw. Trackingforschung

103

zuzusenden. Diese können die Daten in ihrer hauseigenen Datenbank (siehe Pkt. 1.5.1) speichern. Die Institute bieten außerdem Auswertungstools (software) an, mit denen die Daten ad hoc unproblematisch analysiert werden können. Diese Tools werden von AC Nielsen, Frankfurt unter der Bezeichnung „NITRO", von der GfK-Nürnberg unter „StarTrack" angeboten (die beiden genannten Versionen sind PC-fähig!).

4.1.4

Fernsehpanel

Mit Hilfe des Fernsehpanels sollen die TV-Gewohnheiten der Bevölkerung kontinuierlich untersucht werden. Man will erfassen, welche Haushalte bzw. Personen zu welchen Zeiten, wie lange, welche Sender/Sendungen nutzen. Auf diese Weise soll die Sehbeteiligung einzelner Sender und Sendungen gemessen werden. Außerdem sollen Leis-tungswerte für die Mediaplanung zur Verfügung gestellt werden, mit denen dargelegt wird, wie spezifische Zielgruppen über das Medium Fernsehen erreicht werden können. 4.1.4.1 Aufbau und Anlage des Fernsehpanels • Organisation: Seit 1963 wird in Deutschland Fernsehforschung betrieben. Heute führt die GfKNürnberg im Auftrage der „Arbeitsgemeinschaft Fernsehforschung" (AGF) die Untersuchungen durch. Die erhobenen Daten sind Eigentum der AGF; diese trägt auch die methodische Verantwortung für das Panel. Dies ist wichtig, da die Ergebnisse der Zuschauerforschung durch die festgestellten Reichweiten Einfluss auf die Vermarktbarkeit der Werbezeiten im Fernsehen nehmen. Die Daten des Fernsehpanels sind gewissermaßen die verbindliche „Währung" für die Mediaplanung des TV (vgl. Horizont Media Guide 9/2008). •

Stichprobe: Die Stichprobe des Fernsehpanels besteht aus über 5.600 bundesdeutschen Haushalten. Es handelt sich um eine Quotenstichprobe, bei deren Zusammensetzung die Kriterien Soziodemografie der Haushalte, Regionen (disproportional) und Empfangsmöglichkeiten (terrestrisch, Kabel, Satellit) eine besondere Rolle spielen.



Erhebungstechnik: Die Erhebung der Daten erfolgt durch das sog. „Telecontrol XL" (früher: GfKMeter), eine elektronische Box, die am Fernsehgerät jeden Panelhaushaltes angeschlossen ist. Sie enthält einen Mikrocomputer, der alle Bildschirmaktivitäten auf bis zu 300 Kanälen erfassen kann. Darüber hinaus werden die Nutzung von DVD-Recorder, Videorecorder, Btx und Videotext erkannt. Die personenbezogene Datenerfassung erfolgt dadurch, dass sich jedes Haushaltsmitglied durch das Drücken einer Taste auf der Fernbedienung (dem sog. „People-Meter") in das Programm an- und abmeldet. Auf diese Weise können bis zu 7 Haushaltsmitglieder (und ihre Gäste) überprüft werden. Die vom GfK-Meter sekundengenau aufgezeichneten und gespeicherten Daten werden nachts über ein eingebautes Modem und eine Telefonleitung an die GfK

4 Spezielle Erhebungs- und Untersuchungsverfahren in der Praxis

104

übermittelt und ausgewertet (vgl. Günther et al 2006, S. 11 Off; Weis/Steinmetz 2005, S. 166ff). 4.1.4.2 Erhebungsinhalte Die beiden wichtigsten Fakts, die im Fernsehpanel erhoben werden, sind Reichweite und Sehdauer. Beide Kriterien werden für alle TV-Sender und -Programme ausgewiesen. •

Reichweite: Die absolute Reichweite (brutto) drückt die Nutzung eines Senders/einer Sendung als Sehdauer in Minuten aus. Der Wert kann sich sowohl auf den untersuchten Haushalt (z.B. Sehdauer 130 Minuten) als auch auf die Personen des Haushaltes (z.B. Sehdauer 200 Minuten = Addition der Sehdauer jedes Haushaltsmitgliedes) beziehen. Setzt man diese Nutzungswerte in Relation zur denkbar möglichen Gesamtnutzung eines Senders/einer Sendung (Haushalte * 0 Haushaltsgröße * Gesamtsendezeit), so erhält man die relative Reichweite (brutto). Angenommen, die mögliche Nutzung eines Senders sei 4.000 Minuten, die tatsächliche Nutzung dagegen 200 Minuten (Basis: Personen), so errechnet sich eine relative Reichweite von 5 %. Reichweiten auf Basis Personen nennt man „Sehbeteiligung", auf Basis Haushalte „Einschaltquote'l



Sehdauer: Ausgewiesen wird die durchschnittliche Sehdauer in Minuten. Diese drückt aus, wie lange eine Person/ein Haushalt durchschnittlich ein TV-Angebot genutzt hat. Sie wird errechnet, indem die Gesamtsehdauer eines Senders/Programmes durch die Zahl der Nutzer dividiert wird.



Marktanteil: Aus den Nutzungsdaten der Sender lässt sich der Marktanteil (in %) eines Senders errechnen. Basis ist die personenbezogene Gesamtsehdauer aller Sender in einer Erhebungsperiode. Dieser Wert wird in Relation zur Gesamtsehdauer eines Senders gesetzt.



Zuschauerstruktur: Die erhobenen Werte lassen sich mit den soziodemografischen Merkmalen der Panelteilnehmer korrelieren. D.h. es lässt sich feststellen, wie die Zuschauerstruktur eines Senders bzw. einer Sendung aussieht. Diese Daten sind insbesondere wichtig für die Platzierung von Werbung und die Berechnung der Tausend-Kontakt-Preise (Mediaplanung).

4.1 Panel- bzw. Trackingforschung

4.1.5

105

Weiterentwicklung der Panels

Die Praxis zeigt, dass die Umsätze in den Warengruppen (speziell im FMCGBereich) stark von Werbe- und Promotionaktivitäten beeinflusst werden. Aus diesem Grunde wurde nach Wegen gesucht, wie man die Auswirkungen solcher Marketingmaßnahmen überprüfen kann. Ein weiterer Aspekt ist Internationalisierung und Globalisierung der Märkte, die ein grenzüberschreitendes Informationssystem notwendig machen. 4.1.5.1 Analyse von Promotionaktivitäten In ausgesuchten Geschäften des Handelspanels werden wöchentlich neben den sog. Basisfacts die Preisaktionen und Promotionaktivitäten erfasst. Untersucht werden Maßnahmen, die sich auf Preisreduzierungen, Sonderplatzierungen/Displays, Indoorwerbung, Hersteller- und Handelspromotions beziehen. So soll z.B. die Frage beantwortet werden, wie und in welchem Maße Sonderpreise oder Promotions den Abverkauf bestimmter Waren beeinflussen? 4.1.5.2 Analyse von Werbeaktivitäten des Handels Anbieter eines sog. Anzeigenpanels ist die Firma DROTAX, Königstein. Mit Hilfe dieses Instrumentes werden die Preisaktionen, die im Handel durchgeführt werden, anhand von Tageszeitungen, Anzeigenblättern, Handzetteln, Werbesendungen usw. erfasst. Auf diese Weise werden die Lieferanten des Handels aktuell über beworbene Sonder-angebote, Promotions und Preisaktionen informiert. 4.1.5.3 Analyse des Käuferverhaltens über Nielsen Single-Source Ein anderer Ansatz wird von A.C. Nielsen, Frankfurt verfolgt (Nielsen Homescan Consumer Panel). Man überprüft das Konsum- und das Medianutzungsverhalten an einer Stichprobe. D.h. alle Daten stammen aus einer Datenquelle, deshalb SingleSource-Ansatz. Grundlage des Verfahrens ist ein repräsentatives Panel mit ca. 10.000 Haushalten. Etwa die Hälfte dieser Haushalte ist mit einem „TV-Meter" ausgestattet, um das Fernsehverhalten zu überprüfen. Die Haushalte erfassen ihre Einkäufe mit Hilfe eines elektronischen Handscanners, indem sie die ΕΑΝ-Codes der gekauften Produkte einlesen. Die jeweiligen Preise werden über eine Tastatur in das Gerät eingegeben oder über die Nielsen Preisdatenbank zugespielt. Die im Haushalt genutzten Zeitschriften werden ebenfalls über ΕΑΝ-Codes erfasst. Die TV-Nutzung wird über das TV-Meter gemessen. Darüber hinaus registriert Nielsen alle Promotionaktivitäten im Handel während der Erhebungsperiode. Aus der Vielzahl der Informationen ergibt sich ein umfassendes Analyse-Instrument, das insbesondere die Abhängigkeit des Kaufverhaltens von werblichen Maßnahmen nachweisen kann. 4.1.5.4 Analyse internationaler Märkte Die Verflechtung der Märkte und die Globalisierung zwingen die Hersteller, grenzübergreifend zu denken. Die Institute passen sich diesen Anforderungen an, indem sie Verbraucher- und Handelspanels offerieren, die Informationen aus unterschiedlichen Ländern beinhalten. So bietet z.B. die GfK-Nürnberg Handelspanels weltweit in allen wesentlichen Ländern an. A.C. Nielsen und Research Now sind ebenfalls in

4 Spezielle Erhebungs- und Untersuchungsverfahren in der Praxis

106

vielen Ländern tätig und bieten dort ihre Panels an. Die Bedeutung der internationalen Panelforschung wird in den nächsten Jahren erheblich an Bedeutung gewinnen. 4.1.5.5 Analyse der Handelsattraktivität mit GPS Mit Hilfe der GPS-Technik (Global Positioning System) kann überprüft werden, welche Einkaufsstätten ein Panelhaushalt bevorzugt. Die Adressen und die GPSKoordinaten eines jeden Haushaltes und jeden Händlers sind den Instituten GfK und GENI bekannt. Es kann auf diese Weise festgestellt werden, welche Einkaufsstätten mit welchen Warengruppen ein Panelhaushalt in seinem Wohnumfeld nutzt (vgl. Günther et al„ 2006, S. 327ff).

4.2

Tests und Testmarktforschung

Über die Anlage und Methodik von Tests wurde bereits im Rahmen der Informationsgewinnung berichtet. In der Praxis haben sich spezielle Testverfahren herausgebildet, die insbesondere im Rahmen von Überprüfungen des Marketing-Mix (Produkt, Preis, Distribution, Werbung) eingesetzt werden. Zu den wichtigsten Testverfahren zählen: • • • • •

Produkttest Storetest Markttest Mini-Testmarkt Testmarktsimulation

4.2.1

Produkttest

Definition: Beim Produkttest handelt es sich um eine experimentelle Untersuchung, bei der die Zielgruppe (oder auch Konkurrenzverwender) die Testprodukte nach verschiedenen Kriterien beurteilen und bewerten soll. Die Untersuchung kann sich auf die Testprodukte als Ganzes oder auf einzelne Produktbestandteile beziehen. Die Testprodukte werden den Probanden unentgeltlich zur Verfügung gestellt. Abzugrenzen vom Produkttest sind der Konzept- und der Warentest. Der Konzepttest dient der Überprüfung und Beurteilung einer Produktkonzeption oder einer Produktidee. Das Problem liegt darin, dass das endgültige Produkt noch nicht vorliegt, sondern nur eine schriftlich formulierte Produktidee oder ein sog. „Dummy". Letzteres kann ein reales oder virtuelles Modell auf dem PC-Bildschirm (virtual reality) sein. Der Test verlangt von den Probanden viel Vorstellungsvermögen, da sie auf konkrete Produkterfahrungen nicht zurückgreifen können! (Vgl. Pepels et al. 1999, S. 261 ff) Der Warentest dient der Überprüfung der Gebrauchstauglichkeit und der Bewertung von Produkteigenschaften (siehe auch DIN 66 052) durch ein neutrales Testinstitut (z.B. Stiftung Warentest/Öko-Institut). In der Regel werden die Produkte/Marken einer Warengruppe im Vergleich untersucht und bewertet. Probleme liegen in der subjektiven Auswahl von Testverfahren und Testkriterien.

4.2 Tests und Testmarktforschung

107

Zielsetzungen von Produkttests: Im Produkttest können sowohl marktfähige Produkte (Prototypen) wie auch marktreife Produkte (bereits eingeführt) überprüft werden. Es ist möglich, sowohl Eigen- wie auch Fremdprodukte in den Test einzubeziehen (vgl. Fantapie-Altobelli 2007, S. 413ff; Weis/Steinmetz 2005, S. 228ff; Berekoven et al. 2006, S. 158ff). Eine spezielle Form des Produkttests ist die sog. „Car clinic", bei der Autofahrer bereits im Entwicklungsprozess z.B. über das Design und die Ausstattung neuer Fahrzeuge befinden können. Den Versuchspersonen werden neue Modelle in Form von virtuellen Darstellungen am Bildschirm (CAD-Präsentationen) oder in einer virtuellen Umgebung als „erlebbare Modelle" vorgeführt [vgl. Pepels (Hrsg.) 1999, S. 715ff]. •

Testziele bei Prototypen: - Überprüfung von Produktalternativen - Ermittlung der besten Produktalternative - Überprüfung originärer Produkteigenschaften (z.B. Handling, Rezeptur, Nutzen usw.) - Bewertung sekundärer Produkteigenschaften (z.B. Design, Verpackung, Preis usw.) - Gesamtbewertung und Feststellung der Kaufbereitschaft



Testziele bei im Markt befindlichen Produkten: - vergleichende Bewertung mit Konkurrenzprodukten - Überprüfung von Produktmodifizierungen (z.B. beim Relaunch) - Schwachstellenanalyse von Produkten - Messung von Imagekriterien - Ansatzpunkte für Produktverbesserungen

Testumfang: •

Volltest = Überprüfung des Testproduktes als Ganzes mit allen Teilkomponenten (ganzheitliche Erfassung) Dazu zählt u.a. die Überprüfung folgender Komponenten - originäre Produktleistung (Funktion, Qualität, Handling usw.) - Produktäußeres (Form, Material, Farbe usw.) - Packung und Verpackung (Gestaltung, Prägnanz, Anmutung, Handling usw.) - Marke (Gestaltung, Image, Wiedererkennbarkeit usw.) - Preis (-Schätzung, -bereitschaft, -klassen usw.)

- Verwendungszweck

4 Spezielle Erhebungs- und Untersuchungsverfahren in der Praxis

108 •

Partialtest = Überprüfung von Teilkomponenten eines Produktes Dazu zählen insbesondere: - Packungstest - Namenstest - Funktionstest - Preistest - Geschmacks-/Degustationstest

Form der Darbietung: •

Blindtest = - Testprodukte neutral verpackt (keine Marken- und Herstellernamen!) - Überprüfung originärer Produkteigenschaften bzw. der Gebrauchstauglichkeit



Offener Test = -Testprodukte in marktüblicher Verpackung mit Nennung von Marken- und Herstellemamen - Überprüfung der ganzheitlichen Wirkung von Produkten unter Berücksichtigung von Imagekomponenten



„Kombi"-Test = Hintereinander-Schaltung von Blind- und Offenem Test

Testdauer: •

Kurzzeittest Überprüfung spontaner Produkteindrücke und -empfindungen



Langzeittest = Überprüfung von Produktbeurteilungen aufgrund längeren Ge- und Verbrauchs. Häufig sind stabile Ergebnisse erst nach Mehrfachverwendung und ausreichenden Produkterfahrungen möglich!

Testanordnung: •

Monadischer Test = Überprüfung eines einzelnen Testproduktes. Kein direkter Vergleich mit anderen Produkten möglich.



Nicht monadischer Test = Überprüfung von mindestens zwei Testprodukten im direkten Vergleich - entweder zeitlich nacheinander (sukzessiv) - oder zeitlich gleichzeitig (parallel) Häufig angewendet der „Paarvergleich", Variante entscheiden muss;

bei dem der Proband sich für eine

oder „Rangreihentest", bei dem mehrere Testprodukte nach verschiedenen Kriterien in eine Rangfolge gebracht werden müssen.

4.2 Tests und Testmarktforschung

109

Testort: •

home-use-Test = Test wird im gewohnten häuslichen Umfeld durchgeführt. Normalerweise als Langzeittest mit schriftlicher Befragung angelegt. Zielpersonen können u.a. aus dem Adressenpool eines sog. Produkttest-Samples (z.B. GfK) stammen. - Vorteil: geringe Kosten - Nachteile: Test nicht direkt kontrollierbar Rücklaufquote Geheimhaltung



Studio-Test = Test wird in mobilen (Caravans) oder stationären Studios durchgeführt. Üblicherweise als Kurzzeittest mit direkter persönlicher Befragung angelegt. Zielpersonen werden im Umfeld des Studios gesucht („gebaggert") - Vorteile: kontrollierbare Testbedingungen Einsatz apparativer Verfahren (z.B. Greifbühne) schnelle Ergebnisse (Kurzzeittest!) - Nachteile: atypische Verbrauchs- und Gebrauchssituation häufig keine repräsentativen Stichproben!

Untersuchungsziele: •

Präferenztest = ob und in welchem Ausmaß das Testprodukt anderen Produkten vorgezogen wird



Akzeptanztest = ob und in welchem Ausmaß bei der Testperson eine Kaufabsicht besteht, ausgelöst durch die Produktqualitäten oder das Preis-/Leistungsverhältnis



Deskriptionstest = ob und in welcher Ausprägung bestimmte Produkteigenschaften wahrgenommen werden bzw. welche Wertigkeit sie für den Probanden haben



Diskriminierungstest = ob und in welchem Ausmaß die Probanden zwischen den Testprodukten vorhandene Unterschiede wahrnehmen können (Blindtest!)



Evaluationstest = Bewertung des Testproduktes als ganzes oder Bewertung einzelner Produkteigenschaften anhand einer Notenskala

4 Spezielle Erhebungs- und Untersuchungsverfahren in der Praxis

110 Produkttest-Panel:

Aufgrund der Schwierigkeit, bestimmte Zielgruppen für Testzwecke zu finden (z.B. Videonutzer, Intensiwerwender von Haarshampoo), bieten die Institute Adressen, z.B. aus ihren Verbraucherpanels, an. Da einerseits die Panels einen großen Stichprobenumfang haben (20 - 30.000), andererseits die demografischen und qualitativen Strukturen der Panelteilnehmer bekannt sind, lassen sich ohne Probleme nach Quotenvorgaben Substichproben für Produkttests ziehen (z.B. Gartenbesitzer, Heimwerker usw.). In der Praxis haben die Produkttests einen Stichprobenumfang von 200 bis 1.000 Personen.

4.2.2

Storetest (Ladentest)

Definition: Überprüfung von Testprodukten beim probeweisen Verkauf im Handel unter kontrollierten Bedingungen. Versuch einer möglichst „marktrealen" Überprüfung (in der Regel) von neuen und geänderten Produkten! Testziele: bei neuen und geänderten Produkten: - Verkaufschancen des Produktes - Auswirkungen auf das Konkurrenzumfeld - Optimale Preisfindung - Akzeptanz von Produkt- und Verpackungsgestaltung - Ermittlung von Erst- und Wiederkäufern bei eingeführten Produkten: - Einfluss von Sonderplatzierungen und Regalstrecken -Auswirkungen von Promotion-Maßnahmen und Aktionen (Displays, Zugaben, Sonderpreise, usw.) -Auswirkungen von werblichen Maßnahmen (Propagandistinnen, Durchsagen, Werbezettel usw.) Testablauf: - Auswahl der Testgeschäfte und deren Zustimmung zur Durchführung - Platzierung der Testprodukte und evtl. Displays - Schaltung von Werbung - Beobachtung der Testsituation (Testanordnung/Bevorratung) - Abrechnung mit den Händlern - Feststellung der Abverkäufe - Analyse und Bericht

4.2 Tests und Testmarktforschung

111

Um zu vernünftigen Ergebnissen zu kommen, sind je nach Produktart („Schnelldreher/Regalhocker") mindestens 4 Wochen reine Testzeit notwendig. Die Testanordnung erfolgt nach den im Experiment üblichen Verfahren (z.B. matched samples). Neben der reinen Beobachtung sind auch Käuferbefragungen am Verkaufsort möglich! Storetest-Panels: Eine ausgesuchte Zahl von EH-Outlets (Super SB's) steht für Testzwecke ständig zur Verfügung. Die Test-Stores liegen in verschiedenen Regionen der BRD (SBGeschäfte über 1 Mio. DM Jahresumsatz). Anbieter: GfK-Nürnberg/A.C. Nielsen, Frankfurt. Vorteile: - schneller Aufbau des Samples (ca. 20 - 50 Geschäfte) - keine Zugangsbeschränkungen in den Läden - professionelle Testbetreuung - Eingehen auf regionale Verbraucherunterschiede - kostengünstig Vor und Nachteile von Store-Tests: Vorteile: - marktnaher Test, schnell, kostengünstig Nachteile: - keine repräsentativen Aussagen für den Gesamtmarkt - in erster Linie Messung von Abverkaufszahlen. Weitere Daten sind nur durch zusätzlichen Aufwand zu erheben. z.B.: Wer hat gekauft (Käuferstruktur)? z.B.: Warum wurde gekauft (Käufermotivation)? - Einflüsse aus vorherigen Verkaufsperioden, Aktionen der Konkurrenz können die Ergebnisse verfälschen! (spill-over- und carry-over-Effekte) - Die Überprüfung eines realen Media-Mix ist nicht möglich! Virtueller Storetest: Eine weiterentwickelte Form des Storetests ist das in den USA entwickelte „Visionary Shopping". Virtuelle Ladenregale werden mit dreidimensionalen eingescannten Produkten bestückt, die aufgrund der hohen Auflösung des Großbildschirms realitätsnah zu sehen sind. Die Testpersonen „durchlaufen" am Bildschirm die Regale mit der Aufforderung, das übliche Kaufverhalten an den Tag zu legen. Das Computersystem erfasst die Verweildauer der Testpersonen vor dem Regal, ihre Beschäftigung mit den Produkten und registriert den tatsächlichen Kauf. Die Wirkungen von Produktund Preisveränderungen können auf diese Weise virtuell getestet werden.

4 Spezielle Erhebungs- und Untersuchungsverfahren in der Praxis

112

4.2.3

Markttest (Regionaltest)

Definition: Überprüfung von Produkten in einem räumlich begrenzten Feldexperiment (z.B. Nielsen-Gebiet) unter kontrollierten Bedingungen und unter Berücksichtigung aller Marketing-Mix-Faktoren. Das Ziel des Markttests ist die Simulation der realen Marktsituation, um aus den Erkenntnissen des Regional-Tests Schlussfolgerungen und Prognosen für eine nationale Einführung ziehen zu können (vgl. Meffert 1992, S. 236ff; Berekoven et al. 2006, S. 167ff). Im Markttest werden überprüft: - neue Produkte (Innovationen) - geänderte Produkte (Relaunches) - Ausweitung von Produktfamilien (Line-Extensions) - neue oder geänderte Marketingkonzeptionen (Strategie und Marketing-Mix) Voraussetzungen für einen Markttest: •

er muss in seiner Struktur dem Gesamtmarkt entsprechen, um die Ergebnisse auf den Gesamtmarkt projizieren zu können. Und zwar in Bezug auf - die Bevölkerungsstruktur - die Bedarfsstruktur - die Struktur des Handels - die Wettbewerbsstruktur



er muss eine dem Gesamtmarkt entsprechende Mediastruktur aufweisen, d.h. - alle Medien müssen verfügbar und einsetzbar sein - alle Medien müssen räumlich abgrenzbar sein (Test- und Streubereich sollten deckungsgleich sein)



er muss über geeignete Mafo-Einrichtungen verfügen: - z . B . Regionalpanels - Interviewer-Organisationen

• • •

er muss exakt abgrenzbar sein („Isolation des Testmarktes"), d.h. wenig störende Einflüsse von außen! er muss eine aussagefähige Größe haben: ausreichende Basis, mindestens Ballungsräume (z.B. Nielsen-Ballungsräume) oder Bundesländer (z.B. Saarland) er muss zeitlich die richtige Länge haben: bis zur Stabilisierung der Wiederkaufsraten in 4-10 Monaten (Problem: Konkurrenzaktivitäten, Kosten!)



es muss die Bereitschaft des Handels zur Mitarbeit vorhanden sein (regionale Abdeckung durch ein Handelspanel) • es muss ein überprüfbarer Kontrollmarkt aufgebaut werden, in dem keine Testmarktvarianten laufen! Ziele des Markttests: •

Hochrechnung der Regional-Ergebnisse auf den Gesamtmarkt, um Absatzchancen zu prognostizieren (z.B. Mengen- und Umsatzvolumen, Marktanteil)

4.2 Tests und Testmarktforschung • • • •

Überprüfung munikation) Überprüfung Überprüfung Bestimmung

113

der Wirkungen des Marketing-Mix (z.B. Preis, Distribution, Komalternativer Konzeptionen (z.B. Vertriebswege, Preise) des Werbeeinsatzes (z.B. Höhe des Werbespendings) der nationalen Etatansätze

Probleme des Markttests: - hohe Kosten (ca. 250 TEuro und mehr) - Probleme mit der Validität der Ergebnisse - mangelnde Geheimhaltung vor der Konkurrenz - Stör- und Reaktionsmöglichkeiten des Wettbewerbs

4.2.4

Mini-Testmarkt-Verfahren

Die Probleme beim regionalen Markttest (insbesondere Bereitstellung der Testware, Listung im Handel) haben dazu geführt, dass man nach Alternativen gesucht hat. Zielsetzung war es, die Tests auf ein vertretbares Mindestmaß zu reduzieren, ohne ihre Aussagekraft zu stark einzuschränken. 4.2.4.1 Lokaltest Ein Lokaltest unterscheidet sich vom regionalen Markttest durch seine Größe. Der Test wird auf einige ausgesuchte Städte begrenzt, in denen primär die Abverkaufszahlen von Produkten im Einzelhandel gemessen werden. Als Testorte bietet die Firma A.C. Nielsen z.B. die Städte Hamburg, Köln, Düsseldorf, Frankfurt, Stuttgart und München an. Die Testgeschäfte in diesen Orten registrieren die Einkäufe von ca. 30.000 Haushalten. Mit dem sog. „kontrollierten Markttest" können Produkt-, Sortiments·, Packungs- und Preisentscheidungen der einkaufenden Haushalte getestet werden. Darüber hinaus sind Auswirkungen von Verkaufsförderungsmaßnahmen und Platzierungen auf den Warenabsatz zu überprüfen. Die GfK-Nürnberg bietet unter der Bezeichnung ML Retail Scan/TV im Gebiet Vorderpfalz (Neustadt a.d.W.) ein Handelspanel mit 15 LEH-Märkten an. Es werden die Abverkäufe mit Hilfe der Scannerkassen der Märkte registriert. Zusätzlich ist Testwerbung bei ca. 39.000 Haushalten mit Kabel-TV im Testgebiet schaltbar (Technik vgl. Behavior Scan). Auf diese Weise kann z.B. der Einführungserfolg neuer Produkte incl. kommunikativer Maßnahmen überprüft werden. Das Retail Scan-Verfahren ist mit dem nachfolgend beschriebenen Behavior Scan kombinierbar. 4.2.4.2 Behavior-Scan Behavior-Scan ist ein „elektronischer Mini-Testmarkt", der von der GfK-Nürnberg angeboten wird. Grundlage dieses Testmarktes ist die konsequente Nutzung von Scannerkassen, Micro-Computer-Systemen, TV-Kabeltechnik und eines Haushaltspanels. Das Verfahren wurde aus den USA übernommen und wird seit 1985 in Haßloch/Pfalz eingesetzt.

4 Spezielle Erhebungs- und Untersuchungsverfahren in der Praxis

114 •

Ansatz: „GfK-Behavior-Scan" ist ein experimentelles Mikro-Testmarkt-System, das im Bereich des Kabelgebietes „Ludwigshafen/Vorderpfalz" zur exakten Messung der Auswirkungen alternativer Marketingmaßnahmen (einschließlich TVWerbung) auf das effektive Kaufverhalten installiert wurde. Dieses HightechTestmarktinstrument basiert auf einem kombinierten Handels- und Haushaltspanel unter Nutzung der Scannertechnologie.



Untersuchungsanlage: Als Testgebiet wurde der Ort Haßloch ausgewählt, da er eine Reihe von Anforderungen aufweist, die für einen elektronischen Testmarkt von Bedeutung sind: -

Der Ort ist voll verkabelt. Er liegt relativ isoliert im Pfälzer Wald. Dadurch hohe Bedarfsdeckungsrate am Ort. Die in die Untersuchung einbezogenen Handelsgeschäfte decken 95 % des LEH-Umsatzes von Haßloch ab; Verkauf über Scannerkassen.

- Die Bevölkerungsstruktur ist weitgehend repräsentativ für die BRD. - Die Kaufkraft entspricht dem Durchschnittswert der BRD. - Die Handelsszene deckt alle relevanten Geschäftstypen des LEH ab. •

Stichprobe: Es besteht ein repräsentatives Haushaltspanels mit 3.500 Haushalten. Die Stichprobe unterteilt sich in 2 Gruppen: - 1.000 Haushalte ohne GfK-Box (kein Empfang von TV-Testwerbung) - 2.500 Haushalte mit GfK-Box (Empfang von TV-Testwerbung) Alle Haushalte sind mit Identifikationskarten ausgestattet, die beim Einkauf an der Scannerkasse vorgelegt werden müssen. Die Vorlage dieser Karte wird durch Incentives (Gewinnspiele, Geschenke) und Zugaben (Bezahlung der Kabelgebühr, kostenlose Programmzeitschrift) sichergestellt. Auf diese Weise werden alle realisierten Einkäufe der Haushalte registriert.



Werbung/VKF Für kommunikative Maßnahmen stehen folgende Medien zur Verfügung



- TV (alle relevanten Sender)

- Handzettel

- Tageszeitung/Supplement

- Anzeigenblätter

- Programmzeitschrift

- Sonderplatzierungen a. POS

- Plakatwerbung

- Aktionen in den Märkten

Targetable TV-System Eine technische und methodische Besonderheit dieses experimentellen MikroTestmarkts „GfK Behavior-Scan" stellt das im Folgenden skizzierte „Targetable TV-System dar. Diese Technik gestattet die gezielte individuelle TVWerbeansprache jedes einzelnen verkabelten Testhaushalts mit GfK-Box und ermöglicht dadurch die experimentelle Wirkungsmessung von TV-Werbung. Eine schematische Darstellung dieses Targetable TV-Systems zeigt folgende Abbildung.

4.2 Tests und Testmarktforschung

115

Die patentierte Technologie beinhaltet folgende technischen Bausteine: - A n die Fernsehgeräte der 2.500 Testhaushalte ist die sog. GfK-Box angeschlossen, mit der es möglich ist, die Haushalte „anzusteuern". Die GfK-Box ähnelt zum Teil einer Telefonanlage. Jede einzelne GfK-Box in den Testhaushalten verfügt über eine spezielle Nummer. Sie kann zur Überblendung regulär ausgestrahlter Werbespots durch Testspots gleicher Länge (sog. CutIn-Prozedur) gezielt angesteuert werden. Gleichzeitig besitzt die GfK-Box alle wesentlichen Eigenschaften zur sekundengenauen elektronischen Messung, Speicherung und Übertragung von Seherdaten. - Am Kopfende des Kabelnetzes des Testgebietes ist ein Studio mit entsprechender TV-Übertragungstechnik eingerichtet worden, das mit den adressierbaren GfK-Boxen der Testhaushalte kommuniziert.

Kopfende/ Haßloch

GfK-BehaviorScan-Studio

Steuerungsrechner [.; (Matching)

;.·(-,

Haushalte der Testgruppe Τ

Kabelnetz/ Haßloch

Alle relevanten LEH-Geschäfte in Haßloch

TestEinkäufe Werbung



Kontroll-

ID-Karte

Strukturgleich mit Κ Haushalte der I Testgruppe Κ

Werbung Strukturgleich mit Τ

Verkäufe Einkäufe

Kasse

bis 95% Umsatzbedeutung

Abbildung 42: Targetable TV-System Quelle: GfK-Nürnberg

Die GfK-Box-Nummern der Haushalte werden in den Steuerungsrechner im TVStudio ebenso eingegeben wie derjenige TV-Sender, in dem die Überblendung stattfinden soll (z.B. ARD). Parallel zur Ausstrahlung des regulären TV-Werbespots wird der betreffende TestWerbespot gleicher Länge über den GfK-Kanal gesendet. Zu Beginn der synchronen Ausstrahlung der Testwerbung schalten die GfK-Boxen auf zentralen Befehl vom Studio die Fernsehgeräte derjenigen Haushalte, die zur Test-Gruppe gehören, auf den GfK-Kanal um. Dies geschieht selbstverständlich nur bei jenen Haushalten, die gerade das Programm empfangen, in dem die Überblendung stattfinden soll (z.B. ARD). Diese Umschaltung erfolgt in der Schwarzphase zwischen zwei Werbespots, so dass sie von den Zuschauern nicht wahrgenommen

4 Spezielle Erhebungs- und Untersuchungsverfahren in der Praxis

116

werden kann. In der Schwarzphase am Ende des regulären Werbefilms wird genauso unmerkbar auf den ursprünglich empfangenen Kanal zurückgeschaltet. Als Ergebnis dieser Prozedur sieht eine Gruppe von Haushalten (Testgruppe) die Testwerbung, während die andere Gruppe (Kontrollgruppe) auf demselben Kanal und zur selben Zeit die regulär ausgestrahlte Werbung empfängt. Es ist auf diese Weise möglich, die Wirkung der Werbung auf das Kaulverhalten der beiden Gruppen zu untersuchen. So kann z.B. die Frage beantwortet werden, welche Auswirkungen die Schaltung von mehreren TV-Spots auf die Entwicklung der Endverbraucherabsätze hat bzw. auf die Entwicklung der Marktanteile (Werbedrucküberprüfung)? •

Testvoraussetzungen - Einverständnis der Testhaushalte zur Überblendung von TV-Spots - Genehmigung der Markenartikelindustrie zur Überblendung ihrer regulär gebuchten TV-Spots - Bereitschaft der TV-Sender zur Mitarbeit im Testgebiet

Abbildung 43 Neuprodukteinführung mit hoher bzw. niedriger Werbung Quelle: GfK-Nürnberg



Testanlage Es handelt sich um eine Single-Source-Untersuchung, die die Überprüfung des gesamten Marketing-Mix unter kontrollierten und zugleich realen Marktbedingungen ermöglicht. Es sind Aussagen zur Produktpolitik, Preispolitik, Kommunikationspolitik und Verkaufsförderung möglich.

4.2 Tests und Testmarktforschung •

117

Erhobene Daten Im Mittelpunkt stehen die Daten des Haushaltspanels: Haushaltsebene: - Käuferreichweite - Struktur der Käufer - Wiederkaufsrate - Einkaufsintensität - Marktanteile - Marktsegmente - Käuferwanderungen BEHAVIORSCAN®-Vollständige Erfassung der Einkäufe des 3.500er Haushaltspanels

Verkaufsförderung am POS

Testprodukt Distribution, Preis und Platzierung durch GfK Kassen/Scanner

I GeschäftsInformationen

Single-Source-Daten

Verkaufsdaten

Testrealisation und Kontrolle durch GfK

HaushaltsInformationen Reales Einkaufsverhalten

Identifikationskarte Klassische Printwerbung . (HÖRZU)

Repräsentative TeÜlaushalte

TV-Werbung

Haushalte ohne Werbeüberblendung

(Überblendungsmöglichkeit) auf reichweitenstarken Sendern

Haushalte mit Werbeüberblendung

Verkaufsförderung Mailing/InhomeSampling/Couponing

Abbildung 44: Testanlage des Mikro-Testmarktes Behavior Scan Quelle: GfK-Nürnberg



Vorteile: - Test unter kontrollierten, realen Testbedingungen (biotische Testsituation) - Einbezug aller Marketing-Mix-Maßnahmen (insbesondere Preis- und Kommunikationspolitik) - Ausschaltung externer Störgrößen, hohe Validität der Ergebnisse - experimentelle Überprüfung der Wirkung von TV-Werbung - Erkenntnisse über die Aufnahmebereitschaft des Handels (Listung!) - Überprüfung von Instore-Aktivitäten - besonders geeignet für „schnell drehende" Konsumgüter - mit ML Retail Scan kombinierbar (Handelsdaten/größeres Testgebiet) - Erfahrungen aus über 300 Tests

4 Spezielle Erhebungs- und Untersuchungsverfahren in der Praxis

118 •

Nachteile: - relativ aufwendig und dadurch teuer, eher für große Markenartikler geeignet - nicht alle Absatzkanäle und alle Haushaltseinkäufe erfasst - keine verlässliche Aussage über Distributionsaufbau und -entwicklung - relativ lange Testdauer (bis zu einem Jahr) - nicht für alle Warengruppen geeignet - Übertestung des Standortes

4.2.5

Testmarktsimulation (Labortest)

Beim Testmarktsimulationsverfahren handelt es sich nicht um einen Markttest mit realen Kaufbedingungen, sondern um einen Studiotest mit künstlichen Versuchsbedingungen. D.h. es wird die Kaufsituation (unter Ausschluss der Öffentlichkeit und der Konkurrenz) simuliert. Ziel der Testmarktsimulation ist es, Prognosen über die zukünftige Akzeptanz des Testproduktes im Markt abzugeben, insbesondere über das zukünftige Absatzvolumen und den zukünftigen Marktanteil. Über Modellrechnungen werden diese Prognosedaten bereitgestellt (vgl. Böhler 2004, S. 56f; Günther et al. 2006, S. 319ff). In Deutschland bietet eine Reihe von Instituten standardisierte Verfahren an: TESI (GfK, Nürnberg) Microtest (Research International, Hamburg) Quartz (A.C. Nielsen, Frankfurt) Bases (Infratest Burke Marketingforschung, Frankfurt) Designor (M & E/Novaction, Frankfurt) Im Folgenden soll beispielhaft das Verfahren „TESI" der GfK-Nürnberg dargestellt werden, das als kombinierter Studio- und Home-use-Test angeboten wird. • Untersuchungsablauf: Phase 1: Anwerbung der Testpersonen (ca. 300 Vpn) nach vorgegebenen Quotenmerkmalen. Die Testpersonen sollen Verwender des Testproduktes sein. Die Anwerbung erfolgt in der näheren Umgebung des Teststudios. Phase 2: Einladung der Testpersonen zum Teststudio bzw. Testladen - Vorinterview: Erhebung der Markenbekanntheit und -Verwendung (Stamm-Marke). Ermittlung des bisherigen Einkaufsverhaltens und der Markenpräferenzen („relevant set"). Dies erfolgt anhand von Bewertungschips im Paarvergleich zwischen den relevanten Marken („Konstant-Summen-Methode"). Auf diese Weise erhält man Hinweise zur Bedarfsdeckungsrate.

4.2 Tests und Testmarktforschung

119

Anschließend wird die Einstellung der Probanden zu der relevanten Marke gemessen. Hierbei verfährt man nach einem Verfahren, das dem „FishbeinModell" vergleichbar ist. - Werbe- und Kaufsimulation: Vorführung von Werbung des Testproduktes und relevanter Konkurrenzmarken (TV und/oder Anzeigen). Anschließend Einkauf im „Testgeschäft" (Regalsituation wie in der Realität!). Einkauf der präferierten Marke anhand von Gutscheinen oder zur Verfügung gestelltem Bargeld. Auf diese Weise erhält man Hinweise auf das Erstkaufverhalten. Je nach Wahlentscheid bekommt die Vpn das Testprodukt plus bevorzugte Konkurrenzmarke oder die bisher präferierte Marke plus Testprodukt übergeben mit der Aufforderung, es zuhause zu testen. Phase 3: - Home-use-Test: Gebrauch und Verwendung des Testproduktes im Haushalt. Nach ca. 2 Wochen erneute Einladung ins Teststudio (Ausfallquote ca. 20 %). Phase 4: Es wird das Verwendungsverhalten erfragt (incl. evtl. Verbesserungsvorschläge). Danach erfolgt eine erneute Präferenzmessung aller Marken des „relevant sets". Es schließt sich eine erneute Kaufsimulation an, die Hinweise auf die Wiederkaufsbereitschaft/-rate geben soll. Außerdem werden wesentliche Likes und Dislikes abgefragt. •

Berechnung der Prognosedaten: Die Hauptaufgabe der folgenden Auswertung besteht darin, die gewonnenen Daten zur Berechnung des zukünftigen Marktanteils zu verwenden. Dies geschieht nach dem „Marktgesetz von Parfitt-Collins" (Gleichgewichtsmarktanteil): Erstkaufpenetration

*

deckungsrate

progn.

Kauf-

Bedarfsx

Intensität der Erstkäufer

=

Marktanteil

Dabei sind: - Erstkaufpenetration: Anteil der kumuliert erreichten Erstkäufer an den Gesamtkäufern der Warengruppe - Bedarfsdeckungsrate: Wiederkaufsmenge der Erstkäufer in der Folgeperiode als %-Anteil vom Gesamteinkauf der Warengruppe - Kaufintensität: Kaufintensität der Erstkäufer in Relation zu allen Käufern der Warengruppe Bestimmung von Intensiv- und Extensivkäufern

(z.B. 15,8 %)

(z.B. 55 %)

(z.B. 115 %)

4 Spezielle Erhebungs- und Untersuchungsverfahren in der Praxis

120 Beispiel:

0,158 χ 0,55 χ 1,15 = ca. 10 % Marktanteil Die Modellrechnung unterstellt einen 100% gestützten Bekanntheitsgrad und eine 100 % Distribution des Testproduktes. Diese Vorgaben sind nicht real, so dass in Bezug auf die zu erreichenden Größen (Bekanntheitsgrad/Distribution) Annahmen gemacht werden, die in die Berechnung einfließen (siehe Abb.).

HANDELS FORSCHUNG

Marktanteilsschätzung in der TESI-Stichprobe

Repräsentativer Markt

ERSTKAUFPENETRATION

mengen-

(Weitester Käuferkreis)

mäßige

IM STUDIO

BEDARFSDECKUNG

IM REALEN MARKT

KAUFINDEX

MARKTANTEIL {Basis: Anwendungen) •

Bei 100% gew. Distr.

Bei Annahme: gew.

gestützte

gest. Bek.

Distr.

Bekanntheit

Erreichbarkeitsfaktor:

30%

55%

5,6%

2,4%

40%

55%

7,5%

3,2%

50%

55%

9,4%

60%

55%

11,2%

27,3%

Ε = 0,3 D + 0,7 DB

Abbildung 45: Marktanteilsprognose nach Tesi Quelle: GfK-Nürnberg



Vorteile: - kostengünstige Methode (Testprodukte nur für Studio- und home-use-Test) - gute Geheimhaltung vor der Konkurrenz - umfangreiche Erfahrungen aus den USA und Deutschland (hohe Schätzgenauigkeit)



Nachteile: - keine validen Ergebnisse (Studiotest) - keine Realsituation (100 % Reichweite der Werbung, 100 % Distribution) - Sensibilisierung der Testpersonen (keine biotische Situation) - Justierung der Modellrechnung an Paneldaten (keine Übertragbarkeit)

4.3 Marken- und Markenwertforschung

4.3

Marken- und Markenwertforschung

4.3.1

Bedeutung der Marke

121

Zentrale Aufgabe des modernen Marketings sind Aufbau, Pflege und Vermarktung von Marken. Marketing heißt Marken machen! Durch Marketing wird aus einem anonymen Produkt ein individueller Markenartikel. Die Markenartikel-Strategie zielt darauf ab ein Kommunikationsmittel zu schaffen, mit dem beim Abnehmer bzw. Kunden Bekanntheit, Qualitätsvorstellungen, Differenzierungsmerkmale, Präferenzen und Bindungen erzeugt werden können. Speziell in übersättigten Märkten mit einem breiten Kommunikationsmix ist die Marke das entscheidende Instrument zur erfolgreichen Vermarktung von Produkten. Je mehr die Unternehmen in Ihre Marken investieren, desto häufiger stellt sich die Frage nach ihrem Wert. Dabei sind zwei Aspekte von Bedeutung: Zum einen interessiert der Wert einer Marke beim Verkauf und der Lizensierung. Hier steht der finanzielle bzw. monetäre Aspekt des Markenwertes im Vordergrund. Zum anderen interessiert der Wert einer Marke bei ihrer Führung und Kontrolle. Das Management will wissen, wie die Marke aus Sicht der Abnehmer zu bewerten ist. Hier steht der abnehmer- bzw. konsumentenorientierte Aspekt des Markenwertes im Vordergrund. Beide Ansatzpunkte haben zu unterschiedlichen Modellen und Verfahren in der Markenforschung geführt. Die meisten Verfahren sind Partialmodelle, die sich jeweils auf einen Aspekt der Markenbewertung konzentrieren.

4.3.2

Finanzorientierte Modelle

Die sog. finanzorientierten Modelle kennzeichnen den Wert einer Marke aus Sicht des Markeninhabers und zielen auf einen zu berechnenden finanziellen Wert ab (vgl. Drees 1999, S. 14, Irmscher 1997, S. 57f, Bekmeier 1994, S. 384, Koschnick 1999, S. 1.137). Kaas verwendet den Begriff „Brand Equity" und versteht darunter den „Barwert aller zukünftigen Einzahlungsüberschüsse, die der Eigentümer aus einer Marke erwirtschaften kann" (Kaas 1990, S. 48). Ähnlich Kern, der als Basis der Berechnung die durchschnittliche Umsatzerwartung pro Jahr heranzieht und diese unter Berücksichtigung der geschätzten Lebensdauer auf den gegenwärtigen Zeitpunkt abdiskontiert (vgl. Pepels 1996, S. 559). Allen finanzorientierten Definitionen ist gemeinsam, dass sie den Markenwert als einen zu berechnenden Geldwert bezeichnen. Sie unterscheiden sich hauptsächlich dadurch, ob sie zukunfts- oder vergangenheitsorientiert angelegt sind. In der EU müssen Unternehmen ihre Bilanzierung auf dem internationalen Standard IFRS vornehmen. Danach müssen immaterielle Vermögenswerte gesondert ausgewiesen werden, insbesondere der Wert von Marken. Kritisch ist derzeit zu sehen, dass es allein in Deutschland ca. 30 verschiedene Modelle zur Messung des Markenwertes gibt, die aber aufgrund ihrer unterschiedlichen Anlage zu abweichenden Ergebnissen für ein und dieselbe Marke kommen [vgl. Esch (Hrsg.) 2001, S. 377ff].

4 Spezielle Erhebungs- und Untersuchungsverfahren in der Praxis

122

Aus Sicht der Marktforschung sind diese Modelle weniger interessant, da sie sich eher auf die Bilanz- und Kostenproblematik beziehen. Sie geben keine Hinweise zur aktiven Führung einer Marke. BEST GLOBAL Rang 2007 1 2 3 4 I

5 6 8 9 10 13 34 43 54 68

Rang

BRANDS 2007 in Mio. Euro

Coca-Col a Microsoft

3 4

* * -· „- IBM GE

6 7

Nokia Toyota

5 9

:

II,IS f f Intel McDonald' s Disney Mercedes

10

74 71

Markenwer t

Unternehmen

2006 1 2

f f 15 34 44 56

a asatzwlr tschai f.

|

69 75 80 80 Neu Quelle Interbrand

47430 42626

1 1 41 451 . 37442 24465 23285 f§§ 22479 j 21 349 1 " 21223 17 075

+3 *2 +5 + 12 + 15 -4 +7

BMW SAP Siemens Volkswagen

15658 7 883 5621 4 730

+5 +8 + 10 +8 -1 +8

Audi Adidas

3525 3453

+ 17 + 11

Iü ü j

,

Veränderung in Prozent

Porsche Allianz

! 3078 I T 2 875

+8 Neu

Abbildung 46: Best Global Brands Quelle: Interbrand/Absatzwirtschaft 2007

4.3.3

Absatzorientierte Modelle

Im Gegensatz zu den finanzorientierten Modellen dienen die absatz- bzw. verhaltensorientierten Modelle primär der Markenführung. Es geht um die Wahrnehmung einer Marke aus dem Blickwinkel der Abnehmer, die schließlich in einer bestimmten Wertschätzung der Marke mündet (vgl. Sander 2001, S. 146). Typisch für diese Gruppe von Modellen ist es, dass sie die Marke nach verschiedenen Indikatoren oder Merkmalen bewerten, die in einem Gesamtwert (Punktzahl oder Prozentwert) zusammengeführt werden. Aus der Vielzahl von Modellen sollen im Folgenden drei vorgestellt werden, die in der Praxis von Bedeutung sind. Anbieter sind die Institute A.C. Nielsen, GfKNürnberg und icon added value [vgl. Esch (Hrsg.) 2001, S. 1041 ff].

4.3 Marken- und Markenwertforschung

123

4.3.3.1 A.C. Nielsen „Brand Performancer" Beim „Brand Performancer" handelt es sich um ein ganzheitliches Modell, bei dem sowohl eine finanzielle wie auch absatzorientierte Bewertung der Marke stattfindet (vgl. Nielsen 1994, S. 1f). Das Modell wurde an der TU-Berlin entwickelt und basiert auf der sog. „Markenbilanz" von Schulz und Brandmeyer (vgl. Schulz/Brandmeyer 1989, S. 366). Der Brand Performancer besteht aus vier wesentlichen Modulen, von denen der „Brand Monitor" das zentrale Element ist.

Abbildung 47: Modell des Brand Performancer Quelle: A.C. Nielsen 1994, S. 1



Brand Monitor: Der Brand Monitor misst über ein Scoring-Modell die Markenstärke. Dazu wird ein Katalog von Indikatoren verwendet, der sowohl marktbezogene als auch konsumentenbezogene Indikatoren beinhaltet. marktbezoqene Indikatoren

konsumentenbezogene Indikatoren



• • •

• • • •

Marktvolumen Marktwachstum Marktanteil Marktanteilsentwicklung gewichtete Distribution

Bekanntheitsgrad der Marke Marken im Relevant Set Markentreue

Die aufgeführten Einzelkriterien werden über das Scoring-Modell bewertet und zu einem Gesamtpunktwert zusammengefasst, der die jeweilige Markenstärke repräsentiert. Im Brand Monitor werden auch die relevanten Konkurrenzmarken erfasst und bewertet, so dass die Stärken einer Marke immer relativ zur Stärke der Wettbewerber gesehen wird.

124

4 Spezielle Erhebungs- und Untersuchungsverfahren in der Praxis



Brand Steering System: Das Brand Steering System soll die Markenführung aktiv unterstützen. Es erfolgt zunächst eine Stärken- und Schwächenanalyse des Marketing-Mix (Produkt, Preis, Distribution, Kommunikation). Die dazu benötigten Daten werden von dem untersuchten Unternehmen zur Verfügung gestellt oder von externen Instituten bezogen. Anschließend erfolgt eine strategische Markenpositionierung auf Basis einer Korrespondenzanalyse. Aufgabe dieser Analyse ist es, die derzeitige Position der Marke mit den strategischen Zielvorstellungen des Unternehmens zu vergleichen. • Brand Value System: Das Brand Value System bestimmt den Wert der untersuchten Marke in Geldeinheiten. Die Berechnung beruht auf dem Ertragswertverfahren (vgl. Nielsen 1994, S. 21). • Brand Control System: Über ein firmenindividuelles Kennzahlsystem wird der Erfolg operativer Marketingmaßnahmen überprüft. Dazu werden die Marketing-Investitionen in Bezug zur erreichten Markenstärke gesetzt. Durch das Kennzahlensystem kann das jeweilige Unternehmen aktuell auf Markt- und Wettbewerbsveränderungen reagieren. Der Brand Performancer hat den Vorteil, dass er die Marken aus mehreren Blickwinkeln bewertet, somit verschiedene Ansatzpunkte bietet, den Wert dieser Marke zu stärken. 4.3.3.2 GfK: „Brand Assessment System" (BASS) Das von der Gesellschaft für Konsumforschung, Nürnberg, angebotene Modell ist ein umfassender Markenbewertungsansatz, der aus einer erlösorientierten und einer konsumentenorientierten Komponente besteht. Die erlösorientierte Komponente dokumentiert sich im Markenerfolg („share of market"), die konsumentenorientierte Komponente in der Markenattraktivität („share of soul").

4.3 Marken- und Markenwertforschung

125

Markenerfolg Der Erfolg einer Marke wird mit Hilfe von Daten aus dem Verbraucherpanel abgebildet. Messgrößen sind die „Käuferreichweite" und die „Erste Wahl Käufer" (First Choice Buyer). Die Käuferreichweite bzw. Penetration (vgl. Kapitel 4.1.2.4) gibt den Anteil der Käufer an, der eine Marke mindestens einmal in einem bestimmten Zeitraum gekauft hat. Die „First Choice Buyer" (FCB) einer Marke sind diejenigen Käufer, die in der jeweiligen Produktgruppe die Marke am häufigsten kaufen. Eine hohe Käuferreichweite ist Voraussetzung für eine starke Position im Wettbewerbsumfeld (Marktanteil), eine hohe „FCB-Rate" ist die Grundlage für eine starke Markenbindung. Beide Faktoren sind maßgebliche Kriterien für den Erfolg einer Marke im Wettbewerbsumfeld (siehe folgende Matrix).

Käuferreichweite und FCB

Grafik 1: 60

i L

Coca-Cola φ Ja< obs < 50 N?

e

40 Persil

£

JS u

'S u

JM

SfH

Th
1). Die Eigenwerte werden berechnet als Summe der quadrierten Faktorladungen eines Faktors über alle Variablen. Wir können die Faktorladungsmatrix aus unserem Beispiel zur Berechnung der Eigenwerte und der Kommunalitäten heranziehen. Faktor I

(*)

Faktor II

Μ

Kommunalität

Xi

0,94331

(0,8898)

- 0,28039

(0,0786)

0,96845

X2

0,70669

(0,4994)

-0,16156

(0,0261)

0,52552

X3

0,92825

(0,8616)

-0,30210

(0,0913)

0,95292

X4

0,38926

(0,1515)

0,91599

(0,8390)

0,99056

X5

0,32320

(0,1045)

0,93608

(0,8762)

0,98070

Eigenwert

2,5068

1,9112

Der Eigenwert ergibt sich aus der vertikalen Summierung der quadrierten Faktorladungen pro Faktor; die Kommunalität aus der horizontalen Summierung der quadrierten Faktorladungen pro Variable. Nach dem Kaiser-Kriterium werden in unserem Beispiel also 2 Faktoren extrahiert, ein dritter Faktor hätte einen Eigenwert unter Eins (< 0,4). FAKTORINTERPRETATION Nachdem die Zahl der Faktoren bestimmt ist, müssen die gefundenen Faktoren sinnvoll interpretiert werden. Im Falle unseres Beispiels zeigt sich, dass der Faktor I besonders stark mit den Variablen Xi = Spritverbrauch x2 = Unterhaltskosten x3 = Wiederverkaufspreis korreliert, während der Faktor II besonders stark mit den Variablen Χ4 = Wendigkeit und x5 = Übersichtlichkeit korreliert. D.h. die ersten drei Variablen laden hoch auf den Faktor I, dagegen gering auf den Faktor II, und umgekehrt sind die Verhältnisse bei den Variablen vier und fünf. Wir haben es hier mit einer Einfachstruktur zu tun, die es auch relativ leicht macht, die Faktoren zu deklarieren, nämlich Faktor I

= Wirtschaftlichkeit und

Faktor II

= Stadttauglichkeit!

In der Praxis kommt es aber vor, dass mehrere Variable auf mehrere Faktoren gleich hoch laden, so dass eine Faktorinterpretation schwierig wird. Dieses Problem wird durch die sog. Faktorrotation gelöst. Dazu dreht man das Koordinatenkreuz in Punkt 0, bis die Faktorvektoren eine Einfachstruktur wiedergeben (siehe Beispiel).

5.6 Multivariate Verfahren

217

Damit wird die Interpretation erheblich leichter, ohne dass sich an den Beziehungen der Variablen untereinander etwas ändert oder an der Kommunalität. Würde man in unserem Beispiel die Faktorladungsmatrix um 90° rotieren, so ergeben sich die folgenden Werte! Die Faktorladungen sind gegenüber der Ausgangsmatrix noch höher geworden. Faktor I

Faktor II

Xi

0,98357

0,03229

X2

0,72152

0,07020

*3 Χ4

0,97615

0,00694

0,07962

0,99208

X5

0,01060

0,99025

5.6.6

Clusteranalyse

AUFGABE UND ZIELSETZUNG Unter einer Clusteranalyse versteht man ein Verfahren zur Gruppenbildung. Die Zielsetzung der Clusteranalyse besteht darin, die untersuchten Objekte (Personen, Produkte usw.) in Gruppen (Cluster) zusammenzuführen, so dass die Gruppen in sich möglichst homogen (in Bezug auf ausgewählte Merkmale), untereinander aber möglichst heterogen (in Bezug auf ausgewählte Merkmale) sind. Im Gegensatz zur Faktorenanalyse, die die Zahl der Variablen reduzieren hilft, will die Clusteranalyse die Zahl der Objekte komprimieren! Dabei stehen nicht mehr die Abhängigkeiten von Variablen im Vordergrund, sondern die Zusammenhänge zwischen untersuchten Objekten (Ähnlichkeit ihrer Merkmalsausprägungen). Im Gegensatz zur Diskriminanzanalyse, die a priori festgelegte Gruppen in Bezug auf signifikante Unterschiede hinsichtlich bestimmter Merkmale untersuchen will, geht es bei der Clusteranalyse erst einmal darum, Gruppen zu finden bzw. zu bilden. Im Rahmen der Marketingkonzeption liefert die Clusteranalyse wichtige Entscheidungshilfen für die Marktsegmentierung. Durch Bildung homogener Konsumentengruppen (anhand demografischer, psychografischer oder verhaltensbezogener Merkmale) können Hinweise für eine zielgruppenspezifische Marktbearbeitung gegeben werden (vgl. Kapitel 4.6). AUSGANGSDATEN Die Schwierigkeit einer Clusterbildung besteht darin, dass in der Praxis die Cluster nicht nur durch zwei Variablen charakterisiert werden können, sondern durch eine Vielzahl von Variablen (z.B. Alter, Einkommen, Haushaltsgröße, Kaufhäufigkeit, Preisbewusstsein). Da das menschliche Vorstellungsvermögen nicht ausreicht, mehr als 3 Merkmale gleichzeitig zu klassifizieren, muss ein Verfahren gefunden werden, das diese Aufgabe erfüllen kann; das ist die Clusteranalyse. (Vgl. Backhaus et al. 2003, S. 479ff; Berekoven et al. 2006, S. 221ff; Weis/Steinmetz 2005, S. 350ff.) Grundlage der Clusteranalyse ist zunächst eine Matrix, die die Objekte (z.B. Personen, Unternehmen) und die sie beschreibenden Variablen enthält.

5 Datenauswertung und -analyse

218 Variable 1

Variable 2

Variable k

Objekt 1 Objekt 2

Objekt η Im Inneren der Matrix finden wir die Variablenwerte, die metrisch (z.B. Einkommen) oder nicht metrisch (z.B. Geschlecht) ausgeprägt sein können. Diese Rohdatenmatrix muss nun in eine „Distanz- oder Ähnlichkeitsmatrix" überführt werden. Um dies zu erreichen, braucht man Maße, die eine Quantifizierung der Ähnlichkeit oder Distanz zwischen den Objekten ermöglichen; diese werden als „Proximitätsmaße" bezeichnet. Inhalt der neuen Matrix sind also Proximitätsmaße, die die Ähnlichkeit bzw. Distanz zwischen den aufgeführte Objekten darstellen. Objekt 1

Objekt 2

Objekt η

Objekt 1 Objekt 2

Objekt η PROXIMITÄTSMAßE Grundsätzlich lassen sich zwei Arten von Proximitätsmaßen unterscheiden, die immer auf einem Paarvergleich zwischen zwei Objekten beruhen: •

Ähnlichkeitsmaße sind Maßzahlen für die Ähnlichkeit zwischen zwei Objekten. Je größer der Wert, desto ähnlicher sind zwei Objekte. Ähnlichkeitsmaße werden insbesondere genutzt, wenn nominal skalierte (nicht metrische) Daten verglichen werden müssen. • Distanzmaße sind Maßzahlen für die Unähnlichkeit (Distanz) zwischen zwei Objekten. Je größer die Distanz, desto unähnlicher sind sich zwei Objekte. Die Distanzmaße setzen metrisches Messniveau voraus. Welches Proximitätsmaß verwendet wird, hängt also vom Skalenniveau der verwendeten Variablen ab. Die Praxis hat dazu verschiedene Koeffizienten bzw. Distanzmaße entwickelt.

5.6 Multivariate Verfahren

219 Proximitätsmaße

Ähnlichkeitsmaße

Distanzmaße

(nominal-/ordinal-

(intervall-/verhältnis-

skalierte Ausgangsdaten)

skalierte Ausgangsdaten)

nicht metrisch

metrisch

Tanimoto-Koeffizient

City-Block-Distanz

Simple Matching-Koeffizient

Euklidsche Distanz

ÄHNLICHKEITSMESSUNG Bei der Ähnlichkeitsmessung geht man in Form des Paarvergleiches vor, d.h. es werden immer zwei Objekte miteinander verglichen, ob ihre Merkmalsausprägungen übereinstimmen oder nicht. Werden z.B. zwei Objekte anhand eines Merkmals (Eigenschaft) verglichen, so ergeben sich vier grundsätzliche Möglichkeiten: - bei beiden Objekten ist die Eigenschaft vorhanden

(a)

- nur Objekt 2 weist die Eigenschaft auf

(b)

- nur Objekt 1 weist die Eigenschaft auf

(c)

- bei beiden Objekten ist die Eigenschaft nicht vorhanden

(d)

Objekt 2 Eigenschaft Objekt 1 Eigenschaft vorhanden (1) Eigenschaft nicht vorhanden (0) Spaltensumme

Zeilensumme

vorhanden (1)

Eigenschaft nicht vorhanden (0)

a

c

a+c

b a+b

d c+d

b +d m

Abbildung 89: Kombinationsmöglichkeiten binärer Variablen Quelle: Backhaus et al. 2003, S. 484

Der Simple-Matching-Koeffizient stellt die positiven und negativen Übereinstimmungen der Gesamtzahl der Kombinationsmöglichkeiten gegenüber. a+d m Der Tanimoto-Koeffizient lässt die negativen Übereinstimmungen außer Betracht, s=

a a+b+c Der Maßzahlbereich der beiden Koeffizienten liegt zwischen Null und Eins, wobei 0 = totale Unähnlichkeit und 1 = totale Ähnlichkeit bedeutet. Die auf diese Weise s=

5 Datenauswertung und -analyse

220

gefundenen Ähnlichkeitsmaße werden in der Ähnlichkeitsmatrix für die untersuchten Objekte aufgeführt! DISTANZMESSUNG Liegt bei den Ausgangsdaten metrisches Skalenniveau vor, so wird die Ähnlichkeit zwischen zwei Objekten durch Distanzmaße festgestellt. Ist die Distanz zwischen zwei Objekten klein, sind sie sich ähnlich; ist die Distanz groß, so sind sie sich unähnlich. Je geringer der Distanzwert, desto größer die Ähnlichkeit. m Es gilt: djk = £ ( x j : - x ki ) City-Block-Distanz i=1

- x ki ) 2

djk =

Euklidsche Distanz

djk = Distanz zwischen den Objekten (Personen) j,k = Objekt- (Personen-) index i

= Variablenindex

Folgende Ausgangsdaten sollen die Errechnung der Distanzmaße verdeutlichen. Befragt wurden 5 Personen mit jeweils zwei Variablen (deren Skalenwerte in der Ausgangsmatrix aufgeführt sind). Person

Variable a

Variable b

1

2

5

2

1

3

3

2

3

4

4

1

5

5

2

(entnommen aus Meffert 1992, S. 271) Bei der City-Block-Distanz werden für jedes Objekt- (Personen-) paar die Unterschiede zwischen den Variablen- (Eigenschafts-) paaren errechnet und aufsummiert. Die Summen stellen die Distanzwerte djk dar. Personen

1

2

3

4

5

1

3

2

6

6

2

-

1

5 4

5 4

-

2

3 4 5

-

-

Beispiel: d13 = (2 - 2) + (5 - 3) = 2 Bei der Verwendung der Euklidschen Distanz werden die errechneten Unterschiede je Variable- (Eigenschafts-) -paar quadriert, aufaddiert und die Wurzel gezogen. (In der folgenden Tabelle sind die quadrierten Werte enthalten!).

5.6 Multivariate Verfahren

221 2

3

4

5

1

5

4

20

18

2

-

1

13

17

8

10

Personen

1

3

-

4

2

5

-

Beispiel: d14 = d14 = ^ ( 2 - 4 ) 2 + ( 5 - 1 ) 2 = V l 8 = 4,47 Die Proximitätsmatrixen sind Grundlage der nun folgenden Clusterbildung. CLUSTERBILDUNG Im nächsten Schritt erfolgt die eigentliche Clusterbildung, wobei das entscheidende Problem darin besteht, die optimale Zahl an Clustern zu bestimmen. In der Praxis haben sich zwei Methoden herausgebildet: - d i e hierarchischen Verfahren und - die iterativen/partitionierenden Verfahren Clusterverfahren I hierarchische Verfahren agglomerativ

divisiv

I partitionierende Verfahren iterierte Minimaldistanz

Bei den hierarchischen Verfahren unterscheidet man zwischen agglomerativem und divisivem Verfahren. Beim aggiomerativen Verfahren bildet die feinste mögliche Gruppierung den Ausgangspunkt (jedes Objekt bildet ein eigenes Cluster) und führt schließlich zu einer Zusammenfassung von Gruppen. Beim divisiven Verfahren hingegen bildet die gröbste mögliche Gruppierung (alle Untersuchungsobjekte in einem Cluster) den Ausgangspunkt und führt im Lauf des Verfahrens zu einer Aufteilung der Gesamtheit in Gruppen. Im Folgenden soll der Ablauf der hierarchischen und partitionierenden Verfahren kurz dargestellt werden. HIERARCHISCHE VERFAHREN Das in der Praxis am häufigste hierarchische Verfahren (agglomerativ) ist das sog. „Simple-Linkage-Verfahren". Der Ablauf des Verfahrens lässt sich in Schritten darstellen. (Vgl. Backhaus et al., 2003, S. 503f) 1. Schritt: Man startet mit der feinsten möglichen Gruppierung, d.h. jedes Objekt bildet ein eigenes Cluster.

5 Datenauswertung und -analyse

222 2. Schritt:

Man berechnet für alle untersuchten Objekte die Distanz (siehe Matrix mit den quadrierten Euklidschen Distanzmaßen). 3. Schritt: Aus der Matrix werden die beiden Objekte (Cluster) mit der geringsten Distanz (größte Ähnlichkeit) herausgesucht. 4. Schritt: Die beiden Objekte mit der geringsten Distanz werden zu einem neuen Cluster zusammengefasst. Aus den Merkmalsausprägungen wird das arithmetische Mittel gebildet, das den Mittelpunkt des neuen Clusters darstellt. 5. Schritt: Es werden die Distanzen zwischen dem neuen und den restlichen Objekten (Clustern) errechnet. Anschließend wird mit dem 3. Schritt fortgefahren, bis schließlich alle Objekte in einem Cluster zusammengefasst sind. Die optimale Zahl der Cluster richtet sich u.a. nach der Forderung in sich homogener und nach außen heterogener Gruppen. Die Vorteile des hierarchischen Verfahrens liegen darin, dass der Ablauf des Verfahrens (Clusterung) grafisch dargestellt werden kann (im Dendrogramm), somit jederzeit nachvollziehbar ist. Darüber hinaus ist vorteilhaft, dass keine Vorgabe der Clusterzahl notwendig ist und kein formales Abbruchkriterium existiert. PARTITIONIERENDE VERFAHREN Die partitionierenden Verfahren gehen grundsätzlich von einer vorgegebenen Gruppeneinteilung aus und versuchen, durch Verlagerung der Objekte in andere Gruppen zu besseren Lösungen zu kommen. Hinzu kommt, dass diese Verfahren die Objekte nicht sukzessiv (wie die hierarchischen Verfahren), sondern simultan zu gruppieren versuchen. Die Güte einer modifizierten Aufteilung wird anhand einer Zielfunktion überprüft. Ziel ist es, die Distanzen der Objekte in einem Cluster zum jeweiligen Clustermittelpunkt (Zentroid) zu minimieren. SQS

->•

min!

D.h. die Summe der quadrierten Distanzen (SQS) wird minimiert, da eine Gruppe umso homogener ist, je geringer die Abstände der Elemente einer Gruppe von ihrem Mittelpunkt (Zentroid) sind.

5.6 Multivariate Verfahren

223

Abbildung 90: Dendrogramm des Single-Linkage-Verfahrens Quelle: Berekoven et al. 2001, S. 224

1. Schritt: Es wird eine Ausgangsgruppierung vorgegeben. 2. Schritt: Es wird pro Gruppe für jede Eigenschaft das arithmetische Mittel errechnet. 3. Schritt: Man ermittelt für die Ausgangsgruppierung die Abweichungsquadratsumme (Zielfunktion). 4. Schritt: Es wird geprüft, ob die Verlagerung eines Objektes das Zielkriterium vermindern kann. 5. Schritt: Das Objekt, das eine maximale Veränderung des Zielkriteriums herbeiführt, wird in die entsprechende Gruppe ausgelagert. 6. Schritt: Für die empfangende und die abgebende Gruppe müssen nun Mittelwerte errechnet werden. Das Verfahren wird solange fortgesetzt, bis sich durch Verlagerung von Objekten die Zielfunktion nicht mehr verbessert. INTERPRETATION DER CLUSTER Die gefundenen Cluster werden zum Abschluss der Analyse interpretiert. Dabei orientiert man sich an den Variablen, die man ursächlich zur Clusterbildung herangezogen hat. Auf diese Weise ist in der Regel eine „typisierende Beschreibung" der Cluster möglich. Insbesondere bei der Marktsegmentierung, wo Personen mit ähnlichen Eigenschaften und Verhaltensweisen zu Zielgruppen zusammengefasst werden, kommt der exakten Beschreibung der Segmente/Cluster eine besondere Bedeutung zu. Die Zielgruppenbeschreibung ist Grundlage für die Arbeit des Marketings, insbesondere im Bereich der Produkt- und Kommunikationspolitik.

5 Datenauswertung und -analyse

224

5.6.7

Multidimensionale Skalierung (MDS)

AUFGABE UND ZIELSETZUNG Das Grundprinzip der MDS besteht darin, Objekte (z.B. Marken) in einem mehrdimensionalen Raum so zu positionieren, dass die geometrische Nähe die Ähnlichkeit (Distanzen) der Objekte wiedergibt. Dabei versucht man, die Dimensionen des Raumes auf möglichst drei zu begrenzen. Um die Positionen von Objekten im Wahrnehmungsraum einer Person zu bestimmen, gibt es grundsätzlich zwei Möglichkeiten: - über die Messung relevanter Eigenschaften (z.B. über Ratingskalen) und die Bestimmung daraus resultierender Dimensionen (z.B. über die Faktorenanalyse) - oder die Messung von Ähnlichkeiten zwischen den Objekten, wobei die Auskunftsperson lediglich die subjektiv empfundene Ähnlichkeit oder Unähnlichkeit zwischen den Objekten schätzen muss. Letztere Möglichkeit ist Grundlage der MDS. Im Unterschied zu anderen multivariaten Verfahren werden also keine spezifizierten Merkmale vorgegeben. Die relevanten Eigenschaften/Merkmale können unbekannt sein. In der Marketingforschung wird die MDS immer dann angewendet, wenn z.B. Marken von Untersuchungspersonen auf ihre Ähnlichkeit oder Unähnlichkeit untersucht werden sollen und das Ergebnis in einer niedrigdimensionierten Abbildung (Positionierungsmodell) dargestellt werden soll (vgl. Backhaus et al. 2003, S. 605ff, Berekoven et al. 2006, S. 223ff). GRUNDPRINZIP Das Grundprinzip der MDS lässt sich am einfachsten anhand des folgenden Beispiels erklären, nämlich der Positionierung von Städten im zweidimensionalen Raum. Die zwei Dimensionen sind die Achsen Nord/Süd und West/Ost. Die Anordnung der Städte soll anhand der Entfernungsdistanzen ihre tatsächliche Lage zueinander möglichst exakt wiedergeben. Ausgangspunkt ist die Entfernungsmatrix zwischen den Städten. Orte Berlin Bremen Frankfurt Hamburg Hannover Köln München Nürnberg Stuttgart

Berlin

Bremen

Frankfurt

Hamburg

Hannover

Köln

München

Nürnberg

Stuttgart

380

555 470

265 120 490

280 125 360 155

570 315 190 420 290

585 755 400 780 635 580

435 580 225 610 465 410 170

625 670 215 695 555 375 220 190

-

-

Abbildung 91: Entfernungsmatrix deutscher Städte Quelle: Berekoven et al. 2006, S. 223

-

-

-

-

-

5.6 Multivariate Verfahren

225

Die Positionierung der Städte im Ordinatenkreuz hat die 36 Distanzwerte in einer übersichtlichen Abbildung verdichtet (siehe Positionierungsmodell). Damit ist das wesentliche Ziel der MDS erreicht. Bei dem aufgezeigten Beispiel ist allerdings zu berücksichtigen, dass die Daten metrisches Skalenniveau haben. Es kommt aber häufig vor, dass die Ausgangsdaten nicht metrisch skaliert sind. In diesen Fällen sind sog. Ähnlichkeitsmatrixen Ausgangspunkt der weiteren Überlegungen. •Ν Ο Hamburg Bremen Ο

Ο Ο Hannover

Berlin

Ο

O Köln

Ο Frankfurt

Ο Nürnberg

Stuttgart Ο Ο München

Abbildung 92: Räumliche Positionierung deutscher Städte Quelle: Berekoven et al. 2006, S. 224

MESSUNG VON ÄHNLICHKEITEN Für die Durchführung einer MDS mit nicht metrischen Daten muss zunächst die subjektive Wahrnehmung der Ähnlichkeit von Objekten gemessen werden. Dazu müssen die Ähnlichkeitswertungen der Befragten erhoben werden, wobei sich diese Wertungen immer auf Beurteilung von zwei Objekten (Paarvergleich) beziehen. Diese Vorgehensweise hat den Vorteil, dass den Befragten keine spezifischen Eigenschaftskriterien vorgegeben werden, die u.U. für die Objektbewertung keine Rolle spielen. Auch die Bedeutung der Eigenschaften für die Bewertung bleibt außer Acht, da die Gewichtung von Person zu Person unterschiedlich ausfallen kann. Einzig relevant ist die subjektive Feststellung der Befragten, ob sich die Objektpaare ähnlich sind oder nicht. Die beiden am häufigsten verwendeten Methoden zur Messung von Ähnlichkeiten sind die „Rangreihung" und das „Ratingverfahren". • Rangreihung Bei diesem Verfahren werden den Befragten Kärtchen mit Objektpaaren (z.B. 2 Marken) vorgegeben. Sie werden gebeten, die Kärtchen bzw. Objektpaare nach der empfundenen Ähnlichkeit zu ordnen, und zwar in der Weise, dass sie nach aufsteigender oder abfallender Ähnlichkeit in eine Rangfolge gebracht werden. Bei zehn zu bewertenden Objekten ergeben sich z.B. 45 Objektpaare, die in eine Rangfolge gebracht werden müssen, wobei 1 das ähnlichste Paar ist und 45 das unähnlichste Paar.

5 Datenauswertung und -analyse

226 •

Ratingverfahren Dem Befragten wird eine zweipolige Ratingskala vorgelegt. (Z.B. die Marken A und Β sind ... sehr ähnlich/sehr unähnlich). Auf diese Weise werden alle interessierenden Objektpaare über eine 7-stufige Skala bewertet. Die erhobenen Werte der Rangreihung oder des Ratingverfahrens werden dann in einer Dreiecksmatrix zusammengefasst. FESTLEGUNG DER KONFIGURATION Im nächsten Schritt sollen nun die Objekte in einem möglichst gering dimensionierten Raum positioniert werden (Anordnung der Objekte im geometrischen Raum). Dabei gilt die Bedingung, dass ähnliche Objekte eine geringe Distanz und unähnliche Objekte eine große Distanz aufweisen. In der gesuchten Konfiguration sollte die Rangfolge der Distanzen zwischen den Objekten möglichst gut die Rangfolge der Ähnlichkeiten/Unähnlichkeiten wiedergeben (Monotoniebedingung). 1. Schritt: Es wird eine Startkonfiguration in das EDV-Programm eingegeben, d.h. die Koordinatenwerte aller Objekte werden im mehrdimensionalen Raum bestimmt. 2. Schritt: Es werden die Distanzen zwischen den Objekten mit Hilfe eines Distanzmaßes bestimmt (in der Regel mit dem Euklidschen Distanzmaß). 3. Schritt: Es wird die Monotoniebedingung überprüft, d.h. es wird ein Vergleich der Distanzrangfolge mit der Ähnlichkeitsrangfolge durchgeführt. Dies erfolgt mathematisch dadurch, dass die Relationen der Distanzen zwischen den Positionen der Produktpaare und ihrer Ähnlichkeitsränge eine Funktion bilden, die monoton ansteigen soll. Inwieweit dies durch die jeweilige Konfiguration erfüllt wird, misst der sog. Stresswert (S). I z h - i f ij d,j = Euklidsche Distanz des Objektes i vom Objekt j dy = tatsächlicher Ähnlichkeitsabstand des Objektes i vom Objekt j Die optimale Konfiguration liegt vor, wenn S bei einer vorgegebenen Zahl von Dimensionen ein Minimum annimmt! Für die Beurteilung der Monotoniebedingung gilt folgende Faustregel: Stresswert >0,4 0,2 0,1 0,05 0

Bewertung der Konfiguration schlecht mäßig gut ausgezeichnet perfekt

5.6 Multivariate Verfahren

227

(A,D)

d,J

A

(A,D) (A,C).

(A,B)

W ) >(C,D) (B,C)

Monotoner Zusammenhang

Nicht-monotoner Zusammenhang

Abbildung 93: Anpassung der Distanzen an die Ähnlichkeiten Quelle: Berekoven et al. 2001, S. 228

4. Schritt: Die jeweilige Konfiguration wird solange verändert, bis der Stresswert einem vorgegebenen Wert entspricht oder es erfolgt ein Abbruch der Operation. 5. Schritt: Liegt die erste Konfiguration vor, beginnt der Iterationsprozess von neuem. Die Zahl der Durchläufe hängt von der Anzahl der Dimensionen ab. Aus den schließlich für verschiedene Dimensionen vorliegenden Lösungskonfigurationen muss die optimale ausgewählt werden. Obwohl der Stresswert mit jeder zusätzlichen Dimension abnimmt (also eine bessere Reproduktion der Ähnlichkeitsbeziehungen ermöglicht), verzichtet man in der Praxis auf möglichst viele Dimensionen, um der Forderung nach geringer Dimensionalität der Darstellung Rechnung zu tragen. INTERPRETATION DER DIMENSIONEN Ein wesentliches Problem der MDS ist die Interpretation der Dimensionen. Dieses Problem kennen wir schon von der Faktoren- und Clusteranalyse. Zur Lösung werden 3 Vorgehensweisen empfohlen. •

Expertenbeurteilungen Die Dimensionen des Positionierungsmodells werden durch Experten inhaltlich interpretiert.



Vektorenrotation Ähnlich wie bei der Faktorenanalyse kann man die Dimensionen (Vektorachsen) rotieren, um die Interpretation zu erleichtern. D.h. die Dimensionen bzw. die Achsen werden im Koordinatensystem so rotiert, dass sie nahe bei den Objektgruppen liegen.



Idealpunktmodell Zusätzlich zur Positionierung von Objekten aufgrund ihrer Ähnlichkeit, kann auch eine Positionierung nach den Präferenzen erfolgen. Dazu werden die Versuchspersonen nach ihrer jeweiligen Bevorzugung der Objekte befragt und eine

5 Datenauswertung und -analyse

228

entsprechende Rangfolge erstellt. Der Idealpunkt markiert die von einer Person als ideal empfundene Kombination von Eigenschaften. Es gilt: je geringer die Distanz eines Objektes zum Idealpunkt ist, desto größer ist die Präferenz der Personen für dieses Objekt. X2 1,4

Idealpunkt

1,2 1,0

Isopräferenzlinien

0,8

0,6 0,4

0,2 0,2 0,4 0,6 0,8 1,0 1,2 1,4

Xt

Abbildung 94: Vektormodell der Präferenz: Präferenz-Vektor und Iso-Präferenz-Linien im Idealpunktmodell Quelle: Backhaus et al. 2003, S. 644

Die MDS wird in der Marketingpraxis insbesondere bei der strategischen Positionierung von Marken und zum Auffinden von Marktnischen angewendet!

5.6.8

Conjoint Measurement (CM)

ZIELSETZUNG Das Verfahren des CM ermöglicht es, Präferenzen bzw. Nutzenvorstellungen von Personen bezüglich alternativer Produkt-/Markenkonzepte zu erklären, zu beeinflussen und vorherzusagen. Im Gegensatz zu anderen multivariaten Verfahren werden beim CM nicht Einzelurteile über bestimmte Objekteigenschaften zu einem Gesamturteil zusammengeführt (kompositioneller Ansatz), sondern es werden Gesamturteile zu alternativen Produktkonzepten erhoben (Gesamtnutzenwert), aus denen der Beitrag einzelner Eigenschaften (Teilnutzenwert) zum Gesamturteil bestimmt wird (dekompositioneiler Ansatz). Es wird also unterstellt, dass sich der Gesamtnutzen additiv aus den Teilnutzen zusammensetzt. Der besondere Vorteil des CM liegt in 2 Punkten begründet: - es ist ein ganzheitlicher Ansatz! D.h. das CM geht davon aus, dass jedes Individuum Produkte/Marken ganzheitlich in Bezug auf seinen Gesamtnutzen beurteilt. Der Gesamtnutzen ist gewissermaßen ein „Kompromiss" aus der Bewertung der einzelnen Produkteigenschaften und ihrer Ausprägungen. - es ist ein prognostischer Ansatz\ Das CM weist nach, welchen Beitrag spezifische Eigenschaften (Teilnutzenwerte) zum Gesamtnutzen eines Produktes liefern.

5.6 Multivariate Verfahren

229

Dies ist wichtig bei der Neueinführung von Produkten und Produktrelaunches, da das Marketing bei der Gestaltung der Produkte wissen muss, welche Produkteigenschaften (und in welchen Ausprägungen) für den Wahlentscheid der Verbraucher relevant sind. Damit lässt sich voraussagen, welche Produktkonzepte im Markt eine Chance haben (vgl. Backhaus et al. 2003, S. 543ff; Weis/Steinmetz 2005, S. 376ff). EIGENSCHAFTEN UND IHRE AUSPRÄGUNGEN Der erste Schritt bei der Anwendung des CM ist die Bestimmung der Objekt-/ Produkt-Eigenschaften. Auf diese Eigenschaften beziehen sich später die Teilnutzenwerte. Dabei müssen folgende Gesichtspunkte berücksichtigt werden: - Die Eigenschaften müssen relevant sein, d.h. Bedeutung für den Kaufentscheid der Konsumenten haben. - Die Eigenschaften müssen beeinflussbar und realisierbar sein. D.h. die Eigenschaften müssen so variierbar sein, dass sie Gegenstand der Produktgestaltung sein können. Sie sollten außerdem technisch realisierbar sein. - Die Eigenschaften sollten unabhängig sein, d.h. der Nutzen einer Eigenschaft sollte nicht durch den Nutzen einer anderen Eigenschaft beeinflussbar sein. Ein Verstoß gegen diese Bedingung widerspricht dem additiven Modell des CM. - Die Eigenschaften sollten in einer kompensatorischen Beziehung zueinander stehen. Das bedeutet, dass in der subjektiven Wahrnehmung der Konsumenten die Nutzenänderung einer Eigenschaft (z.B. höherer Preis) durch eine Nutzenänderung einer anderen Eigenschaft (z.B. bessere Qualität) kompensiert werden kann. Innerhalb des Gesamtnutzenwertes = 100 % können die Anteile der Teilnutzenwerte durch Kompensation variieren! - Die Anzahl der Eigenschaften sollte begrenzt sein, da der Befragungsaufwand exponentiell mit der Zahl der Eigenschaften wächst. - Die Eigenschaften brauchen lediglich ordinal skaliert sein. Beispiel: Auto Eigenschaften:

Ausprägungen

Preis Benzinverbrauch

= 30.000 € = 12 Liter

50.000 € 14 Liter

Zubehör

= wenig Zubehör

viel Zubehör-

80.000 € -

ERHEBUNGSMETHODEN In der Praxis haben sich zwei Methoden zur Erhebung der Ausgangsdaten durchgesetzt: die „Profilmethode" (Full Concept Approach) und die „Zwei-Faktor-Methode" (Pairwise Trade Off Approach). Profilmethode Bei dieser Methode werden vollständige Produktkonzepte unter Einbeziehung aller Produkteigenschaften vorgelegt. Die denkbaren Kombinationen der Eigenschaftsausprägungen werden auf Kärtchen den Befragten vorgelegt, wobei sie aufgefordert werden, eine Rangfolge aller vorgelegten Produktkonzepte zu bilden. Für unser Auto-

5 Datenauswertung und -analyse

230

Beispiel ergeben sich bei drei Eigenschaften mit jeweils zwei bzw. drei Ausprägungen 2 x 2 * 3 = 12 Konzepte. So kann z.B. ein denkbares Konzept lauten: (Preis = 30.000 €/Benzinverbrauch = 12 Liter/Zubehör = wenig) Zwei-Faktor-Methode Bei dieser Methode, die auch „Trade Off Analyse" genannt wird, werden jeweils Eigenschaftspaare zur Bewertung vorgelegt. Für jedes denkbare Paar wird eine sog. Trade-Off-Matrix erstellt. Man erhält damit bei η Eigenschaften

Matrizen. In

unserem Autobeispiel gibt es 3 Matrizen (Preis/Benzinverbrauch, Preis/Zubehör, Benzinverbrauch/Zubehör), wobei innerhalb der Matrix die jeweiligen Ausprägungen der beiden Eigenschaften miteinander verglichen und in eine Rangfolge gebracht werden müssen. Die Zwei-Faktor-Methode ist für die Befragten einfacher zu handhaben, da sie immer nur zwei Eigenschaften gegeneinander abwägen müssen. Die Profilmethode ist zwar realitätsnäher, verlangt aber vom Befragten ein hohes Differenzierungsvermögen, da nicht einzelne Eigenschaften, sondern Konzepte (Eigenschaftsbündel) miteinander verglichen werden. SCHÄTZUNG DER NUTZENWERTE In unserem Auto-Beispiel haben wir 3 Eigenschaften, die wir mit Α, Β zeichnen wollen (A = Preis, Β = Verbrauch, C = Zubehör). Um den im dargestellten Rechenvorgang zu vereinfachen, beschränken wir uns auf Eigenschaften Α und Β mit jeweils 3 bzw. 2 Ausprägungen. Die daraus Eigenschaftspaare sind: I

=

A1/B1 30.000 €/12 Liter

II

=

A1/B2 30.000 €/14 Liter

III

=

A2/B1 50.000 €/12 Liter

IV

=

A2/B2 50.000 €/14 Liter

V

=

A3/B1 80.000 €/12 Liter

VI

=

A3/B2 80.000 €/14 Liter

und C beFolgenden die beiden denkbaren

Die relevanten Eigenschaftspaare müssen nun von den Befragten nach dem jeweils empfundenen Nutzen in eine Rangreihe gebracht werden (wobei Gleichabständigkeit der Ränge unterstellt wird, d.h. metrisches Skalenniveau). Es gilt: 1 = geringer Nutzen und 6 = sehr hoher Nutzen! Daraus ergibt sich folgende Rangwertmatrix (entnommen aus: Backhaus et al. 2003, S. 557). Eigenschaft Β Eigenschaft A

1

2

1

2

1

2

3

4

3

6

5

5.6 Multivariate Verfahren

231

Unterstellt man, dass die Addition der Teilnutzen den Gesamtnutzen ergibt, so sollen sich folgende Funktionen für die Gesamtnutzenwerte bilden; wobei ß die einzelnen Teilnutzenwerte darstellt. yi = ßA1 + ßß1 yil = ßA1 + ßß2 ym = ßA2 + ßß1 yiV = ßA2 + ßB2 yv = βA3 + ßß1 yvi = βA3 + ßß2

Die Funktionen werden noch um eine Konstante μ erweitert, so dass sich die Funktion y = M + ß A + ßB

ergibt. Die Konstante μ ist gewissermaßen der Basisnutzen, von dem die Eigenschaftsausprägungen positiv oder negativ abweichen. Die Summe der empirischen Rangwerte aus unserem Beispiel ergibt 1 + 2 + 3 + 4 + 5 + 6 = 21. Der „Durchschnittsrang" beträgt 2 1 : 6 = 3,5. Als nächstes wird für jede Eigenschaftsausprägung der durchschnittliche Rangwert ermittelt. Aus unserer Matrix ersehen wir, dass z.B. für die Eigenschaftsausprägung A1 die Rangwerte 2 und 1 gegeben wurden, der durchschnittliche Rangwert beträgt also 3 : 2 = 1,5. Der Teilnutzenwert der Eigenschaftsausprägung Ai wird aus der Differenz zwischen dem Durchschnittsrang 3,5 und der durchschnittlichen Ausprägung von Ai = 1,5 errechnet, also 1,5 - 3,5 = - 2,0 (negativ, da der Wert von A1 hinter dem Durchschnittswert zurückbleibt). Entsprechend wird mit jeder Eigenschaftsausprägung verfahren. Daraus ergibt sich die folgende Matrix, wobei ßA und ßB die durchschnittlichen Rangwerte der Eigenschaftsausprägungen von Α und Β darstellen und β den Durchschnittsrang aller Rangwerte darstellt. Eigenschaft B1 Eigenschaft A

PB Pb-P

B2

PA

PA-P

1,5

-2,0

0,0

3

4

3,5

0,0

6

5

5,5

2,0

3,6667

3,333

3,5

0,1667

-0,1667

1

2

2 3

5 Datenauswertung und -analyse

232 μ

=

3,5

βΑι

=

-2,000

β„ι

=

β« =

0,000

ßB2

=-0,1667

ßA3 =

2,000

0,1667

Für das Eigenschaftspaar y, ergibt sich damit ein Gesamtnutzenwert von yi = 3,5 + (-2,0) + 0,1667 = 1,6667 Eigenschaftspaare

subj. Rangwert

Gesamtnutzenwert

I

2

1.6667

II

1

1.3333

III

3

3.6667

IV

4

3.3333

V

6

5.6667

VI

5

5.3333

21

21.000

Das bisherige Beispiel bezieht sich auf die Nutzenstruktur einer einzelnen Person. Will man die Analysen verschiedener Personen miteinander vergleichen, so müssen Daten vergleichbar gemacht, d.h. normiert werden. Dadurch soll sichergestellt werden, dass die errechneten Teilnutzenwerte für alle Befragten auf dem gleichen „Nullpunkt" basieren. Dazu wird der Gesamtnutzenwert des am stärksten präferierten Eigenschaftspaares bei allen Befragten auf 1 gesetzt. Die absolute Höhe der Teilnutzenwerte lässt auf die Bedeutsamkeit einer Eigenschaftsausprägung auf den Gesamtnutzen einer Eigenschaftskombination schließen. Sie lässt aber keine Aussage über die relative Wichtigkeit einer Eigenschaft zur Gesamtpräferenz zu. Die relative Wichtigkeit einer Eigenschaft wird aus der Spannweite, d.h. aus der Differenz zwischen dem höchsten und wichtigsten Teilnutzenwert der verschiedenen Ausprägungen einer Eigenschaft berechnet. So könnten in unserem Auto-Beispiel die relativen Wichtigkeiten der 3 Eigenschaften so aussehen (fiktiv!): Spannweite Preis

1.000 - 0.000

Verbrauch

0.776 - 0.222 0.575 - 0.432

Zubehör Summe:

Nutzenanteil 1.000 0.554

58,6 %

0.152

8,9 %

1.706

100,0%

32,5 %

D.h. der Preis ist die bestimmende Eigenschaft für die Präferenzbildung der Befragten. Die Conjoint Analyse kann für jeden einzelnen Befragten oder auf aggregiertem Niveau vollzogen werden.

5.7 Statistische Prüfverfahren

233

In der Regel ist es für den Anbieter ausreichend, wenn er die durchschnittliche Nutzenstruktur seiner potentiellen Käufer oder Zielpersonen kennt. Sind die Teilnutzenwerte wie oben dargestellt „normiert", so lassen sich die individuellen Teilnutzenwerte je Eigenschaftsausprägung durch Mittelwertbildung über alle Personen aggregieren.

5.7

Statistische Prüfverfahren

Die bisher dargestellten Methoden und Verfahren stammen aus der deskriptiven bzw. beschreibenden Statistik. Nunmehr werden einige Verfahren aus der induktiven Statistik bzw. Prüfstatistik vorgestellt. Die verschiedenen Verfahren haben primär die Aufgabe zu überprüfen, ob die erhobenen Daten aus einer Stichprobenerhebung (ad random) sich verallgemeinern lassen bzw. Schlüsse auf die Grundgesamtheit zulassen. Es kann aber auch geprüft werden, ob ein spezifisches multivariates Analyseverfahren zulässig ist oder nicht. Der Einsatzbereich der Prüfstatistik ist sehr groß, so dass im Folgenden nur auf die - Parametertests und - Anpassungstests eingegangen wird. Ansonsten wird auf die einschlägige statistische Literatur verwiesen (Bourier, Clauss/Ebner, Cochran, Kellerer, Kobelt, Weber, Buttler/Fickel usw.).

5.7.1

Grundlagen der Prüfverfahren

Ausgangspunkt statistischer Tests ist die Prüfung von Hypothesen, die zu einem bestimmten Sachzusammenhang aufgestellt werden. Voraussetzung für den Einsatz der statistischen Prüfverfahren ist das Vorliegen von Daten aus einer Zufallsstichprobe. Die zu überprüfende Hypothese (Annahme) wird als Nullhypothese (Ho) bezeichnet. Aufgabe des Prüfverfahrens ist es zu klären, ob die Hypothese abzulehnen (zu verwerfen) ist oder nicht. Die Nullhypothese drückt aus, dass sich zwei Stichproben (bzw. die Ergebnisse aus ihnen) nicht „echt", sondern „nur zufällig" voneinander unterscheiden; d.h. evtl. Differenzen zwischen den Kennwerten (z.B. Mittelwerten) sind allein auf Zufallseinflüsse zurückzuführen. Dazu ein Beispiel (entnommen aus Clauss/Ebner 1972, S. 169): Die Hypothese (H0) lautet: Der durchschnittliche Zeitverbrauch μ zur Lösung einer technischen Denkaufgabe ist bei Jungen und Mädchen gleich! H 0 = MJ - Mm = 0 Um die Hypothese zu prüfen, lässt man die Denkaufgabe von zwei ausreichend großen Stichproben mit Jungen und Mädchen lösen und ermittelt den 0 Zeitverbrauch in jeder Gruppe. Unterscheiden sich die gemessenen Mittelwerte nur wenig, können wir zufällige Abweichungen vermuten, d.h. die Nullhypothese beibehalten. Ist die Differenz zwischen den Mittelwerten groß, so ist die Annahme, beide Stichproben gehören der selben Grundgesamtheit an, unwahrscheinlich; d.h. wir müssen

234

5 Datenauswertung und -analyse

die Nullhypothese zurückweisen. Für diese Entscheidung dienen gewisse Prüfgrößen als Kriterium. Der gesamten Prüfstatistik liegt demnach der Gedanke zugrunde: nur dann, wenn die Stichproben Ergebnisse liefern, die bei Gültigkeit der Ausgangshypothese unwahrscheinlich sind, verwerfen wir die Hypothese! Die Entscheidung, ob der zu prüfende Wert (Prüfgröße) abzulehnen oder nicht abzulehnen ist, hängt davon ab, in welchen Bereich der jeweiligen Prüffunktion er fällt. Die Nullhypothese wird dann angenommen, wenn die Prüfgröße mit der Wahrscheinlichkeit 1 - α in den „Annahmebereich" und mit der Wahrscheinlichkeit α in den „kritischen Bereich" fällt (siehe Abb.). Φ)

i

Abbildung 95: Prüffunktion mit zweiseitigem Annahmebereich Quelle: Clauss/Ebner 1972, S. 175

Die Wahrscheinlichkeit eine richtige Nullhypothese abzulehnen, beträgt somit α. Dieser Fehler wird als „Fehler erster Art" oder α-Fehler bezeichnet. Wird eine falsche Hypothese angenommen, so spricht man vom "Fehler zweiter Art" oder ß-Fehler. Aufgrund des Stichprobenwertes

In der Grundgesamtheit gilt: H 0 trifft zu H 0 trifft nicht zu

H 0 wird angenommen

richtige Entscheidung

ß-Fehler

Ho wird abgelehnt

α-Fehler

richtige Entscheidung

Abbildung 96: a- und ß-Fehler

5.7 Statistische Prüfverfahren

235

Der sog. kritische Bereich kann je nach der Prüffunktion links, rechts oder beidseitig liegen, man spricht deshalb von einem einseitigen (links bzw. rechts) oder zweiseitigen Annahmebereich.

a) Η 0 : μ = μο; Η , : μ < μο

b) Η 0 : μ = μο! Hi: μ > μο

Abbildung 97: Annahmebereich bei einseitiger Fragestellung Quelle: Clauss/Ebner 1972, S. 182

Bei der Entscheidung über die Gültigkeit einer Hypothese kann man unterschiedlich strenge Maßstäbe anlegen. Sind wir bereit, das Risiko zu übernehmen, in 5 von 100 Fällen ein Fehlurteil zu fällen, dann entscheiden wir uns für eine Irrtumswahrscheinlichkeit von 5 % (α = 0,05) oder eine Vertrauenswahrscheinlichkeit von 95 %. In diesem Fall genügen bereits kleine Differenzen, um die Nullhypothese zurückzuweisen, die Aussagewahrscheinlichkeit ist als signifikant anzusehen. Bei α = 0,01 spricht man von einer hochsignifikanten Aussagewahrscheinlichkeit!

5.7.2

Parametertests

Bei den sog. Parametertests (oder auch Signifikanztests) geht es um die Prüfung der Signifikanz bestimmter Parameter (z.B. Mittelwerte, Streumaße). Sie sollen eine Entscheidung darüber herbeiführen, ob Unterschiede zwischen dem Stichprobenergebnis und dem entsprechenden behaupteten Wert in der Grundgesamtheit „rein zufällig" bestehen oder (mit einer bestimmten Wahrscheinlichkeit) „statistisch signifikant" sind, d.h. nicht zufällig begründet sind. Dazu ein Beispiel: Eine Stichprobe vom Umfang η = 400 aus einer normal verteilten Grundgesamtheit ergab den Mittelwert χ = 50,0 und die Standardabweichung s = 18,0. Es soll untersucht werden, ob diese Stichprobe aus einer Grundgesamtheit mit dem Mittelwert μ 0 = 47,5 stammen kann. Die Irrtumswahrscheinlichkeit soll α = 0,05 betragen (vgl. Clauss/Ebner 1972, S. 174). Wir stellen die Nullhypothese auf: H 0 : μ = μο Ho : μ = 47,5 Der Stichprobenmittelwert χ = 50,0 weicht um 2,5 von μ 0 = 47,5 ab. Wir müssen die Wahrscheinlichkeit bestimmen, mit der ein Stichprobenmittelwert außerhalb des Intervalls von 45 bis 50 liegt. Wir berechnen zunächst die Streuung _

σ

5 Datenauswertung und -analyse

236

(wobei wir bei großen Stichproben σ durch s ersetzen können).

-JÄÖÖ Für eine Standardnormalverteilung gilt t-χ-μρ σ

χ Wir setzen für χ die normierten Werte x., = 45,0 und x 2 = 50,0 ein. Wir erhalten: 45,0-47,5 1

50-47,5 2

0,9

= +

0,9

Wir müssen nun prüfen, ob die sog. Überschreitungswahrscheinlichkeit größer oder kleiner ist als die vorgegebenen Irrtumswahrscheinlichkeit. Dazu genügt es, den aus der Normierung des Stichprobenmittelwertes gewonnenen t-Wert (± 2,78) mit dem „kritischen" Wert t a = t0,05 = 1,96 zu vergleichen. D.h. bei der vorgegebenen Normalverteilung liegen 5 % der Gesamtfläche unter der Kurve außerhalb des Intervalls ( - 1,96/+ 1,96). Siehe dazu auch folgende Abbildung. Φ)

A

Abbildung 98: Irrtumswahrscheinlichkeit und kritische Bereiche unter einer Normalverteilung Quelle: Clauss/Ebner 1972, S. 175

Es gilt: wenn t 1 2 < ta, dann Annahme von H0 wenn t 1 2 ^ t,, dann Zurückweisung von H0 Man bezeichnet t als Prüfgröße. Diejenigen t-Werte, deren Absolutbetrag größer oder gleich t a ist, bilden den sog. „kritischen Bereich" der Prüfgröße. Die Prüfung der Nullhypothese läuft also darauf hinaus zu untersuchen, ob der berechnete Wert der Prüfgröße zum Annahmebereich oder zum kritischen Bereich gehört. Es gilt:

5.7 Statistische Prüfverfahren

t_

χ

237

-μρ

Für σχ wird -SL eingesetzt, also vn σ Aufgrund der großen Stichprobe kann σ durch s ersetzt werden. Für unser Beispiel ergibt sich: 500-47,5

^

18

t„=1,96 Da 2,78 > 1,96 ist, weisen wir die Nullhypothese zurück! Wäre der gefundene Stichprobenmittelwert χ = 4,65 (bei sonst gleichen Bedingungen), so wäre t s = 1,11; d.h. 1,11 < 1,96. Wir hätten keinen Grund, die Nullhypothese zurückzuweisen.

5.7.3

Anpassungstests

Bei einem Anpassungstest wird als Nullhypothese ein bestimmter Verteilungstyp für die Grundgesamtheit unterstellt bzw. vorgegeben. Es ist zu prüfen, ob die Verteilung in der Stichprobe der Verteilung in der Grundgesamtheit entspricht. Oder anders ausgedrückt: wie prüft man eine Hypothese über die Verteilung der Variablen in der Grundgesamtheit, wenn eine Zufallsstichprobe daraus vorliegt? Üblicherweise wird dazu der sog. „Chi-Quadrat-Test" angewendet (vgl. Berekoven et al. 2006, S. 232ff; Buttler/Fickel 2002, S. 209ff). Hierzu ein Beispiel (Clauss/Ebner 1972, S. 195f): Für einen Würfel, dessen Schwerpunkt genau in der Mitte liegt und dessen Material völlig homogen ist, ist die Wahrscheinlichkeit, dass eine der 6 Augenzahlen geworfen wird, völlig gleich. D.h. bei ca. 300 Würfen müssten 50 Würfe auf jede Augenzahl entfallen. Führen wir mit einem x-beliebigen Würfel solch einen Versuch durch, so erhalten wir für die Augenzahlen 1 bis 6 die Häufigkeiten 40, 55, 51, 49, 46, 59! Es stellt sich die Frage: ist dieses Ergebnis mit der Hypothese vereinbar, es handle sich um einen „homogenen" Würfel? Ist die Hypothese (H0) richtig, so erwarten wir für jede Augenzahl genau 50 Würfe. Es ist zu klären, wie groß die Abweichungen von 50 sein dürfen, wenn wir die Nullhypothese annehmen wollen. Es bedeuten: i

=

Variablen (Augenzahlen)

k

=

Anzahl der Variablen (6 Augenzahlen)

fbi

=

die beobachtete Häufigkeit (der geworfenen Augenzahlen)

fei

=

die aufgrund von H 0 erwartete Häufigkeit

5 Datenauswertung und -analyse

238 Wir verwenden folgendes Rechenschema: (1)

(2)

(3)

(4)

(5)

i

fbi

fei

fbi - fei

(fbi-fei)2

1

40

50

2

55

50

(6) (fbi " f e i ) 2 fei

100

2,00

+ 5

25

0,50

- 1 0

3

51

50

+ 1

1

0,02

4

49

50

- 1

1

0,02

5

46

50

- 4

16

0,32

6

59

50

+ 9

81

1,62

Σ

300

300

τ

= 4,48

Die Spalte (2) und (3) enthalten jeweils die beobachteten und erwarteten Häufigkeiten der Variablen i. Dabei müssen die S u m m e n der Spalten fbi und f ei gleich dem Stichprobenumfang η sein. In Spalte (4) wird die Differenz aus (2) und (3) ermittelt und anschließend quadriert (Spalte 5). Der Quotient aus den Quadraten und f ei findet sich in Spalte (6). Die S u m m e der Quotienten aus dieser Spalte liefert die Prüfgröße χ 2 (Chi-Quadrat). χ2

=

^

(fbi ~ fei ) 2 i

fei

Wir vergleichen χ 2 mit dem „kritischen Wert" χ 2 für die entsprechende Zahl von Freiheitsgraden (f = 6 - 1 = 5 ) und die vorgegebene Irrtumswahrscheinlichkeit (α = 0,05). Es gilt: W e n n χ 2 < χ 2 , dann Annahme von H 0 W e n n χ 2 > χ 2 , dann Zurückweisung von H 0 Die statistischen Tafeln für die x 2 -Verteilung bei f = 5 und α = 0,05 weisen einen „kritischen Wert" für χ 2 (0,05;5) von 11,1 aus. Unser % 2 -Wert (4,48) ist kleiner als der „kritische Wert" (11,1). Wir haben also keinen Grund, die Nullhypothese (H 0 ) zurückzuweisen! Abschließend ist zu sagen, dass es in der induktiven Statistik für den gleichen Testgegenstand meist verschiedene Testverfahren gibt. Welches Prüfverfahren geeignet und angewendet wird, muss anhand der einschlägigen statistischen Literatur geklärt werden.

5.7 Statistische Prüfverfahren Diex2-Verteilung.

/

99,0 1 2 3 4

,03157 ,0201 ,115 ,297

239

Irrtumswahrscheinlichkeit a (a in %)

97,5 ,03982 ,0506 ,216 ,484

95 2

,0 393 ,103 ,352 ,711

90

α 70

50

,0158 ,211 ,584 1,06

,148 ,713 1,42 2,19

,455 1,39 2,37 3,36

30

10

1,07 2,71 2,41 4,61 3,67 6,25 4,88 7,78

5

2,5

1

3,84 5,02 6,64 5,99 7,38 9,21 7,81 9,35 11,3 9,49 11,1 13,3

5 6 7 8 9

,554 ,872 1,24 1,65 2,09

,831 1,24 1,69 2,18 2,70

1,15 1,64 2,17 2,73 3,33

1,61 2,20 2,83 3,49 4,17

3,00 3,83 4,67 5,53 6,39

4,35 5,35 6,35 7,34 8,34

6,06 7,23 8,38 9,52 10,7

9,24 10,6 12,0 13,4 14,7

11,1 12,6 14,1 15,5 16,9

12,8 14,4 16,0 17,5 19,0

15,1 16,8 18,5 20,1 21,7

10 11 12 13 14

2,56 3,05 3,57 4,11 4,66

3,25 3,82 4,40 5,01 5,63

3,94 4,57 5,23 5,89 6,57

4,87 5,58 6,30 7,04 7,79

7,27 8,15 9,03 9,93 10,8

9,34 10,3 11,3 12,3 13,3

11,8 12,9 14,0 15,1 16,2

16,0 17,3 18,5 19,8 21,1

18,3 19,7 21,0 22,4 23,7

20,5 21,9 23,3 24,7 26,1

23,2 24,7 26,2 27,7 29,1

15 5,23 16 5,81 17 6,41 18 7,01 19 7,63

6,26 6,91 7,56 8,23 8,91

7,26 7,96 8,67 9,39 10,1

8,55 9,31 10,1 10,9 11,7

11,7 12,6 13,5 14,4 15,4

14,3 15,3 16,3 17,3 18,3

17,3 18,4 19,5 20,6 21,7

22,3 23,5 24,8 26,0 27,2

25,0 26,3 27,6 28,9 30,1

27,5 28,8 30,2 31,5 32,9

30,6 32,0 33,4 34,8 36,2

20 8,26 21 8,90 22 9,54 23 10,2 24 10,9

9,59 10,3 11,0 11,7 12,4

10,9 11,6 12,3 13,1 13,8

12,4 13,2 14,0 14,8 15,7

16,3 17,2 18,1 19,0 19,9

19,3 20,3 21,3 22,3 23,3

22,8 23,9 24,9 26,0 27,1

28,4 29,6 30,8 32,0 33,2

31,4 32,7 33,9 35,2 36,4

34,2 35,5 36,8 38,1 39,4

37,6 38,9 40,3 41,6 43,0

13,1 13,8 14,6 15,3 16,0

14,6 15,4 16,2 16,9 17,7

16,5 17,3 18,1 18,9 19,8

20,9 21,8 22,7 23,6 24,6

24,3 25,3 26,3 27,3 28,3

28,2 29,2 30,3 31,4 32,5

34,4 35,6 36,7 37,9 39,1

37,7 38,9 40,1 41,3 42,6

40,6 41,9 43,2 44,5 45,7

44,3 45,6 47,0 48,3 49,6

25 26 27 28 29

11,5 12,2 12,9 13,6 14,3

Abbildung 99: x 2 -Verteilung bei vorgegebenen Freiheitsgraden und Irrtumswahrscheinlichkeit Quelle: Clauss/Ebner 1972, S. 3 4 4

6

Prognoseverfahren

6.1

Wesen der Prognose

6.1.1

Begriffsbestimmung

Eine wesentliche Aufgabe der Marktforschung ist es, Chancen und Risiken in den Märkten frühzeitig zu erkennen und berechenbar zu machen. Dies ist nur möglich, wenn über die Ist-Analyse hinaus Prognosen in die Zukunft gemacht werden können. Vor allem in sich schnell verändernden Märkten braucht das Marketing Informationen darüber, ob, wie und in welchem Ausmaß sich insbesondere die Absatzmärkte entwickeln. Prognosen sollen helfen, Entscheidungen für die Zukunft sicherer zu machen. Gegenstand der Prognose sind insbesondere Aussagen über die zukünftige Entwicklung des Markt- und Absatzpotenzials, des Markt- und Absatzvolumens sowie des Marktanteils! Unter einer „Prognose" verstehen wir eine systematische Aussage über zukünftige Ereignisse bzw. Entwicklungen. Prognosen beruhen auf Daten und Informationen der Vergangenheit, die aufgrund bestimmter Gesetzmäßigkeiten und systematischer Verläufe Erkenntnisse für die Zukunft zulassen. Voraussetzung für die Anwendung solcher Verfahren sollte ein hohes Maß an Systematik und Objektivität sein! (Vgl. Berekoven et al. 2006, S. 253ff; Weis/Steinmetz 2005, S. 391ff; Pepels (Hrsg.) 2000, S. 197ff; Fantapie Altobelli 2007, S. 357ff)

6.1.2

Grenzen der Prognose

Bei der Anwendung von Prognosen muss man sich bewusst sein, dass diese nie völlig frei von Unsicherheit und Subjektivität sind. Unsicherheit entsteht dadurch, dass die Annahme von Gesetzmäßigkeiten in der Zukunft nicht unbedingt gültig sein muss (Zeitstabilitätshypothese). D.h. man geht von falschen Prämissen und Hypothesen aus. Subjektivität wird dadurch in die Prognose hineingetragen, dass die Auswahl von Daten und Methoden letztlich von der Beurteilung des Durchführenden abhängig ist. Jede Prognose beinhaltet somit ein gewisses Risiko! Die Ergebnisse aus den Prognosen können eine Genauigkeit vortäuschen, die tatsächlich nicht begründet ist. Die Güte einer Prognose lässt sich aber dadurch erhöhen, dass verschiedene Prognoseverfahren parallel und unabhängig voneinander eingesetzt werden.

6 Prognoseverfahren

242

6.1.3

Arten von Prognosen

Prognosen lassen sich nach unterschiedlichen Kriterien kategorisieren, die sich insbesondere auf den Prognosezeitraum und die angewandten Methoden beziehen. •

Prognosezeitraum Er bezieht sich auf die Fristigkeit der Prognose. Es wird in kurzfristige (Tage, Wochen, Monate), mittelfristige (ein bis drei Jahre) und langfristige (mehr als 4 Jahre) Prognosen unterschieden. Je länger der Prognosezeitraum, desto unsicherer die Ergebnisse der Prognose.



Nach Zahl der abhängigen Variablen Bei „einfachen" Prognosen wird nur eine Variable vorhergesagt, bei „multiplen" Prognosen mehrere Variablen.



Nach Zahl der unabhängigen Variablen Bei „univariaten" Prognosen geht man davon aus, dass die Marktentwicklung von einer Einflussgröße abhängig ist. „Multivariate" Prognosen unterstellen, dass gleichzeitig mehrere Einflussfaktoren die Variablen der zukünftigen Entwicklung bestimmen. Die Einflussfaktoren stehen in einem kausalen Zusammenhang. Entwicklungs- und Wirkungsprognosen Von „Entwicklungsprognose" spricht man, wenn die unabhängigen Einflussgrößen nicht vom Unternehmen kontrolliert und beeinflusst werden können. Kann das Unternehmen die Einflussfaktoren selbst beeinflussen (z.B. Werbung, Preise) und sollen deren Wirkungen in der Zukunft bestimmt werden, so spricht man von „Wirkungsprognose".





Quantitative und qualitative Prognosen Bei „quantitativen" Modellen erfolgt die Prognose auf der Grundlage mathematischer Gleichungssysteme, die die Beziehungen zwischen den Variablen definieren (z.B. lineare Funktion, Exponentialfunktion). „Qualitative" Prognosen beruhen auf Erfahrungswerten, Schätzungen und Analogien (z.B. von Experten)), haben somit informalen und subjektiven Charakter. Bei dieser Art von Prognosen werden entweder explorative (Befragung) oder projizierende Verfahren (Szenariotechnik) eingesetzt.

6.1.4

Vorgehensweise

Allgemein wird empfohlen (vgl. Meffert 1992, S. 336; Pepels 1994, S. 95ff), insbesondere bei quantitativen Prognosen, eine Vorgehensweise in systematischen Arbeitsschritten: 1. Schritt: Erhebung von Daten Es geht primär um die Auswertung interner und externer Datenquellen (Sekundärstatistik), die Anhaltspunkt über die bisherige Entwicklung der Märkte und die Kaufabsichten der Verbraucher geben. Die bereits erhobenen Daten sollen die Basis für die nachfolgende Prognose sein.

6.2 Quantitative Verfahren

243

2. Schritt: Analyse der Daten Die Datenanalyse hat die Aufgabe, Gesetzmäßigkeiten im zeitlichen Ablauf der Daten festzustellen (Zeitreihenanalyse). Normalerweise lassen sich in Zeitreihen drei charakteristische Verläufe erkennen. - die Trend-Entwicklung (d.h. die von Einzelschwankungen unabhängig festzustellende Grundrichtung) - den Konjunktur- oder Saisonverlauf (d.h. gesamtwirtschaftlich oder branchenbedingte zyklische Schwankungen einer Zeitreihe) - d e n Zufallsverlauf (d.h. die unregelmäßigen, zufallsbedingten Schwankungen einer Zeitreihe). 3. Schritt: Ermittlung von Zusammenhängen Mit Hilfe der Korrelations- bzw. Regressionsanalyse (siehe Kapitel 5.5 und 5.6) wird festgestellt, welche Einflussfaktoren in welchem Ausmaß auf die Absatz- und Marktentwicklung einwirken. Darüber hinaus sind die Art des funktionalen Zusammenhanges (z.B. linear oder exponentiell) und die Stärke der Korrelation zwischen den Variablen (Korrelationskoeffizient) zu bestimmen. 4. Schritt: Übertragbarkeit der Gesetzmäßigkeiten In diesem Schritt ist zu klären, ob sich die aus den Vergangenheitsdaten ermittelten Beziehungen und Verläufe auf die Zukunft übertragen lassen. D.h. kann man davon ausgehen, dass die gefundenen Gesetzmäßigkeiten auch in der Zukunft unverändert gültig sind. 5. Schritt: Ableitung der Prognose Sind die ersten vier Schritte positiv abgeschlossen, kann die Ableitung der Prognose erfolgen. Es werden zunächst die Werte der unabhängigen Variablen ermittelt, diese dann in die als gültig erkannte Abhängigkeitsfunktion eingesetzt und der Prognosewert errechnet.

6.2

Quantitative Verfahren

Im Rahmen quantitativer Prognosemodelle unterscheidet man zwischen „Extrapolationsverfahren" und „Verfahren auf der Basis von Strukturmodellen". Erstere basieren ausschließlich auf der Analyse einer Zeitreihe der Prognosevariablen, letztere berücksichtigen neben der Prognosevariablen weitere empirisch messbare Variablen (Prädiktorvariablen). Im Folgenden beschränken wir uns auf die Extrapolationsverfahren.

6.2.1

Trendextrapolation

Allen Trendmodellen liegt der Gedanke zugrunde, dass eine in der Vergangenheit gefundene Zeitreihe in die Zukunft fortgeschrieben werden kann, d.h. man unterstellt, dass die bisherige Entwicklung sich unverändert in die Zukunft fortsetzt. Die bisher festgestellte Gesetzmäßigkeit (Trend) wird in die Zukunft extrapoliert}. Diese Vorgehensweise ist nicht unproblematisch, da sie mögliche Veränderungen und

6 Prognoseverfahren

244

Brüche im Trend willkürlich ausschließt. Dennoch wird diese Methode recht häufig angewandt, da sie einfach und überschaubar in der Durchführung ist. Die Trendextrapolation kann grundsätzlich auf grafischem oder mathematischem Wege erfolgen. Grafisch in der Form, dass man versucht, durch die aufgezeichneten Messwerte (Streudiagramm) eine Trendlinie/-kurve zu legen (Abszisse = Zeit, Ordinate = z.B. Absatz). Sie muss die Bedingung erfüllen, dass die Abweichungen oberhalb und unterhalb der Linie/Kurve gleich groß sind. Das grafische Verfahren ist sehr ungenau, so dass eine mathematische Lösung des Problems sinnvoller ist. Es wird zunächst der Funktionstyp der bisherigen Zeitreihe bestimmt. Die numerischen Werte für die Parameter der Funktion werden dann nach der „Methode der kleinsten Quadrate" errechnet. Es wird letztlich die Funktion ermittelt, bei der die Summe der quadratischen Abweichungen am geringsten ist! Grundsätzlich lassen sich verschiedene Grundformen der Verlaufsfunktion erkennen; nämlich ein linearer, exponentieller oder logistischer Trend (siehe Abb.).

Abbildung 100: Grundformen von Trendfunktionen Quelle: Meffert et al: 2008, S. 178

Ein Unternehmen hat in den Jahren 1999 bis 2008 folgende Stückzahlen im Markt abgesetzt: Jahr

Absatz in Tsd. Stck.

1999

50

2004

140

2000

75

2005

155

2001

100

2006

170

2002

115

2007

190

2003

130

2008

215

6.2 Quantitative Verfahren

245

Es soll prognostiziert werden, welcher Absatz in Stück in den Jahren 2009, 2010 und 2011 zu erwarten ist. Die aufgeführte Zahlenreihe der abgesetzten Stücke lässt einen linearen Verlauf erkennen. Wir unterstellen eine Funktion des Typs yt = a + b · t Die Aufgabe besteht nun darin, die Summe der quadrierten Abweichungen der realen Absatzwerte yt und die der Schätzwerte yt aus der Trendfunktion zu minimieren. Σ (Yt - 9 t ) 2 = Σ (yt - a - b t ) 2

min.!

Durch Auflösung der beiden Gleichungen erhalten wir für a und b folgende Formeln: 3

-Σ'

2

·Σ*-Σ*·Σ*·* η·Σ*2-(Σ*)2

η·Σ