Smart Data: Datenstrategien, die Kunden wirklich wollen und Unternehmen wirklich nützen 9783864147203, 3864147204

Weniger ist mehr! Der Hype um Big Data flacht langsam ab. Bei vielen Anwendern in den Unternehmen macht sich zurzeit Ern

260 49 25MB

German Pages 256 [257] Year 2015

Report DMCA / Copyright

DOWNLOAD PDF FILE

Table of contents :
Kick-off: Smart Data Unser – Mit weniger Daten mehr erreichen
Size doesn’t matter
Smartest in Class
Smart Data in der Nussschale
Der neue Datenvertrag
Teil I TrendsVom Big-Data-Hype zu Smart Data
1.1 Big Data Overload – Im Tal der Enttäuschung
Der Grippeticker kränkelt
Hype-Cycling
Big Data ohne Big Bang
Lavieren in der Schockstarre
1.2 Der digitale Tsunami – Keine Daten sind auch keine Lösung
Disruption entlang der Wertschöpfungskette
Schlau, vereint, aggressiv
Die Dämme weichen auf. Überall!
Die Brille des Investors
1.3 Smart-Data-Champions – Die richtigen Daten führen zum Ziel
Smarte Datenhelden
Richtig ist besser als größer
Warum? Wie? Was?
Wahrscheinlichkeit schlägt Zufall
Teil II ProzesseDer Smart-Data-Zyklus
2.1 Die richtigen Fragen stellen
2.2 Die richtigen Daten nutzen
2.3 Die Kunden verstehen
2.4 Die eigene USP herausarbeiten
2.5 Die Kunden richtig ansprechen
2.6 Conclusio: Der Mehrwert
Teil III VorbilderDie vier Anwendungsfelder für Smart-Data-Champions
3.1 Kundennähe smart gestalten – Die richtigen Angebote zur richtigen Zeit zum richtigen Preis
Curated Fashion
Curated Dübel
Huch, die haben mich verstanden!
Das kleine Analytik-Einmaleins im Handel
Geiz ist geil. Bei der Preisfindung!
Offline schlägt online. Mit den eigenen Waffen.
3.2 Von der Vertriebs­partnerschaft zur Daten­­partnerschaft – Kunden­potenziale mit Intermediären gemeinsam heben
Alle gegen alle?
Kollaboratives CRM
Code Switzerland
Die Macht der Pseudonyme
Double Opt-in? Gerne!
3.3 Standorte, Sortimente und Produkte smart optimieren
Falsche Flaggenmasten
Die richtigen Formate am richtigen Ort
Echtzeit-Sortimente
3.4 Was bedeutet Multi­kanal wirklich? – Die besten Customer-Journeys für Kunden und Unternehmen
Multikanal-Unlogik
Flipper statt Bowling
Apple-ID für alle!
Die Kanalbrücken der Kundenreise
Showroom Internet
Teil IV ErfolgsfaktorenWie Unternehmen smart werden
4.1 Fehler akzeptieren – Die richtige Managementhaltung
Ballistisches Denken
Experiment schlägt Kanonenkugel
Management in Zeiten der Unplanbarkeit
Konfuzius sagt …
Der große Daten-Spaß
4.2 Flexibler organisieren – Die richtigen Strukturen, Prozesse und Technologien
Squadification?
Der smarte Mittelweg
Vier Schritte in Richtung digitale Transformation
Lasst uns scrummen!
4.3 Smart rekrutieren und weiterbilden – Die richtigen Mitarbeiter
Der Stratege
Der Datenwissenschaftler
Der Projektmanager
Der Change-Manager
Conclusio Earned Data
Datenstrategien, die Kunden wirklich wollen
Der digitale Volksmund
Privatheits-Schizophrenie
Transparente Datenkraken?
Verdiente Daten
Generation post NSA
Das neue Relevant Set
Verwendete Quellen und weiterführende Literatur:
Danksagung
Stichwortverzeichnis
Recommend Papers

Smart Data: Datenstrategien, die Kunden wirklich wollen und Unternehmen wirklich nützen
 9783864147203, 3864147204

  • 0 0 0
  • Like this paper and download? You can publish your own PDF file online for free in a few minutes! Sign Up
File loading please wait...
Citation preview

80db6fcc003a6efd8e5b053b3c4a5dff5cbed360

Björn Bloching | Lars Luck | Thomas Ramge

Smart

Data 80db6fcc003a6efd8e5b053b3c4a5dff5cbed360

80db6fcc003a6efd8e5b053b3c4a5dff5cbed360

Björn Bloching | Lars Luck | Thomas Ramge

Smart

Data Datenstrategien, die Kunden wirklich wollen und Unternehmen wirklich nützen

Bibliografische Information der Deutschen Nationalbibliothek: Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen National­ bibliografie; detaillierte bibliografische Daten sind im Internet über http://d-nb.de abrufbar.

Für Fragen und Anregungen: [email protected]

1. Auflage 2015 © 2015 by Redline Verlag, ein Imprint der Münchner Verlagsgruppe GmbH Nymphenburger Straße 86 D-80636 München Tel.: 089 651285-0 Fax: 089 652096

Alle Rechte, insbesondere das Recht der Vervielfältigung und Verbreitung sowie der Übersetzung, vorbehalten. Kein Teil des Werkes darf in irgendeiner Form (durch Fotokopie, Mikrofilm oder ein anderes Verfahren) ohne schriftliche Genehmigung des Verlages reproduziert oder unter Verwendung elektronischer Systeme gespeichert, verarbeitet, vervielfältigt oder verbreitet werden.

Redaktion: Matthias Michel, Wiesbaden Umschlaggestaltung: Maria Wittek, München Abbildungen: Thomas Andrae, Norderstedt Satz: Carsten Klein, München Druck: Konrad Triltsch GmbH, Ochsenfurt Printed in Germany

ISBN Print 978-3-86881-583-2 ISBN E-Book (PDF) 978-3-86414-720-3 ISBN E-Book (EPUB, Mobi) 978-3-86414-721-0

Weitere Informationen zum Verlag finden Sie unter

www.redline-verlag.de Beachten Sie auch unsere weiteren Verlage unter www.muenchner-verlagsgruppe.de

Inhalt Kick-off: Smart Data Unser – Mit weniger Daten mehr erreichen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9 Size doesn’t matter . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9 Smartest in Class . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12 Smart Data in der Nussschale . . . . . . . . . . . . . . . . . . . . . . . . . . . 13 Der neue Datenvertrag . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14 Teil I: Trends – Vom Big-Data-Hype zu Smart Data . . . . . . . . 17 1.1 Big Data Overload – Im Tal der Enttäuschung . . . . . . . . . . . . . . . . 19 Der Grippeticker kränkelt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19 Hype-Cycling . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .24 Big Data ohne Big Bang . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27 Lavieren in der Schockstarre . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31 1.2 Der digitale Tsunami – Keine Daten sind auch keine Lösung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36 Disruption entlang der Wertschöpfungskette . . . . . . . . . . . . . . . 36 Schlau, vereint, aggressiv . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38 Die Dämme weichen auf. Überall! . . . . . . . . . . . . . . . . . . . . . . . 43 Die Brille des Investors . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56 1.3 Smart-Data-Champions – Die richtigen Daten führen zum Ziel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60 Smarte Datenhelden . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60 Richtig ist besser als größer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62 Warum? Wie? Was? . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65 Wahrscheinlichkeit schlägt Zufall . . . . . . . . . . . . . . . . . . . . . . . . 71 Teil II: Prozesse – Der Smart-Data-Zyklus . . . . . . . . . . . . . . . . 75 2.1 Die richtigen Fragen stellen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77 2.2 Die richtigen Daten nutzen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85 2.3 Die Kunden verstehen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89 2.4 Die eigene USP herausarbeiten . . . . . . . . . . . . . . . . . . . . . . . . . . . 103

2.5 Die Kunden richtig ansprechen . . . . . . . . . . . . . . . . . . . . . . . . . . . 106 2.6 Conclusio: Der Mehrwert . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113 Teil III: Vorbilder – Die vier Anwendungsfelder für Smart-Data-Champions . . . . . . . . . . . . . . . . . . . . . . . . . . . 117 3.1 Kundennähe smart gestalten – Die richtigen Angebote zur richtigen Zeit zum richtigen Preis . . . . . . . . . . . . . . . . . . . . . . 119 Curated Fashion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119 Curated Dübel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120 Huch, die haben mich verstanden! . . . . . . . . . . . . . . . . . . . . . . 126 Das kleine Analytik-Einmaleins im Handel . . . . . . . . . . . . . . . . 129 Geiz ist geil. Bei der Preisfindung! . . . . . . . . . . . . . . . . . . . . . . 131 Offline schlägt online. Mit den eigenen Waffen. . . . . . . . . . . . . 133 3.2 Von der Vertriebs­partnerschaft zur Daten­­partnerschaft – Kunden­potenziale mit Intermediären gemeinsam heben . . . . . . 137 Alle gegen alle? . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137 Kollaboratives CRM . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 140 Code Switzerland . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 143 Die Macht der Pseudonyme . . . . . . . . . . . . . . . . . . . . . . . . . . . . 145 Double Opt-in? Gerne! . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 150 3.3 Standorte, Sortimente und Produkte smart optimieren . . . . . . . . 152 Falsche Flaggenmasten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 152 Die richtigen Formate am richtigen Ort . . . . . . . . . . . . . . . . . . 155 Echtzeit-Sortimente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 160 3.4 Was bedeutet Multi­kanal wirklich? – Die besten Customer-Journeys für Kunden und Unternehmen . . . . . . . . . . . 166 Multikanal-Unlogik . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 168 Flipper statt Bowling . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 170 Apple-ID für alle! . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 173 Die Kanalbrücken der Kundenreise . . . . . . . . . . . . . . . . . . . . . . 178 Showroom Internet . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 181 Teil IV: Erfolgsfaktoren – Wie Unternehmen smart werden . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 187 4.1 Fehler akzeptieren – Die richtige Managementhaltung . . . . . . . . 189 Ballistisches Denken . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 189 Experiment schlägt Kanonenkugel . . . . . . . . . . . . . . . . . . . . . . 193

Management in Zeiten der Unplanbarkeit . . . . . . . . . . . . . . . . 194 Konfuzius sagt … . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 200 Der große Daten-Spaß . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 203 4.2 Flexibler organisieren – Die richtigen Strukturen, Prozesse und Technologien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 205 Squadification? . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 205 Der smarte Mittelweg . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 207 Vier Schritte in Richtung digitale Transformation . . . . . . . . . . 209 Lasst uns scrummen! . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 218 4.3 Smart rekrutieren und weiterbilden – Die richtigen Mitarbeiter . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 219 Der Stratege . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 220 Der Datenwissenschaftler . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 221 Der Projektmanager . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 224 Der Change-Manager . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 225 Conclusio: Earned Data . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 229 Datenstrategien, die Kunden wirklich wollen . . . . . . . . . . . . . . . . . . . 231 Der digitale Volksmund . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 231 Privatheits-Schizophrenie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 233 Transparente Datenkraken? . . . . . . . . . . . . . . . . . . . . . . . . . . . . 235 Verdiente Daten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 238 Generation post NSA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 243 Das neue Relevant Set . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 244 Verwendete Quellen und weiterführende Literatur . . . . . . . 247 Danksagung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 251 Stichwortverzeichnis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 252

Kick-off: Smart Data Unser – Mit weniger Daten mehr erreichen »If we have data, let’s look at data. If all we have are opinions, let’s go with mine.« Jim Barksdale, Ex-CEO von Netscape

Size doesn’t matter Wie groß ist eigentlich das »Big« in Big Data? Technologieanalysten und IT-Anbieter haben sich in den letzten Jahren mit Hochzahlen überboten. Peta, Zetta, Yotta. CD-Stapel bis zum Mond. Oder waren es DVD-Stapel bis zum Mars? Je höher die Hochzahl, desto besser. Denn die Daten sind ja das neue Öl. Und weil Speicher immer billiger, Rechner immer schneller und Algorithmen immer klüger werden, können wir diesen Rohstoff nutzen. Daten in Wissen umwandeln heißt dann Prozesse optimieren, bessere Entscheidungen treffen und vollkommen neue Geschäftsmodelle entwickeln. Aha. Leider ertrinken viele Unternehmen zurzeit im Datenüberfluss. Viel hilft oft gar nicht viel. Viele Topmanager beschleicht das ungute Gefühl: Die digitale Kompetenz ihres Unternehmens wächst nicht in gleicher Geschwindigkeit wie die Nennung der Worthülse »Big Data« in Strategie-Meetings. Sie beobachten im schlimmsten Fall gar, dass der mindestens so unscharfe wie trendige Begriff auf dem Weg der digitalen Transformation mehr schadet als hilft: weil sich allenthalben Enttäuschung breitmacht. Big Data ist eine Zauberformel: Wir greifen so viele Daten wie möglich ab. Die Maschine, angeleitet von ein paar menschlichen Superhirnen, sagt uns dann, wie wir unsere Wertschöpfung an welcher Stelle um wie

9

Kick-off: Smart Data Unser – Mit weniger Daten mehr erreichen

viel Prozent verbessern können. Oder noch besser: Wie wir uns – in der Von-null-auf-eins-Logik des Paypal-Gründers und Facebook-Investors Peter Thiel – mit einem neuen Geschäftsmodell neu erfinden. Oder zugespitzt in Techie-Sprache formuliert: Big Data = Big Bang! Digitale Technologien kamen schon immer als Großmäuler auf die Welt. Sie versprechen viel und halten erst einmal ziemlich wenig. Die Zauberformel der Massendatenanalyse entzaubert sich gerade selbst und die Begrifflichkeit Big Data ist in besonderer Weise mitverantwortlich, weil das Volumen der Datenmenge in den meisten Anwendungsfeldern nicht das entscheidende Kriterium dafür ist, ob Daten tatsächlich Mehrwert bringen.

Es kommt nicht auf das Datenvolumen an, sondern auf die richtigen Daten in der richtigen Varianz.

Die großen Big-Data-Versprechen schlagen gerade hart auf dem Boden der Unternehmensrealität auf. Das erfahren wir in den letzten Monaten in nahezu jedem Gespräch mit Managern und IT-Entscheidern. Der Enttäuschung ob teuer gescheiterter Datenanwendungen folgt oft Verwirrung, in einigen Fällen gar eine Art Schockstarre. Denn allen Beteiligten ist freilich auch bewusst: Keine Daten sind auch keine Lösung.

Dieses Buch beschreibt einen intelligenteren Weg aus dem Tal der BigData-Enttäuschung. Diese Route eignet sich für Unternehmen, die sich nicht in der digitalen Startup-Logik »von null auf eins« bewegen. Er eignet sich für »n-plus-1-Organisationen«. Also für Unternehmen mit einem in der Vergangenheit gut funktionierenden Geschäftsmodell, welche die Chancen der Datenanalytik intelligent nutzen wollen, um ihr Geschäft besser zu betreiben. Die Daten nicht als eigenes Geschäftsmodell verstehen, sondern als Kernelement, um Kunden besser zu verstehen. Und die entsprechend auch nicht auf Datenmengen in Türmen bis zum Mond schielen, mit denen vielleicht Google zurechtkommt, aber bestimmt nicht das eigene ERP-System, das 1995 eingeführt und seitdem immer wieder erweitert wurde. Der Mittelweg eignet sich für Unternehmen, die verstanden haben: Es kommt nicht auf das Datenvolumen an, sondern auf die richtigen Daten in der richtigen Varianz. Wir nennen diesen Weg: Smart Data.

10

Kick-off: Smart Data Unser – Mit weniger Daten mehr erreichen

Mit diesem Begriff wollen wir kein in Verruf geratenes Buzzword durch ein neues ersetzen. Smart Data ist weder eine technische Lösung noch ein neues Management-Mantra. Smart Data ist eine praktikable Haltung mit der Leitfrage: Wie nutzen wir Kundendaten effizient, ohne uns selbst technisch, personell und finanziell zu überfordern? Aus dieser Haltung ergibt sich eine iterative, also schrittweise vortastende, hypothesenbasierte Vorgehensweise. Der gesunde Menschenverstand ist dabei ein ebenso wichtiger Rohstoff wie die Daten. Ziel ist es in allen Anwendungsfeldern von Smart Data, Kunden besser zu verstehen, um sie zu binden und damit ihren Kundenwert langfristig zu erhöhen. Der Smart-Data-Weg ist einer mit vielen Etappen. Die Route steht nicht von vornherein fest. Denn niemand weiß heute schon genau, was die Kunden in drei bis fünf Jahren wirklich wollen und welche ­Technologien sich durchgesetzt haben werden. Das Management braucht natürlich eine ­Vorstellung von der Marschrichtung. Den genauen Weg, wie Kundenbedürfnisse in Zukunft besser bedient werden können, weisen aber Experimente. Aus einzelnen Smart-Data-Projekten ent­steht bei systematischer Vorgehensweise ein selbstlernendes System. Immer mehr Menschen und Abteilungen in Unternehmen lernen auf diesem Weg, Kundendaten immer intelligenter zu nutzen. Das Gelernte wird zum Automatismus. Die Beteiligten, besonders die auf der Business-Seite, tappen dabei nicht permanent in die technischen und persönlichen Überforderungsfallen der Big-Data-Ansätze, bei denen der geschäftliche Big Bang leider ausblieb. Wenn dieses intelligente Vortasten gelingt, sind Smart-Data-Projekte Ausgangspunkte und Wegmarken für die digitale Transformation der gesamten Organisation. Diese Transformation muss dann nicht einmal so heißen. Die digitale Veränderung wird als so selbstverständlich und gewinnbringend empfunden wie die ständig zunehmenden Fähigkeiten des Smartphones als Alltagsassistent.

11

Kick-off: Smart Data Unser – Mit weniger Daten mehr erreichen

Smartest in Class Interessant in diesem Zusammenhang ist: Eine große digitale Vision hat oft eine widersprüchliche Wirkung auf Unternehmen. Auf der einen Seite ist es natürlich gut, wenn sich das Topmanagement intensiv und kompetent mit der Frage auseinandersetzt, wie die Digitalisierung das eigene Geschäftsmodell langfristig verändern wird. Meist steht bei diesen DiskussiDer Smart-Data-Weg ist onen der Begriff »disruptiv« groß auf Flipcharts oder einer mit vielen Etappen. Smartboards im Raum und im Idealfall stehen dort Die Route steht nicht von auch Skizzen von Geschäftsmodellen, die jenen von vornherein fest. aufstrebenden Startups und digitalen Champions ziemlich ähnlich sehen. Auf der anderen Seite raubt die große Vision – bzw. der Vergleich mit den digitalen Vorreitern – oft die Energie für die ersten Schritte auf der digitalen Transformationsreise. Getreu dem Motto: Wir werden nie Google werden! Oder Apple! Oder Amazon! Diese Wahrnehmung ist natürlich in den allermeisten Fällen richtig. Das Problem ist allerdings oft, dass damit die eigene Ambition insgesamt schwindet und der Führungsanspruch in der eigenen Branche verloren geht. Smart-Data-Haltung ist: Du musst nicht Google werden, um der erfolgreichste Versicherer, Multikanal-Händler oder Schraubenhersteller mit eigenem Vertrieb zu bleiben oder zu werden. Du musst nur in deiner Branche das Unternehmen mit dem höchsten digitalen IQ werden. Denn smart bedeutet, intelligent die Chancen der Datenanalyse zu nutzen, richtig zu priorisieren und diese neuen Möglichkeiten mit den eigenen Stärken zu verbinden. Mit anderen Worten: Smarte Unternehmen träumen nicht davon, so datenkompetent wie die Besten im Silicon Valley zu werden. Sie wollen die smartesten in ihrer Klasse sein und sich Schritt für Schritt mithilfe von Analytik Wettbewerbsvorteile gegenüber der direkten Konkurrenz aufbauen.

12

Kick-off: Smart Data Unser – Mit weniger Daten mehr erreichen

Smart Data in der Nussschale Dieses Buch geht den Smart-Data-Weg in fünf Schritten: ➤➤

➤➤

➤➤

➤➤

Teil I analysiert den Stand der digitalen Dinge aus Sicht von Unternehmen, die nicht zu den Vorreitern der Digitalisierung gehören und noch auf der Suche nach einer für sie passenden Datenstrategie sind. Ausgangspunkt ist das Problem des Überangebots an Daten und eine Dekonstruktion des Begriffs (und des Phänomens) Big Data. Dann beschreiben wir, systematisiert nach Branchen, warum NichtHandeln trotzdem keine Option ist und aus welchen Richtungen die digitale Tsunami-Welle auf wen mit welcher Wucht zurollt. In Kapitel 3 des Eingangsteils definieren wir, was wir unter Smart Data konkret verstehen und wie ein übergeordneter Ansatz aussehen kann, um zu einem Smart-Data-Champion zu werden. Teil II entwirft einen Zyklus: einen Prozess in fünf Schritten, mit dem Unternehmen ein selbstlernendes System für Marketing und Vertrieb schaffen. Dieses System fußt zunächst auf Hypothesen, die Mensch und Maschine später immer weiter schärfen. Kernbaustein des Smart-Data-Zyklus ist eine intelligente, da integrierte und für alle Unternehmensteile gültige, Segmentierung. Diese schafft ein immer besseres und einheitlicheres Verständnis vom Kunden. Erhöhte Kundenkenntnis wiederum legt im Zyklus die Grundlage, um die eigenen Stärken immer smarter herauszuarbeiten. Das Ergebnis ist die Fähigkeit, den Kunden dann im richtigen Moment in der richtigen Tonalität das richtige Angebot zum richtigen Preis zu unterbreiten. Teil III zeigt, wie es geht. Er erzählt mit vielen Beispielen, wie Smart-Data-Champions heute Kundennähe mithilfe von Analytik an den einzelnen Kontaktpunkten intelligent gestalten. Wie die Vorreiter unternehmensübergreifende Datenkooperationen zur gemeinschaftlichen Kundenbindung eingehen, an die bis dato niemand gedacht hat. Wie sie Standorte, Sortimente und Produkte kalibrieren und aus fragmentierten Multikanal-Umfeldern ganzheitliche Kunden­erlebnisse schaffen. Teil IV ist für diejenigen Leser von besonderem Interesse, die sich mit der Frage befassen: Wie organisieren wir den digitalen W ­ andel im Unternehmen? Digitale Transformation scheitert in der Regel nicht an technischem Unvermögen. Sie scheitert an inneren Wi-

13

Kick-off: Smart Data Unser – Mit weniger Daten mehr erreichen

derständen, allzu starren Strukturen und fehlendem Change-Management. Ein smarter Umgang mit Daten setzt ein modernes Führungsverständnis voraus, das Fehler akzeptiert, experimentelles Denken fördert und Eigenverantwortung lebt. An dieser Stelle im Buch machen wir Vorschläge, wie Unternehmen auf dem Smart-Data-Weg Strukturen und Prozesse praktikabel flexibilisieren und technologische Kompetenz weiterentwickeln können, ohne sich dabei zu überfordern. Die gute Nachricht lautet: So wahnsinnig viele neue Ressourcen brauchen sie dafür gar nicht. Die meisten sind bereits an Bord. Der fünfte Teil dieses Buchs, die Conclusio, ist der wichtigste. Diese beschäftigt sich mit der Frage: Wie findet der Kunde eigentlich all das, was wir mit Daten so treiben?

Digitale Transformation scheitert in der Regel nicht an technischem Unvermögen. Sie scheitert an inneren Widerständen, allzu starren Strukturen und fehlendem ChangeManagement.

➤➤

Der neue Datenvertrag In unserem letztem Buch, Data Unser, haben wir einen »New Deal on Data« gefordert. Dieser Datenvertrag zwischen Kunden und datennutzenden Unternehmen sollte auf vier Pfeilern stehen: 1. 2. 3. 4.

Datensicherheit Transparenz Verhältnismäßigkeit Mehrwert für den Kunden

Wir haben damals prognostiziert, dass nicht professionelle Datenschützer und Gesetzgeber über den Erfolg oder Misserfolg von datengetriebenen Marketingansätzen entscheiden werden, sondern die Fähigkeit der Unternehmen, mit Daten einen Mehrwert für ihre Kunden zu schaffen. Erfolgsentscheidend ist, ob es Unternehmen als seriöse Datenpartner gelingt, folgendes Angebot glaubhaft zu unterbreiten: Wenn ihr eure Daten mit uns teilt, ist dies ein Geschäft zum beiderseitigen Vorteil. Wir werden eure Daten nicht missbrauchen, um euch auszuspionieren und abzuziehen. Sondern wir werden sie nutzen, um eure Wünsche und Bedarfe passgenauer zu bedienen. Denn unser Ziel ist es, dauerhaft eine gute Kundenbeziehung zu pflegen.

14

Kick-off: Smart Data Unser – Mit weniger Daten mehr erreichen

Drei Jahre, mehrere Dutzend Kundendatenprojekte und eine NSA-Affäre später sind wir uns noch sicherer: Wenn Unternehmen Kundendaten ausschließlich zum eigenen Vorteil nutzen, geht der Schuss nach hinten los. Die strengen deutschen Datenschutzvorgaben sind hier und da überholt, bürokratisch und umständlich. Aber mit ihnen lässt sich klarkommen. Der Kern des Problems ist vielmehr: Unternehmen müssen es sich verdienen, die Daten ihrer Kunden nutzen zu dürfen. Wenn Unternehmen Kundendaten ausschließSmart Data folgt dem Prinzip »Earned Data«. lich zum eigenen Vorteil nutzen, geht der Schuss Die Kundendaten gehören den Kunden – und diese nach hinten los. entscheiden kontextuell, welche Daten sie mit welchem Unternehmen teilen wollen. Sie stellen ihre Bewegungsdaten gerne zu Verfügung, wenn dies für die Anwendung wirklich sinnvoll ist. Und sie reagieren berechtigterweise allergisch, wenn sie das Gefühl beschleicht: Da sammelt eine Datenkrake in BigData-Manier alle Informationen ein, die sie bekommen kann, um sie ­irgendwann einmal (für was auch immer) auszuwerten oder gar weiterzuverkaufen. Smart-Data-Champions fragen nicht die Hausjuristen, wie der Kunde oder Nutzer mit Einwilligungserklärungen an der Grenze zum rechtlich Möglichen ausgetrickst werden kann. Sie setzen ihre IT-Systeme nach dem Prinzip auf: Gespeichert werden nur Daten, aus denen sich tatsächlich Kundennutzen ableiten lässt. Diese Haltung wird langfristig Erfolg haben. Denn nur sie wird dazu führen, dass Kunden ihre Daten gerne teilen. Womit sie die Voraussetzung schaffen, dass all das, was wir in diesem Buch beschreiben, auch funktionieren kann. Hier schließt sich der Kreis. Denn in einem Satz heißt Smart Data: Mit weniger Daten mehr erreichen.

15

Teil I

Trends

Vom Big-Data-Hype zu Smart Data

1.1 Big Data Overload – Im Tal der Enttäuschung »It comes from everywhere. It knows everything. Its name is Big Data.« Dilbert, Juli 2012

Der Grippeticker kränkelt 2008 war ein gutes Jahr für Big Data. Zwar nannte damals noch (fast) niemand Massendatenanalyse so. Aber ein kleines Team von Datenwissenschaftlern in Diensten des aufstrebenden und damals noch vollumfänglich beliebten Suchmaschinenanbieters Google präsentierte im Wissenschaftsmagazin Nature eine Massendatenanwendung, die das Zeug dazu hatte, aus der Welt einen gesünderen Ort zu machen. Sie nannten die Applikation GFT: Google Flu Trends. Ihr Versprechen lautete: Google kann den Ausbruch und den geografischen Verbreitungsweg von Grippe­epidemien in den USA vorhersagen, ohne mit einem einzigen Arzt gesprochen zu haben. Und zwar deutlich schneller und genauer als die dafür zuständigen Centers for Disease Control and Prevention (CDC). Die Beamten der CDC sammeln für die Grippebeobachtung seit Jahrzehnten Berichte von Arztpraxen ein und können mit einer Zeitverzögerung von rund einer Woche ein Bild von der gesundheitlichen Lage der Nation hochrechnen. Auf der Basis dieses – um eine Woche veralteten – Bildes können sie dann gesundheitspolitische Gegenmaßnahmen wie groß angelegte Impfaktionen einleiten. Die Google-Geeks hatten in ihrem Datenschatz einen leichteren Zugang zur Volksgesundheit gefunden: Sie orteten einfach, wie oft Bürger die Begriffe »Grippesymptome« oder »Apotheken in meiner Nähe« in den Suchmaschinenschlitz einwarfen, und glichen diese Daten mit dem Verlauf vergangener Grippeepidemien ab. Mehrere Millionen Anfragen mit Grippehinweisen zu aggregieren und zu lokalisieren dauerte 2008 noch knapp eine Nacht. Zudem konnte die Studie nachweisen, dass der suchanfragenbasierte

19

Teil I – Trends

Analyseansatz regional viel feinkörnigere Prognosen lieferte als die Fragebogenabfrage bei Experten, also in diesem Fall bei Ärzten. GFT war ein Durchbruch in der Massendatenanalyse mit massenmedialer Wirkung. Nicht nur Google-Mitarbeiter präsentierten den Flu-TrendsCase, wo immer sich die Chance bot, den gesellschaftlichen Mehrwert des eigenen Unternehmens in Szene zu setzen. Auch informationstechnologieaffine Journalisten konnten endlich einmal eine handfeste und für jedermann nachvollziehbare Erfolgsgeschichte intelligenter Datennutzung niederschreiben. Keynote-Speaker auf Trendtagen erklärten in bewährter Das-ist-nur-der-Anfang-Tonalität das Anwendungsbeispiel zur Vorhut für eine Revolution evidenzbasierter medizinischer Forschung. Und die Vertriebsleute von Analytics- und Business-Intelligence-Software taten gerne so, als ob ihr Unternehmen am GFT-Algorithmus selbst mitgeschrieben hätte – und ihre eigenen Produkte im Geschäftsumfeld natürlich ähnliche Einsichten-Wunder vollbringen könnten wie Flu Trends in Bezug auf die Volksgesundheit. Das alles kann man der Interessengemeinschaft des datenbasierten Fortschritts eigentlich auch nicht zum Vorwurf machen. Denn am Anwendungsbeispiel Google Flu Trends ließen (und lassen) sich drei große Prinzipien der Massendatenanalyse, seit 2011 allgemein Big Data genannt, verständlich aufzeigen: 1. Wir verfügen über viel mehr Daten, als wir denken. Wir müssen nach neuen Kontexten suchen, um Daten produktiv zu machen. 2. Über diese Daten können wir Verhalten beobachten und Trends erkennen. Dies ergibt (in Echtzeit) ein viel genaueres Bild von der Gegenwart, als wir es mithilfe von Befragungen jemals zeichnen können. Wir haben also eine viel bessere Grundlage für Entscheidungen. 3. Ursachenforschung verliert an Bedeutung. Statistische Korrelationen sagen uns, was wir wissen müssen. Der Wired-Gründer Chris Anderson brachte diese Haltung in seinem Essay »Das Ende der Theorie« auf den Punkt. In einer durch Daten vermessenen Welt brauchen wir keine theoretischen Modelle mehr, die uns die Welt ohnehin nur unzulänglich erklären. Bei ausreichender Datenbasis, auch dafür stand Google Flu Trends, »sprechen die Zahlen für sich selbst«. 2013 war ebenfalls ein gutes Jahr für Big Data. Man könnte auch argumentieren: 2013 war ein um ein Vielfaches bis exponentiell besseres Jahr für Big Data als 2008, je nachdem welche Kennziffern man als

20

1.1 Big Data Overload – Im Tal der Enttäuschung

Grundlage für den Vergleich nimmt: weltweit anfallendes Datenvolumen, Suchanfragen »Big Data« bei Google, Umsätze von IT-Projekten mit Big Data im Verkaufsprospekt oder Nennung des Begriffs in DilbertCartoons (dort tauchte er übrigens zum ersten Mal 2012 auf). Berater, Trendscouts und Software-Marketer hatten das Buzzword in bunte Bildchen oder Balkendiagramme grafisch übersetzt und in PowerpointPräsentationen an so ziemlich jede Beamerwand geworfen. 2013 gab es in Deutschland kein Branchentreffen, kein Symposion, vermutlich kein Strategie-Meeting mehr, bei dem der Begriff Big Data nicht mindestens einmal gefallen wäre. Die Gartner-Definition mit den drei Vs – Volume, Variety, Velocity – war zum gehobenen Wissen für Party-Small-Talk geworden (unabhängig davon wie hilfreich diese Definition tatsächlich oder wie tief das IT-Verständnis derjenigen war, die sie gebetsmühlenartig wiederholten). Kurzum: Der Fachterminus Big Data war zu einem Label der Digitalisierung geworden – so groß wie der Begriff selbst und wie die Versprechen jener, die ihn groß gemacht haben. Die Welt befand sich endgültig im Big-Data-Fieber.

21

Teil I – Trends

Für Google Flu Trends war 2013 kein so gutes Jahr. Im Februar erschien auf dem Newsportal von Nature ein Bericht, dass der Musterknabe der Big-Data-Anwendung mit Weltverbesserungsanspruch viele Grippeepidemien viel zu dramatisch einschätzte, andere wiederum überhaupt nicht mitbekomme. Zu Letzteren gehörte z. B. die Schweinegrippe im Jahr 2009. Im Nachhinein ließe sich die Flu-Trends-Geschichte auch so lesen: Google war mit der Anwendung seiner Zeit mal wieder voraus. Die Dateningenieure aus Mountain View waren die Ersten mit großen Behauptungen. Und die Ersten, die große Enttäuschungen produzierten. Eine Harvard-Studie erhebt den Fall gleich zur Parabel für den Hype um die Big-Data-Analyse insgesamt. Die wichtigste Vokabel in der Studie lautet »Hybris«. Das Wort stammt aus dem Altgriechischen und heißt zu Deutsch: »Selbstüberschätzung«. Der Economist verkündete im April 2014 »The Backlash against big data«. Die New York Times zählt in einem großen analytischen Artikel auf: »Eight (No, Nine!) Problems with Big Data«. David Spiegelhalter, Winton Professor for the Public Understanding of Risk an der Universität Cambridge wählt eine noch deutlichere Formulierung: Die großen Versprechen von Big Data sind für ihn empirisch betrachtet schlicht und einfach »complete bollocks«!

Hype-Cycling Das Phänomen ist so alt wie der erste Computer. Informationstechnologien kommen als Großmäuler auf die Welt: Sie versprechen mehr, als sie kurzfristig halten können. Das hat viel mit der Mentalität der Menschen in der IT-Industrie zu tun und der durch und durch US-amerikanischen Prägung der Branche. Keine neue Technologie wäre klein genug, als dass ihre Erfinder und Vermarkter sie nicht als »disruptiv« bezeichnen würden. Auch Das Phänomen ist so alt uns geht dieses Spiel mitunter gehörig auf die Nerwie der erste Computer. ven. Aber es muss nicht immer böser Wille dahinterInformationstechnologien stecken. kommen als Großmäuler auf die Welt: Sie verspreDas Großsprechertum des informationstechnologichen mehr, als sie kurzschen Fortschritts ist oft Ausdruck einer tiefen Überfristig halten können. zeugung: dass sich die Innovationen langfristig

24

1.1 Big Data Overload – Im Tal der Enttäuschung

durchsetzen und dann mit etwas Zeitverzögerung Individuen, Organisationen und Gesellschaften auch tatsächlich jenen Mehrwert liefern werden, den die Innovatoren zu Beginn der Entwicklung auf (über-)optimistischen Charts an die Wand geworfen haben. Die Software-Analystin Jackie Fenn hat dafür vor 20 Jahren – die ersten Browser machten gerade das Internet für Nicht-Experten zugänglich – ein wunderbar schlüssiges Analyseraster gefunden: Gartners Hype Cycle.

Viele Leser dieses Buchs werden mit der Kurve vertraut sein. In der Sprache der Physiker beschreibt die Kurve eine Sprunganregung einer stark exponentiell gedämpften Schwingung mit Annäherung in einer erhöhten Gleichgewichtslage. Übertragen auf den Geschäftskontext bedeutet das: Neue Informationstechnologie erfährt zunächst exponentiell ansteigende Aufmerksamkeit, angefeuert von den Marketingversprechen der Anbieter. Damit schrauben sich auch die Erwartungen an das IT-Produkt nach oben, die die unreifen Werkzeuge dann in ihrer ersten Auslieferungsversionen nie und nimmer erfüllen können.

25

Teil I – Trends

Die Enttäuschung ist sozusagen im Verfahren einprogrammiert. Wenn das innovative Produkt aber über technische Substanz verfügt, wird es bald verbesserte Versionen geben. Den Entwicklern wird es gelingen, Kinderkrankheiten zu kurieren und neue Funktionen einzubauen, an die ursprünglich niemand gedacht hat. Die öffentliche Aufmerksamkeit für das Produkt hat sich in dieser Phase deutlich verringert, dafür werden die Einschätzungen zu seinem Potenzial und seinen technischen Grenzen realistischer. Erfolgreiche Informationstechnologie erreicht irgendwann das »Plateau der Produktivität«. Kunden wissen, was sie bekommen. Und sie sind sicher, dass die dann nicht mehr ganz neuen, aber dafür halbwegs ausgereiften Anwendungen ihrer Organisation auch tatsächlich nützen. 2011 tauchte Big Data zum ersten Mal als technologischer Gattungsbegriff im jährlichen Gartner Hype Cycle auf. Im Jahr 2013 hatte er dann den Gipfel der überzogenen Erwartungen erklommen. 2014 nahm seine Achterbahnfahrt ins Tal der Enttäuschung Tempo auf und sie wird sich dieses Jahr noch weiter beschleunigen. Erwartungsgemäß, könnte man hinzuDe facto wird das Tal fügen, und man sollte auch nicht unerwähnt lassen: der Enttäuschung für Es ist in der Wahrnehmung kritischer und kompeviele Technologien tenter Experten wie David Spiegelhalter keineswegs zum Death Valley. ausgemacht, dass Big Data wieder die Kurve Richtung Plateau der Produktivität nimmt. Denn natürlich ist der Hype Cycle kein analytisches Rückversicherungsdiagramm, nachdem alle mit Buzzwords belegten Informationstechnologien sich tatsächlich durchsetzen nach dem Motto »Dann dauert es halt ein bisschen länger«. Ex post betrachten die Gartner-Analysten besonders gerne jene Anwendungen, die sich tatsächlich im Markt etabliert haben, aber de facto wird das Tal der Enttäuschung für viele T ­ echnologien zum Death Valley. Der Begriff Big Data ist so unscharf, beinhaltet so viele unterschiedliche Werkzeuge und Anwendungsfälle und hat ein solches Ausmaß an Verwirrung unter strategischen und operativen Entscheidern gestiftet, dass heute niemand abschätzen kann: Welche Ansätze und Methoden der Massendatenanalyse werden wir in fünf oder zehn Jahren wie selbstverständlich in Unternehmen nutzen? Und bei welchen hochgejubelten Wunderwaffen werden wir uns nicht einmal mehr an den Namen

26

1.1 Big Data Overload – Im Tal der Enttäuschung

erinnern? Dazu trägt bei, dass der namensstiftende Teil des Big-DataHypes, das Big, einerseits nicht quantifiziert ist. Andererseits ist die Frage, welche Datenmengen leicht oder schwer zu handhaben sind, sehr subjektiv. Für das eine Unternehmen sind ein paar Petabytes (10 hoch 15) eine unvorstellbare große Datenmenge, andere haben selbst Exabytes (10 hoch 18) spielerisch im Griff. Die Quantität ist allerdings unserer Erfahrung nach in den meisten Anwendungsfeldern im Business-Kontext die unwichtigste Komponente, um datenanalytische Verfahren für das einzelne Unternehmen zum Plateau der Produktivität zu führen. Wir kommen ausführlich darauf zurück, aber an dieser Stelle wagen wir schon einmal die Prognose: Der Begriff Big Data wird über kurz oder lang als dominierende Begrifflichkeit für Datenanalytik in Unternehmen verschwinden.

Big Data ohne Big Bang Wenn wir unsere Erfahrungen aus unseren Datenprojekten in Konzernen und bei großen mittelständischen Unternehmen der letzten Jahre aufaddieren, ergibt sich in der Haltung zu Big Data folgendes, in sich widersprüchliches Mosaik: Je höher die Entscheiderebene, desto öfter fällt der Begriff Big Data und desto größer sind auch die mit ihm verbundenen Erwartungen. Dies gilt in verschärfter Form, wenn sich CEOs, Vorstände oder Strategieabteilungen mit den grundlegenden Herausforderungen der Digitalisierung in ihrem Geschäftsfeld noch nicht intensiv auseinandergesetzt haben. Oder direkter formuliert: Je weniger Datenerfahrung, desto größer ist oft die Hoffnung im Management, mit Big-Data-Anwendungen schnell große Potenziale für sich zu erschließen. Diese Hoffnung projizieren sie besonders auf Wachstum in neuen Geschäftsmodellen, die das Unternehmen bisher noch nicht beackert. Befeuert werden die Erwartungen dieser Entscheider durch beeindruckende Geschichten in den Medien. Dort lesen sie:

27

Teil I – Trends

1. Amazon liefert mit Drohnen Güter des täglichen Bedarfs aus, noch bevor der Kunde selbst merkt, dass er sie dringend braucht. 2. Der Videoverleiher Netflix kennt dank Datenwissen den Geschmack seiner seriensüchtigen Kunden so gut, dass er selbst zum Produzenten von TV-Serien wird und diese so geschickt vertreibt, wie Kevin Spacey in House of Cards intrigiert. 3. Die KFZ-Versicherung der Zukunft kalkuliert ihre Tarife mithilfe von GPS-Daten im Rahmen von Pay-as-you-drive-Modellen und kann zuverlässigen Fahrern damit unschlagbar günstige Angebote machen. Konkrete Vorstellungen, wie solche grundlegenden Geschäftsfeldinnovationen im eigenen Unternehmen aussehen könnten, gibt es oft noch nicht. Sehr wohl herrscht aber die Grundhaltung, dass Daten den Weg schon weisen werden. Das geht nicht nur schnell, sondern auch günstig, denn IT kostet heute ja so gut wie nichts mehr. Das wissen wir aus allen Big-Data-Präsentationen der letzten Jahre. Auf der anderen Seite stellen wir immer wieder fest: Je niedriger die Entscheiderebene, desto größer ist die Frustration, die der Begriff Big Data hervorruft – mehr oder weniger gut kaschiert, versteht sich. Der emotionale Widerstand speist sich aus verschiedenen Quellen. Zum einen haben IT-Abteilungen oft selbst schon Konzepte erarbeitet, wie das Unternehmen Daten intelligenter nutzen könnte, sind aber damit intern nicht durchgedrungen. Zum anderen wissen die für Datenthemen operativ Verantwortlichen in der Regel sehr genau: Sollte das Management das Datenthema einmal grundlegend anfassen, ist die Komfortzone in organisationaler Nähe zum Unternehmensserver plötzlich Kriegsgebiet. IT-Abteilungen erweisen sich überraschend oft als mächtige Bremser beim informationstechnologischen Fortschritt. Die Standardformulierung in diesem Zusammenhang lautet: »Darauf ist unser System nicht ausgelegt.« Oft haben die Bremser (aus ihrer Sicht) Glück und müssen die mühsamen Schritte einer schnellen Digitalisierung ihres Unternehmens nicht gehen. Denn wenn sich die oberen Ebenen intensiver mit den kurzfristig realistisch erwartbaren Zugewinnen durch sogenannte Big-Data-Applikationen beschäftigen, nimmt die Begeisterung rasch ab. Diese Ernüchterung schlägt hin und wieder gar in eine innere Abwehrhaltung um, wenn der Vorstands­ ebene langsam klar wird, wie tief greifend die Veränderungen in der eigenen Organisation sein müssten, damit langfristig die eigentlichen

28

1.1 Big Data Overload – Im Tal der Enttäuschung

Potenziale durch Digitalisierung in ihren Märkten gehoben werden können. Gemeint ist damit natürlich: von ihnen gehoben werden, und nicht von anderen. Das Problem in vielen Unternehmen mit relativ vagen Big-Data-Ambitionen sieht auf den Punkt gebracht wie folgt aus: Das Management erkennt Massendatenanalyse als Möglichkeit zur Erschließung neuer Geschäftsmodelle. Daran knüpfen die Topentscheider große Erwartungen. In Projekten merken sie schnell, dass Daten ein Rohstoff sind, der sich kurzfristig vor allem dafür eignet, das eigene Kerngeschäft entlang der eigenen Wertschöpfungskette zu optimieren – von der Beschaffung über Produktion, Steuerung der Zulieferer, Logistik, Marketing und Vertrieb bis zur Nachbetreuung der Kunden. Die Potenziale von Big Data sind damit oft untrennbar mit der Weiterentwicklung des Geschäftsmodells verbunden. Versucht man dann, rein »inkrementelle« Potenziale durch Daten ohne eine parallele Weiterentwicklung des Geschäftsmodells zu berechnen, liegen die zu erwartenden Einsparungen oder zusätzlichen Umsätze/Gewinne in der Regel weit unter jenen, welche die Big-DataFantasien ursprünglich geweckt hatten. Big Data ohne Big Bang macht dann keinen Spaß. Eine unternehmensübergreifende Suche nach datengetriebenen Optimierungslösungen führt schnell auf diverse, erfahrenen Kämpfern der Konzernkultur wohl bekannte Minenfelder: 1. Datensilos müssen geöffnet werden. Das Marketing könnte von Vertriebsdaten profitieren oder umgekehrt. Aber leider sind sich die Abteilungsleiter spinnefeind und agieren nach dem Prinzip: Solange ich von deinen Daten profitiere, finde ich das gut. Umgekehrt aber mal so gar nicht. 2. Der datentechnische Teufel liegt oft im Detail. Kleine Probleme wachsen sich gerne zu großen aus und deshalb haben IT-Kosten – allen Versprechen der IT-Industrie zum Trotz – nach wie vor die Tendenz, sich wie Kosten für Berliner Flughäfen oder Hamburger Elbphilharmonien zu verhalten. Welche Führungskraft auf dem Weg nach oben will dieses Risiko eingehen? Erschwerend kommt hinzu: Die Macht der Datenbankadministratoren ist nach wie vor oft größer, als es aus Geschäftssicht wünschenswert wäre. Wer in der Organisation kann schon einschätzen, wie komplex es wirklich ist, die 5 000

29

Teil I – Trends

Zeilen SQL-Code umzuschreiben, die für eine innovative Kundendatenanwendung überarbeitet werden müssten? Außer demjenigen, der es machen soll. 3. Die Datenschützer – interne wie externe – stellen gerne ihre Existenzberechtigung unter Beweis. Juristische Risiken abzuschätzen und rechtliche Hürden zu überwinden macht keinem Manager Spaß. Auch datengetriebenen nicht. 4. Es wäre wünschenswert, wenn es bereits anders wäre: Aber der Nutzen von Analytics-Tools lässt sich weniger zuverlässig prognostizieren als von Software-Verkäufern und Beratern behauptet. Große Versprechen und geringer kurzfristiger Nutzen haben auch bei analytischen Optimierungsprojekten entlang der Wertschöpfungskette viel verbrannte Erde hinterlassen. 5. Die größte Hürde für bessere Datennutzung ist nicht die Maschine, sondern der Mensch. Genauer: die menschliche Ressource. Kluge Datenanalyse braucht kluge Köpfe. Die sind a) oft intern gar nicht vorhanden bzw. bereits bis Oberkante Unterlippe mit Arbeit versorgt. Oder b) nur teuer von außen zu beschaffen, was dann mit allen bekannten Schwierigkeiten verbunden ist, die Budgets dafür frei­ zuschaufeln. Unter dem Strich heißt das: Wer als Topentscheider und/oder Budgetverantwortlicher in seiner Organisation Projekte, die eine Massendatenanalyse erfordern, voranbringen möchte, wappnet sich besser gleich für einen wahrscheinlichen, jahrelangen Kampf gegen eine große Zahl von Windmühlen. Gering dagegen sind die Chancen, dass die kurzfristig zählbaren Ergebnisse weit über den Prognosen liegen, mit denen er das Projekt intern verkauft hat. Sind die strategischen Gedanken sortiert, spüren CEOs und Vorstände: Ein tief greifender Transformationsprozess hin zu einem datengetriebenen Wettbewerber, einem »Analytical Competitor«, wie es der US-amerikanische Business-Analytik-Vordenker Thomas Davenport nennt, dauert mindestens fünf, vermutlich eher zehn Jahre. Die wenigsten CEOs und Vorstände wissen, ob sie dann noch CEOs oder Vorstände in diesem Unternehmen sein werden. Gleichzeitig ist natürlich allen Unternehmen mit Schnittstellen zur Digitalisierung klar: Irgendetwas müssen wir tun. Was aus diesen Widersprüchen zurzeit in vielen Unternehmen herauskommt, nennen Schachspieler »Lavieren«.

30

1.1 Big Data Overload – Im Tal der Enttäuschung

Lavieren in der Schockstarre Es gibt Situationen in einer Schachpartie, in denen ist Lavieren sinnvoll. Keiner der Spieler hat eine aussichtsreiche Siegstrategie für sich gefunden. Die Kontrahenten gruppieren ihre Figuren immer wieder in harmloser Form um und halten sich dabei alle strategischen Optionen offen. Lavieren geschieht in der Hoffnung, dass der Gegner Fehler macht, aus denen sich Raumvorteile ergeben. Aus diesen heraus lässt sich dann ein Angriff auf den König aufbauen. Das heißt im Umkehrschluss: Lavieren ist das Gegenteil von Strategie. Nämlich abwarten und hoffen, dass sich eine Chance auftut, die man selbst nicht aktiv geschaffen hat. Wer mit Schach nichts anfangen kann: Was viele Unternehmen zurzeit »unsere Digitalstrategie« nennen, erinnert an harmloses Ballgeschiebe im Mittelfeld. Eine im Kern passive, abwartende Haltung, die mit gelegentlichem Aktionismus und in Meetings mit häufiger Verwendung von Daten-Buzzwords kaschiert wird.

31

Teil I – Trends

Zu den typischen aktionistischen Handlungsmustern lavierender Unternehmen zählen: ➤➤

➤➤

➤➤

Die Einführung einer Vielzahl von Analytik- und Visualisierungswerkzeugen für spezifische Aspekte, was grundsätzlich natürlich eine gute Sache ist. Da dies aber oft unabgestimmt erfolgt, fragmentiert sich die IT-Landschaft immer stärker – »Tool-Wildwuchs« entsteht. Mit dem Wildwuchs nimmt auch das frustrierende Gefühl zu: »Wir beherrschen unser System nicht mehr, sondern ertrinken im Datenmeer.« Oder wie es der Vertriebschef eines großen Versicherungsunternehmens formulierte: »Wir brauchen jetzt eine schnelle Lösung, damit unsere Agenten auf die Schadenfreiheitsklassen der Kunden zugreifen können. Mangels Zeit und Geld müssen wir aber eine provisorische Lösung bauen, die langfristig die effiziente Datennutzung weiter erschweren wird.« Der Tool-Wildwuchs geht einher mit dem punktuellen, unkoordinierten Zukauf von externen Daten, für die dann aber neue Datentöpfe aufgemacht werden, sodass sich die Integration technisch immer schwieriger gestaltet. Zum Tool-Wildwuchs kommt also der Datenwildwuchs hinzu. Die Auslagerung der digitalen Innovation in unternehmenseigene Akzeleratoren. Das liest sich in den Pressemeldungen auch wunderbar, und es ist prinzipiell eine tolle Sache, junge Entrepreneure bei ihrer Suche nach der technologischen Zukunft zu unterstützen. Wir kennen Ausnahmen, bei denen der Ansatz tatsächlich innovativen Schwung in Organisationen gebracht hat, aber nüchtern betrachtet muss man auch festhalten: Die Anzahl der Startup-Erfolgsgeschichten aus Corporate Accelerators heraus ist gering. Ohne Rückbindung an die Kernbereiche sendet die Gründung eines Accelerator – und in eingeschränktem Maße auch die Beteiligung an digitalen Startups – unter Umständen ein falsches Signal nach innen: Wir haben da ja eine extrem innovative Truppe in Berlin! Diese Botschaft verringert den Druck, im Kerngeschäft mit Daten für Beschleunigung zu sorgen.

Es mag sich paradox anhören, aber die größte Gefahr für langfristige Digitalisierungsgewinne besteht, wenn die Lavierer mit ihrem Aktionismus erste Erfolge nachweisen können – und wenn sie zudem noch ganz gute interne Promotoren ihrer Arbeit oder Abteilungen sind. Denn

32

1.1 Big Data Overload – Im Tal der Enttäuschung

dann verfestigt sich der Eindruck: Dank vieler neuer Tools und vieler neuer Daten sind wir doch auf einem guten Weg. Zudem haben wir ja mit dem Accelerator noch diverse Wildcards im Spiel. Wir müssen also nichts grundsätzlich ändern. Diese Botschaft echot dann von oben bis zur Poststelle und wieder zurück. Das fühlt sich gut an. Die Big-Data-Erfinder im Silicon Valley mögen teils unter Selbstüberschätzung leiden. Die lavierenden Organisationen mit inkrementellen Digitalisierungsfortschritten, die sie selbst unter das Label Big Data stellen, leiden unter einer mehr oder minder schweren Form der Selbsttäuschung. Es gilt das Diktum von Dan Ariely, Professor für Psychologie und Verhaltensökonomik an der Duke University: »Big Data ist wie Teenage-Sex. Alle reden drüber. Fast keiner macht es. Und diejenigen, die es machen, machen es schlecht.« Das Grundproblem der Lavierer auf den Punkt gebracht: Sie rufen so oft und so laut wie möglich Big Data! Sie überhöhen die Erfolge, die sie im Datenwildwuchs auch hier und da erzielen. Sie haben aber in Wahrheit kein Transformationsmodell für sich gefunden, das ihnen die Perspektive eröffnet, in ihrer Branche die analytische Hoheit zu übernehmen. Zugegeben, das ist alles sehr hart formuliert. Die Erfahrung in Projekten zeigt: Überspitzung hilft, um Problembewusstsein zu schaffen. Ein etwas neutraleres Analyseraster zur Beschreibung der digitalen Lage vieler Organisationen (und der Gemütslage vieler Manager, die der digitale Wandel umtreibt) könnte so aussehen:

33

Teil I – Trends

Das Kästchen links unten beschreibt den Ist-Zustand, den Status quo der datenanalytischen Aktivitäten im Unternehmen. Damit sind viele – wenn sie ehrlich zu sich und ihren Mitarbeitern sind – nicht zufrieden. Der Kasten rechts oben ist schwerer zu fassen. Er beinhaltet eine eher abstrakte Größe: die digitale Vision. Also die Antwort auf die Frage: Wie könnte ein digital getriebenes und damit langfristig wettbewerbsfähiges Modell für unser Unternehmen der Zukunft aussehen? Diese Vision speist sich zum einen aus den aktuellen Use-Cases der analytischen Superstars wie Google, Amazon, Netflix, Paypal, Bluekai usw. Da herrscht unter den Vertretern aus Otto-Normal-Unternehmen die berechtigte Wahrnehmung: Wie sollen wir denn je an deren Datenkompetenz herankommen? Die sind uns doch unendlich voraus! Die Schlacht können wir niemals gewinnen. Zum anderen stehen im Visionskasten noch die datengetriebenen Startups mit ihren vollmundigen Versprechen. Bei denen fragen sich der Konzernmanager und der schwäbische Maschinenbauer unisono und ebenfalls mit gewissem Recht: Wofür haben die eigentlich gerade 100 Millionen US-Dollar bekommen? Wie kann das sein, ohne einen einzigen zahlenden Kunden? Die gehen mit wolkigen Visionen an die Börse und ich werde an meinen Quartalszahlen oder Monatsumsätzen gemessen.

34

1.1 Big Data Overload – Im Tal der Enttäuschung

Das Gemeine an dem Visionskasten: Er ist so verdammt weit weg vom Ist-Zustand. Es ist leider extrem schwierig zu erkennen, was die Vision mit dem Tagesgeschäft in den meisten Unternehmen zu tun hat. Im Hinblick auf die Erfahrungen mit jüngeren sogenannten Big-Data-Projekten, dem Aufwand, den sie verursacht, und den Nutzen, den sie gebracht haben, wird es immer schwerer zu glauben, dass der Kasten mit dem Ist-Zustand in absehbarer Zeit zu einer Größe anwachsen kann, durch die er in den Visionskasten hineinragt. Leider muss für die meisten Unternehmen in den meisten Branchen genau dies das Ziel sein. Lavieren geht nur, wenn die anderen ebenfalls lavieren. Wehe, die anderen haben eine gute Strategie. Dann ist der Lavierer schneller matt, als er denkt. In Projekten stellen wir an dieser Stelle gerne folgende Denksportaufgabe: Stellen Sie sich bitte vor, Google oder Apple oder Amazon treten morgen in Ihren Markt ein. Was würden Sie tun?

35

1.2 Der digitale Tsunami – Keine Daten sind auch keine Lösung »The world needs banking but it does not need banks.« Bill Gates

Disruption entlang der Wertschöpfungskette »Niemand will Bücher im Internet kaufen. Die Leute wollen ein Buch durchblättern, bevor sie es kaufen und die Empfehlung eines kompetenten Verkäufers hören.« Das war ein sehr gängiger Kommentar von Buchhändlern, als Jeff Bezos 1996 mit Amazon online ging. Als die ersten praktikablen E-Book-Reader Mitte der Nullerjahre auf den Markt kamen, sagten die Händler in der Mehrheit: »Unsere Kunden wollen ein haptisches Buch in der Hand halten, Papier riechen, mit Bleistiften Textstellen unterstreichen.« Als 2008 zwei Jung-Entrepreneure einen kleinen Online-Shop für Flip-Flops als Testballon für Zalando gründeten, waren die großen Schuhhändler des Landes in überwiegender Mehrzahl der festen Überzeugung: »Niemand wird Schuhe online kaufen. Schuhe muss man anprobieren!« Die aktuelle Version im stationären Handel lautet: »Lebensmittel lassen sich allenfalls in bestimmten Nischensegmenten nicht verderblicher Waren im Netz vertreiben. Die Logistikkosten werden den Lebensmittel-Onlinehandel klein halten.« Und natürlich: »Bei frischen Lebensmitteln möchte man doch vorher sehen, was man kauft.« Eine umfassende Kundenbefragung für eine Roland-Berger-Studie in Kooperation mit dem Handelszentrenentwickler und -betreiber ECE hat ergeben: Online-Shops gelingt es drei Mal besser, Kundenloyalität in Kauffrequenz umzumünzen als Geschäften, in denen Verkaufspersonal aus Fleisch und Blut Kunden persönlich berät – bzw. beraten könnte. Zu intelligenten, digital getriebenen Multikanal-Strategien für

36

1.2 Der digitale Tsunami – Keine Daten sind auch keine Lösung

den stationären Handel werden wir im zweiten Teil dieses Buchs noch einiges sagen, aber das schon vorweg: Wenn stationäre Händler nur annähernd so viel kreative Energie in die Kundendatenanalyse zur Verbesserung des Kundenverständnisses steckten wie in die Suche nach Erklärungen, warum in ihrem konkreten Fall aufgrund welcher strukturellen Besonderheiten für sie persönlich und ihr spezielles Segment Amazon eigentlich keine Konkurrenz ist, dann stünde es deutlich besser um die Geschäfte aus Steinen und Mörtel – auch außerhalb der großen Metropolen. Der Handel ist mit dieser Haltung nicht alleine. Unsere Wahrnehmung nach vielen Gesprächen mit strategischen Entscheidern aus allen möglichen Branchen ist: Viele Unternehmen kämpfen bereits ums Überleben, ohne es zu merken. In unserem Buch Data Unser haben wir vor drei Jahren behauptet: Noch ist analytische Kompetenz ein Wettbewerbsvorteil, in absehbarer Zeit wird sie ein Hygienefaktor sein. Unternehmen mit (zu) geringen datenanalytischen Fähigkeiten werden von analytisch fitten Noch ist analytische Wettbewerbern vom Markt verdrängt. Dieser EinKompetenz ein schätzung wurde mitunter mit hochgezogenen AuWettbewerbsvorteil, in absehbarer Zeit wird genbrauen begegnet. Und der Nachfrage: Ist das sie ein Hygienefaktor nicht alles ein wenig zu alarmistisch? Das war vor sein. (2012) den Insolvenzen von Praktiker, Schlecker, Görtz und Karstadt. Unser Eindruck bleibt, dass über alle Branchen hinweg (zu) viele Entscheider innerlich nicht zur Kenntnis nehmen wollen, wie einige alte und viele neue Wettbewerber analytisch aufrüsten, während die eigenen Navigationsinstrumente in Sachen Kundenkenntnis die gleichen bleiben. In ein Bild gefasst: Ihr Blick von der Brücke auf das Fahrwasser ändert sich nicht. Ein Radargerät älterer Bauart haben sie durchaus – aber dummerweise fährt die Konkurrenz mit Satellitenunterstützung. Und nicht nur das: Sie nutzt alle verfügbaren Informationen, um zu erschließen, was der Kunde wann zu welchem Preis möchte. Und wie Entwicklung, Produktion und Logistik mithilfe von Daten so optimiert werden können, dass am Ende die beste Marge herausspringt. Von oben betrachtet haben wir es mit einem Phänomen systematischer Disruption entlang der Wertschöpfungskette zu tun.

37

Teil I – Trends

Systematisiert lassen sich diese sprunghaften Veränderungen so darstellen:

Da dieser Prozess in den meisten Branchen bislang eher punktuell vonstatten geht und auch die digitalen Vorreiter in der Regel noch in einem mühsamen Transformationsprozess stecken, ist das gesamte Ausmaß der strukturellen Veränderung noch nicht sichtbar. Aber unter der Wasseroberfläche baut sich ein digitaler Tsunami auf, gegen den Zalando im Nachhinein wie eine sanfte Ostseewelle wirken wird.

Schlau, vereint, aggressiv Alles, was digitalisiert werden kann, wird digitalisiert! Der Satz ist im Silicon Valley Gesetz. Die meisten Entscheider auf dieser Seite des Atlantiks haben bei allem Lavieren natürlich trotzdem verstanden: Die Nerds im Tal der radikalen Innovation meinen es ernst und setzen Schumpeters kreative Zerstörung auf Speed. Die Digitalisierung durchdringt alle Branchen und bringt neue Spieler mit neuen Geschäftsmodellen hervor. So weit, so bekannt. Setzen wir die analytische Brille auf. Erfolgreiche Spieler in der digitalen Welt verschaffen sich in der Regel Wettbewerbsvorteile in vier Dimensionen.

38

1.2 Der digitale Tsunami – Keine Daten sind auch keine Lösung

Überlegene, datenbasierte Kundenkenntnis und -orientierung Analytische Wettbewerber haben von der Produktentwicklung bis zu den After-Sales-Prozessen den Schritt weg von der Angebotsorientierung, hin zu einer konsequenten Kundenorientierung geschafft. Im Unterschied zu vielen anderen behaupten sie das nicht nur. »Pull statt push« ist für sie keine Alles, was digitalisiert Bullshit-Formulierung, sondern objektiv nachweisbawerden kann, wird re Geschäftsrealität. Die erfolgreichsten Unternehmen digitalisiert! dieser Kategorie bedienen menschliche Grundbedürfnisse in einer neuen Form. Google macht das Wissen der Welt allen zugänglich. Kostenlos! Facebook revolutioniert die private Kommunikation. Der Like-Button ist die technisch perfekte Antwort auf das zutiefst menschliche Bedürfnis, gemocht und gelobt zu werden. Überlegene Kundenkenntnis dank Daten ist zudem ein gutes Dienstleistungsgeschäft. Angebotsaggregatoren und Datenauswertern gelingt es in vielen Bereichen, sich als neue Mittelsmänner mit direkteren Zugängen zu Kunden oder als Prozessoptimierer in die Wertschöpfungskette einzuklinken und entsprechend einen Teil der Wertschöpfung auf die eigenen Geschäftskonten umzuleiten. Durch diese Disintermediation zwischen Anbietern und Kunden verschieben sich Profit-Pools teilweise massiv. Traditionelle Anbieter werden oft doppelt in die Zange genommen: Einerseits sinken die Absatzmengen durch neue Anbieter im Netz. Gleichzeitig sinken die Margen aufgrund der Provisionen für Absatzmittler und Suchmaschinen.

Plattformisierung und Netzwerkeffekte Wie bauen wir eine Plattform, deren Regeln und Schnittstellen wir definieren, sodass andere Marktteilnehmer sich an unserer Wertschöpfung beteiligen müssen? Das ist die strategische Frage, die sich viele Gründer im Silicon Valley stellen. Sie haben verstanden: Digitalisierung bedeutet, in Marktstrukturen gedacht, Plattformisierung. Abstrakt formuliert sind Plattformen Produkte, Dienstleistungen oder Technologien, die einer möglichst großen Anzahl von Firmen dienen,

39

Teil I – Trends

um komplementäre Produkte, Dienste oder Technologien anzubieten. Plattformmärkte haben einen relativ stabilen Kern, z. B. das Betriebssystem Android mit dem Google Play Store oder der Amazon Marketplace, und agile Anbieter im peripheren Ökosystem, also z. B. App-Entwickler oder spezialisierte Webshops, die über Amazon vertreiben. Die Plattform verfügt über den Zugang zum Endkunden, setzt die Standards, wie die Produkte zum Kunden geliefert werden können und fördert den Wettbewerb unter den Anbietern des Ökosystems. Im Unterschied zum Plattformbetreiber stehen diese unter hohem Innovationsdruck und haben in der Regel deutlich niedrigere Margen. In Plattformmärkten gilt die gute alte Technikerregel: Wer die Norm macht, hat den Markt. Der Clou an Plattformen in der digitalen Ökonomie ist: Sie können noch schneller und besser skalieren als Hersteller mit großer Marktmacht in klassischen Wertschöpfungsketten. Der Grund hierfür ist der sogenannte Netzwerkeffekt, den schon die ersten Telefongesellschaften Anfang des 20. Jahrhunderts für sich zu nutzen wussten. Je mehr Markteilnehmer eine Plattform für sich gewinnen kann, desto größer ist der Nutzen In Plattformmärkten gilt für alle. Je mehr Kunden, desto attraktiver wird die die gute alte Techniker­ Plattform für Anbieter, und umgekehrt. Nimmt eine regel: Wer die Norm Plattform wirtschaftlich Fahrt auf, ist ihr Wachstum macht, hat den Markt. oft exponentiell. Und hat sie sich einmal etabliert, ist ihre Dominanz nur noch schwer zu brechen. Je digitaler die Welt wird, desto öfter werden sich Plattformen in klassische Wertschöpfungsketten einklinken – auf Kosten der klassischen Anbieter des Produkts, der Dienstleistung oder der Technologie, versteht sich. Es liegt in der Natur der Sache, dass es in jedem Markt nur sehr wenige, oft sogar nur eine erfolgreiche Plattform geben kann. Wichtig ist es daher, den eigenen Markt mit der Plattform bewusst zu erweitern und somit nicht nur ein Ökosystem für Kunden und/oder Lieferanten zu schaffen, sondern neue Märkte.

40

1.2 Der digitale Tsunami – Keine Daten sind auch keine Lösung

Neue Potenziale durch intelligente Kollektive/kollaborativen Konsum »Sharing« ist mehr als »Caring«. Teilen ermöglicht in unzähligen Ableitungen, bestehende Geschäftsmodelle zu verbessern und neue zu schaffen. Die Verbraucher-Varianten dieses Phänomens sind oft Vonprivat-an-privat-Marktplätze, auf denen Privatleute oder kleinere Unternehmen brach liegende Ressourcen ökonomisch verwerten: leere Wohnungen, parkende Autos, unterbeschäftigte Handwerker. Airbnb, Uber und Taskrabbit heißen einige der neuen Online-Champions einer Geschäftsgattung, für die die TED-Talkerin Rachel Botsman den treffenden Begriff »Collaborative Consumption« geprägt hat. In Managementetagen wird das Phänomen nach wie vor als Erscheinung mit begrenzter Branchenreichweite belächelt, der eigentliche Hebel dahinter aber wird nicht gesehen: Intelligente Kollektive drängen die Mittelsmänner aus der Wertschöpfung heraus – oder rollen wie im Beispiel Uber und Lyft gleich die ganze Branche auf. Wir sehen hier also das genaue Gegenmodell zu den datenaggregierenden Dienstleistern. Kollaborative Verbraucher machen vor, wie »Cut out the Middleman« in großem Stil funktioniert. Man kann Botsmans Behauptung, dass die neuen Von-privat-an-privatMarktplätze den Konsum »stärker verändern werden als Offline- und Online-Handel zusammen«, als TED-Talk-übliche Übertreibung werten. Doch für Mittelsmänner, egal ob in Business-to-Customer- oder in Business-to-Business-Märkten, empfiehlt es sich, sehr genau hinzuschauen. Besonderes Augenmerk würden wir auf die Frage richten: Wie bildet sich in intelligenten Kollektiven gegenseitiges Vertrauen zwischen den Akteuren? Und wie lassen sich die neuen Konzepte für die Optimierung der Wertschöpfung nutzen? Denn Unternehmen wie Uber und Instacard machen vor, dass sich die neuen Kollektive und der Kapitalismus keineswegs ausschließen …

41

Teil I – Trends

Ambitioniertere Ziele/aggressivere Managementhaltung Es sind nur wenige Zeugnisse überliefert, die Jeff Bezos als besonders sympathischen Menschen beschreiben. Wollte man seinen Charakter in ein Wort fassen, wäre das wohl am ehesten »Ehrgeiz«. Die viel zitierte Vision des Amazon-Gründers lautet: »Ich will der größte Händler der Welt werden.« Diesem Ziel kommt er jeden Tag ein Stück näher. Auch Oliver Samwer, der angriffslustigste der drei Rocket-Internet-Brüder, schielt bei seinem öffentlichen Erscheinungsbild nicht auf eine Sympathie-Rendite. »Ich bin in Sachen Internet der aggressivste Typ auf der Welt. Ich würde sterben, um zu gewinnen, und ich erwarte dasselbe von euch!«, schrieb er mal in einer »Motivations-Mail« an die Gründer und Manager seiner E-Commerce-Beteiligungen. Auch vom »Blitzkrieg« zur Eroberung neuer Märkte wie Indien, Türkei, Australien, Südafrika und Südostasien war in dem Brandbrief die Rede, der an TechCrunch durchgestochen wurde. In der deutschen Öffentlichkeit wurde Samwer für seine Wortwahl geächtet  – zu Recht, wie wir finden. Die expansive Managementhaltung hinter der E-Mail wurde allerdings gleich mitverdammt, was wir als weiteres Warnsignal in Sachen digitaler Tsunami lesen würden. Die Samwers stechen aus konsensual eingeübter deutscher Mittelmaßkultur heraus. Auch – vielleicht vor allem – deshalb werden sie so stark angefeindet. Das ist, losgelöst von persönlichen Sympathien, volkswirtschaftlich dumm. Aus vielen Gesprächen mit digital verunsicherten Managern hören wir heraus: Große Unternehmen geben in Anbetracht der digitalen Herausforderungen innerlich den Anspruch auf, Marktführer zu werden oder zu bleiben. Extremer Ehrgeiz von analytischen Wettbewerbern, angefeuert von Visionen, trifft oft auf lähmende Orientierungslosigkeit bei den großen Noch-Champions, die ihre unternehmerischen Ambitionen sukzessive zurückschrauben. Mit Verlaub: Auch die Managementhaltung hierzulande bietet keinen Anlass zu der Annahme, dass wir die Tsunami-Warnsysteme herunterfahren können.

42

1.2 Der digitale Tsunami – Keine Daten sind auch keine Lösung

Die Dämme weichen auf. Überall! Nach Branchen aufgeschlüsselt ergibt sich aus der disruptiven Veränderung von Geschäftsmodellen durch digital getriebene Spieler folgendes Bild.

Medien/kreative Inhalte Die Musikbranche hatte auch Pech. Um die Jahrtausendwende wurde sie zum ersten großen Opfer der Digitalisierung, weil die Bandbreiten des Internets schon ausreichten, um Musik illegal zu vertreiben. Dass sie als Industrie selbst unfähig war, ein System aufzubauen, in dem zahlungsbereite Musikliebhaber bequem und sicher Musik auf digitale Endgeräte herunterladen können, war kein Pech. Das war Ignoranz gepaart mit Inkonsequenz. Apple wurde mit iTunes – und dem dafür ausgelegten Ökosystem hochwertiger Endgeräte aus iPod, iPhone und iPad – zum disruptiven Innovator. Inzwischen haben sich neben anderen Download-Stores wie Google-Play und Amazon-Music auch noch Streaming-Dienste wie Spotify oder Simfy in die klassische Wertschöpfungkette der Musikverlage eingeklinkt – auf Kosten der Rechteverwerter versteht sich. Zudem hebeln Peer-to-Peer-Anbieter wie Soundcloud die Verlage als Mittelsmänner zwischen Urhebern und Kunden, also Hörern, gleich ganz aus. Filmproduzenten und in eingeschränkter Form auch den Buchverlagen gelingt es zwar hier und da, aus den gröbsten Fehlern der Musikindustrie zu lernen und sie zu vermeiden. Aber unter dem Strich heißen die Gewinner der Digitalisierung von Filmen und Büchern nicht Warner Brothers oder Random House, sondern Netflix und Kindle Books. Bei den klassischen Printmedien sieht es noch düsterer aus. Der offene Brief des Vorstandsvorsitzenden der Axel Springer SE, Mathias Döpfner, an Googles Aufsichtsratschef Eric Schmidt vom Frühsommer 2014 liest sich mit einem knappen Jahr Abstand wie ein Offenbarungseid. Etwas verkürzt lautete die Argumentation: Google will einen Supra-Staat einrichten. Wir brauchen eine groß angelegte staatliche Intervention auf nationaler und europäischer Ebene. Man könnte den Brief auch so deuten: Für die Medienbranche, wie wir sie kennen, ist sonst alles zu spät. Und dabei gehört Axel Springer eigentlich anerkanntermaßen zu den Unterneh-

43

Teil I – Trends

men mit weit fortgeschrittener Digitalisierung. Jeff Bezos kauft als Privatperson die Washington Post. Wer kauft erst Die Welt? Und dann die FAZ? Die Frankfurter Rundschau wollte ja niemand haben.

Handel/E-Commerce »Die absolut professionellen Offline-Händler werden überleben, aber 80  Prozent werden es nicht schaffen.« Der Satz stammt nicht von uns, sondern – mal wieder – von Oliver Samwer. Er fiel in einer großen Abrechnung mit dem stationären Handel, die Samwer auf Einladung von Tengelmann-Gesellschafter Karl-Erivan Selbst die agilsten HändHaub vor einer hochkarätigen Unternehmer- und Maler überschätzen gern nagerschar unternahm. Wir glauben nicht, dass die die Loyalität der eigenen Zahl in dem Satz stimmt. Wir sind aber davon überKunden. zeugt, dass die Kernaussage in die richtige Richtung weist und nur diejenigen Offline-Händler überleben werden, welche die Vorteile der Welt aus Steinen und Mörtel mit den Techniken und Möglichkeiten der digitalen Welt verbinden. In den kommenden Jahren wird sich entscheiden, wer im strategisch wichtigen Multikanal-Handel langfristig die Nase vorn haben wird. Leider fällt auf: Selbst die agilsten Händler überschätzen gern die Loyalität der eigenen Kunden. Viele E-Commerce-Expansionen sind zudem mit beängstigend hohen Kosten verbunden und zunächst nicht oder kaum profitabel. Dies gilt sogar dann, wenn die Online- und MultikanalKonzepte im Grunde strategisch richtig gedacht sind. Die beste Vision nützt nichts, wenn Art und Geschwindigkeit der Umsetzung mit den nativen Onlinern nicht mithalten können. Viele traditionelle Händler sind stolz auf ihre Wachstumsraten im Online- bzw. Multikanal-Geschäft. Dabei wird gerne übersehen, dass der Online-Anteil am Gesamtgeschäft bei praktisch allen traditionellen deutschen Handelsunternehmen unter dem Online-Anteil in den jeweiligen Kategorien liegt. Mit anderen Worten: Man verliert trotz aller Fortschritte weiter Marktanteile, bis man zumindest auf par zum Online-Wettbewerb aufgeschlossen hat.

Reise Der traditionelle Reisevertrieb, das Reisebüro um die Ecke, kann einem dreifach leid tun. Erst kamen die Online-Reisebüros mit ihren Kampf-

44

1.2 Der digitale Tsunami – Keine Daten sind auch keine Lösung

preisen. Dann entdeckten die Fluglinien und Reiseveranstalter, dass sie mit guten Direktbuchungsportalen auf die alten Mittelsmänner verzichten können – und die eingesparte Marge zum Teil selbst einstreichen oder für Preiskämpfe einsetzen. In der dritten Welle machen jetzt Shareconomy-Angebote wie Airbnb oder interkontinentale Wohnungstauschbörsen auch noch ein wichtiges Produkt obsolet: die Hotelübernachtung. Den Hotels dräut derweil nicht nur mittelfristig Unbill von den MitwohnPlattformen. Die großen Buchungsplattformen wie Hotels.com, Booking. com und HRS haben bereits erhebliche Marktanteile erreicht, fordern von den Hotels die »garantiert niedrigsten Preise« und sichern sich gleichzeitig attraktive Provisionen. Google drängt ebenfalls immer stärker in das Geschäft mit der Suche und Vermittlung des »besten und günstigsten« Zimmers. Strukturell interessant in diesem Zusammenhang ist: An der einen Stelle schafft die Digitalisierung Mittelsmänner ab, an anderen lässt sie neue zu. Die neuen Mittelsmänner verfügen dank überlegener Datenkompetenz über die Fähigkeit, den richtigen Kunden zum richtigen Zeitpunkt das richtige Angebot zu machen. Die teils hohe Provision ist dabei aus Sicht der Hotelbetreiber ein eher kurzfristiges Cashflow-Ärgernis. Langfristig viel schlimmer ist, dass die Verbindung zum Kunden abreißt: Zumindest die Verbindung zu jenem Zeitpunkt, an dem der Kunde die Kaufentscheidung trifft – also wenn er die Reise online bucht.

Telekommunikation Telkos sind Datengiganten. Neben Google und Facebook gibt es keine Unternehmen, die über mehr digitale Informationen über uns verfügen als unsere Mobilfunkanbieter: Unser Standort, Bewegungsmuster, mobile Internetnutzung, Verbindungsdaten usw. sollten eigentlich zu neuen Geschäftsmodellen motivieren – z. B. in den Bereichen mobiles Marketing, Datenschutz, Zahlungsabwicklungen oder Plattformen für spezielle Anwendungsbereiche wie die Vernetzung von Maschinen im Zusammenhang mit Industrie 4.0 oder vernetzte Argrarwirtschaft. Doch sagen wir es im Branchen-Sprech: Die Telkos drohen, zur »Dumb­ pipe« zur verkommen. Wenn Nutzer ihre digitale Kommunikation über Smartphones im Wesentlichen über Apps aus den Ökosystemen von

45

Teil I – Trends

Apple oder Google abwickeln, verlieren Vodafone, Telekom, Telefonica und Co. den Datenkontakt zum Kunden. Nahezu alle Versuche der Telkos, auf der Applikationsebene in die Offensive zu gehen, sind in den letzten Jahren gescheitert. Ihre Rolle reduziert sich immer stärker auf die eines Infrastrukturanbieters. Sie bauen Datenautobahnen, wissen aber nicht, wer auf ihnen wohin fährt. Auch hier greift die Grundregel der digital getriebenen Ökonomie: Wer das Frontend beherrscht, beherrscht den Markt. Infrastruktur ist niedrigmargiges Geschäft und lebt im besten Fall von politischer Protektion. Es mag sich seltsam anhören, aber die Telkos müssen, obwohl ihre Technologie durch und durch Wer das Frontend digital ist, ebenfalls ihre digitale Transformationsbebeherrscht, beherrscht mühungen erheblich verschärfen. In ihrem Fall heißt den Markt. Infrastruktur das Ziel: von der Dumb- zur Smartpipe mit smarten ist niedrigmargiges Geschäftsmodellen. Geschäft und lebt im besten Fall von Die politische Debatte um die Netzneutralität hat politischer Protektion. durch die ökonomische Brille betrachtet eher offenbart, dass es an guten Ideen für neue Geschäftsmodelle fehlt. Denn hinter den unterschiedlichen Geschwindigkeiten im Netz steht ja nichts anderes als der Versuch, die Infrastrukturleistung, Daten zu leiten, höher zu bepreisen. Das mag im Einzelfall bei hohen Netzkosten sogar berechtigt sein. Ein guter Plan für die Zukunft ist es dennoch nicht.

Logistik Logistiker mit mangelnder Datenkompetenz geraten seit rund zehn Jahren in die Defensive. Datengestützte Routenoptimierung in Echtzeit hat einigen Anbieter erhebliche Wettbewerbsvorteile gebracht. Das Internet der Dinge – bei der Logistik die konsequente Steuerung der Warenströme durch Datenströme – schaltet dieser Entwicklung gerade die nächste Zündstufe zu. Dabei werden einige Glieder in der Wertschöpfungskette der Logistik überflüssig. So schafft der Reeder Maersk gerade spezialisierte Frachtspediteure ab, die bisher an Häfen und Übergabepunkten Management im Kleinen betrieben. Im Gegenzug nehmen Macht, Umsätze und Profite der Logistikdatenmanager, zum kleinen Teil intern, zum großen Teil externe Logistik-IT-Dienstleister, in hohem

46

1.2 Der digitale Tsunami – Keine Daten sind auch keine Lösung

Tempo zu. Siehe oben zum Stichwort: neue Mittelsmänner dank Datenkompetenz.

Banken/Versicherungen Wie sähe heute wohl eine Bank aus, wenn ein Gründer sie mit fortgeschrittenen Kenntnissen der digitalen Ökonomie bei weniger Regulierung und ohne den organisationalen Ballast einer etablierten Großbank auf der grünen Wiese errichten könnte? In etwa so: wenige Filialen an ausgewählten, gut erreichbaren Standorten, diese an die jeweiligen Kunden in der Region angepasst. Eine deutlich weniger komplexe und viel günstigere IT im Hintergrund. Dafür echte Kundenorientierung mit tatsächlicher Transparenz bei Produkten und Provisionen, geringe Kosten und herausragend bequeme Nutzerführung in den Banking-Apps. Verbunden mit hoher IT-Sicherheit, versteht sich. Beratung erfolgt nach Wunsch online, per E-Mail, Videochat oder persönlich. Aber in jedem Fall nicht an Produkten, sondern an den Bedürfnissen des Kunden ausgerichtet. Und in voller Kenntnis aller Kundendaten an jedem »Touchpoint«. Diese Bank wird es geben. Es ist nur noch eine Frage der Zeit. Zugegeben, den Königsweg zur digitalen Transformation im Bereich Finanzdienstleistungen hat noch niemand gefunden, was aber nach unserer Einschätzung eher an der Regulierung hängt als an Veränderungsbedarf und Kundenwunsch. Aus Sicht von Gründern und Kapitalgebern heißt das im Umkehrschluss: Die Banken und Versicherungen sind sturmreif, weil ihre Strukturen verkrustet sind und sie dank staatlicher Regulierung in den letzten Jahrzehnten keinem hohen Innovationsdruck ausgesetzt waren. Die Vorboten bei Krediten, im Zahlungsverkehr und auch in einigen Versicherungssparten zeigen, wie groß die Angriffsfläche der traditionellen Spieler auf dem Markt ist. ➤➤

➤➤

Neue Vermittler und Vergleichsplattformen schieben sich – analog wie in der Touristik – zwischen Kunden und Anbieter. Und auch hier wird diese Disintermediation zu einer Verschiebung der Profit-Pools führen. »Personal Finance Manager« integrieren die Daten und Produkte verschiedener Anbieter. Kurzfristig dürften solche Angebote die Kundenbindung zu dem jeweiligen Anbieter der Applikation steigern, z. B. der Bank mit der Hauptbankverbindung. Letztlich sind solche

47

Teil I – Trends

➤➤

➤➤

➤➤

➤➤

48

Applikationen oder Apps aber ein weiterer Beitrag zur Disintermediation – spätestens dann, wenn sie von Nicht-Banken angeboten werden. Plattformen zur Vermittlung von Privatkrediten (wie Lending Club oder Smava) und für gemeinschaftliche Finanzierung von Projekten (wie Kickstarter oder Startnext) sind als Modell etabliert und weisen immer beeindruckendere Zahlen auf. So wurde auf Kickstarter bereits weit mehr als eine Milliarde US-Dollar direkt in Geschäftsideen oder Produkte investiert. Geld im Internet zu transferieren ist heute sicher und einfach. Auch von mobilen Geräten, womit Bargeld und Kreditkarten eine mächtige Konkurrenz heranwächst. Paypal, die Bezahlsparte von Ebay, ist der Musterknabe in diesem Geschäft. Banken und teilweise auch Kreditkartenunternehmen haben den Trend zu digitalen Wallets komplett verschlafen und versuchen jetzt mühsam aufzuholen. Auch im Business-to-Business gibt es erste große Zahlungslösungen, bei denen Banken außen vor bleiben. Dazu zählt z. B. Traxpay aus dem SAP-Umfeld. Veränderte Lebenswelten führen langfristig auch zu einer Erosion der aktuellen Geschäftsgrundlage vieler Versicherungen. Die klassische Lebensversicherung passt immer weniger zu einer Gesellschaft mit multiplen Karrierewegen und Patchworkfamilien. Hinzu kommt, dass Abschlussprovisionen immer transparenter gemacht werden müssen und damit unter Druck geraten werden. Auch die private Krankenversicherung steht vor ähnlichen Herausforderungen. Last, but not least wird der Wertewandel vom Besitzen zum Teilen auch das bislang noch hochlukrative Segment der Sachversicherung angreifen. Wer kein Auto besitzt, wird auch keins versichern. Versicherungen sind im Kern soziale Netzwerke. Menschen tun sich zusammen, um gemeinsam individuelle Risiken abzusichern. Die Idee liegt nahe, die Netzwerkfähigkeiten des Internets auf das Geschäftsmodell von Versicherungen anzuwenden. Friendsurance aus Berlin versucht das, indem Freundeskreise untereinander bestimmte Risiken übernehmen und dadurch deutlich günstigere Tarife bekommen. The Climate Corp aus dem Silicon Valley bietet mithilfe von Big-Data-Wetteranalyse Ernteausfallversicherungen für Landwirte an und hat für dieses Geschäftsmodell 100 Millionen US-Dollar Risikokapital eingesammelt. In Südafrika werden Mikroversicherungen per Handy für einzelne Fahrten im unsicheren Sammeltaxi als

1.2 Der digitale Tsunami – Keine Daten sind auch keine Lösung

Geschäftsmodell möglich. Auch bei Versicherungen hat noch kein digital natives Unternehmen die große Erfolgsformel gefunden. Aber wehe, wenn!

Bildung Wir sind immer wieder überrascht, wie wenig über die disruptiven Kräfte der Digitalisierung in der Bildung gesprochen wird – und wie selten über die Marktchancen, die sich daraus ergeben. Lernen ist einer der größten Märkte der Welt. Der globale Markt ist, da primär in staatlicher Hand, schwer zu quantifizieren, aber mit der Hausnummer von vier Billionen US-Dollar liegen Schätzungen sicher nicht ganz falsch. Definitiv sicher ist: Die staatlichen und privaten Budgets von frühkindlicher Bildung, Schulen, Universitäten, betrieblicher Fortbildung, Erwachsenenbildung und Programmen zu selbstmotiviertem Lernen zur persönlichen Selbstverbesserung zusammengenommen würden Raum für viele Googles und Facebooks und Amazons bieten. Ein bis dato kaum wahrgenommener Trend ist adaptive Lernsoftware, besonders in mathematisch-naturwissenschaftlichen Fächern. Diese Programme gehen wie ein guter Pädagoge auf die individuellen Stärken, Schwächen, Lerngeschwindigkeiten usw. ein. Sie sind dabei aber geduldiger als der beste Pädagoge. Bereits bekannter sind die MOOCS, die »Massive Open Online Courses«. In US-amerikanische OnlineUniversitäten wie Coursera, Edx oder Udacity haben sich inzwischen Millionen Studenten eingeschrieben und machen sich mit viel Energie auf den Weg, die alten Versprechen von Fernuniversitäten (Lernen zu Hause) und E-Learning (Lernen skalieren) miteinander zu verknüpfen. Weltweit gibt es Nachahmer und es scheint nur eine Frage der Zeit zu sein, bis das Ganze auch als Geschäftsmodell profitabel ist, wobei ja auch hier gilt: Schon ein kleines Stück vom Kuchen wäre ziemlich groß.

49

Teil I – Trends

Medizin/Gesundheit Der Weg zu personalisierter Medizin führt über Daten. Das hat sich herumgesprochen und Projekte wie der Onkolyzer zur genomdatenbasierten Krebsbehandlung vom Hasso-Plattner-Institut in Postdam und der Berliner Charité bekommen die Aufmerksamkeit, die sie verdienen. Zu den ersten kommerziellen Anwendungen des IBM-Computers Watson – bekannt geworden durch seinen legendären Maschine-besiegtMensch-Coup im US-Fernsehquiz Jeopardy! – zählt die diagnostische Unterstützung von Ärzten durch Datenbankabgleiche. Auch darüber wurde viel berichtet. An anderen Stellen kommt die digitale Disruption des Gesundheitssektors auf leiseren Sohlen daher. 2007 starteten zwei Journalisten des Tech-Magazins Wired Quantifiedself.com. Wie der Name sagt: Ziel der Plattform ist es, Menschen dabei zu helfen, sich selbst zu quantifizieren. Also mit digitalen Helferlein, oft Apps auf dem Smartphone, das eigene Verhalten aufzuzeichnen, zu analysieren und nach Fehlererkennung Verhaltensänderungen herbeizuführen. Das kann die Vermessung des Alltags sein. Z. B. wie viel Zeit wir in unserem E-Mail-Postfach oder in wenig produktiven Meetings oder durch ungeschickte Wegplanung verschwenden. Oder ein umfassendes, grafisch sauber aufbereitetes Bild unseres Kaufverhaltens. Der Schwerpunkt liegt allerdings auf der Quantifizierung des eigenen Körpers, also auf Ernährung, Bewegung, Schlaf usw. Aus Sicht von Datenschützern sind viele dieser Selbsterfassung-zurSelbstverbesserung-Anwendungen problematisch, da der Selbsterfasser sehr persönliche Daten mit Firmen teilt, deren Seriosität schwer einzuschätzen ist. Das stört die Datenschützer bislang jedoch deutlich stärker als die wachsende Zahl an Nutzern. Für den Gesundheitsmarkt bietet sich großes Potenzial, denn technische Möglichkeiten und Kundenbedarf kommen zusammen: ➤➤

52

Das Smartphone kann noch viel mehr, als es bisher zeigt. So wie es ist, oder mit kleinen technischen Ergänzungen, kann es nicht nur zum Kassensystem, Scanner oder Haustechnik-Steuerungsgerät werden, sondern auch zu einem Allroundgerät im Bereich Gesundheitsmanagement und Medizintechnik.

1.2 Der digitale Tsunami – Keine Daten sind auch keine Lösung ➤➤

Der Bedarf ist riesig, und zwar zur Freude der Gründer und Investoren auf zwei Ebenen. Gesunde, sportliche Verbraucher bekommen Langzeitzugang zu Mess- und Analysewerkzeugen, die bisher nur Spitzensportlern mit eigenen Ärzteteams zur Verfügung standen. Damit sie noch gesünder und noch sportlicher leben können, teilen sie nicht nur Daten über absolvierte Jogging-Kilometer, Tiefschlafphasen und das EKG der letzten vier Wochen. Noch deutlich größer dürfte das Marktpotenzial bei denen sein, die das Thema nicht präventiv und selbstmotiviert angehen: bei den (chronisch) Kranken und alten Menschen, die alleine nicht mehr so gut zurechtkommen.

Diabetes- und Herz-Kreislauf-Patienten gehören zu den Kernzielgruppen von digitalen Innovationen, bei denen zumindest ein Teil der medizinischen Begleitung an das Smartphone delegiert werden kann – bzw. an sogenannte Wearables, die Smartphone-Technologie mit medizintechnischer Diagnostik kombinieren. An der Stelle unterstützt ein weiterer Megatrend die Entwicklung: die Alterung der Gesellschaft. Bis dato haben sich digitale Startups in diesem Feld des Gesundheitswesens stark auf die Vermittlung von Pflegedienstleistungen oder Plätzen in Seniorenwohnheimen konzentriert. Der nächste Schritt sind auch hier die Anwendungen direkt am Körper. Ein digital vernetztes Fitness-Armband kann ja nicht nur Schritte zählen. Es merkt auch, wenn ein Mensch hinfällt und ohnmächtig wird. Und es kann natürlich auch Hilfe herbeifunken.

Produktion/Industrie 4.0 Der Begriff Industrie 4.0 ist mindestens so unscharf wie der Begriff Big Data. Und er wird von mindestens ebenso vielen Entscheidern in den Mund genommen, die nicht so genau wissen, was mit Industrie 4.0 genau gemeint sein könnte. Anbieter im Maschinenbau verstehen darunter oft: Wir bauen ein paar Sensoren zusätzlich ein und kleben dann die Kennziffer 4.0 drauf, denn das klingt irgendwie modern. Für uns bedeutet Industrie 4.0 Folgendes: Die Fertigungsmaschine der Zukunft wird sich permanent mit anderen Maschinen austauschen, die um sie herum in einer intelligenten, vollständig digital vernetzten Fabrik stehen. Sie wird anderen Maschinen

53

Teil I – Trends

sagen, wenn sie mehr industrielles Futter zur Produktion ihrer Werkstücke braucht. Und sie kann andere Maschinen um Unterstützung bitten, wenn sie an ihre Kapazitätsgrenzen stößt. Die Fertigungsmaschine kommuniziert aber nicht nur mit ihresgleichen, sondern auch noch mit den Materialien, die sie verformt, und den Werkstücken, die sie produziert oder weiterverarbeitet. Diese tragen Chips, die der Maschine sagen, was genau mit ihnen passieren soll, sodass die Maschine viel flexibler auf immer individuellere Kundenwünsche eingehen kann. Und noch einen Schritt weiter gedacht: Die Maschine der Zukunft ist nicht nur in der eigenen Fabrik zehnmal so stark digital vernetzt wie heute. Sie ist Teil einer sogenannten Maschinen-Cloud. Das wiederum bedeutet, dass Datenströme diverse Fabriken in einem Produktionsnetzwerk kooperierender Hersteller miteinander verbinden. Der Kunde, sagen wir ein großer AutoDie Maschine der Zukunft mobilzulieferer, bestellt in einem Industrie-Webshop ist nicht nur in der ein Fertigungsgut, sagen wir einen Dichtungsring eigenen Fabrik zehnmal für Motoren aus einem ganz bestimmten Material so stark digital vernetzt mit sehr spezifischen Dichtungsanforderungen. Die wie heute. Sie ist Teil intelligenten Maschinen in der Maschinen-Cloud fineiner sogenannten den dann gemeinsam heraus, welche von ihnen den Maschinen-Cloud. Auftrag in der geforderten Qualität zum geforderten Lieferdatum am günstigsten erledigen kann.

Auto/Mobilität Mitleid wie das Reisebüro um die Ecke verdienen die Automobilher­ steller vermutlich nicht: Aber systematisch betrachtet ist es schon erstaunlich, von wie vielen Seiten die Digitalisierung das bekannte, seit mehr als hundert Jahren gut geölte Geschäftsmodell Baue-undverkaufe-­Autos zurzeit angreift: ➤➤

54

Smartphones haben dem Carsharing zum Durchbruch verholfen. Der Klientel ist es weitgehend egal, mit wem sie welche Autos teilt. Ein Auto zu kaufen kommt für einen Großteil der Carsharing-Kunden ohnehin immer weniger in Betracht. Schon gar keinen Zweitwagen.

1.2 Der digitale Tsunami – Keine Daten sind auch keine Lösung ➤➤

➤➤

Der traditionell strukturierte Vertrieb gerät durch neue, digital hochkompetente Spieler unter Druck. Konkret: Die Zielgruppen, die noch neue Autos kaufen, suchen auf ihren Plattformen nach den günstigsten Resellern/Re-Importeuren, die in bester E-Commerce-Manier das Produkt bis an die Haustür liefern. Oder sie konfigurieren ihre Neuwagen online über neue Mittelsmänner wie Meinauto.de oder Apl-auto.de. Fassen wir die digitale Zukunft der Branche mal in ein paar Fragen: Wer gewinnt das Rennen um das selbstfahrende Auto? Die bekannten OEMs wie Toyota, VW oder BMW in Allianz mit Datenlieferanten? Oder sieht Google die physischen Fahrzeuge als austauschbares Massengut und schöpft den Mehrwert der Disruption des fahrerlosen Fahrens vollständig selbst ab? Anders gefragt: Wie auch immer die Allianzen aussehen werden, wer sitzt im Auto ohne Lenkrad ökonomisch auf dem Fahrerplatz?

Unter dem Strich steht vorsichtig formuliert die Erkenntnis: Durch die Digitalisierung verliert das physische Auto an Wert. Fragt man die ältere Generation über fünfzig nach ihren Lieblingsmarken, so nennt sie Mercedes, VW und BMW. Konsumenten unter dreißig nennen Samsung, Apple und Adidas. Der Nutzwert gewinnt an Bedeutung. Die Hersteller, besonders jene mit hohen Volumen, müssen hierauf ihre Antwort erst noch finden.

Energie Die Welt erzeugte im Jahr 2013 über 23 Millionen Gigawattstunden Strom. Eine Gigawattstunde sind eine Million Kilowattstunden. Mit Smart-Grid-Technologien – also der intelligenten Verknüpfung von Stromherstellern, Speichern, elektrischen Verbrauchern – lassen sich 30 bis 40 Prozent der Stromenergie einsparen. Man kann in Smart Grids und Smart Metering die größte Chance für das Weltklima sehen. Oder die größte Geschäftschance in der Geschichte der Energiemärkte. Das eine schließt das andere nicht aus.

55

Teil I – Trends

Die Brille des Investors Ende der 1980er-Jahre bastelte am europäischen Kernforschungszentrum CERN in der Schweiz ein britischer Wissenschaftler namens Tim Berners-Lee an einer technischen Möglichkeit, mit anderen Wissenschaftlern digitale Dokumente auszutauschen. Zeitgleich suchte ein US-amerikanischer Ökonom namens Alfred Rappaport an der Kellogg School of Management in Illinois nach einem Konzept, wie Manager den Wert ihres Unternehmens messen und steigern können. Berners-Lees Erfindung hieß später Internet, Rappaports Shareholder-Value. Beide hängen ursächlich zusammen. Rappaport lenkte bei der Bewertung von Unternehmen den Blick weg von vergangenen Umsätze und aktuellen Bilanzen. Nach seiner »Discounted-Cashflow«-Methode zur Bewertung von Unternehmen richtet sich der Wert eines Unternehmens ausschließlich nach künftigen Cashflows. Praktisch alle derzeit verwendeten Verfahren zur Unternehmensbewertung knüpfen an diese Methodik an. Damit konnten plötzlich innovative, neue Geschäftsmodelle Milliardenbewertungen erzielen – und damit die erforderlichen Mittel für deren Realisierung an den Kapitalmärkten einsammeln. Gleichzeitig wurden traditionelle Geschäftsmodelle mit geringem Wachstum in reifen Märkten von den Investoren immer kritischer gesehen. Das »Unternehmen als Institution« mit De-facto-Bestandsgarantie, wie es bis in die 1990er-Jahre in den Hörsälen der BWL-Fakultäten gelehrt wurde, galt plötzlich nur noch wenig. Um es klar zu sagen: Ohne Rappaport und das Shareholder-Value-Prinzip würde es die meisten Spieler der digitalen Welt nicht geben. Rund drei Jahrzehnte später sind zwei der drei wertvollsten Unternehmen der Welt Internetunternehmen, nämlich Apple und Google. Allenfalls der größte Ölkonzern der Welt, Exxon Mobile, kann noch mithalten. Der erfolgreichste Investor aller Zeiten, Warren Buffett, investiert stark in datengetriebene Geschäftsmodelle, was den Verbleib seiner Beteiligungsgesellschaft Berkshire Hathaway unter den Top fünf erklärt. Und nun ja, das Geschäft von Microsoft hat ja auch recht viel mit Daten zu tun … Falls es noch einer letzten Begründung bedarf: Ein Blick durch die Brille eines Investors auf die digitalen und analogen Dinge dürfte auch den

56

1.2 Der digitale Tsunami – Keine Daten sind auch keine Lösung

letzten Big-Data-Hype-Kritiker davon überzeugen, dass keine Daten auch keine Lösung sind. Der Investor mit seinem doppelten Fokus auf aktuelle Cashflows und abgezinste Zukunftschancen sieht nämlich im Grobraster Folgendes: 1. Den etablierten Marktführern brechen in vielen Bereichen die ProfitPools in ihren Kerngeschäften weg. 2. Viele Wachstumsfelder – besonders jene mit hohem technologischen Innovationsgrad – werden von neuen Marktteilnehmern besetzt. Hinter diesem Grobraster sieht der Investor, wie sich die Lebenswelten von Verbrauchern ändern. Er sieht, wie in seinem eigenen Haus eine Horde vernetzter Geräte auftaucht. Er erinnert sich, wie zunächst Desktoprechner, dann Laptop und dann Tablet-PC immer mehr Zeit in seinem Alltag eroberten. Und der Investor spürt, dass er ohne sein Smartphone, mit dem er nachts in einem Zimmer schläft, morgens nicht mehr aus dem Haus gehen kann. Die Frau im zweiten Schlafzimmer liest mehr E-Books als Gedrucktes. Vielleicht kennt der Investor (wie einer der drei Autoren dieses Buchs) einen sechzigjährigen Ex-Konzernvorstand, der sich ein edles Mini-Faltrad gekauft hat, um schnellstmöglich zum nächsten Car2Go zu kommen, in dessen Kofferraum das Faltrad passt. Falls der Investor selbst online noch keine Lebensmittel gekauft hat, geht er dennoch davon aus: Sein Kühlschrank wird das früher oder später für ihn erledigen. Parallel zu den Lebensweltveränderungen sieht der Investor, wie sich die ökonomischen Machtverhältnisse in einer nutzerzentrierten Welt verändern. Er sieht, wie quer über alle Branchen hinweg jene Akteure an Macht gewinnen, welche die Frontends zum Kunden beherrschen. Auch er kann eins und eins zusammenzählen: Wenn Amazon alles über Kunden weiß und der Hersteller wenig, kann Amazon den Hersteller prima über den Tisch ziehen. Drittens erkennt der Investor, ebenfalls quer über alle Branchen und Märkte hinweg, wie sich Clayton Christensens 20 Jahre altes Theoriemodell der disruptiven Innovation wie eine Schablone über die digitale Transformation der Jetztzeit legen lässt. Wie sich das Neue zunächst in Nischenmärkten entwickelt, welche die Marktführer für unattraktiv hal-

57

Teil I – Trends

ten. Wie die Marktführer die technischen Schwächen des Neuen erst müde belächeln und später minutiös sezieren. Wie die Treiber des Neuen in diesen Nischenmärkten ihre zunächst anfälligen Technologien viel rascher verbessern, als es die Marktführer für möglich gehalten hätten. Und wie die disruptiven Innovatoren dann plötzlich mit überlegener Technik und mit überlegenen Geschäftsmodellen in die margenstarken Kernmärkte vordringen – und diese mitunter komplett übernehmen. Wirtschaftshistoriker kennen das natürlich alles. Keinem großen Kutschenbauer gelang der Sprung zum Automobilhersteller. Keine große Segelschiffwerft schaffte die Transformation zum großen Dampfschiffbauer. Und (fast) kein Computer-Hardware-Innovator stieg richtig erfolgreich in das große Geschäft mit den Daten ein. Die IBM ist hier die Ausnahme von der Regel. Der Investor hinter seiner Brille stellt sich täglich eine Frage: Worauf wette ich wie viel? Es ist eine Abwägungsfrage zwischen Gegenwart und Zukunft. Bei der Antwort holt sich der Investor, bewusst oder unbewusst, Rat beim zweiten großen Durch die Brille des Gedankenwurf von Alfred Rappaport. Er stammt aus Investors betrachtet, dem Jahr 2001 und trägt den Titel Expectations Insind die aktuellen vesting. Die Kernthese von Investieren nach ErwarAktienkurse vor allem tungen lautet: Der aktuelle Wert eines Unternehmens eines: eine Klatsche für erschließt sich durch die sorgfältige Analyse seiner Unternehmen, die ihre Zukunftsaussichten und wurde in der Vergangendigitale Transformation heit strukturell unterschätzt. Heute ist diese These nicht vorantreiben. Konsens. Die im Buch vorgestellten Werkzeuge zur Zukunftsprognose sind Standard.

58

1.2 Der digitale Tsunami – Keine Daten sind auch keine Lösung

Durch die Brille des Investors betrachtet, sind damit die aktuellen ­Aktienkurse vor allem eines: eine Klatsche für Unternehmen, die ihre digitale Transformation nicht vorantreiben. Die gute Nachricht an dieser Stelle lautet: Ein Versicherungskonzern muss nicht Google werden, um die erfolgreichste Versicherung zu bleiben. Der große Lebensmittel­ einzelhändler muss bei der Datenkompetenz nicht voll zu Amazon aufschließen. Und auch das hochprofitable Telekommunikationsunternehmen muss seine Kunden nicht ganz so gut kennen wie Facebook. Allerdings müssen sie in ihren Branchen analytisch die Nase vorn haben. Mit anderen Worten: Sie müssen Smart-Data-Champions werden.

59

1.3 Smart-Data-Champions – Die richtigen Daten führen zum Ziel »Every day, three times per second, we produce the equivalent of the amount of data that the Library of Congress has in its entire print collection, right? But most of it is like cat videos on YouTube or 13-year-olds exchanging text messages about the next Twilight movie.« Nate Silver

Smarte Datenhelden »Man kann gar nicht zu viele Daten haben. Mehr ist immer besser«, behauptet Werner Vogels. Vogels ist Chief Technology Officer von Amazon. In der Theorie hat der Mann natürlich recht. Und in der Praxis ist die Aussage natürlich Unsinn. Die IT-Systeme vieler Unternehmen platzen aus allen Nähten. Sie sind natürlich nicht beliebig skalierbar. Sie zu erweitern dauert immer länger und ist immer teurer als geplant. Die Migration von Daten und Anwendungen in die große Datenwolke, die Cloud, ist nach wie vor technisch mühsam und oft ebenfalls teurer als im Kostenvoranschlag. Dafür gibt es IT-Sicherheits- und Datenschutzprobleme gratis dazu. Der Statistiker und Blogger Nate Silver hatte vor der 2008er US-Wahl viel weniger Daten in seinem Topf als die großen US-amerikanischen Wahlforschungsinstitute mit ihren riesigen Budgets. Seine Prognosen zum ersten Wahlsieg von Barack Obama veröffentlichte er unter Pseudonym auf seiner privaten Webseite FiveThirtyEight.com. Sie ließ die großen TV-Experten mit den ehrwürdig-grauen Haaren und den großen Datenmengen sehr alt aussehen. Nur im Bundesstaat Indiana irrte sich Silver. Bei Obamas Wiederwahl 2012 lag er bei den Ergebnissen für alle Staa-

60

1.3 Smart-Data-Champions – Die richtigen Daten führen zum Ziel

ten richtig – inklusive den in jenem Jahr besonders knapp ausfallenden Resultaten der »Swing States« und des District of Columbia. Gäbe es so etwas wie den Nobelpreis für den smartesten Datenhelden der letzten Jahre, Nate Silver wäre der aussichtsreichste Kandidat. Das Komitee könnte in der Begründung schreiben: Nate Silver hat mit den richtigen Vorüberlegungen die richtigen Hypothesen aufgestellt und auf Basis dieser Hypothesen die richtigen Datensätze ausgewählt. Seinen eher einfachen Algorithmus hat er nach dem Trial-and-Error-Verfahren immer weiter verbessert, hat die Maschine selbst lernen lassen, hat aber auch immer wieder im Abgleich mit seinen Hypothesen gefragt: Welche Korrelationen sind nach menschlichem Ermessen wirklich relevant? Und welche scheinen nur relevant, weil sie die Maschine als statistisch relevant erscheinen lässt? Weniger war im Fall von Silver eindeutig mehr. Der große Charme der analytischen Erfolgsgeschichte des unscheinbaren Statistikers aus Michigan besteht zudem darin: Seine Vorüberlegungen waren im Nachhinein betrachtet die Wahlforschungsvariante zu der hübschen Gesunder-Menschenverstand-Anekdote vom kleinen Jungen, der zum Vater sagt: »Papa, da vorne auf der Straße liegen fünf Euro.« Worauf der Vater antwortet: »Das kann nicht sein, Sohn. Die hätte schon längst jemand aufgehoben.« Die Grundidee zur disruptiven Verbesserung der Wahlprognose von Nate Silver war so einfach, dass man kaum glauben kann, dass sie niemand zuvor für die Wahlforschung nutzbar gemacht hat: Die Weisheit der vielen schlägt die Weisheit des einzelnen Experten. Das statistische Mittel aus vielen Wahlprognosen hat eine viel höhere Vorhersage-Wahrscheinlichkeit als jede einzelne von ihnen. Übertragen auf den Umgang mit Daten im Geschäftskontext könnte man daraus die Hypothese ableiten: Große analytische Früchte hängen sehr tief. Bei solchen Übertragungen ist natürlich immer etwas Vorsicht geboten, und es ist auch eher unwahrscheinlich, dass den Daten-Mineuren in den meisten Branchen ein methodisch derart großer Fisch durch die Lappen gegangen ist wie den Wahlforschern. Aber im Grundsatz

61

Teil I – Trends

zeigt die Erfahrung in nahezu allen unseren Projekten der letzten zehn Jahre: Ausreichend viele ausreichend große Früchte hängen ausreichend tief. Wir können diese Früchte ernten, wenn wir Buzzwords und die mit ihnen verbundenen überzogenen Erwartungen hinter uns lassen. Stattdessen müssen wir die richtigen Daten mit den richtigen Methoden systematisch durchforsten.

Richtig ist besser als größer Bei der Ernte der Datenfrüchte müssen wir Folgendes beachten: ➤➤

62

Die richtigen Daten Nicht die Datenmenge ist entscheidend, sondern die richtigen Daten mit einer ausreichenden Heterogenität (Diversität). Viele Unternehmen haben heute mehr Daten, als sie de facto auswerten können; »richtige Daten« heißt »relevante Daten«. Natürlich weiß auch der beste Datenwissenschaftler im Vorhinein nicht genau, welche Daten relevant zur Förderung von Marketing und Vertrieb sind. Aber es sinkt der Aufwand und es steigt die Wirkung von Datenprojekten sehr erheblich, bei denen die Projektverantwortlichen ausreichend Zeit und Energie in Vorüberlegungen bei der Auswahl der Daten investieren (siehe unten »Die richtigen Hypothesen«). Dazu gehört: Oft sind die Daten zu einheitlich. Heterogenität ist in den meisten Anwendungsfeldern das wichtigste Kriterium bei der Auswahl der richtigen Daten. Das Volumen ist oft zweitrangig für die Qualität der Ergebnisse. Zudem haben wir den Eindruck, dass der Wert unstrukturierter Daten, z. B. aus Facebook, Blogs, Foren, zurzeit stark überschätzt wird. Dort postet eine sehr selektive Auswahl von Leuten, die mit dem Kerngeschäft der meisten Unternehmen wenig zu tun haben. Die Datenspuren, die sie hinterlassen, haben eine entsprechend geringe Relevanz. Im starken Kontrast hierzu zeigt die Erfahrung in unseren Projekten: Anzahl und Wert der nicht gehobenen Datenschätze in den eigenen Kundendatenbanken werden oft unterschätzt.

1.3 Smart-Data-Champions – Die richtigen Daten führen zum Ziel ➤➤

Die richtigen Hypothesen Wir arbeiten mit Hypothesen, die sich aus systematischen Vorüberlegungen und Erfahrungswissen ergeben. Erst denken, dann handeln, ist ein Binse. Der Inhalt dieser Binse ist auch bei der Datenanalyse wahr. Beim digitalen Aktionismus, wie er in vielen Unternehmen betrieben wird, geht auch diese einfache Wahrheit gerne über Bord.

➤➤

Die richtige Haltung Mit Hypothesen arbeiten bedeutet ausdrücklich nicht, Ergebnisse am Anfang des Prozesses zu präjudizieren. Dann können wir uns den Aufwand sparen. Die (Kunden-)Welt ist nicht, wie wir erwarten, dass sie ist. Kunden bleiben – um es mit dem bereits zitierten Duke-Ökonomen Dan Ariely zu sagen – vorhersagbar irrational. Hypothesen sind immer nur der Ausgangspunkt für einen induktiven Arbeitsprozess. Sie unterliegen der ständigen Überprüfung, Veränderung, erneuten Überprüfung und Optimierung.

➤➤

Die richtigen Werkzeuge Nicht die komplexesten Analytikwerkzeuge bringen den höchsten Mehrwert, sondern die passendsten. Eine Excel-Analyse zur regionalen Aufschlüsselung der Profitabilität von Direct Mailings führt oft zu wertvolleren Erkenntnissen als die teuerste Social-Media-Datenerhebung zum Beitrag viraler Effekte für die Steigerung des Markenwerts. Auch die Rückbesinnung auf Brot-und-Butter-Methoden der Statistik – z. B. durch regelmäßige Stichprobenkontrollen (Interferenzstatistik) – schützt vor mancher Fehlentscheidung, die sich bei schlecht durchgeführter und/oder interpretierter Massendatenanalyse ergeben mag.

➤➤

Der richtige Einsatz der Ressourcen Das Ergebnis zählt. Auch das ist eine Binse. Im Kontext Smart Data für Marketing und Sales ist es wichtig, sie sich immer wieder in Erinnerung zu rufen. Denn: Besonders deutsche Entscheider neigen dazu, jeden funktionalen Zusammenhang verstehen zu wollen. Am Ende eines induktiven Datenanalyseprozesses wissen wir aber oft nur, dass es einen bestimmten Wirkungszusammenhang gibt: Zielgruppe A reagiert auf Kampagne B mit Spontankäufen im Umfang C. Wir wissen oft aber nicht, warum. Na, und?! Die übertriebene Suche nach Gründen für Wirkungszusammenhänge, das haben wir mehr-

63

Teil I – Trends

fach erlebt, kann ganze Abteilungen lähmen. Smarte Datenhelden wissen analytische Ressourcen und Energie effizient einzusetzen. Gestützt auf diese Erkenntnisse und Haltungen zur Datenanalyse vor allem im Aufgabenumfeld Marketing und Verkauf, definieren wir unseren Smart-Data-Ansatz wie folgt: Smart Data umfasst Ansätze und Verfahren zur geplanten und fokussierten Datenanalyse mit dem Ziel, Kosten zu senken oder zusätzliche Umsätze in bestehenden oder neuen Geschäftsfeldern/ -modellen zu ermöglichen. Die Ansätze und VerfahBeginne mit der Frage: ren kombinieren damit Erfahrungswissen und theoWarum machst du etwas? retische Modelle mit statistischen Analysemethoden Lege im zweiten Schritt und den Fähigkeiten von lernenden Maschinen (mafest, wie du im Unternehchine learning algorithms). men oder mit dem Team ➤➤ Big-Data-Verfahren sammeln möglichst viezusammenarbeiten möchle Daten und versuchen dann, mit brachialem Eintest. Beschäftige dich dasatz von Speicher-, Rechner- und Analytikkapazität nach mit der Frage: Was ergebnisoffen Zusammenhänge abzuleiten. In Abmüssen wir genau tun, grenzung hierzu arbeitet Smart Data stark hypotheum ein gutes Stück der senbasiert und nutzt in der Regel kleinere DatenVision im inneren Kreis sätze mit hoher Varianz. Wirklichkeit werden zu ➤➤ Smart-Data-Projekte sind in besonders hohem lassen? Maße ergebnisorientiert und zugleich ressourcenschonend. Die verwendeten IT-Werkzeuge müssen ihre Qualitäten laufend unter Beweis stellen. Ergebnisorientierung setzt Umsetzungsfähigkeit voraus. Der Umfang der Projekte darf die Organisation weder finanziell noch personell überfordern. ➤➤

64

1.3 Smart-Data-Champions – Die richtigen Daten führen zum Ziel

Warum? Wie? Was? Start with Why: How Great Leaders Inspire Everyone to Take Action (dt. Ausgabe: Frag immer erst: warum) ist der Titel eines Buchs, das tatsächlich inspiriert (und dies nicht nur im Titel behauptet). Geschrieben hat es der Militärberater und Motivationstrainer Simon Sinek. Das Buch ist ein stark auf psychologischer Ebene argumentierender Ratgeber für Führungskräfte, wie sie Unternehmen und Teams zum Erfolg führen. Das zentrale Motiv dabei ist ein Dreischritt. Beginne mit der Frage: Warum machst du etwas? Lege im zweiten Schritt fest, wie du im Unternehmen oder mit dem Team zusammenarbeiten möchtest. Beschäftige dich danach mit der Frage: Was müssen wir genau tun, um ein gutes Stück der Vision im inneren Kreis Wirklichkeit werden zu lassen? Der TED-Talk zum Buch gehört zu den meistgeklickten Keynotes der TED-Konferenz-Webseite überhaupt. Sinek verzichtet dabei komplett

65

Teil I – Trends

auf Folien, Illustrationen und Bilder. Er arbeitet mit nur einem einzigen grafischen Element, das er auf ein Flipchart malt:

Simon Sinek nennt sein simples Schaubild »The golden circle of human motivation«. Die Storytelling-Experten Dan und Chip Heat würden die drei Kreise wohl in die Kategorie »made to stick« einsortieren. Uns missfällt an dem Ansatz allenfalls, dass er uns nicht selbst eingefallen ist. Wir werden im dritten Teil dieses Buchs noch ausführlich darauf eingehen, wie sich Unternehmen zu datengetriebenen Organisationen wandeln können. Aber so viel schon einmal vorweg: Die drei Kreise eignen sich hervorragend als Schablone, um eine Smart-Data-Strategie zu entwickeln und im Unternehmen umzusetzen. In grober Körnung dargestellt sieht der Dreischritt für Smart-Data-­ Unternehmen so aus:

1. Warum? Wer das Warum kennt, wird mit jedem Wie fertig. Der Satz stammt nicht von Simon Sinek, sondern von Friedrich Nietzsche. Am Anfang jeder Smart-Data-Strategie steht die Auseinandersetzung mit den grundlegenden Herausforderungen der Digitalisierung für die

66

1.3 Smart-Data-Champions – Die richtigen Daten führen zum Ziel

eigene Branche, das eigene Geschäftsfeld, das eigene Geschäftsmodell. Dies haben wir in Kapitel 2 ausführlich beschrieben. Wer verstanden und verinnerlicht hat, dass keine Daten auch keine Lösung im digitalen Tsunami sind, wird sich umgehend auf die Suche nach einer Vision machen. Er oder sie weiß, warum! In Zeiten technischer Umbrüche bietet es sich an, auch bei den Managementmethoden über Innovationen nachzudenken. Auf der Suche nach einer digitalen Vision empfehlen wir, das klassische Methodenset im Strategieprozess hinter sich zu lassen. Der sah bekanntlich so aus: Die Unternehmensspitze definiert Ziele, die werden mit Bottom-up-Abfragen abgeglichen – und entweder kommen wolkige Formulierungen heraus, mit denen niemand etwas anfangen kann, oder es werden konkrete Vorgaben definiert, die viel zu eng gesteckt sind, als dass sie die den Namen Vision noch verdient hätten. Wir empfehlen gut moderierte Kreativ-Workshops mit Mitarbeitern aller Hierarchiestufen, Kapitaleignern, Kunden und Lieferanten. Sie müssen gemeinsam eine Vorstellung davon entwickeln, wohin die Reise in den kommenden zehn Jahren gehen könnte, welche Rolle digitale (Lebenswelt-)Veränderungen und (neue) Datenströme auf dieser Reise in verschiedenen Szenarien spielen könnten und welche Fähigkeiten das Unternehmen hat bzw. entwickeln muss, um diesen Weg erfolgreich gehen zu können. Die klassischen Schaubilder für klassische Strategieprozesse waren meist Pyramiden mit Pfeilen an der Seite, die von oben nach unten und von unten nach oben zeigten. In den Textbeschreibungen dazu tauchte oft der Begriff »kaskadisch« auf. Unser Bild für eine Smart-­ Data-Vision ist eher ein Rucksack. Unternehmen haben eine Vorstellung davon, in welche Richtung sie wandern wollen. Die Vision benennt die Marschrichtung und beschreibt auf einer ersten Ebene, was in den Rucksack muss, damit das Unternehmen für die Reise gut vorbereitet ist. Das ist die Schnittstelle zu Schritt 2.

67

Teil I – Trends

2. Wie? Wie wollen wir zusammenarbeiten? Das ist die wichtigste Frage für alle Organisationen mit dem Anspruch, die Potenziale von Smart Data Analytics zu heben. Oder anders formuliert: Die Antwort ist der Schlüssel zur Transformation hin zu einem analytischen Wettbewerber. Das Wie der Zusammenarbeit gliedert sich in drei Unterfragen: ➤➤ ➤➤ ➤➤

Wie sieht eine Unternehmenskultur/Geisteshaltung aus, in der Smart Data seine volle Kraft entfaltet? Wie sehen die Zielsysteme aus, in denen sich eine solche Unternehmenskultur etablieren kann? Wie entwickeln wir kurz- und langfristig die personellen Fähigkeiten und technischen Ressourcen, die auf dem Weg in die digitale Zukunft notwendig sind?

Die zentralen Stichworte zur ersten Unterfrage lauten: Datenneugier, Teilen/offener Zugang zu Wissen, Technologie und Daten, partizipative Führung und Vertrauen in Mitarbeiter, die Dinge ausprobieren wollen. Dies beinhaltet auch klare Entscheidungen, sich von Ansätzen zu verabschieden, die erkennbar nicht funktionieren. Daraus ergibt sich, dass die Zielsysteme umgebaut werden müssen. Wir kennen viele Unternehmen in allen Branchen, die Management-Boni an Nachhaltigkeitsziele knüpfen. Aber kein einziges, das Mitarbeiter systematisch belohnt, die sich um die Digitalisierung ihres Unternehmens verdient machen. Zudem verschiebt die Frage nach dem Wie den Zeithorizont. Der Blick schweift weg von Visionen, die frühestens in fünf bis zehn Jahren realisiert werden können, und fokussiert auf die konkreten nächsten Schritte, die in ein bis drei Jahren möglich sind. Bezogen auf den Einsatz von Ressourcen gilt im Grundsatz: Technische Analytikoptionen gibt es mehr, als wir gebrauchen können. Menschen, die den Maschinen die richtigen Fragen stellen, sie mit den richtigen Daten füttern und ihre algorithmischen Erkenntnisse in produktives Wissen verwandeln können, gibt es weniger, als wir uns wünschen. Die Lücke zwischen Bedarf und Angebot an Business-IntelligenceExperten, Datenarchitekten, Datenbankanalysten und der vermutlich

68

1.3 Smart-Data-Champions – Die richtigen Daten führen zum Ziel

wertvollsten Gattung des Feldes, den Data-Scientists, wird Jahr für Jahr größer. Das Topmanagement von Smart-Data-Champions kann beide Entscheidungsfelder nicht delegieren – weder die technische Entwicklung noch die der personellen Fähigkeiten in der Organisation. Aus Daten ergeben sich die neuen Wettbewerbsvorteile. Die Topentscheider sind verantwortlich, wenn es den digitalen Umsetzern in Unternehmen an den richtigen Maschinen fehlt. Und an Kollegen, die sie bedienen können. Nach Auswertung der Frage, wie die erfolgreichsten digitalen Spieler punkten, haben wir sechs zentrale Erfolgsfaktoren herausarbeiten können, die jeder auf dem Weg zur digitalen Transformation im Reisegepäck haben sollte.

3. Was? Erfolgreiche Smart-Data-Unternehmen setzen ihre knappen digitalen Ressourcen zudem sehr überlegt ein. Sie vermeiden damit sowohl den weitverbreiteten Fehler, sich auf die immer gleichen Anwendungen zu

69

Teil I – Trends

stürzen, über die jeder spricht – z. B. im Bereich Kundenbindung –, als auch zu viel Zeit mit visionären Big-Data-Strategien zu verplempern. Sie analysieren vielmehr ihre digitalen Potenziale strukturiert und systematisch und setzen dann die richtigen Schwerpunkte. Ein gutes Werkzeug hierfür sind sogenannte Data-Heatmaps. Der Begriff Heatmap klingt ziemlich modern. Erstmals zum Einsatz kam die Visualisierungsmethode bereits 1873 in der Pariser Stadtverwaltung, um statistische Erhebungen zu den verschiedenen Arrondissements leichter verständlich zu machen. Im Kern geht es um eine zweidimensionale Clusteranalyse, um Datenchancen zu priorisieren. Bei Smart-Data-Projekten systematisieren wir auf der horizontalen y-Achse vorhandene (oder ggf. auch leicht zu erhaltende) Daten nach Kategorien. Das können bei einem Automobilhersteller z. B. Fahrzeugdaten, Kundendaten und Produktionsdaten sein. Auf der vertikalen x-Achse stehen die Nutzer der Daten im Unternehmen. Im systematischen Abgleich beider Achsen lassen sich dann relativ schnell datenbasierte Business-Cases identifizieren, die einen hohen Mehrwert für die Kunden und das Unternehmen versprechen. Zudem werden mit Heatmaps oft Die Zukunft lässt sich mögliche Verbindungen zwischen Datenprojekten nur dann aus den Daten sichtbar, die zuvor niemand auf dem Radar hatte. von Vergangenheit und Gegenwart vorausberechDann hat man in der Regel schon eine ziemlich gute nen, wenn nichts ÜberVorstellung davon, was als Erstes zu tun ist. Weil raschendes passiert. Das dieses Was mit hoher Wahrscheinlichkeit auf das Leben ist aber nicht vorWarum einzahlt. Zumindest wenn das Wie gut orherbestimmt. ganisiert ist.

70

1.3 Smart-Data-Champions – Die richtigen Daten führen zum Ziel

Wahrscheinlichkeit schlägt Zufall Wenn wir all things digital noch einmal grundsätzlich und von einer erkenntnistheoretischen Ebene aus betrachten, kommen wir zu dem Schluss: Wir glauben nicht an das Ende der Theorie, wie es die Big-Data-Theoretiker vorhersagen. Die Theorie käme selbst dann nicht zu ihrem Ende, wenn die Welt vollständig mit Daten erfasst werden könnte. Die Zukunft lässt sich nur dann aus den Daten von Vergangenheit und Gegenwart vorausberechnen, wenn nichts Überraschendes passiert. Das Leben ist aber nicht vorherbestimmt. Irrationales Verhalten und Zufall werden den Prognostikern bis an das Ende der Tage der Menschheit ihre Grenzen aufzeigen. Daher wird es auch nie gelingen, Wechselkurse oder Börsenkurse langfristig zu prognostizieren. Sehr wohl kann man aber die kurzfristigen Anpassungsmechanismen modellieren. Im Umkehrschluss gilt entsprechend: Es gehört zu den Kernkompetenzen von Smart-Data-Champions, die Grenzen der Prognosefähigkeit zu

71

Teil I – Trends

kennen und zu akzeptieren. Gleichzeitig wissen sie, dass die Prognostik Jahr für Jahr besser wird. Die Wahrscheinlichkeit schlägt den Zufall nicht absolut. Aber immer öfter in immer mehr Kontexten, je smarter wir Daten analysieren. Heruntergebrochen auf den Unternehmensalltag heißt das: Smarte Datenanalytik nutzt alle erprobten Werkzeuge, die das Kundenverständnis erhöhen und mithilfe derer sich Kundenverhalten beeinflussen lässt. Aber sie lässt von den Werkzeugen die Finger, deren Eignung nicht abschätzbar ist, die Unternehmen personell und finanziell überfordern und die behaupten: Die selbstlernenden Maschine können alles und haben den Menschen und seine Modelle überflüssig gemacht.

Smart-Data-Champions wissen: Die Transformation zum analytischen Wettbewerber ist ein langfristiger und mühsamer Prozess. Sie gehen nicht davon aus, dass ein paar Big-Data-Projekte schnell und einfach die Tür zu neuen Geschäftsmodellen mit riesigem Potenzial aufschließen. Sondern sie sehen den intelligenten und konsequenten Umgang mit Daten als »Enabler« auf allen Ebenen der Wertschöpfung – also als

72

1.3 Smart-Data-Champions – Die richtigen Daten führen zum Ziel

langfristigen Erfolgsfaktor, um bestehende Wettbewerbsvorteile zu verteidigen und neue zu erkämpfen. Wie das genau geht, beschreibt der nächste Teil.

73

Teil II

Prozesse Der Smart-Data-Zyklus

2.1 Die richtigen Fragen stellen »Computer sind nutzlos. Sie können nur Antworten geben.« Pablo Picasso hat das gesagt. Nun war der aber bekanntlich Experte für die stark verzerrte Darstellung von subjektiver Wirklichkeit, und nicht für Datenanalyse. Wie alle großen Künstler hatte er aber ein besonderes Sensorium für die großen Fragen seiner Zeit. Es ließe sich ergebnisoffen darüber streiten, ob sich die Informationstechnologie seit Picassos Lebzeiten deutlich schneller entwickelt hat als die moderne Malerei. Sicher ist: Mit künstlicher Intelligenz tun sich Rechnersysteme nach wie vor deutlich schwerer, als es technikgläubigen Futurologen der 1960er-Jahre vorhergesagt haben. Der IBM-Computer Watson decodiert zwar Sprache, errechnet Sinnzusammenhänge und beantwortet auf Basis von eingefütterten Zeitungsjahrgängen und der Wikipedia-Datenbank faktenorientierte Quizfragen schneller und präziser als jeder menschliche Jeopardy!-Champion. Sollen unsere hyperintelligenten IT-Systeme kluge, überraschende Fragen stellen, haben sie heute aber meistens immer noch Probleme. Analog hierzu hat uns die tägliche Erfahrung in der Praxis gelehrt: Die Potenziale für datenbasierte Wertschöpfung ergeben sich nicht aus Daten. Ein Vertriebsleiter fragte einmal verwundert: »Ich dachte, Sie werfen die Kiste an und dann kommen die Ideen raus.« Eben ganz so, wie es die oft postulierte Kraft von Big Data vermuten lässt. Natürlich kann man aus Daten auch viele Erkenntnisse ableiten. »Smart« wird eine solche Analyse aber erst durch die richtigen Ausgangsfragen. Und die liefern nicht irgendwelche (Big-)Data-Analysen zu Vergangenheit, Gegenwart und Zukunft der eigenen Branche. Sondern besser fünf bis zehn kluge Köpfe, die aus unterschiedlichen Disziplinen stammen und folgende Kompetenzen mitbringen: Verständnis des Geschäftsmodells, Expertenwissen in den verschiedenen Bereichen der Wertschöpfungskette (z. B. Marke-

77

Teil II – Prozesse

ting, Vertrieb, Service, Einkauf) sowie Kenntnis der Potenziale für datenbasierte Lösungen. Und die bei großer gedanklicher Offenheit die richtigen Fragen stellen: 1. 2. 3. 4.

Was ist unser Business-Problem? Wo liegen freie/nicht gehobene Potenziale (Top- und Bottom-Line)? An welcher Stelle der Wertschöpfungskette liegen sie? In welchen Bereichen können wir durch digitale Lösungen besonders schnell unsere Wertschöpfung verbessern?

Auch wenn es sich banal anhören mag: Zu Beginn jeder datengetriebenen Marketinganalyse ist es wichtig, sich in Erinnerung zu rufen:

Ein sinkender Marktanteil ist ein sinkender Marktanteil ist ein sinkender Marktanteil. Die Frage lautet wie vor 90, 60 und 30 Jahren, wie wir ihn verhindern.

Die Aufgabenstellungen in Marketing und Vertrieb haben sich weder durch die Erfindung von Main-Frame-Rechnern noch von Cloud-Computing grundsätzlich geändert. Marketer und Verkäufer müssen nach wie vor Marktanteile erhöhen, neue Zielsegmente erkennen und erschließen, hierfür den Share-of-Wallet bei Einzelkunden verbessern, die Abwanderung von Stammkunden verhindern, Kundenempfehlungen steigern, die Wirkung von Marketingmaßnahmen verstärken und so weiter.

Die Problemdimensionen bleiben gleich und wir brauchen auch keine neuen Marketingparameter oder Metriken für smarte Datenanalysen, aus denen sich neue Fragen ergeben. Ein sinkender Marktanteil ist ein sinkender Marktanteil ist ein sinkender Marktanteil. Die Frage lautet wie vor 90, 60 und 30 Jahren, wie wir ihn verhindern. Die Daten helfen uns nur, bessere Antworten zu finden. Oder noch einmal sehr anschaulich formuliert: Smart-Data-Analyse beginnt nicht mit einer tief greifenden Datenanalyse, sondern mit strategischen Vorüberlegungen (in welche die allgemein bekannten Kennziffern des Unternehmens freilich einfließen). Ein moderierter Kreativ-Workshop mit Kollegen aus allen betroffenen Bereichen – im Idealfall natürlich inklusive Topmanagement sowie externen Experten und Kunden – ist in aller Regel das richtige Format. Es kann dabei sehr hilfreich sein, diese Diskussion

78

2.1 Die richtigen Fragen stellen

nicht in den eigenen Meeting-Räumen zu führen, sondern KreativLabore mit beschreibbaren Wänden und Tischen anzumieten. Eine interessante Option ist auch, vor den Diskussionen zunächst an einen Ort mit Kundenbezug zu gehen – ein Flagship-Store, eine Schalterhalle, eine durchschnittliche Bankfiliale – um dort, still in der Ecke sitzend, Kunden zu beobachten. Die Gruppe beschreibt zunächst die größten Chancenfelder und/oder Probleme des Unternehmens entlang der verschiedenen funktionalen Bereiche. Der Workshop-Moderator muss dabei darauf achten, dass die Diskussion weder zu induktiv noch zu deduktiv geführt wird. Was meinen wir damit? Workshop-Diskussionen entwickeln oft eine starke Eigendynamik, in der die Gruppe stark in eine Richtung denkt und dabei entweder aus ein paar Einzelbeobachtungen allgemeine Regeln ableitet, die dann schnell den Charakter von festen Gesetzmäßigkeiten bekommen – besonders wenn ein Vorstand sie formuliert. Das meinen wir mit »zu induktiv«. Etwas seltener kommt vor, dass eine Workshop-Gruppe mit einem marketingtheoretischen Gerüst im Hinterkopf auf die Geschäftsprobleme schaut und alles übersieht, was nicht in die eigene theoretische Schablone passt. Aber auch diese deduktive Grundhaltung haben wir schon erlebt und auch sie ist kontraproduktiv. Der Trick bei der Suche nach passenden Leitfragen zu Beginn eines Smart-Data-Zyklus ist, sich als Workshop-Teilnehmer in eine geistige Haltung zu versetzen, die US-amerikanische Innovationsforscher wie Tom Kelley »Beginner’s state of mind« nennen. Diese bewusst eingeforderte Offenheit in der Grundhaltung hilft dabei, sich nicht von der Vielzahl der Details verwirren zu lassen, sondern die Geschäftsprobleme ohne Rücksicht auf politische Verluste zu benennen. Sie unterstützt die Suche nach Zusammenhängen über verschiedene Fragestellungen hinweg, die bisher nicht gesehen wurden.

79

Teil II – Prozesse

Der frische, aber auch kritische Blick der Expertengruppe imprägniert gleichzeitig gegen Ideen, bei denen relativ früh klar ist: Hier stehen Aufwand und Ertrag nach menschlichem Ermessen und der guten alten Pareto-Regel in keinem guten Verhältnis. Manche Ideen würden sonst nur entstehen, weil das einer in der Gruppe aus welchen Gründen auch immer gerne durchziehen möchte. Das ist alles freilich kein Hexenwerk und soll es auch nicht sein. Das Ziel ist Klarheit. Und je klarer die Geschäftsprobleme benannt sind, desto einfacher lassen sich diese in eine erste Sammlung von Arbeitshypothesen überführen. An dieser frühen Stelle im Smart-Data-Zyklus sind sie noch recht grobkörnig. Das kann sich z. B. so zeigen: Es gibt fünf Hauptgründe, warum unser Unternehmen zurzeit nicht wächst: ➤➤ ➤➤ ➤➤ ➤➤ ➤➤

Wir sind für viele Kunden zu teuer, erreichen aber die Kaufkräftigen nicht. Unser Außendienst ist weniger produktiv als der unserer Wettbewerber. Wir adressieren regional die falschen Märkte. Unsere Produkte sind für bestimmte Zielgruppen nicht attraktiv. Wir verlieren viele Kunden wegen unseres schlechten AfterSales-­Service.

Daten haben bis zu dieser Stelle im Zyklus »nur« die Aufgabe, bei Bedarf die Grundthesen herzuleiten bzw. zu untermauern. Im nächsten Schritt ändert sich das. Die Workshop-Gruppe wechselt die Perspektive und fragt sich: Wie können uns Daten dabei helfen, für diese Probleme bessere Lösungen zu finden? Im Klartext bedeutet das: Die definierten Grundprobleme stehen an der beschreibbaren Wand im Kreativ-Raum – oder zur Not klassisch auf dem Flipchart. Mit diesen im Hinterkopf suchen die WorkshopTeilnehmer im Brainstorm-Modus zum ersten Mal konkret nach Ansätzen, bei denen Daten welcher Art auch immer neue Chancen eröffnen oder aktuelle Probleme welcher Art auch immer lösen. Heraus kommt eine lange Liste (»Longlist«) mit ein paar Dutzend Hypothesen

82

2.1 Die richtigen Fragen stellen

zu konkreten Hebeln, wie die datenbasierten Potenziale auch freizusetzen wären. Beispiele für einen guten Abstraktionsgrad sind: ➤➤

➤➤

➤➤

➤➤

➤➤

➤➤

Wir müssen unser Design ändern, um hochwertigere Zielgruppen zu erreichen; wir sollten anhand von Kontrollgruppentests herausfinden, welche Designparameter wir wie ändern sollten. Unser Außendienst braucht ein iPad-Tool, auf dem er die Kaufhistorie des Einzelkunden sowie konkrete Empfehlungen zu Zusatzbestellungen anhand eines Datenabgleichs mit ähnlichen Kunden auf einen Blick erfassen kann. Wir sollten die Marketingbotschaften in der Zielgruppe 50 plus an deren Bedürfnisse anpassen, die wir anhand von Transaktionsdaten zusammen mit Marktforschungsdaten besser verstehen könnten. Wenn wir Stoßzeiten an unseren Kassen datenbasiert besser vorhersagen können, können wir Personalplanung und Kundenzufriedenheit optimieren. Wenn wir großzügiger bei unseren Umtauschregelungen sind, werden wir den Kundenwert langfristig erheblich erhöhen. Wir sollten allerdings anhand von Potenzialanalysen feststellen, in welchem Umfang wir das tun sollten, ohne unsere Profitabilität zu gefährden. Regelmäßige Coupon-Aktionen rechnen sich bei Gelegenheitskunden nicht. Wir müssen sie auf Kunden mit einem bestimmten Mindestpotenzial beschränken, die wir mit geeigneten Analysen identifizieren müssen.

Es gibt gelegentlich Smart-Data-Projekte bei kleineren Unternehmen, bei denen der hier exemplarisch angeführte Abstrahierungsgrad der Hypothesen reicht. Dann kann die Suche nach Datenquellen für intelligentere Preisfindung, bessere Kundenansprache oder regionale Vertriebsoptimierung bereits beginnen. Gerade bei größeren Unternehmen bietet es sich aber an, die Grundhypothesen als Ausgangspunkt zu nehmen, um diese dann entlang der Geschäftsbereiche und Wertschöpfungsstufen systematisch auszudifferenzieren. Hierzu bietet sich das in Kapitel 1.3 bereits näher beschriebene Werkzeug der Heatmap an, um strukturiert die datenbasierten Werthebel zu detaillieren und zu quantifizieren. Dies kann durchaus ein Projekt über drei bis vier Monate sein.

83

Teil II – Prozesse

Die identifizierten Werthebel zu priorisieren bildet den Abschluss des ersten Schritts im Smart-Data-Zyklus. Er kann im Workshop durch die Gruppe erfolgen. Manchmal machen Topmanagement oder mittelständische Geschäftsführer diesen auch lieber alleine, nachdem sie ein paar Nächte darüber geschlafen, mit Vertriebsmitarbeitern und Kunden gesprochen oder bei den IT-Verantwortlichen vorgefühlt haben, welche Daten eigentlich mit welchem Aufwand beschaffbar sind. Für beide Varianten gibt es im Einzelfall gute Gründe. Priorität eins beim Priorisieren hat jedoch auf jeden Fall: Ganz oben auf der Liste müssen die Maßnahmen stehen, die mit der höchsten Wahrscheinlichkeit die größte Wirkung erzielen. Manchmal sind das die Maßnahmen, die so sexy klingen wie: Wir brauchen eine eigene App, mit der wir unsere Kunden in Echtzeit jederzeit erkennen, verstehen und ansprechen können. Meistens sind es aber die anderen. Also die, die nach Brot und Butter klingen. Und die deshalb gerne übersehen werden.

84

2.2 Die richtigen Daten nutzen Ein Markt ist die Summe aller Einzelkunden. Würden wir jeden einzelnen Kunden genau kennen, seine Verhaltenstreiber und sein tatsächliches Kaufverhalten, seine Demografika, Psychografika, Sozioökonomika, seine Werte und Bedürfnisse, sichtbare und latente, notwendige und erwünschte, seine Informationswege, sein Response-Verhalten auf Werbung, seine Preispunkte und die auslösenden Faktoren direkt vor Kaufabschluss, den Share-of-Wallet pro Produktkategorie, seine Markentreue und sein Reklamationsverhalten, hätten wir all dies für jeden einzelnen Kunden in Daten erfasst, besäßen wir ein vollständiges Bild vom Markt. Und dies in einem hermeneutischen Sinne. Will heißen: Wir könnten aus der Summe der Details das große Ganze erschließen und aus der Gesamtschau die Details, im Marketing den Einzelkunden, noch viel besser verstehen. In unserem letzten Buch, Data Unser, haben wir dieses theoretische Bild »Das Marktmosaik« genannt. In dieses theoretische Bild könnten Marketer einer perfekten Werbewelt jederzeit in gewünschter Granularität hineinzoomen. Wir haben schon in Data Unser festgestellt: Die beste Straßenkarte hätte den Maßstab eins zu eins, aber die passt leider nicht ins Handschuhfach. Drei Jahre und Dutzende Smart-Data-Analysen später sind wir Wir können aus der Sumnoch stärker davon überzeugt: Das Marktmosaik wird me der Details das große ein sehr ambivalenter Big-Brother-Marketingtraum Ganze erschließen und bleiben. Aber in allen (und damit meinen wir allen) aus der Gesamtschau die Unternehmen schlummern Datenschätze, aus denen Details, im Marketing den sich einfach und unter Beachtung aller DatenschutzEinzelkunden, noch viel richtlinien effektive Marketingmaßnahmen ableiten besser verstehen. lassen. Zu Beginn von Schritt 2 im Smart-Data-Zyklus holen wir unsere priorisierte Hypothesenliste und die Heatmap hervor. Diese arbeiten wir Punkt für Punkt anhand folgender drei Leitfragen ab:

85

Teil II – Prozesse ➤➤ ➤➤ ➤➤

Welche bereits verfügbaren Datenquellen können uns bei einer Lösung helfen? Welche Daten fehlen uns/würden wir uns wünschen? Wie hoch ist der Aufwand, fehlende Daten • a) selbst zu erheben, • b) über Datentausch mit Datenpartnern zu erhalten, • c) von externen Quellen anzukaufen?

Zur besseren Übersicht ist es je nach Komplexität des Projekts sinnvoll, einzelne und aggregierte Grafiken anzufertigen, die den möglichen Mehrwert von Daten (Attractiveness) und den Aufwand der Beschaffung (Availability) in Relation setzen.

Sind die vorhandenen und potenziellen Datenquellen erfasst und verstanden, fällt das Bild in den meisten Unternehmen widersprüchlich aus.

86

2.2 Die richtigen Daten nutzen

Auf der einen Seite finden sich in vielen Unternehmen oft mehr Daten als zunächst angenommen. Dies gilt besonders für Transaktionsdaten. Nur weil eine Kundendatenbank nicht mit Kunden interaktionsfähig ist, bedeutet das ja nicht, dass die Daten darin wertlos sind. Schnell stellt sich dann der Eindruck ein: Wir müssen unsere Datenfriedhöfe nur beleben, indem wir unbelastet in unsere dysfunktionalen ERP-Systeme schauen! Dem ist oft tatsächlich so. Zudem merken Marketer schnell, dass die Hürden durch den Datenschutz niedriger sind, als von internen und externen Datenschutzbeauftragten suggeriert wird – vor allem was die Nutzung und Erhebung eigener Daten betrifft. Zunehmend schnell setzt sich auch die Erkenntnis durch, dass fehlende Interaktionsdaten auf Einzelkundenebene kein Show-Stopper für die Smart-Data-Analyse sind, sondern eher im Gegenteil. Wer mit weniger Daten anfängt, kommt oft schneller zu greifbaren Ergebnissen. So viel zur Haben-Seite. Die gleichen Entscheider sind aber verunsichert, wenn sie in Nachsätzen zu den guten Nachrichten hören: Von 2 Millionen Kunden haben wir nur 200.000 E-Mail-Adressen. Bei einem Drittel davon wissen wir nicht, ob sie überhaupt noch aktuell sind. Marktdaten haben eigentlich gar keine validen Informationen und diese zuzukaufen ist viel teurer als erwartet – was in der Regel der Grund ist, warum man sie bislang nicht zugekauft hat. Wir haben schon erlebt, dass in dieser Phase des Datenprojekts die Stimmung kippte. Dass das Gefühl aufkam: Der Weg aus der Datenparalyse mit den Mitteln der Analyse ist doch weiter und schwerer als gedacht. Lassen wir es besser bleiben. Für den Erfolg an dieser Stelle im Zyklus ist entscheidend, dass die Projektverantwortlichen schnell folgende Schritte einleiten: ➤➤

➤➤

Tests durchführen, die nachweisen, dass viele analytische Verfahren auch mit den vorhandenen 30 Prozent Daten und der aktuellen Datenqualität Mehrwert bringen. Aber klarstellen, dass dies nur ein Startpunkt ist, mit erheblichen Lerneffekten bei jeder neuen Iteration. Systematisch nach potenziellen Kooperationspartnern für Datentausch suchen. Das können Lieferanten, Händler, Finanzdienstleister, Telekommunikationsunternehmen oder übergreifende Loyalitätsprogramme sein. Ziel ist der Aufbau eines Netzwerks an Partnern, die sich gegenseitig dabei unterstützen, in Segmenten (manchmal auch auf Einzelkundenebene) die Kundenpotenziale genauer zu erkennen.

87

Teil II – Prozesse ➤➤

➤➤

Möglichst genaue Abschätzungen treffen, wie hoch der Preis und der Mehrwert fehlender Daten sind. Kurzum: Es muss eine solide Basis geschaffen werden, um Investitionsentscheidungen in Datenkompetenz zu treffen. Alternativen zu den gängigen Wegen aufzeigen. Die Erfahrung lehrt: Für fast jedes Datenproblem gibt es kreative Wege, die mit kleineren Abstrichen von Geschwindigkeit und ggf. auch Genauigkeit dennoch zum Ziel führen.

Ein Beispiel: Ein typisches Problem im Handel ist, dass man die Kunden nicht kennt. Die Kunden kommen anonym in den Laden und verlassen diesen auch genauso anonym – von einigen Kundenkarteninhabern abgesehen. Nun könnte man natürlich warten, bis ein perfektes CRMSystem vorliegt, welches Kunden bereits beim Betreten des Ladens erkennt (z. B. per Bluetooth, iBeacons und eine Kunden-App) und alle Informationen bis zum Check-out an der Kasse elegant bündelt. Wie auch immer, wir wissen noch nicht, welches der derzeit getesteten Systeme sich durchsetzen wird und wie hoch der Anteil der Kunden sein wird, die es nutzen werden. Für den Anfang wäre es auf jeden Fall sinnvoll, die Millionen von Bon­ daten an der Kasse und die Bewegungen im E-Shop systematisch auszuwerten. Damit dürfte man einer wirklich aktionsorientierten Kundensegmentierung näher sein als nach Implementierung eines allumfassenden Big-Data-Instrumentariums. Das avancierte CRM-System sollte man dann natürlich trotzdem einführen. Aber man wird dies vermutlich wesentlich intelligenter/smarter tun, wenn man bereits die transaktionalen Segmente kennt und Erfahrungen mit der Effizienz und Effektivität passender Marketing- und Vertriebsmaßnahmen gesammelt hat. Kurzum: Schritt 2 des Smart-Data-Zyklus ist bewältigt, wenn … ➤➤ ➤➤ ➤➤

88

… die wesentlichen Merkmale beschrieben sind, die wir für einen besseren Kundenangang kennen müssen. … wir ein gutes Verständnis davon erlangt haben, welche Daten wir brauchen, um Maßnahmen hierfür abzuleiten. … wir wissen, wie wir an diese Daten kommen, ohne das Unternehmen technisch, personell oder finanziell zu überfordern.

2.3 Die Kunden verstehen Ein besseres Verständnis des Kunden. Diese fünf Wörter beschreiben das große Versprechen der Datenrevolution an alle, die Waren und Dienstleistungen verkaufen. Die besten Online-Shops machen vor, wie umfangreich sich dieses Versprechen auf Einzelkundenebene bereits einlösen lässt, wenn die Daten­basis stimmt. Online-Shops haben als Kinder der DigitaliEin besseres Verständnis sierung den Datenschatz in ihren Systemen eingedes Kunden. Diese fünf baut. Sie kennen als Versandhändler alle Kunden mit Wörter beschreiben das Namen und Adresse. Und dank der Datenspuren, die große Versprechen der der Online-Konsument nun einmal hinterlässt, ist ihr Datenrevolution an alle, Weg zum potenziellen Kunden ebenfalls kürzer – also die Waren und Dienstleiszu jenen Verbrauchern, den der Online-Händler zwar tungen verkaufen. noch nicht persönlich kennt, aber immerhin als IPAdresse mit umfangreicher Cookie-Historie. Die meisten Unternehmen, mit denen wir arbeiten, sind keine reinen Online-Händler. In der Regel kommen die Unternehmen aus der analogen Welt und bauen gerade ihr Digitalgeschäft auf und aus. Sie arbeiten natürlich mit einzelnen Kunden und halten ihre Mitarbeiter auch an, diese persönlich anzusprechen und zu beraten. Der überwiegende Teil der aktiven Marketing- und Vertriebsmaßnahmen gründet aber auf Segmentierung, also auf einem Modell, welches das Kundenverhalten verallgemeinert. Kundensegmentierung bedeutet: die Aufteilung des Marktes in einzelne Kundengruppen mit möglichst homogenem Konsumverhalten. Oder noch genauer: die Aufteilung der Kunden nach gleichen oder möglichst ähnlichen Entscheidungsparametern bei Konsumentscheidungen, da ja unterschiedliche Faktoren gleiche Kaufentscheidungen auslösen können. Die Abgrenzung der verschiedenen Kundengruppen mit anderem Konsumverhalten sollte dabei möglichst trennscharf sein. Im Lehrbuch hört sich das nach einer eindeutigen Logik an. In der Praxis sieht das anders aus. Am Anfang von Schritt 3 im Smart-Data-Zyklus steht immer eine systematische und umfassende Bestandsaufnahme der im Unternehmen

89

Teil II – Prozesse

genutzten Segmentierungen. Dabei kommt fast immer heraus: Die verschiedenen Abteilungen arbeiten mit noch mehr unterschiedlichen Segmentierungslogiken nebeneinander her. In Konzernen sind es häufig Dutzende. Wenn man diese clustert und ein paar Schritte zurücktritt, ergibt sich oft folgendes Bild: ➤➤

➤➤

➤➤

➤➤

Das strategische Marketing arbeitet mit psychografischen Segmentierungen, welche die Werte und Bedürfnisse der Kunden ergründen. Ein Beispiel dafür sind die Zielgruppenmodelle, etwa die Sinus- oder Sigma-Milieus. Die dazugehörigen Bilder mit den bunten, nierenförmigen Flecken beschreiben neben der sozialen Schichtzugehörigkeit (soziale Lage genannt) grundlegende Werteorientierungen wie »Tradition«, »Modernisierung/Individualisierung« oder »Neuorientierung«. Die Strategen verorten Kunden also in ihren Lebenswelten, was für die langfristige Positionierung des Unternehmens natürlich auch sinnvoll ist. Das Produktmarketing arbeitet vorrangig mit Verbrauchertypologien. Die gründen auf der Frage: Was kennzeichnet die Menschen, die ein bestimmtes Produkt oder eine bestimmte Dienstleistung • kennen bzw. nicht kennen, • mögen bzw. nicht mögen, • kaufen bzw. nicht kaufen (würden)? Aus der Ausgangsfragestellung heraus werden dann typische Verbraucher abgeleitet, die die Eigenschaften X, Y, Z haben. Und in der Regel Namen wie Jens M. Die Vertriebsorganisationen segmentieren auf der Grundlage von Transaktions-, Nachfrage- und Potenzialdaten. Sie strukturieren ihre Besuchsfrequenzen anhand der gemessenen Umsätze nach sogenannten A-, B- und C-Kunden und/oder entsprechenden A-, B- und C-Potenzialkunden.

In allen Bereichen sehen wir handwerklich gute und weniger gute Segmentierungen. Wir sehen, wie Marketer auf allen Ebenen bestrebt sind, mit besseren Daten ihre jeweiligen Segmentierungen akkurater zu machen, ihnen neue Dimensionen hinzuzufügen und sie zu aktualisieren – zunehmend sogar in Nah- oder Echtzeit. Das ist gut und richtig. Doch es behebt ein grundlegendes Problem nicht:

90

2.3 Die Kunden verstehen

Bei zu vielen parallel genutzten Segmentierungen in einem Unternehmen schallen die Marketingmaßnahmen als Kakofonie in den Markt. Etwas überspitzt könnte man die Segmentierungspraxis in vielen Unternehmen in folgendes Bild übersetzen: Ein Maurer, ein Zimmermann und ein Fensterbauer sollen zusammen ein Haus errichten. Sie haben allerdings völlig unterschiedliche Vorstellungen davon, was der Bauherr eigentlich will. Einer der Handwerker spricht nur deutsch, der andere polnisch und der dritte portugiesisch. Dummerweise gibt es weder einen Bauleiter noch einen Architekten. Oft fällt die mangelnde Abstimmung der Segmentierungen nicht einmal groß auf, weil die verschiedenen Abteilungen ohnehin eigenständig auf den Markt losgehen. So wird dann z. B. übersehen, dass man für ein Segment zwar passende Werbeflyer erstellen, der Vertrieb dieses aber nicht konkret identifizieren und ansprechen kann. Womit der Mehrumsatz dann überschaubar bleibt. Es ist das Ziel jedes größeren Smart-Data-Projekts, die unterschiedlichen Sichtweisen im Unternehmen auf den Kunden zu harmonisieren, sodass strategische Marketer, das Produktmarketing und der Vertrieb ein einheitliches Verständnis von den Kunden entwickeln können. Das populäre Schlagwort hierzu lautet: Integrierte Segmentierung. Im Idealfall sieht integrierte Segmentierung so aus: Alle marketing- und vertriebsrelevanten Funktionen im Unternehmen nutzen den gleichen integrierten Pool aus soziodemografischen, psychografischen und transaktionalen Daten. Wir können uns diesen Pool auch als mehrdimensionalen Kubus vorstellen – in der IT-Sprache auch OLAP-Cubes genannt (OLAP steht dabei für Online Analytical Processing). Aus diesem Kubus leiten alle zusammen ein gemeinsames Verständnis der kaufdefinierenden Parameter ab – konsequent aus der Perspektive des Kunden denkend. Ist dieses gemeinsame Verständnis hergestellt, können (bzw. müssen) alle Marketinggattungen im Unternehmen wiederum aus der für sie relevanten Perspektive auf den Segmente-Würfel schauen und situativ Dimensionen ein- und ausblenden, wie es gerade für ihre Aufgabenstellung passt.

91

Teil II – Prozesse

Zusammengefasst heißt das: Der Mehrwert von integrierter Segmentierung, in voller Konsequenz gedacht und durchgeführt, ergibt sich auf zwei Ebenen: ➤➤ ➤➤

Sie integriert die verfügbaren Daten und ermöglicht ein besseres Verständnis der Kundensegmente. Sie schafft ein gemeinsames Kundenverständnis in der gesamten Organisation und reduziert damit in erheblichem Umfang Reibungsverluste beim Kundenangang.

So weit die Theorie. Analytische Wettbewerber werden sie in zunehmender Konsequenz in die Praxis umsetzen. Dazu braucht es strategische Weitsicht und einen langen Atem bei der Umsetzung. Wir sind davon überzeugt, dass sich dieser Aufwand lohnt. Diverse Studien belegen: Kundenorientierung ist langfristig der wichtigste Wettbewerbsvorteil. Je kundenzentrierter die Märkte funktionieren, desto klarer muss das Bild vom Kunden sein. Und je präziser und übergreifender die Segmentierungslogik zu Beginn ist, desto geringer ist später der Aufwand, wirkungsmächtige Marketingmaßnahmen zu planen und durchzuführen.

Kundenorientierung ist langfristig der wichtigste Wettbewerbsvorteil. Je kundenzentrierter die Märkte funktionieren, desto klarer muss das Bild vom Kunden sein.

Für Smart-Data-Projekte gilt aber auch: Schicke Präsentationen über vollintegrierte Segmentierungslogiken auf Basis aller verfügbaren Daten über alle Abteilungen hinweg nützen wenig, wenn sie keine Chance auf Umsetzung in den nächsten ein bis drei Jahren haben. Intelligente Segmentierung geht auch eine Nummer kleiner und iterativ und im Sinne aller smarten Ansätze auf Basis von kleineren Projekten und Tests, die positive Aufmerksamkeit im Unternehmen schaffen und möglichen Blockierern den Wind aus den Segeln nehmen.

Wir nennen diese Vorgehensweise Smart-Data-Segmentierung. Folgende Punkte sind zu beachten:

92

2.3 Die Kunden verstehen ➤➤

➤➤

➤➤

➤➤

➤➤

➤➤

Ausgangspunkt sind die Hypothesen und Projektlisten aus Schritt 1 und 2 im Smart-Data-Zyklus. Sie geben die entscheidenden Hinweise, welches die wichtigsten Einsatzfelder der Segmentierung und damit vermutlich die relevanten Dimensionen sind. Vor Durchführung der Segmentierung müssen die Kollegen einbezogen werden, die später mit den Segmenten in der Kundenansprache direkt oder indirekt arbeiten müssen. Wenn Marketingstrategen sich Segmente mit hippen Namen ausdenken, die Vertriebsmitarbeiter an den Touchpoints/Points of Sale reale Kunden aber nicht den Segmenten zuordnen können, bringt die ganze Segmentierungsarbeit naturgemäß nichts. Smarte, integrierte Segmentierung denkt voraus. Sie versucht künftige Kompatibilität mit anderen Bereichen zu antizipieren, indem Schlüsselfragen bzw. Merkmale definiert werden, an welche die künftigen Segmentierungen anknüpfen können. Datenquantität und -qualität sind (fast) nie so groß und gut, wie man es sich wünscht. Wir können immer mit kleinen Datenpools und einfachen Korrelationstests anfangen. Manchmal reichen einige Hundert E-Mail-Adressen samt Kaufhistorien und den wesentlichen Kundenmerkmalen. Wenn die Tests vielversprechend sind, können wir in einem zweiten Schritt überlegen, wie wir die Anzahl von validen Stammdaten schrittweise erhöhen. Auch wenn es gegen den Zeitgeist der (Big-)Data-Revolution geht: Auch bei der Segmentierung ist der Mut zum Abschneiden/Ausblenden von Parametern immer wieder hilfreich. Wenn wir feststellen, dass verfügbares Einkommen für die Kaufentscheidung fünfzigmal wichtiger ist als die Milieuzugehörigkeit zu ökologisch orientierten Hedonisten, dann lassen wir die Erhebung des Milieus in der Betrachtung künftig außen vor. Auch bei Befragungen gilt die 80/20-Regel. Eine oft unterschätzte Datenquelle sind Lost-Order-Analysen. Dies gilt besonders für Produkte und Dienstleistungen mit hohem Preis bei geringen Stückzahlen. Die Erfahrung zeigt: Kunden sind oft gerne bereit, Auskunft darüber zu geben, warum sie z. B. ein bestimmtes Auto nicht gekauft haben. Man muss sie nur anrufen und höflich fragen, wenn sie nach einer Probefahrt nie wieder im Autohaus aufgetaucht sind. Hier lassen sich bereits aus relativ kleinen Datenpools besonders wertvolle Erkenntnisse für künftige Marketingmaßnahmen ziehen.

93

Teil II – Prozesse

Während Big-Data-Ansätze versuchen, aus möglichst vielen Daten unerwartete Zusammenhänge bzw. Segmente zu erkennen, geht die Smart-Data-Segmentierung gezielter vor. Zunächst wird nur mit den Daten gearbeitet, die später auch täglich zur Verfügung stehen, also z. B. mit den Transaktionsdaten. Mit diesen führen Datenwissenschaftler auf Basis aller als relevant erkannten Datenpunkte die statistische Segmentierung durch. Erst nachdem diese steht und sich aktionsorientierte Segmente ergeben haben, werden weitere erklärende Datenmerkmale hinzugespielt, z. B. Demografika, Werte und Bedürfnisse usw. Die erklärenden Datenmerkmale erlauben dann die Erarbeitung einer passgenauen Unique Selling Proposition (USP, siehe Schritt 4). Die transaktionale Basissegmentierung erlaubt dagegen die konkrete Ansprache der Kunden im Tagesgeschäft.

Blackbox Segmentierung Ziel der Segmentierung ist die Identifikation möglichst homogener und zueinander möglichst heterogener Gruppen (»Cluster«) auf Basis vorgegebener Merkmale in den Daten. Zur Clusterung von ähnlichen Elementen oder der Aufdeckung von Mustern in den Daten existieren verschiedene Klassen von Verfahren, die zur Gruppe des »Unsupervised Learning« aus dem Bereich des maschinellen Lernens (Machine Learning) gehören. Die wichtigsten Segmentierungsverfahren sind: 1. Hierarchische Clusteranalyse: Bei diesem Verfahren werden auf Basis von vordefinierten Merkmalen (z. B. bei Identifikation von homogenen Personengruppen im Markt: Soziodemografika, Nutzungsverhalten und Einstellungen) Distanzen zwischen den Beobachtungen (z. B. Personen oder Unternehmen) berechnet und daraus wird eine Matrix erstellt – mit ebenso vielen Spalten wie Zeilen entsprechend der Anzahl von Beobachtungen im Datensatz. Die Distanz berechnet sich über alle definierten Merkmale und kann mittels verschiedener Methoden ermittelt werden. Bei der hierarchischen Clusterung wird dann in einem iterativen Prozess immer dasjenige Beobachtungspaar zusammengefasst, das die kleinste Distanz aufweist. Dieser Vorgang wird so lange wiederholt, bis

94

2.3 Die Kunden verstehen

alle Beobachtungen in einem Cluster enthalten sind. Dieser Agglomerationsprozess kann nach unterschiedlichen Algorithmen erfolgen. Besonders verbreitet sind die »Single-Linkage-« bzw. »Neareast-Neighbour«-Algorithmen und das Ward-Verfahren. Aufgrund der unterschiedlichen Zusammenfassungslogik der Algorithmen entstehen verschiedene Clusterlösungen. So ist mittels »Single Linkage« etwa die Identifizierung von kleinen Extremoder Randgruppen möglich, die Anwendung des Ward-Verfahrens führt eher zu ausgeglichenen Clustern bezüglich der Gruppengröße. Der Vorteil hierarchischer Verfahren ist, dass im Vorhinein keine resultierende Clusteranzahl vorgegeben werden muss, sondern nach der Berechnung mithilfe statistischer Kenngrößen die optimale Clusteranzahl mit einem – zumindest aus statistischer Perspektive – guten Trade-off zwischen Homogenität innerhalb der Gruppen und Heterogenität zwischen den Gruppen bestimmt werden kann. Ein Nachteil besteht darin, dass dieses Verfahren rechenintensiv ist und sich nur auf kleine Datensätze anwenden lässt. Daher wird es zumeist bei Daten eingesetzt, die in Befragungen gewonnen wurden. Ebenfalls gut geeignet ist das Verfahren, um es auf einer Zufallsstichprobe aus Massendaten anzuwenden, um eine stabile Clusterung zu erreichen und die Clusteranzahl zu bestimmen. Im Nachgang wenden Datenwissenschaftler dann beispielsweise ein partitionierendes Verfahren an, um die Clusterlösung auf die gesamte Datenbasis auszurollen. 2. Partitionierende Clusteranalyse Während bei hierarchischen Verfahren im Vorhinein keine Clusteranzahl festgelegt werden muss – in der Regel ein großer Vorteil bei explorativen, musterentdeckenden Verfahren wie der Clusteranylyse –, ist die Festlegung einer resultierenden Clusteranzahl bei partitionierenden Verfahren notwendig. Gemeinsam ist allen partitionierenden Verfahren zudem, dass ausgehend von einem Anfangswert für die Clusterzentren (entsprechend der definierten Clusteranzahl) diese Clusterzentren so lange iterativ angepasst werden, bis eine vorgegebene Fehlerfunktion minimiert wurde. Die bekannteste und gebräuchlichste Fehlerfunktion ist der sogenannte k-Means-Algorithmus. Hierbei wird ausgehend von zufälligen Clusterzentren (oder von vorher vom Anwender festgelegten Startwerten) die Summe der quadrierten Distanzen der Beobachtungen zu ihrem nächsten Clusterzentrum minimiert. Nach jedem Schritt werden durch Mittelwertbildung aller Beobachtungen in einem Cluster

95

Teil II – Prozesse

die Clusterzentren neu berechnet. Dies wird so lange wiederholt, bis die Veränderungen in den Clusterzentren nicht mehr bedeutend (bzw. minimal sind). Andere Algorithmen der Klasse der partitionierenden Verfahren sind »k-Median« oder »Fuzzy C-Means«. Wesentlicher Vorteil von k-Means ist, dass es insbesondere für die Anwendung auf große Datenmengen geeignet ist, da der Algorithmus nicht so rechenintensiv ist wie hierarchische Verfahren. Problematisch an k-Means ist die Empfindlichkeit gegenüber Ausreißern. Dies kann mitunter zu sehr kleinen Clustern führen. Zudem sind die Lösungen instabil gegenüber Wiederholungen aufgrund der zufällig gewählten Startpunkte. Die mangelnde Reproduzierbarkeit ist zumeist unerwünscht. Abhilfe kann die vorherige Durchführung einer hierarchischen Clusteranalyse schaffen. Die dort gefundenen Clusterzentren können als Startwerte für k-Means verwendet werden. 3. Dichtebasierte Verfahren Die Idee hinter diesen Verfahren ist, die Beobachtungen als Objekte zu betrachten, die in einem Raum liegen – und zwar mit so vielen Dimensionen, wie Differenzierungsmerkmale gewählt wurden. Identifiziert werden sollen nun Gebiete im Raum mit höherer und niedrigere Dichte. Auf dieser Basis werden die Cluster gebildet. Das zentrale Verfahren dieser Klasse ist das »Density-Based Spatial Clustering of Applications with Noise« kurz DBSCANVerfahren. In Abhängigkeit der Abstände der Objekte im Raum zueinander werden Gebiete mit sehr hoher Dichte als Kernobjekte definiert. Objekte mit mittlerer Dichte werden als Randobjekte zum nächstgelegenen Cluster definiert. Objekte, die in Räumen mit sehr niedriger Dichte liegen, werden als Rauschobjekte gesehen. Ebenso wie bei den hierarchischen Verfahren ist ein wesentlicher Vorteil von DBSCAN, dass ex ante keine Clusteranzahl vorgegeben werden muss. Weitere entscheidende Vorteile von DBSCAN etwa gegenüber k-Means sind, dass der Algorithmus auch nicht-linear separierbare Cluster identifizieren kann und robust gegenüber Ausreißern ist. Probleme hat er jedoch beim Finden von Clusterlösungen im Fall von sehr großen Dichtedifferenzen im Raum. DBSCAN ist ein vergleichsweise neues Clusterverfahren (1996 vorgestellt) und hat sich seitdem als einer der wichtigsten Algorithmen im Machine Learning etabliert.

96

2.3 Die Kunden verstehen

4. Fuzzy Clustering Während bei den bisher thematisierten Verfahren ein Element immer eindeutig einem Cluster zugeordnet wird (sogenannte »harte« Verfahren), können beim Fuzzy Clustering, das zu den »weichen« Verfahren gehört, Elemente zu mehr als einem Cluster gehören. Ebenfalls sind unterschiedliche Grade der Clusterzugehörigkeit zu identifizieren. Der Bekannteste dieser Algorithmen ist Fuzzy C-Means (FCM). Angenommen wird hier, dass jede Beobachtung eine bestimmte Wahrscheinlichkeit oder Neigung hat, zu einem Cluster zu gehören. Folglich haben Beobachtungen in Clusterzentren eine höhere Neigung, zu diesem Cluster zu gehören, während Beobachtungen an Clusterrändern eine geringere Neigung aufweisen oder auch eine mehr oder weniger ausgeglichene Neigung, zu verschiedenen Clustern zu gehören. Technisch werden die Cluster ähnlich der Logik beim k-Means-Algorithmus gebildet. Das Aufgeben der Annahme, dass eine Beobachtung ausschließlich zu einem Cluster gehört, hat in bestimmten Anwendungsfällen hohen praktischen Nutzen. Während man bei der Markt- oder Kundensegmentierung in der Regel daran interessiert ist, eindeutige Zuordnungen zu erreichen (beispielsweise um Marktpotenziale von Segmenten abschätzen zu können), kann es bei der Clusterung von Verhalten oder Kaufentscheidungen über verschiedenen Kategorien sinnvoll sein, Mehrfachzuordnungen zuzulassen. Wenn das Ziel z. B. ist, Reisebürokunden gezielter adressieren zu können, kann man durch die Anwendung von Fuzzy Clustering auf die Transaktionsdaten der Kunden Reisetypen identifizieren. Dabei können Kunden zu einem größeren oder kleineren Anteil in mehrere Gruppen fallen, beispielsweise Strandurlaub und Städtereisen. Dieses Wissen hilft dabei, Kunden bessere Angebote zu unterbreiten.

97

Teil II – Prozesse

So gut die Verfahren der mehrdimensionalen statistischen Segmentierung auch sind, die Segmente sind zunächst in aller Regel für den Anwender nicht komplett trennscharf. Es ergibt sich beispielsweise ein Konsumentensegment, das zu 90 Prozent gut verdient, das zu 85 Prozent stationär einkauft, Qualität und Sicherheit schätzt, dem Service wichtig ist, das eine Haushaltsgröße von durchschnittlich 2,3 Personen hat und im Durchschnitt 980 Euro pro Monat für Lebensmittel ausgibt, davon 430 Euro in einem bestimmten Geschäft. Um daraus für den Vertrieb klare Entscheidungen abzuleiten, werden die Segmente mit möglichst wenigen, klar abgrenzbaren Eigenschaften beschrieben, die für den Vertrieb leicht verfügbar sind. Sogenannte »Power-Questions« helfen dabei, Kunden den einzelnen Segmenten zuzuordnen. Solche eindeutigen Fragen können dann z. B. sein:

98

2.3 Die Kunden verstehen ➤➤ ➤➤ ➤➤ ➤➤

Kauft der Kunde Produkte der Premium-Marke? Gibt der Kunde mindestens 400 Euro pro Monat bei uns für Lebensmittel aus? Tätigt der Kunde mindestens 4 von 5 Transaktionen stationär? Kauft der Kunde Kinderartikel?

Auf Power-Questions gibt es nur eindeutige Antworten. Daraus ergibt sich ein Entscheidungsbaum. Gleicht man diesen mit der statistischen Segmentierung ab, wird die Übereinstimmung der Segmente nie 100 Prozent erreichen. Im Idealfall lassen sich aber mehr als 90 Prozent der Kunden klar einem Segment zuordnen. Akzeptable Werte liegen bei 70 bis 80 Prozent. Liegt die Quote unter 70 Prozent, ist die Segmentierung ungeeignet, um trennscharfe Segmente abzubilden. In der Regel sind dann bereits die Ausgangshypothesen falsch. Das ist zwar keine angenehme Erkenntnis, aber es ist natürlich besser, dies in diesem frühen Stadium zu erkennen und mit neuen Hypothesen den Zyklus noch einmal zu durchlaufen. Und es ist zumindest deutlich günstiger als der Schaden durch Streuverluste und schlecht konzipierte Marketingmaßnahmen, der bei unsauberer Segmentierung automatisch entsteht. Gleichzeitig und wie bereits angedeutet gilt: Auch die beste Segmentierung mit über 90 Prozent Zuordnung von Einzelkunden nützt nichts, wenn diejenigen, die später die Kunden ansprechen werden, die Segmente nicht verstehen oder nutzen können. Auch das hört sich nach einer Selbstverständlichkeit an. In der Praxis wird sie aber leider oft übergangen. Ein anschauliches Beispiel hierfür haben wir in einem großen Projekt mit einem weltweit führenden IT-Hersteller erlebt. Das strategische Marketing im weltweiten Headquarter des Konzerns hatte statistisch sauber eine hohe Anzahl von B2B-Segmenten mit Namen wie »Printing Enthusiasts« oder »Overwhelmed Workers« identifiziert. Damit ließen sich Briefings für Kreativagenturen erstellen und strategische Produkt­ entscheidungen treffen. Aber leider waren die Vertriebsmitarbeiter am Point of Sale nicht in der Lage, Kunden als Druck-Enthusiasten oder überlastete Arbeiter zu erkennen. Mithilfe einer Smart-Data-Segmentierung reduzierten und vereinfachten wir dann die Segmente deutlich. Wir analysierten zunächst die täg-

99

Teil II – Prozesse

lich verfügbaren Transaktionsdaten und ermittelten Segmente, die sich eindeutig anhand der Umsatzdaten identifizieren und ansprechen ließen. Erst dann spielten wir weitere Daten zu Unternehmensstrukturen und Ergebnissen zu Einkaufsentscheidungen aus der Marktforschung dran. Damit ließen sich dann genauso treffende Werbebotschaften erstellen, diese aber mit einer nahezu 90-prozentigen Trefferquote den richtigen Kunden zustellen. Damit konnten Streuverluste deutlich reduziert und die Werbeeffektivität, gemessen an inkrementellen Umsätzen, massiv gesteigert werden. Die mathematisch-statistischen Prinzipien müssen Marketer freilich weder beherrschen noch in ganzer Tiefe verstehen. Aber hilfreich zu wissen ist: In der Regel ist die Transaktionsdatenanalyse der Ausgangspunkt und die Interaktions- und Marktforschungsdaten werden »drangespielt«, wie Data-Scientists das nennen. Ziel der Smart-Data-Analyse ist es wie bei den traditionellen Segmentierungsmethoden, möglichst klar abgegrenztes Konsumverhalten von in sich homogenen Gruppen zu erkennen. Die Datenanalyse erfolgt wenn möglich nicht nur einmal statisch, sondern kann dann dynamisch einmal im Monat, täglich oder gar in Echtzeit durchgeführt werden. Zur Veranschaulichung von Segmenten sind Visualisierungsmethoden aus Kreativagenturen sehr gut geeignet. Dazu zählen z. B. Moodboards zu Lebenswelten von bestimmten Kundentypen oder auch lebensgroße Figuren aus Pappe und Fotofolie – sogenannte Mock-ups –, mit denen Typologien den Weg in die Hinterköpfe der Vertriebskollegen schaffen. Es gibt Unternehmen, die gehen noch einen Schritt weiter und bedienen sich der Methoden des DesignThinking. Sie lassen Mitarbeiter Rollen im typischen Wohnzimmer der Zielgruppen spielen oder schaffen Beobachtungssituationen, in denen Kundenberater still in der Ecke sitzend das Kundenverhalten analysieren sollen, den Blick geschärft für die Segmente!

Ziel der Smart-DataAnalyse ist es wie bei den traditionellen Segmentierungsmethoden, möglichst klar abgegrenztes Konsumverhalten von in sich homogenen Gruppen zu erkennen.

100

2.3 Die Kunden verstehen

Really-Smart-Data-Cluster Verlassen wir für einen Moment den Boden der Marketingrealität. Wie sähe eine extrem smarte Segmentierung in einer besseren Welt des Werbens und Verkaufens aus? Wir stellen sie uns so vor: Der Begriff der Kampagne hat sich überholt. Denn 1:1-Kommunikation ist ja keine Kampagne, sondern ein Zwiegespräch. Das Marketing hat sich von der naiven Vorstellung verabschiedet, dass Werte und Milieuzugehörigkeit mehr als vage Hinweise geben, wie sich ein Konsument im realen Konsumleben tatsächlich verhält. Es ordnet potenzielle Kunden nicht mehr nach Alter, Einkommen oder Lieblings-Automarke. Es hat verstanden, dass Konsumenten komplexe Wesen sind. Bei jedem einzelnen Verbraucher ändern sich bei jeder einzelnen Konsumentscheidung die kaufentscheidenden Parameter. Die Really-Smart-Data-Analyse weiß, welche das bei jedem Einzelnen in welchem Konsumkontext sind. Entsprechend schneidet sie die Segmente für jede Kaufentscheidung in Echtzeit neu zu – und der Kunde landet jedes Mal in der Mitte des Segments. Im Extremfall kann dieses Segment sogar nur aus einem einzelnen Kunden bestehen. Anders formuliert: Ein reaktionsstarkes, ständig lernendes IT-System stellt vor jeder Marketingmaßnahme aus den wichtigen Kaufparameter ein neues Cluster zusammen und ordnet den Einzelkunden zielsicher zu. Verdeutlichen wir das am Beispiel einer Branche, die Kunden heute besonders unpräzise anspricht – unter anderem wegen hoher regulativer Einschränkungen bei der Datennutzung. In einer besseren Werbewelt ordnet eine Bank einen Kunden nicht mehr einem bestimmten Segment zu, weil er 31 Jahre alt ist, 2600 Euro verdient und laut Leasingkredit bei der Tochtergesellschaft eines Großkonzerns arbeitet und einen VW Polo fährt. Die Bank hat stattdessen erkannt, dass sie den jungen Mann nicht mit Angeboten zur Baufinanzierung belästigen sollte, selbst wenn er bei der Bank noch keinen Baukredit abgeschlossen hat. Denn er befindet sich, wie gerade situativ errechnet, in der Mitte des gerade erstellten Segments: Väter mit kleinen Kindern, die in einem Neubaugebiet mit nahezu 100 Prozent Hauseigentümerquote wohnen. Die Daten dazu dürfte die Bank übrigens auch heute legal nutzen. IT-Systeme können nämlich schon weit mehr als die beschriebene dynamische

101

Teil II – Prozesse

Echtzeit-Segmentierung. Eigentlich müsste die Vision vom Really-SmartData-Cluster keine sein. Die Daten lassen sich problemlos aus dem CRMSystem der Bank und den Kontodaten abfragen. Der statistische Aufwand ist überschaubar und die Implementierung denkbar einfach. Nur dass kein Standardbrief mehr eingetütet wird, sondern einer, der für den Kunden wirklich passt. Und dazu führt, dass der mehr Umsatz macht und sich verstanden fühlt. Endlich.

102

2.4 Die eigene USP herausarbeiten Wie können wir unser Angebot intelligent an die Bedürfnisse der Kunden anpassen, sodass … ➤➤

➤➤

… sich in den identifizierten Segmenten die Kaufbereitschaft der einzelnen Kunden erhöht? Oder im Marketingsprech formuliert: dass wir die Buy-Buttons der Kunden öfter drücken? … die dazu nötigen Maßnahmen im Saldo die Profitabilität erhöhen? Will heißen: dass wir zuverlässig prognostizieren können, welche Marketingaktionen mehr bringen, als sie kosten.

Die Antwort auf diese beiden Fragen ist der nächste Schritt im SmartData-Zyklus, der Herausarbeitung der eigenen Unique Selling Proposition (USP): Hier suchen wir nach dem Was (Was wollen wir an unserem Angebot ändern?). Das Wie (Wie wollen wir den Kunden ansprechen?) legen wir erst im letzten Schritt fest. Das Gemeine am Was ist: Die Diskussion darüber droht in der Regel leicht auszuufern, was in der Natur der Fragestellung liegt. Das Feld der Möglichkeiten ist extrem groß. Erfahrungsgemäß reicht die Bandbreite der möglichen Antworten in Workshops von »Wir müssen unsere Direktmailings leicht anpassen« oder »Rabattaktionen zum Wochenende hin wären gut; Bekanntmachung per Radiowerbung!« bis hin zu »Im Grunde brauchen wir ganz andere Produkte« oder »Wir müssen unsere Standortpolitik grundlegend ändern«. Im Rahmen eines Smart-Data-Ansatzes ermitteln wir strukturiert die möglichen Variationen des Angebots. Dies kann ebenfalls in einem gemischten Expertenteam erfolgen, wobei zu beachten ist, dass die Dimensionen der Angebotsvarianten (z. B. Preis, Farbe, Bündel, Verpackungen, Anschreiben, Finanzierungsangebote) vorher sauber definiert werden. Diesen Dimensionen werden dann mögliche Botschaften zugeordnet.

103

Teil II – Prozesse

Es bleibt auch an dieser Stelle im Zyklus dabei: Smart heißt machbar, und zwar in einem absehbaren Zeithorizont. Die Leitfragen lauter weiter: Was können wir realistisch in einem Monat oder einem Jahr umsetzen? Was bringt am meisten? Dazu schauen wir auf die über die Daten neu gewonnenen bzw. geschärften Erkenntnisse: ➤➤ ➤➤ ➤➤

Kundenbedarfe (besonders bei Stammkunden), Kanalpräferenzen (besonders bei Kunden mit geringem Share-ofWallet oder bei potenziellen Neukunden), kaufauslösende Treiber (Preis, Produkt, Sortiment), Beratung, Service, örtliche Nähe, Bequemlichkeit).

Die Antworten sind naturgemäß extrem abhängig vom jeweiligen Anwendungsfall. Aber in der Regel und in Beispielen gedacht bewegen sie sich bei smarter Perspektive auf folgender inhaltlicher Ebene: ➤➤ ➤➤ ➤➤ ➤➤ ➤➤

In Segment X werden neue Bundle-Angebote ein Cross-Selling ermöglichen. In Segment Y sehen wir das Potenzial zu gezieltem Upselling durch das Anbieten höherwertiger Produkte. In Segment Z können wir durch klar definierte Serviceangebote den Share-of-Wallet besser ausschöpfen. Wenn wir unser Sortiment um U erweitern oder V verringern, werden wir in folgenden Segmenten W erreichen. Wenn wir folgende Verbesserungen in der Beratung durchführen, können wir die Kundenbindung in Segment A erhöhen.

Das Wesentliche dabei ist nicht, Angebote herauszuarbeiten, die in allen Segmenten voll ins Schwarze treffen. Das wäre schön, ist aber unrealistisch. Entscheidend ist vielmehr eine Bandbreite an realistisch zugkräftigen Angeboten herauszuarbeiten, die getestet und dann datenbasiert weiter optimiert werden können. Wir werden später noch ausführlich darauf eingehen, aber so viel vorweg: Unser Ziel ist es, ein lernendes System zu installieren.

104

2.4 Die eigene USP herausarbeiten

Durch systematische Kontrollgruppentests mit Subsegmenten wird getestet, welche Angebotsvariationen (z. B. ein Aktionsrabatt) in welchem Segment den profitabelsten Effekt haben. Im nächsten Zyklus erfolgt dann eine weitere Kalibrierung, sodass die USP in Verbindung mit der richtigen Ansprache zur richtigen Zeit über den richtigen Kanal immer treffsicherer wird und die Kundenpotenziale Schritt für Schritt besser ausgeschöpft werden. Bei Schritt 4 gilt allerdings in besonderem Maße: Es ist schwer bis unmöglich, allgemeingültige Regeln für smarte USPs und Marketingansprache herauszuarbeiten. Der Kontext entscheidet. In Teil III werden wir deshalb viele Fallbeispiele zeigen, bei denen das Herausarbeiten von Alleinstellungsmerkmalen die Grundlage für intelligenten Kundenangang mit den richtigen Angeboten im günstigen Moment in passender Tonalität gelegt hat – womit wir beim letzten Einzelschritt im SmartData-Zyklus angelangt wären.

105

2.5 Die Kunden richtig ansprechen Wer die Kundenansprache verbessern will, muss wissen: Wie informiert sich der Kunde, bevor er kauft? Und was erlebt er auf dem Weg zum Kauf? Das hat sich im digitalen Zeitalter nicht geändert. Daten helfen auch hier nur dabei, das Kundenverständnis an jedem einzelnen Kontaktpunkt zu erhöhen. Die Betonung liegt auf »jedem«. An den Touchpoints, den Kontaktpunkten, lernen bestehende, potenzielle und ehemalige Kunden kognitiv etwas über ein physisches Produkt, eine Dienstleistung, eine Marke oder ein Unternehmen; sie erhöhen also ihr Wissen. Dort entstehen aber immer auch Gefühle – schwache, starke, positive, negative. Aus der Summe der kognitiven und emotionalen Erfahrungen bildet sich bei (potenziellen) Kunden ein inneres Bild von Produkt/Marke/Unternehmen, also eine Vorstellung. Diese ist immer verbunden mit einer Einstellung.

Wer die Kundenansprache verbessern will, muss wissen: Wie informiert sich der Kunde, bevor er kauft? Und was erlebt er auf dem Weg zum Kauf?

Ausgangspunkt von Schritt 5 im Smart-Data-Zyklus ist entsprechend eine Analyse der aktuellen Touchpoints der Kunden, aufgeschlüsselt nach den neu definierten Segmenten entlang folgender Leitfragen: ➤➤ ➤➤ ➤➤

➤➤

106

Wo genau kommen wir mit Kunden zurzeit in Kontakt? Wie genau interagieren wir dort mit Kunden? Welche Wirkung erzielen wir zurzeit mit den bestehenden Formen der Interaktion? Hier ist es besonders wichtig, auch systematisch auf jene Daten zu schauen, aus denen sich Unzufriedenheit ableitet. Es ist zwar menschlich verständlich, die eigenen Stärken besonders stark wahrzunehmen. Die größten Hebel zur Verbesserung der Kundenansprache finden wir jedoch oft bei den unzufriedenen Kunden – oder jenen, die ein Unternehmen bereits verloren hat. Mit wem kommen wir (in welchen Segmenten) bisher kaum oder gar nicht in Kontakt?

2.5 Die Kunden richtig ansprechen

Wer die Interaktion an den bestehenden Kontaktpunkten erfasst und verstanden hat, kann sich Gedanken über die Frage machen: Was wären für welche Kundensegmente mögliche neue Kontaktpunkte? Mit welchen Interaktionen könnten diese welche Wirkung erzielt? Hier hilft erfahrungsgemäß der Blick auf andere Branchen, Länder – oder besonders innovative Wettbewerber.

107

Teil II – Prozesse

Wohin führt eigentlich die Customer-Journey? Die Customer-Journey ist die Summe aller Kontaktpunkte eines Kunden. Eines der großen Versprechen von Big Data im Marketing lautet: Wir können dank der Datenfülle die Customer-Journey jedes einzelnen Kunden in seiner sequenziellen Abfolge berechnen – und damit zu unseren Gunsten beeinflussen. Google und Apple können das angeblich ganz gut für ihre digitalen Produkte. Sonst kann das eigentlich niemand. Nicht einmal Amazon. Wir glauben nicht daran, dass die individuellen Customer-Journeys in den meisten Massenmärkten in absehbarer Zeit vollständig berechenbar und steuerbar werden. Die Reisen der Kunden sind zu unterschiedlich, zu situativ, zu komplex, als dass wir sie mit den heute bekannten Ansätzen in Gänze auch nur annähernd zuverlässig simulieren könnten. Die Kunden kennen ihre Journeys ja nicht einmal selbst. Dafür ändert jeder von ihnen vor jeder Kaufentscheidung immer öfter und immer schneller die Richtung und das Ziel, nimmt unvorhergesehene Abkürzungen oder Umwege, verliert sich in der Entscheidungslosigkeit oder wechselt das Ziel, also die Produktkategorie. Kurzum: Eine allzu detaillierte Analyse individueller Customer-Journeys bringt viel weniger als erhofft und steht in keinem Verhältnis zum betriebenen Aufwand. Der Grenznutzen ist schnell erreicht. Als Orientierungsrahmen oder zumindest als gedankliches Modell ist die Reise des Kunden allerdings sehr wertvoll. Sie hilft uns zu sortieren, in welcher Phase sich der Kunde an bestimmten Kontaktpunkten befinden – also ob gerade Aufmerksamkeit für ein bestimmtes Produkt geweckt wird, ob sich sein Interesse gerade verstärkt, ob sich der Wunsch nach ihm bereits ausgebildet hat und er nur noch einen Impuls braucht, um den Kauf abzuschließen. Und sie hilft uns, neue Touchpoints mit dem Kunden zu entwickeln, deren Bedeutung bzw. Wirkung innerhalb einer Customer-Journey zu testen und so im Zeitverlauf zu einer besseren Steuerung und Bearbeitung des Kundeninteresses entlang des Customer-Journey zu kommen. Und noch viel wichtiger: Konsequent und frühzeitig angewendet, kann das Verständnis von Customer-Journey und Touchpoints Unternehmen davor bewahren, aus purer Unwissenheit Millionen in neue digitale und stationäre Kontaktpunkte wie Apps oder Filialen zu stecken. Denn das ist die traurige Realität: In bester »ballistischer« Manier investieren viele Unternehmen derzeit in die

108

2.5 Die Kunden richtig ansprechen

Umsetzung von am grünen Tisch entwickelten Kundenkontaktpunkten. Ob diese vom Kunden überhaupt gewünscht werden, welche Rolle sie innerhalb der Customer-Journey spielen und wie ihre Wirksamkeit gemessen wird, spielt bei den Investitionsentscheidungen oft leider keine Rolle. Ein Beispiel: Nur wenn ich mir als Autohersteller darüber im Klaren bin, welche Rolle meine stationären Handelsstützpunkte zukünftig in der Customer-Journey spielen, wie diese mit z. B. digitalen Touchpoints wie dem Konfigurator (gemessen z. B. in der Konversionsrate von Konfiguratorbenutzung zu Besuch des Autohändlers) oder dem Videochat per Tablet verbunden sind, weiß ich, wie diese Stützpunkte – auch z. B. regional unterschiedlich – auszugestalten sind oder wie viele ich davon zukünftig noch vorhalten sollte. Und diese Erkenntnisse gewinne ich nicht durch intensives Nachdenken in der Konzeptionsphase, sondern durch smarte Datenauswertung zu Beginn und dann konsequentes Experimentieren samt Analyse der Experimente. Smart-Data-Marketing analysiert die Datenpunkte, die wir dazu an den einzelnen Touchpoints haben und bezieht die Erkenntnisse in die Ableitung der Maßnahmen natürlich mit ein. Im Hintergrund läuft immer die Frage mit: Lohnt sich das auch? Nicht jede von Kunden als gut erachtete CustomerJourney sollte auch vom Unternehmen angeboten werden. Das kann nämlich sehr teuer werden. Insofern geht es bei der intelligenten Gestaltung der Kundenreisen auch darum, dass smarte Unternehmen manchen Kunden gute Alternativen zu den eigentlich von ihnen gewünschten Journeys anbieten.

Aus der Liste bestehender und möglicher Touchpoints priorisiert das Team dann gemäß der simplen Logik: 1. Welche Touchpoints sind für welche Zielgruppen wirklich relevant? 2. Welches sind die Konnektoren, welche die Reise des Kunden beschleunigen bzw. sicherstellen, dass er weiterreisen möchte? 3. Welches sind die Kauf-Aktivatoren an den jeweiligen Touchpoints im Segment? 4. Mit welchen Maßnahmen können wir die Marketingwirkung an den Touchpoints erhöhen? So weit, so einfach! Der entscheidende Punkt folgt noch:

109

Teil II – Prozesse

5. Eine Metrik für jede einzelne Maßnahme an jedem einzelnen Touchpoint definieren! Oder anders herum gesagt: Wenn es nicht gelingt, für einen Touchpoint eine oder mehrere Metriken zur Erfolgsmessung festzulegen, ist der Touchpoint vermutlich falsch definiert oder gar überflüssig. Denn wenn nicht klar ist, welche Effekte ein Touchpoint überhaupt erbringen soll, besteht offenbar auch noch kein Verständnis von seiner Rolle innerhalb der Customer-Journey. Der Smart-Data-Zyklus ist ein selbstlernendes System. Auch die Maßnahmen, die wir am Ende ableiten, sind in ihrem Charakter Hypothesen. Wenn wir in den Schritten 1 bis 4 sauber gearbeitet haben, besitzen diese Hypothesen eine hohe Trefferquote. Sie haben eine hohe Wirkung bei vergleichsweise Der Smart-Data-Zyklus geringen Kosten, weil wir auf jeder Ebene Effizienz­ ist ein selbstlernendes priorisierungen vorgenommen haben. Aber ob unseSystem. re Maßnahmen greifen, wissen wir nur, wenn wir sie testen. So wie wir Angebotsvarianten testen müssen, müssen wir auch Kontaktpunkte auf ihre Effizienz und Effektivität hin testen. Am Ende können wir so herausarbeiten, an welchen Kontaktpunkten wir mit welchen Maßnahmen bei welchen Kunden die größten Wirkungen erreichen. »Test« ist ein harmlos daherkommendes Wort. Im Smart-Data-Modus bedeutet es konkret: Wenn wir die Wirksamkeit unserer Überlegungen nicht messen können, bleiben wir hinter Anspruch, Versprechen und Möglichkeiten immer weit zurück. Die Spreu vom Weizen der Data-Marketer trennt sich bei der Fähigkeit, die tatsächliche Wirkung an den Kontaktpunkten messen zu können und die gut funktionierenden Maßnahmen auf mehr Kunden im gleichen Segment oder auf andere Segmente angepasst zu übertragen. Und sich im Gegenzug schnell von wirkungslosen Maßnahmen wieder zu verabschieden, so schlüssig sie im Workshop-Brainstorming-Modus auch geklungen haben. Mit jeder Iteration sprechen wir dann mehr Kunden besser an.

110

2.5 Die Kunden richtig ansprechen

Blackbox Smart-Data-Verfahren im datenbasierten Marketing »In Gott vertrauen wir. Alle anderen haben Daten zu erbringen.« Das Bonmot stammt von dem Physiker und Begründer der statistischen Prozesslenkung William Edwards Deming. Daten an sich haben keinen Wert für das Marketing. Erst statistische Verfahren machen aus dem Rohstoff anwendbares Wissen. Welches Verfahren hilft für welchen Zweck? Hier ein kurzer Überblick: ➤➤ Zur Aufdeckung von Mustern in Daten, im Marketing zumeist die Iden-

tifizierung von homogenen (potenziellen) Kundengruppen, werden vorwiegend Clusterverfahren eingesetzt. (siehe Kapitel 2.3) ➤➤ Zur Analyse und Bewertung von Treibern vordefinierter KPIs (beispielsweise Return on Marketing Investment, ROMI) nutzen Statistiker zumeist Verfahren der Klasse konfirmatorischer Statistik, insbesondere Regressionsverfahren. Das Ziel dieser Verfahren ist es, eine gegebene Zielvariable möglichst gut durch andere Faktoren zu erklären und dabei die Relevanz und die Wirkungsstärke jedes einzelnen Faktors zu extrahieren. Auf diese Weise werden die relevanten Stellschrauben erkennbar, um die entsprechende KPI effektiv steuern zu können. Sehr häufig werden konfirmatorische Verfahren bei Projekten zur Marketingeffizienz eingesetzt. ➤➤ Für die Bewertung der Effizienz des Kanal-Mixes oder auch zum Benchmarking der Marketingeffizienz über Unternehmen hinweg kann die Data Envelopment Analysis genutzt werden. Diese Optimierungsmethode basiert auf der Idee, Output-Levels in Relation zu Input-Variablen für verschiedene Unternehmen oder auch Kanäle zu setzen. Ein großer Vorteil dieses Verfahrens liegt darin, dass nur wenige Datenpunkte für eine solide Analyse notwendig sind. ➤➤ Eines der häufigsten Klassifikationsprobleme im datenbasierten Marketing ist die Zuweisung von Personen zu vorgegebenen Segmenten. Mithilfe von Entscheidungsbäumen können optimale Klassifizierungsregeln aufgestellt werden, die eine möglichst treffsichere Klassifikation von Personen zu Segmenten ermöglichen. Der Entscheidungsbaum ist eines der mächtigsten Klassifikationsverfahren, das sehr flexibel einsetzbar ist, auf nur wenigen Annahmen beruht und zudem durch fortgeschrittene Algorithmen, etwa »Random Forests«, auch auf riesige Datenmengen anwendbar ist.

111

Teil II – Prozesse ➤➤ Amazon hat es vorgemacht. Und alle wollen nun gute Recommendation-

Engines. Ziel ist dabei, individuelle Empfehlungen zu automatisieren, die möglichst genau die Präferenzen der Kunden treffen, mit dem Ziel, zusätzliche Käufe zu stimulieren. Zwei wesentliche Verfahren sind: 1. Assoziationsanalyse: Ein einfaches Verfahren, das insbesondere in der Analyse von Warenkörben zum Einsatz kommt. Gesucht werden hier überzufällig häufig gemeinsam gekaufte Produkte. Dies ist übrigens auch mit vollständig anonymisierten Transaktionsdaten möglich. 2. Kollaboratives Filtern: Hier werden durch den Vergleich von Präferenz-/Kaufprofilen, z. B. von Nutzern einer Webseite, individuelle Empfehlungen entwickelt. Im engen Sinne handelt es sich hier eher um eine spezifische Filter- und Vergleichslogik als um einen statistischen Algorithmus. Aufgrund ihrer einfachen Anwendbarkeit und geringen Rechenintensität ist die Methode hervorragend für riesige Datenmengen geeignet. Ein Nachteil ist: Zur Generierung sinnvoller Empfehlungen muss Vorwissen über den Kunden vorhanden sein. Umgekehrt gilt natürlich auch: Je mehr Informationen vorliegen, desto besser und spezifischer werden die Empfehlungen. Ganz im Sinne des oben beschriebenen selbstlernenden Systems.

112

2.6 Conclusio: Der Mehrwert Smarte Datenanalyse bringt gegenüber den herkömmlichen Segmentierungsmodellen und deren Marketingableitungen auf mindestens fünf Ebenen messbare Wettbewerbsvorteile: ➤➤

➤➤

➤➤

➤➤ ➤➤

Die strukturierte Fokussierung auf die wesentlichen Geschäfts­ probleme/-potenziale schafft Klarheit bei Zielen und Hebeln, die bei vielen explorativen Datenprojekten überraschend fehlt. Dank einer besseren (da höher aggregierten und intelligenter vorsortierten) Datenbasis bildet eine smarte Segmentierung die Realität im Kaufverhalten der einzelnen Segmente besser ab. Zudem steigt der Anteil von Kunden, die einem Segment klar zugeordnet werden können. Damit sind die abgeleiteten Maßnahmen auch zielgenauer umsetzbar – im Idealfall auf Einzelkundenebene. Es wird (viel öfter) möglich, Umsatzpotenziale von einzelnen Kunden mit einzelnen Artikeln und konkreten Angebotsvarianten zu erkennen. Die Effizienz der Kundenansprache wird durch eine Priorisierung der Kontaktpunkte deutlich gesteigert Je dynamischer die statistische Auswertung erfolgt, desto besser können Marketing- und Vertriebsaktivitäten bei Einzelkunden nachgesteuert werden.

Zusammengefasst bedeutet dies: Mit dem Smart-Data-Zyklus gelangen wir mithilfe (kompetenter) Hypothesenbildung zu einer intelligenteren Form der Segmentierung, die in Rückbindung an die Hypothesen zu Marketingmaßnahmen mit einem guten Aufwand-Nutzen-Verhältnis führen. Den Schlüssel hierzu liefert die Smart-Data-Segmentierung. Denn diese präzisiert dank regelmäßig wiederholender, integrierter Analyse von Transaktions-, Interaktions- und Konsumverhaltensdaten eben nicht nur, welches Produkt ein Kunde mit einer berechenbaren Wahrscheinlichkeit kaufen möchte. Sondern als selbstlernendes System auch immer genauer, wann, in welchem Kanal, zu welchem Preis. Zugegeben: Das klingt wie eine weitere großsprecherische Behauptung im großen Datenmarketing-Selbstmarketing. Teil III dieses Buchs be-

113

Teil II – Prozesse

schäftigt sich mit den smarten Unternehmen, die das Gegenteil unter Beweis stellen; die jeden Tag mit Daten Wettbewerbsvorteile für sich erschließen, ohne in die Fallen der Daten-Selbstüberforderung zu tappen. Wir nennen sie Smart-Data-Champions. Ihre Überlegenheit erkämpfen sie sich in vier wesentlichen Anwendungsfeldern.

114

Teil III

Vorbilder

Die vier Anwendungsfelder für Smart-DataChampions

3.1 Kundennähe smart gestalten– Die richtigen Angebote zur richtigen Zeit zum richtigen Preis Curated Fashion Curated Shopping ist echt Bombe! So sieht es zumindest auch die Berliner Startup-Szene. Sie gründet eine Handelsplattform nach der anderen, auf der geschmacksunsichere Kunden mit Unterstützung von technischen Filtern und menschlichen Geschmacksberatern Möbel, Designobjekte, Geschenkartikel, Damenschuhe oder Herrenmode bestellen können. Die Kunden sind oft Stammkunden in Reinform – gebunden mit Abomodellen. Die Venture-Kapitalisten sind ähnlich begeistert von dem Konzept wie die Gründer. Besonders im Modebereich flossen im frühen Stadium hohe Millionenbeträge an Unternehmen wie Outfittery, Modomoto, Kisura oder 8select. Die Idee und das Wertversprechen des kuratierten Einkaufens im Online-Handel sind schnell erzählt: Kunden geben einmal umfangreich Auskunft darüber, welcher Typ sie sind, welche Styles sie gut finden, zu welchen Gelegenheiten sie bestimmte Kleidung üblicherweise tragen usw. Und natürlich teilen sie dem System auch die Hard Facts der Umkleidekabine mit: Körpermaße, Gewicht, Schuhgröße usw. Ein Berater stellt mit Datenunterstützung eine Vorauswahl zusammen und schickt sie dem Kunden. Dieser behält nur, was ihm passt und gefällt. Aus der Rücksendung lernen ITSystem und persönlicher Berater den Kunden noch besser kennen und optimieren die Vorschläge für das nächste Paket. Der Kunde wiederum spart Zeit und ist, wenn die Sache funktioniert wie gedacht, dank maschinell-menschlicher Beratungskompetenz besser angezogen als je zuvor. Für diesen Mehrwert an Komfort und Ästhetik verzichtet er gerne auf die üblichen Rabatte.

119

Teil III – Vorbilder

Das Modell ist nach unserem Verständnis ein Smart-Data-Ansatz mit Vorbildcharakter. Curated-Shopping-Firmen sind keine undurchsichtigen, datenhungrigen Monster. Die gesammelten Daten unterstützen Verkaufsberater dabei, personalisierte Angebote zu schneidern. Mit der Kundenkenntnis wächst die Empfehlungsqualität. Mit der Empfehlungsqualität steigt die Kundenbindung. Gleichzeitig sinkt die Preisempfindlichkeit. Das Geschäftsmodell hat den Kundenwert in langfristiger Perspektive im Blick, nicht den Abverkauf per Preisnachlass.

Mit der Kundenkenntnis wächst die Empfehlungsqualität. Mit der Empfehlungsqualität steigt die Kundenbindung. Gleichzeitig sinkt die Preis­ empfindlichkeit

Kuratiertes Verkaufen illustriert par excellence, wie Kundenwert, Wachstumspotenziale und Unternehmenswert verbunden sind: Der Kunde wird mit einer personalisierten Einkaufswelt langfristig gebunden. Dadurch entstehen langfristig stabile Umsätze mit steigendem Share-of-Wallet und attraktiven Margen. Solche Modelle bewertet der Kapitalmarkt um ein Vielfaches höher als die typischen Formate der transaktionalen Handelswelt.

Die Grundidee der systematischen Ableitung individualisierter Angebote ist natürlich keineswegs auf die Modebranche beschränkt. Abstra­ hiert erfolgt dies branchenübergreifend nach einem immer gleichen ­Regelprozess, der je nach Unternehmen monatlich, wöchentlich, täglich oder gar in Echtzeit immer wieder durchlaufen wird.

Curated Dübel Für B2B-Kunden von Montage- und Befestigungsmaterial stellt sich im Grunde die gleiche Frage wie für Abokunden von Herrenmode: Wie komme ich mit wenig Aufwand regelmäßig an gute Ware? Aus Händlersicht lässt sich die entscheidende Frage ebenfalls auf eine ziemlich einfache Frage herunterbrechen: Was braucht der Kunde wann? In einem Smart-Data-Projekt in der Branche für Handwerkerbedarf konnten wir die Frage offensichtlich beantworten, denn in einem Pilotprojekt stiegen bei den beworbenen Produkten im Vergleich zu einer Kontrollgruppe:

120

3.1 Kundennähe smart gestalten ➤➤ ➤➤

die Aktivierungsquoten im Kundenstamm durch intelligente Marketing- und Vertriebsmaßnahmen um den Faktor fünf, der Umsatz mit den beworbenen Produkten dank Up- und Cross-­ Selling um den Faktor acht.

Wie werden solche Zahlen möglich? Im Fall des Lieferanten von Handwerkerbedarf implementierten wir den oben beschrieben Regelkreis wie folgt:

121

Teil III – Vorbilder

In diesem typischen Targeted-Marketing-and-Sales-Prozess geht es schlicht und einfach darum, die Bedarfe der Kunden in Mikrosegmenten strukturiert zu erfassen und passgenau zu bedienen. Im ­B2B-Bereich ist dies meist deutlich einfacher und genauer möglich als in der vergleichsweise intransparenten Bedürfniswelt der Konsumgüter. Das System kennt die typischen Stücklisten und Materialkosten eines Gasinstallationsbetriebs mit acht Mitarbeitern, der mit sehr hoher Wahrscheinlichkeit einen Jahresumsatz von rund 600 000 Euro macht. Es braucht keine Big-Data-Systeme, um auf Grundlage der Transaktionsdaten zu errechnen, wie hoch der Share-of-Wallet des Unternehmens in den wichtigsten Produktkategorien in etwa ist. Und es ist in der Folge auch kein Hexenwerk, das Potenzial des Einzelkunden zu identifizieren. Mithilfe erfahrener Vertriebsleute, die ihre Handwerker-Klientel aus dem Effeff kennen, lassen sich schnell Hypothesen ableiten, welche Anreize bei welchen Kunden gesetzt werden müssen, um den Share-of-Wallet zu erhöhen. In diesem Fallbeispiel hatten wir keine Zeit und kein Budget, um besonders kreative Angebote zu entwickeln. Die eingesetzten Marketingmaßnahmen unterschieden sich noch nicht einmal deutlich von bisherigen Werbeaktionen. So gab es z. B. Rabatte für Produkte, die Kunden unterdurchschnittlich oder nicht gekauft hatten, aber eigentlich brauchen müssten, Beigaben bei Überschreitung von Mindestmengen, Präsente für Neukunden bei einer Zweitbestellung usw. Alle Tests wurden in allen Segmenten mit Kontrollgruppen durchgeführt, die keine gesonderten Angebote erhielten. Das Überraschende waren also nicht die Maßnahmen. Hier hätte man mit mehr Zeit und Budget noch deutlich kreativere Botschaften entwickeln können. Trotzdem erzielten wir aufgrund der passgenauen Zuordnung von Produkten zu Kunden, die diese brauchen (müssten), die oben genannten beeindruckenden Wirkungen bei Aktivierungsraten und inkrementellen Umsatzeffekten. Zwei Kampagnen erwiesen sich übrigens als Flops: Bei typischen Verbrauchsartikeln werden Produktbeigaben zwar gerne angenommen, es besteht aber eine hohe Gefahr, die sogenannten »Eh-daUmsätze« zu incentivieren, sodass sich ein negativer Return on Investment im Vergleich zum Basisszenario ergibt. (Bei Gebrauchs­artikeln, bei denen der Kunde einen hohen zeitlichen Spielraum für die Investition hat, hingegen schon.) Auch die Zweitkaufkampagnen v­ erhalfen

124

3.1 Kundennähe smart gestalten

nicht zu zusätzlichen Umsätzen in der erhofften Größenordnung. Offensichtlich lassen sich Neukunden im B2B-Umfeld nicht mit derart simplen Anreizen binden, sondern gewichten grundsätzlichere Faktoren des Anbieters deutlich stärker. Besonders gute Ergebnisse erzielten die Kampagnen immer da, wo gezielt freie, noch nicht ausgeschöpfte Potenziale bei den Kunden angesprochen wurden. Der Appetit kommt bei Smart-Data-Projekten nach der Vorspeise. Wenn sich mit relativ einfachen Analysen und Maßnahmen Effekte in genannter Größenordnung erzielen lassen, stellen sich zwei banale Fragen: ➤➤ ➤➤

Warum sind wir nicht schon früher darauf gekommen? Warum macht der Wettbewerb das noch nicht?

Man könnte länger über die Antworten sinnieren. Oder aber das Ganze langweilig finden. Als wir dem In vielen B2B-Geschäften CEO eines »Traditionsunternehmens« solche Ansätbesteht jetzt noch die ze vorstellten, gab er uns zur Antwort: »Aber das sind Möglichkeit, den eigedoch ganz einfache Hausaufgaben.« Eben. Aber ist nen Markt zu verändern, das ein Grund, sie nicht zu machen? Komplexer und indem ein solides Unanalytischer geht es dann im nächsten Schritt imternehmen mit guten mer noch. Zielführender dürfte es hingegen sein, die Produkten auch noch Vorreiter beim analytischen Gelegenheit beim Schopf zu packen. In vielen B2BVertrieb werden kann. Geschäften besteht jetzt noch die Möglichkeit, den eigenen Markt zu verändern, indem ein solides Unternehmen mit guten Produkten auch noch Vorreiter beim analytischen Vertrieb werden kann. Dies gilt insbesondere für Branchen, die sich bis dato in Tippelschritten auf den Weg ins digitale Zeitalter gemacht haben.

125

Teil III – Vorbilder

Huch, die haben mich verstanden!

Die Ansätze aus dem beschriebenen Fallbeispiel ließen sich nahezu eins zu eins übertragen auf den Vertrieb für den Bedarf in der Gastro­ nomie, Arztpraxen und kleinere Gesundheitsbetriebe, Labore, Reini­ gungsfirmen, Friseur- und Kosmetiksalons, mittelständische Bauunter­ nehmen, Autowerkstätten, Gärtnereibetriebe, Optiker und, und, und … Bei Recherchen zum Vertriebs-Status-quo in diesen Märkten ergibt sich immer wieder das gleiche Bild: große Potenziale gerade wegen der eher mäßigen Erfahrungen der B2B-Kunden in der jüngeren Vergangenheit. In Geschäftskunden-Umfragen, die wir in Frühphasen von SmartData-Projekten durchführen, hören wir regelmäßig den Satz: »Wir sind verblüfft, wie wenig unsere Lieferanten/Hauptbezugsquellen über uns wissen, obwohl wir seit Jahren bei ihnen Kunden sind.« Wenn datengestützte Vertriebler mit intelligenten Vorschlagslisten beim Kunden aufschlagen, kehrt sich die Verblüffung um nach dem Motto: »Huch, die haben mich ja tatsächlich verstanden.« Eine wichtige Voraussetzung für den Erfolg bei der Umsetzung ist die Unterstützung des Vertriebs mit digitalen Tools, die nicht nur den (hoffentlich) richtig berechneten

126

3.1 Kundennähe smart gestalten

Bedarf des Kunden so übersichtlich anzeigen, dass der Vertriebsmitarbeiter vor Ort auch situativ richtig reagiert, anstatt über seinem iPad zu fluchen. Im Sinne des Zyklus als lernendes System sollte das digitale Werkzeug auch immer ein praktikabler Datensammler sein. Will heißen: Es sollte den Vertriebsmitarbeiter dazu anhalten, bei direktem Kundenkontakt immer ein paar direkte Fragen zu stellen, welche die Kundenkenntnis erhöhen. Besonders wertvoll sind in Geschäftskundenbeziehungen Erkenntnisse über: ➤➤ ➤➤ ➤➤ ➤➤

Umfang und Struktur der Bedarfe Gibt es beim Geschäftskunden regelmäßige Engpass-Situationen/ überhöhten Beschaffungsaufwand? Welche Trends in seinem Markt/Sortiment beobachtet er? Wie (in welchen Kanälen) und in welchen Zeitabständen möchte der Kunde präferiert angesprochen werden?

Die Erfahrung zeigt: In der richtigen Tonalität angesprochen, ohne großen Zeitaufwand, geben B2B-Kunden gerne Auskunft darüber, was ihr Geschäft leichter machen könnte. Beschaffung kostet gerade kleine Unternehmen wie z. B. Gastronomen extrem viel Energie. Dennoch erleben viele regelmäßig Engpässe, die nicht nur auf unerwarteten Kundenandrang zurückzuführen sind, sondern auch auf eigene Fehler im Bestellmanagement. Wenn ein Gastronom merkt, dass ein Lieferant durch die Antizipation von Bedarfen seinen Beschaffungsaufwand reduzieren kann, liegen die Hebel zur Steigerung des Kundenwerts bereits in den Händen des Lieferanten. Denn dann erhöht sich: ➤➤ ➤➤ ➤➤ ➤➤ ➤➤

der Share-of-Wallet – Wettbewerber substituieren; die Kundenbindung – Abwanderung reduzieren; der Return on Marketing – Deckungsbeitrag im Verhältnis zu Außendienstkosten steigern; die Anzahl der Kundenempfehlungen – Neukunden durch Mund­ propaganda gewinnen; der Umfang der Kundenbasis – Anzahl und Qualität der Neukunden.

Der Zeitpunkt, damit zu beginnen, ist spätestens jetzt. In den USA gibt die neue B2B-Sparte von Amazon gerade einen Vorgeschmack darauf,

127

Teil III – Vorbilder

wie rasch es mit der Gemütlichkeit in vielen Lieferantennischen vorbei sein könnte. Der Produktkatalog von Amazon Supply wächst nahezu täglich. Der traditionelle B2B-Bedarfe-Marktführer in den USA, Grainger, durchläuft gerade den gleichen Zyklus wie der Buchhandel vor 15 Jahren. Grainger sieht zu, wie Amazon zunächst die Preiskarte spielt und den Anschein erweckt, es gar nicht auf eine langfristige Kundenbeziehung abgesehen zu haben, sondern auf schnellen Abverkauf. Dieser Schein trügt natürlich. Mit voller Kundenanalytikkompetenz, Marketingkraft und Logistikperfektion aus dem B2C-Geschäft digitalisiert Amazon Supply gerade den Bedarfe-Handel auf Kosten der Platzhirsche. Das Gros der Artikel hat die Plattform nicht nur gelistet, sondern vorrätig auf Lager. Die Boston Consulting Group hat in einer Studie erfasst, dass die Preise sich im Schnitt um rund 25 Prozent unter jenen des spezialisierten B2B-Handels bewegen. Die Angebotsstrukturen für B2B-Verbrauchsartikel ähneln wiederum jenen für Waren des täglichen Bedarfs im Privatkundengeschäft. Wer mehrfach eine bestimmte Sorte grünen Tee bestellt, dem schlägt Amazon ein jederzeit kündbares Abomodell mit geringem Preisnachlass oder leicht erhöhter Produktmenge zum gleichen Preis vor. Oft kommt der Abovorschlag auch ohne jeden Preisvorteil, aber mit dem Komfort, nicht an die Nachbestellung denken zu müssen. Umso intensiver betreibt der intelligenteste unter den E-Commerce-Riesen dann Cross-Selling für Produkte, die Abonnenten von grünem Tee ebenfalls gerne kaufen – beim ersten Mal dank Coupons mit erheblichem Preisnachlass. Irgendwann dann per Abo. Auch hat Amazon längst damit begonnen, einfache Güter zu vertikalisieren und als Hausmarken anzubieten. Die gute Nachricht aus Sicht der deutschen B2B-Händler und Lieferanten ist: Die Versandkosten von Amazon Supply sind noch sehr hoch und die Zollprozeduren so umständlich, dass sich kaum ein Handwerker, Friseur oder Feinmechaniker mit ihnen auseinandersetzen möchte. Die schlechte Nachricht lautet: Es wird nur eine Frage der Zeit sein, bis der größte Online-Händler der Welt auch in Europa und Asien eigene Lager- und Logistikkapazitäten für B2B-Bedarfe aufbaut. Der letzte Satz könnte defätistisch gelesen werden. Im Sinne von: Wenn E-Commerce mit voller Wucht einen Markt aufrollt, sollte man sich viel-

128

3.1 Kundennähe smart gestalten

leicht so schnell wie möglich aus dem Geschäftsfeld zurückziehen. In einigen Sparten, deren Produkte sehr austauschbar und lange haltbar sind, bei denen es keinen Beratungsbedarf gibt und die zudem ein verhältnismäßig geringes Volumen und Gewicht haben, mag das sogar stimmen. Für die meisten Bereiche wird aber gelten: Wer analytische Kompetenz mit Kundenähe verbindet, also Kundennähe im Wortsinn smart gestaltet, wird auch weiter gute Geschäfte machen. Dem eigenen Webshop als fester Teil einer intelligent aufgesetzten Multikanal-Strategie wird dabei als langfristiger Erfolgsfaktor eine wichtige Rolle zufallen.

Das kleine Analytik-Einmaleins im Handel Was heißt Kundennähe smart gestalten im Handel mit Food- und NonFood-Produkten? Der stationäre Handel sammelt teilweise seit langem Kundendaten systematisch. Die internationalen Vorreiter sind Walmart, Tesco, Macys, Neiman Marcus und die französischen Hypermarkt­ketten. In Deutschland haben neben den großen Spielern wie der Metro und der Otto Group überraschend oft auch mittelständisch geprägte Handelsunternehmen gute analytische Lösungen, wie die Drogeriemarktkette dm, das große Fachmarktzentrum Dodenhof bei Bremen oder die edlen Warenhäuser von Breuninger. Der große Vorteil beim Angang von SmartData-Projekten im Einzelhandel ist: Die Datenlage ist in der Regel gut oder lässt sich durch Zukauf relativ leicht verbessern. Die analytischen Verfahren sind erprobt und die nötigen IT-Systeme bekannt. Die Wirkung der abgeleiteten Marketingmaßnahmen lässt sich aufgrund von in rund zwei Jahrzehnten gesammelten eigenen Erfahrungen oder durch Dienstleister wie Dunnhumby und Emnos relativ gut vorhersagen. Unter dem Strich heißt das: Es ist eine Frage des strukturierten Vorgehens, ggf. der richtigen Partner und der Konsequenz, Kunden im Einzelhandel die richtigen Produkte zum richtigen Zeitpunkt zum richtigen Preis anzubieten. Die Entwicklung von Kampagnen auf Basis von Kundenkarten im Handel funktioniert dabei nicht anders als im beschriebenen Fallbeispiel. Zunächst werden die verfügbaren transaktionalen Daten in einer geeigneten Infrastruktur bereitgestellt, dann führt man eine Kundensegmentierung durch und entwickelt basierend auf den Erkenntnissen geeignete Kampagnentypen und entsprechende Algorithmen. Diese

129

Teil III – Vorbilder

ordnen dann die möglichen Kampagnentypen und -angebote den richtigen Kunden zu. Diese Zielkundenlisten pro Kampagne werden dann an die Marketing- und Vertriebsorganisation übergeben, um die entsprechenden Kampagnen vorzubereiten und durchzuführen. Danach erfolgt eine erneute Datenanalyse zum Abgleich der Ergebnisse von Ziel- und Kontrollgruppen. Hierdurch werden der inkrementelle Umsatz und der ­Deckungsbeitrag der Kampagnen ermittelt, mit den Kosten der Kampagnen abgeglichen und so der Return on Investment (RoI) der Maßnahme berechnet. Die gesammelten Erkenntnisse fließen in eine Verbesserung des Algorithmus ein und der Zyklus startet erneut. Die Kampagnentypen variieren etwas nach Branche und Unternehmen, aber bei fast allen Handelsunternehmen wirken die folgenden BasisAlgorithmen: ➤➤ ➤➤ ➤➤ ➤➤ ➤➤ ➤➤ ➤➤ ➤➤ ➤➤ ➤➤

Bindung loyaler Kunden, Potenzialausschöpfung oder Basket Extension, Frequenzsteigerung, Cross-Selling, Churn-Reduction/Prevention, Kundenrückgewinnung, Up-Selling, Kundenneugewinnung, Bindung von Neukunden (Zweit-/Drittkaufkampagnen), Kunden-Weiterempfehlungskampagnen.

Über die Anwendung »Targeted Marketing« hinaus können mit einer solchen Infrastruktur natürlich auch eine ganze Reihe weiterer Anwendungen durchgeführt werden. Hierzu zählen z. B.: ➤➤ ➤➤ ➤➤ ➤➤ ➤➤

Supply-Chain-Optimierung (Bedarfsfrüherkennung), Kanal-Mix-Optimierung nach Kundentypen, Betrugsvermeidung/(Früh-)Erkennung, Lieferantenmanagement, Category-Management.

Die Entscheidung, ob ein Handelsunternehmen diesen Weg alleine oder mit Partnern geht, muss immer situativ getroffen werden. Bei der Metro-­ Gruppe nutzen beispielsweise Real und Kaufhof Payback-­Kundenkarten,

130

3.1 Kundennähe smart gestalten

um den Kunden eine attraktivere Bandbreite an Nutzungsmöglichkeiten zu bieten und damit gleichzeitig eine breitere Datenbasis zu h ­ aben. Bei Metro Cash & Carry dagegen verfügen 100 Prozent der Kunden per se über eine Kundenkarte, sodass ausreichende Daten zur Verfügung stehen. Ein Shared-Service-Center mit Data-Scientists und einem Targeted-Marketing-Team in Deutschland und Indien entwickelt hier für alle Länder der Gruppe passgenaue Angebote bzw. Werbebotschaften auf 1:1-Ebene. Und bei Media-Saturn schließlich prüft man eigene ­Programme und die Shopkick-Plattform, um die Besonderheiten des Gebrauchsgütergeschäfts besser abzubilden.

Geiz ist geil. Bei der Preisfindung! Die größte Auswahl zum besten Preis. Das war das Erfolgsrezept vieler sogenannter Big-Box-Handelsformate. Im Onlinezeitalter können sie beide Versprechen nicht mehr halten. Für einen führenden Elektronik­ filialisten bedeutete diese Erkenntnis einen fundamentalen Paradigmenwandel. Statt wie bisher selbst blutige Preisschlachten zu initiieren und damit den Wettbewerb alt aussehen zu lassen, lautet das Gebot der Stunde: Maß halten. Dem Kunden nach wie vor einen attraktiven Preis bieten, Preisspielräume aber auch ausnutzen und vor allem: Bloß nicht mehr selbst eine Preisspirale nach unten in Gang setzen. Zudem hat der Filialist verstanden, dass er beim Pricing sehr transparent sein und den Kunden an allen Kontaktpunkten die gleichen Preise bieten muss. In einer europäischen Landesgesellschaft wurde daher ein neues Preissystem entwickelt und pilotiert, das auf zwei Prinzipien gründet: ➤➤ ➤➤

Dem Kunden wird der beste Preis im Vergleich zu über 20 relevanten Wettbewerbern garantiert (die für ca. 70 % des Marktes stehen). Des Weiteren wird die unterschiedliche Preissensitivität der Kunden für unterschiedliche Produkte berücksichtigt.

Beeindruckend an diesem System ist neben den einfachen Prinzipien auch die ausgesprochen budgetschonende IT-Lösung, die in nur 18 Monaten realisiert wurde.

131

Teil III – Vorbilder

Ausgangspunkt für diese Smart-Data-Lösung ist ein Extrakt der Preise aller Marktteilnehmer, der täglich über Dienstleister von den einschlägigen Preisvergleichsportalen gezogen wird. Da diese wiederum von den Anbietern die Preisinformationen beziehen, ist ein hohes Maß an Datensicherheit gegeben. Das System analysiert die Preissensitivität pro Produkt über die letzten Monate und definiert dann in drei Clustern einen akzeptablen Abstand zu anderen Anbietern. Dies wird im nächsten Schritt noch einmal mit dem Grundversprechen abgeglichen, im Vergleich zu den wichtigsten Wettbewerbern immer den besten Preis zu bieten. Das System ist mittlerweile erfolgreich implementiert und hat drei wichtige Ziele erfüllt: Margenverbesserung, interne Preiskonsistenz und Last-but-not-least-Stabilisierung im Markt durch die spieltheoretischen Effekte von klar kommunizierten Preisregeln. Preispunkte nicht nur auf Produkt-, sondern auch auf individueller Basis für Promotions zu errechnen, gelang in einem interessanten Projekt des Analytikdienstleister So1 im Lebensmitteleinzelhandel. Dabei ging es darum, Rabatt-Coupons zu individualisieren, um … ➤➤ ➤➤ ➤➤

… ihre Einlösequoten, also die Wirkung, zu erhöhen, … die Höhe der Rabatte zu reduzieren, … den Anteil der unnötigen Coupons zu verringern, also keine Coupons für Produkte auszugeben, die auch ohne Rabatt gekauft würden.

Bis dato gab der Einzelhändler Coupons immer in gleicher Höhe für ein bestimmtes Produkt an Kunden. Unterschiedliche Zahlungsbereitschaften der Kunden wurden dabei nicht berücksichtigt. Grundlage der Analyse waren pseudonymisierte Kundenkartendaten, angereichert mit Mobile-Payment-Daten. Mit diesen wurde zunächst die Zahlungsbereitschaft des (pseudonymisierten) Konsumenten für jedes Produkt im Markt identifiziert und analysiert, welche langfristigen Effekte Rabatt­ aktionen bei dem Kunden haben – also ob er ein grundsätzlich eher loyaler Kunde ist oder zu der Fraktion der Rosinenpicker zählt. Die Ergebnisse bestimmten dann die Coupon-Mechaniken, nach denen der Kunde seine individualisierten Coupons beim nächsten Kauf an der Kasse ausgehändigt bekam. Das Ergebnis übertraf die Erwartungen deutlich:

132

3.1 Kundennähe smart gestalten ➤➤ ➤➤

Die Einlösequote der Coupons stieg auf 6 Prozent. Zuvor waren es 0,5 Prozent. Die gewährten Rabatte sanken im Durchschnitt auf rund 30 Prozent des üblichen Regalpreises. Zuvor waren es rund 50 Prozent gewesen.

Offline schlägt online. Mit den eigenen Waffen.

Mit intelligent ausgesteuerten Coupons arbeitet auch eine sehr smarte Shopping-Applikation, die SAP als Cloud-Lösung großen Einzelhändlern anbietet. »SAP Precision Retailing« überträgt dabei mithilfe eines digitalen Shopping-Assistenten die ausgefeilten Empfehlungs-

133

Teil III – Vorbilder

mechanismen des Online-Marketings in ein physisches Geschäft. Der Stammkunde identifiziert sich mit seinem Smartphone (in der Regel per NFC) im Eingangsbereich des Supermarkts und öffnet die App. Diese dient auch als Preisscanner, was für den Kunden den Vorteil hat, dass er später an keiner Kasse anstehen muss. Wenn der Kunde ein Päckchen Windeln einscannt, kann das System ihm umgehend eine Empfehlung zu Baby-Gläschen geben, die gerade im Angebot sind. Dazu nutzt Precision Retailing nicht nur Empfehlungsalgorithmen basierend auf dem Prinzip »Kunden, die dieses Produkt gekauft haben, kauften auch …« Das System kennt ja – genau wie die Datenbank eines Online-Shops – zusätzlich die Kaufhistorie des Kunden. Damit kann es bei hohem Share-of-Wallet des Kunden mit hoher Trefferquote in Echtzeit berechnen, wie groß der Vorrat für den Nachwuchs zu Hause in der Speisekammer noch ist – und seinen Windel-Cross-Selling-Vorschlag auf dem Display daraufhin optimieren. Nach dem Motto: Gläschen hat die Familie noch, aber das Babyshampoo müsste langsam leer sein. Sollte die Kaufhistorie anzeigen, dass der Kunde seine Brei-Gläschen bis dato woanders kauft, erhält er in diesem Moment einen Coupon für die Bio-Hausmarke. Seine Empfehlungsaktionen kann der Shopping-Assistent übrigens nicht nur zur richtigen Zeit auf Basis von gescannten Produkten starten, sondern auch ortsbezogen. Ort ist metergenau gemeint: Der Kunde bewegt sich in Richtung Getränkeregale, draußen ist es heiß und der bevorzugte Bierhersteller macht gerade eine Promo-Aktion »Zwei Weizengläser zum Kasten« der neuen Sorte. Der Kunde erhält diese Information kurz vor dem Gang, an welchem er für die Aktion abbiegen muss. Zugegeben: Systeme wie das beschriebene sind keine Angelegenheit für Daten-Einsteiger – aber das sind die großen Einzelhändler ja auch alle nicht. Wie leicht oder schwierig es ist, Cloud-Lösungen dieser Art tatsächlich technisch zu implementieren und mit den eigenen Loyalitätsprogrammen zu verbinden, muss im Einzelfall abgeschätzt werden. Grundsätzlich werden Angebot und Qualität solcher IT-Lösungen in den kommenden Jahren steigen und sie gehören als digitale Option zumindest auf das Radar all jener Händlern, die dem Aufstieg der OnlineShops auf ihre Kosten nicht tatenlos zusehen wollen. Digitale ShoppingAssistenzsysteme, die Online- und Offline-Welten qua Smartphone in der Hand des Kunden verbinden, sind ideale Touchpoints für Multika-

134

3.1 Kundennähe smart gestalten

nal-Strategien. Wir kommen noch am Ende dieses Buchteils ausführlich darauf zurück. Aus Sicht der stationären Händler besonders spannend daran ist: Die immer stärkere Verlagerung der Internetnutzung auf mobile Endgeräte eröffnet ihnen – mit den Mitteln des Location-BasedMarketings – zum ersten Mal einen klaren Wettbewerbsvorteil gegenüber den nativen Onlinern. Denn plötzlich verbinden sich vor Ort in der Filiale die Vorteile der stationären und der Online-Welt. Das kann PurePlay-Online nicht bieten. Wer Kunden im Laden mit Daten intelligent unterstützt, also die viel beschworene Aufhebung der Grenzen zwischen analog und digital tatsächlich ermöglicht, verbindet das Beste aus beiden Welten: maßgeschneidertes EchtzeitMarketing mit der Möglichkeit für den Kunden, die Ware anfassen und direkt mitnehmen zu können.

Die immer stärkere Verlagerung der Internetnutzung auf mobile Endgeräte eröffnet stationären Händlern – mit den Mitteln des Location-BasedMarketings – zum ersten Mal einen klaren Wettbewerbsvorteil gegenüber den nativen Onlinern.

Dies ist freilich der Grund, warum die großen E-Commerce-Anbieter auch allesamt mit physischen Shops experimentieren. Das Internet in einen Laden aus Steinen und Mörtel zu holen, ist für einen stationären Händler allerdings leichter als der umgekehrte Weg für einen OnlineHändler ohne Erfahrung mit gefliesten Ladenflächen. Wenn man so will, kann der traditionelle Handel die Online-Konkurrenz mit den eigenen Waffen schlagen. Smart-Data-Champions der Branche entdecken diese Chance gerade für sich.

Eines der überzeugendsten Beispiele für bedarfsgerechte Aussteuerung von Angeboten im B2C-Bereich haben wir uns für den Schluss dieses Kapitels aufgehoben. Es ist auch insofern besonders interessant, als es aus einer Branche kommt, die sich mit datengestützter Beratung besonders schwertut und dabei oft Datenschutzargumente im Hinterkopf hat: das Retail-Banking. Wenn ein grundsätzlich zuverlässiger und solventer Kunde der niederländischen Ing-Diba an einem Automaten so viel Geld abhebt, dass sein Konto ins Minus rutscht, poppt in dem Moment ein Angebot für einen auf sein Mikro-Kundensegment zugeschnittenen Konsumentenkredit

135

Teil III – Vorbilder

auf dem Bildschirm auf. Dessen Zinsen liegen unter jenen für den Dispokredit. Gleiches passiert bei entsprechenden Überweisungen, die den Kontostand in den Dispobereich fallen lassen. Naturgemäß verzichtet die Ing-Diba damit kurzfristig auf Marge. Aber sie betreibt langfristige Kundenwerterhöhung par excellence.

»Wir handeln in deinem Interesse. Denn wir sind an einer langfristigen ­Geschäftsbeziehung ­interessiert.« Das ist das richtige Angebot am ­richtigen Ort zur ­richtigen Zeit.

136

Fokusgruppenbefragungen zeigen, dass viele Kunden im Moment der Überziehung stärker emotional angefasst sind, als es der immer wiederkehrende Schuldenstand auf ihren Konten vermuten lässt. Im Unterschied zu den meisten anderen Banken gibt die Ing-Diba grundsätzlich wertvollen Kunden in diesem Moment das Signal: »Wir handeln in deinem Interesse. Denn wir sind an einer langfristigen Geschäftsbeziehung interessiert.« Das ist das richtige Angebot am richtigen Ort zur richtigen Zeit.

3.2 Von der Vertriebs­ partnerschaft zur Daten­­ partnerschaft– Kunden­ potenziale mit Intermediären gemeinsam heben Alle gegen alle?

Wir mögen Bedrohungsszenarien nicht. Meist schüren sie durch Übertreibung Ängste. Angst ist kein guter Berater, denn sie verstellt den Blick für die Analytik. Machen wir kurz eine Ausnahme. Ein wirklich

137

Teil III – Vorbilder

übles Szenario für Hersteller, Anbieter von hochmargigen Dienstleistungen sowie traditionelle Händler könnte so aussehen: Bisher leben Hersteller und Handel in mehr oder weniger friedlicher Koexistenz. Beide sammeln auf ihre Art Informationen über Kunden. Die einen sind eher interessiert an Marktforschungsdaten, die anderen haben am Frontend zum Kunden eher die Transaktionen im Fokus. Beide verfeinern ihre Methoden stetig und stellen das Koexistenzmodell dabei nur selten infrage. Denn wenn eine der beiden Parteien das mal versucht, bemerkt sie schnell: Die Kosten für Geschäfte auf Kosten der Partner sind mitunter sehr hoch. Das heißt nicht, dass sich Hersteller und Händler blind vertrauen. Man schützt sich und die eigenen Informationen über Produkte und Kunden so weit, dass der jeweils andere nicht in den eigenen Bereich eindringen kann. Aber plötzlich weiß Netflix so viel über die Sehgewohnheiten von Serienjunkies, dass es bessere Serien produzieren kann als seine (Noch-)Kunden HBO oder AMC. Apple hat über den Handel genug iPhones, iPads und iMacs verkauft und bringt neue Versionen seiner Geräte direkt an die Kunden. Vom digitalen Content ganz abgesehen, der selbstverständlich direkt im iTunes Store angeboten wird. Wenn dann noch Google ein ähnliches Ökosytem für die Android-Welt aufbaut, Amazon mit Firephone, Fire-TV und Amazon Prime ebenfalls ein geschlossenen System schafft und Microsoft Software und Spiele über den eigenen Shop per Download oder direkt als Online-Abo anbietet, droht für den Handel eine ganze Kategorie wegzubrechen. Der direkte Kundenangang vom Hersteller vorbei am Handel zum Endkunden galt bis vor kurzem als tunlichst zu vermeidender Kanalkonflikt. In einer Multikanal-Welt können Hersteller meist gar nicht anders, wollen sie nicht einen immer größer werdenden Teil ihrer Kunden enttäuschen. Und dies gilt keineswegs nur für digitale Produkte, sondern für praktisch alle Produktkategorien, die direkt (oder via Drop-Shipments durch Distributoren) vertrieben werden können. Umgekehrt kann aber auch die zunehmende datenbasierte Kundenkenntnis des Handels die (Marken-)Hersteller in doppelter Hinsicht das Fürchten lehren. Zum einen heben sie zunehmend Kundenpotenziale mit günstig produzierten Hausmarken in sehr guter Qualität – vom Computerkabel über Hundefutter, eigene Hausgeräte und Druckerkartuschen bis hin zu den steigenden Anteilen an Eigenkollektionen im Drogerie-, Lebensmittel- und Textilbereich. Zum anderen verfügen die Datenchampions in bisher ungekanntem Maße über die Fähigkeit,

138

3.2 Von der Vertriebs­partnerschaft zur Daten­­partnerschaft

­ undenverhalten zu steuern und damit ein Gegengewicht zu den DiK rektkanälen der Hersteller aufzubauen. Die wichtigsten Werkzeuge dafür haben wir im letzten Kapitel bereits beschrieben. Besonders gut verstehen sich naturgemäß die Online-Händler auf den Aufbau digitaler Geschäftsmodelle mit hoher Kundenbindung. Die Verlage, die z. B. bei Händlerrabatten und E-Book-Preisen nicht mit Amazon »kooperieren«, bekommen gerade einen Vorgeschmack auf die neue Macht­ asymmetrie zwischen Produzent und Verkäufer: verzögerte Auslieferung, drastisch reduzierte Empfehlungen und in der Konsequenz eine sinkende Auflage. Diese Machtverlagerung wird sich nicht auf den Buchhandel beschränken. Ein Ob Hersteller ihre Hangroßer Händler weiß, ob ein bestimmtes Marken-Pflegedelspartner in die Zange produkt in einem bestimmten Segment leicht durch eine nehmen oder umgekehrt Hausmarke zu ersetzen ist und wie viel Marketingbudget der Handel die Hersteller, er einsetzen muss, damit ein bestimmter Anteil des Segdarüber entscheidet die ments die Hausmarke im Gebinde mit Markenprodukten Fähigkeit, Kunden daeines anderen Herstellers regelmäßig bezieht. Fortan tenbasiert zu verstehen weiß er freilich auch, wie sensibel Kunden reagieren, und durch digitale und wenn er ein Produkt von Unilever aus dem Bündel herMultikanal-Ökosysteme ausnimmt und durch eines von Beiersdorf ersetzt – oder zu binden. umgekehrt. Auf den Punkt gebracht heißt das: Händler mit geringer Datenkompetenz werden von datengetriebenen Multichannel- oder Online-Pure-Play-Händlern verdrängt werden. Gleichzeitig wird der Anteil des Online-Vertriebs vorbei am Handel weiter zunehmen. Ob Hersteller ihre Handelspartner in die Zange nehmen oder umgekehrt der Handel die Hersteller, darüber entscheidet die Fähigkeit, Kunden datenbasiert zu verstehen und durch digitale und Multikanal-Ökosysteme zu binden. Wie gesagt, wir mögen keine Bedrohungsszenarien. Das hier beschriebene empfinden wir als besonders ambivalent. Auf der einen Seite ist es gar kein Szenario mehr, denn es wird jeden Tag ein kleines Stück mehr ökonomische Realität – und dies eben nicht nur bei digitalen Gütern. Zum anderen gibt es aber ein erprobtes und wirkungsvolles Gegenmittel: Daten mit Partnern teilen, die Interessen teilen.

139

Teil III – Vorbilder

Kollaboratives CRM Das deutsch-amerikanische Harvard-Ökonomen-Trio Alexander Kracklauer, Quinn Mills und Dirk Seifert hat dafür bereits vor rund zehn Jahren den Begriff Collaborative Customer Relationship Management geprägt (und einen Sammelband mit gleichem Titel herausgebracht). Das Konzept hatte in gewisser Hinsicht prophetischen Charakter, denn es nimmt eine veränderte Wettbewerbssituation in einer immer stärker von Daten beeinflussten Ökonomie vorweg. Man könnte auch sagen: Es gibt heute noch viel bessere Gründe für kollaboratives CRM. Von oben betrachtet bilden sich zurzeit drei Typen von Unternehmen heraus, die intelligent mit Daten umzugehen wissen. ➤➤

➤➤

140

Typ I nennen wir die Datengiganten vom Schlage Google, Amazon, Ebay/Paypal und Visa. Sie verfügen über ungeheure Datenmengen, die sich direkt aus dem Geschäftsmodell ergeben. Datengiganten können diese Informationen wiederum direkt für das eigene Geschäftsmodell nutzbar machen. Typ II nennen wir Einzelspieler oder Datenprofis; es sind marktführende Unternehmen in Produktkategorien mit einer hohen Kundenrelevanz und sehr guter Datenlage. Diese Unternehmen verfügen kraft der Marktstrukturen über eine gute Datenbasis und hohe erzielbare Umsätze pro Kunde. Somit können sie eigene Kundenbindungsprogramme aufbauen, am Markt positionieren und auch refinanzieren. Zu ihnen gehören Unternehmen wie beispielsweise große Einzelhändler (z. B. Walmart, Ikea), Hotelketten (z. B. Starwood, Hilton) und Autovermietungen (z. B. Hertz, Avis). Diese sammeln seit Jahren oder Jahrzehnten sehr systematisch die Daten eigener Kunden – meist mit erfolgreichen Loyalitätsprogrammen. Aus diesen leiten sie eine tiefe Kundenkenntnis für ihren Markt ab; der branchenübergreifende Blick fällt ihnen allerdings schwer. Nur wenige Unternehmen verfügen aber als einzelnes Unternehmen über die aus Kundensicht nötige Größe und Attraktivität, um im Kampf um die Steckplätze im Portemonnaie zu bestehen, sowie über die internen Kompetenzen, erfolgreiche Einzelkämpfer im großen Kundendatenspiel zu werden. Daher haben sich selbst die Vorreiter bei Loyalitätsprogrammen, die Airlines (American, Lufthansa, British Airways etc.), der dritten Kategorie angeschlossen.

3.2 Von der Vertriebs­partnerschaft zur Daten­­partnerschaft ➤➤

Typ III ist die Kategorie, in der die meisten Smart-Data-Champions zu Hause sind. Das sind Unternehmen, die Datenallianzen schmieden. Smarte Datenpartner teilen Informationen systematisch über Branchengrenzen und Wertschöpfungsstufen hinweg. Dies reduziert nicht nur Investitionen und laufende Kosten, es ermöglicht zudem ein umfassendes Bild vom Einkaufs- und Konsumverhalten in Mikrosegmenten und auf Einzelkundenebene. Manche Datenpartner sind großen Allianzen in ihrer Branche beigetreten bzw. haben sie initiiert (insbesondere die Airlines mit Star Alliance und One World), andere haben sich branchenübergreifenden Multipartnerprogrammen angeschlossen (z. B. Payback, Nectar), nutzen spezialisierte Dienstleister (z. B. Dunnhumby, Emnos) oder aber sie bauen eigene Datenpartnerschaften auf.

141

Teil III – Vorbilder

Daten zum wechselseitigen Mehrwert zu teilen, ist keine neue Idee. Im Handel wurde sie schon in den 1990er-Jahren von einigen europäischen Industrie- und Handelsunternehmen in der ECR-Initiative systematisch betrieben. Das Akronym stand für Efficient Consumer-Response. Getrieben von Marktsättigung verfolgten die ECR-Partner neben klassischer, unternehmensübergreifender Logistikoptimierung – z. B. durch besser standardisierte Paletten, Produkt-Codes und Artikelnummern  – auch damals schon das Ziel, mithilfe von multilateralem Datentausch bessere Erkenntnisse über Standortwahl, Produkt- und Sortimentsentwicklung, Preisgestaltung und Marketingmaßnahmen zu gewinnen. Gut anderthalb Jahrzehnte später lässt sich zusammenfassend sagen: Die (datenbasierte) Logistikstandardisierung hat gut funktioniert. Die hehren Ziele in Sachen Kundenbegeisterung und -bindung jedoch wurden weit verfehlt. Die Enttäuschung bei vielen Beteiligten war groß. Die fünf größten Hürden bei ECR und vielen anderen Ansätzen unternehmensübergreifender Datentauschmodelle waren und sind: ➤➤ ➤➤ ➤➤ ➤➤ ➤➤

Uneinigkeit, wer welchen Anteil an gemeinsamen Investitionen tragen soll, hoher Abstimmungsaufwand unterschiedlicher CRM-Systeme (die oft sowieso nicht sehr gut funktionierten), Datenschutzbedenken, Fragen der IT-Sicherheit, Misstrauen, Datenpartner könnten geteilte Daten anders als verabredet und auf Kosten der anderen Partner nutzen.

Jedes Unternehmen, das kein Datengigant ist und bei ehrlicher Selbsteinschätzung auch nicht als Einzelspieler Datenprofi werden kann, muss sich dringend auf die Suche nach geeigneten Datenpartnern machen.

142

Diese Hürden bestehen grundsätzlich weiter. Einige sind niedriger geworden, unter anderem dank des technischen Fortschritts bei CRM-Datenbanken und Cloud-Anwendungen. IT-Sicherheitsrisiken müssen heute hingegen eher noch stärker beachtet werden als vor 15 Jahren. Uneinigkeit und Misstrauen dürften menschliche Konstanten sein. Aber eines hat sich sehr wohl grundlegend geändert: die Notwendigkeit. Als ECR startete, gab es keine Datengiganten und die Datenprofis hatten sich gerade erst auf ihre Informationsreise gemacht. Heute gilt: Jedes Unternehmen, das kein Datengigant ist und

3.2 Von der Vertriebs­partnerschaft zur Daten­­partnerschaft

bei ­ehrlicher Selbsteinschätzung auch nicht als Einzelspieler Datenprofi werden kann, muss sich dringend auf die Suche nach geeigneten Datenpartnern machen. Mit anderen Worten: Es muss ein Daten-Teamplayer werden. Typ I und II werden es sonst früher oder später verdrängen. Für die Suche nach potenziellen Datenpartnern ist folgendes Raster hilfreich: ➤➤

➤➤

➤➤

➤➤

Analyse der eigenen Wertschöpfungskette: Welche Unternehmen, mit denen man bereits direkt oder indirekt kooperiert, verfügen über Daten, die auf das gemeinsame Geschäft einzahlen? Dieser Ansatz eignet sich besonders für hochwertige (und hochmargige) Markenartikel im mehrstufigen Handel. Denn hier haben alle Partner ein gemeinsames Interesse an gutem Abverkauf. Blick auf angelegte Branchen: Welche Unternehmen bearbeiten die gleichen Zielgruppen, stehen aber nicht in direkter Konkurrenz? Hierzu zählen z. B. Datenpartnerschaften zwischen Fluglinien, Mietwagenfirmen und Hotelketten. Oder, kleinteiliger gedacht, zwischen Kosmetiksalons und lokalen Wellness-Anbietern. Analyse, wo die relevanten Daten entstehen und gespeichert werden: Welche Technologie- und Datenanbieter nutzen die Kunden? Können diese Anbieter die eigene Datenbasis und Analytik gut ergänzen und könnten sie an neuen Geschäftsmodellen interessiert sein? Das können die großen Telekommunikationsunternehmen oder Zahlungsabwickler wie Visa oder Paypal sein. Welche bestehenden Programme und Dienstleister können genutzt werden? Neben den großen Anbietern wie Dunnhumby, Miles & More oder Payback sind das auch kleine, spezialisierte Dienstleister, die z. B. Daten zu Promotion-Maßnahmen am Point of Sale erheben und analysieren.

Code Switzerland Einen interessanten Ansatz jenseits der großen Multipartnerprogramme konnten wir über mehrere Jahre in einem Projekt mit der Druckersparte eines sehr großen IT-Anbieters entwickeln und umsetzen. Die Kurzfassung der Projektgeschichte geht so:

143

Teil III – Vorbilder

Nach langem, stetigem und hochprofitablem Wachstum war der Hersteller Mitte des letzten Jahrzehnts mit zunehmender Marktsättigung sowie einer Preissensibilität seiner Stammklientel bei Druckerkartuschen und -patronen konfrontiert. Die Produkte wurden (und werden) überwiegend im mehrstufigen Vertrieb verkauft. Entsprechend fehlten die Informationen über Endkunden: wer, was, wie oft und warum in welchem Kanal kauft. Eine Share-of-Wallet-Analyse war ebenso wenig möglich, wie abwanderungsgefährdete Kunden zu erkennen. Kampagnen konnten nur mit großer Unschärfe und hohen Streuverlusten gefahren werden. Dreistellige Millionenbudgets wurden an Werbekostenzuschüssen an die Handelspartner gezahlt. Ob sie aber wirklich Wirkung zeigten, konnte nicht gemessen werden. Der Hersteller definierte daher das Ziel, die Daten der Händler zu nutzen, um daraus vom Hersteller finanzierte, auf alle Seiten abgestimmte Kampagnen abzuleiten – eine Art umgekehrte ECR-Initiative. Der Mehrwert für die Händler war leicht erkennbar: Sie bekamen kostenlose Kampagnenintelligenz für ein hochpreisiges Produkt in ihrem Kanal. Das potenzielle Risiko der Händler lag freilich ebenfalls auf der Hand: Sie mussten darauf vertrauen können, dass der Hersteller ihre Kundendaten nicht nutzte, um Kunden direkt anzusprechen und unter Umgehung der Händlermarge mit Sonderangeboten in den zwar noch kleinen, aber wachsenden Direktvertrieb zu lotsen. Die Lösung für dieses Dilemma nannten die Projektbeteiligten fortan »Code Switzerland«, was konspirativer klingt, als es war. Man band schlicht einen »neutralen Spieler« ein. Die Kundendaten beider Parteien wurden zunächst von den Handelspartnern pseudonymisiert und dann in einem unabhängigen AnalyticCenter zusammengeführt. Dieser unabhängige Dritte führte gemäß der Schritte im Smart-Data-Zyklus eine integrierte Segmentierung mit allen verfügbaren Daten durch. Auf Basis der Segmente leitete der Hersteller für Mikrosegmente und auf Einzelkundenebene Kampagnen ab, um den Share-of-Wallet bei Stammkunden zu erhöhen und abwanderungsgefährdete Kunden besser zu binden. Hierzu wurden gemeinsame Marketingmaterialien erstellt, sogenannte Playbooks, die kanalübergreifende Kampagnen aus einem Guss garantierten. Der Hersteller verpflichte sich dabei auf ein Höchstmaß an Transparenz. Art und Umfang aller Marketingmaßnahmen wurden gemeinsam abgestimmt. Ausgesteuert wurden die Kampagnen wiederum gemäß der

144

3.2 Von der Vertriebs­partnerschaft zur Daten­­partnerschaft

strategischen Kampagnen- und Aktivitätsplanung von dem unabhängigen Analytikanbieter mit einem eigens programmierten KampagnenTool. Ein Missbrauch durch den Hersteller war damit ausgeschlossen. Das gegenseitige Vertrauen wuchs mit dem Erfolg. Das Programm begann Mitte des letzten Jahrzehnts mit einem kleinen Pilotprojekt mit einem einzigen Händler. Ein Jahr später hatten sich rund ein Dutzend Händler angeschlossen. Fünf Jahre später waren mehrere Hundert und damit alle großen Händler in Europa, im Nahen Osten, in Afrika, Asien und Amerika Datenpartner geworden – mit einem Umsatzvolumen von mehreren Milliarden US-Dollar. Die abgestimmten Kampagnen – über die Jahre immer wieder mithilfe von Kontrollgruppentests kalibriert und am Ende mit vielen EchtzeitKomponenten ausgestattet – brachten beiden Seiten inkrementelles Wachstum von mehreren Hundert Millionen US-Dollar. Dem Hersteller gelangen bislang nie erreichte Aktivierungsraten seiner Kampagnen von 15 bis 20 Prozent und ein Return on Marketing Investment von rund 700 Prozent. Als besonderen Mehrwert empfand der Kunde die Möglichkeit, dank seines erstmals umfassenden Bildes seiner Stammkunden die Wirkung seiner Maßnahmen tatsächlich messen zu können. Vorher war das immer nur behauptet worden. Am Ende teilten die Marketer bei Herstellern und Händlern nicht nur Daten – sondern auch die Verblüffung, wie groß die Effekte dank zuverlässiger Wirkungsmessung und in der Folge intelligenterer Steuerung der Marketingbudgets waren.

Die Macht der Pseudonyme Folgende Erfolgsfaktoren gelten für das Teilen von Daten entlang der Wertschöpfungskette: ➤➤

➤➤

Der Initiator (in der Regel der Hersteller) muss für sein Vorhaben zunächst eine echte Vertrauensbasis schaffen. In der Regel wird er auch finanziell in Vorleistung gehen müssen. Neutrale Dienstleister, die mit pseudonymisierten Daten arbeiten, schaffen dieses Vertrauen. Im Übrigen löst dieses Verfahren auch eine Reihe datenschutzrechtlicher Probleme. (Wir kommen im nächsten Fallbeispiel darauf zurück.)

145

Teil III – Vorbilder ➤➤

➤➤

➤➤

Daten-Sharing-Ansätze brauchen klare Zielbeschreibungen und klare Regeln: Wer darf was mit welchen Daten? Alle Partner müssen sich bewusst darüber sein, dass Allianzen gerade am Anfang sehr brüchig sind. Die Erfahrung zeigt: Wenn ein Partner sich nicht an Absprachen hält, ist das Projekt tot oder nur noch mit sehr viel Aufwand zu retten. Viele Stakeholder in verschiedenen Unternehmen erfordern ein besonders gutes und stringentes Projektmanagement. Projektmanager brauchen die entsprechenden Ressourcen. Diese werden erfahrungsgemäß unterschätzt. Nur ein hohes Maß an Transparenz schafft und sichert das Vertrauen über den gesamten Projektverlauf. Regemäßige Status-quo-Treffen dürfen nicht zur Routine verkommen.

Der Wert von Datenpartnerschaften über Unternehmensgrenzen hinweg ist offenkundig. Einige Onliner schätzen ihn so hoch ein, dass sie die Unternehmensgrenzen aufweichen. So hat z. B. Rocket Internet für seine Online-Shops eine gemeinsame Kundendatengesellschaft gegründet, die Teil der Kaufverträge (bzw. der AGB) mit den Kunden wird. Auf diese Weise profitieren alle Shops datenschutzkonform auch von den Kundendaten der Schwesterseiten. Diesen Weg des organisatorischen Zusammenschlusses werden künftig sicher auch Unternehmen anderer Branchen gehen. Vorausetzung hierfür ist, dass Kundenkenntnis durch Datenanalyse einen ähnlich hohen Wettbewerbsvorteil mit sich bringt wie im Online-Handel. Das wird in immer mehr Geschäftsfeldern der Fall sein. Zurzeit finden wir in vielen Branchen allerdings eher die gegenteilige Situation vor: Ein bestehender Firmenverbund – oft mit einem Eigentümer – bedient mit seinen unterschiedlichen Einheiten die gleichen Kunden. Aber keine Einheit weiß, welcher Kunde bei welchem Schwesterunternehmen ebenfalls Produkte gekauft hat. Entsprechend wurde auch nie versucht, den Kundenwert gemeinsam zu erhöhen. Und jeder gedankliche Vorstoß in diese Richtung wurde in der Vergangenheit aus Angst vor IT-Problemen oder aus datenschutzrechtlichen Erwägungen frühzeitig beerdigt. Dabei gilt auch hier und analog zu dem oben beschriebenen Fallbeispiel des Druckerherstellers und der Händler:

146

3.2 Von der Vertriebs­partnerschaft zur Daten­­partnerschaft

Rechtlich unabhängige Analytikdienstleister können und dürfen im Auftrag die Kundendaten pseudonymisiert aggregieren, für eine gemeinsame Segmentierung nutzen und angereichert um wertvolle Marketingerkenntnisse an die einzelnen Unternehmen zurückspielen. Die sogenannten Listendaten, also Name inkl. Titel, Adresse, Branche/Berufsbezeichnung und Geburtsjahr dürfen in Firmenverbünden ohnehin mit relativ wenigen Einschränkungen genutzt werden – und diesen Listendaten darf man dann ein zusätzliches Merkmal anhängen. Das kann z. B. eine Segmentinformation sein! Wie hoch der Mehrwert durch diese Form der datenschutzkonformen Zusammenführung von Daten sein kann, zeigt eine Pilotstudie einer großen Verbundgruppe im Bereich Finanzdienstleistungen. Um allen rechtlichen Risiken aus dem Weg zu gehen, ließ diese die Kundendaten ihrer Tochtergesellschaften – darunter Privatkundenbanken, verschiedene Versicherungsunternehmen, Bausparkasse, Investmentgesellschaft – zunächst von einem sogenannten Clearinghouse pseudonymisieren. Dieser Pseudonymisierungsdienstleister spielte die Daten an den Finanzdienstleister zurück. Der reichte diese mit Kunden-ID pseudonymisierten Daten an einen zweiten Analytikdienstleister weiter, das sogenannte Analytic-Center. Das Center führte auf Basis aller Daten eine integrierte Segmentierung durch. Diese ergab rund 300 trennscharfe Mikrosegmente mit hoher Aussagekraft zu konkreten und langfristigen Bedarfen und zur Kanalaffinität der Kunden. Die Pseudonyme der Einzelkunden wurden den Segmenten zugeordnet und diese Information dann an die jeweiligen Tochtergesellschaften zurückgespielt. Wie oben angedeutet, ist der Clou dabei: Sofern nur eine Zusatzinformation an die sogenannten Listendaten des Einzelkunden angehängt wird, darf das Tochterunternehmen seine eigenen Kunden wiederum entpseudo­ nymisieren. Das Mikrosegment XY zählt als eine solche Zusatzinformation. Das Analytic-Center führte zudem diverse Analysen mit vollständig ­anonymisierten Daten durch.

147

Teil III – Vorbilder

Datenschutzkonform wird mit diesem Verfahren Folgendes möglich: ➤➤ ➤➤ ➤➤

148

Eine viel genauere Segmentierung und Bedarfsermittlung, als jede Tochtergesellschaft für sich alleine durchführen könnte. Jede Tochtergesellschaft darf die Erkenntnisse aus der Segmentierung bei der Ansprache der »eigenen« Kunden nutzen. Allgemeine Erkenntnisse aus dem Analytic-Center dürfen von allen Tochtergesellschaften genutzt werden, z. B. zur Schärfung der eigenen Segmentierungen oder Weiterentwicklung des Produktportfolios. Diese Erkenntnisse dürfen dann zwar nicht direkt Einzelkunden zugeordnet werden. Sehr wohl aber können allgemeine Erkenntnisse daraus gezogen werden, mit denen Vertriebsmitarbeiter viel anfangen können. Etwa dass es in einem bestimmten Viertel einen hohen Bedarf an Baufinanzierung gibt. Solche Informationen dürfen die Unternehmen wieder Einzelkunden zuordnen.

3.2 Von der Vertriebs­partnerschaft zur Daten­­partnerschaft

Der Clearinghouse-Prozess ➤➤ Das Clearinghouse bekommt die Listendaten plus Pseudonymisierungs-

kennung/Kundennummer und »matcht« mehrfach im Verbund vorhandene Kunden. Denen weist sie eine ID zu, aber spielt nichts bzw. nur die gesäuberten Listendaten (Adressen aktualisiert etc.) an die Verbund­ unternehmen zurück. ➤➤ Diese (nicht das Clearinghouse) geben ihre pseudonymisierten relevanten Daten an ein separates Analytic-Center. ➤➤ Das Analytic-Center bekommt vom Clearinghouse den Schlüssel (ID = Pseudonymisierungskennung), damit es mehrfach vorhandene Kunden zusammenfassen kann. Die Verbundunternehmen dürfen nicht wissen, wo der Kunde sonst noch Kunde ist im Verbund. ➤➤ Das Analytic-Center nimmt für den zusammengeführten Datensatz Segmentierungen vor und spielt den Verbundunternehmen pro Pseudonymisierungskennung das jeweilige Segmentmerkmal zurück.

Das konsequente Teilen von Daten ist bei Smart-Data-Champions übri­ gens oft der erste große Schritt der eigenen digitalen Transformation. Im nächsten Schritt stellt sich die Frage, ob auf der Suche nach kundenzentrierten und datenbasierten Geschäftsmodellen nicht die aktuellen Grenzen des Geschäftsmodells erweitert werden sollten. Warum nicht eine Entertainment-Community anbieten, statt nur Unterhaltungselektronik zu verkaufen? Warum nicht Franchise-Systeme für ConvenienceStores aufsetzen, statt diese nur zu beliefern? Warum nicht Tischreser­ vierungsplattformen betreiben, statt nur Restaurants zu beliefern? Ein besonders schöner Nebeneffekt dieser Form der Ausweitung des Geschäftsmodells ist, dass die dazugehörigen neuen Umsatzquellen ­ (Services, Zubehör, Abomodelle) sich damit unmittelbar erschließen und auch der Kapitalmarkt das entsprechende Wachstum mit höheren Unternehmenswerten honoriert.

149

Teil III – Vorbilder

Double Opt-in? Gerne! An dieser Stelle ist eine einschränkende Bemerkung notwendig: Sich mit anderen Unternehmen über Kunden offen austauschen zu dürfen, setzt grundsätzlich das explizite Einverständnis der Kunden hierfür voraus. Datenschützer achten immer strenger darauf, dass Kunden dieses Einverständnis auch bewusst erteilen und Verbraucher nicht uninformiert Datenpartnerschaften zulassen, die sie eigentlich nicht wollen oder von denen sie nicht wissen, dass es sie überhaupt gibt. Das finden wir normal und richtig. Die Daten gehören den Kunden. Sie erlauben Unternehmen, diese zu nutzen. Das Recht auf Nutzung müssen sich Unternehmen erarbeiten. Man könnte auch sagen: Sie müssen sich dieses Recht verdienen, indem sie transparent agieren und Mehrwerte für alle Beteiligten inklusive der Kunden schaffen. Wir nennen diese Haltung »Earned Data« – in Anlehnung an die Marketer heute wohlvertraute verdiente Aufmerksamkeit von Kunden in »Earned Media«. Wir werden den Begriff und das Konzept dahinter im Schlusskapitel dieses Buchs noch ausführlich erklären. Aber so viel und konkret auf Data-Sharing-Ansätze bezogen an dieser Stelle vorweg:

Die Daten gehören den Kunden. Sie erlauben Unternehmen, diese zu nutzen.

Smart-Data-Champions verstehen den Begriff Datenpartnerschaft nicht als clevere Vereinbarung zwischen Unternehmen zulasten Dritter, nämlich der Kunden. Mehr Komfort, bessere Beratung und bessere Angebote müssen beim Kunden als Ergebnis ankommen. Wenn dem tatsächlich so ist, werden immer mehr Kunden bereit sein, Datenpartnerschaften mit einem guten Gefühl zuzustimmen – und nicht weil sie durch geschickte Nutzerführung gedankenlos zweimal auf ­»Zustimmen« klicken. Die beschriebenen Umwege über Pseudonymisierungsverfahren sind legal. Sie werden in Anbetracht der überkomplexen deutschen Datenschutzbestimmungen auch legitim, wenn sie das Kundeninteresse und die langfristige Kundenbeziehung zum Vorteil beider Seiten im Blick

150

3.2 Von der Vertriebs­partnerschaft zur Daten­­partnerschaft

­ aben. Je öfter dies tatsächlich der Fall ist, und nicht nur behauptet wird, h desto öfter werden Kunden sagen: »Meine Daten müssen gar nicht pseudonymisiert werden. Bitte nutzt meine Daten mit Klarnamen, um mich besser kennen zu lernen. Ich klicke bewusst und gerne auf ›Opt-in‹.«

151

3.3 Standorte, Sortimente und Produkte smart optimieren Falsche Flaggenmasten Die smartesten Angebote mit den besten Partnern helfen nicht, wenn fundamentale Parameter wie Filialstandorte, die Sortimente oder die Produkte nicht zu den Kundenwünschen passen. Leider werden aber gerade diese oft nach ganz anderen Kriterien bestimmt. Die Auswahl eines Standorts ist wichtig. Logisch. Deshalb wollen im Entscheidungsprozess viele mitreden. Besonders im Handel. Ebenfalls logisch. Leider ergibt sich daraus: Viele Standortentscheidungen folgen ihrer eigenen Logik. Diese ist oft wenig faktenbasiert. Man könnte auch sagen, dass bei den Entscheidungsfindungsprozessen bei Standortplanung und -optimierung Theorie und Praxis besonders weit auseinanderliegen. Eigentlich sind doch die statistischen Methoden, um die Eignung von Standorten zu überprüfen, lange bekannt und bewährt. Sie sind im Kern weder unbeherrschbar komplex noch haben sie sich in den letzten zehn Jahren grundlegend verändert. In der Regel werden vor Standort­ entscheidungen auch Analysen zu Kaufkraftpotenzialen, Wegstrecken der Kernzielgruppen, Frequenzen in Fußgängerzonen etc. durchgeführt. Im Ergebnis steht dann aber der neue Baumarkt oft direkt neben dem erfolgreichsten Wettbewerber, ein Möbelhaus gegenüber von jenem mit sehr ähnlichem Sortiment und es wird mal wieder eine Tankstelle zu viel im gleichen Gewerbegebiet platziert. Clusteranalysen zur örtlichen Verteilung im deutschen Einzel- und Großhandel ergeben eine schwer nachzuvollziehende Nähe der direkten Wettbewerber mit nahezu identischen Handelsformaten. Die angelsächsischen Standortstrategen nennen die Ursache für diese Verklum-

152

3.3 Standorte, Sortimente und Produkte smart optimieren

pung »Flagposting«. Manchmal ist das Aufstellen von Fahnenmasten sinnvoll, z. B. als Symbol für die Überlegenheit des eigenen politischen Systems auf dem Mond. Auf der Erde, im Handel, spricht aus Flagposting oft ein falsches Verständnis im Umgang mit Daten. Oft genug wird ein als attraktiv geltender Standort ins Auge gefasst mit der Grundhaltung: Dort müssen wir Präsenz zeigen, den Ort sollten wir besetzen. Die Argumente lauten: Der Standort ist strategisch wichtig, da von hohem Aufmerksamkeitswert, wirklich gut angebunden usw. Ins Blickfeld rückt der Standort oft, weil ein wichtiger Wettbewerber sich dort bereits ein Grundstück gesichert hat oder seit Jahren augenscheinlich erfolgreich ist. Erschwerend kommt hinzu: Die meisten großen Handelsunternehmen verfügen bei der Standortentwicklung über keine ausgefeilte Strategie, wie sie mit unterschiedlichen Formaten an dem jeweiligen Ort ihr ­Angebot an die Bedarfe der Kunden variabel anpassen können. Auch hier herrscht nach wie vor die Grundhaltung vor: Wir versuchen Standorte zu besetzen und mit dem andernorts erfolgreichen Format den grundsätzlich vorhandenen (und mit allgemeinen Marktforschungs­ daten nach­gewiesenen) Bedarf des Kunden zu decken. Große Variationen der Filialausgestaltung zwischen den verschiedenen Standorten, etwa hinsichtlich Größe, Gestaltung oder Sortiment, kommen zumeist nicht vor. In Teil II haben wir dies bereits im Zusammenhang mit der Customer-Journey angesprochen. Die Aufgabe des Filialleiters ist es dann, das Erfolgsformat leicht an die lokalen Bedürfnisse der Kundschaft anzupassen. Womit wir beim springenden Punkt wären: Eine wirklich differenzierte Analyse hinsichtlich der lokalen Kundschaft erfolgt bei der Standortentwicklung leider oft erst, wenn die Entscheidungen zu Ort und Format getroffen sind. Genau das ist der entscheidende Fehler. Fast alle großen Handelsketten müssen im Moment differenziertere Strategien für unterschiedliche Märkte entwickeln. Smart-Data-Champions denken auch Standortentscheidungen konsequent vom Kunden her. Das geht – idealisiert dargestellt – so: ➤➤

Schritt 1: Märkte verstehen, Kundensegmente bilden und priorisieren und dann eine differenzierte Formatstrategie für die unterschiedlichen Segmente entwickeln. Dabei die gesamte Customer-Journey betrachten und die Rolle des stationären Formats klar definieren.

153

Teil III – Vorbilder ➤➤

Schritt 2: Entscheidung darüber, welche Kriterien bei der Standortentscheidung wie gewichtet werden sollen.

➤➤

Schritt 3: Ergebnisoffene Suche nach Kundenpotenzialen im Markt. Dies ist auf Postleitzahlenebene in GfK- und Nielsen-­ Datenbanken relativ leicht möglich.

➤➤

Schritt 4: Identifizierte Kundenpotenziale mit eigenem Filialnetz und jenem der wichtigsten Wettbewerber abgleichen. »Weiße Flecken« markieren.

➤➤

Schritt 5: Die Bedarfe der Kunden in den potenziellen Regionen/ Standorten mit Marktforschungsdaten und ggf. Transaktions­ daten bereits bestehender Filialen mit ähnlichen Kundenpoten­ zialen systematisch abschätzen.

➤➤

Schritt 6: Erst jetzt beginnt die Suche nach konkreten Standorten. Natürlich gibt es Ausnahmen, aber grundsätzlich gilt: Räumliche Nähe zu starkem Wettbewerb meiden. Bei großer räumlicher Nähe prüfen, ob ein anderes Handelsformat die Kundenbedarfe deutlich besser trifft als der Flaggenmast der Konkurrenz.

➤➤

Schritt 7: Intensive Analyse der Mikrolage unter Nutzung aller verfügbaren Datenquellen, z. B. systematische Überprüfung der Verkehrslage zu Haupteinkaufszeiten mithilfe von Google Maps. Evidenzbasierte Entscheidungen setzen voraus, dass sich Entscheider der eigenen Subjektivität bewusst sind.

➤➤

Schritt 8: Entscheidung für den richtigen Standort mit dem richtigen Format gemäß definierter Kriterien.

Wer das jetzt zu banal findet und lieber eine Big-Data-Kundenstromanalyse mit Smartphone-Daten durchführen möchte: Ja, das ist sinnvoll, wenn die entsprechenden Technologien verfügbar sind und beherrscht werden. Alle anderen sollten den beschriebenen Smart-Data-Ansatz dem Experten-Bauchgefühl allemal vorziehen.

154

3.3 Standorte, Sortimente und Produkte smart optimieren

Walgreens Standortoptimierung mit Excel Jedes Geschäft ist lokal. Besonders das von Apotheken. Die US-amerikanische Drugstore-Kette Walgreens mit ihren knapp 7000 Filialen erfuhr das vor einigen Jahren auf beeindruckende Weise bei einem Abgleich von Abverkaufsdaten und den Wohnorten von Kunden. Zwei Meilen! Weiter fuhr fast kein Kunde zur Apotheke. Auf Basis dieser Daten hätten die WalgreensStrategen sicher auch wie oben beschrieben Standortentwicklung im Sinne von weißen Flecken und Überversorgung des Filialnetzes betreiben können. Eine andere Schlussfolgerung war noch einfacher umzusetzen: Die Marketer optimierten auf effiziente Art den Einsatz der Werbebudgets pro Standort. Walgreens warb hauptsächlich mit Einlegern in Zeitungen, gleichmäßig gestreut über alle Postleitzahlengebiete der Vereinigten Staaten. In ExcelSheets sammelten Rechercheure, in welchen Postleitzahlengebieten die Entfernung zur nächsten Filiale größer als zwei Meilen war. Dort wurden alle Werbeausgaben ersatzlos gestrichen, was Budgeteinsparungen in Höhe von fünf Millionen US-Dollar brachte. Sinkende Verkaufszahlen wurden nirgends beobachtet.

Die richtigen Formate am richtigen Ort Im nächsten Kapitel werden wir sehen, wie Daten den Multikanal-Handel ermöglichen und beschleunigen. An dieser Stelle scheint uns vorab wichtig zu betonen: Eine kluge Multikanal-Strategie setzt in den meisten Branchen und Geschäftsfeldern die Fähigkeit voraus, bei den Kontaktpunkten aus Steinen und Mörtel die Kundenbedürfnisse in unterschiedlichen Formaten ansprechen zu können. Dieser Aspekt wurde besonders im Handel bisher stark vernachlässigt und bietet im Umkehrschluss heute die Chance, bei rascher Umsetzung erhebliche Wettbewerbsvorteile zu erzielen. Im Handel heißt dies z. B., dass die großen Filialisten mithilfe der beschriebenen acht Schritte sehr viel stärker ausdifferenzieren können, welcher Standort sich für ein Vollsortiment eignet, welche Kundschaft ein stark kuratiertes Angebot wünscht, wo tatsächlich ein guter Ort für einen Pop-up-Store wäre und an welchem Standort es eine Klientel gibt, die den Einkaufswagen lieber am Firmen-

155

Teil III – Vorbilder

rechner volllädt und auf dem Weg nach Hause nur kurz bei der Pick-upStation vorfährt. Dies alles gilt freilich nicht nur für die Entwicklung neuer Standorte, sondern auch für die Optimierung der bestehenden Filialnetze.

Eine kluge MultikanalStrategie setzt in den meisten Branchen und Geschäftsfeldern die Fähigkeit voraus, bei den Kontaktpunkten aus Steinen und Mörtel die Kundenbedürfnisse in unterschiedlichen Formaten ansprechen zu können.

Und natürlich nicht nur für Endkundengeschäfte, sondern auch im B2B-Kontext. Hier sind mitunter die Potenziale noch deutlich schneller zu heben, wie wir in einem Smart-Data-Projekt zur Optimierung der Außendienstressourcen eines großen, mittelständisch geprägten Herstellers von Haustechnik sehen konnten.

Das Unternehmen hatte seit Wirtschaftswunderjahren eine wunderbar kontinuierliche Wachstumsgeschichte mit nur sehr wenigen Stagnationsphasen geschrieben. Das Niederlassungsnetz war über die Jahrzehnte »organisch mitgewachsen«, wie es der Geschäftsführer ausdrückte. Man könnte auch sagen, dass es »intuitiv mitgewachsen« war. Ein regional differenzierender Blick in Kundenbedarfe nach Postleitzahlen und Transaktionsdaten machte erhebliche Unterschiede in der Marktdurchdringung deutlich. In manchen Gebieten saßen so viele Außendienstler, dass die Vertriebseffizienz nicht mehr stimmte. In anderen Regionen wurden hingegen erhebliche Kundenpotenziale dem Wettbewerb überlassen. Bei der datengestützten Analyse der tatsächlichen Wegzeiten von Außendienstmitarbeitern zu Kunden kam heraus, dass die Vertriebsgebiete oft schlecht geschnitten waren. Mittelhilfe linearer Programmierung und einem Routenprogramm ermittelten wir optimale Wegstrecken im Vergleich zu den aktuellen. Die Auslastung (berechnet als Anzahl tatsächlicher zu Sollbesuchen) konnte mit der neuen Verteilung der Standorte um fast 20 Prozent gesteigert und die Bandbreite der Auslastung von vormals 60 bis 120 Prozent auf einheitliche 95 Prozent abgeschnitten werden. Als die Daten in Karten sauber visualisiert übereinanderlagen, waren viele sinnvolle Umstrukturierungsmaßnahmen zur Zusammenlegung von Funktionen direkt erkennbar. Mit ein wenig Statistikunterstützung

156

3.3 Standorte, Sortimente und Produkte smart optimieren

wurden auf Basis der Routendaten sofort einige Vertriebsgebiete neu geschnitten und Ressourcen verlagert. Kein Standort wurde geschlossen, kein Mitarbeiter entlassen. Zudem entstand ein langfristiger Transformationsplan, in den die Organisation sukzessive hineinarbeiten konnte. Die Planung neuer Standorte oder eine grundlegende Restrukturierung des bestehenden Niederlassungsnetzes ist leider oft langwieriger als eine datenbasierten Optimierung. Wer in einen solchen Prozess einmal eingebunden war, kennt die vielen Restriktionen: extrem hohe Investitionsvolumen, begrenzte Verfügbarkeit von Flächen, Genehmigungshürden, bauliche Einschränkungen, langfristige Mietverträge, arbeitsrechtliche Regulierungen und Widerstand bei der Verschiebung von Personal zwischen Standorten usw. Daten helfen aber, die richtigen Grundsatzentscheidungen bei der Standortentwicklung zu treffen und in Pilotprojekten/-experimenten datengestützt Erkenntnisse über die konkrete Ausgestaltung in der Umsetzung zu gewinnen. Zur Überwindung der vielen Hürden bei der Umsetzung können sie nur selten beitragen. Bei der Optimierung der Sortimente ist das anders. Dort sind sie die Rohstoffe im täglichen Versuch, Angebot und Nachfrage lokal besser in Einklang zu bringen. Im Idealfall sogar in Echtzeit.

157

Teil III – Vorbilder

Echtzeit-Sortimente Wenn die US-Wetterdienste für Florida eine Hurrikanwarnung aussprechen, macht sich nicht nur der örtliche Katastrophenschutz einsatzbereit. Auch Walmart trifft Vorkehrungen für den veränderten Kundenbedarf. Umgehend werden Lastwagen in die p ­ rognostizierten Wirbelsturmschneisen geleitet. Sie liefern Waren, die Kunden im Hamstermodus kaufen, darunter Wasser in Gallonen, Gaskartuschen, Petroleumlampen, haltbare Milch, Zwieback – und ein süß-klebriges Waffelprodukt von Kellogg’s namens Poptarts, das die konsumstarken Babyboomer offenbar aus ihrer Kindheit mit Harmonie und Sicherheit verbinden und sich dieses deshalb in Bedrohungssituationen besonders gerne in den Einkaufswagen legen. Walmart dürfte zusammen mit Amazon zu den Unternehmen mit der größten Kundendatenintelligenz der Handelswelt gehören – und damit zu den wenigen Spielern, die mit Big-Data-Anwendungen, die diesen Namen auch verdienen, tatsächlich erhebliche Wettbewerbsvorteile erzielen. Der Hurrikan ist nur ein anschaulicher Extremfall eines permanenten Optimierungsprozesses. Das Unternehmen korreliert rund um die Uhr und regional differenziert Wetterdaten mit Abverkaufsdaten in allen Produktkategorien und nutzt die Erkenntnisse für die Belieferung und Preisstrategien. Dies erfordert zum einen extrem flexible Logistikkapazitäten, die Walmart als analytischer Wettbewerber in den letzten beiden Jahrzehnten aufgebaut hat. Zum anderen hat das Unternehmen damit seine Lagerkosten drastisch reduzieren können. Zurzeit sehen wir bei nahezu allen großen europäischen Handelsunternehmen mit Wurzeln im stationären Handel Projekte mit dem Ziel, bei der Datenkompetenz zu den US-Vorreitern aufzuschließen und ihr Sortiment mit möglichst kurzer Zeitverzögerung an veränderte Bedarfe anzupassen. Zu Recht: Smarte Sortimentsoptimierung bietet den größten Hebel, schnell mit Daten Kundenbedarfe besser zu adressieren und damit den Kundenwert zu steigern – und dabei gleichzeitig Warenbestände, Standortkosten und Marketingeffizienz zu optimieren.

160

3.3 Standorte, Sortimente und Produkte smart optimieren

Auch in diesem Zusammenhang gilt: Die Früchte hängen oft niedriger, als man gemeinhin annimmt. Denn Sortimentsoptimierung, wenn sie denn überhaupt systematisch betrieben wird, erfolgt heute meist auf der Grundlage von Umsatz- und Markforschungsdaten. Die Preise werden in der Praxis relativ grobmaschig anhand von Wettbewerbsvergleichen, Testmärkten sowie Labordaten ermittelt. Die lokale Ausdifferenzierung obliegt, wenn es Spielräume gibt, oft der Erfahrung und dem Bauchgefühl der Markt- oder Standortleiter. Es ist schön, wenn ein Handelsunternehmen sich bei der Datenkompetenz Walmart als Vorbild nimmt. Aber man muss noch lange nicht Walmart sein, um lokale Sortimente (mindestens wöchentlich) und Preise (mindestens täglich) mithilfe systematischer Analyse von Transaktions- und Potenzialdaten anzupassen und dabei ein besonderes Augenmerk auf die spezifischen Segmente am Standort zu richten. Smart-Data-Champions erlangen diese Fähigkeit in fünf Schritten: 1. Systematische Analyse der Warenkörbe 2. Aufbau der Fähigkeit, die Sortimente und Preise flexibler anpassen zu können und die Auswirkungen zu messen 3. Verknüpfung von Segmentdaten, um die nächste Optimierungsstufe bei Sortimentsanpassung zu erreichen 4. Verkürzung der Anpassungszeiten von Preisen und Sortimenten (von wöchentlich zu täglich zu Echtzeit) 5. Aus den Erfahrungen der ersten vier Schritte einen datenbasierten Innovationsprozess aufbauen, der auf andere Märkte, Standorte, Unternehmensbereiche übertragbar ist Selbstverständlich gibt es bei der Ausdifferenzierung des Sortiments und der Preisgestaltung immer Grenzen. Besonders Handelsketten müssen natürlich darauf achten, dass Kunden die unterschiedlichen Filialen in ihrer Grundpositionierung wiedererkennen. Wenn in der Kofferabteilung der Filialen in Hamburg oder München zuvorderst Rimowa-Produkte zu finden sind, in Hagen oder Gießen aber No-Name-Anbieter das Sortiment bestimmen, wird die Markenpositionierung der Kette unscharf.

Die Differenzierung von Standorten und Sortimenten zahlt sich fast immer aus, wenn sie konsequent evidenzbasiert betrieben wird.

161

Teil III – Vorbilder

Grundsätzlich haben wir aber den Eindruck, dass mehr Mut zu mehr Ausdifferenzierung in unterschiedliche Formate mit unterschiedlicheren Sortimenten den meisten Handelsunternehmen guttun würde. Die Differenzierung von Standorten und Sortimenten zahlt sich fast immer aus, wenn sie konsequent evidenzbasiert betrieben wird. So geschehen bei einem großen Lebensmittelfilialisten, der nach intensiver Auseinandersetzung mit seinen neu und integriert erhobenen Kundensegmenten und deren Bedarfen zu dem Ergebnis kam, seine Filialen gemäß der jeweils dominanten Kundensegmente in drei neuen Ausrichtungen zu positionieren: Basic, Standard und Premium. Und er weiß, dass dies erst der Anfang ist. Besonders deutlich wird die Notwendigkeit, Formate nach Standorten zu differenzieren, derzeit in Branchen, in denen sich die Rolle des stationären Geschäfts stark wandelt. Bankfilialen sind ein Beispiel, Autohäuser ein anderes. Hat in der Vergangenheit der durchschnittliche Autokäufer noch etwa viermal ein Autohaus besucht, bevor er gekauft hat, so geht heute jedem Autokauf durchschnittlich nur noch etwa ein Besuch eines Autohauses voran. Konfiguratoren, Internetrecherche und Autohandelsplattformen stellen einen immer größeren Teil der CustomerJourney dar. Auf den ersten Blick ist erkennbar, dass sich die Funktion des stationären Autohandels aus der Sicht der Kunden gravierend geändert hat. Die stationären Formate der Autohersteller sehen aber weitgehend aus wie vor 10 oder 20 Jahren. Zwar arbeiten nahezu alle Hersteller an ihren Multikanal-Strategien und neuen stationären Formaten (dazu später mehr). Das Wissen über die richtigen Formate der Zukunft ist noch sehr begrenzt. Hier ist mehr Experimentierfreude notwendig, um den einsetzenden radikalen Wandel des stationären Autovertriebs von­ seiten der Hersteller und Händler zu gestalten – und nicht zu Getriebenen zu werden. Dabei gilt bei den oben beschriebenen Methoden und Vorgehensweisen natürlich die wichtigste Grundregel aller Smart-Data-Ansätze: Aufwand und Wirkung müssen in einem guten Verhältnis stehen. Das setzt vo­ raus, dass wir die Wirkung auch tatsächlich messen können. So ist auch datenbasierte Sortimentsoptimierung notwendig, um in jeder Konzeptionsphase geeignete Kontrollgruppentests mitzudenken – und bei der Umsetzung auch tatsächlich zu fahren.

162

3.3 Standorte, Sortimente und Produkte smart optimieren

DDI – diese drei Buchstaben bekommen auf vielen Trendtagen rund um die digitale Wiedergeburt der Welt den Charakter eines Mantras. Sie stehen für Data Driven Innovation. In der Hinführung zum Kürzel oder im Nachsatz taucht in der Regel der Begriff »Disruption« auf. Auch wir glauben an die disruptive Kraft der Daten und haben in Data Unser ausführlich beschrieben, warum. Wir glauben allerdings auch: Es wird Zeit für einen differenzierten Blick, welche Daten in welchen Anwendungsfeldern tatsächlich Neues in die Welt bringen und was daraus für das Gros der Unternehmen und ihre Marketing- und Sales-Abteilungen folgt. Denn hier gerät in den hitzigen Diskussionen zum disruptiven Fortschritt respektive zu den disruptiven Bedrohungen einiges durcheinander. Wir erkennen datengetriebene Innovation auf drei Ebenen: 1. Digitale Technologie schafft Produkte/Dienstleistungen, die es vorher nicht gab. 2. Daten ermöglichen Geschäftsmodelle, die es vorher nicht gab. 3. Daten helfen, bestehende Produkte/Dienstleistungen/Prozesse inkrementell mit immer wiederkehrenden Kontrollgruppentests zu verbessern.

In Gesprächen auf Managementebene stellen wir immer wieder fest: Die meisten Entscheider sind von den glamourösen Beispielen der Ebe-

163

Teil III – Vorbilder

nen eins und zwei so fasziniert, dass sie der dritten Ebene zu wenig Aufmerksamkeit beimessen. Natürlich ist es sinnvoll, dass deutsche Automobilhersteller sich intensiv mit der Frage auseinandersetzen, wie der Weg zum selbstfahrenden Auto führen könnte. Und natürlich müssen sich Innovatoren in Versicherungen Gedanken darüber machen, wie sich ein indvidueller KFZ-Haftpflicht-Tarif gestalten lässt, wenn der Fahrer (solange es ihn noch gibt) bereit ist, seine Fahrten und Fahrweise per Geodatensender immer an die Versicherung zu funken. Smart-Data-Champions beginnen dennoch mit Ebene drei und setzen im Sinne eines lang angelegten Transformationsprozesses auch hier ihre größten Ressourcen ein. So wie diese vier smarten Produktinnovatoren: ➤➤

➤➤

➤➤

164

Ein großer Sportschuhhersteller incentiviert seine Kunden zur Nutzung der eigenen Running-App. Im Abgleich von App-Nutzung und gekauften Schuhmodellen fällt auf, dass einer der Top-Laufschuhe stark unterdurchschnittlich zum Laufen genutzt wird. Daraus leitet er nicht nur die Umpositionierung des Schuhs zum Lifestyle-Produkt für bestimmte Zielgruppen ab und startet entsprechende Kampagnen. Er adaptiert auch die Lifestyle-Linien der gleichen Zielgruppen und erzielt mit beiden Maßnahmen erhebliche Mehrverkäufe. Ein großer deutscher Hersteller für Haushaltsgeräte ist unzufrieden mit den Umsätzen in Osteuropa. Er sammelt alle verfügbaren Marktdaten und Preise sowie Modellmerkmale der eigenen Produkte und die des Wettbewerbs. Dies geschieht zum Teil über Datenbankabfragen, zum Teil mit Unterstützung eines spezialisierten Anbieters für Produkt-Benchmarking. Dabei kommt heraus, dass die für die Kaufentscheidung relevanten Produktmerkmale sich stärker von jenen in Westeuropa unterscheiden, als die deutschen Produktentwickler dachten. Die Entwickler der asiatischen Konkurrenz hatten hingegen wohl eine bessere Intuition oder Datenlage: Ein blaues LED-Lämpchen im Butterfach war russischen Käufern einen Aufpreis von rund 50 Euro wert. Wenige Produktmodifikationen reichten, um die wahrgenommene Wertigkeit der Produkte für den Kunden zu steigern. Eines der wichtigsten Produktmerkmale eines Mobilfunkanbieters ist guter Empfang. Dummerweise sind Ausbau und Betrieb des Netzes auch die größten Kostenfaktoren in diesem Geschäft. Ein Mobilfunknetzbetreiber im arabischen Raum stand vor einigen Jahren vor der Herausforderung, dass der Ausbau der Netzkapazitäten mit dem

3.3 Standorte, Sortimente und Produkte smart optimieren

➤➤

Wachstum der Nachfrage nicht mithalten konnte. Es drohte eine beschleunigte Abwanderung der mit der Netzqualität unzufriedenen Kunden. Das Topmanagement hatte bereits weitere Milliardeninvestitionen beschlossen. In einem Smart-Data-Projekt konnten wir es überzeugen, zunächst die Kundenpotenziale örtlich differenziert anzuschauen und die Taktung des Netzausbaus vom Kundenwert pro Funkzelle inklusive der Upselling-Potenziale bei zufriedenen Kunden abhängig zu machen. Dazu wurden die Verbindungsdaten mit einer kleinen Hadoop-Infrastruktur ausgewertet, die nur einen mittleren fünfstelligen Betrag gekostet hatte. Im Vergleich zur deutlichen Effektivitätssteigerung der Milliardeninvestitionen ein mehr als smarter Betrag. Tante Emmas Enkel, die in Form neuer, kleiner, auf den lokalen Bedarf zugeschnittener Handelsformate aus dem Boden sprießen, müssen heute nicht mehr auf ihre Intuition vertrauen, um Handelssortimente von 80 000 und mehr Artikeln auf wenige Tausend Artikel einzudampfen. Sie nutzen konsequent ihre Abverkaufsdaten, um ihre Sortimente laufend an den Bedarf ihrer Mikrolage anzupassen.

165

3.4 Was bedeutet Multi­kanal wirklich?– Die besten Customer-Journeys für Kunden und Unternehmen Schauen wir zunächst auf den Handel. Alle sagen »Multikanal!« Nicht alle fragen: »Was heißt das eigentlich aus Kundensicht?« Es könnte z. B. heißen: Ich finde abends auf der Couch, das Tablet auf dem Schoß, einen schwarzen Schuh, der mir gefällt. Ich google und sehe, dass es den Schuh unter anderem bei einer Kaufhauskette gibt, bei der ich stationär regelmäßig einkaufe. Ich gehe beim nächsten Einkaufsbummel in die Filiale des Kaufhauses und probiere ihn an. Er ist bequem, aber in meiner Größe leider nur in Braun vorhanden. Ich schaue mir den Schuh in Schwarz in einer anderen Größe an. Und lasse ihn mir in meiner Größe am nächsten Tag nach Hause liefern. Ich weiß, dass ich den Schuh zur Not zurückschicken oder im Geschäft doch gegen den braunen umtauschen kann. Wie ich möchte. Das mache ich aber nicht. Der Schuh passt ja wie probiert und ich gehe gleich am Nachmittag mit ihm raus. Irgendwo zwischen Kopf und Bauch bleibt eine gute Konsumentscheidung in Erinnerung – wahrgenommen als »guter Service«. Das erhöht die Chance, dass ich bei der nächsten Produktsuche auf dem Tablet auf der Couch direkt im Online-Shop des Kaufhauses starte. Ein Kunden-Log-in habe ich jedenfalls jetzt, denn das wurde für den Lieferprozess aus der Filiale heraus beim letzten Mal direkt mit erstellt.

Alle sagen »Multikanal!« Nicht alle fragen: »Was heißt das eigentlich aus Kundensicht?«

Im Handel ist heute Konsens, dass der Verbindung aus stationären Formaten und digitalen Informations- und Verkaufskanälen die Zukunft gehört. Online soll offline befruchten und umgekehrt. Die Stationären rüsten mit Online-Shops und Shopping-Apps auf. Auf der anderen Seite

166

3.4 Was bedeutet Multi­kanal wirklich?

der Schnittstelle experimentieren alle großen Online-Händler mit Läden, in denen ihre Kunden nicht klicken, sondern Waren anfassen, aus- oder anprobieren und direkt mitnehmen können. Zalando versucht dies mit voluminösen Outlet-Formaten in Randlagen, Ebay testete zusammen mit der Metro-Gruppe einen »Inspiration Store«, in dem mobile Applikationen inklusive der hauseigenen Paypal-Bezahlfunktion besonders intelligent integriert sind, und Amazon geht in mittelgroße Flächen in absoluten Premiumlagen – in New York direkt gegenüber vom Empire State Building. Über allen Click-and-Mortar-Versuchen trohnt die immer wieder gern erzählte Erfolgsgeschichte der Apple-Stores als analoge Kathedralen einer digitalen Produktwelt.

167

Teil III – Vorbilder

Multikanal-Unlogik Eines vorab: Multichannel im Unternehmen intelligent zu organisieren ist wirklich eine große Aufgabe. Die Größe der Herausforderung ergibt sich aus den gegensätzlichen Anforderungen von Kunde und Organisation: Der Kunde soll Multikanal als integriertes Ganzes wahrnehmen. Der Anbieter muss die Kanäle natürlich dennoch mit unterschiedlichen, nämlich kanalspezifischen Modellen betreiben. Oder auf den Punkt gebracht: Multichannel muss nach außen nahtlos wirken, nach innen aber differenziert organisiert werden. Experimente sind die einzige Möglichkeit, den Weg in die Zukunft zu finden. Aus jedem Versuch – dem eigenen oder dem des Wettbewerbs – lässt sich lernen. Eine Analyse der analog-digitalen Handels­ experimente der letzten Jahre offenbart eine Reihe von Missverständnissen in den aktuellen Diskussionen in Unternehmen, die mit dem Satz des CEOs oder des Geschäftsführers beginnen: »Wir müssen multikanalfähig werden.«

Multichannel muss nach außen nahtlos wirken, nach innen aber differenziert organisiert werden.

Missverständnis 1: Online als konkurrierender Kanal Einige Händler haben in den letzten Jahren den Fehler gemacht, mit relativ großer Hektik Online-Shops aufzubauen, um damit neue Kunden zu gewinnen, gleichzeitig aber gescheut, einen möglichst großen Anteil von Kunden aus ihren physischen Shops auch als Online-Kunden zu bedienen. Einige – darunter sehr große Händler – haben bis heute nicht einmal die bekannten Daten von Kundenkarteninhabern mit jenen der Online-Kunden abgeglichen. Das Ergebnis war oft genug: Verwunderung darüber, dass reine Online-Händler besser online verkaufen als Traditionsunternehmen des stationären Handels.

Missverständnis 2: Multikanal ist ein technisches Konzept Die einen entdecken die Datendimension zu spät, die anderen glauben: Wenn die technische Infrastruktur stimmt, also alle Verkaufskanäle und Systeme gut verzahnt sind, wird aus dem Zauberwort Multikanal der

168

3.4 Was bedeutet Multi­kanal wirklich?

gewünschte Umsatztreiber. Diese Projekte starten mit relativ hohen Budgets – und langen Lastenheften für die IT-Abteilung. Es kommen dann oft sehr komplexe IT-Lösungen mit vielen Tools heraus, die den Begriff »Multichannel« im Namen tragen. Diese Werkzeuge nutzt aber kein Marketer im Unternehmen gewinnbringend, weil er nicht recht versteht, welchen Kunden er in welchem Kontext eigentlich wie ansprechen soll. Das ist allerdings noch nicht das schlechteste Szenario. Oft scheitern mit Fokus auf die Technik aufgesetzte Multikanal-Projekte an, genau, technischen Hürden – z. B. weil sich ein älteres Kassensystem entgegen der Erwartung nicht in das Konzept einbinden lässt, aber ein neues Kassensystem den Budgetrahmen um ein Vielfaches sprengt. Das alles erinnert stark an die Einführung großer, von den technischen Möglichkeiten her gedachter CRM-Systeme in der ersten Hälfte des letzten Jahrzehnts.

Missverständnis 3: Der Kunde denkt (ebenfalls) in MultikanalLogiken Marketer (und natürlich auch Marketingberater) haben einen professionell verzerrten Blick auf die Shopping-Welt. Eine Vielzahl der Ahnungen, Inspirationen und Erkenntnisse, wo der Weg vom ersten Kontakt zum Kauf und im Idealfall zum Wiederkauf entlangläuft, leiten sie (und wir) vom eigenen Kaufverhalten und jenem unseres engsten Umfelds ab. Zurzeit beobachten wir Fachleute uns gerne selbst in Multikanal-Logiken. Wir überleFür den Kunden gibt gen, was für uns die Vorteile der jeweiligen Kanäle es keine Kanäle. Seine sind und unter welchen Bedingungen wir ggf. den Reise zum Produkt Kanal wechseln. Auf Grundlage dieser Erkenntnisse besteht aus einer in sich versuchen wir, die Kanäle (in der Regel einzeln) aus sehr variablen Serie von Sicht des Unternehmens so zu optimieren, dass mögKontaktpunkten. lichst viele Kunden am Ende zugreifen. Kanalwechsel werden eher als notwendiges Übel betrachtet, das die digitale Welt und ihre zusätzlichen Kanälen nun einmal mit sich gebracht haben. Letzteres ist natürlich eine falsche, da unternehmens­ zentrierte Haltung, aber das Problem an dieser Form von berufsbedingter Filter-Bubble bei der Suche nach guten Multikanal-Lösungen ist grundsätzlich ein anderes: Kein Kunde ohne Spezialinteresse für die Kunst des Verkaufens im digitalen Zeitalter denkt darüber nach, was denn seine Kanalpräferenz sein könnte. Für den Kunden gibt es keine Kanäle. Seine

169

Teil III – Vorbilder

Reise zum Produkt besteht aus einer in sich sehr variablen Serie von Kontaktpunkten. Die Summe der Erfahrungen, die er an den einzelnen Kontaktpunkten macht, entscheidet über Kauf und Wiederkauf. Oder noch klarer formuliert: Der Begriff »Multikanal« weist in eine falsche Richtung, denn er ist einseitig aus Unternehmensperspektive gedacht. Unternehmen denken in Kanälen. Kunden sammeln Erfahrungen. Dieses dritte Missverständnis ist grundlegend und entscheidend für den Erfolg bzw. Misserfolg aller Versuche, Kunden smart in einer Welt aus Bits und Atomen zu bearbeiten. Die Schlussfolgerungen bedürfen der genauen Betrachtung.

Flipper statt Bowling

170

3.4 Was bedeutet Multi­kanal wirklich?

Marketing ist heute mehr Flipper als Bowling. Die Metapher stammt vom Münsteraner Professor für Marketing und Medien Thorsten Hennig-Thurau. Spätestens seit dem Gemeint ist: Als das Marketing noch bowlte, zielte Durchbruch der sozialen es mit schwergewichtigen Botschaften (der BowMedien und der Verlagelingkugel) auf definierte Zielgruppen (die Kegel). Das rung des Internets in die war ein relativ kontrollierter KommunikationsvorHosentasche qua Smartgang, der nur funktionieren konnte, wenn die Marphone stehen Marketing keter gute Bowler waren. Die Bowlingkugel landete und Vertrieb am Flipperbekanntlich oft in der Rinne. Ob Treffer oder nicht: automaten. Sie schießen Es folgte der nächste Wurf per TV-Kampagne, Radiodeutlich mehr kleine Spot oder Schweinebauchanzeige. Den Kunden kam Kugeln in immer mehr in diesem Kommunikationsmodell keine aktive Rolle Richtungen. Dabei haben zu. Das Marketing erreichte sie – oder eben nicht. sie in vielen Bereichen Die Auswahl an Produkten und Kommunikationsmedes Flipper-Felds die Kontrolle verloren. dien war im Vergleich zu heute klein, die Anzahl an potenziellen Kaufkanälen noch viel kleiner. In vielen Produktkategorien war die faktische Anzahl der Kanaloptionen gleich eins, nämlich das Geschäft, in dem der Kunde immer einkaufte. Spätestens seit dem Durchbruch der sozialen Medien und der Verlagerung des Internets in die Hosentasche qua Smartphone stehen Marketing und Vertrieb am Flipperautomaten. Sie schießen deutlich mehr kleine Kugeln in immer mehr Richtungen. Dabei haben sie in vielen Bereichen des Flipper-Felds die Kontrolle verloren. Ermächtigte Kundengruppen schießen die Botschaften in andere Richtungen als geplant – in der Flipper-Metapher sind das die Bumper, die Kugeln mal ins Ziel und oft ins Aus katapultieren. Man kann diesen Kontrollverlust im Marketing-Flipper freilich beklagen, vor der Komplexität von Kommunikations- und Verkaufskanälen kapitulieren und weiter den größten Teil seines Werbebudgets in TV-Spots stecken. Getragen von der vagen Hoffnung, dass Markenbekanntheit und eine hohe Platzierung im Relevant Set für Abschlüsse sorgen, sofern ein Kunde an einem Point of Sale aus nicht bekannten Gründen erscheint. Oder wir können uns das Ziel setzen, an jedem einzelnen Kontaktpunkt des Kunden eine kleine und nach Kundensegment oder gar Einzelkunden variable Bowlingbahn aufzubauen.

171

Teil III – Vorbilder

Auf den Punkt gebracht und als Schlussfolgerung von Missverständnis Nummer drei – Kunden interessieren sich nicht für Multikanal-Logiken – heißt das: Wir müssen die gängigen Customer-Journeys der wichtigsten Kundensegmente gründlich analysieren und uns bei jedem Touchpoint folgende Fragen stellen: ➤➤ ➤➤

➤➤

Was erwartet der Kunde an diesem Kontaktpunkt? Auf welchem Wegabschnitt befindet er sich gerade mit hoher Wahrscheinlichkeit? Hat er eben erst mit der Recherche begonnen, steht er kurz vor Kaufabschluss und braucht nur noch einen sanften Schubser oder nutzt er gar schon das Produkt und denkt über einen Wiederkauf oder eine Vertragsverlängerung nach? Mit welchen Maßnahmen können wir die Wahrscheinlichkeit erhöhen, dass der Kunde seine Reise im Sinne des Unternehmens fortsetzt? Diese Maßnahmen nennen wir Aktivatoren und Konnektoren.

Intelligente Aktivatoren (Reaktionsbeschleuniger eines bestehenden, oft noch nicht bewussten Bedürfnisses) und Konnektoren (Verbindungselemente bei bewusstem Interesse) sind Angebote an Kunden, ihre Reise in welchem Kanal auch immer fortzusetzen. Nämlich jenem Kanal, der ihnen als Kunden gerade am bequemsten oder informativsten erscheint. Das ist der erste Trick. Und das Gegenteil von der Marketingrealität an vielen Kontaktpunkten, die aus Unternehmenssicht mit der Haltung konzipiert wurden: Wir überlegen uns, wie ein typischer Kunde einen Kontaktpunkt typischerweise nutzen sollte. Der zweite Trick lautet: Jeder einzelne Kontaktpunkt braucht eine eigene Metrik, mit der wir die Wirkung der eingesetzten Maßnahmen an diesem Punkt messen und optimieren können. Und es gibt noch einen dritten Trick für Fortgeschrittene: Wir suchen sehr gezielt nach neuen Datenquellen, die auf den einzelnen Abschnitten der Customer-Journey das Kundenverständnis gezielt erhöhen. Wer durch diese Brille auf die Kundenreisen schaut, entdeckt mitunter Datenschätze, an die weder er noch die Konkurrenz je gedacht hätte. Wie z. B. ein Lebensmittelgroßhändler, der sich an Kassen-Apps für Kleingastronomen beteiligt. Was bedeutet das alles in der Praxis?

172

3.4 Was bedeutet Multi­kanal wirklich?

Apple-ID für alle! Die Problemstellung ist in nahezu allen Multikanal-Kontexten gleich: Kunden schlagen an den verschiedenen Kontaktpunkten der CustomerJourney auf und haben in dem Moment bestimmte Bedürfnisse. Kunden zu identifizieren ist nicht einfach. Auf die Bedürfnisse situativ mit den richtigen Angeboten zu reagieren, ist noch schwieriger. Smart-Data-Champions gehen diese Herausforderung in vier Schritten an, die im Zeitablauf teilweise auch parallel erfolgen können: 1. Sie setzen alles daran, möglichst viele Kunden an möglichst vielen Kontaktpunkten eindeutig identifizieren zu können. Dazu nutzen sie jede Chance an jedem Kontaktpunkt und geizen nicht mit Anreizen. Denn sie kennen den Wert, den Namen und die Adresse des (potenziellen) Kunden. Mustergültig hat (mal wieder) Apple das Problem der eindeutigen Identifizierung mit seiner Apple-ID gelöst – einer Kundennummer, an der kein Kunde im Apple-Universum vorbeikommt, die für alle Geräte und Dienstleistungen des Unternehmens gilt. Der Gesamtwert der Identifikation möglichst vieler Kunden an möglichst vielen Kontaktpunkten ist höher als die Summe der Einzelwerte. Das ergibt sich aus Schritt 2. 2. Das Unternehmen erfasst systematisch die Interaktionen an allen Kontaktpunkten – online und offline. Dabei nutzt es alle vorhandenen Möglichkeiten, die Kundenbedürfnisse an dem jeweiligen Kontaktpunkt zu messen oder zu erfragen. Zur Not erfolgt die Erfassung auch mit anonymen Daten. Aber je mehr Kunden bei dieser Erfassung bereits eindeutig identifiziert werden können, desto einfacher fällt Schritt 3. 3. Welches Kundensegment nimmt mit welcher Wahrscheinlichkeit welchen Weg auf der Customer-Journey? Die Suche nach der Antwort erfolgt mithilfe eines Abgleichs der allgemeinen (hoffentlich smarten) Kundensegmentierung des Unternehmens mit den Daten aus Schritt 2. Aus diesem Abgleich lässt sich z. B. erkennen, dass Segment A an Kontaktpunkt X noch deutlich intensivere Beratung wünscht, während ein Kunde aus Segment B mit hoher Wahrscheinlichkeit bei einem Rabatt von fünf Prozent direkt den Kaufvertrag unterschreibt. Es ist sehr hilfreich, die Customer-Journeys der wichtigsten Segmente zu visualisieren. Das hilft bei Schritt 4 enorm. Die

173

Teil III – Vorbilder

Betonung liegt hier jedoch auf wichtigste Segmente. Wie bereits in Teil II angedeutet: Die Big-Data-Enthusiasten haben ein wenig voreilig die Vorstellung verbreitet, die Allmacht der Daten würde Marketer in die Lage versetzen, die Customer-Journeys auf Einzelkundenebene zu modellieren und steuerbar zu machen. Das wird für die allermeisten Unternehmen noch lange Marketingtheorie bleiben. In der Praxis konzentrieren sich Smart-Data-Champions auf ihre wertvollsten Kundensegmente und die Maßnahmen, die sie an den einzelnen Kontaktpunkten auch rechnen können. 4. Auf Grundlage der Erkenntnisse aus Schritt 3 leitet das Team die Aktivatoren und Konnektoren für die jeweiligen Segmente ab. Je besser die Datenbasis ist, desto öfter wird es gelingen, dem Kunden das Gefühl zu vermitteln: Auf den nächsten Schritt der Kundenreise lasse ich mich gerne ein. Bei der Konzeption jeder einzelnen Maßnahme werden Messkriterien direkt mitgedacht. Je konsequenter dies geschieht, desto größer sind später die selbstverstärkenden Lerneffekte im System. Maßnahmen, die gemäß der definierten Kriterien nicht die erwünschte Wirkung erzielen, werden abgeschafft oder geändert. Wichtig bei der Umsetzung der Marketingmaßnahmen ist: Sie müssen immer und an jedem Kontaktpunkt als freundliches Angebot wahrgenommen werden, als Option eines souveränen Konsumenten, die ein möglichst sympathisches Unternehmen ihm bietet. Das hört sich selbstverständlich an. Von push zu pull! Wenn drei Marketer (oder Marketingberater) zusammenstehen, dauert Gutes Marketing in der es selten länger als zehn Minuten, bis dieser Satz fällt. Welt einer immer weiter In Bezug auf den Versuch, die Reisen von Kunden wachsenden Anzahl von segmentspezifisch zu steuern, hat der Gemeinplatz Kommunikations- und aber besondere Beachtung verdient. Die meisten Verkaufskanälen ist das Kunden in gesättigten Märkten des 21. Jahr­hunderts Ermöglichen von bequewollen nämlich gerade nicht das Gefühl haben, dass men nächsten Schritten ihre Reisen zum Kauf fremdgesteuert sind. Sie erwarim Sinne des Kunden. ten umfangreiche Information und Beratung, Verfügbarkeit und reibungslose Kaufabwicklung und exzellenten Service in der Nutzungsphase. Und zwar immer, wenn ihnen danach ist. Wenn diese so anspruchsvollen wie selbstbewussten Kunden den Eindruck gewinnen, dass ein Unternehmen sie mit den längst durchschauten Mitteln des Push-Marketings be-

174

3.4 Was bedeutet Multi­kanal wirklich?

arbeitet, sie unter Umständen auf ihrer Kunden­reise diese Erfahrung sogar mehrmals machen, reagieren sie in aller R ­ egel allergisch. Daraus folgt: Wir können die Customer-Journeys in Zeiten des Markting-Flippers nur steuern, wenn alle Aktivatoren und Konnektoren eine Sogwirkung Richtung Fortsetzung der Kundenreise entfalten. Der Kunde darf unter keinen Umständen das Gefühl entwickeln: Der Verkäufer sitzt im Fahrersitz, ich bin der Beifahrer oder wurde sogar gerade im Kindersitz festgeschnallt. Gutes Marketing in der Welt einer immer weiter wachsenden Anzahl von Kommunikations- und Verkaufskanälen ist das Ermöglichen von bequemen nächsten Schritten im Sinne des Kunden. Die Systematisierung des Soggedankens entlang der einzelnen Kontaktpunkte lässt aus der Leerformel »Pull statt push!« eine praktikable Handlungsanweisung werden. Als Formel für das große Ganze sind die drei Wörter schnell beschworen und verhallen ebenso schnell wieder als guter Vorsatz im Raum. Heruntergebrochen auf die einzelnen Kontaktpunkte fällt es plötzlich viel leichter, konkrete Maßnahmen zu entwickeln, bei denen alle erkennen können, was Sog entlang der unterschiedlichen Kundenreisen in der Praxis bedeutet. So wie bei den aktuellen Bemühungen vieler Premium-Automobilhersteller, aus den Reisen der Neuwagenkunden eine rundum erfreuliche Kundenerfahrung zu machen, von der ersten Information bis in die After-Sales-Welt. Denn das war ein Neuwagenkauf in der Vergangenheit bekanntlich nicht immer.

175

Teil III – Vorbilder

Die Kanalbrücken der Kundenreise Achtung: Ironie! Wenn die Ingenieure und Designer gute Autos entwickeln und die Produktion dafür sorgt, dass die Qualität stimmt, verkaufen sich die Fahrzeuge im Grunde von selbst. Marketing und Vertrieb haben allenfalls die Aufgabe, für die Auslastung der Fabriken zu sorgen. Und die Kunden? Nun ja, ein Verkäufer im Verkaufsraum muss schon das Gefühl haben, dass der Typ da sich das Auto auch wirklich leisten kann, bevor es sich lohnt, mit ihm ein Beratungsgespräch zu beginnen. In Reinform findet man diese Haltung natürlich nur noch selten bei den großen Premium-Herstellern. Aber es ist sicher auch nicht übertrieben zu sagen: Bei der Kundenorientierung könnte die Branche noch deutlich beschleunigen. Die Bereitschaft dazu ist hoch, die Umsetzung in einem Umfeld mit einem extrem hohen Grad von Arbeitsteilung und den daraus folgenden Siloeffekten nicht immer einfach. Wir durften (und dürfen) in diversen Projekten den Wandel im PremiumAutomobilbau und -handel begleiten. Die Analyse des Status quo der Customer-Journey ergibt nahezu deckungsgleich bei allen Herstellern: Die Entfernung zwischen den Kontaktpunkten ist groß – oft im wörtlichen Sinne. Und es wird zu wenig getan, um dem Kunden den Weg zu erleichtern. Konkret sieht der beschwerliche Weg vieler potenzieller Neuwagenkäufer so aus: Sein Interesse für ein bestimmtes Modell ist geweckt. Sei es durch eine klassische Kampagne, Gespräche mit Kollegen oder einen Bericht in einer Autozeitschrift. Die überwiegende Mehrzahl der Kunden startet nun eine Online-Recherche. Nicht wenige testen bereits jetzt schon einmal mit Online-Konfigurationstools, wie »ihr« Modell denn aussehen könnte. Hier befindet sich die erste Bruchstelle. Der vom Hersteller gewünschte nächste Schritt ist der Besuch eines Händlers. In aller Regel muss der Kunde dazu relativ weit in einen Randbezirk fahren. Sollte er diesen Schritt gehen und in der Händlerfiliale einen kompetenten und bemühten Berater finden, beginnt die Reise aus Kundensicht von vorne. Wenn es dumm läuft und der Händler nicht auf die Konfiguratordaten zugreifen kann, muss er nämlich noch einmal erzählen, wofür er sich interessiert und welche Konfigurationen er sich vorstellen könnte. Meist kann der Kunde dann nach wenigen Tagen oder gar bereits bei

178

3.4 Was bedeutet Multi­kanal wirklich?

diesem Besuch eine Probefahrt machen, oft allerdings mit einer abweichenden Motorisierung. Er fährt wieder nach Hause, im günstigen Fall mit einem ausgedruckten Angebot, und geht zurück ins Internet. Vielleicht ist das Fahrzeug für den Kunden tatsächlich so attraktiv, dass er nach ein paar Tagen beim Händler anruft, ein paar Details nachverhandelt und einen Vertragstermin vereinbart. Vielleicht holt er das Fahrzeug tatsächlich irgendwann ab. Dann bekommt der Verkäufer seine Prämie. Der Weg in die Welt der Betreuung in der Nutzungsphase ist in diesem günstigen Fall in der Regel nur bis zur ersten Inspektion besprochen. Die Daten des Kunden liegen beim Händler, nicht beim Hersteller. Welche Aktivatoren und Konnektoren würden die Kundenreise erleichtern? 1. Der Kunde könnte seine Reise online bis in die Etappe der persönlichen Beratung machen. Das hieße: Wenn er im Konfigurator mit der Vielzahl der Optionen kämpft, könnte er spontan einen Videochat mit speziell geschultem Beratungspersonal starten. Oder mit einem Klick um einen Beratungsanruf zu einem bestimmten Zeitpunkt bitten. Oder der Konfigurator könnte auf Basis einer smarten Segmentierung bereits Vorschläge für das ideale Auto machen. Der Kundenberater könnte dem Kunden im Chat oder im Gespräch auch sagen, in welcher Filiale in seiner Nähe eine Probefahrt mit gewünschter Motorisierung möglich wäre. Und wann. Und warum nicht gleich am nächsten Samstag? Der Wagen würde bereitstehen und müsste nicht umständlich an der hintersten Ecke des Geländes freigeparkt werden. 2. Der Kunde könnte die Ergebnisse im Konfigurator mühelos speichern. Dazu müsste er freilich kurz ein Kundenprofil anlegen, das ihm eine Identifikationsnummer zuweist. Das geht erstens einfach und der Kunde weiß zweitens, dass eine Kunden-ID ihm bei seiner Kaufentscheidung selbst nutzen wird. Er weiß z. B., dass er beim Händler seine gespeicherten Konfigurationen schnell auf dem eigenen Smartphone oder einem Händler-Tablet aufrufen kann. Der Online-Auftritt wird damit aus Hersteller-/Händlersicht von einer mit spielerischen Elementen aufgeladenen Webseite zu einem »Customer Traction Center«.

179

Teil III – Vorbilder

3. Der Kunde könnte die Marke physisch dort treffen, wo er sowieso ist. In kleinen Shop-Formaten in Innenstädten. Oder in Pop-up-Stores auf Events, die er ohnehin besucht. An diesen Kontaktpunkten mit wenigen physischen Modellen, aber umso beeindruckenderen Visualiserungswerkzeugen kann er ebenfalls eine Probefahrt vereinbaren. Wenn erkennbar ist, dass er wirklich stark interessiert oder gar schon Kunde ist, könnte der Startpunkt dieser Probefahrt auch die eigene Haustür sein: Ein Berater käme mit dem gewünschten Modell bei ihm vorbei. Die Angebote nach der Probefahrt findet der Kunde gut sortiert unter seinem Kundenprofil gespeichert – der sogenannten Angebots-Garage. 4. Der Verkäufer könnte an seinem Ende des CRM-Systems grafisch übersichtlich aufbereitet sehen, an welchen Kontaktpunkten der Kunde sich wie hat beraten lassen. Das System gibt ihm zudem Hinweise, bei welchen Kundentypen er zu welchem Zeitpunkt wie nachhaken sollte. Also dass er z. B. bei Familienvätern zwischen 35 und 40, die in gehobenen Lagen wohnen, nach spätestens zwei Wochen per SMS nachfragen könnte, ob Bedarf an weiterer Beratung bestehe. 5. Bei Abholung oder Lieferung des Fahrzeugs an die Haustür könnte der Berater erklären, wie der Kunde die digitalen Dienste des Herstellers nutzen kann und welchen Mehrwert sie ihm bringen. Für das Log-in dient die Kunden-ID, die der Kunde in einer frühen Phase seiner Reise erhalten hat. Der Verkäufer könnte den Kunden auch auf die Vorteile aufmerksam machen, die er hat, wenn er künftig den ­Wartungs- und Reparatur-Service des Händlers nutzt – und nicht nach relativ kurzer Zeit zu einer typenoffenen wechselt. Das Connected-Car-System wird den Kunden jedenfalls regelmäßig darauf hinweisen. Es wird dem Kunden auch immer mal wieder maßgeschneiderte Angebote unterbreiten, die es aus dem Nutzungsverhalten errechnet. Oder es wird den Berater bitten, den Kunden rechtzeitig an die anstehende TÜV-Untersuchung zu erinnern. Je größer die Umsätze in der Nutzungsphase, desto höher könnte der nachträgliche Bonus für den Verkäufer ausfallen. 6. Der Kunde könnte auch einfach ein Auto im Internet konfigurieren, bestellen und bezahlen. Er bekäme es zum vereinbarten Zeitpunkt geliefert.

180

3.4 Was bedeutet Multi­kanal wirklich?

Alle Premium-Hersteller haben erkannt, dass sie Brücken zwischen den Kontaktpunkten bauen müssen. Sie investieren wie Audi in beeindruckende Experience-Stores in Premiumlagen – z. B. in teuersten Lagen in London. Mercedes erleichtert Markenfreunden die Bindung zum Unternehmen mit mercedes.me – und lernt sie dadurch viel besser kennen. Bestimmte Spezialangebote für Leasing-Fahrzeuge können MercedesKunden schon heute komplett online buchen. Bei den Elektromodellen mit dem i kommt BMW dem theoretischen Idealbild der verknüpften Kontaktpunkte in der Realität schon ziemlich nahe. Wir kennen keinen Beteiligten an diesen Projekten, der nicht beschreibt, dass die Hürden des Wandels im Autohandel hoch sind. Eine wichtige Lernerfahrung aus den ersten Schritten im Transformationsprozess hin zu kundenorientiertem Marketing und Verkauf von Autos ist: Silodenken verhindert Erfolg. Es braucht einen Akteur, der das System von Aktivatoren und Konnektoren entlang der Customer-Journey klug steuert und die dafür notwendige abteilungsübergreifende Zusammenarbeit initiiert, fördert und sichert. Das bleibt eine der größten Herausforderungen für Smart-DataChampions der Branche. Die zweite – und sehr erfreuliche – Lernerfahrung ist: Kunden sind beim Emotionsprodukt Neuwagen so stark in den Kaufprozess involviert, dass sie Name, Anschrift, E-Mail-Adresse und Handynummer – ebenso wie viele Wünsche rund um den Kauf und die Nutzung eines Autos – gerne mit dem Anbieter teilen, wenn sie merken: Dadurch steigt die Beratungsqualität.

Showroom Internet Die intensive Auseinandersetzung mit segmentspezifischen CustomerJourneys lohnt sich. Bei einem Automobilhersteller ist diese Aussage umgehend glaubhaft. Der Produktpreis ist hoch und die Anzahl der Neuwagenkäufe vergleichsweise niedrig. Damit steigt der Kundenwert pro Einzelkunde und die Chance, dass sich entsprechende Marketing­ investitionen am Ende rechnen. Kehren wir an den Ausgangspunkt unserer Multikanal-Überlegungen zurück: in den Einzelhandel und zum dortigen Kampf der Stationären, die jetzt zu Multikanal-Anbietern werden, gegen die ehemals Pure-Play-Onliner, die jetzt ebenfalls zu Multikanal-Anbietern werden. Dort ist die Rechnung nicht so offenkundig.

181

Teil III – Vorbilder

Um eine bessere Entscheidungsgrundlage für künftige Marketingstrategien im Multikanal-Handel von Lebensmitteln, Kaschmirpullovern und Spülmaschinen zu schaffen, haben wir 2013 in Zusammenarbeit mit der Otto-Gruppe und dem BeDer stationäre Handel treiber von Einkaufszentren ECE rund 42 000 Verprofitiert erheblich mehr braucher gefragt: Was kauft ihr wo, wie und warum von Transaktionen, die ein? Dazu haben 2000 Kunden einen Monat lang jede online vorbereitet und Transaktion in einem Haushaltstagebuch notiert. offline abgeschlossen 51  Verbraucher ließen wir von Konsumforschern in werden, als wenn Kunden sieben Fokusgruppen zum detaillierten Verständnis die Customer-Journey in ihrer Motive beim Offline- und Online-Kauf befragen. der gegenläufigen RichHeraus kam eine viel beachtete Studie mit dem Titel tung absolvieren. »Dem Kunden auf der Spur« – mit vielen wertvollen, da teilweise kontraintuitiven Erkenntnissen. Die drei wichtigsten aus Sicht von stationären Händlern mit Datenambitionen lauten: 1. Der stationäre Handel profitiert erheblich mehr von Transaktionen, die online vorbereitet und offline abgeschlossen werden, als wenn Kunden die Customer-Journey in der gegenläufigen Richtung absolvieren. Will heißen: Das medial oft beschriebene Phänomen des Showroomings wird erheblich überschätzt. Zwar wird laut Studiendaten rund jeder fünfte Kauf offline vorbereitet, bevor Kunden dann im Netz in der Regel günstiger kaufen. Doch der Gesamtwert dieser Transaktionen beträgt in Deutschland nur ein Siebtel des Volumens der Kunden, die sich zunächst online informieren und dann doch im Geschäft kaufen. Im Klartext: Der stationäre Handel profitiert vom digitalisierten Informationsangebot im Netz elfmal stärker als die Online-Händler vom physisch präsentierten Sortiment der OfflineHändler und der Beratungsleistung, die ihre Verkäufer in den Läden erbringen. 2. Ein differenzierter Blick auf die Kunden im Bezug auf Online- und Offline-Affinität zeigt: Für die interessantesten Zielgruppen mit den höchsten Umsätzen ist nicht der Preis das kaufentscheidende Kriterium. Viel wichtiger für sie ist die Möglichkeit, Waren anzufassen und direkt mitnehmen zu können – in Verbindung mit guter Beratung und Shopping-Spaß, der oft Eventcharakter hat. Wenn stationäre Händler diese Segmente (in der Studie heißen sie »Well-Off

182

3.4 Was bedeutet Multi­kanal wirklich?

Shopping Enthusiasts«, »Traditional Senior Shoppers«, »Mainstream Offline-Shoppers«) mithilfe von Daten immer besser erkennen, verstehen und bedienen, muss ihnen um ihre Zukunft nicht bange sein. Denn diese drei grundsätzlich offline-affinen Segmente sorgen zusammengenommen nicht nur für rund zwei Drittel der Gesamtumsätze. Sie kaufen, das haben die Fokusgruppenanalysen ergeben, oft im vollen Bewusstsein, dass sie das gleiche Produkt im Internet günstiger bekämen. 3. Die Studie hat zudem ergeben, dass die Segmente eine sehr unterschiedliche Offenheit für Multikanal-Angebote zeigen. Das ist für alle stationären Händler eine gute Nachricht, die über ein gutes Verständnis darüber verfügen, welche Segmente in welchen Situationen zu welchen Kanalpräferenzen tendieren. Denn dann lassen sich Angebote entwickeln, die ganz im Sinne der oben beschriebenen Ansätze die nächsten Schritte in der Customer-Journey leichter, bequemer oder effizienter machen. Wenn Multikanal-Kunden eines bestimmten Segments z. B. bei bestimmten Produktgruppen vor allem Zeit sparen wollen, müssen Online- und Offline-Kanäle besonders gut verbunden werden. Ein gutes Beispiel hierfür sind die Pick-up-Stationen von Media Markt und Real, bei denen Kunden ihre Waren etwa online bestellen und bezahlen und dann nicht einmal aussteigen müssen, wenn sie am Abholpunkt vorfahren. Ein Mitarbeiter packt die Produkte in den Kofferraum. Auch der umgekehrte Fall ist erprobt. Das Fachmarktzentrum Dodenhof in der Nähe von Bremen veranstaltet regelmäßig aufwendige AbendEvents für VIP-Kunden, wie etwa Modeschauen. Marken sind bei den Events eingebunden, stehen aber nicht im Vordergrund. Die oft umfänglichen Einkäufe liefert der Händler auch gerne am übernächsten Tag per Paket – ein Service, den überraschend viele VIPKunden in Anspruch nehmen, obwohl das eigene Auto vor der Tür steht. Zwei Jahre später hat sich die Trennung von online und offline endgültig aufgehoben. Im Bereich Consumer-Electronics informieren sich bis zu 90 Prozent der Kunden vor einem Ladenbesuch im Internet. Zumindest sofern sie ihren präferierten Anbieter dort auch finden. Sonst dürfte die Transaktion bei einem anderen Anbieter landen, der die Anfrage sofort erkennt und mit geeigneten Bannern versucht, den Kunden umzulenken.

183

Teil III – Vorbilder

Sonderfall Multichannel-Banking Wer geht noch zu einer Bankfiliale, um Geld zu überweisen? Eben! Aber 62 Prozent der Deutschen und Schweizer finden die Filiallage für die Wahl ihrer Hausbank wichtig. Die Zahl stammt aus einer Studie zur Zukunft im Privatkunden-Banking, die Roland Berger Strategy Consultants Ende 2014 gemeinsam mit Visa durchgeführt hat. Ziel der Studie war es, Bedürfnisse von Kunden zu ergründen, die auf der einen Seite die digitalen Angebote ihrer Geldinstitute immer stärker nutzen, auf der anderen Seite ihren Filialen keineswegs in dem Maße den Rücken kehren, wie es die aktuellen Debatten um die Zukunft der Banken vermuten lassen. Für den Transformationsprozess der Traditionsbanken und Sparkassen hin zur intelligenten Ausgestaltung und Verzahnung der Kanäle lautet eine gute Nachricht der Studie: Der Wandel hin zu Multikanal vollzieht sich langsamer, als immer wieder alarmistisch behauptet wird. Wichtige Segmente sind – Stand heute – auf der einen Seite relativ konservativ, was die Ausübung ihrer Bankgeschäfte angeht. Gleichzeitig sind sie offen für die Nutzung innovativer Formate. Sehr digital affine Segmente machen rund 60 Prozent der Einkommenskraft aus. Die Studie hat zudem gezeigt: Bis heute springen die Kunden relativ wenig zwischen den Kanälen. Wenn sie wechseln, dann in der Regel von online zu offline. Das heißt, ihr Interesse für Bankprodukte erwacht zwar oft irgendwo im Netz. Je komplexer das Produkt ist, desto seltener verzichten Privatkunden aber auf persönliche Beratung in der Filiale. Das mag vor dem Hintergrund des öffentlich immer wieder thematisierten ambivalenten Rufs der Unabhängigkeit und Qualität von Bankberatung auf den ersten Blick überraschen. Auf den zweiten Blick lässt sich daraus aber auch folgern: Es kann sich lohnen, weiter in den stationären Kanal zu investieren, insbesondere wenn sich der Charakter der Filialen ändert. Die Roland-Berger-Visa-Studie sendet das klare Signal an Banken: Kunden wünschen sich weiterhin Filialen. Sie sollten aber eher an eine Mischung aus Apple-Stores und Starbucks-Cafés erinnern, weniger an Amtsstuben.

184

3.4 Was bedeutet Multi­kanal wirklich?

Die aus unserer Sicht spannendste Erkenntnis liefert die Studie allerdings auf einer ganz anderen Ebene: auf der Vertrauensebene – und das ist wörtlich gemeint. Die Finanzkrise und diverse Beratungsskandale der letzten Jahre haben das Image der Branche bekanntlich in den Keller rauschen lassen. Was den seriösen Umgang mit Daten angeht, verfügen die Banken aber nach wie vor über einen glänzenden Ruf. Dies wird deutlich bei einer Frage, die mobilen Banking-Innovationen zum Durchbruch verhelfen könnte. Die Frage wirkt auf den ersten Blick technisch: Wer kann sicheres OnlineBezahlen am besten gewährleisten? Doch die Antwort weist auf große Chance für Banken hin. Kunden wissen, dass Banken alles über sie wissen. Von wenigen kleinen Skandalen abgesehen, haben Banken dieses Datenwissen in der Vergangenheit nicht missbraucht. Mit diesem Vertrauensbonus können sie nun Multikanal-Angebote schaffen, die Kunden und Banken nützen. Für die eigenen Kanäle. Und für Angebote, die Kanäle anderer Anbieter verknüpfen.

185

Teil IV

Erfolgsfaktoren

Wie Unternehmen smart werden

4.1 Fehler akzeptieren – Die richtige Managementhaltung Ballistisches Denken »Die meisten Menschen denken und handeln ballistisch.« Der Satz stammt aus dem Bestseller Die Logik des Misslingens. Der Bamberger Psychologe Dietrich Dörner schrieb ihn 1989. Das war das Jahr, in dem Tim Berners-Lee am CERN ein Projekt auf den Weg brachte, mit dem Wissenschaftler per Hypertext weltweit Informationen teilen sollten. Das Projekt bekam später den Namen World Wide Web. Dörner war ebenfalls ein Techie. Als die ersten Browser Mitte der 1990er-Jahre Berners-Lees Internet-Wissenschaftlernetz für jedermann zugänglich machten, erregte der Psychologe Aufsehen mit einem interessanten Versuch aus dem Bereich der Erforschung der künstlichen Intelligenz: Er wollte fühlende Roboter bauen. Das Projekt »Künstliche Emotion« scheiterte. Dörners Logik des Misslingens hat dessen ungeachtet nichts an Aktualität eingebüßt. Im Kern geht es dabei um die Frage: Wie gehen wir mit Fehlern um?

189

Teil IV – Erfolgsfaktoren

Mit »ballistisch denken und handeln« meint Dörner: Entscheidungsfindung und Umsetzung wie bei Kanonieren unter Friedrich dem Großen. Schätzen, beraten, ein bisschen berechnen, wie die Kanone auszurichten ist. Je nach Gefechtslage geschieht das oft eher hektisch. Schuss. Ist die Kanonenkugel erst einmal auf ihrer ballistischen Bahn, lässt sie sich nicht mehr umlenken. Für den Fall, dass die Kugel ihr Ziel verfehlte, nutzten die Kanoniere der frühen Neuzeit einen neuen Begriff: Fehler. Weniger Fehler waren das wichtigste Ziel der Ausbildung der Kanoniere. Keine Fehler waren das Idealbild der Heeresführung, der perfekte Schuss der nächtliche Traum im Zelt. Die Feinde folgten der gleichen Logik. Je kleiner die Fehlerquote, desto größer war bei Waffengleichheit die Chance auf den Sieg. Die Kollateralschäden dieser Vorgehensweise von Militärs sind bekanntlich bis heute groß. In den Wonnejahrzehnten der Massenproduktion, also bis spät in die zweite Hälfte des 20. Jahrhunderts hinein, eignete sich das Prinzip Kanonenkugel auch zur Führung von Unternehmen in vielen Branchen sehr gut. Management zielte. Kugel flog. Treffer. Oder auch mal ein Fehlschuss. Wer besser zielte, gewann. Etwas differenzierter dargestellt sah das System so aus: Manager erkannten Marktchancen. Ingenieure entwickelten mit sehr viel Aufwand in diversen Vorserienschleifen ein Produkt. Six Sigma und andere Programme für das Qualitätsmanagement reduzierten systematisch die Fehler bei der Produktion auf ein Minimum und optimierten den Einsatz von Ressourcen. Das Marketing beschallte die potenziellen Kunden mit einer Botschaft. Hier könnten wir in Anlehnung an Thorsten Hennig-Thurau sagen: Kanonenkugel gleich Bowlingkugel. Der Vertrieb teilte in Wachstumsmärkten die Waren zu. Je gesättigter der Markt, desto mehr mussten die Vertriebsleute sich dabei anstrengen. Gutes Management bedeutete, diesen Prozess so zu steuern, dass am Ende des Quartals möglichst hohe Umsätze bei möglichst geringen Kosten in der Gewinn- und Verlustrechnung standen. Das in diesem System dominierende Management-Mantra lautete Effizienz. Ballistisches Denken und Handeln im Management läuft heute hingegen auf Selbstzerstörung hinaus.

192

4.1 Fehler akzeptieren – Die richtige Managementhaltung

Experiment schlägt Kanonenkugel Die digitale Startup-Kultur hat einen radikalen Gegenvorschlag zu dieser Vorgehensweise gemacht. Ihr Mantra ist Disruption. Der Weg zum Durchbruch wird in einer langen Serie von Experimenten erkundet. Der Fehler ist dabei der Freund, nicht der Feind. Und die Handlungsmaxime lautet nicht Fehlervermeidung, sondern: Mache viele Fehler. Denn aus Fehlern werden Fragen. Aus Fragen werden neue Lösungen. Aus neuen Lösungen neue Produkte. »Gescheiter scheitern« ist eine hübsche Formulierung. Man hört sie auch immer öfter in Managementkreisen von Großunternehmen. Ebenso der Ruf nach einer »neuen Fehlerkultur«. Vom Lippenbekenntnis in der Führungsetage zur gelebten Praxis ist es bekanntlich leider ein weiter Weg. Die erfolgreichen Startup-Gründer meinen es in der Regel ernst mit einer neuen Haltung im Umgang mit Fehlern.

Mache viele Fehler. Denn aus Fehlern werden Fragen. Aus Fragen werden neue Lösungen. Aus neuen Lösungen neue Produkte.

Das muss auch so sein und dafür gibt es mindestens drei wichtige Gründe: ➤➤

➤➤

➤➤

Zum Ersten sind die Ausgangspunkte ihrer Unternehmensgründung ja die Fehler der anderen. Was haben die etablierten Marktteilnehmer übersehen, sodass es Raum für eine bessere Lösung gibt? Zum Zweiten haben ihnen ihre experimentierfreudigen Helden L ­ arry Page, Sergej Brin, Mark Zuckerberg, Peter Thiel oder Elon Musk in den letzten beiden Jahrzehnten vorgemacht, was passiert, wenn die Managementmaxime in einem jungen Unternehmen ohne den Ballast des Erfolgs der Vergangenheit lautet: Versuch macht klug. Aber achte bitte darauf, dass der Versuch so konzipiert ist, dass du mit hoher Wahrscheinlichkeit auch Erkenntnisse aus ihm ableiten kannst. Dazu braucht es immer (!) Messkriterien und Kennziffern. Zeichne die Art und Weise des Scheiterns zudem so auf, dass deine Kollegen ebenfalls daraus lernen können. Drittens wissen die Startup-Gründer sehr genau, dass Risikokapitalgeber, die Börse oder die M&A-Abteilungen von Großunternehmen den Wert des jungen Unternehmens ja gerade in dessen Experimen-

193

Teil IV – Erfolgsfaktoren

tierfreude sehen – und in seiner Fähigkeit, als radikal lernendes System neue Lösungen hervorzubringen. Na und?

Die Logik der Kanonenkugel geht nicht mehr auf. Wer mit Kanonenkugeln schießt, muss wissen, wo das Ziel steht. Das wissen wir leider immer seltener.

Ein Großunternehmen ist kein Startup. Es macht Geschäft und faselt nicht über Disruption. Ein Manager ist kein Gründer. Er muss Fehler vermeiden, damit sein Unternehmen weiterhin Geschäft macht. Der Gründer lebt von einer ungedeckten Wette auf die Zukunft, die risikofreudige Investoren vielleicht gerne eingehen. Der Manager ist darauf angewiesen, dass am Ende der Prozessketten im Unternehmen kontinuierlich ein finanzieller Mehrwert steht. Werden hier Äpfel mit Birnen verglichen? Natürlich.

Aber sicher ist auch: Die Logik der Kanonenkugel geht nicht mehr auf. Wer mit Kanonenkugeln schießt, muss wissen, wo das Ziel steht. Das wissen wir leider immer seltener.

Management in Zeiten der Unplanbarkeit Der Erfolg von Produkten und Dienstleistungen lässt sich immer schlechter planen. Dafür gibt es viele Gründe. Kundenbedürfnisse ändern sich immer schneller, ein Technologiesprung jagt den nächsten und politische Regulierungsvorgaben werden unter anderem durch deren Internationalisierung immer unberechenbarer. Erfolgreiche Produkte können immer schneller kopiert werden, Produktionsprozesse gleichen sich an und die Wettbewerbssituationen kann sich von heute auf morgen komplett ändern, weil auf der anderen Seite des Globus ein extrem ambitionierter Gegenspieler auftaucht, dessen Namen in der eigenen Firma gestern noch niemand kannte. Der Kunde entscheidet, welches Produkt oder welche Dienstleistung sich durchsetzt. Mehr denn je. Nicht das Unternehmen, und schon gar nicht der Manager. Genau hier steckt die Verbindung zwischen ballistischer Managementhaltung, einem intelligenten Umgang mit Fehlern und allem, was wir in diesem Buch zum smarten Umgang mit Kundendaten geschrieben haben.

194

4.1 Fehler akzeptieren – Die richtige Managementhaltung

Unternehmen wissen nicht, was der Kunde will. Sie können nur Hypothesen aufstellen und sich dann mit einer Serie von Tests an seine Bedürfnisse und Bedarfe heranarbeiten. Vor allem auch aus gescheiterten Datenprojekten wissen wir: Der Weg zum Kunden über experimentelles Lernen gelingt nur, wenn sich auch im Führungsverständnis von Topmanagement und Linienmanagern einiges grundsätzlich ändert. Und zwar hin zu einem Führungsverständnis, über das man in Managementratgebern sehr viel liest, von dem man im Unternehmensalltag aber oft noch sehr wenig sieht. Die Systemiker nennen es »postheroisches Management«. Nennen wir es – etwas weniger pathetisch – ein zeitgemäßes Führungsverständnis.

Unternehmen wissen nicht, was der Kunde will. Sie können nur Hypothesen aufstellen und sich dann mit einer Serie von Tests an seine Bedürfnisse und Bedarfe heranarbeiten.

Management ist die wichtigste Funktion im Kapitalismus. Denn Management ist im Kern die Fähigkeit, andere Menschen in einem Wertschöpfungsprozess so anzuleiten, dass am Ende ein Gewinn steht. Die Diskussion, was faire Prinzipien für die Verteilung des Gewinns sind, wird sicher nie enden. Vielleicht tragen wir irgendwann mal mit einem eigenen Buch zu der Diskussion bei. An dieser Stelle wollen wir uns auf die Frage konzentrieren, welches Management- und Führungsverständnis heute notwendig ist, damit es überhaupt etwas zu verteilen gibt. Hierbei hilft zunächst ein Blick aus Helikopterperspektive auf den Status quo der aktuellen Managementpraktiken. Gary Hamel ist in seinem Kultbuch Das Ende des Managements ein interessanter Widerspruch in der aktuellen Führungskultur aufgefallen. Zwar rufen alle CEOs permanent in ihre Konzerne hinein: »Wir müssen innovativer werden!« Aber die Managementmethoden, mit denen sie ihre Unternehmen dann führen, stammen aus der ersten Hälfte des 20. Jahrhunderts. Hierarchien mögen ein wenig flacher geworden sein, Führungskräfte über etwas mehr Sozialkompetenzen verfügen, aber im Grunde, so Hamel, habe sich an der Art und Weise nichts geändert, »in der man in Unternehmen Ressourcen zuteilt, Budgets festlegt, Macht verleiht, die Mitarbeiter belohnt und Entscheidungen fällt«. Das ist eine Untertreibung, zumindest was den Zeithorizont angeht.

195

Teil IV – Erfolgsfaktoren

Hierarchische Führung gab es schon in der ostafrikanischen Savanne, als der Mensch gerade von den Bäumen heruntergeklettert war. Ägypter, Römer und Lehnsherren im Mittelalter organisierten mit brutalen Hierarchien ihre Macht. Bereits die Fugger nutzten die doppelte Buchführung. Die Stablinienorganisation stammt aus dem frühen 19. Jahrhundert. Napoleon hat sie als militärisch-organisationale Innovation eingeführt und von Clausewitz hat sie für Preußen kopiert. In der ersten Hälfte des 20. Jahrhunderts war Management am erfindungsreichsten. Der Fordismus bestimmt bis heute, wie wir Abläufe standardisieren und Skaleneffekte erzielen. Die Prozesskostenanalyse ist ein Erbe der 1920erJahre. Die Grundlagen des Markenmanagements waren bis zum Ende der 1930er-Jahre ausentwickelt. Das Toyota-Prinzip Kaizen aus den 1960er-Jahren – also die systematische Einbindung des Könnens und Wissens jedes einzelnen Mitarbeiters – war die letzte halbwegs grundlegende Managementinnovation. Danach kamen nur noch Ableitungen von Altbekanntem; Rekombinationen, die auf das Mantra der Effizienz einzahlten. Organigramme großer Unternehmen sahen 1955 nicht viel anders aus als heute. Lediglich die Zahl der Mitarbeiterinnen und Mitarbeiter ist in den meisten Unternehmen nach mehreren Kostensenkungswellen kleiner geworden und manche Aufgaben werden jetzt aus »Shared-Services-Centern« in Rumänien und Indien erledigt. Trotz aller Prozessverbesserungen und elektronischen Helferlein stoßen viele Unternehmen an ihre Grenzen, weil sie immer mehr mit immer weniger Ressourcen schaffen sollen. Viele geben gezwungenermaßen irgendwann auf, weil es irgendwo einen noch günstigeren Anbieter gibt, der nicht den Ballast alter Strukturen mit sich herumschleppt. Ein zeitgemäßes Führungsverständnis setzt voraus, Führung muss verinnersich der Tatsache bewusst zu werden: Das Managelichen: Eine Organisation mentinstrumentarium braucht dringend eine Überarkann intrinsische Motivabeitung. Es reicht nicht, wenn der Personalvorstand tion nicht erzeugen. Sie gerne über flache Hierarchien spricht und im Nachist da. Oder war mal da. satz betont, man müsse Mitarbeiter auf der Werteebene abholen, um intrinsische Motivation zu erzeugen. Führung muss verinnerlichen: Eine Organisation kann intrinsische Motivation nicht erzeugen. Sie ist da. Oder war mal da. Zeitgemäßes Management kann nur Rahmenbedingungen schaffen, in denen Mitarbeiter eben nicht frustiert bei immer dichterer Taktung der Aufgaben und immer weniger Freiräumen innerlich kündigen, sondern ihre Fä-

198

4.1 Fehler akzeptieren – Die richtige Managementhaltung

higkeiten mit vollem Engagement in den Dienst der Sache, des Projekts, des Unternehmens stellen. Das tun sie nur, wenn sie das Gefühl haben: Mein Engagement hat Wirkung, Sinn und erfährt zudem Wertschätzung. Derweil funktionieren unsere 70 Jahre alten Belohnungssysteme, welche die Knöpfe der extrinsischen Motivation drücken, immer schlechter. Dabei ist die Generation Y noch nicht mal voll im Arbeitsleben. Was heißt das alles konkret? Ein zeitgemäßes Führungsverständnis in smarten Organisationen steht auf fünf Säulen: 1. Zeitgemäße Führung hat sich von seiner alten 100-Prozent-Denke verabschiedet. Damit war mal gemeint: Pläne müssen zu 100 Prozent so umgesetzt werden wie geplant, definierte Ziele zu 100 Prozent erreicht werden. Ich weiß mit 100-prozentiger Sicherheit, was richtig ist, oder tue zumindest so. Ein zeitgemäßer Manager hat dagegen gelernt, Unschärfe und Unsicherheit auszuhalten, denn er weiß: Es gibt keine zu 100 Prozent richtigen oder falschen Lösungen mehr, sondern nur noch bessere oder schlechtere. Den Weg zur besseren Lösung kennt leider niemand mehr genau, deshalb müssen wir auf dem Weg mit Unschärfe und Unsicherheit leben. 2. Zeitgemäße Führung vertraut in die MethodenkompeErgebnisoffenheit und tenz der Teammitglieder. Sie betreibt kein MikromaErgebnisorientierung nagement, sondern ist Ansprechpartner, Moderator und sind kein Widerspruch, Steuerungsinstanz in einem ergebnisoffenen Prozess auf sondern in smarten Sysder Suche nach der besseren Lösung bzw. auf der Sutemen zwei Seiten der che nach dem besseren Test, der ergründet, wie sich der gleichen Medaille. Kundennutzen steigern lässt – und damit natürlich auch der Kundenwert. Die Tests reduzieren die Unschärfe und geben die Richtung der nächsten Schritte vor. 3. Zeitgemäße Führung weiß: Ergebnisoffenheit und Ergebnisorientierung sind kein Widerspruch, sondern in smarten Systemen zwei Seiten der gleichen Medaille. Im Management alter Prägung kommt es an dieser Stelle oft zu Missverständnissen. Experimentelles Vorgehen wird oft mit Planlosigkeit verwechselt, mit wilder »Kreativität«, bei der am Ende wenig Zählbares herauskommt. Das Gegenteil sollte der Fall sein: Ein Experiment schafft Evidenz für bessere Entscheidungen, Produkte oder Prozesse. Die Sache mit dem Plan hat sich in

199

Teil IV – Erfolgsfaktoren

einer hochvolatilen Zeit übrigens ohnehin weitgehend erledigt. Vor 25 Jahren, mit dem Fall der Mauer, hat die Wirtschaftsgeschichte die Planwirtschaft abgeräumt. Spätestens seit der Finanzkrise von vor fünf Jahren wissen wir, wie sinnstiftend Geschäftspläne mit mittelfristigem Zeithorizont noch sind. Das Ergebnis zählt. Der Plan eignet sich nicht mehr für die Erzielung guter Ergebnisse. 4. Zeitgemäße Führung traut sich, viele Fragen zu stellen, besonders technische, statistische und datenwissenschaftliche. Denn sie will ernsthaft verstehen, welche Voraussetzung sie für ihr Unternehmen, ihre Abteilung oder ihr Team schaffen muss, damit diese zur lernenden Einheit werden. Mit jeder Frage gewinnt die Führungskraft Beurteilungskompetenz, welche Experimente der Nerds, Quants und Data-Scientists sich wie in die Datenstrategie des Unternehmens einfügen. Und welche nicht. 5. Zeitgemäße Führung hat das Prinzip Herrschaftswissen hinter sich gelassen und teilt Wissen und Selbstlernende Systeme Daten. Denn damit verhält sie sich wie die Inforkönnen nur entstehen, mationssysteme, mit denen sie arbeitet. Der Wert wenn alle Beteiligten das der Daten steigt mit jeder Verknüpfung. Wer nicht Prinzip der Reziprozität teilt, kann nicht verknüpfen. Beim Informationsleben. Oder anders forfluss im Unternehmen muss die Default-Einstelmuliert: Informationen lung immer sein: Offenheit. Selbstlernende Syste(auch in Form von Daten) me können nur entstehen, wenn alle Beteiligten sind der einzige Rohstoff, das Prinzip der Reziprozität leben. Oder anders dessen Wert bei Geformuliert: Informationen (auch in Form von Dabrauch steigt. ten) sind der einzige Rohstoff, dessen Wert bei Gebrauch steigt. Als strategische Spielbälle genutzt, sinkt ihr Wert.

Konfuzius sagt … Der Weg ist das Ziel. Es ist schade, dass Konfuzius-Zitate sich immer nach Glückskeks anhören. Was nichts daran ändert, dass es bei Smart Data genau darum geht und intelligentes Vortasten im Großen wie im Kleinen die richtige Managementhaltung ausmacht. Wenn wir das große Bild betrachten, sind die ersten Smart-Data-Projekte die ersten Schritte eines umfassenden digitalen Transformations­

200

4.1 Fehler akzeptieren – Die richtige Managementhaltung

prozesses, den die meisten etablierten Unternehmen in den meisten Branchen noch gehen müssen und werden. Bis heute war Analytikkompetenz ein Wettbewerbsvorteil. Je weiter die Digitalisierung voranschreitet, desto stärker wird die Fähigkeit, smart mit Daten umgehen zu können, zu einem Hygienefaktor. Unternehmen ohne analytische Kompetenzen werden in einer durch und durch digital vernetzten Welt vom Markt verschwinden.

Kein noch so großes Traditionsunternehmen der Welt wird mit allen Anstrengungen der Welt über Nacht die analytischen Kompetenzen von Google erlangen. Vergessen wir das. Das muss es aber auch gar nicht. So lange es seine wirklichen Stärken nutzt und mit Smart Data verbindet. Das Management muss sich dabei auf die konfuzianische Logik des intelligenten Vortastens einlassen und Freiräume schaffen, in denen sich smarte Teams mit Daten dichter an die Kunden heranarbeiten können. Denn andere Unternehmen werden dies in einer hyperkompetitiven Ökonomie ganz sicher tun. Wer sich jetzt nicht auf den Weg macht, wird bald keine Chance mehr haben loszulaufen. Beim Start müssen wir die Dinge nicht komplizierter machen, als sie sind. Es nützt wenig bis nichts, mithilfe von Innovationsberatern und Zukunftsforschern in Vorstands-Workshops eine abstrakte Vorstellung zu ersinnen, wie das eigene Geschäftsmodell in zehn oder fünfzehn Jahren aussehen könnte – durch Daten wird sie vom Kopf auf die Füße gestellt.

201

Teil IV – Erfolgsfaktoren

In den meisten Branchen ist relativ gut absehbar, wie Daten und Digitalisierung das eigene Geschäftsfeld in drei oder fünf Jahren in etwa verändern werden. Sie werden in der Regel getrieben von wenigen bekannten Trends in Technologie und Kundenverhalten. Diese Trends zu reflektieren, auf der Suche nach geeigneten Pfaden des Transformationswegs, ist eine Dauerübung von zeitgemäßem Management. Kleine, relativ konkrete Szenarien für das eigene Geschäft werden so geformt, etwa auf der gedanklichen Flughöhe von: drei Wege, wie Kunden künftig vorrangig Privatreisen buchen werden. Aus diesen Szenarien leiten sich Lösungen für das eigene Angebot, Vertriebsmodell und Handelsformat der Zukunft ab. Von hier aus führen fünf Schritte in Richtung eines selbstlernenden und sich immer wieder selbst kalibrierenden Systems: 1. Sich in die Kundenperspektive versetzen und die Frage stellen: Wie lässt sich die Kundenerfahrung verbessern? Und sich dann zu fragen, wie Daten dabei helfen können. 2. Vehikel (d. h. Geschäftsbereiche, Abteilungen, Teams und einzelne Mitarbeiter) identifizieren, die sich als Vorreiter für Veränderung datengetriebener Innovation eignen. Spielräume und Ressourcen eruieren, welche diese Vehikel in der Organisation haben bzw. wie sich diese Spielräume realistischerweise vergrößern lassen. 3. Anfangen! Mit Projekten, die den größten Nutzen versprechen. Bei datenbasierten Marketingprojekten sind das oft die 10 oder 20 Prozent der umsatzstärksten Kunden. Manchmal auch jene Kunden, bei denen die beste Datengrundlage vorhanden ist. 4. Lernen, Erkenntnisse teilen, Datenkompetenz ausweiten. 5. Das Wort »Pilotprojekt« besser vergessen. Es stammt aus der Zeit des ballistischen Denkens. An ein Pilotprojekt wird der Anspruch gestellt, einen »Proof of Concept« zu erbringen. Kommt dieser nicht, wird der Pilot eingestellt und man macht weiter wie bisher. Führende Unternehmen der digitalen Welt verstehen ihr ganzes Geschäft als selbstlernendes System. Natürlich machen auch sie kleine Tests mit Kontrollgruppen. Aber nicht ein oder zwei Tests als Spielwiese für Nerds neben dem »eigentlichen« Geschäft. Sondern die Summe der Tests ist das Geschäft. Oder zumindest ein Leuchtturmprojekt, an dem sich der Rest der Organisation orientieren kann.

202

4.1 Fehler akzeptieren – Die richtige Managementhaltung

Der große Daten-Spaß Zwei der Autoren dieses Buchs waren kürzlich eingeladen, bei einer ehrwürdigen Bildungsinstitution bundesrepublikanischer Prägung einen Big-Data- und Digitalisierungstag zu gestalten. Teilnehmer waren rund 40 Topmanager aus Konzernen und großen mittelständischen Unternehmen, die meisten waren Männer zwischen Mitte dreißig und fünfzig. Wir sollten einen Tag lang über die kleinen und großen ­Chancen der Datenrevolution diskutieren. Big Data versus Smart Data. Von der Prozessoptimierung bis zum großen Knall einer digitalen Geschäfts­ modellinnovation. »All things digital« eben. So sah zumindest der Plan aus. Zu den Chancen waren wir auch am späten Nachmittag kaum gekommen. Wann immer wir oder einer der geladenen Referenten im Plenum oder in Break-out-Workshops Methoden und Potenziale für mehr Analytik in Unternehmen präsentierten, übernahmen die Skeptiker im Raum das Wort. Ihre Ausführungen begannen oft mit dem Satz: »Wenn ich mal kurz den Advokaten des Teufels spielen darf …« Einige Manager teilten »unter uns« auch Anekdoten über gescheiterte Datenprojekte im eigenen Unternehmen, mitunter in fröhlichem Tonfall. Wer sich wie die Finger verbrannt hatte und dass sich dies in der Regel »gar nicht karrierefördernd« ausgewirkt habe. Die Datenschutzdiskussion am Ende der Veranstaltung war dann sehr lebhaft. Lebhaft im Sinne von: Es ist ja sehr schade, aber bei unserem Datenschutzrecht kann man sich ja eh nur in die Nesseln setzen. Zu Gast auf dem Big-Data-Tag war ein sehr renommierter Marketingprofessor einer US-Elitehochschule. Beim Glas Wein zum Ausklang schüttelte er im Kreis der Referenten nur fassungslos den Kopf und fragte: »Die haben einfach keine Lust auf Daten, oder?« Vielleicht lag der Professor mit seiner Einschätzung bei einem großen Teil der Teilnehmer richtig. In Einzelgesprächen am Abend gewannen wir aber zusätzlich den Eindruck: Es gab eine Reihe aufgeschlossener Topmanager in der Gruppe. Die Skeptiker hatten an dem Tag aber die Wortführerschaft übernommen. Von den grundsätzlich Neugierigen, meist ohne ausgewiesene Datenexpertise, wollte sich niemand zu weit aus dem Fenster lehnen. Sie wollten auch in der Diskussion keinen Fehler machen.

203

Teil IV – Erfolgsfaktoren

Fehler werden in unserer Managementkultur leider immer noch oft bestraft. Keine Fehler zu machen wird incentiviert. Oder zumindest denken das die meisten. Es gab in den Diskussionen allerdings auch Ausnahmen; etwa eine der wenigen Frauen, in Diensten eines großen Maschinenbauunternehmens mit großen Ambitionen im Bereich Industrie 4.0. Die Managerin berichtete mit leuchtenden Augen, wie viel Spaß Analytik macht, wenn die selbstlernenden Effekte erst einmal eintreten. Wenn gelernte Analytik im Unternehmen zum Standard wird und man auf der Suche nach weiteren datengetriebenen Wettbe»Wenn alle merken, dass werbsvorteilen gar nicht mehr merkt, wie viel AnalyAnalytik richtig Spaß tik schon im Hintergrund erfolgreich läuft – also Anamacht, folgt alles andere lytik zum gelernten Standard geworden ist. Wie sich von alleine. Dann gibt es der Nutzen von wirklich effektiven Analytik-Tools plötzlich die Freiräume, abteilungsübergreifend herumsprechen kann und die wir brauchen.« Kollegen aktiv darum bitten, das System auf ihren Bereich auszuweiten bzw. an diesen anzupassen. Die Frau fasste ihre Erfahrungen zusammen: »Wenn alle merken, dass Analytik richtig Spaß macht, folgt alles andere von alleine. Dann gibt es plötzlich die Freiräume, die wir brauchen.« Das ist auch unser Eindruck. Datenprojekte können einen Riesenspaß machen. Wenn die Haltung stimmt, setzt die Logik des Gelingens ein.

204

4.2 Flexibler organisieren – Die richtigen Strukturen, Prozesse und Technologien Squadification? Squadification ist das neue Zauberwort der Organisationsberater. Und Spotify ist ihr neuer Posterboy. Der Musik-Streaming-Dienst hat in der Tat mit beeindruckender Konsequenz agile Programmiermethoden wie Scrum, Lean-Management-Ansätze wie Kanban und unternehmens­ demokratische Elemente von Selbstorganisation in eine organisationale Struktur überführt. Die rund 1400 technischen Mitarbeiter von Spotify verteilen sich auf Dutzende Squads. Jedes Squad-Team ist für einen Teil des Gesamtprodukts voll verantwortlich und kann selbstständig neue Features in das Produkt einführen. Die Teams sind interdisziplinär besetzt, größtmögliche Handlungsfreiheit der Squads ist oberstes Organisationsprinzip. Die Arbeit in einer Squad soll sich anfühlen wie in einem Mini-Startup. Es gibt keinen klassischen Chef in der Squad, aber einen Product-­ Owner, der Themen vorgibt. Ein Agile Coach achtet darauf, dass Regeln im Team eingehalten werden. Jedes Teammitglied kann Entscheidungen herbeiführen, es muss nur die Squad-Kollegen von seiner Idee überzeugen. Squads, die im gleichen Bereich arbeiten, wie z. B. »Music Player« und »Backend Infrastructure«, gehören demselben Tribe an. So ein Tribe darf gemäß Dunbars Zahl insgesamt nicht mehr als 150 Stammesangehörige haben, denn sonst wird es auf Tribe-Ebene zu unübersichtlich. Die Squads eines Tribes treffen sich regelmäßig, um Informationen auszutauschen und Entscheidungen zu treffen, die den ganzen Tribe angehen. Zehn Prozent der Arbeitszeit werden in squadübergreifende Projekte investiert, die sogenannten Hacks.

205

Teil IV – Erfolgsfaktoren

Spezialisten aus den Squads treffen sich zudem regelmäßig zu Themen und Aufgabenstellungen, bei denen ein gewisses Maß an Einheitlichkeit im Unternehmen und im Produkt herrschen muss, z. B. für Testing. Diese Spezialisten gehören dann zusätzlich einem squadübergreifenden Chapter an. Eine Ebene darüber gibt es tribeübergreifende Guilds, um Wissen über alle Unternehmensteile zu verteilen. Oberste Koordinatoren sind ein sogenannter System Owner und ein Chief Architect. Größere Änderungen im System müssen die Squads mit ihnen abstimmen. Das Spannende daran: Die Koordinatoren mit Chef-Titel haben weitgehend beratende Funktion. Die Entscheidungen treffen die Squads, denn sie müssen für Erfolg und Misserfolg am Ende auch geradestehen. Der Erfolg scheint dem System Recht zu geben. Das schwedische Start­ up hat einen Produktkomfort geschaffen, für den mehr als 10 Millionen Kunden weltweit bereit sind, rund 10 Euro im Monat zu zahlen. Die digitale Nutzererfahrung wird dabei in einer Geschwindigkeit besser, bei der auch die agile Startup-Konkurrenz nur staunend zuschauen kann. Viele digitale Startups aus anderen Feldern imitieren oder adaptieren gerade das Modell. Wir haben große Sympathien für Ansätze dieser Art: als Quellen für die Geschäftsinnovation, in jedem Fall aber für die gedankliche Inspiration. Wir alle wissen: In den meisten großen Organisationen wird es das so auf absehbare Zeit nicht geben. Eine Kultur der radikalen Selbstorganisation würde bei Siemens, Volkswagen und Deutsche Bank auch nicht funktionieren. Wir alle wissen aber auch: In den meisten Konzernen sind die organisationalen Spielräume für kreative Köpfe heute noch zu eng, die Prozesse sind zu starr vorgegeben und die bürokratischen Apparate zu stark. Unter dem Strich sind viele Organisationen dadurch zu stark nach innen gerichtet. Der Kunde wird im Schubfach Marktforschung abgelegt. Die Vertreter der Big-Data-Fraktion haben in diesem Zusammenhang in den letzten Jahren in unserer Wahrnehmung eine durchaus ambivalente Rolle gespielt. Oft haben sie den Eindruck erweckt, Strukturen und Prozesse im Unternehmen könnten bleiben, wie sie sind. Denn jetzt haben wir ja eine technische Wunderwaffe, die uns sagt, was wir tun müssen. Frei nach dem Motto: Wir kaufen Technologie ein, füttern Daten in die große Analytikmaschine ein, mit den Ergebnissen optimieren wir dann

206

4.2 Flexibler organisieren

in den gewohnten Strukturen und Prozessen Produkte, P ­roduktion, ­Logistik, Marketing, Vertrieb und Kundenservice. Und tun als nettes Gedankenspiel ab, wie die Welt ohne Hierarchien aussähe. Big Data ohne organisationale Veränderung und gutes ChangeManagement ist aber ein leeres Versprechen. Vielleicht ist es noch schlimmer: Es ist ein Grund dafür, warum in den letzten Jahren so viele Projekte unter Big-Data-Label glorreich an die Wand gefahren wurden und am Ende alle enttäuscht waren, dass die große Datenmaschine den Stein der Weisen doch nicht gefunden hat. Der smarte Weg führt durch die Mitte.

Der smarte Mittelweg Smart Data akzeptiert, dass ein großes Unternehmen Strukturen und Prozesse braucht und es weder realis­ tisch noch wünschenswert ist, diese über Nacht abzuschaffen. Gleichzeitig ist es die Aufgabe eines Topmanagements, das analytische Fähigkeiten in seinem Unternehmen stärken möchte, ausreichend Freiräume für Datenprojekte zu schaffen. Das bedeutet in der Praxis: Strukturen und Prozesse müssen zunächst für Leuchtturmprojekte flexibilisiert werden. Ein Leuchtturm ohne Strom und Scheinwerfer kann nicht leuchten. Die Projekte brauchen die nötigen Ressourcen, sonst sind sie von vornherein zum Scheitern verurteilt.

Strukturen und ­Prozesse müssen zunächst für Leuchtturmprojekte flexibilisiert werden. Ein Leuchtturm ohne Strom und Scheinwerfer kann nicht leuchten. Die Projekte brauchen die nötigen Ressourcen, sonst sind sie von vornherein zum Scheitern verurteilt.

Die Notwendigkeit von Topmanagement-Überzeugung und -Aufmerksamkeit können wir an dieser Stelle nicht stark genug betonen. Oft ist auch gerade das Topmanagement durchaus bereit, neue Wege zu initiieren. Allein, es fehlt dann oft an der Konsequenz. Wir haben zu viele Projekte erlebt, bei denen ein Vorstand Datenprojekte initiiert hat in der Erwartung, dass irgendwann der Projektleiter mit positiven Ergebnissen wieder auf ihn zukommen würde. Der Projektleiter reibt sich dann auf mit:

207

Teil IV – Erfolgsfaktoren ➤➤

➤➤

➤➤

einer chronisch unterbesetzten Marketingabteilung, die froh ist, wenn sie ihre Standardaufgaben in den Standardprozessen gerade so erledigt bekommt, einem Außendienst, der hauptsächlich aus »Unternehmern im Unternehmen« besteht, die auf alles allergisch reagieren, was sich irgendwie nach zentraler Steuerung anhören könnte, einer unflexiblen IT-Abteilung, die ein veraltetes CRM-System verwaltet, das so gut wie keine Messungen zulässt.

Diese Frustrationserfahrung hätte sich der fachlich kompetente und engagierte Projektleiter sicher gerne erspart. Aber am Ende stand immerhin ein Erkenntnisgewinn: Dem Management wurde klar, wie stark die unterschiedlichen Stakeholder im Unternehmen in einer Kostenstellenlogik gefangen waren, dass sie kein gemeinsames Ziel verfolgten und dass der Kunde im Unternehmen eine periphere Größe darstellte. Der nächste Versuch gelang besser. Und zwar mit folgender Vorgehensweise smarter Unternehmen.

208

4.2 Flexibler organisieren

Vier Schritte in Richtung digitale Transformation Schritt 1: Smart-Data-Zyklus einführen, Change-Management beginnt Der Vorstand bzw. die Geschäftsführung eines Unternehmens muss eine klare Haltung entwickeln: Wir sind der Überzeugung, dass wir mit Datenanalytik unser Geschäft verbessern können. Vorstand und Geschäftsführung wissen, dass Analytikprojekte keine Selbstläufer sind. Sie stellen ein abteilungsübergreifendes und gemischtes Team zusammen und sorgen dafür, dass es über Zeit und Mittel verfügt, den Smart-Data-­ Zyklus aus Teil II zu durchlaufen und ein erstes Maßnahmenbündel für datengetriebenes Marketing zu erarbeiten. Mindestens ein Mitglied des TopmanageDas Change-Management ments sollte Teil des Teams sein. Vielleicht sollten wir muss alle Stakeholder, statt »sollte« lieber »muss« schreiben! vor allem die skeptischen, im Unternehmen frühAllen im Smart-Data-Team ist klar, dass gutes Changezeitig einbinden – nicht Management darüber entscheiden wird, ob die entnur informieren – und für scheidenden Spieler im Unternehmen die ersten jene positive GrundeinSchritte in Richtung einer digitalen Transformation stellung sorgen, die expeüberhaupt mitgehen. Es gibt Unternehmen, die inrimentelle Vorgehensweisen brauchen. tern über ausreichend Change-Management-Kompetenz verfügen. Oft ist an dieser Stelle Unterstützung von außen sinnvoll (siehe folgendes Kapitel), um der Umsetzung des ersten Maßnahmenbündels den Boden zu bereiten. Im Klartext: Das Change-Management muss alle Stakeholder, vor allem die skeptischen, im Unternehmen frühzeitig einbinden – nicht nur informieren – und für jene positive Grundeinstellung sorgen, die experimentelle Vorgehensweisen brauchen.

209

Teil IV – Erfolgsfaktoren

Schritt 2: Incentivierungssysteme ändern, kundenorientierte Ziele setzen Der Smart-Data-Weg ist der Weg hin zu einer kundenzentrierten Organisation. Wir werden auf diesem Weg nur vorankommen, wenn der Kunde auch in den Mittelpunkt der Vergütungs- und Bonussysteme rückt. Träumen wir kurz: In einer besseren Marketing- und Vertriebswelt gäbe es selbst im Vertrieb gar keine Provisionen und Boni, sondern ausschließlich eine feste Vergütung. Ein Vertreter berät einen Kunden so ehrlich und gut er kann, weil er weiß, dass dies den Kundenwert in langfristiger Perspektive erhöht und er damit auch langfristig vom Unternehmenserfolg profitiert. Machen wir die Augen wieder auf und sagen: Die Vergütungssysteme können sich wenigstens an der Steigerung des langfristigen Kundenwerts orientieren und nicht wie üblich am kurzfristigen Umsatz. Ein Vertriebsmitarbeiter, der den Share-of-Wallet eines Kunden erhöht oder ihn in die Welt der After-Sales-Angebote mitnimmt, bekommt seinen Bonus. Wer weiterhin Standardware und Verbrauchsgüter bei Bestandskunden verkauft – oder sollten wir besser sagen, verteilt? – wie immer, darf leider mit keiner zusätzlichen Belohnung rechnen.

Bis das selbstlernende System seinen Mehrwert wirklich erkennbar liefert, muss es viele menschliche Hürden überspringen.

Oder anders formuliert: Ergebnisse werden gemessen und in Relation zu Do-nothing-Szenarien gesetzt. Denn das entspricht der inneren Logik der datenbasierten Unternehmensführung.

Grundsätzlich gilt also: Die Incentivierung muss so gestaltet sein, dass der Einsatz von Analytik durchgängig gefördert wird. An der Stelle ist folgender Einwand natürlich berechtigt: Warum ist das überhaupt nötig? Wenn Kundenanalytik tatsächlich den Mehrwert bringt, den sie verspricht – werden Vertriebsmitarbeiter das merken und das System auch nutzen! Theoretisch ist das richtig, und das haben wir auch lange so erwartet. Viele Smart-Data-Projekte später wissen wir: Bis das selbstlernende System seinen Mehrwert wirklich erkennbar liefert, muss es viele menschliche Hürden überspringen. Wie beschrieben, bedeutet der Smart-Data-Prozess, regelmäßig bewusst Neues zu versu-

212

4.2 Flexibler organisieren

chen, das erst nach der dritten Verbesserung besser als das Bestehende wird. Auf maschinelle Unterstützung zu setzen bedeutet, sich selbst zu hinterfragen. Es bedeutet auch, dass Einzelne im Unternehmen ein gewisses Maß an Entscheidungsfreiheit an die Maschine abgeben müssen. Der emotionale Widerstand dagegen ist in die menschliche Genetik einprogrammiert und lässt sich nur mit guter, offener Kommunikation überwinden. Der emotionale Widerstand gegen Analytik hat im Umkehrschluss allerdings die Macht, auch die erfolgversprechendsten Datenprojekte scheitern zu lassen, bevor die selbstverstärkenden Mehrwerteffekte einsetzen können. An dieser Stelle erlauben wir uns auch einen etwas rabiateren Hinweis: Manchmal gibt es Blockierer, offene und heimliche, die genau dieses Spiel spielen. Vielleicht ist es für beide Seiten besser, beruflich getrennte Wege zu gehen.

Schritt 3: Ressourcen smart allozieren, Mitarbeiter befähigen Wir haben zu Anfang dieses Kapitels gesagt: Squadification ist keine ­realistische Option in den allermeisten großen Unternehmen. Das stimmt nicht ganz bzw. nur in voller Konsequenz gedacht. Natürlich ist es möglich, Teams quer zu den im Unternehmen aktuell üblichen Strukturen zu installieren. Ressourcen smart allozieren heißt in Smart-Data-Unternehmen im ersten Schritt, Inseln für Experimente aufzuschütten. Auf diesen Inseln sitzen gemischte Teams aus Leuten, die dort sein wollen. Die Lust haben, mit Unterstützung des Datenwissenschaftlers auf der Insel neue analytische Fähigkeiten zu erwerben. Das sind Kollegen aller Altersstufen, die wissen wollen, wie man Kontrollgruppentests eigenständig konzipiert und wie man »Predictive Modeling« – oder »Prescriptive« als nächste Stufe? – in ihrem Bereich eigentlich sinnvoll angehen muss. Diese Leute brauchen Fortbildungen – und Freiräume. In US-Unternehmen heißen diese Freiräume oft »Sandboxes«, Sandkästen, in denen Marketingaktivitäten mit vollem Zugriff auf alle Datenbanken ausprobiert werden können. Im Idealfall können diese Inselteams auch größere Marketinglösungen erdenken und einführen, ohne dass sie dafür irgendjemanden fragen müssen, sofern sie der Gesamtlogik des Unternehmens nicht widersprechen. So wie Squads bei Spotify eben.

213

Teil IV – Erfolgsfaktoren

Auch an dieser Stelle hören wir immer wieder einen berechtigten Einwand: Genauso haben wir das gemacht und herausgekommen ist ein Zoo an Marketinganwendungen, die in keiner Form miteinander in Verbindung stehen und von denen wir nicht wissen, was sie bringen und ob sie nicht sogar kannibalisierende Effekte erzeugen. Das ist in der Tat eine reale Gefahr – wenn ein gemeinsames Zielbild fehlt. Damit ist gemeint: Alle Dateninitiativen müssen mit vergleichbaren Wirkungsmetriken arbeiten, das gleiche Verständnis bezüglich der Kundenkontaktpunkte haben und auf die gleichen Segmentierungen zurückgreifen. Das sind die Leitplanken, die jeder kreative Prozess braucht. Nur wer sich im Vorfeld auf Erfolgsstandards entlang einer bestimmten analytischen Denklogik einigt, stellt die Vergleichbarkeit und Komplementarität von Aktivitäten her. Beides brauchen analytische Wettbewerber zwingend, um Projekte später smart priorisieren zu können. Getreu dem smarten Prinzip: Wir haben 100 Maßnahmen ausprobiert. Davon waren 8 gemäß der definierten Kriterien nachweislich sehr erfolgreich, 12 ziemlich erfolgreich, die restlichen 80 Alle Dateninitiativen verfolgen wir nicht weiter, schalten sie ab und setzen müssen mit vergleichbadie nächste Versuchsrunde auf. ren Wirkungsmetriken arbeiten, das gleiche VerZusammengefasst heißt das: Jeder Smart-Data-Proständnis bezüglich der zess ist auch ein Balanceakt. Mitarbeiter müssen beKundenkontaktpunkte fähigt werden, smart mit Daten zu experimentieren. haben und auf die gleiDie Leitplanken stellen sicher, dass die Experimente chen Segmentierungen in einem gemeinsamen Rahmen auf die gleichen Ziezurückgreifen. le einzahlen und Lernerfahrungen von einer Maßnahme auf die nächste übertragen werden können.

Schritt 4: Technologie smart einführen Wenn Sie künftig die Pottwale im weiten Datenmeer fangen wollen, dann brauchen Sie: Zugang zu einem großen Hadoop-Cluster. HPCC und Quantcast File Systems sind Plattformen, die Ihnen die Analyse von Exabytes an Daten ermöglichen. Bei Open-Source-basierten Lösungen steigt freilich der Bedarf an MapReduce-kundigen Programmierern. Die sollten auch R, Python, Hive und Pig beherrschen. Cloudera und Hortonworks wären kommerzielle Alternativen, die in diesem Zusammenhang ggf. die Programmierarbeit bei der Konfiguration des Systems reduzieren. Aber für größere Realtime-Anwendungen empfehlen wir ohnehin,

214

4.2 Flexibler organisieren

direkt auf In-Memory-Lösungen zu gehen, z. B. Hana-basierte von SAP. Die gehören mit ihrer extrem leistungsfähigen Multicore-Architektur zu den schnellsten. Sehr wichtig ist zudem, den Anteil von MachineLearning-Elementen in ihrem Analytik-Framework systematisch zu erhöhen. Gleiches gilt für Visual Analytics und Natural Language Processing (NLP), sonst werden Sie bei der Social-Media-Analyse nicht weit kommen. Sollte es Probleme mit der Komplexität im System und der Datendurchgängigkeit geben, ist MIKE2.0 die Lösung. Die Kosten für alles sind übrigens überschaubar, besonders wenn Sie auf Cloud-Angebote zurückgreifen. Denn dann gilt ja: Pay by the drink! Stopp! Das war ein Witz! Wenn Sie nur die Hälfte oder einen noch kleineren Teil des letzten Absatzes verstanden haben, können Sie jetzt aufatmen. Damit wir uns nicht missverstehen: Analytik ohne Technologie ist wie Schwimmen ohne Wasser. Alle genannten Big-Data-Technologien haben natürlich ihren Wert. Im richtigen Zusammenhang richtig eingesetzt machen sie Dinge möglich, die noch vor zehn Jahren als Marketing-Science-Fiction durchgegangen wären. Das Problem an diesen Technologien ist jedoch: Wenn Daten-Nerds ohne Bezug zum Rest der Organisation sie einfordern und zu implementieren versuchen, kommt mit hoher Wahrscheinlichkeit Ähnliches heraus, wie wenn Berliner und Brandenburger mit internationalen Star-Architekten zusammen einen neuen Flughafen bauen. Welches ist die richtige Technologie für Smart-Data-Champions? Die Frage lässt sich nicht mit Namen einzelner Anwendungstechnologien, Programmiermethoden oder IT-Produkte beantworten. Sondern nur mit der richtigen Vorgehensweise, welche die Chance erhöht, dass Informationstechnologie tatsächlich den gewünschten Nutzen bringt und sich das Risiko für Fehlinvestitionen deutlich verringert.

So geht es nicht Ein Unternehmen hat bereits eine komplexe IT-Landschaft. Alle haben das Gefühl, dass Wettbewerber in letzter Zeit an Analytikkompetenz hinzugewonnen haben und man möglichst rasch nachziehen muss. Der Chief Marketing Officer (CMO) ist dabei eine treibende Kraft, denn er

215

Teil IV – Erfolgsfaktoren

kennt den potenziellen Wert von Kundendaten. Das Topmanagement hat sich nie intensiv mit lästigen IT-Fragen befasst und fragt den CTO oder Leiter der IT-Abteilung, wie das Unternehmen denn schnell ins BigData-Zeitalter katapultiert werden könnte. Der antwortet in der Regel: Wir müssen zunächst unsere IT-Landschaft mal gründlich konsolidieren und dann um die neuesten Big-Data-Anwendungen erweitern, was dank Cloud-Optionen viel einfacher und günstiger ist als früher. CMO und CTO überzeugen dann den Finanzvorstand, die nötigen Budgets freizuschaufeln. Sobald dies gelungen ist, zieht der engagierte CTO das Projekt an sich und der CMO ist ganz froh darüber, sich mit Zielgruppen statt mit technologischen Buzzwords beschäftigen zu können. Im Kopf des CTO entsteht ab sofort die ideale Big-Data-Infrastruktur, die alles kann, was technisch möglich ist, und die vorhandene Infrastruktur zudem ideal ergänzt. Aus diesem Idealbild leitet das Team des CTO dann lange Lasten- und Pflichtenhefte mit allen Anforderungen ab, was das System künftig können soll. Wenn alles sauber aufgelistet ist und schlüssig scheint, wird losprogrammiert. Dann Technologie ist zu wichwerden die Kunden gefragt, ob sie der weitgehend tig, um sie nur Technouneingeschränkten Nutzung ihrer Daten zustimmen, logen zu überlassen. ohne zu wissen, wofür. Irgendwann, vermutlich erTechnologen denken in heblich später als der Plan vorsieht, werden eine Reitechnischen Lösungen. he von Tools für Marketing und Vertrieb freigeschalDas Problem ist aber in tet und es beginnen die ersten Schulungen. Marketer den seltensten Fällen die und Sales-Leute stellen dann oft fest, dass die neuen Technologie. Werkzeuge eigentlich gar nicht so recht zu der Problemstellung passen, die sie umtreibt. Das hört sich nach einer Karikatur an? Gegenfrage: Wie viele größere ITProjekte kennen Sie, die pünktlich im anvisierten Budget fertiggestellt wurden und den versprochenen Nutzen brachten? Die meisten Studien dazu landen irgendwo zwischen 10 und 30 Prozent.

So geht es Technologie ist zu wichtig, um sie nur Technologen zu überlassen. Technologen denken in technischen Lösungen. Das Problem ist aber in den seltensten Fällen die Technologie.

216

4.2 Flexibler organisieren

Zur Erinnerung an den Smart-Data-Zyklus: Die Aufgabenstellungen für Marketing und Vertrieb haben sich nicht geändert. Wir verfügen auch weiterhin über fünf Hebel, um den Kundenwert zu erhöhen: neue Kunden gewinnen, Share-of-Wallet steigern, langfristige Kundenbindung, Weiterempfehlungen, Erhöhung der Marketing- und Vertriebseffizienz. Daten und Analytik helfen uns nur, diese Hebel besser zu bedienen. Genau das muss auch die Haltung sein, wenn ein Unternehmen smart in neue Informationstechnologie investiert. Es gelten dabei folgende ebenfalls fünf Grundregeln: ➤➤

➤➤

➤➤

➤➤

Über allem steht die Frage: Welches Business-Problem wollen wir lösen? Erst wenn diese Frage klar beantwortet ist und die späteren Nutzer (also Marketer und Vertriebsmitarbeiter) die Anforderungen an das technisches System klar formulieren können, macht es überhaupt Sinn, über Technologie nachzudenken. Management, IT-Experten und Marketing & Sales müssen gemeinsam nach der geeigneten technischen Lösung für das BusinessProblem suchen. Management, Marketers und Sales müssen dazu genug technische Expertise entwickeln, um die richtigen Fragen zu Funktion und Mehrwert der Technologie stellen zu können. Die Technologen müssen lernen, sich so auszudrücken, dass IT-kompetente CMOs sie verstehen. Die Suche nach einer idealen IT-Landschaft führt in die Irre. Es gibt sie nicht. Auch nicht in Zeiten von Big Data – bzw. gerade nicht in einer Epoche explodierender technischer Möglichkeiten mit geringem technologischen Reifegrad. Wie beim Aktienkauf gilt: Wenn man die Technologie nicht wirklich versteht, sollte man besser die Finger davon lassen. Anbieter von technischen Lösungen müssen nachweisen können, dass und wie die Anwendung für das beschriebene Business-Problem/die beschriebene Anforderung anderen Kunden bereits konkret geholfen hat. Oder direkt formuliert: Es wird keine Lösung eingekauft, die das nicht nachweisen kann! Denn Smart-Data-Champions sind keine Beta-Tester an der Vorfront des technologischen Fortschritts. Sie sind auch technisch smarte Verfolger.

217

Teil IV – Erfolgsfaktoren ➤➤

Auch im Zeitalter von billigem Speicher, Cloud-Computing und der wachsenden Fähigkeit, aus unstrukturierten Daten Erkenntnisse zu ziehen, stellen sich bei jeder Einführung einer neuen IT-Anwendung nach wie vor drei Fragen: • Kann die neue Anwendung mit den Datenquellen der laufenden Systeme (insbesondere der Entreprise Data Warehouses) kommunizieren? • Muss sie es? • Und falls nicht, woher bezieht sie ihre Daten? Diese drei Fragen taugen weiter als Grobraster, ob eine Anwendung überhaupt ihren versprochenen Mehrwert im eingesetzten Kontext erbringen kann.

Lasst uns scrummen! Analytiktechnologie smart einzuführen bedeutet, sich der iterativen Entwicklungslogik agiler Programmiermethoden anzunähern. Die bekannteste dieser Methoden heißt Scrum. Wenn ein Projektleiter den Satz »Lasst uns scrummen« sagt, meint er damit: Lasst uns die großen Lasten- und Pflichtenhefte in den digitalen Mülleimer ziehen. Der große IT-Plan funktioniert sowieso nicht mehr, weil sich die Anforderungen der Nutzer viel zu schnell ändern. Die iterative Annäherung an den Nutzer in kleinen, schnell programmierbaren Anwendungen ist der bessere Weg. Diese kleinen Anwendungen müssen nicht alles können, sondern nur das Wesentliche. Und sie müssen schnell verfügbar sein. Wenn sie gut funktionieren, lohnt es sich, sie zu verbessern und ihren Funktionsumfang auszuweiten. Wenn nicht, steht immerhin keine gigantische Investitionsruine im IT-Keller. Auch uns ist klar, dass dieses Bild sich nicht zu hundert Prozent auf komplexe IT-Landschaften großer Unternehmen übertragen lässt. Aber die Kernidee von agilen Programmiermethoden taugt zum Leitbild für Investitionsentscheidungen von Smart-Data-Unternehmen. Sie versuchen nicht, das große IT-Rad zu drehen. Sie nähern sich an. Dabei priorisieren sie auch hier nach der Pareto-Regel: Welche Anwendung verspricht den größten Mehrwert? Scrum it!

218

4.3 Smart rekrutieren und weiterbilden– Die richtigen Mitarbeiter Die gute Nachricht vorweg: Wir brauchen nicht viele neue Mitarbeiter mit ganz anderen Fähigkeiten, um die Nutzung von Kundendaten in den meisten Unternehmen auf eine neue, smarte Stufe zu heben. Es reicht aus, die richtigen Leute im Unternehmen zu identifizieren, die den Smart-Data-Zyklus beginnen, vorantreiben, ausbauen und steuern. Alles andere wäre Wir brauchen nicht viele auch nicht smart, denn welcher Veränderungsprozess neue Mitarbeiter mit ganz ist schon erfolgreich, der mit der Forderung startet: anderen Fähigkeiten, um »Ich brauche 100 neue Data-Scientists und quantitatidie Nutzung von Kundenve Analysten.« Wie gesagt: Die brauchen wir auch daten in den meisten Unnicht. Wir brauchen eine interne Vorhut mit der richternehmen auf eine neue, tigen inneren Haltung, die wir unter Umständen mit smarte Stufe zu heben. einigen externen Ressourcen unterstützen müssen.

219

Teil IV – Erfolgsfaktoren

Schauen wir durch die Brille eines Personalentwicklers auf den Zyklus. Welche Fähigkeiten brauchen wir an welchen Schlüsselpositionen?

Der Stratege Da wäre zunächst eine Strategin oder ein Stratege, die bzw. der die Frage im Blick behält: Welches Business-Problem wollen wir mit Daten (besser) lösen? Der Stratege organisiert und moderiert alle wichtigen Workshops, die sich mit den Zielen, Potenzialen und notwendigen grundsätzlichen Veränderungen bei der Umsetzung entlang des SmartData-Zyklus beschäftigen. Er muss eine Vision haben, aber auch die konkreten Schritte dahin im Blick behalten. Man könnte ihn auch den Dirigenten des Smart-Data-Prozesses nennen. Gut geeignet für die Rolle sind natürlich Vorstände oder Geschäftsführer – allerdings nur, wenn sie oder er die Fähigkeit besitzt, inhaltlich nicht dominant aufzutreten. Der Stratege kann aber natürlich auch aus einer klassischen Strategieabteilung kommen oder ein analytischer Bereichsleiter sein und die Transformation in enger Abstimmung mit der ersten Führungsebene koordinieren. Wir haben auch schon ein Toptalent aus dem Führungskräftenachwuchs eines Konzerns erlebt, das diese Schlüsselfunktion als große Chance für sich erkannt und hervorragend ausgefüllt hat und schließlich zur jungen, optimistischen und zugleich durchsetzungsstarken Integrationsfigur des Projekts wurde. Der Stratege muss drei Kernkompetenzen in seiner Person vereinen: ➤➤ ➤➤ ➤➤

Er muss die heutigen und künftigen Erfolgsfaktoren im Markt für das eigene Geschäftsmodell hervorragend kennen. Er muss die Schrittfolge und Logik des Smart-Data-Ansatzes ver­ innerlicht haben. Er muss verstanden haben, dass Ergebnisoffenheit und Ergebnis­ orientierung keine Widersprüche sind, sondern der Kern explorativen Fortschritts bei Datenthemen.

Kurzum: Der Stratege muss ein Manager mit modernem Führungsverständnis sein, der die Chancen und Techniken datenbasierter Annähe-

220

4.3 Smart rekrutieren und weiterbilden

rung an den Kunden kennt und zugleich weiß, dass seine eigenen Ideen nicht deshalb die besten sind, weil er der Chef ist.

Der Datenwissenschaftler Ab Schritt 2 im Smart-Data-Zyklus brauchen wir Kollegen, die sich mit Daten gut auskennen. Die sind bekanntlich rar und teuer auf dem Arbeitsmarkt, besonders wenn sie zu den sogenannten Datenwissenschaftlern zählen. Data-Scientist sei der sexyeste Job des 21. Jahrhunderts, proklamierte Thomas H. Davenport vor gut zwei Jahren in der Harvard Business Review. Der gleichnamige Artikel beschreibt DataScientists als »a new bread«, die nicht nur über herausragende analytische und statistische Fähigkeiten verfügen, sondern auch noch über ein hohes Verständnis von Business-Prozessen und Geschäftsmodellen. Dank dieser doppelten Kompetenz sprechen und verstehen sie sowohl die Sprache von IT-Entscheidern als auch jene des Topmanagements ohne IT-Hintergrund, was sie zu wertvollen Pendeldiplomaten macht. Bei IBM gehört zur Datenwissenschaftler-Definition, dass diese auf große Datensätze schauen können und Trends sehen, wo andere nur verwirrt sind. Am Rande der Überhöhung scheint uns die in einschlägigen Blogs immer wiederkehrende Formulierung »zur Hälfte Analyst, zur Hälfte Künstler«. Wir wünschen jedem datengetriebenen Unternehmen so viele neue und im Idealfall sogar bezahlbare Data-Scientists wie möglich. Vielleicht muss man sie nicht zu den Superhelden der Datenrevolution erklären. Aber natürlich sind auf jeder Etappe der digitalen Transformation Leute mit Daten- und Business-Hintergrund extrem hilfreich. Doch wir wissen aus vielen Smart-Data-Projekten auch: Manchmal gibt es auch nicht den Datenguru. Man muss die Talente entwickeln und kombinieren, z. B. aus IT und strategischem Marketing, die dann in geeigneten Teams gemeinsam die Daten knacken. In den IT- und CRM-Abteilungen finden sich fast immer Informatiker, die sowohl ein Faible für Statistik und Mathematik haben als auch für das Geschäftliche. Diese »Old-Bread«-ITKollegen sind froh, wenn man sie aus eintönigen Programmierroutinen herausholt und – ggf. mit ein wenig Business-Analytik-Fortbildung – endlich mal explorativ an die Daten heranlässt. Die in diesen Projekten endlich Dinge ausprobieren dürfen, von denen sie in ihren favorisierten

221

Teil IV – Erfolgsfaktoren

Big-Data-Blogs und Fachforen immer lesen. Wir haben immer wieder erlebt, dass genau dieser Typus neugieriger IT-Kollegen zur treibenden Kraft wurde, der dann im Flow der neuen Aufgabe auch gerne mal die Zeit vergaß. Wo die internen oder neu rekrutierten Datenkompetenzen nicht ausreichen, können natürlich für spezielle Aufgaben auch externe Datendienstleister hinzugezogen werden. Wichtig ist bei der Nutzung von externen Dienstleistern (meist werden es spezialisierte Beratungen sein), dass diese von Anfang an eine Transformationsaufgabe bekommen, deren Ergebnis am Ende nicht in einem Satz Powerpoint-Folien besteht. Sie müssen dabei unterstützen, eine Organisation nach dem Prinzip »Build Operate Transfer (BOT)« aufzubauen. Das ist oft nicht ganz billig. Aber wenn die internen Ressourcen diese Aufgaben nicht durchführen können, wäre hier an der falschen Stelle gespart. Wer die datentechnischen Hausaufgaben nicht sauber löst, wird bei der Umsetzung der Maßnahmen naturgemäß ebenfalls scheitern. Arbeitsteilung ist in so einem Fall der richtige Weg. Die Haus-IT sondiert und liefert Daten an die externe Analytik. Diese übernimmt erste Schritte im Smart-Data-Zyklus, putzt die Daten nach »Best-in-Class«-Standards, führt mithilfe einer ersten Projektinfrastruktur eine Segmentierung auf Transaktionsdaten durch und erarbeitet die ersten Kampagnenalgorithmen. Idealerweise transferieren externe Dienstleister dabei nicht nur statistische Ergebnisse, sondern in der Zusammenarbeit bei der Vor- und Nachbereitung auch noch Wissen an die internen Kollegen. Nachdem die Daten von den externen Experten zurückgegeben wurden, erfolgt das Handling der Daten im Regelbetrieb durch Interne; üblicherweise aus dem IT- und/oder CRM-Bereich. Darauf aufbauend werden die Marketingmaßnahmen durchgeführt und fortlaufend optimiert. Wichtig ist, dass man auch im Regelbetrieb ausreichend interne oder externe Datenexpertise bereithält, um die Algorithmen und Aktivitäten laufend weiterzuentwickeln. Die eigentliche Entwicklung und Umsetzung datenbasierter Anwendungen und Maßnahmen bleibt, wie in Teil 3 III beschrieben, im Kern die Aufgabe von Marketing und Vertrieb. Zur Erinnerung: Bei Schritt 4 im Smart-Data-Zyklus arbeiten wir basierend auf den Erkenntnissen der Datenanalyse/Segmentierung die Alleinstellungsmerkmale des eigenen

222

4.3 Smart rekrutieren und weiterbilden

Angebots heraus und überlegen, wie wir dieses (noch) besser an die Bedürfnisse der Kunden anpassen können. Bei diesem Schritt sind zunächst die eigenen Marketer gefordert, natürlich unterstützt vom Strategen, vonden Daten-/CRM-Experten und von den Vertriebsleuten im Smart-Data-Team. Bei Schritt 5, also der Ableitung und Umsetzung der konkreten Marketingmaßnahmen entlang der Kette der Touchpoints, gehen in der Regel die Vertriebskollegen in die Vorlage – und die anderen arbeiten zu. Natürlich kann es auch bei den letzten beiden Etappen im Zyklus hier und da sinnvoll sein, externe Expertise hinzuzuziehen, z. B. Kreative bei der Ausgestaltung der Playbooks von 1:1-Kampagnen oder beim Design der Touchpoints. Aber das hat man ja bisher auch so gemacht. Im Verhältnis von intern und extern ändert sich auf der Ebene nicht viel. Unter Umständen muss man sich nur andere Partner suchen, die im datengetriebenen Marketing zu Hause sind und dieses gleichermaßen kulturell wie inhaltlich beherrschen. Erfolgsentscheidend ist nach unserer Erfahrung allerdings, dass die Mitglieder des Smart-Data-Teams … ➤➤

➤➤

… von einem sehr fähigen Projektmanager unterstützt werden, der selbst digitale Kompetenz und Erfahrung mit digitalen Veränderungsprozessen haben muss. … von einem Change-Manager – ggf. samt einem Change-Team – begleitet werden, der hilft, die Bereitschaft zum Mitmachen mindestens bei all jenen zu schaffen, die später mit Daten Mehrwert beim Kunden schaffen sollen. Und der dafür sorgt, dass die Versuche und vorantastenden Schritte des Smart-Data-Teams nicht von anderen torpediert, sondern zumindest »interessiert zur Kenntnis genommen« werden.

Womit wir bei jenen Ressourcen wären, die künftige Smart-Data-Champions oft neu einstellen bzw. und über einen längeren Zeitraum vertraglich binden müssen.

223

Teil IV – Erfolgsfaktoren

Der Projektmanager Der Aufwand für das Projektmanagement bei Datenprojekten wird regelmäßig unterschätzt. Oft herrscht die Vorstellung: Das kann der Stratege im Team oder einer seiner Mitarbeiter doch nebenher übernehmen. Nein, das kann sie oder er in aller Regel nicht! Oder nur, wenn sie oder er stark von anderen Aufgaben entlastet werden und selbst ein starkes Interesse an datengetriebenen Projekten entwickeln kann. Vor Beginn jeder Smart-Data-Offensive müssen sich alle Beteiligten klar darüber werden, dass die Sogwirkung der Projekte auf die ganze Organisation erwünscht ist. Diese ist aber leider nur für den Preis eines relativ hohen Koordinationsaufwands zu haben, was in der Natur des Angangs liegt. Mitglieder eines interdisziplinären Teams aus vielen unterschiedlichen Abteilungen und Bereichen probieren neue Dinge jenseits der eingefahrenen Routinen aus. Das ist organisatorisch komplex. Der Koordinationsaufwand nimmt mittelfristig auch nicht ab, sondern zu, was ebenfalls erwünscht ist. Denn wenn die ersten Projekte Erfolg haben, kommen im Sinne der digitalen Transformation ja immer neue dazu, die ebenfalls aufeinander abgestimmt werden müssen. Die Erfahrung zeigt: Hierbei ist auch eine inhaltliche Kompetenz des Projektmanagers sehr hilfreich. An der organisatorischen Schnittstelle von Strategen, IT-Leuten und Umsetzern in Marketing und Sales tauchen immer Fragen auf, aus denen schnell Missverständnisse entstehen. Und die wiederum wachsen sich gerne zu handfesten Konflikten aus, die dann auf die »politische Ebene« wandern, also exakt den gegenteiligen Effekt haben, den Smart-Data-Projekte eigentlich haben sollten. Wir haben Projektmanager erlebt, die mit einer grandiosen Mischung aus Sachkompetenz und organisatorischem Geschick aufkeimenden Konflikten schon im Ansatz den Wind aus den Segeln genommen haben. In einem Fall – bei einem großen deutschen Automobilhersteller – geschah das Hand in Hand mit einer kongenialen Change-Managerin.

224

4.3 Smart rekrutieren und weiterbilden

Der Change-Manager Es klingt wie ein Klischee, aber leider ist es vielfach erlebte Realität in Unternehmen: Menschen überschätzen den Wert des Erreichten und unterschätzen das Potenzial des Neuen. Zwar ist die Bereitschaft zur Veränderung ein omnipräsentes Lippenbekenntnis, denn alle wissen ja, dass dies alle hören wollen. Tief drinnen und im vertraulichen Vieraugengespräch in der Kantine obsiegt aber die normative Kraft der Komfortzone: Warum sollen wir etwas Menschen überschätzen groß verändern? Wir kommen doch gut klar! Auch den Wert des Erreichten diesen Veränderungsprozess sitzen wir mit freundliund unterschätzen das chem Lächeln im Meeting aus. Die Datenlage hierzu Potenzial des Neuen. spricht eine klare Sprache: Rund drei Viertel aller großen Veränderungsvorhaben scheitern. Schlechtes Change-Management ist die größte Gefahr für SmartData-Strategien. Bitte unterstreichen Sie diesen Satz drei Mal! Digitale Veränderung scheitert manchmal an der Technologie. Meist scheitert sie an Emotionen. Wie exzellentes Change-Management geht, konnten wir bei der externen Change-Managerin bei dem oben erwähnten Automobilhersteller beobachten. Sie half dem Topmanagement und den Projektverantwortlichen, selbst die richtige innere Haltung für explorative Veränderung zu entwickeln, sodass sie im richtigen Moment das Richtige sagten und taten. Best Practice ging in diesem Fall so: ➤➤

➤➤

Das Topmanagement machte die Notwendigkeit zur Veränderung mit Worten und Vergleichszahlen zum Wettbewerb deutlich. Und es beschrieb ebenso klar, was passieren würde, wenn nichts passiert. Nämlich nichts Gutes. Topmanagement und Smart-Data-Team kommunizierten von Beginn an und unermüdlich, was Sinn und Zweck des Vorhabens war. Und das Ziel: nämlich den Kunden besser verstehen, um seinen Bedarf besser bedienen zu können. Diese zentrale Botschaft wurde tatsäch-

225

Teil IV – Erfolgsfaktoren

➤➤

➤➤

➤➤

➤➤ ➤➤

lich gehört und erinnert, denn sie traf einen Nerv. Den meisten Mitarbeitern war schon klar, dass hier etwas mit der eigenen Haltung im Unternehmen nicht stimmte. Diese kritische Selbstreflexion wurde gezielt auf allen Ebenen und in verschiedenen Formaten gefördert: von Teambuilding-Offsites bis zu Townhalls, die keine Verkündungsveranstaltungen waren, sondern echte Diskussionen. Die Change-Managerin band permanent Sponsoren und Multiplikatoren in das Projekt ein, von denen man auf den ersten Blick gesagt hätte: Die haben mit datengetriebenem Marketing doch eigentlich wenig zu tun. Die Change-Managerin war immer zur Stelle, wenn in den interdisziplinären Teams Missverständnisse und Konflikte auftauchten. Mit jeder Schlichtung wuchs ihr Ruf als Mediatorin. Und das Smart-Data-Team trat immer mehr als Team auf – was es wiederum attraktiv nach außen machte und immer mehr gute Leute anzog. Management und Projektverantwortliche informierten regelmäßig formell und nahezu immer informell über schnelle Erfolge und mittelfristige Fortschritte. Sie benannten aber auch klar die Hindernisse, mit denen das Projekt zu kämpfen hatte. Die Change-Managerin sorgte dafür, dass jeder (!) im Unternehmen jederzeit zu einem passenden Teammitglied gehen konnte, um zu fragen: Was kann ich von euren Erfahrungen lernen?

Am Ende wollte das Unternehmen die Change-Managerin gar nicht gehen lassen, sondern fest einstellen. Was diese wiederum ablehnte, weil ihr nach Veränderung zumute war.

226

4.3 Smart rekrutieren und weiterbilden

Wer holt wen in welches Boot? Was uns an der Frau allerdings am meisten imponierte, war nicht, wie sie die oben beschriebenen Werkzeuge aus dem Werkzeugkasten des Change-Managements im Einzelfall zum Einsatz brachte. Das war zwar beeindruckend genug. Die noch größere Leistung war indes: Sie veränderte im Topmanagement die Die Leistungsträger von Haltung zur Veränderung. Dort herrschte wie so oft Smart-Data-Projekten die Grundstimmung: Wir haben jetzt beschlossen, müssen in keine Boote dass wir Smart Data »auf die Agenda heben«, und geholt werden. Sie sind jetzt müssen wir »die Leute ins Boot holen«. Die es, die neue Boote bauen Change-Managerin bläute allen Führungskräften und zu anderen Ufern ein, dass diese Wir-wissen-wie-es-geht-Haltung genavigieren! nau der Grund ist, warum Veränderungsprozesse so oft scheitern. Die Leistungsträger von Smart-Data-Projekten müssen in keine Boote geholt werden. Sie sind es, die neue Boote bauen und zu anderen Ufern navigieren! Als das Topmanagement diese Haltung verinnerlicht hatte, wurde aus einer Strategie zunächst ein explorativer Prozess. Dann ein lernendes System. Und schließlich ein Wettbewerbsvorteil.

227

Conclusio

Earned Data

Datenstrategien, die Kunden wirklich wollen Der digitale Volksmund »HPI und SCHUFA starten gemeinsames Web-Forschungsprojekt.« Das war die harmlose Überschrift einer unscheinbaren Pressemitteilung vom 5. Juni 2012, herausgegeben von der Wiesbadener Auskunftei. Die Forschungsschwerpunkte im »SCHUFALab@HPI«, so hieß es dann im Text, »sind einerseits die Validität von Daten und andererseits Technologien zur Gewinnung von Daten«. Das betriebswirtschaftliche Ziel der Schufa Holding AG benannte ein Vorstand mit »die Qualitätsführerschaft unter den Auskunfteien in Deutschland sichern«. Das Projekt war zunächst auf drei Jahre angelegt. Drei Tage später gab das Hasso-Plattner-Institut bekannt, dass es den Vertrag mit der Schufa gekündigt habe. Die Begründung lautete: »Angesichts mancher Missverständnisse in der Öffentlichkeit über den vereinbarten Forschungsansatz und darauf aufbauender Reaktionen könne ein solches wissenschaftliches Projekt nicht unbelastet und mit der nötigen Ruhe durchgeführt werden.« Die harmlose Pressemitteilung der Schufa hatte zu einem Sturm der Entrüstung von Datenschützern, Politikern und der stets kritischen Netzgemeinde geführt, wie ihn deutsche Unternehmen mit datenbasierten Geschäftsmodellen bis dato noch nicht erlebt hatten. Und das obwohl das strenge deutsche Datenschutzrecht, davon kann man bei beiden Partnern wohl ausgehen, peinlich genau eingehalten worden wäre. Was war genau passiert? Kaum war das Forschungsvorhaben öffentlich bekannt, schossen die Spekulationen ins Kraut, welche Daten aus sozialen Medien die Schufa nutzen wolle, um die Kreditwürdigkeit von Verbrauchern besser einschätzen zu können. Der NDR zitierte aus internen Dokumenten, nach denen die Relevanz der Kontakte in den Freundeslisten bei Facebook für das Kredit-Scoring untersucht werden sollte, nach dem Motto: Unzuverlässige Freunde haben vermutlich unzuverlässige Freunde. Die immer

231

Conclusio – Earned Data

aufgeregten Journalisten von SpiegelOnline berichteten von Textanalysen, mit denen ein aktuelles Meinungsbild zu einzelnen Personen in sozialen Medien ermittelt werden könnte. Im Shitstorm, der im Netz losbrach, herrschte nach spätestens zwei Tagen die Meinung vor, die Schufa würde sich in alle Facebook-Profile einhacken und die privaten Posts nach Kriterien durchsuchen, wer nach Einschätzung der »Stasi 2.0« als vertrauenswürdige Person gelten könne. Ein Schufa-Sprecher hielt tapfer mit legalistischen Argumenten dagegen: Nur öffentlich zugängliche Daten würden genutzt werden, wie es das Datenschutzgesetz vorsehe. Das wollte keiner hören. Die Bundesjustizministerin nahm derweil das Projekt zum Anlass, die angebliche Intransparenz der Schufa im AllWas bei der Datenanalyse gemeinen zu kritisieren. Am Ende stellte sich sogar legitim ist, entscheidet der eigene Beirat der Auskunftei gegen das Vorhaben nicht derjenige, der die und allen Beteiligten wurde klar: Big-Data-Analyse Daten zusammensucht mit öffentlich zugänglichen Daten mag für das und auswertet. Das entSchufa-Scoring zwar wirtschaftlich richtig gedacht scheidet der digitale sein. Schließlich ist es die Aufgabe eines UnternehVolksmund. mens, innovative Möglichkeiten zur Verbesserung des eigenen Angebots zu erforschen, und soziale Daten können dazu natürlich einen statistisch wertvollen Beitrag leisten. Dennoch ist das alles keine gute Idee. Legal ist nicht legitim. Was bei der Datenanalyse legitim ist, entscheidet in der öffentlichen Wahrnehmung nicht derjenige, der die Daten zusammensucht und auswertet. Das entscheidet der digitale Volksmund. Mitunter kann auch eine einzelne Wortschöpfung ein extrem innovatives und trendiges Produkt zu Fall bringen, bevor es überhaupt auf den Markt ist. Glasshole! Wer will schon so genannt werden, wenn er mit einer Datenbrille eine Bar betritt? Eigentlich sollte Google-Glass als Speerspitze der Augmented Reality in der Alltagsanwendung bereits 2013 frei verkäuflich sein. 2014 wurden die umgebauten Lastkähne wieder eingemottet, von denen die Datenbrillen an den Piers von San Francisco und New York mit großem Marketinggetöse hätten abverkauft werden sollen. Im Januar 2015 zog Google endgültig die Notbremse im Image-Desaster, stoppte den Verkauf an ausgewählte Vorreiterkunden und kündigte an, so bald wie möglich mit einer grundlegend neuen Entwicklung einen Neustart zu wagen. Wer weiß, ob eine Datenbrille von

232

Datenstrategien, die Kunden wirklich wollen

Google überhaupt noch als Konsumentenprodukt auf den Markt kommt, und nicht nur für Profi-Nutzer wie Piloten, Chirurgen oder Lageristen.

Privatheits-Schizophrenie Der Mensch war gewiss schon immer ein widersprüchliches Wesen. Mit der Digitalisierung und im Umgang mit Daten treibt er es auf die Spitze. Die drei Autoren dieses Buchs bilden da keine Ausnahme. Mitunter wäre es wohl angebracht, für die Diagnostik unserer Zeit das Krankheitsbild der digitalen Schizophrenie einzuführen. Die Liste der Symptome würde nach Untersuchung des jüngsten EMC Privacy Index und vieler vergleichbarer Befragungen mindestens drei Phänomene innerer Zerrissenheit umfassen: 1. Das »We-want-it-all«-Paradox Als Bürger und Konsumenten wollen wir alle Vorteile und Bequemlichkeiten der digitalen Welt nutzen, behaupten in Befragungen aber immer, dass wir unsere Privatheit dafür nicht opfern wollen. Dabei wissen zumindest die digital Informierten: Ein Großteil der Systeme funktioniert nur gut, wenn sie unsere Daten nutzen und mit anderen Daten kombinieren. Und zwar massenhaft. 2. Das »Take no action«-Paradox Obwohl uns die Risiken bei Datenschutz und Datensicherheit durchaus bewusst sind, tun wir nichts dagegen. Denn Datenschutzrichtlinien zu lesen und zu durchdenken ist viel anstrengender, als das Kästchen »Opt-in« mit »Ja« wegzuklicken. Die persönliche IT-Sicherheit zu erhöhen, z. B. durch Verschlüsselungstechnik, ist noch anstrengender. Der Kampf gegen Cyberkriminelle hat einen doppelten Preis: Er kostet Geld und Bequemlichkeit bei der Nutzung. Bequem ist hingegen die Haltung, Regierungen und Unternehmen für mangelnden Datenschutz verantwortlich zu machen und von ihnen mehr IT-Sicherheit einzufordern. Diese Haltung dominiert den Diskurs in Deutschland noch stärker als in anderen Ländern. 3. Das »Social-Sharing«-Paradox Die Nutzer sozialer Medien betonen in Befragungen immer wieder, wie hoch sie den Wert der Privatheit für sich persönlich gewichten.

233

Conclusio – Earned Data

Sie organisieren auf der Facebook-Plattform Gruppen, die vom Unternehmen Facebook striktere Regeln zum Schutz der Privatsphäre einfordern. Sie haben gleichzeitig wenig bis kein Vertrauen in die Betreiber ihrer sozialen Netzwerke. Und dennoch teilen sie und teilen und teilen. Und die Mehrheit der Nutzer ist spontan nicht einmal sicher, ob ihre derzeitige Freundesliste öffentlich ist – und z. B. für das Kredit-Scoring von Auskunfteien genutzt werden könnte – oder ob sie das Häkchen zugunsten von Privatheit auf Kosten geringerer Sichtbarkeit gesetzt haben. In der Gesamtschau heißt das: Wir rufen gerne in den digitalen Raum: »Meine Daten gehören mir!« Und wir wissen, dass dies eine Illusion ist. Wir spüren, dass der Rechtsbegriff der informationellen Selbstbestimmung – wie er 1983 aus dem Urteil des Verfassungsgerichts zur Volkszählung abgeleitet wurde und bis heute unser Verständnis von Datenschutz prägt – die Nutzung digitaler Technologien verlangsamt, unbequemer macht und einschränkt. Aber verabschieden wollen wir uns weder vom Begriff noch von der Illusion, die in ihm mitschwingt und die Datenschützern wie Thilo Weichert aus Schleswig-Holstein in netzpolitischen Kreisen eine Art Heldenstatus zukommen lässt. Zurück bleibt ein permanentes Störgefühl, das in zwei Richtungen weist. Der Unmut mit den digitalen Paradoxien entspringt auf der einen Seite dem schlechten Gewissen, dass wir sinnvolle, aber unbequeme Maßnahmen für mehr Datenschutz und Datensicherheit als Individuen nicht ergreifen. Diesen Unmut gegen uns selbst kompensieren wir, indem wir die kommerzielle Nutzung von Kundendaten unter einen abstrakten Generalverdacht stellen. Als Unternehmen kann man die digitale Schizophrenie der Kunden bedauern und sich passiv im Datenstrom treiben lassen. Man kann sie ignorieren und aggressiv Daten sammeln in der Hoffnung, dass einem kein Datenskandal irgendwann auf die Füße fällt. Oder man könnte versuchen, die Widersprüche zu mildern und Störgefühle systematisch zu reduzieren.

234

Datenstrategien, die Kunden wirklich wollen

Transparente Datenkraken? Vor drei Jahren – in unserem Buch Data Unser – beschrieben wir erste Ansätze für sogenannte »informationelle Gütesiegel« nach dem Vorbild von US-amerikanischen »Nutrition Labels« in Ampel-Anmutung oder Vertrauensstempeln wie »Trusted Webshop«. Diese Plaketten von unabhängigen, vertrauenswürdigen Daten-TÜVs würden für Nutzer die Komplexität aus den Datenschutzthemen nehmen und zudem technisches Einwilligungsmanagement ermöglichen gemäß dem Prinzip: Mein Rechner oder Smartphone meidet grundsätzlich Applikationen, die datenschutzrechtlich bedenkliche Routinen ausführen. So dachten wir. Der damals erfolgversprechend erscheinende Ansatz, Datenschutz selbst zum verbraucherfreundlichen Datenbankthema zu machen, hat sich nicht durchgesetzt. Er wurde von technischer Komplexität und einer exponentiell steigenden Anzahl von Apps überrannt. Die Kernfrage lautet also weiterhin: Wie schaffen es Unternehmen, Kundendaten so zu nutzen, dass Kunden ein gutes Gefühl dabei haben. Oder zumindest kein Stör­ gefühl?

235

Conclusio – Earned Data

Die Lösung ist, wie so oft, eine Frage der Balance. Sie findet sich im richtigen Verhältnis in der Dreiecksbeziehung von: ➤➤ ➤➤ ➤➤

Intensität der Kundendatennutzung, Transparenz, welche Daten dabei zum Einsatz kommen und wie sie gesammelt wurden, Mehrwert, der durch Datennutzung für den Kunden (!) entsteht.

Der Zusammenhang der Dimensionen ist offenkundig. Je mehr Daten ein Unternehmen für seinen Geschäftszweck nutzt, desto transparenter muss es dabei vorgehen. Und desto mehr klar erkennbare und spürbare Mehrwerte muss es aus den Daten für die Kunden schaffen. Seit Jahren kämpfen Datenschutzverantwortliche in vielen Unternehmen dafür, die Datentransparenz für Kunden durch Dashboard-Lösungen zu erhöhen. Grafisch möglichst schlüssig aufbereitet, können Kunden in diesen persönlichen Dashboards sehen, welche Daten das Unternehmen wie lange über sie speichert. Im Idealfall erklärt ihnen das Unternehmen auch noch, warum. Das Traurige ist: Im deutschsprachigen Raum gibt es kaum Unternehmen, die eine solche Lösung aufgebaut haben. Das ist ein vertane Chance, sich als deutsches Unternehmen positiv abzuheben. Lange wird das nicht mehr möglich sein. Vorreiter in Sachen Datentransparenz sind heute ausgerechnet jene USamerikanischen Unternehmen, die in den letztem Jahren am stärksten als Datenkraken am Pranger standen und denen nur dank ihres extrem hohen Nutzwerts als geduldete Spione der Zugriff auf persönliche Daten gestattet wurde. Google und Facebook haben zumindest im Grundsatz verstanden, dass die digitalen Paradoxien und die damit verbundenen Störgefühle ihr Geschäftsmodell gefährden. Und zwar egal wie mächtig sie heute erscheinen. Beide Datengiganten steuern mit Informationstools gegen. Google macht dies relativ konsequent mit der Funktion Google.com/dashboards, auf der die Nutzungsdaten aller Google-Tools inklusive gespeicherter Ortsdaten einsehbar sind und es auch eine Download-Möglichkeit für die eigenen Daten gibt. Die Löschfunktionen sind dort ebenfalls gut strukturiert. Auch Facebook bewegt sich langsam in diese Richtung, bietet (unter Kontoeinstellungen) Datenexportmöglichkeiten und teilt seinen Nutzern mit, welche Schlagworte die Facebook-Algorithmen in ihrem Fall für werberelevant halten. Apple hat den Schutz der Privatheit seiner Kunden und Datensicherheit schon

236

Datenstrategien, die Kunden wirklich wollen

länger zum Wettbewerbsvorteil erklärt und verweist gerne darauf, dass es »im Unterschied zu anderen Unternehmen« nicht vom Verkauf von Werbeprofilen lebt, sondern vom Verkauf von Geräten und digitalen Inhalten. Um erneut Missverständnissen vorzubeugen: Wir haben nicht den Eindruck, dass die genannten Maßnahmen der großen Datenvorreiter von der US-amerikanischen Westküste bereits ausreichen. Aber auffällig ist: Spätestens seit den Snowden-Enthüllungen glauben selbst sie nicht mehr an »das Ende der Ära der Privatsphäre«. Selbst bei den großen Datenkraken mit ihren nach wie vor lebendigen Allmachtsfantasien mehren sich die Stimmen, die sagen: Unternehmen müssen sich das Recht verdienen, Kundendaten zu nutzen! Das ist eine Haltung. Diese Haltung macht den Kern eines wirklich smarten Umgangs mit Daten aus, denn sie führt zu Datenstrategien und Anwendungslösungen, die Kunden wirklich wollen. Diese Haltung, genauer gesagt nur diese Haltung, führt Unternehmen über Daten wirklich näher an den Kunden heran. Nur diese Haltung wird langfristig dazu führen, dass Unternehmen auf ihrer digitalen Transformationsreise imgewünschten Tempo vorankommen. Wir nennen diese Haltung, wie schon in Teil III angedeutet: Earned Data

237

Conclusio – Earned Data

Verdiente Daten Der Begriff Earned Data geisterte im Sommer 2013, auf dem Höhepunkt der Snowden-Affäre, mit einigen inhaltlichen Unschärfen und vor allem in Begrenzung auf Daten aus sozialen Medien durch einige US-amerikanische Datenblogs. In Europa fand er keinen Widerhall und geriet auch auf der anderen Seite des Atlantiks wieder in Vergessenheit. Schade. Es wird Zeit, aus einem den Kern der Sache treffenden Begriff ein greifbares Konzept zu machen, das Smart-Data-Unternehmen als Handlungsanleitung dienen kann.

238

Datenstrategien, die Kunden wirklich wollen

Hier ist unser Vorschlag: Smarte Unternehmen verdienen sich das Recht auf die Nutzung von Kundendaten, wenn über allen Analytikbemühungen die Leitfrage steht: Welche Daten brauchen wir, um mehr Kundennutzen zu schaffen? Das deutsche Datenschutzrecht basiert auf dem Prinzip der Datensparsamkeit. Hier hat die technische Realität die gesetzliche überholt. Earned Data schließt aber sehr wohl das Gebot zur Verhältnismäßigkeit ein, woraus sich die wichtigste Abgrenzung zu den gängigen Big-DataMethoden ergibt. Denn Big Data sammelt so viele Daten wie möglich, aggregiert diese in einem möglichst großen Topf und lässt dann die Algorithmen von der Leine – in der Hoffnung, wertvolle Erkenntnisse für das datennutzende Unternehmen ableiten zu könDem Gebot der Verhältnen. Earned Data zielt nicht auf Masse, sondern auf nismäßigkeit folgend die richtigen Daten, die Kunden bewusst und gerne speichern Smart-Datateilen, weil sie darauf vertrauen können: Verdiente Unternehmen keine DaDaten sind ein Geschäft auf Gegenseitigkeit. Das ten, aus denen sich kein Unternehmen nutzt sie, um meine Interessen zu verNutzen für den Kunden treten. Weil es verstanden hat, dass es nur so den ableiten lässt. Kundenwert für aufgeklärte Verbraucher langfristig erhöhen kann. Dem Gebot der Verhältnismäßigkeit folgend speichern Smart-Data-­ Unternehmen keine Daten, aus denen sich kein Nutzen für den Kunden ableiten lässt. Entsprechend sind die IT-Systeme aufgesetzt und Kunden werden auch nicht durch geschickte Nutzerführung zu Opt-inKlicks verleitet, die sie eigentlich nicht wollen. Was verstehen wir unter Kundennutzen, mit dem sich Unternehmen Kundendaten verdienen? Systematisch betrachtet lassen sich vier Mehrwertebenen voneinander abgrenzen: Rabatte, bessere Produkte, mehr Relevanz in der Marketingkommunikation und passendere Beratung.

239

Conclusio – Earned Data

1. Rabatte Gebt mir eure Daten, dafür bekommt ihr Rabatte oder Prämien. Wenn die Spielregeln klar sind und die Versprechen eingehalten werden, ist das eine faire Sache. Dynamische Rabattsysteme mit intelligenter Coupon-Aussteuerung haben gute Jahre vor sich. Überkomplex sollten sie nicht sein. Sonst erschließt sich der Mehrwert für den Kunden nicht.

2. Bessere Produkte Fluglinien optimieren mit Kundendaten das Routenangebot, Stromund Mobilfunkanbieter mit Verbrauchsdaten die Netzkapazitäten, Pharmaunternehmen entwickeln mit (pseudonymisierten) Patientendaten bessere Medikamente. So soll es sein und das empfindet auch die große Mehrheit Verbraucher als Gewinn. Finanzdienstleister entwickeln mit verdienten Daten maßgeschneiderte Produkte, die der individuellen Vorsorge dienen, und nicht dem schnellen Abverkauf. Sportartikelhersteller verbessern Dämpfungseigenschaften von Turnschuhen auf Grundlage von Lauf-Community-Daten, Händler stellen mit Bon- und Kundenkartendaten Sortimente zusammen, in denen Kunden schnell finden, was sie brauchen. Wer sollte etwas dagegen haben? Produktinnovation ohne Daten ist heute nur noch in sehr wenigen Bereichen möglich und die meisten Kunden sind offen dafür, mit digitalisierten Informationen ihren Beitrag im großen Fortschrittsspiel zu leisten – wenn man ihnen erklärt, worin der Nutzen besteht! Genau diesen Schritt gehen aber nur wenige Unternehmen und genau hier liegt eine große Chance für jene kundenzentrierten Organisationen, die sich die Daten ihrer Kunden verdienen wollen.

3. Mehr Relevanz in der Marketingkommunikation Werbung wird zu Information, wenn sie im richtigen Kontext steht. Leo Burnett, der Erfinder des Marlboro Man, hat diese Haltung schon in den 1960er-Jahren gepredigt. Die digitalen Marketer behaupten das auch. Ständig. Und dann verfolgen sie uns wochenlang mit Bannern von Schuhen, die wir bereits gekauft haben. Das Ziel des Targeted Advertising, wie wir es in Online-Medien kennen, ist natürlich richtig. Die richtigen Inhalte an die richtigen Leute, sodass Werbung zur Information wird. Die Umsetzung ist – Stand heute – allerdings weit vom Ziel

240

Datenstrategien, die Kunden wirklich wollen

entfernt, und zwar so weit, dass sie das ohnehin schon weit verbreitete Gefühl »Werbung belästigt« nur noch verstärkt. Für uns ist z. B. schwer verständlich, warum der Algorithmus von Linkedin zwar klug genug ist, entfernteste Verbindungen zu Ex-Kommilitonen aus einem Austauschjahr in den USA 1994/95 herzustellen, aber jede Woche mehrfach mit E-Mails nervt, dass man zu den Auserwählten gehöre, die doch tatsächlich einen Monat lang kostenlos ein Premium-Abo ausprobieren könnten. Nein danke, einmal fragen reicht! Das Problem ist: Viele digitale Kampagnentools gehen allen Möglichkeiten der Analytik zum Trotz noch auf Masse, und die niedrigen Preise in der digitalen Marketingkommunikation haben dazu geführt, dass Marketer die Aufmerksamkeit von Kunden inflationär beanspruchen. Die Schmerzgrenzen bei der Frequenz der Ansprache werden ignoriert oder zumindest systematisch überschätzt. Masse schafft Irrelevanz, also das Gegenteil des Ziels und der Möglichkeiten des datenbasierten Marketings. In Abgrenzung hierzu lauten die Relevanz erzeugenden Voreinstellungen im Dialogmarketing: ➤➤

➤➤

➤➤

Sprich Kunden nur mit Inhalten an, die mit hoher Wahrscheinlichkeit wirklich nützlich, überraschend oder unterhaltsam sind. Wann immer möglich, müssen Kampagnentools negative Reaktionen – z. B. wiederholtes Wegklicken – registrieren und sich selbst kalibrieren. Die Frequenz der Ansprache ist Teil der analytischen Aufgabe. Der Kunde darf nicht mit Werbebotschaften beschallt werden, nur weil er gemäß der Segmentkriterien ins Kampagnenraster passt. Er muss mit hoher Wahrscheinlichkeit auch grundsätzlich offen für Ansprache sein – oder zumindest nicht grundsätzlich auf emotionale Abwehr gepolt sein. Mehrwert in der Kommunikation schaffen heißt: dem Kunden ein interessantes Angebot zuspielen, das er sonst nicht bekommen hätte. Dann wird Werbung tatsächlich zur Information.

Der Fokus auf Masse mit den Mitteln des Targeting hat in den letzten Jahren bei vielen Verbrauchern für emotionale Reaktanz gesorgt. Der Preis ist die weitere Verknappung des ohnehin so knappen Gutes Aufmerksamkeit.

241

Conclusio – Earned Data

Programmatic Advertising ist die Optimierung von Werbemitteln, die im Grundsatz falsch gedacht sind und auch auf lange Sicht nicht funktionieren. Smart-Data-Marketer wissen, dass bei relevanter Marketingkommunikation weniger oft mehr ist. Ein paar Dutzend engagierte Kundendialoge sind um ein Vielfaches wertvoller als Millionen gezielt ausgespielte Display-Ads oder E-Mails, die umgehend in den SpamOrdner geklickt werden. Auch uns ist klar: Aus Millionen Ansprachen lässt sich unter Umständen eine halbwegs akzeptable Anzahl engagierter Dialoge generieren. Klassenziel erreicht? Wenn Marketer den Umweg über die Masse gehen, sollten Programmatic Advertisie bitte die kommunikativen Kollateralschäden im sing ist die Optimierung Blick behalten, die sie bei jenen Verbrauchern anvon Werbemitteln, die im richten, die nicht beschallt werden wollen. Diese Grundsatz falsch gedacht werden ganz gewiss keine Daten freiwillig teilen, sind und auch auf lange sondern regelmäßig Cookies löschen, Ad-Blocker Sicht nicht funktionieren. ­herunterladen und die Filter im Kopf gegen Werbung immer schärfer stellen.

4. Passendere Beratung Der Europa-Geschäftsführer einer großen Online-Hotelbuchungsplattform hat die Qualitätsanforderung der Vermittlungsleistung einmal so auf den Punkt gebracht: »Der Moment der Wahrheit in unserem Geschäft ist, wenn der Kunde die Tür vom Hotelzimmer aufmacht. Wenn er in dem Moment denkt: Toll, das ist das Zimmer, das ich mir gewünscht habe, haben wir als beratender Vermittler einen guten Job gemacht. Und wenn wir dieses Gefühl regelmäßig erzeugen, teilen unsere Kunden immer mehr Daten mit uns. Denn dann spüren sie: Ich habe etwas davon, wenn die wissen, wer ich bin.« Der Witz an diesem Beispiel eines Datengiganten ist freilich: Die Beratung geschieht ausschließlich durch Empfehlungsalgorithmen. Der Geschäftsführer spricht aber über die Empfehlungsmaschine, als sei sie ein Mensch. Diese Haltung finden wir spannend, und zwar auch oder gerade für Unternehmen, die nicht über vergleichbare Datenschätze wie Hotelbuchungsplattformen verfügen. Bei Smart-Data-Champions machen sich oft und gerade Menschen aus Fleisch und Blut mit Analytik schlau, um in persönlichen Gesprächen besser beraten zu können. Daraus kann eine Beratungsqualität entstehen, mit der keine Maschine

242

Datenstrategien, die Kunden wirklich wollen

mithalten kann. Zu den Pflichthausaufgaben eines Personal Shopping Assistant der US-Kaufhausketten Neiman Marcus oder Macy’s gehört es, sich mit der Kaufhistorie des Kunden zu beschäftigen. Das System macht ihm Vorschläge, was für diesen Kunden besonders interessant sein könnte, aber an diese Vorschläge ist der menschliche ShoppingBerater nicht gebunden. Im persönlichen Beratungsgespräch soll ja keine CRM-Logik über den Kunden niedergehen, sondern sich maschinelle Analytik mit menschlicher Intuition zu einer guten Kundenerfahrung verbinden. Womit sich die Bereitschaft erhöht, Daten zu teilen – wie bei der Hotelbuchungsplattform, die Zugang zu genau dem Zimmer verschafft, das der Reisende gerne hätte.

Generation post NSA Aus Extrembeispielen lässt sich immer lernen. Die Berliner Supermarktkette Kaiser’s hat kürzlich eine komplett anonyme Kundenkarte eingeführt. Wer die Extra-Karte haben möchte, muss weder Name noch E-Mail-Adresse noch Zahlungsdaten noch Sternzeichen angeben. Er bekommt sie überreicht, steckt sie ins Portemonnaie und zückt sie an der Kasse anonym zum Punktesammeln. Der Mehrwert des Loyalitätsprogramms ist für den Kunden schnell erschließbar: Er bekommt ziemlich oft Geschenke, ebenfalls direkt an der Kasse. Bei einem Einkauf von mehr als 30 Euro gibt es z. B. einen Schokoriegel, bei mehr als 200 Euro ein Glas Nutella. Das sind Prämien mit einem Wert von mehr als einem Prozent des Einkaufsvolumens. Zum Vergleich: Bei Payback können Kunden im Tausch gegen so ziemlich alle relevanten Konsumentendaten ab 400 Euro Einkauf einen Gutschein für 2 Euro beantragen. Die Extra-Karte bietet allerdings noch mehr Mehrwert: Der anonyme Kunde kann mit seiner Karte an ein Lesegerät im Eingangsbereich gehen und der Automat spuckt Rabatt-Coupons aus, die auf die Kaufhistorie von Ms. oder Mr. Anonymous maßgeschneidert werden. Die Wirtschaftswoche feierte die Karte in einem Selbsttest des Reporters als das Loyalitätsprogramm für »die Generation post NSA«. Das Beispiel zeigt: Kundenbindung braucht nicht zwingend einen Klarnamen. Ehrlicherweise muss man natürlich hinzufügen, dass ein Loyalitätsprogramm, das mit anonymen Kundennummern operiert, kaum multikanalfähig und damit für viele Handelsunternehmen mit Multikanal-Ambitionen

243

Conclusio – Earned Data

auch nicht sinnvoll ist. Einer Kundennummer kann man kein Paket schicken. Aber sie ist eben eine denkbar intelligente Reaktion auf das weitverbreitete Gefühl: Entweder ich lasse mich bespitzeln oder ich zahle zu viel. Beides ist irgendwie doof. Anonyme Daten zu verdienen ist offenkundig leichter als persönliche. Auch diese Erkenntnis ist eine Chance, die Smart-Data-Unternehmen systematisch ausloten sollten. Wo persönliche Daten das Verhältnis zum Kunden mit dessen Erlaubnis verbessern, greifen im Übrigen zwei weitere Anforderungen an das datennutzende Unternehmen: Datensicherheit und Löschbarkeit. Unternehmen verdienen unsere Daten nur, wenn sie diese auch sicher aufbewahren können. Absolute Sicherheit gegen Cyberkriminelle gibt es freilich nie, aber die Datendiebe attackieren bekanntlich mit Vorliebe jene Systeme, die bei den technischen Sicherheitsanforderungen hinterherhinken. Das war bei den großen kommerziellen Hacks der letzten Jahre nahezu immer der Fall, und entsprechend ist es keine gute Idee, an der Datensicherheit zu sparen. Kunden werden dies im Ernstfall nämlich nicht verzeihen.

Kundendaten gehören den Kunden, nicht den Unternehmen. Die Einwilligung zur Nutzung ist immer eine auf Zeit.

Und zum Abschluss dieses Buchs noch einmal zur Erinnerung: Kundendaten gehören den Kunden, nicht den Unternehmen. Die Einwilligung zur Nutzung ist immer eine auf Zeit. Das bedeutet im Umkehrschluss, dass Kunden ihre Daten jederzeit und technisch unkompliziert einfordern und vollständig löschen können.

Das neue Relevant Set Was heißt dies alles in der Zusammenfassung? Die digitale Transformation schafft für Kunden ein neues Relevant Set. Die entscheidende Frage in diesem Set lautet nicht mehr: Welche drei Marken fallen dir als Erstes ein? Sodass du vor dem Supermarktregal stehend ­automatisch zu einer der drei Marken greifst, ohne recht zu wissen, warum.

244

Datenstrategien, die Kunden wirklich wollen

Das Relevant Set im Zeitalter von Smart Data kreist um die Frage: Mit welchen drei Unternehmen teilst du bedenkenlos viele persönliche Daten? Oder bildlich gesprochen: Bei welchem Unternehmen bewegst du den digitalen Schieberegler bewusst nach rechts? Nicht weil du musst. Sondern weil der Nutzen für dich erkennbar ist. Ohne Störgefühl, weil verdiente Daten die Para­ doxien im datengetriebenen Marketing auflösen. Und ein hoher Nutzen sich mit einem guten Gefühl verbindet. Nur so entstehen Datenstrategien, die Unternehmen wirklich nützen, weil Kunden sie wirklich wollen.

245

Verwendete Quellen und weiterführende Literatur Anderson, C.: »The End of Theory: The Data Deluge Makes the Scientific Method Obsolete.« In: Wired, 23.6.2008. Ayres, I. (2008): Super Crunchers, Why Thinking by Numbers is the New Way to Be Smart, New York, Bantam Books. Balboni, F. et al. (2010): »Analytics: The New Path to Value. How the Smartest Organizations Are Embedding Analytics to Transform Insights into Action.« MIT Sloan Management Review at the IBM Institute for Business Value. Herbst 2010. Baumanns, M., Schumacher, T. (2014): Kein Bullshit. Was Manager heute wirklich können müssen. Murmann Verlag. Bisset, M. (2009): Impact Mapping: Making a Big Impact with Software Products and Projects. Neuri Limited. Bloching, B, Luck, L., Ramge, T. (2012): Data Unser: Wie Kundendaten die Wirtschaft revolutionieren. Redline Verlag. Brynjolfsson, E., Hitt, L., Kim, H. (2011): »Strength in Numbers: How Does Data-Driven Decisionmaking Affect Firm Performance?« In: Harvard Business Review. April 2011. Brynjolfsson, E., McAfee, A. (2014): Second Machine Age: Work, Progress, and Prosperity in a Time of Brilliant Technologies. Norton & Company. Butle, D.: »When Google got flu wrong, US outbreak foxes a leading webbased method for tracking seasonal flu.« In: Nature, 13.2.2013. Christensen, C. M. (2011): The Innovator’s Dilemma. The Revolutionary Book That Will Change the Way You Do Business. HarperBusiness. Christensen, C. M. (2013): The Innovator’s Solution. Creating and Sustaining Successful Growth. Harvard Business School Press. Clasen, N. (2013): Der digitale Tsunami: Das Innovators Dilemma der traditionellen Medienunternehmen oder wie Google, Amazon, Apple & Co. den Medienmarkt auf den Kopf stellen. CreateSpace Independent Publishing Platform. Croll, A., Yoskovitz, B. (2013): Lean Analytics: Use Data to Build a Better Startup Faster. O’Reilly.

247

Verwendete Quellen und weiterführende Literatur

Davenport, T. H. Harris, J. G. (2007). Competing on Analytics: The New Science of Winning. Harvard Business School Press. Davenport, T. H., Harris, Jeanne G., Morison, R. (2010): Analytics at Work. Smarter Decisions, Better Results. Harvard Business School Press. Davenport, T. (2012): Keeping Up with the Quants: Your Guide to Understanding and Using Analytics. Harvard Business School Press. Davenport, T. (2014): Big Data at Work: Dispelling the Myths, Uncovering the Opportunities. Harvard Business School Press. Dörner, D. (2003): Die Logik des Mißlingens. Strategisches Denken in komplexen Situationen. rororo. Erbeldinger, H. J., Ramge, T., Spiekermann, E. (Gestaltung) (2013): Durch die Decke denken: Design Thinking in der Praxis. Redline Verlag. Friebe, H., Ramge, T. (2007): Marke Eigenbau. Der Aufstand der Massen gegen die Massenproduktion. Campus Verlag. Foreman, J. W. (2013): Data Smart: Using Data Science to Transform Information into Insight. Wiley & Sons. Haberich, R. (2013): Future Digital Business: Wie Business Intelligence und Web Analytics Online-Marketing und Conversion verändern. Mitp. Hallsworth, I (2013): Understanding Digital Marketing: Marketing Strategies for Engaging the Digital Generation. Kogan Page. Hemann, C. (2013): Digital Marketing Analytics: Making Sense of Consumer Data in a Digital World. Que Corp. Hennig-Thurau, T., vor dem Esche, J., Bloching, B. (2012): »Flippern statt Bowling – Marketing im Zeitalter von Social Media.« In: Marketing Review St. Gallen, Ausgabe 4, 2012. Hubbard, W. D. (2014): How to Measure Anything: Finding the Value of Intangibles in Business. John Wiley & Sons. Humby, C. Hunt, T., Phillips, T. (2008): Scoring points: how Tesco continues to win customer loyalty. Kogan Page. Hugos, M. H. (2010): Business in the Cloud: What Every Business Needs to Know About Cloud Computing. Wiley & Sons. Jeffery, M. (2010): Data-Driven Marketing: The 15 Metrics Everyone in Marketing Should Know. John Wiley & Sons. Keese, C. (2014): Silicon Valley: Was aus dem mächtigsten Tal der Welt auf uns zukommt. Albrecht Knaus Verlag. Klausnitzer, R. (2013): Das Ende des Zufalls: Wie Big Data uns und unser Leben vorhersagbar macht. Ecowin Verlag.

248

Verwendete Quellen und weiterführende Literatur

König, W. (2008): Kleine Geschichte der Konsumgesellschaft: Konsum als Lebensform der Moderne. Steiner. Kucklick, C. (2014): Die granulare Gesellschaft: Wie das Digitale unsere Wirklichkeit auflöst. Ullstein. Lilien, G. L., Kotler, P., Moorthy, K. S. (1992), Marketing Models. Prentice Hall. Mayer-Schönberger, V., Cukier, K. (2013): Big Data: Die Revolution, die unser Leben verändern wird. Redline Verlag. O’Neil, C., Schutt, R. (2013) Doing Data Science: Straight Talk from the Frontline. O’Reilly & Associates. Osterwalder, A. (2014): Value Proposition Design: How to Create Products and Services Customers Want (Strategyzer). John Wiley & Sons. Powell, G. R. (2003): Return on Marketing Investment: Demand More From Your Marketing And Sales Investments. RPI Press. Provost, F., Fawcett, T. (2013): Data Science for Business: What you need to know about data mining and data-analytic thinking. O’Reilly & Associates. Rappaport, A., Mauboussin, M. J. (2001): Expectations Investing: Reading Stock Prices for Better Returns unknown. Harvard Business Review Press. Ramge, T. »Wie nützt das Neue?« In: Brand Eins, Ausgabe 7/2013 Roland Berger Strategy Consultants/ECE. (2013) Dem Kunden auf der Spur. Wie wir in einer Multichannel-Welt wirklich einkaufen (Studie) Roland Berger Strategy Consultants (2011): What customers really want. A customer-centric strategy for telecom operators. (Studie) Schmidt, E. (2014): How Google Works. Grand Central Publishing. Siegel, E. (2013): Predictive Analytics: The Power to Predict. John Wiley & Sons. Silver, N. (2012): The Signal and the Noise: The Art and Science of Prediction. Penguin Press. Sorger, S. (2013): Marketing Analytics: Strategic Models and Metrics. Admiral Press. Tapscott, D., Ticoll, D. (2003): The Naked Corporation: How the Age of Transparency Will Revolutionize Business. Free Press. Thiel, P., Blake, M. (2014): Zero to One: Wie Innovation unsere Gesellschaft rettet. Campus. Vasek, T. (2011): Die Weichmacher. Das süße Gift der Harmoniekultur. Hanser.

249

Verwendete Quellen und weiterführende Literatur

Weiser, Mark: »The Computer for the 21st Century.« In: Scientific American, 265. Westerman, G., McAfee, A. (2014): Leading Digital: Turning Technology into Business Transformation. Harvard Business School Press. Zettelmeyer, F., Bolling, M. (2014): Big Data Doesn’t Make Decisions, Leaders Do. The six steps to build organizational muscle in analytics. Kellogg School of Management. (Whitepaper). http://www.ft.com/cms/s/2/21a6e7d8-b479-11e3-a09a-00144feabdc0. html

250

Danksagung Für kluge Gedanken und Unterstützung bei der Recherche danken wir sehr herzlich: Prof. Dr. Florian Zettelmeyer, Prof. Dr. Thorsten HennigThurau, Dr. Jochen Groß, Valerius Braun, Egbert Wege, Dr. Jan Flemming, Alexander Ingenhoff, Svenja Dittmann, Tobias Rappers, Jan-Phillip Hasenberg und Dirk Weiss.

251

Stichwortverzeichnis 8select 119 A Abomodell 128 Abverkaufsdaten 160 Airbnb 41, 45 Aktionismus 31 ff. Aktivatoren 109, 172, 174, 179, 181 Amazon 28, 34, 36, 60, 112, 160, 167 Amazon Marketplace 40 Amazon Prime 138 Amazon Supply 128 Amazon-Music 43 Analytic-Center 144, 147 Analytical Competitor 30 Analytikkompetenz 201, 215 Angebot, personalisiertes 120 Angebotsvariation 105 Apple 43, 108, 138, 236 Apple-ID 173 Assoziationsanalyse 112 Audi 181 Aufmerksamkeit 25 f. Augmented Reality 232 Auskunftei 231 B Beratungsqualität 242 Betrugsvermeidung 130 Bewegungsdaten 15 Big Data 9, 20, 26 Big-Data-Analyse 232 Big-Data-Anwendung 27, 160 Big-Data-Applikation 28 Big-Data-Enttäuschung 10 Big-Data-Infrastruktur 216 Big-Data-Technologie 215 Big-Data-Versprechen 10 Big-Data-Wetteranalyse 48 Bluekai 34 BMW 181 Buchungsplattform 45

252

C Carsharing 54 Category-Management 130 Champion, digitaler 12 Change-Management 209 Change-Manager 225 f. Clearinghouse 147 Clearinghouse-Prozess 149 Clusteranalyse 70, 152 Clusteranalyse, hierarchische 94 Clusteranalyse, partitionierende 95 Clusterverfahren 111 Collaborative Consumption siehe Konsum, kollaborativer Collaborative Customer Relationship Management 140 Content, digitaler 138 Corporate Accelerator 32 Coupon, individualisierter 132 Coursera 49 CRM, kollaboratives 140 Cross-Selling 128 Curated Fashion 119 Customer-Journey 108 f., 153, 172, 181 Cyberkriminelle 233, 244 D Data Driven Innovation (DDI) 163 Data Envelopment Analysis 111 Data-Heatmap 70 Daten-Sharing 146 Daten, anonyme 244 Daten, öffentlich zugängliche 232 Daten, persönliche 52, 244 Daten, pseudonymisierte 145 Daten, relevante 62 Daten, transaktionale 129 Datenallianz 141 Datenanalyse 12, 130, 232 Datenanalyse, smarte 78, 113 Datenanalytik 10, 27 Datenanalytik, smarte 72

Stichwortverzeichnis Datenauswertung, smarte 109 Datenbasis 20, 89 Datenbrille 232 Datenfriedhof 87 Datengigant 45, 140, 236 Datenkompetenz 34, 45, 59, 139, 160 Datenkontakt 46 Datenkooperation 13 Datenkrake 15, 235 Datenpartner, smarte 141 Datenpartnerschaft 141, 150 Datenpartnersuche 143 Datenpool 93 Datenprofi 140 Datenqualität 93 Datenquantität 93 Datenquelle 86, 154, 172, 218 Datenschutz 15, 52, 87, 233, 234 Datensicherheit 14, 132, 233, 234, 236, 244 Datensilo 29 Datenstrategie 13, 200, 231 ff., 237 Datentausch 142 Datentransparenz 236 Datenüberfluss 9 Datenverfügbarkeit 86 Datenvertrag 14 Datenvolumen 10 Datenwildwuchs 32 Datenwissenschaftler (Data-Scientist) 221 ff. DBSCAN-Verfahren 96 Denken, ballistisches 189, 202 Design-Thinking 100 Digitalisierung 27 ff., 43, 55, 233 Disintermediation 39, 47 Disruption 36 ff., 163, 193 dm Drogeriemarkt 129 Dunnhumby 141 E E-Learning 49 Earned Data 150, 238 Ebay 140, 167 ECR-Initiative 142 Edx 49 Einzelhandel 129 EMC Privacy Index 233

Emnos 141 Empfehlungsalgorithmus 134, 242 Empfehlungsqualität 120 Entscheidungsbaum 98, 111 Erfolgsmessung 110 Ergebnisoffenheit 199, 221 Ergebnisorientierung 199, 220 Ernteausfallversicherung 48 Expectations Investing 58 Experiment 193, 199, 213 F Facebook 39, 45, 231, 236 Fehler 192 f., 204 Fehlerkultur 193 Fehlervermeidung 193 Fernuniversität 49 Filtern, kollaboratives 112 Fire TV 138 Flagposting 153 Fordismus 198 Freiraum, 204 f., 207, 213 Friendsurance 48 Führung, hierarchische 198 Führungskultur 195 Führungsverständnis, zeitgemäßes 195, 198 ff. Fuzzy Clustering 97 Fuzzy-C-Means-Algorithmus 96 f. G Gebot zur Verhältnismäßigkeit 239 Geschäftsfeldinnovation 28 Geschäftsmodell 29 Geschäftsmodellausweitung 149 Google 34, 39, 45, 108, 140, 236 Google Flu Trends (GFT) 19, 24 Google Play Store 40 Google-Glass 232 Google-Play 43 GPS-Daten 28 Grainger 128 H Handel, stationärer 44, 129 Hasso-Plattner-Institut 231 Hype Cycle 25

253

Stichwortverzeichnis I Industrie 4.0 53, 204 Ing-Diba 135 f. Innovation, disruptive 57 Innovator, disruptiver 43 Instacard 41 Intelligenz, künstliche 77, 189 Interaktionsdaten 87, 113 Interferenzstatistik 63 Internet der Dinge 46 IQ, digitaler 12 IT-Sicherheit 142, 233 iTunes 43 iTunes Store 138 K k-Means-Algorithmus 95 k-Median-Algorithmus 96 Kaiser’s 243 Kaizen 198 Kalibrierung 105 Kampagnentyp 129 f. Kanal-Mix-Optimierung 130 Kanalpräferenz 104 Kanban 205 KFZ-Versicherung 28, 164 Kickstarter 48 Kindle Books 43 Kisura 119 Klassifikationsverfahren 111 Klassifizierungsregel 111 Kollektiv, intelligentes 41 Kompetenz, analytische 37, 129 Kompetenz, digitale 224 Komplementarität 214 Konnektoren 109, 172, 174, 179, 181 Konsum, kollaborativer 41 Konsumverhaltensdaten 113 Kontaktpunkt (siehe auch Touchpoint) 13, 106 f., 155, 172, 180, 214 Krankenversicherung 48 Kredit-Scoring 231, 234 Kreditwürdigkeit 231 Kunden-ID 179 f. Kundenbedarf 104, 154 Kundenbedürfnis 47, 155 Kundenbindung 11, 47, 120, 217, 243 Kundenbindungsprogramm 140

254

Kundendaten 11, 15, 47, 216, 235 f. Kundenerfahrung 202, 243 Kundenkarte 129, 130 f. Kundenkarte, anonyme 243 Kundenkartendaten 132 Kundennähe 13, 129 Kundennutzen 15, 239 Kundenorientierung 39, 92 Kundenperspektive 202 Kundenpotenzial 154, 156 Kundensegment 107, 174 Kundensegmentierung 89, 129 Kundenverhalten 72 Kundenverständnis 11, 72, 91, 106, 172 Kundenwert 11, 120, 160, 212, 217 L Lean Management 205 Lebensversicherung 48 Lending Club 48 Lernsoftware, adative 49 Lieferantenmanagement 130 Listendaten 147 Location-Based-Marketing 135 Löschbarkeit 244 Lost-Order-Analyse 93 Loyalitätsprogramm 140, 243 Lyft 41 M Machine Learning 96 Machtasymmetrie 139 Machtverlagerung 139 Managementhaltung 42, 189 Markenpositionierung 161 Marketing, datenbasiertes 111 Marketinganalyse, datengetriebene 78 Marktdaten 87 Marktforschungsdaten 154, 161 Marktmosaik 85 Maschinen-Cloud 54 Massendatenanalyse 10, 19, 20, 29, 63 Massendatenanwendung 19 Massenmarkt 108 Massive Open Online Course (MOOC) 49 Medizin, personalisierte 52 Mehrwert 10, 14, 92, 119, 142, 180, 194, 212, 217, 223, 236, 243

Stichwortverzeichnis Mercedes 181 Metro 129 Mikroversicherung 48 Mittelsmann 39, 41, 43, 45 Mock-up 100 Modomoto 119 Moodboard 100 Motivation, extrinsische 199 Motivation, intrinsiche 198 Multichannel-Banking 184 Multikanal-Handel 44 Multikanal-Ökosystem 139 Multikanal-Strategie 36, 129, 135, 155 Multipartnerprogramm 141, 143 N Nachfragedaten 90 Nearest-Neighbour-Algorithmus 95 Neiman Marcus 129 Netflix 28, 34, 138 Netzneutralität 46 Netzwerkeffekt 39 f. Nutzungsdaten 236 O Offline-Händler 44, 135, 182 One World 141 Onkolyzer 52 Online-Händler 135, 182 Optimierungsprozess 160 Organisation, kundenzentrierte 212 Ortsdaten 236 Otto Group 129 Outfittery 119 P Payback 130, 243 Paypal 34, 48, 140 Peer-to-Peer-Anbieter 43 Plateau der Produktivität 25 f. Plattformisierung 39 f. Plattformmärkte 40 Potenzialdaten 90, 161 Power-Question 98 Preisempfindlichkeit 120 Preisinformation 132 Preissensitivität 132 Preisvergleichsportal 132 Prinzip Build Operate Transfer (BOT) 222

Prinzip der Datensparsamkeit 239 Prinzip der Reziprozität 200 Privatheit 233, 236 Programmatic Advertising 242 Projektmanager 223 f. Proof of Concept 202 Prozesskostenanalyse 198 Q Qualitätsmanagement 192 R Regressionsverfahren 111 Relevant Set 244 Relevanz 241 Retail-Banking 135 Routendaten 157 Routenoptimierung, datengestützte 156

46,

S SAP Precision Retailing 133 Schizophrenie, digitale 233 f. Schufa 231 Schutz der Privatsphäre 234 Scrum 205, 218 Segmentierung 214 Segmentierung, integrierte 91 f. Segmentierungslogik 92 Segmentierungsverfahren 94 f., 111 Selbstbestimmung, informationelle 234 Selbstorganisation, radikale 206 Sharing 41 Shopping-Assistenzsystem, digitales 134 Sichtbarkeit 234 Sigma-Milie 90 Silodenken 181 Simfy 43 Single-Linkage-Algorithmus 95 Sinus-Milieu 90 Six Sigma 192 Smart Grid 55 Smart Metering 55 Smart-Data-Ansatz 120 Smart-Data-Champion 13, 15, 60 ff., 141 Smart-Data-Marketing 109 Smart-Data-Prozess 212, 214, 220 Smart-Data-Segmentierung 92, 94, 99, 113 Smart-Data-Strategie 66

255

Stichwortverzeichnis Smart-Data-Vision 67 Smart-Data-Weg 11, 13 Smart-Data-Zyklus 13, 79, 113, 209, 217 Smart-Grid-Technologie 55 Smava 48 Sortimentsoptimierung 160 Soundcloud 43 Spotify 43, 205 Squadification 205 ff., 213 Stablinienorganisation 198 Standortentscheidung 152 Standortentwicklung 153 f., 156 f. Standortoptimierung 156 Star Alliance 141 Startnext 48 Stratege 220 Streaming-Dienst 43 Streuverluste 99 f. Supply-Chain-Optimierung 130 System, selbstlernendes 11, 112, 202, 212 T Tal der Enttäuschung 25 f. Targeted Advertising 240 Taskrabbit 41 Technologie, digitale 10, 234 Tesco 129 Tool-Wildwuchs 32 Touchpoint 47, 106, 109, 172 Toyota-Prinzip 198 Transaktionsdaten 87, 90, 113, 154, 161 Transformation, digitale 9, 11, 13, 47, 57, 149, 209 ff., 222, 244 Transformationsmodell 33 Transformationsprozess 164, 181, 184, 200 Transparenz 14, 146, 235 f. Traxpay 48 Treiber, kaufauslösende 104 U Uber 41 Udacity 49 Umsatzdaten 99, 161 Unique Selling Proposition (USP) 103 ff. Unschärfe 199 Unsicherheit 199 Unternehmensführung, datenbasierte 212 Unternehmenswert 120, 149

256

V Varianz 10 Verbrauchertypologie 90 Vergleichbarkeit 214 Vergleichsplattform 47 Vergütungssystem 212 Verhältnismäßigkeit 14 Vermessung des Alltags 52 Vertrauen 41, 138, 145, 185, 234 Vertrauensbasis 145 Visa 140 Vision, digitale 34 Volksmund, digitaler 232 W Wachstumspotenzial 120 Wahlforschung 61 Wahlprognose 61 Walmart 129, 160 Ward-Verfahren 95 Watchever 43 Wearables 53 Werbeeffektivität 100 Wertschöpfung 41, 73, 78 Wertschöpfung, datenbasierte 77 Wertschöpfungskette 43, 46, 78 Wettbewerber, analytischer 37, 39, 42, 68, 72, 82, 92, 160, 214, Wettbewerbsvorteil 92, 113, 135, 146, 155, 227, 237 Wetterdaten 160 Widerstand, emotionaler 28, 213 Z Zahlungsbereitschaft 132 Zalando 36, 167