163 10 9MB
German Pages XIX, 177 [186] Year 2020
Klaus-Dieter Gronwald
Integrierte BusinessInformationssysteme Ganzheitliche, geschäftsprozessorientierte Sicht auf die vernetzte Unternehmensprozesskette ERP, SCM, CRM, BI, Big Data Analytics 3. Auflage
Integrierte Business-Informationssysteme
Klaus-Dieter Gronwald
Integrierte Business- Informationssysteme Ganzheitliche, geschäftsprozessorientierte Sicht auf die vernetzte Unternehmensprozesskette ERP, SCM, CRM, BI, Big Data Analytics 3., überarbeitete Auflage
Klaus-Dieter Gronwald Hochschule Luzern Gempen, Schweiz
ISBN 978-3-662-59814-6 ISBN 978-3-662-59815-3 (eBook) https://doi.org/10.1007/978-3-662-59815-3 Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http://dnb.d-nb.de abrufbar. Springer Vieweg © Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature 2015, 2017, 2020 Das Werk einschließlich aller seiner Teile ist urheberrechtlich geschützt. Jede Verwertung, die nicht ausdrücklich vom Urheberrechtsgesetz zugelassen ist, bedarf der vorherigen Zustimmung des Verlags. Das gilt insbesondere für Vervielfältigungen, Bearbeitungen, Übersetzungen, Mikroverfilmungen und die Einspeicherung und Verarbeitung in elektronischen Systemen. Die Wiedergabe von allgemein beschreibenden Bezeichnungen, Marken, Unternehmensnamen etc. in diesem Werk bedeutet nicht, dass diese frei durch jedermann benutzt werden dürfen. Die Berechtigung zur Benutzung unterliegt, auch ohne gesonderten Hinweis hierzu, den Regeln des Markenrechts. Die Rechte des jeweiligen Zeicheninhabers sind zu beachten. Der Verlag, die Autoren und die Herausgeber gehen davon aus, dass die Angaben und Informationen in diesem Werk zum Zeitpunkt der Veröffentlichung vollständig und korrekt sind. Weder der Verlag, noch die Autoren oder die Herausgeber übernehmen, ausdrücklich oder implizit, Gewähr für den Inhalt des Werkes, etwaige Fehler oder Äußerungen. Der Verlag bleibt im Hinblick auf geografische Zuordnungen und Gebietsbezeichnungen in veröffentlichten Karten und Institutionsadressen neutral. Planung: Sybille Thelen Springer Vieweg ist ein Imprint der eingetragenen Gesellschaft Springer-Verlag GmbH, DE und ist ein Teil von Springer Nature. Die Anschrift der Gesellschaft ist: Heidelberger Platz 3, 14197 Berlin, Germany
Für meine Frau Inge und meine Töchter Alexandra und Victoria
Vorwort
Standardisierte IT-gestützte Informationssysteme und Geschäftsprozesse beeinflussen sich gegenseitig. Sie sind integraler Bestandteil unternehmerischen Denkens und Handelns. Im Oktober 2019 gab es rund 4,5 Mrd. aktive Internetnutzer – 58 % der Weltbevölkerung – und 3,7 Mrd. aktive Social-Media-Nutzer – 48 % der Weltbevölkerung. Die Verfügbarkeit von nahezu unbegrenzter Computerleistung und die Rolle des Internets und der sozialen Medien haben die neuesten Entwicklungen von Blockchain- und Artificial- Intelligence-Technologien in der Supply Chain beeinflusst. Die Nachfrage nach Seltenerdelementen, die für elektronische Geräte benötigt werden, ist erheblich gestiegen. Ihr Vorkommen in abbaubaren Lagerstätten ist jedoch begrenzt. 95 % der weltweiten Produktion von Seltenerdelementen stammen aus einem Land: China. Das in Kondensatoren verwendete Element Tantal ist ein als Konfliktmaterial bekanntes Seltenerdmetall, das aus von Konflikten betroffenen Gebieten mit hohem Risiko stammt. Due Diligence und Smart Contracts für Blockchains in Supply Chains gewährleisten die Integrität und Verantwortung der damit verbundenen Produktions- und Handelspraktiken. Die Rückverfolgbarkeit vom Verbraucher bis zum Ursprung von Rohstoffen oder Lebensmitteln hat einen hohen Stellenwert erlangt. Soziale und ökologische Verantwortung entlang der Supply Chain ist zu einem Verkaufs- und Marketingelement in der Lebensmittelindustrie geworden. Kaffeeproduzenten und Einzelhandelsketten werben mit Fair- Trade-Produkten, die die Farmer in ihre Supply Chain einbeziehen. Und mit dem Mo dewort Carbon Footprint – ökologischer Fußabdruck – im Zusammenhang mit der Klimadiskussion haben sich die Prioritäten bei der Wahl von Transportmitteln von schnell und frisch zu keine Flugzeuge verschoben. Supply-Chain-Management ist zu einem integralen Bestandteil globaler sozioökonomischer und sozioökologischer Systeme geworden, in denen soziale, ethische, ökologische und ökonomische Verantwortlichkeiten berücksichtigt werden. Big Data hat maßgeblich zu einer Wiederbelebung von Methoden der künstlichen Intelligenz als technologiegetriebene Innovationen beigetragen, die erhebliche Auswirkungen auf Unternehmensstrukturen und die Wettbewerbssituation haben.
VII
VIII
Vorwort
Enterprise Resource Planning ERP, Supply-Chain-Management SCM, Customer- Relationship-Management CRM, Business Intelligence BI, Big Data Analytics BDA, Blockchains, Machine Learning und Deep Learning als Artificial-Intelligence-(AI-)Methoden sind unternehmerische Aufgaben und Prozesse, die mithilfe standardisierter Softwaresysteme realisiert werden. Sie sind eng miteinander vernetzt und setzen interdis ziplinäre Teams von Sales, Marketing, Produktion und Technik voraus. Dies erfordert managementorientiertes Denken und Handeln von IT-Spezialisten und Data Scientists. Mit dem Wandel des Verständnisses, was der Sinn und Zweck eines Unternehmens ist, von der uralten Notation, dass die Funktion von Unternehmen in erster Linie darin besteht, ihren Aktionären zu dienen und Gewinne zu maximieren – Shareholder-Value –, zu einem stakeholderfokussierten Modell, haben sich businessorientiertes Verhalten und die entsprechenden Verantwortlichkeiten erheblich verändert. Integrierte Business-Informationssysteme sind zu intelligenten Business-Integrationssystemen mutiert. Gempen, Schweiz
Klaus-Dieter Gronwald
Danksagung
Mein Dank geht an die Hochschule Luzern, die dieses Projekt mit einer Sonderförderung unterstützt und sich damit gleichzeitig zu neuen Lehr- und Lernmethoden bekannt hat. Vielen Dank an alle meine Studierenden an der Fachhochschule Nordwestschweiz und an der Hochschule Luzern, die mir geholfen haben, den richtigen Weg zu finden. Inzwischen haben Schulen, Hochschulen und Universitäten weltweit die Kdibis-Games und dieses Lehrbuch in ihre Lehrpläne und Kurse integriert. Ich danke allen, die sowohl für die Games als auch für das Buch zu Verbesserungen beigetragen haben. Mein besonderer Dank geht an Prof. Dr. Gregor Sandhaus und seine engagierten Studierenden an der FHDW Fachhochschule der Wirtschaft in Deutschland. Ihr Feedback, teilweise live aus dem Unterricht heraus, führte zu signifikanten Verbesserungen in Bezug auf die Qualität und Konsistenz zwischen dem Buch und den Games. Das schließt auch einige Fehler ein, die sie im Buch gefunden haben.
IX
Inhaltsverzeichnis
1 Einleitung. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 Teil I Businessintegrationsmethoden 2 ERP – Enterprise Resource Planning. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7 2.1 Definition und Ziele�������������������������������������������������������������������������������������� 7 2.2 Strategische Ziele������������������������������������������������������������������������������������������ 8 2.2.1 Geschäftsprozessstandardisierung���������������������������������������������������� 8 2.2.2 Lokalisierung������������������������������������������������������������������������������������ 8 2.2.3 Stammdatenoptimierung ������������������������������������������������������������������ 9 2.2.4 Standardisierung der IT-Infrastruktur ���������������������������������������������� 10 2.2.5 TCO – Total Cost of Ownership ������������������������������������������������������ 10 2.2.6 ERP-Template ���������������������������������������������������������������������������������� 11 2.2.7 Organisational Changemanagement ������������������������������������������������ 13 2.2.8 Lokalisierungsanforderungen an ein Template �������������������������������� 14 2.3 Organisational Readiness������������������������������������������������������������������������������ 15 2.4 BS 7799 und ISO 20000 ������������������������������������������������������������������������������ 17 2.5 ITIL – Information Technology Infrastructure Library�������������������������������� 17 2.6 CMMI – Capability Maturity Model Integration������������������������������������������ 19 2.7 Six Sigma������������������������������������������������������������������������������������������������������ 21 2.8 Lean IT���������������������������������������������������������������������������������������������������������� 22 2.9 Übungen und Quiz���������������������������������������������������������������������������������������� 23 Literatur������������������������������������������������������������������������������������������������������������������ 24 3 SCM – Supply-Chain-Management . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25 3.1 Definition und Ziele�������������������������������������������������������������������������������������� 25 3.2 Lean Manufacturing�������������������������������������������������������������������������������������� 26 3.2.1 Muda, Mura, Muri���������������������������������������������������������������������������� 26 3.2.2 Kanban���������������������������������������������������������������������������������������������� 27 3.3 Der Bullwhip-Effekt ������������������������������������������������������������������������������������ 29 3.4 Der Bullwhip-Effekt-Index �������������������������������������������������������������������������� 32
XI
XII
Inhaltsverzeichnis
3.5 Demand Forecasting ������������������������������������������������������������������������������������ 36 3.5.1 Qualitative Forecasting-Methoden���������������������������������������������������� 36 3.5.2 Quantitative Forecasting-Methoden�������������������������������������������������� 37 3.5.3 Zeitserien-Forecasting-Komponenten���������������������������������������������� 38 3.5.4 Naiver Forecast �������������������������������������������������������������������������������� 38 3.5.5 Einfacher gleitender Mittelwert-Forecast ���������������������������������������� 39 3.5.6 Exponentiell geglätteter Mittelwert-Forecast������������������������������������ 40 3.5.7 Linearer Trend-Forecast�������������������������������������������������������������������� 42 3.6 Inventory-Management �������������������������������������������������������������������������������� 45 3.6.1 Lagerkosten�������������������������������������������������������������������������������������� 45 3.6.2 Lagerhaltungsmodelle���������������������������������������������������������������������� 46 3.6.3 Lagerhaltungskosten ������������������������������������������������������������������������ 47 3.6.4 EOQ-Modelle – Bestellpunktmodell (Fixed-order Quantity Model)�������������������������������������������������������������������������������� 47 3.7 Blockchain im Supply-Chain-Management�������������������������������������������������� 60 3.7.1 Blockchain Geschichte��������������������������������������������������������������������� 60 3.7.2 Kryptografischer Hash���������������������������������������������������������������������� 60 3.7.3 Blockchain Grundlagen�������������������������������������������������������������������� 62 3.7.4 Blockchain und Supply-Chain-Automation�������������������������������������� 64 3.7.5 Smart Contracts und Due Diligence ������������������������������������������������ 66 3.8 Übungen und Quiz���������������������������������������������������������������������������������������� 68 Literatur������������������������������������������������������������������������������������������������������������������ 68 4 CRM. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71 4.1 Ausgangslage������������������������������������������������������������������������������������������������ 71 4.2 CRM-Strategie���������������������������������������������������������������������������������������������� 72 4.3 CRM-Kundenbindung���������������������������������������������������������������������������������� 73 4.4 Ziele und Vorgehensmodelle������������������������������������������������������������������������ 73 4.4.1 Strategisches CRM���������������������������������������������������������������������������� 73 4.4.2 Analytisches CRM���������������������������������������������������������������������������� 73 4.4.3 Kommunikatives CRM �������������������������������������������������������������������� 74 4.4.4 Operatives CRM ������������������������������������������������������������������������������ 74 4.5 Loyalty-Management und Share of Wallet �������������������������������������������������� 76 4.5.1 Customer Lifetime Value CLTV ������������������������������������������������������ 76 4.5.2 Customer Lifetime Value NPV �������������������������������������������������������� 78 4.6 Warum CRM-Projekte scheitern������������������������������������������������������������������ 79 4.7 Einflussfaktoren von gescheiterten CRM-Projekten auf die Unternehmensperformance �������������������������������������������������������������������������� 79 4.8 Übungen und Quiz���������������������������������������������������������������������������������������� 80 Literatur������������������������������������������������������������������������������������������������������������������ 80
Inhaltsverzeichnis
XIII
5 BI – Business Intelligence. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83 5.1 Einleitung und Definitionen�������������������������������������������������������������������������� 83 5.2 OLAP und OLTP������������������������������������������������������������������������������������������ 84 5.3 ETL-Prozess�������������������������������������������������������������������������������������������������� 85 5.4 Data Mining�������������������������������������������������������������������������������������������������� 86 5.5 Case Studies�������������������������������������������������������������������������������������������������� 87 5.6 Übungen und Quiz���������������������������������������������������������������������������������������� 87 Literatur������������������������������������������������������������������������������������������������������������������ 87 6 Big Data Analytics. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89 6.1 Standortbestimmung ������������������������������������������������������������������������������������ 89 6.2 Big Data im Spannungsfeld von Daten und Intuition (Gronwald 2018)������ 91 6.3 Paradigmenwechsel�������������������������������������������������������������������������������������� 91 6.4 Die sieben+ Vs���������������������������������������������������������������������������������������������� 92 6.5 Das Problem der unstrukturierten Daten������������������������������������������������������ 93 6.6 Analytics Evolution�������������������������������������������������������������������������������������� 94 6.7 Analytics Lifecycle – Big-Data-Analytics-Prozessmodelle ������������������������ 95 6.8 Text Mining�������������������������������������������������������������������������������������������������� 96 6.8.1 Text Mining – Kategorien ���������������������������������������������������������������� 97 6.8.2 Text Mining – linguistischer und mathematischer Ansatz���������������� 98 6.8.3 Text Mining – numerische Transformation nach Duffy (2008)�������� 98 6.8.4 Text Mining – numerische Transformation nach Lu (2013) ������������ 99 6.8.5 Text Mining – Vektorraummodell���������������������������������������������������� 99 6.8.6 Levenshtein-Distanz�������������������������������������������������������������������������� 102 6.9 Sentiment Analysis – Grundlegende Konzepte�������������������������������������������� 106 6.10 Case Studies�������������������������������������������������������������������������������������������������� 110 6.11 Übungen und Quiz���������������������������������������������������������������������������������������� 110 Literatur������������������������������������������������������������������������������������������������������������������ 111 7 Artificial Intelligence . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113 7.1 Überblick������������������������������������������������������������������������������������������������������ 113 7.2 Datenqualität und Outlier Detection ������������������������������������������������������������ 117 7.2.1 Die Normalverteilung ���������������������������������������������������������������������� 117 7.2.2 Outlier und Noise Detection ������������������������������������������������������������ 120 7.3 Machine Learning ���������������������������������������������������������������������������������������� 122 7.3.1 Regression���������������������������������������������������������������������������������������� 124 7.3.2 Klassifikation������������������������������������������������������������������������������������ 126 7.4 Deep Learning���������������������������������������������������������������������������������������������� 127 7.4.1 Perzeptron und das XOR-Problem��������������������������������������������������� 127 7.4.2 Single-Layer-Perzeptron ������������������������������������������������������������������ 127 7.4.3 Multilayer-neuronales Netz�������������������������������������������������������������� 130 7.5 Übungen und Quiz���������������������������������������������������������������������������������������� 135 Literatur������������������������������������������������������������������������������������������������������������������ 135
XIV
Inhaltsverzeichnis
Teil II Businesssimulation 8 Kdibis Global. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 139 8.1 Kdibis Global Organisation�������������������������������������������������������������������������� 139 8.2 Getränkedivision ������������������������������������������������������������������������������������������ 140 8.2.1 Biersubdivision �������������������������������������������������������������������������������� 142 8.2.2 Wassersubdivision���������������������������������������������������������������������������� 144 8.2.3 Softdrinkssubdivision ���������������������������������������������������������������������� 144 8.2.4 Getränkedivision Post-Merger-Situation������������������������������������������ 146 8.3 Manufacture-Division ���������������������������������������������������������������������������������� 148 9 Getränke: Rollenspiel und Games. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 151 9.1 Rollenverteilung�������������������������������������������������������������������������������������������� 151 9.2 Vorbereitung�������������������������������������������������������������������������������������������������� 152 9.3 Gamestruktur und Organisation�������������������������������������������������������������������� 153 9.4 Kursmanagement������������������������������������������������������������������������������������������ 153 9.4.1 Schritt 1 – Supervisorregistrierung �������������������������������������������������� 153 9.4.2 Schritt 2 – Kurse generieren ������������������������������������������������������������ 154 9.4.3 Schritt 3 – Games generieren������������������������������������������������������������ 154 9.4.4 Schritt 4 – Teilnehmer registrieren���������������������������������������������������� 155 9.4.5 Teilnehmer-Log-in���������������������������������������������������������������������������� 155 9.5 Entwicklung und Implementierung einer ERP-Strategie������������������������������ 156 9.5.1 Situationsanalyse������������������������������������������������������������������������������ 156 9.5.2 ERP-Strategie������������������������������������������������������������������������������������ 156 9.5.3 M&A-IT-Integration ������������������������������������������������������������������������ 157 9.5.4 M&A-IT-Integrationsbereiche und Integrationssequenz������������������ 159 9.5.5 M&A-IT-Integrationsresultate���������������������������������������������������������� 162 9.5.6 Produktportfolioanalyse, Bereinigung und Geschäftsprozessstandardisierung���������������������������������������������������� 162 9.5.7 Aufgabe – Board-Review-Meeting 1������������������������������������������������ 165 9.6 Gamerunde 1 – Supply Chain nicht optimiert – Das Bullwhip-Game �������� 166 9.7 Entwicklung und Implementierung einer SCM Strategy������������������������������ 167 9.7.1 Aufgabe – Board-Review-Meeting 2������������������������������������������������ 167 9.8 Gamerunde 2 – Supply Chain optimiert – SCM2 – Inventory-Management������ 168 9.8.1 Aufgabe – Board-Review-Meeting 3������������������������������������������������ 169 9.9 Gamerunde 3 – CRM-SCM-Integration ������������������������������������������������������ 169 9.9.1 Aufgabe – Board-Review-Meeting 5������������������������������������������������ 171 9.10 Gamerunde 4 – CRM-Big-Data-Integration ������������������������������������������������ 171 9.11 SCM3 – Machine Learning�������������������������������������������������������������������������� 172 Literatur������������������������������������������������������������������������������������������������������������������ 174 Stichwortverzeichnis. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 175
Abbildungsverzeichnis
Abb. 2.1 Abb. 2.2 Abb. 2.3 Abb. 2.4 Abb. 2.5 Abb. 2.6 Abb. 2.7
ERP-Template������������������������������������������������������������������������������������������������ 12 ERP-Template-Lokalisierung ������������������������������������������������������������������������ 15 ERP-Template-Lokalisierung Prozessanalyse������������������������������������������������ 15 ERP-Template-Lokalisierung Governance ���������������������������������������������������� 16 ERP-Template-Qualitäts- und Prozessmodelle���������������������������������������������� 16 ITIL-Service-Lifecycle. (Angelehnt an www.itil.org)������������������������������������ 18 Six Sigma�������������������������������������������������������������������������������������������������������� 22
Abb. 3.1 Abb. 3.2 Abb. 3.3 Abb. 3.4
Pushproduktion ���������������������������������������������������������������������������������������������� 27 Kanban Pullproduktionssystem���������������������������������������������������������������������� 28 Lineare Supply Chain. (Quelle: kdibis.com)�������������������������������������������������� 30 Bullwhip-Effekt in einer einfachen linearen Supply Chain. (Quelle: kdibis.com) �������������������������������������������������������������������������������������� 30 Abb. 3.5 Lagerbestand und Fehlmengen. (Quelle: kdibis.com)������������������������������������ 31 Abb. 3.6 Bullwhip-Effekt – Lagerkosten. (Quelle: kdibis.com) ���������������������������������� 32 Abb. 3.7 Bullwhip-Effekt-Index in Relation zu Produktion und Sales. (Quelle: kdibis.com) �������������������������������������������������������������������������������������� 33 Abb. 3.8 Bullwhip-Effekt-Index – Zusammenhang mit Lagerkosten. (Quelle: kdibis.com) �������������������������������������������������������������������������������������� 34 Abb. 3.9 Eliminierter Bullwhip-Effekt und Lagerkosten. (Quelle: kdibis.com) ���������� 35 Abb. 3.10 Forecasting – naiver Forecast. (Quelle: kdibis.com)�������������������������������������� 39 Abb. 3.11 Forecasting: einfacher gleitender Mittelwert, Periode 5 Wochen. (Quelle kdibis.com)���������������������������������������������������������������������������������������� 40 Abb. 3.12 Forecasting: einfacher gleitender Mittelwert, Periode 2 Wochen. (Quelle: kdibis.com) �������������������������������������������������������������������������������������� 40 Abb. 3.13 Forecasting: exponentiell geglätteter Mittelwert, Woche 10 – α = 0,3. (Quelle: kdibis.com) �������������������������������������������������������������������������������������� 41 Abb. 3.14 Forecasting: exponentiell geglätteter Mittelwert – α = 0,5. (Quelle: kdibis.com) �������������������������������������������������������������������������������������� 42 Abb. 3.15 Forecasting: linearer Trend Bier-Division. (Quelle: kdibis.com) ������������������ 44 Abb. 3.16 Forecasting: linearer Trend Wasser-Division. (Quelle: kdibis.com)�������������� 45 XV
XVI
Abbildungsverzeichnis
Abb. 3.17 Forecasting: linearer Trend Softdrinks-Division. (Quelle: kdibis.com) �������� 46 Abb. 3.18 EOQ Basic – Bestellzyklus. (Quelle: kdibis.com)������������������������������������������ 49 Abb. 3.19 EOQ Basic – Bestimmung der minimalen Lagerkosten. (Quelle: kdibis.com)���������������������������������������������������������������������������������������������������������� 49 Abb. 3.20 EOQ Shortages – Bestellzyklus. (Quelle: kdibis.com)���������������������������������� 51 Abb. 3.21 EOQ Shortages – Bestimmung der minimalen Lagerkosten. (Quelle: kdibis.com) �������������������������������������������������������������������������������������� 54 Abb. 3.22 EOQ Non-Instantaneous – Bestellzyklus. (Quelle: kdibis.com)�������������������� 57 Abb. 3.23 EOQ Non-Instantaneous – Minimierung der Lagerhaltungskosten. (Quelle: kdibis.com) �������������������������������������������������������������������������������������� 59 Abb. 3.24 Blockchain – Resultate Bierprodukte. (Quelle: kdibis.com)�������������������������� 62 Abb. 3.25 Peer-to-Peer-Netzwerk – Distributed Ledger ������������������������������������������������ 64 Abb. 4.1 Paradigmenwechsel im Marketing (Ahlert et al. 2000)���������������������������������� 77 Abb. 4.2 Kundenlebenszyklus (Strauss 2000)�������������������������������������������������������������� 77 Abb. 5.1 Business Intelligence OLTP-ETL-OLAP-Prozessfluss���������������������������������� 85 Abb. 6.1 Die invertierte Managementpyramide������������������������������������������������������������ 90 Abb. 6.2 Moore’s Law. (In Anlehnung an BCA Research) ������������������������������������������ 90 Abb. 6.3 Generischer Analytics-Prozessfluss. (In Anlehnung an Franks 2014 und EMC 2015)���������������������������������������������������������������������������������������������� 96 Abb. 6.4 Text Mining – Vektorraummodell���������������������������������������������������������������� 100 Abb. 6.5 Levenshtein-Distanz für Satzanalyse. (Quelle: kdibisglobal.com)�������������� 109 Abb. 6.6 Sentiment Analysis als Maß für Marketingperformance. (Quelle: kdibisglobal.com) �������������������������������������������������������������������������� 110 Abb. 7.1 Machine-Learning-Prozessmodell (SAS 2019b)������������������������������������������ 115 Abb. 7.2 Popularität von AI-Methoden. (Quelle: Google Trends)������������������������������ 116 Abb. 7.3 Mittelwertverteilung 10 Würfel 50-mal würfeln������������������������������������������ 118 Abb. 7.4 Mittelwertverteilung für 10 Würfel 500-mal würfeln���������������������������������� 119 Abb. 7.5 Mittelwertverteilung für 10 Würfel 50.000-mal gewürfelt �������������������������� 119 Abb. 7.6 Standardabweichung der Normalverteilung ������������������������������������������������ 120 Abb. 7.7 Eisenkontamination auf Siliziumwafern Messwertverteilung���������������������� 121 Abb. 7.8 Eisenkontamination Outlier Detection mit Q-Q-Diagramm������������������������ 122 Abb. 7.9 Eisenkontamination Outlier Detection mit Boxplot ������������������������������������ 123 Abb. 7.10 Machine-Learning-Techniken. (Angelehnt an Mathworks 2019)���������������� 123 Abb. 7.11 Regression und Klassifikation. (Angelehnt an Aunkofer 2017) ������������������ 124 Abb. 7.12 Gewichtetes Regressionsmodell ������������������������������������������������������������������ 125 Abb. 7.13 Perzeptron als gewichtetes Klassifikationsmodell���������������������������������������� 126 Abb. 7.14 AND-Logik-Neuron mit ReLU-Aktivierungsfunktion�������������������������������� 128 Abb. 7.15 OR-Logik-Neuron mit ReLU-Aktivierungsfunktion������������������������������������ 128 Abb. 7.16 AND-Entscheidungsgrenze�������������������������������������������������������������������������� 130 Abb. 7.17 OR-Entscheidungsgrenze����������������������������������������������������������������������������� 131
Abbildungsverzeichnis
XVII
Abb. 7.18 XOR-Entscheidungsgrenzen������������������������������������������������������������������������ 131 Abb. 7.19 XOR-logik-neuronales Netz mit ReLU-Aktivierungsfunktion. (Angelehnt an Aunkofer 2018) �������������������������������������������������������������������� 132 Abb. 8.1 Abb. 8.2 Abb. 8.3 Abb. 8.4
Kdibis Global – https://www.kdibisglobal.com ������������������������������������������ 140 Kdibis-Global-Unternehmensgruppe������������������������������������������������������������ 140 Getränkesubdivisionen���������������������������������������������������������������������������������� 141 Share of Wallet von Key Accounts bei Kdibis-Unternehmen. (Quelle: Kdibis.com)������������������������������������������������������������������������������������ 141 Abb. 8.5 Share of Wallet der Kdibis-Unternehmen bei Key Accounts. (Quelle: Kdibis.com)������������������������������������������������������������������������������������ 142 Abb. 8.6 Bier – Portfolio. (Quelle: kdibis.com)���������������������������������������������������������� 143 Abb. 8.7 Bier – jährliche Bedarfsverteilung. (Quelle: kdibis.com)���������������������������� 143 Abb. 8.8 Wasser – Portfolio. (Quelle: kdibis.com)������������������������������������������������������ 144 Abb. 8.9 Wasser – jährliche Bedarfsverteilung. (Quelle: kdibis.com)������������������������ 144 Abb. 8.10 Softdrinks – Portfolio. (Quelle: kdibis.com)������������������������������������������������ 145 Abb. 8.11 Softdrinks – jährliche Bedarfsverteilung. (Quelle: kdibis.com) ������������������ 145 Abb. 8.12 Manufacture-Subdivisionen�������������������������������������������������������������������������� 149 Abb. 8.13 Manufacture-Produktportfolio���������������������������������������������������������������������� 149 Abb. 9.1 Rollen für die Getränke-ERP- und -SCM-Games���������������������������������������� 152 Abb. 9.2 Rollen für das Getränke-CRM-Game ���������������������������������������������������������� 152 Abb. 9.3 M&A-IT-Integration – Koexistenz/Symbiose���������������������������������������������� 157 Abb. 9.4 M&A-IT-Integration – Absorption/Übernahme�������������������������������������������� 158 Abb. 9.5 M&A-IT-Integration – Best of Breed/Standardisierung ������������������������������ 159 Abb. 9.6 M&A-IT-Integration – Transformation�������������������������������������������������������� 159 Abb. 9.7 M&A-IT-Integrationsbereiche���������������������������������������������������������������������� 160 Abb. 9.8 M&A-IT-Integrationssequenz���������������������������������������������������������������������� 160 Abb. 9.9 Order-to-Deliver-Prozess������������������������������������������������������������������������������ 164 Abb. 9.10 Order-to-Deliver-Prozess Produktion – Rohmateriallager��������������������������� 165 Abb. 9.11 Share of Wallet Discount. (Quelle: kdibis.com) ������������������������������������������ 172 Abb. 9.12 Twitter und Sentiment Analysis für Teamperformance. (Quelle: kdibis.com) ������������������������������������������������������������������������������������ 173 Abb. 9.13 Twitter und Word Cloud für Produktperformance. (Quelle: kdibis.com) ������������������������������������������������������������������������������������ 173 Abb. 9.14 Einfacher gleitender Mittelwert-Forecast für saisonale Bedarfsverteilung. (Quelle: kdibis.com)������������������������������������������������������ 174
Tabellenverzeichnis
Tab. 3.1 Tab. 3.2 Tab. 3.3 Tab. 3.4 Tab. 3.5 Tab. 3.6 Tab. 3.7
Kanban-Berechnung für eine dreistufige Sensorfertigungslinie�������������������� 29 Linearer Trend Bier���������������������������������������������������������������������������������������� 43 Linearer Trend Wasser������������������������������������������������������������������������������������ 44 Linearer Trend Softdrinks������������������������������������������������������������������������������ 46 Lagerkosten im Vergleich ������������������������������������������������������������������������������ 46 Salting Hashes. (Angelehnt an crackstation.net 2019) ���������������������������������� 61 Blockchain – Resultate Bierprodukte (Quelle: kdibis.com) �������������������������� 62
Tab. 4.1 Tab. 4.2 Tab. 4.3 Tab. 4.4
CLTV-Parameter �������������������������������������������������������������������������������������������� 78 CLTV-Kundenvergleich���������������������������������������������������������������������������������� 78 NPV-Parameter ���������������������������������������������������������������������������������������������� 78 NPV-Kundenvergleich������������������������������������������������������������������������������������ 78
Tab. 6.1 Big-Data-Analytics-Prozessmodelle Gegenüberstellung. (Quelle: Franks 2014) ������������������������������������������������������������������������������������ 96 Tab. 6.2 Levenshtein-Matrix Layout�������������������������������������������������������������������������� 104 Tab. 6.3 Levenshtein-Matrix komplett������������������������������������������������������������������������ 106 Tab. 6.4 Excel-Lösung für Levenshtein-Matrix���������������������������������������������������������� 106 Tab. 6.5 Beispiele positiver Wörter von Remus et al. (2010) ������������������������������������ 107 Tab. 6.6 Beispiele negativer Wörter von Remus et al. (2010)������������������������������������ 107 Tab. 6.7 Beispieltweets von kdibisglobal.com-Marketingkampagnen ���������������������� 108 Tab. 6.8 Eingehende Tweets bei kdibisglobal.com���������������������������������������������������� 108 Tab. 7.1 Sigmakonfidenzniveau für normalverteilte Experimente ���������������������������� 121 Tab. 8.1 Biersubdivision Ergebnisse nach dem Merger. Zahlen können pro Game variieren���������������������������������������������������������������������������������������������� 143 Tab. 8.2 Wassersubdivision Resultate nach dem Merger. Zahlen können pro Game variieren���������������������������������������������������������������������������������������������� 145 Tab. 8.3 Softdrinkssubdivision Resultate nach dem Merger. Zahlen können pro Game variieren���������������������������������������������������������������������������������������������� 146 Tab. 9.1 Typische Resultate von drei EOQ-Modellen. (Quelle: kdibis.com) ������������ 168 XIX
1
Einleitung
Die virtuelle Gamingwelt www.kdibisglobal.com ist die webbasierte Businesssimulation, die speziell für die Kurse dieses Buches entwickelt wurde. Sie ergänzt das Buch mit Games, Vorlagen für Entscheidungen und Präsentationen, einschließlich Simulationsergebnissen, Übungen und Fallstudien zu jedem Buchkapitel. Die Kurse simulieren die schrittweise Implementierung und Integration von Business- Informationssystemen und -prozessen von vier konkurrierenden Unternehmen über einen Zeitraum von drei bis fünf Geschäftsjahren. Die Integration von Blockchain- und Artificial- Intelligence-Methoden in die ERP-SCM-CRM-BI-Big-Data-Prozesskette erfordert zwei separate Kurse mit unterschiedlichen Branchen und Rollen. Die Kursteilnehmer übernehmen als neue Geschäftsleitungsmitglieder die volle Profit- und-Loss-(P&L-)Verantwortung für Geschäftsbereiche je einer von vier Getränkegruppen von der Produktion bis zum Einzelhandel. Die Geschichte ist eine Kombination aus Fakten und Fiktion. Nach der Akquisition eines Getränkeherstellers wurden die Geschäftsbereiche des virtuellen Unternehmens Kdibis Global in vier separate Unternehmen aufgeteilt – Alpha Kdibis, Green Kdibis, Royal Kdibis und Wild Horse Kdibis. Alle vier Unternehmen besitzen identische Geschäftsbereiche, eine Getränkedivision mit Subdivisionen Bier, Wasser und Softdrinks sowie eine Manufacture-Division mit den Subdivisionen Scanner und Sensoren. Der Umfang dieses Buches deckt nur den Getränkekurs ab. Unter kdibisglobal.com ist der Manufacture-Kurs online als E-Learning-Kurs verfügbar. Die Theorie für diesen Kurs finden Sie in diesem Buch in den Kap. 3 und Kap. 7. Der Getränkekurs besteht aus vier Unternehmen – Alpha Kdibis, Green Kdibis, Royal Kdibis, Wild Horse Kdibis – mit je einer vierstufigen Supply Chain und vier Einzelhandelsketten mit jeweils elf Produkten. Für jedes Produkt und für jeden Einzelhändler wird ein zufälliger Bedarf generiert. Zusätzlich wird eine von vier ebenfalls zufällig ausgewählten jährlichen Bedarfsverteilungen überlagert. Diese Verteilungen entsprechen realen
© Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature 2020 K.-D. Gronwald, Integrierte Business-Informationssysteme, https://doi.org/10.1007/978-3-662-59815-3_1
1
2
1 Einleitung
aten aus verschiedenen Ländern sowie den zufälligen Verbrauchsschwankungen des D Bedarfs. Dies geschieht für jedes der vier Teams. Infolgedessen hat jedes Unternehmen seine eigene anfängliche Bedarfsverteilung, seinen eigenen Umsatz und seinen eigenen Marktanteil. Die Subdivisionen Bier, Softdrinks und Wasser unterscheiden sich bei den jährlichen Bedarfsverteilungen, Märkten, Wachstumsraten, Umsatz und Preisen. Die Teilnehmer des Getränkekurses werden in verschiedenen Phasen dieses Kurses unterschiedliche Führungspositionen übernehmen. Jede Gruppe hat vier Einzelhandelsketten, die über das ganze Land verteilt sind. Es gibt eine typische Post-Merger-Situation unmittelbar nach der Gründung der vier Gruppen mit Geschäftsbereichen, die unterschiedliche Geschäftsprozesse, Produktportfolios, Regeln, Tools und IT-Infrastrukturen aufweisen. Mit den strategischen Zielen einer ERP-Implementierung – Standardisierung von Geschäftsprozessen, Standardisierung von Stammdaten, Optimierung der IT-Infrastruktur – wird die Post-Merger-Situation bereinigt. Der nächste Schritt ist die Optimierung der Supply Chains durch Einführung von Supply-Chain-Management-Techniken, einschließlich Machine Learning und Deep Learning, um den Forecast und die Lagerhaltungskosten zu optimieren. Mit dem Fokus auf Vertrieb und Marketing wird Customer-Relationship- Management implementiert, das den direkten Wettbewerb der vier Gruppen initiiert. Realtime Big Data Analytics ist der letzte Schritt für die erfolgreiche Implementierung integrierter Business-Informationssysteme. Um den Forecast und das Inventory-Management vollständig zu automatisieren und zu optimieren, wird der Getränkekurs durch Machine Learning und Deep Learning abgeschlossen. Rollenspiel- und Gamingphasen alternieren, beginnend mit der Bildung der Geschäftsbereiche und der Analyse der anfänglichen Geschäftslage. Die Lehrenden werden in der Rolle als Supervisor in das Rollenspiel einbezogen und beurteilen die Leistung jedes Teams in formellen Review Meetings. Die ideale Teamgröße liegt zwischen 20 und 30 Teilnehmern mit vier Unternehmen und bis zu zwei Teilnehmern pro Rolle. Die ideale Größe ist 20 Teilnehmer, vier Teams mit einer Person pro Rolle. Der ideale Klassenraum wäre ein Raum mit vier separaten runden oder quadratischen Tischen für acht bis zehn Personen. Diese Lerninseln, eine für jedes Unternehmen, haben sich als äußerst erfolgreich erwiesen, um die Gruppen sofort mit ihrem Unternehmen zu identifizieren, ihre eigene Gruppendynamik vom ersten Tag an zu entwickeln und gleichzeitig die anderen Gruppen im Raum zu erfassen. Getränke sind ideale Produkte für ein Supply Chain Game: Sie sind leicht zu produzieren, bestehen aus wenigen Hauptzutaten und haben einen einheitlichen Fertigungszyklus. Sie lassen sich leicht in einer Vielzahl von Produkten vermarkten und leicht verteilen. Es gibt einen kontinuierlichen, aber schwankenden Absatz, saisonal und zufallsbedingt, der eine gute Dynamik für das Forecasting und das Inventory-Management als wesentliche Supply-Chain-Management-Komponenten garantiert. Die Retail-Gruppen lassen sich ebenfalls diversifizieren, von dem Getränkeabholmarkt über den normalen Einzelhandel bis zur Getränkeboutique, jede mit speziellem Produktportfolio. Die Wettbewerbssituation im Consumer Business ist ebenfalls ideal. Es gibt zwar eine relative Produkttreue bei
1 Einleitung
3
etränken, aber wenn die Wunschprodukte nicht lieferbar sind, kauft man eher ein andeG res als gar keines. Das Buch besteht aus zwei Teilen. Teil I: Detaillierte Kursinhalte und Theorie der Businessintegrationsmethoden und -werkzeuge zum Kompetenzaufbau. Er ist traditionell nach den Themen ERP, SCM, CRM, BI, Big Data Analytics, Artificial Intelligence gegliedert. Teil II: Rollenbasierte Businesssimulation. Einführung in die rollenbasierte Simulationsumgebung kdibisglobal.com, die Story, Methoden und Hintergrundinformationen für die Onlinesimulation einschließlich des Registrierungsprozesses und der Gameinitiierung. Der Teil ist nach Projektphasen gegliedert und enthält nur die grundlegenden Lerninhalte, die für die Durchführung der einzelnen Phasen erforderlich sind. Alle anderen Kursmaterialien wie Vorlagen für Präsentationen, Vorlesungsunterlagen, Handbücher und Review Meetings können von kdibisglobal.com heruntergeladen werden.
Teil I Businessintegrationsmethoden
Zusammenfassung Teil I enthält den theoretischen Hintergrund sowie die thematische und formale Vertiefung der einzelnen Komponenten einer integrierten Business-Informationssystem-Umgebung, ERP, SCM, CRM, BI, Big Data Analytics, einschließlich Machine Learning und Deep Learning als Artificial-Intelligence-Methoden.
2
ERP – Enterprise Resource Planning
Zusammenfassung
Der ERP-Teil behandelt ausführlich die strategischen Ziele einer ERP-Implementation. Er wird vervollständigt durch Themenbereiche wie ERP-Template Entwicklung und Rollouts, Total Cost of Ownership und Organisational Changemanagement. Ein ausführlicher Abschnitt über Organisational Readiness behandelt Best-Practices-Qualitätsund Prozessmodelle.
2.1
Definition und Ziele
Vertriebsstrukturen, Geschäftsprozesse sowie die IT-Infrastruktur sind über ERP miteinander vernetzt und lassen sich somit mithilfe einer geeigneten ERP-Strategie standardisieren und mit geeigneten Softwaresystemen realisieren. Die operative Sicht auf ein ERP-System beschreibt es als „System, das sämtliche in einem Unternehmen ablaufenden Geschäftsprozesse unterstützt. Es enthält Module für die Bereiche Beschaffung, Produktion, Vertrieb, Anlagenwirtschaft, Finanz- und Rechnungswesen usw., die über eine gemeinsame Datenbasis miteinander verbunden sind“ (Springer Gabler Verlag o. J. a). Die Einbeziehung von Businesszielen in die Überlegungen führt zu einem eher strategischen Ansatz für die Implementierungsziele eines ERP-Systems. „Die Standardisierung von Geschäftsprozessen über Organisationsgrenzen hinaus kann enorme Synergieeffekte haben. Organisationen können Best Practices im System implementieren und damit wird das ERP-System als Business-Tool und nicht als IT-Tool wahrgenommen“ (Desai und Srivastava 2013).
© Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature 2020 K.-D. Gronwald, Integrierte Business-Informationssysteme, https://doi.org/10.1007/978-3-662-59815-3_2
7
8
2.2
2 ERP – Enterprise Resource Planning
Strategische Ziele
Die drei fundamentalen Ziele einer ERP-Implementierung sind: • Schaffung einer einheitlichen Geschäftsprozessarchitektur, • Standardisierung interner und externer Stammdaten, • Standardisierung der Informationssystemarchitektur.
2.2.1 Geschäftsprozessstandardisierung Ein Geschäftsprozess ist eine Folge von Wertschöpfungsketten mit einem oder mehreren Inputs und einem kundennutzenstiftenden Output (Springer Gabler Verlag o. J. b). Geschäftsprozesse sind nicht an organisatorische Unternehmensgrenzen gebunden, vielmehr können mehrere unternehmensinterne Abteilungen oder auch unternehmensexterne Geschäftspartner sowie Ressourcen eingebunden werden (Bächle und Kolb 2012). Standardisierung von Geschäftsprozessen bedeutet, in einem Unternehmen oder zwischen Unternehmen eine einheitliche und durchgängige Prozesslandschaft zu schaffen, um den Leistungsaustausch zwischen Geschäftseinheiten sowie mit externen Kunden, Lieferanten oder Partnern transparent und effizient steuern zu können (Schmelzer und Sesselmann 2008). Insbesondere bei Merger & Acquisition unterstützt Prozessstandardisierung die Umsetzung strategischer Ziele und die Schaffung einer einheitlichen Unternehmenskultur (Corporate Culture). Dieses ist allerdings in der Regel mit Machtverschiebungen auf mittlerer Führungsebene verbunden. Darüber hinaus ermöglicht die Prozessstandardisierung die schnelle und unternehmensweite Umsetzung von Prozessverbesserungen (Best Practice Sharing), die Nutzung von Synergien, schafft einheitliche Unternehmensschnittstellen mit Kunden, Lieferanten und Partnern und schafft die Voraussetzungen für Bündelung oder Auslagerung von Geschäftsprozessen (Schmelzer und Sesselmann 2008). Beispiele: einheitlicher Order-to-Cash-Prozess, global standardisierter Kontenrahmen, zentraler Einkauf …
2.2.2 Lokalisierung Nicht alle Geschäftsprozesse lassen sich weltweit standardisieren. Bei konsequenter Umsetzung einer globalen Geschäftsprozessstandardisierung lassen sich Lokalisierungen auf 10–20 % der gesamten Geschäftsprozesse reduzieren. Backofficefunktionen, wie Ein kauf, Rechnungswesen, Lieferantenmanagement etc., sind leicht zu standardisieren. Im CRM-Bereich spielen lokale Einflüsse des Konsumentenverhaltens und kulturelle Einflüsse unterschiedlich große Rollen. Gerade von lokalen Niederlassungen wird das Festhalten an herkömmlichen Strukturen (Resistance against Change) häufig mit lokalen
2.2 Strategische Ziele
9
Eigenarten begründet. Das ist allerdings differenzierter zu betrachten und im Rahmen der Globalisierung in stetem Wandel begriffen. Gründe für Lokalisierungen umfassen länderspezifische Steuervorschriften, rechtliche Vorschriften, Lohn- und Gehaltssysteme, landessprachliche Anforderungen und die oben beschriebenen lokalen Anforderung an Marketing und Branding. Bereiche, in den Lokalisierungen auftreten können, sind Arbeitsplätze, Organisation, Prozesse, Funktionen, Daten und Technologie. Die Kunst ist die Abwägung zwischen Wünschen und Notwendigkeiten. Die Maßnahmen und Reaktionen auf eine Lokalisierungsanforderung werden im ERP-Template-Abschnitt behandelt.
2.2.3 Stammdatenoptimierung Die Standardisierung von Stammdaten ist u. a. Voraussetzung für die Zentralisierung des Einkaufs. Stammdaten sind die Basisdaten eines Unternehmens. Dazu gehören Artikelnummern, Kundenstamm, Mitarbeiterstamm, Lieferantenstamm, Stücklisten … Nach Heutschi et al. (2004) und Schemm (2008) lassen sich folgende Arten von Standards identifizieren: Formatstandards vereinheitlichen die syntaktische Codierung von Daten durch Spezifikation von Reihenfolge, Länge und Typ der Datenelemente; Datenstandards vereinheitlichen Struktur und Semantik von Daten durch die Spezifikation der Datenelemente; Nachrichten-/Dokumentenstandards dienen der Vereinheitlichung der Aggregation bzw. Verknüpfung von Datenelementen zu Nachrichten zur Übertragung zwischen Informationssystemen; Prozessstandards vereinheitlichen organisatorische Abläufe durch Festlegung der Abhängigkeiten zwischen einzelnen Aufgaben; Geschäftsstandards schaffen einheitliche Regelungen rechtlicher Rahmenbedingungen. Die Datenqualität ist eine weitere Voraussetzung für die erfolgreiche Stammdatenoptimierung. Bei Unternehmen ohne Stammdatenmanagement können leicht 50 % und mehr der Stammdaten obsolet oder redundant sein (Johnson 2005). Die wichtigsten Datenqualitätsdimensionen (Schmidt 2010) sind: • Genauigkeit, • Vollständigkeit, • Aktualität,
10
2 ERP – Enterprise Resource Planning
• Konsistenz, • Eindeutigkeit, • Zugänglichkeit. Neben der Optimierung des Order-to-Cash-Prozesses innerhalb des Supply-Chain- Managements trägt die Stammdatenstandardisierung mit einem erheblichen Anteil zur Kosteneinsparung bei ERP-Implementationen bei. Die globale Vereinheitlichung der Produktenummern für Roh- und Fertigprodukte ist Voraussetzung für die Zentralisierung des Einkaufs und ermöglicht das Aushandeln günstigerer Einkaufsbedingungen und Verträge mit Zulieferern. Sie verbessert die Lieferfähigkeit und Optimierung der Lagerhaltung in global vernetzten Supply Chains (Johnson 2005).
2.2.4 Standardisierung der IT-Infrastruktur Die Standardisierung der IT-Infrastruktur umfasst die Standardisierung von Hardware und Software, einschließlich der Vereinbarung globaler Einkaufskonditionen und Wartungsverträge mit den Lieferanten, die Konsolidierung globaler Data Center sowie die Entscheidung für eine Standard-ERP-Software. Separate Pakete für CRM und SCM sind optional und hängen von dem Bedarf und der jeweiligen Situation ab. Für die Auswahl und Implementierung von Standardsoftwarepaketen (ERP, SCM, CRM) ist eine Grundsatzentscheidung für eine Inhouselösung (On-Premises) oder für eine Cloud-Lösung (SaaS) zu fällen. Ein wesentlicher Parameter für die eine oder andere Variante sind die Total Cost of Ownership (TCO).
2.2.5 TCO – Total Cost of Ownership Der Begriff Total Cost of Ownership wurde von der amerikanischen Unternehmensberatung Gartner Inc. geprägt, die darunter die Gesamtkosten versteht, die von Investitionsgütern (Computersystemen) während ihrer Nutzungsdauer im Unternehmen verursacht werden. Die Gesamtkosten werden dabei aufgeteilt in die Kostengruppen Anschaffung (Hardware, Software), Betrieb (Server, Netze), technischer Support (Wartung, Benutzerschulung, Hilfestellung) und sog. Benutzeraktivitäten. Wichtigste Grundlage für das Verständnis der TCO ist die Unterscheidung zwischen direkten und indirekten Kosten. Direkte Kosten (ca. 60 %) entstehen als Kapitalkosten, Administration, technischer Support. Es sind budgetierbare Fixkosten für den Betrieb und Unterhalt unabhängig von einer Leistungserbringung (HW, Software, Netzwerkbetrieb, Sicherheit, Services, Betrieb Helpdesk).
2.2 Strategische Ziele
11
Indirekte Kosten (ca. 40 %) entstehen durch Endanwender und den Systembetrieb. Sie können durch die Qualität der Endbenutzerunterstützung beeinflusst werden und sind nur schwer budgetierbar (Schulung, Verfügbarkeit der Systeme, Antwortzeiten der Systeme).
2.2.6 ERP-Template Die Grundidee eines ERP-Systems ist ein Satz standardisierter Geschäftsprozessmodule, die durch Konfiguration von Parametern und Stammdaten an (fast) jede reale Geschäftsprozesssituation ohne Programmierung angepasst werden können (Configuration). Diese Module sind um einen zentralen festen Hardware-Software-Kern (Serverdatenbank) angeordnet. In der Praxis lassen sich häufig nicht alle Kundenprozesse mit Standardkonfigurationen abbilden. Es gibt dafür sowohl organisatorische, finanzielle, gesetzliche und firmenpolitische Gründe, die ein aufwendiges Business Process Reengineering verhindern. Grundsätzlich gibt es drei Lösungsansätze: a) Das Unternehmen passt seine Geschäftsprozesse an den ERP-Standard an (Organisational Changemanagement). b) Zusätzliche Funktionen müssen programmiert werden (Customization). c) Eine Kombination aus a) und b). In der Praxis sind diese Zusatzprogramme ein großes Problem u. a. bei Releasewechseln, die Folgekosten in der Höhe einer Erstimplementation oder mehr zur Folge haben können. Sie werden häufig durch externe Firmen geschrieben, die sich nicht unbedingt an vorgeschriebene Standards halten und damit nicht aufwärtskompatiblen Code erzeugen oder wenn der Hersteller des ERP-Systems seine Standards ändert. Im Rahmen von Serviceverträgen wird die Aufwärtskompatibilität bei Releasewechsel genau festgeschrieben. Externe Programme sind in der Regel davon ausgenommen. Das gilt auch für solche, welche mit einer systemeigenen Programmiersprache geschrieben wurden. Die Verwendung der Begriffe Configuration und Customization in diesem Buch ist wie folgt definiert: Configuration ist die Abbildung der Wertschöpfungskette eines Unternehmens in einem ERP-System durch die Konfiguration von Parametern in Kombination mit den entsprechenden Stammdaten unter ausschließlicher Verwendung standardisierter Geschäftsprozessmodule des Systems ohne externe Programmierung. Customization ist die Ergänzung bzw. Modifikation von Geschäftsprozessmodulen durch externe Programme, die nicht im Standard des ERP-Systems vorhanden sind. Das schließt Schnittstellenprogramme zu Drittsystemen und Reports mit ein.
12
2 ERP – Enterprise Resource Planning
Diese Definitionen gelten analog auch für SCM- und CRM-Systeme. Ein ERP-Template ist die Abbildung der Wertschöpfungskette eines Unternehmens, in dem 80–90 % aller Geschäftsprozesse sämtlicher Unternehmenseinheiten auf allen Stufen (Abteilungen, Geschäftsbereiche, Subunternehmen, Niederlassungen …) standardisiert als Kombination von Configuration und Customization enthalten sind und zentral entwickelt, gewartet und ausgerollt, das heißt in den Unternehmensteilen eingeführt werden (Abb. 2.1). Die Einführung eines templatebasierenden ERP-Systems (Rollout) in den verschiedenen Bereichen eines Unternehmens ist aufwendig und mit nicht unerheblichen Risiken verbunden, vor allem auf der organisatorischen Ebene. Er beeinflusst Organisationsgrenzen, das Management, Arbeitsgewohnheiten, Organisationsstrukturen und Entscheidungsprozesse und erzwingt neue Formen der Zusammenarbeit innerhalb und zwischen den Geschäftsbereichen. Mitarbeitende werden neue Tools und andere Informationen verwenden, müssen neue Fähigkeiten lernen, mit anderen Menschen in neuen Beziehungen zusammenarbeiten, mit neuen Verantwortungen und neuen Kennzahlen für die Beurteilung ihrer Performance umgehen lernen. Diese Veränderungen erzeugen Unsicherheit bei den Betroffenen. Mangelnde Akzeptanz (Resistance against Chance), hervorgerufen durch unzureichende Schulung, neue und modifizierte Abläufe, Verschiebung von Machtpositionen …, erfordert ein umfassendes Organisational Changemanagement. Diese organisatorischen Anpassungen stellen vielfach ein größeres Projektrisiko dar als die damit einhergehenden technischen Veränderungen.
Abb. 2.1 ERP-Template
2.2 Strategische Ziele
13
Die Voraussetzung für den erfolgreichen Rollout eines ERP-Templates ist Organisational Readiness. Organisational Changemanagement ist der formale Prozess, der zu Organisational Readiness führt.
2.2.7 Organisational Changemanagement Organisational Changemanagement findet in drei Schritten statt: • Vorbereitung, • Implementation, • Verankerung in der Organisation. Ziele von Organisational Changemanagement: • Erhöhung der Akzeptanz (Readiness) bei Endbenutzern und Organisation während der Vorbereitung, • Erhöhung der Geschwindigkeit mit der sich die betroffenen Bereiche an die neue Situation anpassen bei gleichzeitiger Minimierung der Risiken von Unterbrechungen und Einbußen bei der Produktivität während der Implementation, • Verankerung in der Organisation bei gleichzeitiger Erreichung der Businessziele. Ein strukturierter Ansatz für die Risikominimierung und die Erreichung der Businessziele enthält folgende Schritte: Erreichung der Businessziele: • Fokus auf die Businessziele und nicht auf die technische Systeminstallation, • Integration von Prozessen und Technologie mit Menschen und Organisation, Förderung von Leadership: • Verknüpfung des Erfolgs des Programms mit dem Erfolg der Führungspersonen, • Entwicklung eines neuen Führungsverhaltens von Managern, Entwicklung einer Change Vision: • Entwicklung einer Change Readiness, einer Bereitschaft zur Veränderung, Definition einer Change-Strategie: • Umsetzung eines Implementationspfades, der schnellen Erfolg erzielt, • Bereitstellung eines Toolkits für die Umsetzung der drei Phasen (Vorbereitung, Implementation, Verankerung), • Definition und Implementation eines Kommunikationsplans, • Definition und Implementation eines Trainingsplans, • Definition und Implementation einer Anerkennungs- und Honorierungsstrategie,
14
2 ERP – Enterprise Resource Planning
Managen der Mitarbeiterperformance: • Anerkennung und Honorierung neuer Fertigkeiten und Kompetenzen, • Auswahl und Implementation neuer Performancebewertungen, um neues Verhalten zu verstärken, Entwicklung einer neuen Unternehmenskultur: • Identifikation von notwendigen kulturellen Anpassungen für die neuen Wege der Zusammenarbeit, • Beobachtung des individuellen Verhaltens in Bezug auf die neuen Formen der Zusammenarbeit, Entwurf der neuen Organisation: • Definition von Tätigkeiten, Rollen und Verantwortungen, • Identifikation der Veränderungen und deren Einfluss auf die Organisation.
2.2.8 Lokalisierungsanforderungen an ein Template Notwendige Lokalisierungsanforderungen werden bereits während der Templateentwicklung identifiziert, beurteilt und entweder zurückgewiesen oder implementiert (Abb. 2.2). Die Maßnahmen in Abb. 2.2 sind mit zunehmendem Aufwand und damit verbundenen Kosten aufgeführt. Die oberste Maßnahme, Änderung des originalen Programmcodes in einem Standardsoftwarepaket, ist nur deswegen aufgeführt, weil es Unternehmen gegeben hat, die genau das getan haben. Das ist eine Zeitbombe und natürlich strengstens verboten. Ein gangbarer, wenn auch teurer Weg ist, den Hersteller zu animieren, eine neue Zusatzfunktion in das Programm aufzunehmen. Softwarelieferanten tun das bisweilen für ihre Superkunden oder wenn die neue Lösung eine Marktlücke füllt und sich gut in das bestehende Paket einbauen lässt. Die Behandlung von Lokalisierungsanforderungen an ein Template erfordert entsprechende Prozesse und Organisationstrukturen (Governance) während der Templateentwicklung, dem Rollout und dem späteren Betrieb. Im ersten Schritt wird eine Fit-Gap-Analyse durchgeführt. Diese überprüft, inwieweit der entsprechende Prozess bereits durch Standardfunktionen des Templates abgedeckt wird. Die Teile des Prozesses, die bereits durch das Template abgedeckt werden, werden direkt in die Konfigurationsanforderungen (Configuration) für den lokalen Rollout aufgenommen. Ein Gap wird daraufhin analysiert inwieweit dieser mit Standardfunktionen (Configuration) erfüllt werden und welcher Teil durch externe Programme ergänzt werden muss (Customization). Der lokale Prozess wird dann in das Template aufgenommen (siehe Abb. 2.3). Bevor das geschieht, muss der Prozess allerdings ein Bewilligungsverfahren (Change Control) durchlaufen. Lokalisierungen sind die natürlichen Feinde für die Stabilität eines Templates. Es muss durch entsprechende formale Prozesse geschützt werden. In diesem
2.3 Organisational Readiness
15
Abb. 2.2 ERP-Template-Lokalisierung
Abb. 2.3 ERP-Template-Lokalisierung Prozessanalyse
Beispiel ist es dreistufig. Zusätzlich gibt es die Unterscheidung zwischen einem lokalen Change Request, der nur diesen Unternehmensbereich betrifft, und einem globalen Change Request, der das gesamte Template betrifft (siehe Abb. 2.4).
2.3
Organisational Readiness
ERP-Template-Rollouts erfordern ein hohes Maß an Veränderungen von Mitarbeitenden und Unternehmensorganisationen. Organisational Changemanagement ist eine Methode, um diese Veränderungen zu implementieren. Das setzt zunächst die Veränderungsfähigkeit einer Organisation (Organisational Readiness) voraus. Organisational Readiness wird bewusst als Veränderungsfähigkeit übersetzt. Die Veränderungsbereitschaft von Menschen einer Organisation herzustellen, Resistance against Change abzubauen, ist Aufgabe und Ziel von Organisational Changemanagement.
16
2 ERP – Enterprise Resource Planning
Abb. 2.4 ERP-Template-Lokalisierung Governance
Abb. 2.5 ERP-Template-Qualitäts- und Prozessmodelle
Organisational Readiness, der Grad der Veränderungsfähigkeit einer Organisation, lässt sich an implementierten und gelebten organisatorischen Prozessen messen. Dazu gibt es etablierte Qualitäts- und Prozessmodelle, die sich gegenseitig überschneiden (Abb. 2.5). Auf der IT-Seite ist ITIL (IT Infrastructure Library; www.itilfoundation.org) der De-facto-Standard für das Selbstverständnis einer IT-Organisation als Serviceprovider und nicht als Technologieverwalter. Business und IT-Services sind bei ITIL über SLAs (Service Level Agreements) verlinkt. Dagegen betrachtet CMMI (Capability Maturity Model Integration; www.cmmiinstitute.com) als Standard heute eine bereichsübergreifende Prozessintegration, die als Messgröße für Organisational Readiness verwendet werden kann. CMMI hat sich von einem
2.5 ITIL – Information Technology Infrastructure Library
17
zunächst IT-zentrierten Modell auf weite Bereiche von Unternehmensprozessen ausgedehnt (CMMI 2014). Beide Prozessmodelle sind bei globalen IT-Serviceprovidern in ein Netzwerk weiterer Qualitätsmanagementsysteme zur Prozessverbesserung wie Six Sigma (http://www.sixsigma-institute.org) und Lean IT (www.lean.org) eingebunden.
2.4
BS 7799 und ISO 20000
Die Basis bildet der Standard für Information Security Management BS 7799 (ISO 17799, ISO 27001; http://iso-17799.safemode.org/index.php?page=BS7799-2). Der ISO-9000-Qualitätsstandard war lange Jahre der Maßstab für Qualitätsmanagement. Er wurde mittlerweile durch ISO 20000 abgelöst, den viele globale IT-Serviceprovider heute verwenden. Er ist der Standard für IT-Servicemanagement geworden und lehnt sich nahe an ITIL an (ISO/IEC 20000 2012).
2.5
ITIL – Information Technology Infrastructure Library
Entwickelt in UK durch CCTA (Central Computer and Telecommunications Agency), heutiger Owner ist OGC (Office of Government Commerce, UK). ITIL ist eine umfassende und öffentlich verfügbare Best-Practices-Sammlung zur Planung und Erbringung von IT-Serviceleistungen (ITIL Glossar 2011). Kernpublikationen in ITIL sind (Abb. 2.6): • • • • •
Service Strategy, Service Design, Service Transition, Service Operation, Continual Service Improvement.
Mit der zunehmenden Integration von Business und IT ist ITIL die Grundlage für die Transformation einer IT-Organisation von der Bereitstellung von Technologie und Infrastruktur zu einem kundenorientierten Serviceprovider. Der Begriff Serviceprovider kann sich dabei auf die interne wie externe Organisation beziehen. Es werden drei prinzipielle Typen unterschieden (Bucksteeg 2012): Interner Serviceprovider ist ein IT-Serviceprovider, der Teil derselben Unternehmens organisation wie der Kunde ist.
18
2 ERP – Enterprise Resource Planning
Abb. 2.6 ITIL-Service-Lifecycle. (Angelehnt an www.itil.org)
Shared Services Provider ist ein interner Serviceprovider, der IT-Services für mehr als einen Geschäftsbereich zentral bereitstellt. Externer Serviceprovider (External Service Provider) ist ein IT-Serviceprovider, der einem anderen Unternehmen angehört als der Kunde. ITIL ist strukturiert in 5 Phasen mit je einer Reihe von Prozessen und Subprozessen (ITIL Glossar 2011): Service Strategy definiert die Perspektive, Position, Pläne und Muster, die ein Serviceprovider (intern oder extern) ausführen muss, um die Geschäftsergebnisse einer Organisation zu erreichen (5 Prozesse). Service Design umfasst das Design des Services, der regulierenden Praktiken, Prozesse und Richtlinien, die für die Realisierung der Strategie des Serviceproviders und zur Unterstützung der Einführung von Services in unterstützte Umgebungen notwendig sind (8 Prozesse). Service Transition stellt sicher, dass neue, modifizierte oder stillgelegte Services die Erwartungen des Business so erfüllen, wie sie in den Phasen Service Strategy und Service Design dokumentiert wurden (7 Prozesse).
2.6 CMMI – Capability Maturity Model Integration
19
Service Operation übernimmt die Koordination und Ausführung der Aktivitäten und Prozesse, die für die Bereitstellung und das Management der Services zu den vereinbarten Servicelevel für die Geschäftsanwender und Kunden erforderlich sind (5 Prozesse). Continual Service Improvement (CSI) stellt die Ausrichtung der Services an den sich ändernden Geschäftsbedürfnissen sicher. Dabei werden die Leistungen des IT-Serviceproviders kontinuierlich gemessen und Verbesserungen an Prozessen, IT-Services und der IT-Infrastruktur vorgenommen, um die Effizienz, Effektivität und Wirtschaftlichkeit zu steigern (1 Prozess). Zwei ITIL-Prozesse überlappen sich mit CMMI: • Service Level Management (Phase Service Design), • Improvement Process (Phase Continual Service Improvement).
2.6
CMMI – Capability Maturity Model Integration
CMMI-Modelle sind Sammlungen von Best Practices, die Organisationen helfen ihre Prozesse zu verbessern. CMMI verwendet das Konzept von Fähigkeits- (Capability) und Reifegraden (Maturity Level; CMMI 2011). Es gibt vier Fähigkeitsgrade. Sie sind von 0 bis 3 durchnummeriert (CMMI 2011): 0. 1. 2. 3.
unvollständig – „incomplete“, durchgeführt – „performed“, geführt – „managed“, definiert – „defined“.
Ein Fähigkeitsgrad für ein Prozessgebiet ist erreicht, wenn alle generischen Ziele bis zu diesem Grad erfüllt sind (CMMI 2011). Da hier nur die Reifegrade (Maturity Level) von Bedeutung sind, wird auf eine detaillierte Beschreibung der Fähigkeitsgrade verzichtet. Es gibt fünf Reifegrade. Sie sind von 1 bis 5 durchnummeriert. Ein Reifegrad besteht aus spezifischen und generischen Praktiken für einen vordefinierten Satz von Prozessgebieten, die die Gesamtleistung einer Organisation verbessern. Der Reifegrad einer Organisation bietet eine Möglichkeit, um ihre Leistung zu beschreiben. Die Reifegrade werden daran gemessen, wie die spezifischen und generischen Ziele der jeweils vordefinierten Prozessgebiete erreicht werden (CMMI 2011): 1. initial – „initial“, 2. geführt – „managed“, 3. definiert – „defined“, 4. quantitativ geführt – „quantitatively managed“, 5. Prozessoptimierung – Optimizing.
20
2 ERP – Enterprise Resource Planning
Reifegrad 1: Initial Arbeitsabläufe werden gewöhnlich ad hoc und chaotisch durchgeführt. Die Organisation bietet gewöhnlich keine stabile Umgebung zur Unterstützung der Arbeitsabläufe. Der Erfolg hängt in solchen Organisationen von der Kompetenz und dem Engagement der Mitarbeiter ab und nicht vom Einsatz eines bewährten Prozesses. Trotz dieses Durcheinanders bringen Organisationen mit dem Reifegrad 1 häufig funktionierende Produkte und Dienstleistungen hervor. Allerdings überschreiten sie oft das Budget und halten die in ihren Plänen dokumentierten Termine nicht ein (CMMI 2011). Reifegrad 2: Geführt Auf Reifegrad 2 haben die Projekte sichergestellt, dass die Arbeitsabläufe entsprechend der Leitlinien geplant und ausgeführt werden, Fachleute mit ausreichenden Ressourcen werden eingesetzt, um kontrollierte Ergebnisse zu produzieren, relevante Stakeholder werden einbezogen, die Arbeitsabläufe werden überwacht, gesteuert und geprüft und die Einhaltung der Prozessbeschreibung wird bewertet. Die Prozessdisziplin, die im Reifegrad 2 zum Ausdruck kommt, hilft sicherzustellen, dass bestehende Praktiken auch unter Belastung beibehalten werden. Sind diese Praktiken vorhanden, werden die Projekte gemäß ihren dokumentierten Plänen durchgeführt und gelenkt. Außerdem ist auf Reifegrad 2 der Zustand der Arbeitsergebnisse für das Management an definierten Punkten sichtbar (z. B. an wichtigen Meilensteinen, beim Abschluss wichtiger Aufgaben). Verpflichtungen von relevanten Stakeholdern werden etabliert und nach Bedarf überarbeitet. Arbeitsergebnisse werden angemessen gelenkt. Die Arbeitsergebnisse und Dienstleistungen erfüllen die spezifizierten Prozessbeschreibungen, Normen und Verfahren (CMMI 2011). Reifegrad 3: Definiert Auf Reifegrad 3 sind die Arbeitsabläufe gut charakterisiert und verstanden und werden in Form von Normen, Verfahren, Hilfsmitteln und Methoden beschrieben. Der organisationsspezifische Satz von Standardprozessen, der die Grundlage für Reifegrad 3 bildet, ist etabliert und mit der Zeit verbessert worden. Diese Standardprozesse werden verwendet, um die Konsistenz innerhalb der Organisation zu etablieren. Projekte erstellen ihre definierten Prozesse anhand von Tailoring Guidelines aus dem organisationsspezifischen Satz von Standardprozessen. Im Reifegrad 3 werden die Standards, Prozessbeschreibungen und Prozeduren passend für ein bestimmtes Projekt oder eine Organisationseinheit von dem organisationsspezifischen Satz von Standardprozessen abgeleitet. Sie sind daher konsistenter, abgesehen von den Unterschieden, die in den Tailoring Guidelines erlaubt werden (CMMI 2011). Reifegrad 4: Quantitativ geführt Beim Reifegrad 4 werden für die Organisation und die Projekte quantitative Ziele für die Qualitäts- und Prozessleistung etabliert und als Kriterien für das Management der Projekte verwendet. Diese quantitativen Ziele basieren auf den Bedürfnissen der Kunden, der Endanwender, der Organisation und der Prozessbeteiligten. Qualitäts- und Prozessleistung
2.7 Six Sigma
21
sind als statistische Größen verstanden und werden während der gesamten Lebensdauer eines Projekts geführt. Für ausgewählte Teilprozesse werden bestimmte Messwerte der Prozessleistung erfasst und statistisch analysiert. Für die Auswahl von Teilprozessen für die Analyse ist es entscheidend, die Beziehungen zwischen den verschiedenen Teilprozessen und ihre Auswirkung auf das Erreichen von Zielen der Qualität und der Prozessleistung zu verstehen. Ein solcher Ansatz hilft sicherzustellen, dass die Überwachung von Teilprozessen mit statistischen und anderen quantitativen Techniken dort angewandt wird, wo sie den meisten Gesamtwert für das Geschäft hat. Prozessleistungsbaselines und Prozessleistungsmodelle können verwendet werden, um Qualitäts- und Prozessleistungsziele aufzustellen, die beim Erreichen der Geschäftsziele helfen (CMMI 2011). Reifegrad 5: Prozessoptimierung Auf Reifegrad 5 verbessert eine Organisation kontinuierlich ihre Prozesse auf der Grundlage eines quantitativen Verständnisses ihrer Geschäftsziele und Leistungsbedürfnisse. Die Organisation verwendet einen quantitativen Ansatz, um die inhärente Streuung im Prozess und die Ursachen von Prozessergebnissen zu verstehen. Schwerpunkt von Reifegrad 5 ist die kontinuierliche Verbesserung der Prozessleistung durch inkrementelle und innovative Technologie- und Prozessverbesserung. Die Qualitäts- und Prozessleistungsziele der Organisation sind etabliert, werden kontinuierlich überarbeitet, um Änderungen der Geschäftsziele und der Organisationsleistung widerzuspiegeln, und als Kriterien für das Management der Prozessverbesserung verwendet. Die Auswirkungen ausgerollter Prozessverbesserungen werden mit statistischen und anderen quantitativen Techniken gemessen und mit den Qualitäts- und Prozessleistungszielen verglichen. Die definierten Prozesse des Projekts, der organisationsspezifische Satz von Standardprozessen und die unterstützende Technologie sind Ziele für messbare Verbesserungsaktivitäten (CMMI 2011). Kontinuierliche Verbesserungen (Continual Improvements) und CMMI-Services (Service Agreement, Service Request, Service Incident) sind die zwei Überschneidungen zu ITIL (CMMI 2010).
2.7
Six Sigma
Six Sigma ist ein systematisches Vorgehen zur Prozessverbesserung unter Anwendung analytischer und statistischer Methoden. Das Besondere an Six Sigma im Vergleich zu anderen Prozessverbesserungsmethoden ist der mathematische Ansatz. Es wird davon ausgegangen, dass jeder Geschäftsprozess als eine mathematische Funktion beschrieben werden kann (tqm 2014). Six Sigma ist eine statistische Methode basierend auf der Normalverteilung um einen Mittelwert μ mit der Standardabweichung σ (Abb. 2.7). Die Breite der Glockenkurve wird durch die Streuung von σ bestimmt. 6 σ bedeutet einfach, dass sich in einem Abstand der 6-fachen Standardabweichung vom Mittelwert 99,9999998026825 % aller Werte innerhalb der Normalverteilung befinden. Für die Qualitätssicherung in der Fertigung ist ein
22
2 ERP – Enterprise Resource Planning
Abb. 2.7 Six Sigma
Qualitätsgrad von mit 3,4 Defekten pro 1 Mio. gefertigten Teilen festgelegt. Das ergibt einen Wert von 99,99966 % im Konfidenzintervall. Dieser Wert weicht vom exakten Wert für 6 σ ab. Six Sigma kann in allen Bereichen eines Unternehmens angewendet werden. Es gibt zwei prinzipielle Verfahren: DMAIC: „Defining the problem, measuring important aspects, analyzing the information flow, improving and controlling.“ Dieses Verfahren wird verwendet, um existierende Prozesse zu verbessern. DMADV: „Defining goals, measuring critical to quality CTQs characteristics, analyzing, designing details, verifying.“ Dieses Verfahren wird verwendet, um defektfreie Prozeduren zu entwickeln. Six-Sigma-Projekte werden mit aufwendigen Projektteams mit einer streng hierarchischen Rollen- und Verantwortungsverteilung durchgeführt.
2.8
Lean IT
Lean IT ist die Anwendung von Lean-Manufacturing- und Lean-Services-Prinzipien für die Entwicklung und das Management von IT-Services und -Produkten. Das Grundprinzip von Lean ist die Vermeidung von Verschwendungen (Waste), das heißt von Prozessen und Aufwand, die keinen Wert für Produkte oder Services haben (Wikipedia 2014).
2.9 Übungen und Quiz
23
Es gibt wesentliche fünf Lean-IT-Prinzipien (http://techexcel.com): Kunden identifizieren und Werte definieren Nur ein Bruchteil der Zeit und des Aufwands, die in eine Organisation investiert werden, erzeugen Mehrwert für den Endkunden. Durch eindeutige Definition der Werte für Produkte und/oder Dienstleistungen aus Kundensicht können alle Verschwendungen beseitigt werden. Wertschöpfungskette identifizieren und zuordnen Eine Wertschöpfungskette umfasst die Aktivitäten über alle Bereiche einer Organisation, die an der Bereitstellung eines Produkts oder einer Dienstleistung beteiligt sind. Dies stellt den End-to-End-Prozess dar, der Kundenwert liefert. Nachdem die Kundenanforderungen festgelegt wurden, muss im nächsten Schritt ermittelt werden, wie sie an den Kunden geliefert werden. Schlanken Wertefluss schaffen, indem Verschwendungen beseitigt werden Die Analyse des Werteflusses zeigt, dass nur 5–50 % der Aktivitäten einen Mehrwert schaffen. Das Eliminieren dieser Verschwendungen stellt sicher, dass das Produkt oder die Dienstleistung ohne Unterbrechungen, Umwege oder Verzögerungen zum Kunden fließt. Auf Customer Pull reagieren Bei Pull geht es darum, die Kundennachfrage nach den Diensten zu verstehen und den Prozess darauf abzustimmen. Im Wesentlichen bedeutet dies, dass nur das produziert wird, was der Kunde will, wenn der Kunde es will. Nach Perfektion streben Indem ein Fluss erzeugt und mit Pull verlinkt wird, werden immer mehr Verschwendungsschichten sichtbar. Dieser Prozess entwickelt sich kontinuierlich in Richtung Perfektion, bei dem jedes Asset und jede Aktion einen Mehrwert für den Endkunden darstellt.
2.9
Übungen und Quiz
Übungen und Quiz für dieses Kapitel finden Sie unter https://www.kdibisglobal.com/de/ uebungen/ibis/kapitel2. Registrierte Teilnehmer einer aktiven Getränkegamingklasse haben automatischen Zugriff auf Übungen und Quiz. Dozierende können einzelne Übungen für eine Klasse aktivieren oder deaktivieren und den Zugang zum nächsten Kapitel von einem bestandenen Test abhängig machen. Teilnehmer, die nicht für eine aktive Gamingklasse registriert sind, müssen sich separat für kdibisglobal registrieren. Durch Aufrufen des obigen Links wird die Berechtigung automatisch überprüft und es werden die erforderlichen Maßnahmen eingeleitet.
24
2 ERP – Enterprise Resource Planning
Literatur Bächle M, Kolb A (2012) Einführung in die Wirtschaftsinformatik. Oldenbourg Wissenschaftsverlag, München Bucksteeg M (2012) Itil 2011 – der Überblick. Addision-Wesley, Boston CMMI (2010) CMMI for services, Version 1.3, CMMI Product Team, Carnegie Mellon University CMMI (2011) CMMI für Entwicklung, Version 1.3, CMMI Product Team, Carnegie Mellon University CMMI Institute (2014) http://whatis.cmmiinstitute.com. Zugegriffen am 06.01.2015 Desai S, Srivastava A (2013) ERP to E2RP a case study approach. PHI Learning Private Limited, Delhi Heutschi R et al (2004) WebService-Technologien als Enabler des Real-time Business. In: Alt R, Österle H (Hrsg) Real-time Business: Lösungen, Bausteine und Potentiale des Business Networking. Springer, Berlin, S 133–155 ISO/IEC20000 (2012) ISI 20000 white paper, APMG-International, High Wycombe. http://www. apmg-international.com. Zugegriffen am 06.01.2015 ITIL Glossar (2011) ITIL Glossar und Abkürzungen Deutsch. https://www.axelos.com/glossaries-of-terms.aspx. Zugegriffen am 06.01.2015 Johnson C (2005) GLOBE, Nestlé. http://www.nestle.com/assetlibrary/documents/library/presentations/investors_events/investors_seminar_2005/globe_jun2005_johnson.pdf. Zugegriffen am 16.11.2014 Schemm J (2008) Stammdatenmanagement zwischen Handel und Konsumgüterindustrie – Referenzarchitektur für die überbetriebliche Datensynchronisation. Dissertation, Universität St. Gallen. Difo-Druck, Bamberg Schmelzer J, Sesselmann W (2008) Geschäftsprozessmanagement in der Praxis. Hanser, München Schmidt A (2010) Entwicklung einer Methode zur Stammdatenintegration. Dissertation, Universität St. Gallen. Logos Verlag, Berlin Springer Gabler Verlag (Herausgeber) (o. J. a) Gabler Wirtschaftslexikon, Stichwort: ERP. http:// wirtschaftslexikon.gabler.de/Archiv/3225/erp-v14.html. Zugegriffen am 16.11.2014 Springer Gabler Verlag (Herausgeber) (o. J. b) Gabler Wirtschaftslexikon, Stichwort: Geschäfts prozess. http://wirtschaftslexikon.gabler.de/Definition/geschaeftsprozess.html. Zugegriffen am 16.11.2014 tqm (2014) Six Sigma, tqm.com. Total quality management. http://www.tqm.com/beratung/sixsigma. Zugegriffen am 16.11.2014 Wikipedia (2014) Lean IT. Wikipedia.org. http://www.wikipedia.org/wiki/Lean_IT. Zugegriffen am 16.11.2014
3
SCM – Supply-Chain-Management
Zusammenfassung
In diesem Kapitel werden Verfahren und Methoden des Forecasting zur Vermeidung des Bullwhip-Effekts und des Inventory-Managements zur Minimierung der Lagerkosten als Grundlage für die erfolgreiche Implementierung des Supply-Chain- Managements beschrieben. Das Forecasting konzentriert sich auf Zeitreihenmodelle und das Inventory-Management auf Economic-Order-Quantity-Modelle. Die Themen dieses Kapitels reichen von Kanban als Lean-Manufacturing-Prozess in der Produktion bis hin zu Blockchains bei der Automatisierung von Supply-Chain-Management über Unternehmensgrenzen hinweg, bis hin zur Rohstoffgewinnung, was SCM somit zu einem integralen Bestandteil von globalen sozioökonomischen und sozioökologischen Systemen macht, die soziale, ökologische und ökonomische Verantwortlichkeiten beinhalten.
3.1
Definition und Ziele
Supply-Chain-Management (SCM) ist das Steuern von Material-, Informations- und Finanzflüssen innerhalb einer Supply Chain vom Rohstofflieferanten über den Hersteller, den Zwischenhandel bis zum Endkunden. Supply-Chain-Management-Systeme synchronisieren den Order-to-Cash-Prozess, d. h. Informationsströme (Bestellungen) mit Gütern und Dienstleistungen (Lieferungen) und Geldströmen (Rechnungen/Zah lungen). Das ultimative Ziel eines effizienten Supply-Chain-Management-Systems ist das Minimieren von Lagerbeständen bei gleichzeitiger Sicherstellung der Lieferbereitschaft.
© Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature 2020 K.-D. Gronwald, Integrierte Business-Informationssysteme, https://doi.org/10.1007/978-3-662-59815-3_3
25
26
3.2
3 SCM – Supply-Chain-Management
Lean Manufacturing
Lean Manufacturing wurde von Taiichi Ohno, dem Vater des Toyota-Production-Systems (TPS), entwickelt (Ohno 1988). Das wichtigste gemeinsame Ziel der Lean-Philosophie ist die Beseitigung von Verschwendung. Ohno definierte drei Verschwendungskategorien – Muda, Mura und Muri.
3.2.1 Muda, Mura, Muri Muda Muda bezieht sich auf Prozesse, die keinen Mehrwert bieten. Diese Arten von Verschwendungen verursachen Kosten und führen dazu, dass Aufgaben viel länger dauern, als sie sollten. Verschwendungen werden im TPS wie folgt definiert (Bradbury 2018): • Überproduktion tritt auf, wenn Artikel hergestellt werden, bevor sie benötigt werden. • Überverarbeitung tritt auf, wenn mehr Arbeit in ein Produkt oder eine Dienstleistung gesteckt wird, als tatsächlich benötigt wird. • Die Lagerhaltung ist wichtig, aber die Lagerung von zu vielen oder zu wenigen Vorräten und Fertigprodukten erhöht die Kosten und kann wertvollen Platz beanspruchen. • Transport ist der Transport von Produkten und Lieferungen von einem Bereich in einen anderen. • Bewegung ist die physische Bewegung einer Person oder Maschine, die erforderlich ist, um die Arbeit abzuschließen. • Warten ist, wenn die Arbeit oder Projekte zum Stillstand kommen oder wenn die Maschinen die Produktion der benötigten Waren noch nicht abgeschlossen haben, Produkte noch nicht eingetroffen sind oder eine andere Aufgabe den Rest des Projekts aufhält. • Fehler treten auf, wenn aufgrund der Prozesse Fehler und Nachbesserungen auf treten.
Mura Mura ist eine Verschwendungsart, die durch ungleichmäßige Produktion und Dienstleistungen verursacht wird. Es wird u. a. dadurch verursacht, wenn Standards nicht vorhanden sind oder nicht befolgt werden. Ein häufiges Beispiel ist, wenn Unternehmen die Produktion anfahren, um die Ziele zu erreichen, auch wenn keine Kundennachfrage besteht. Dies zwingt die Verkaufsabteilung zu Eile, um zu versuchen, Aufträge zu erfüllen, und verursacht eine zusätzliche Belastung, wenn die Versandabteilung sich beeilen muss, um Produkte vor Ende des Monats zu versenden (Bradbury 2018).
3.2 Lean Manufacturing
27
Muri Die dritte Kategorie von Verschwendungen ist das Ergebnis von Aufgaben oder Prozessen, die übermäßig schwierig sind oder die das Personal überfordern – mangelnde Schulung, keine zu befolgenden Standards, falsche Werkzeuge für den Job (Bradbury 2018).
3.2.2 Kanban Traditionell werden Produktionsprozesse geplant, Rohstoffe bestellt und dann hergestellt, um auf der Grundlage einer Prognose dessen, was der Kunde voraussichtlich bestellen wird, Lagerbestände aufzubauen. Dies ist eine Pushproduktion, die in hohem Maße davon abhängt, dass das Material zu Beginn des Prozesses zugeführt wird und alle Prozesse über einen Zeitplan oder eine Materialbedarfsplanung gesteuert werden (Abb. 3.1). Dies produziert normalerweise Produkte in großen Mengen oder Chargen und bindet eine große Menge an Kapital in Lagerbeständen und Work in Progress. Kanban ist Teil der Just-in-Time-Fertigung. Das Hauptziel eines Just-in-Time-Systems mit Kanban ist die Minimierung des Lagerbestands in einem Produktionssystem. In einem Pullproduktionssystem werden Produkte vom Ende der Produktionslinie entnommen und ein Signal wird zurück in die Linie gesendet, um die Fertigung des nächsten Teils auszulösen. Dieser Vorgang wird über einen Kanban gesteuert (Abb. 3.2). In seiner einfachsten Form ist ein Kanban nur eine Karte oder ein Blatt Papier, das an einer Materialcharge befestigt ist. Die Karte beschreibt in der Regel, was das Teil oder Material ist, wo es verwendet wird und welche Mengen vorhanden sein sollten. Wenn ein Vorgang mit dem Material, an das der Kanban angehängt ist, abgeschlossen ist, wird die
Abb. 3.1 Pushproduktion
28
3 SCM – Supply-Chain-Management
Abb. 3.2 Kanban Pullproduktionssystem
Karte an den vorherigen Vorgang zurückgegeben und die Produktion der nächsten Charge ausgelöst. Der spätere Prozess sammelt Material vom vorherigen. Er informiert den vorherigen Prozess darüber, was und wie viel produziert werden soll. Der frühere Prozess produziert nur das, was der spätere Prozess benötigt, und es wird kein Material ohne Kanban-Autorisierung bewegt oder produziert. Behälter werden ähnlich wie Kanban-Karten verwendet. Die Container mit den Materialien werden zu den eigentlichen Kanbans. Diese sind mit ähnlichen Informationen wie die Karten beschriftet und werden nach dem Entleeren als Fertigungsautorisierung an den vorherigen Prozess zurückgegeben (Abb. 3.2).
3.3 Der Bullwhip-Effekt
29
Tab. 3.1 Kanban-Berechnung für eine dreistufige Sensorfertigungslinie Produkte und Materialien R1 F1 R2 F2 R3 F3
Täglicher Bedarf [Stück] 20.000 5000 10.000 5000 5000 5000
Vorlaufzeit [Stunden] 1,5 0,4 1,5 0,4 2,0 0,5
Containerinhalt [Stück] 5000 500 2500 500 2000 500
Anzahl Kanbans im Sicherheitsfaktor System 1 6 1 4 1 6 1 4 1 5 1 5
Eines der Hauptziele eines Just-in-Time-Systems, das Kanban einsetzt, besteht darin, den Lagerbestand im System zu verringern. Daher müssen wir die Anzahl der Komponenten in jeder Charge und die Anzahl der tatsächlichen Kanbans im System berechnen. Kanban qty ( KQ ) =
taglicher Bedarf ∗ Vorlaufzeit ( Stunden )
Container qty
∗ Sicherheitsfaktor
Tab. 3.1 enthält die Berechnungen für die dreistufige Fertigungslinie von Abb. 3.2.
3.3
Der Bullwhip-Effekt
Zusammenfassend lässt sich der Bullwhip-Effekt beschreiben als Oszillation der Nachfrage, die mit zunehmendem Abstand von den Endkunden Verstärkung erfährt (Beer 2014). Dieser Effekt wird manchmal als Bedarfsverstärkung, Varianzverstärkung oder Forrester- Effekt bezeichnet. Der Bullwhip-Effekt hängt eng mit Lean Manufacturing zusammen. Mura ist das Versagen, die Nachfrage zu glätten, und wird als Grundursache für Muda – die sieben Lean-Verschwendungen – und Muri – die Verschwendung von Überlastungen – angesehen (Wang und Disney 2015). Dieses Phänomen des scheinbar irrationalen Bestellverhaltens von Partnern innerhalb einer Supply Chain ist seit Langem bekannt, wird allerdings erst seit Ende der 1990er- Jahre systematisch untersucht. Dabei ist zu unterscheiden zwischen Untersuchungen, die sich mit den Ursachen befassen, und der Diskussion von Lösungsmodellen. Die meisten Autoren betrachten einfache, lineare Supply Chains, um Ursachen und Lösungsmodelle für den Bullwhip-Effekt zu untersuchen (Beer 2014). In diesem Abschnitt verwenden wir eine einfache 4-stufige lineare Supply Chain (Einzelhandel, Verteiler, Großhandel, Produktion; Abb. 3.3) mit einer nichtlinearen saisonalen Nachfrageverteilung (Abb. 3.4). Dies ist die Ausgangslage für das SCM1 – Bullwhip Game auf kdibisglobal.com. Mangelnde Kommunikation und Transparenz sind verhaltensbedingte Ursachen für den Bullwhip-Effekt. Die Isolierung der Geschäftsbereiche von den Geschäftsabläufen der gesamten Supply Chain führt zu unterschiedlichen Wahrnehmungen der Teilnehmer, die
30
3 SCM – Supply-Chain-Management
Abb. 3.3 Lineare Supply Chain. (Quelle: kdibis.com)
Abb. 3.4 Bullwhip-Effekt in einer einfachen linearen Supply Chain. (Quelle: kdibis.com)
sie nur aus den eingehenden Bestellungen und Lieferungen entnehmen können, insbesondere dann, wenn die Liefermenge sich von der Bestellmenge unterscheidet. Bei Lieferengpässen des Lieferanten ist sie geringer und führt dort automatisch zu Backorders (Fehlmengen). Diese können dann überraschend für die bestellende Geschäftseinheit zu einer großen Nachlieferung führen, sobald der Lieferant wieder liefern kann. Es gibt vier operative Ursachen für den Bullwhip-Effekt, die Einfluss auf unsere Situation haben – Demand Signal Processing, Order Batching, Rationing and Gaming sowie Lead Time. Demand Signal Processing – Nachfragesignalsteuerung – ist die individuelle Aktualisierung des Forecasts durch jedes Mitglied der Supply Chain basierend auf den eingegangenen
3.3 Der Bullwhip-Effekt
31
Aufträgen. Bei einer saisonalen Nachfragestreuung wird es zu einem Nachfrageschub kommen und der Einzelhändler wird dies als Signal für eine höhere zukünftige Nachfrage interpretieren, den Forecast aktualisieren und einen größeren Auftrag erteilen. Der Verteiler, der die höhere Nachfrage vom Einzelhändler erhält, wird dasselbe tun ebenso wie der Großhändler und die Produktion. Mit jedem weiteren Schritt in der Supply Chain und je mehr Mitglieder in der Kette sind, desto weniger spiegeln diese Forecasts die tatsächliche Endkundennachfrage wider (Lee et al. 1997). Order Batching – Auftragsbündelung – erfolgt, wenn jedes Mitglied die Bestellmengen, die es von seinem vorhergehenden Partner in der Supply Chain erhält, auf- oder abrundet, um sie der Produktion anzupassen. Je mehr Mitglieder eine solche Rundung der Bestellmengen vornehmen, desto stärker verzerren sich die ursprünglichen Bestellmengen. Lead Time – Lieferverzögerung – ist die Zeitdifferenz zwischen dem Zeitpunkt, zu dem ein Mitglied der Supply Chain den Auftrag von seinem direkt vorgelagerten Partner – Auftragseingang – erhält, und dem Zeitpunkt, zu dem der vorgelagerte Partner die bestellte Menge – Auftragseingang – erhält. In unserem Fall beträgt die Lieferverzögerung zwei Zyklen – Zyklus 1: Bestelleingang, Zyklus 2: Liefereingang – (Abb. 3.3). Ohne eine transparente Forecasting-Methode werden die Mitglieder verständlicherweise Nachfragesignale verarbeiten und zusätzliche Lieferverzögerungen den Bullwhip-Effekt verstärken. Der Bullwhip-Effekt wirkt sich direkt auf den Lagerbestand (Abb. 3.5) und die Lagerkosten (Abb. 3.6) aus.
Abb. 3.5 Lagerbestand und Fehlmengen. (Quelle: kdibis.com)
32
3.4
3 SCM – Supply-Chain-Management
Der Bullwhip-Effekt-Index
Es gibt zahlreiche Methoden, um den Bullwhip-Effekt zu quantifizieren. Aus der Lagerkostenverteilung von Abb. 3.6 könnten wir zum Beispiel die Gesamtlagerkosten als Summe der Lager- und Fehlmengenkosten oder den Mittelwert der Lagerkosten über alle Perioden oder die Standardabweichung Sigma – σ – verwenden. σ ist die Quadratwurzel der Varianz σ2. Das gebräuchlichste Maß für die Stärke des Bullwhip-Effekts ist der Bullwhip-Effekt-Index (Dejonckheere et al. 2003; Sterman 1989). BE =
2 σ produktion 2 σ sales
Abb. 3.6 Bullwhip-Effekt – Lagerkosten. (Quelle: kdibis.com)
3.4 Der Bullwhip-Effekt-Index
33
BE ist der Bullwhip-Effekt-Index, der Zähler ist die Varianz der zu einem bestimmten Zeitraum hergestellten Produktmenge – in unserem Fall die Lieferung vom nachgelagerten Mitglied der Supply Chain –, der Nenner ist die Varianz der Lieferungen an den Endkunden – in unserem Fall der Bedarf des Kunden, der als Bestellung beim Einzelhändler eingeht. Abb. 3.7 zeigt den Bullwhip-Effekt-Index in Relation zu Produktion und Umsatz/Sales für alle vier Mitglieder der Supply Chain. Der optimale Bullwhip-Effekt-Index BE ist 1. Der Bullwhip-Effekt hat erhebliche Auswirkungen auf die Lagerkosten. Abb. 3.8 zeigt den Zusammenhang zwischen Bullwhip-Effekt und Lagerkosten. Abb. 3.9 zeigt das Ergebnis für dieselbe Supply Chain mit eliminiertem Bullwhip-Effekt. Gemäß Metters (1997) kann die Eliminierung des Bullwhip-Effekts die jährlichen Lagerhaltungskosten um 33 % senken. Die Kosteneinsparung in unserer Businesssimulation
Abb. 3.7 Bullwhip-Effekt-Index in Relation zu Produktion und Sales. (Quelle: kdibis.com)
Abb. 3.8 Bullwhip-Effekt-Index – Zusammenhang mit Lagerkosten. (Quelle: kdibis.com)
34 3 SCM – Supply-Chain-Management
Abb. 3.9 Eliminierter Bullwhip-Effekt und Lagerkosten. (Quelle: kdibis.com)
3.4 Der Bullwhip-Effekt-Index 35
36
3 SCM – Supply-Chain-Management
beträgt 63 % in diesem Beispiel. Die Beseitigung des Bullwhip-Effekts bedeutet nicht unbedingt, dass die Lagerkosten optimiert oder minimiert sind. Im nächsten Abschnitt werden wir Methoden zum Forecasting für alle Mitglieder der Supply Chain einführen, die in Verbindung mit Kommunikation und Transparenz den Bullwhip-Effekt eliminieren, sowie Methoden zum Inventory-Management, um die Lagerhaltungskosten zu minimieren.
3.5
Demand Forecasting
Demand Forecasting und Inventory-Management sind zwei wesentliche Komponenten für die Optimierung und Automatisierung im Supply-Chain-Management. Demand Forecasting dient in diesem Zusammenhang vor allem der Unterdrückung des Bullwhip-Effekts (Chen et al. 2000). Inventory-Management wird zur Optimierung der Lagerhaltung und damit zur Minimierung der Lagerkosten eingesetzt. Daraus werden Bestellmengen, Bestellzyklus, minimaler und maximaler Lagerbestand ermittelt. Forecasting ist ein bedeutendes Element des Demand-Managements. Es ist die Basis für die Planung und Grundlage für Managemententscheide. Die Zukunftsplanung ist ein stochastischer Prozess und somit ist eine exakte Vorhersage nicht möglich. Das Ziel ist also, Techniken zu entwickeln, welche den Gap zwischen dem aktuellen Bedarf und dem Forecast minimieren. Forecasting ist somit auch ein iterativer, repetitiver Prozess, welcher die Vorhersage laufend mit der Realität vergleicht und entsprechend anpasst. Demand Forecasting ist das Bindeglied zwischen Demand Generation (CRM: Sales, Marketing) und Demand Fulfillment (SCM: Fertigung, Logistik) und somit eine Voraussetzung für eine erfolgreiche Supply-Chain-Integration mit einer Periodizität von zwischen einem Tag und einem Monat (je nach Industrie).
3.5.1 Qualitative Forecasting-Methoden Diese basieren auf Intuition und Erfahrung der Forecaster. Sie werden vornehmlich für Langzeitprojektionen, wie z. B. für die Einführung neuer Produkte verwendet, wenn aktuelle Daten nicht relevant sind oder nicht existieren. Qualitative Methoden sind u. a.: • • • •
Meinung eines Executive Committee, Sales-Force-Erfahrung, Kundenbefragungen, Delphi-Methode.
Die Delphi-Methode ist eine strukturierte iterative Befragung von Experten, die zum Ziel hat, möglichst viel vom Expertenwissen zu profitieren, ohne dass einzelne Gurus mit ihrer Meinung dominieren. Es wird also ein Gruppenergebnis erzielt, das auf dem Konsens
3.5 Demand Forecasting
37
von normalerweise nicht konsensfähigen Einzelmeinungen basiert. Das Verfahren sieht folgende Schritte vor (Lenk 2009): 1. Verwendung eines Fragebogens Dort wird die konkrete Fragestellung formuliert. Der Fragebogen ist Kommunikationsmedium zwischen den Teilnehmern und den Moderatoren. 2. Befragung der Experten Zur Beantwortung der Fragen wird die notwendige Fachkompetenz vorausgesetzt. Das Problem ist, dass Experten häufig unterschiedlicher Meinung sind. 3. Anonymität der Expertenantworten Einerseits gibt die Anonymisierung den Teilnehmern die Möglichkeit, sich frei zu äußern, und andererseits verhindert sie, dass die Moderatoren die Antworten aufgrund der Zuordnung zu Personen bereits intuitiv gewichten. 4. Ermittlung der statistischen Gruppenantwort Die Expertenantworten werden durch Mittelwertverfahren oder andere Untersuchungsmethoden ausgewertet und somit wird eine Verteilung der Gruppenantworten ermittelt. 5. Feedbackrunde(n) Die aufbereiteten Zwischenergebnisse werden denselben Teilnehmern erneut vorgelegt. Durch die Konfrontation mit der Gruppenmeinung erfahren die Teilnehmer, wie stark ihre Meinung mehrheitsfähig ist, und müssen sich in der weiteren Argumentation damit auseinandersetzen. 6. Wiederholte Befragung bis zur Erreichung des Abbruchkriteriums Die wiederholte Befragung führt zu einer Verdichtung der Meinungsvielfalt, bei der Extremmeinungen separiert und entweder ausgeschlossen oder gesondert berücksichtigt werden. Abbruchkriterien können unterschiedlich sein. Das kann ein Mindestmaß an Übereinstimmung sein oder die zeitliche Beschränkung u. a.
3.5.2 Quantitative Forecasting-Methoden Diese lassen sich in zwei dominierende Klassen unterteilen (DecisionCraft 2010) Ursache- Wirkung-Methoden und Zeitserienanalyseverfahren. Ursache-und-Wirkung-Methoden (auch kausale Methoden genannt) werden verwendet, wenn ein oder mehrere äußere Faktoren (unabhängige Variablen) in Beziehung zum Demand stehen und somit Einfluss auf den Forecast haben, wie Einkommensentwicklung, Wirtschaftsprognosen (ökonometrische Faktoren). Sie benötigen zum Teil aufwendige statistische Methoden (Regression, ökonometrische Modelle, neuronale Netze). Diese Verfahren werden im Abschnitt Big-Data-Demand-Management behandelt. Zeitserienanalyseverfahren basieren auf der Annahme, dass die Zukunft eine Fortschreibung der Vergangenheit ist. Es werden historische Daten für die Vorhersage der Zukunft verwendet ohne Berücksichtigung äußerer Faktoren. In diesem Abschnitt behandeln wir ausschließlich Zeitserienanalyseverfahren. Im Detail sind das:
38
• • • •
3 SCM – Supply-Chain-Management
naiver Forecast, einfacher gleitender Mittelwert, exponentiell geglätteter Forecast, linearer Trend-Forecast. Allen diesen Verfahren gemeinsam ist ihre glättende Wirkung auf Bedarfsschwankungen.
3.5.3 Zeitserien-Forecasting-Komponenten Trendvariationen repräsentieren wachsende oder sinkende Trends über die Zeit. Ursachen können sein: Bevölkerungswachstum, Völkerwanderungen, Einkommensänderungen. Trends können linear, exponentiell, asymptotisch … auftreten. Zyklische Variationen sind wellenartige Veränderungen, die über einen längeren Zeitraum (>1 Jahr) auftreten und durch makroökonomische und politische Faktoren verursacht werden. Businesszyklen wie Rezession und Wachstum gehören dazu (z. B. Eurokrise) oder auch die saisonale Verteilung des Bierverbrauchs. Saisonale Schwankungen zeigen periodische Höhen und Tiefen zu bestimmten Stunden, Tagen, Jahreszeiten … Zufällige Schwankungen entstehen durch unvorhersehbare Ereignisse wie Streiks, Naturkatastrophen, Terroranschläge, Epidemien …
3.5.4 Naiver Forecast Geht davon aus, dass der aktuelle Bedarf gleich dem der vorhergehenden Periode ist. Da es keine kausalen Zusammenhänge gibt, liefert diese Methode i. Allg. ungenaue Resultate. Gute Kandidaten sind allerdings Geschäftsmodelle, deren Verhalten durch Zufallseinflüsse bestimmt wird (Abb. 3.10).
Ft +1 = At
die Periode t + 1 wobei Ft +1 = Forecast fur
die Periode t At = der aktuelle Bedarf fur
3.5 Demand Forecasting
39
3.5.5 Einfacher gleitender Mittelwert-Forecast Dieser gibt gute Resultate, wenn der Bedarf relativ stabil über der Zeit ist. Für n = 1 ist dieser identisch mit dem naiven Ansatz (Abb. 3.10). Ft +1
∑ =
t
A
i = t − n +1 i
n
die Periode t + 1 wobei Ft +1 = Forecast fur
die Berechnung des gleitenden n = Anzahl Perioden, die fur Mittelwerts verwendet wurden
Ai = aktueller Bedarf in Periode i
Beispiel 1: Berechnung des Forecasts für Woche 10 mit einem gleitenden Mittelwert über 5 Perioden (Abb. 3.11):
F10 =
3101 + 3280 + 3471 + 3567 + 3729 = 3429 5
Der aktuelle Bedarf für Woche 10 ist 3992. Beispiel 2: Berechnung des Forecasts für Woche 10 mit einem gleitenden Mittelwert über 2 Perioden (Abb. 3.12):
F5 =
3567 + 3729 = 3648 2
Der aktuelle Bedarf für Woche 10 ist 3929.
Abb. 3.10 Forecasting – naiver Forecast. (Quelle: kdibis.com)
40
3 SCM – Supply-Chain-Management
Abb. 3.11 Forecasting: einfacher gleitender Mittelwert, Periode 5 Wochen. (Quelle kdibis.com)
Abb. 3.12 Forecasting: einfacher gleitender Mittelwert, Periode 2 Wochen. (Quelle: kdibis.com)
3.5.6 Exponentiell geglätteter Mittelwert-Forecast Bei dieser Technik wird der Forecast für den Bedarf der Folgeperiode auf der Basis der aktuellen Periode korrigiert um einen Bruchteil der Differenz zwischen dem aktuellen Bedarf und dem Forecast der aktuellen Periode. Dieser Ansatz benötigt weniger Daten als der gewichtete gleitende Mittelwert. Wegen seiner Einfachheit ist dieses Verfahren eines der am meisten verwendeten Verfahren. Allerdings ist es, ebenso wie die anderen, wenig für saisonale Veränderungen als auch für die Daten, die keine oder nur kleine Trends zeigen, geeignet. Für α = 1 ist dieses Verfahren äquivalent mit dem naiven Ansatz.
Ft +1 = Ft + ∝ ( At − Ft )
die Periode t + 1 wobei Ft +1 = Forecast fur
3.5 Demand Forecasting
41
die Periode t Ft = Forecast fur
Periode t At = aktueller Bedarf fur
∝= Glattungsfaktor ( 0 ≤∝≤ 1)
Beispiel 1: Berechnung des Forecasts für Woche 10 und α = 0,3. Der Forecast für Woche 9 ist 3420, der aktuelle Bedarf für Woche 9 ist 3729. Der Glättungsfaktor α = 0,3 (Abb. 3.13).
Mit F9 = 3420 und ∝ = 0, 3 wird
Ft +1 = Ft + ∝ ( At − Ft )
F10 = F9 + ∝ ( A9 − F9 ) = 3420 + 0, 3 ( 3729 − 3420 ) = 3512, 7 → 3513
Der aktuelle Bedarf für Periode 10 ist 3992. Beispiel 2: Berechnung des Forecasts für Woche 10 und α = 0,5. Der Forecast für Woche 9 ist 3463, der aktuelle Bedarf für Woche 9 ist 3729. Der Glättungsfaktor α = 0,5 (Abb. 3.14).
Mit F9 = 3463 und ∝ = 0.5 wird
Ft +1 = Ft + ∝ ( At − Ft )
F10 = F9 + ∝ ( A9 − F9 ) = 3463 + 0, 5 ( 3729 − 3463 ) = 3596 Der aktuelle Bedarf für Periode 10 ist 3992.
Abb. 3.13 Forecasting: exponentiell geglätteter Mittelwert, Woche 10 – α = 0,3. (Quelle: kdibis.com)
42
3 SCM – Supply-Chain-Management
Abb. 3.14 Forecasting: exponentiell geglätteter Mittelwert – α = 0,5. (Quelle: kdibis.com)
3.5.7 Linearer Trend-Forecast Dieser ist eine einfache lineare Regression mit einer Trendlinie, welche auf einer Serie historischer Daten basiert. Das Verfahren verwendet die Methode der kleinsten Fehlerquadrate, welche die Summe der quadratischen Abweichungen minimiert, um die Parameter einer linearen Gleichung zu bestimmen. Yˆ = b0 + b1 x
wobeiYˆ = Forecast oder abhangige Variable x = Zeitachse ( unabhangige Variable ) b0 = vertikaler Achsenabschnitt der Geraden b1 = Steigung der Geraden b1 =
n ∑ ( xy ) − ∑ x ∑ y n ∑ x2 − ( ∑ x )
b0 =
∑ y − b1 ∑ x n
x = Zeitachse ( unabhangige Variable ) y = abhangige Variable n = Anzahl Beobachtungen.
2
3.5 Demand Forecasting
43
Beispiel 1: Linearer Trend Bier • Bedarf 200.359 hl • Wachstum – 9,5 %/a Beispiel: Der Bedarf für die Perioden 1–52 ist in Tab. 3.2 angegeben. Gesucht sind die Trendlinie und der Forecast für Periode 52 (Abb. 3.15). b1 =
n ∑ ( xy ) − ∑ x ∑ y n ∑ x − (∑ x) 2
b0 =
2
=
52 ( 5.220.851) − 1.378 ( 200.359 ) 52 ( 48.2230 ) − 1.3782
= −7, 57
∑ y − b1 ∑ x 200.359 + 7, 57 (1.378 ) = = 4.053, 66 n 52
Die Trendlinie ist Yˆ = 4.053 − 7, 57 x
x = 1 → Yˆ = 4.053 − 7, 57 (1) = 4.045, 43 = 4.045 Fur
x = 52 → Yˆ = 4.053 − 7, 57 ( 52 ) = 3.659, 36 → 3.659 Fur
Beispiel 2: Linearer Trend Wasser • Bedarf 184.436 hl • Wachstum + 20 %/a Tab. 3.2 Linearer Trend Bier Periode 1 2 3 4 5 6 … 48 49 50 51 52 ∑x = 1378
Bedarf 3593 3455 3391 3210 3101 3280 … 3573 3561 3466 3371 3183 ∑y = 200.359
x2 1 4 9 16 25 36 … 2304 2401 2500 2601 2704 ∑x2 = 48.230
xy 3593 6910 10.173 12.840 15.505 19.680 … 171.504 174.489 173.300 171.921 165.516 ∑xy = 5.220.851
3 SCM – Supply-Chain-Management
44
Abb. 3.15 Forecasting: linearer Trend Bier-Division. (Quelle: kdibis.com) Tab. 3.3 Linearer Trend Wasser Periode 1 2 3 4 5 6 … 48 49 50 51 52 ∑x = 1378
Bedarf 3067 3417 3160 3448 3427 3377 … 3776 3920 3987 4055 3643 ∑y = 184.436
x2 1 4 9 16 25 36 … 2304 2401 2500 2601 2704 ∑x2 = 48.230
xy 3067 6834 9480 13.792 17.135 20.262 … 181.248 192.080 198.900 206.805 189.436 ∑xy = 5.035.609
Beispiel: Der Bedarf für die Perioden 1–52 ist in Tab. 3.3 angegeben. Gesucht sind die Trendlinie und der Forecast für Periode 52 (Abb. 3.16). b1 =
n ∑ ( xy ) − ∑ x ∑ y n ∑ x − (∑ x) 2
b0 =
2
=
52 ( 5.035.609 ) − 1.378 (184.436 ) 52 ( 48.2230 ) − 1.3782
= 12, 64
∑ y − b1 ∑ x 184.436 − 12, 64 (1.378 ) = = 3.211, 89 n 52
DieTrendlinieist Yˆ = 3.211, 89 + 12, 64 x
x = 1 → Yˆ = 3.211, 89 + 12, 64 (1) = 3.224, 53 → 3.225 Fur
x = 52 → Yˆ = 3.211, 89 + 12, 64 ( 52 ) = 3.869,17 → 3.869 Fur
3.6 Inventory-Management
45
Abb. 3.16 Forecasting: linearer Trend Wasser-Division. (Quelle: kdibis.com)
3.5.7.1 Beispiel 1: Linearer Trend Softdrinks-Division • Bedarf 167.791 hl • Wachstum + 2,5 %/a Beispiel: Der Bedarf für die Perioden 1–52 ist in Tab. 3.4 angegeben. Gesucht sind die Trendlinie und der Forecast für Periode 52 (Abb. 3.17). b1 =
n ∑ ( xy ) − ∑ x ∑ y n ∑ x − (∑ x) 2
b0 =
2
=
52 ( 4.464.843 ) − 1.378 (167.791) 52 ( 48.2230 ) − 1.3782
= 1, 57
∑ y − b1 ∑ x 167.791 − 1, 57 (1.378 ) = = 3.185,15 n 52
Die Trendlinie ist Yˆ = 3.185,15 + 1, 57 x
F ur x = 1 → Yˆ = 3.185,15 + 1, 57 (1) = 3.185,15 + 1, 57 = 3.186, 72 → 3.187
F ur x = 52 → Yˆ = 3.185,15 + 1, 57 ( 52 ) = 3.266, 79 → 3.267
3.6
Inventory-Management
3.6.1 Lagerkosten Durchschnittlich 30–35 % des Materialwertes, 6–15 % vom Umsatz (branchenabhängig) sind Lagerkosten. Als Beispiel die Ergebnisse dreier Großunternehmen im Vergleich (Dietl 2012; Tab. 3.5).
3 SCM – Supply-Chain-Management
46 Tab. 3.4 Linearer Trend Softdrinks Periode 1 2 3 4 5 6 … 48 49 50 51 52 ∑x = 1378
Bedarf 3067 3163 3154 3099 3371 3197 … 3246 3402 3277 3172 3062 ∑y = 167.791
x2 1 4 9 16 25 36 … 2304 2401 2500 2601 2704 ∑x2 = 48.230
xy 3067 6326 9462 12.396 16.855 19.182 … 155.808 166.698 163.850 161.772 159.224 ∑xy = 4.464.843
Abb. 3.17 Forecasting: linearer Trend Softdrinks-Division. (Quelle: kdibis.com) Tab. 3.5 Lagerkosten im Vergleich Ergebnisse 2011 Lager (Mio. $) Umsätze (Mio. $) Aktiva (Mio. $) Anteil am Gesamtvermögen (%) Anteil vom Umsatz (%)
ABB 5.737 37.990 39.648 14,5 % 15,1 %
Novartis 5.930 58.566 117.496 5,0 % 10,1 %
Toyota 15.685 228.427 358.607 4,4 % 6,9 %
3.6.2 Lagerhaltungsmodelle Nach Dietl (2012) unterscheidet man zwischen Einperiodenmodellen und Mehrperiodenmodellen, die sowohl deterministische als auch stochastische Nachfragestrukturen haben können:
3.6 Inventory-Management
47
Einperiodenmodelle mit deterministischer Nachfrage sind vertraglich geregelte Absatzmengen in einer Periode (Zeitungsabonnement). Einperiodenmodelle mit stochastischer Nachfrage haben eine unsichere Absatzmenge in einer Periode (Zeitungsverkauf im Handel). Mehrperiodenmodelle mit deterministischer Nachfrage sind vertraglich definierte Absatzmengen über mehrere Perioden (Lieferantenvertrag). Mehrperiodenmodelle mit stochastischer Nachfrage sind unsichere Absatzmengen über mehrere Perioden (Bierverkauf). Man unterscheidet zusätzlich zwischen Bestellpunktmodell (Fixed-order Quantity Model) mit fester (optimaler) Bestellmenge abhängig vom Sollbestand. Der Bestellzeitpunkt ist variabel bei Erreichen des Meldebestandes. Bestellrhythmusmodell (Fixed-time Period Model) mit variabler Bestellmenge, abhängig vom aktuellen Verbrauch. Der Bestellzeitpunkt ist regelmäßig, zu einem fest definierten Zeitpunkt In diesem Kurs werden ausschließlich Bestellrhythmusmodelle (Fixed-time Period Model) als Mehrperiodenmodelle mit stochastischer Nachfrage verwendet.
3.6.3 Lagerhaltungskosten Für die folgenden Betrachtungen werden folgende Lagerhaltungskosten berücksichtigt: Carrying Costs/Lagerkosten – direkte Kosten, die bei der Materiallagerung entstehen, Ordering Costs/Beschaffungskosten – Kosten für die Wiederbeschaffung, um den Lagerbestand aufzufüllen, Shortage Costs/Fehlmengenkosten (Backorder Costs) – entstehen, wenn aufgrund fehlenden Lagerbestands nicht geliefert werden kann.
3.6.4 EOQ-Modelle – Bestellpunktmodell (Fixed-order Quantity Model) EOQ-Modelle dienen der Bestimmung der optimalen Bestellmenge, welche die Summe der Lager- und Wiederbeschaffungskosten minimiert. Wir betrachten drei Modelle: das Basic-EOQ-Modell, das ausschließlich die Bestellkosten und die Lagerhaltungskosten berücksichtigt, das Fehlmengen-(Shortages-)Modell, das Fehlmengen zur Kostenoptimie-
3 SCM – Supply-Chain-Management
48
rung einbezieht und das Non-Instantaneous-Receipt-Modell, das den maximalen Lagerbestand durch optimierte Teillieferungen reduziert. Die Resultate hängen maßgeblich von den folgenden Parametern ab: EOQ Basic: Generisches Währungssymbol Hektoliter Zins- und Lagerfixkosten pro Einheit pro Jahr Bestellfixkosten pro Bestellung Jahresbedarf Die tägliche Liefermenge, die vom Lager abgerufen wird
→ → → → → →
¤ hl c = ¤ 0, 5 pro hl a = ¤ 9 M = 201.797 hl xd = 554 hl
Im EOQ-Fehlmengen-Modell kommen hinzu: Fehlmengenfixkosten pro Einheit pro Jahr
→
f = ¤ 2, 00 pro hl
Im EOQ-Non-Instantaneous-Receipt-Modell kommt zum Basic-Modell folgender Parameter hinzu: Produktionsrate, mit der das Lager pro Bestellzyklus aufgefüllt wird
→
xp = 1.281 hl
3.6.4.1 EOQ-Basic-Modell Annahmen: Bedarf ist bekannt und relativ konstant über die Zeit Keine Fehlmengen erlaubt Konstante Lieferzeit (Lead Time) Die Bestellmenge wird vollständig geliefert
Das Lager wird bei jedem Bestellzyklus mit der optimalen Bestellmenge xopt auf den vollen Lagerbestand xmax = xopt aufgefüllt und während der Periode t mit dem täglichen Bedarf xd entleert (Abb. 3.18). Das Ziel ist die Bestimmung der optimalen Bestellmenge xopt, welche die Lagerkosten pro Bestellzyklus minimiert. Im Basic-Modell wird der maximale Lagerbestand xmax = xopt (Abb. 3.19). Parameter: Zins- und Lagerfixkosten pro Einheit pro Jahr c = ¤ 0, 5 pro hl → Bestellfixkosten pro Bestellung (Bestellzyklus) a = ¤ 9 → Jahresbedarf M = 201.797 hl → Die tägliche Liefermenge, die vom Lager abgerufen wird xd = 554 hl → optimale Bestellmenge pro Bestellzyklus [hl] xopt →
3.6 Inventory-Management xd Z Ay By Lb Lm Lz Ky
→ → → → → → → →
tägliche Liefermenge, die vom Lager abgerufen wird [hl] Bestellzyklus [Tage] Anzahl Bestellungen pro Jahr Bestellkosten pro Jahr [¤] Lagerbestand pro Bestellzyklus [hl] mittlerer Lagerbestand pro Bestellzyklus [hl] mittlere Lagerhaltungskosten pro Bestellzyklus [¤] Lagerkosten pro Jahr [¤]
Z=
49
xopt xd
→ Bestellzyklus [ Tage ]
Abb. 3.18 EOQ Basic – Bestellzyklus. (Quelle: kdibis.com)
Abb. 3.19 EOQ Basic – Bestimmung der minimalen Lagerkosten. (Quelle: kdibis.com)
50
3 SCM – Supply-Chain-Management
Ay =
x M 364 = 364 ∗ d = → Anzahl Bestellungen pro Jahr Z xopt xopt By = a ∗ Ay = a ∗
M → Bestellkosten pro Jahr xopt
Lb = xopt − ( xopt ∗ t ) → Lagerbestand pro Bestellzyklus
Lb ( t = 0 ) = xopt → Lb ( t = 1) = 0 Lm =
xopt 2
L z = c ∗ Lm = c
→ mittlerer Lagerbestand pro Bestellzyklus
xopt 2
→ mittlere Lagerhaltungskosten pro Bestellzykluss
K y = Lz + By = c
xopt 2
+a
M → Lagerkosten pro Jahr xopt
Die optimale Bestellmenge xopt ergibt sich aus dem Minimum der Lagerkosten Ky (Abb. 3.19). Lösungsweg 1: Schnittpunkt von L und B, nach xopt auflösen Lz = By → c
xopt
2
=a
2 aM M 2 → xopt = xopt c
Lösungsweg 2: partielle Ableitung der Lagerkosten Ky nach der Bestellmenge xopt ∂K y ∂xopt
c aM − 2 2 xopt
c aM 2aM 2 − 2 = 0 → xopt = 2 xopt c
=
xopt =
2 aM → optimale Bestellmenge pro Bestellzyklus c
xopt =
2 aM 2 ∗ 201.797 ∗ 9 = = 2.695, 62 hl → 2.695 hl 0, 5 c
Beispiel
3.6 Inventory-Management
Ay =
M 201.797 = = 74, 88 → 74 → Anzahl Bestellungen pro Jahr xopt 2.695 Z=
Ky = a
51
xopt xd
=
2.695 = 4, 86 Tage → 5 Tage → Bestellzyklus 554
x M 201.797 2.695 + c opt = 9 ∗ + 0, 5 ∗ = ¤1347, 65 → ¤1348 xopt 2 2.695 2 K y → Lagerkosten pro Jahr
3.6.4.2 EOQ-Fehlmengen-(Shortages-)Modell Im Basic-EOQ-Modell sind Fehlmengen nicht erlaubt. Das Fehlmengenmodell sieht diese ausdrücklich vor. Allerdings wird angenommen, dass der Gesamtbedarf gedeckt wird, indem Fehlmengen als Backorder nachgeliefert werden (Abb. 3.20). Annahmen: Bedarf ist bekannt und relativ konstant über die Zeit Fehlmengen sind erlaubt Konstante Lieferzeit (Lead Time) Die Bestellmenge wird vollständig geliefert
Das Lager wird bei jedem Bestellzyklus mit der optimalen Bestellmenge xopt auf den Lagerbestand xmax aufgefüllt, wobei xmax gleich xopt vermindert um die optimale Fehlmenge sopt ist, und wird während der Periode t = t1 + t2 mit dem täglichen Bedarf xd entleert (Abb. 3.20). t1 ist der Zeitraum pro Bestellzyklus, während dem Lagerbestand vorhanden ist. Während dieser Zeit fallen Lagerfixkosten c pro Einheit an. t2 ist der Zeitraum pro Bestellzy klus, während dem Fehlmengen vorhanden sind. In dieser Zeit fallen Fehlmengenfixkosten
Abb. 3.20 EOQ Shortages – Bestellzyklus. (Quelle: kdibis.com)
3 SCM – Supply-Chain-Management
52
f an. Die Fehlmengenfixkosten sind hier 4-mal höher als die Lagerfixkosten. Damit wird mit dem täglichen Bedarf xd t1 =
xopt − sopt xd
t2 =
xopt − xmax xd
=
xmax Tage xd
=
sopt xd
Tage
Das Ziel ist die Bestimmung der optimalen Bestellmenge xopt und der optimalen Fehlmenge sopt, welche die Lagerkosten und Fehlmengenkosten pro Bestellzyklus minimiert. Im Fehlmengenmodell wird der maximale Lagerbestand xmax = xopt − sopt. Parameter: Zins- und Lagerfixkosten pro Einheit pro Jahr Bestellfixkosten pro Bestellung (Bestellzyklus) Fehlmengenfixkosten pro Einheit pro Jahr Jahresbedarf Die tägliche Liefermenge, die vom Lager abgerufen wird xopt xmax = xopt − sopt sopt xd Z Ay By Lb Lm Lz Fb Fm Fz Ky
Z = Z t1 + Z t2 → Ay =
→ → → → → → → → → → → → → →
→ → → → →
c = ¤ 0, 5 pro hl a = ¤ 9 f = ¤ 2, 00 pro hl M = 201.797 hl xd = 554 hl
optimale Bestellmenge pro Bestellzyklus [hl] maximaler Lagerbestand pro Bestellzyklus [hl] optimale Fehlmenge pro Bestellzyklus [hl] tägliche Liefermenge, die vom Lager abgerufen wird [hl] Bestellzyklus [Tage] Anzahl Bestellungen pro Jahr Bestellkosten pro Jahr [¤] Lagerbestand pro Bestellzyklus [¤] mittlerer Lagerbestand pro Bestellzyklus [¤] mittlere Lagerhaltungskosten pro Bestellzyklus [¤] Fehlmenge pro Bestellzyklus [¤] mittlere Fehlmenge pro Bestellzyklus [¤] mittlere Fehlmengenkosten pro Bestellzyklus [¤] Lagerkosten pro Jahr [¤]
xopt xd
=
xmax sopt + → Bestellzyklus [ Tage ] xd xd
x M 364 = 364 ∗ d = → Anzahl Bestellungen pro Jahr Z xopt xopt
3.6 Inventory-Management
53
By = a ∗ Ay = a ∗ t = t1 + t2 wird fur
M → Bestellkosten pro Jahr xopt
s xmax xopt sopt x t = 1 wird t1 = max und t2 = opt = = → fur t1 t t2 xopt xopt
Lb = xmax − ( xmax ∗ t1 ) → Lb ( 0 ) = xmax und Lb ( t1 ) = 0
→ Lagerbestand pro Bestellzyklus Lm =
Lb ( 0 ) + Lb ( t1 ) 2
( xopt − sopt ) x x x2 ∗ t1 = max ∗ max = max = xopt 2 xopt 2 xopt 2 2
→ mittlerer Lagerbestand pro Bestellzyklus
Lz
(x =c
opt
− sopt )
2 xopt
2
→ mittlere Lagerhaltungskosten pro Bestelllzyklus
Fb = sopt − ( sopt ∗ t2 ) → Fb ( 0 ) = 0 und Fb ( t2 ) = sopt → Fehlmenge pro Bestelllzyklus Fm =
Fb ( 0 ) + Fb ( t2 ) 2
Fz = f
2 sopt
2 xopt
K y = Lz + Fz + By
sopt 2
∗
sopt xopt
=
2 sopt
2 xopt
→ mittlere Fehlmenge pro Bestellzyklus
∗ t2 =
→ mittlere Fehlmengenkosten pro Bestellzyklus
(x =c
opt
− sopt )
2 xopt
2
+f
2 sopt
2 xopt
+a
M → Lagerkostten pro Jahr xopt
Die optimale Bestellmenge xopt ergibt sich aus dem Minimum der Lagerkosten Ky. Die optimale Fehlmenge sopt ergibt sich aus dem Minimum der Fehlmengenkosten Fz (Abb. 3.21). Die drei Kostenkomponenten schneiden sich nicht in einem gemeinsamen Punkt. Somit ergibt sich die optimale Bestellmenge und der optimale Fehlbestand durch partielle Ableitung der Lagerkostenkurve Ky nach xopt bzw. nach sopt.
3 SCM – Supply-Chain-Management
54
Abb. 3.21 EOQ Shortages – Bestimmung der minimalen Lagerkosten. (Quelle: kdibis.com)
2 2 2 ∂K y c xopt c 2 xopt sopt c sopt f sopt M + a∗ − ∗ + ∗ + ∗ ∗ ∂xopt 2 xopt 2 xopt 2 xopt 2 xopt xopt
=
2 2 ∂K y c c sopt f sopt M + ∗ + a∗ ∗ xopt − c ∗ sopt + ∗ ∂xopt 2 2 xopt 2 xopt xopt
=
2 2 c c sopt f sopt M − ∗ 2 − ∗ 2 −a∗ 2 = 0 2 2 xopt 2 xopt xopt
c 2 c 2 f 2 ∗ xopt = ∗ sopt + ∗ sopt +a∗M 2 2 2 2 aM f 2 ∗ sopt + c c
2 2 ∂K y c c sopt f sopt M + ∗ + a∗ ∗ xopt − c ∗ sopt + ∗ ∂sopt 2 2 xopt 2 xopt xopt
= −c + c ∗ −c + c ∗
2 2 c c sopt f sopt M − ∗ 2 − ∗ 2 −a∗ 2 2 2 xopt 2 xopt xopt
2 2 = sopt + xopt
sopt xopt
sopt xopt
+f∗
+f∗
sopt xopt
sopt xopt =0
3.6 Inventory-Management
55
c ∗ xopt = c ∗ sopt + f ∗ sopt
c ∗ xopt = ( c + f ) ∗ sopt
c sopt = xopt c+ f
c f c 2 aM 2 2 2 = xopt xopt + xopt + c c+ f c c+ f
c 2 2 − xopt xopt + c
2
x
2 opt
2 aM ∗ c
=
2 aM ∗ c
1+
2
2 aM = f c
1 2
f c − f c c+
1 1+
−c 2
(c + f )
2
+
(c + f )
2
=
−cf
(c + f )
2 aM ∗ c
2
1 c 1− c+ f
=
f
1+
2
1 −c 2 − cf
(c + f )
2
2 aM c + f → optimale Bestellmenge c f
c sopt = xopt c+
2aM 1 ∗ c+ f c c − c+ f c+ f
2 aM 1 2 aM 1 2aM c + f = ∗ = ∗ c+ f −c f c c c f c+ f c+ f
xopt =
2 aM ∗ c c 1 − c+
1 2 aM = ∗ −c ( c + f ) c
=
2
f c 2 − xopt f c c+
c 2 f c 2 2 aM 1 − = − c + f c c + f c
2 xopt =
=
2
→ optimale Fehlmenge f
3 SCM – Supply-Chain-Management
56
Beispiel xopt =
2 aM c + f 2 ∗ 9 ∗ 201.797 0, 5 + 2 = 2 = 3.013, 45 hl → 3.013 hl 0, 5 c f c sopt = xopt c+ Ky
0, 5 = 3.013 = 602, 6 hl → 602 hl f 0, 5 + 2
(x =c
2 xopt
K y = 0.5 ∗
− sopt )
opt
( 3.013 − 602 ) 2 ∗ 3.013 Ay =
Z=
2
+ 2∗
2
+f
2 sopt
2 xopt
+a
M xopt
602 2 201.797 + 9∗ = 1.2205 2 ∗ 3.013 3.013
M 201.797 = = 66, 97 → 67 3.013 xopt
364 364 = = 5, 43 Tage → 5 Tage Ay 67
xmax = xopt − sopt = 3.013 − 602 = 2.411hl
Die Zeiträume, während Lagerbestand vorhanden ist, t1 und während des Fehlbestandes t2 innerhalb eines Bestellzyklus t ergeben sich wie folgt: t1 =
xopt − sopt xd t2 =
=
sopt xd
3.013 − 602 = 4, 3 Tage → 4 Tage 554 =
602 = 1, 09 Tage → 1Tag 554
3.6.4.3 Non-Instantaneous-Receipt-Modell Annahmen: Bedarf ist bekannt und relativ konstant über die Zeit Keine Fehlmengen erlaubt Konstante Lieferzeit (Lead Time) Die Bestellmenge wird in gleichmäßigen Teilmengen innerhalb eines Bestellzyklus geliefert
In dieser EOQ-Variante werden Lagerein- und -ausgänge kontinuierlich geführt mit der Produktionsrate xp, mit der das Lager pro Bestellzyklus aufgefüllt wird, und der täglichen Liefermenge xd, die kontinuierlich vom Lager abgerufen wird (Abb. 3.22).
3.6 Inventory-Management
57
Abb. 3.22 EOQ Non-Instantaneous – Bestellzyklus. (Quelle: kdibis.com)
Das Ziel ist die Bestimmung der optimalen Bestellmenge xopt, welche die Lagerkosten pro Bestellzyklus minimiert. Im Non-Instantaneous-Modell wird der maximale Lager bestand x xmax = xopt 1 − d x p
Parameter:
Zins- und Lagerfixkosten pro Einheit pro Jahr Bestellfixkosten pro Bestellung (Bestellzyklus) Jahresbedarf Die tägliche Liefermenge, die vom Lager abgerufen wird Produktionsrate, mit der das Lager aufgefüllt wird xopt
x xmax = xopt 1 − d x p xd xp Z Ay Pz By Lb Lm Lz Ky
→ → → → →
c = ¤ 0, 5 per hl a = ¤ 9 M = 201.797 hl xd = 554 hl xp = 1.281 hl
→ →
optimale Bestellmenge pro Bestellzyklus [hl] maximaler Lagerbestand pro Bestellzyklus [hl]
→ → → → → → → → → →
tägliche Liefermenge, die vom Lager abgerufen wird [hl] Produktionsrate, mit der das Lager aufgefüllt wird [hl] Bestellzyklus [Tage] Anzahl Bestellungen pro Jahr Anzahl Teillieferungen pro Bestellzyklus Bestellkosten pro Jahr [¤] Lagerbestand pro Bestellzyklus [hl] mittlerer Lagerbestand pro Bestellzyklus [hl] mittlere Lagerhaltungskosten pro Bestellzyklus [hl] Lagerkosten pro Jahr [¤]
3 SCM – Supply-Chain-Management
58
Z=
xopt
Ay =
→
Bestellzyklus [Tage]
→
Anzahl Bestellungen pro Jahr
→
Bestellkosten pro Jahr
xd M xopt
By = a ∗
M xopt
Während der Dauer t1 wird der Lagerbestand mit der Produktionsrate xp bis zur optimalen Bestellmenge xopt gefüllt. Gleichzeitig wird das Lager während der Dauer t1 mit der Lieferrate xd geleert. Für xp = xd gibt es keinen Lagerbestand. Es sind keine Fehlmengen erlaubt, daher gilt xp > xd t1 = t1 ∗ xd =
xopt xp
xopt xp
wird → Dauer, mit der das Lager gefullt
end der ∗ xd → Liefermenge, um die sich der Lagerbestand wahr
Lieferphase verringert
xmax = xopt − xopt ∗
xd x = xopt 1 − d → maximaler Lagerbestand xp xp
Lb = xmax − ( xmax ∗ t2 ) → Lb ( t2 = t1 ) = xmax → Lb ( t = 1) = 0
→ Lagerbestand pro Bestellzyklus
Lm =
( L ( t ) + L (1) ) ∗1 = ( x b
1
b
2
∗1 =
xmax 2
xopt xmax =c 2 2
x 1 − d xp
→ mittlere Lagerhaltungskosten pro Bestellzyklus K y = Lz + By = c
2
+ 0)
→ mittlerer Lagerbestand pro Bestellzyklus L z = c ∗ Lm = c
max
xopt x M → Lagerkosten pro Jahr 1 − d + a 2 xp xopt
Die optimale Bestellmenge xopt ist das Minimum der Lagerkosten Ky (Abb. 3.23).
59
3.6 Inventory-Management
Abb. 3.23 EOQ Non-Instantaneous – Minimierung der Lagerhaltungskosten. (Quelle: kdibis.com)
Lösungsweg 1: Schnittpunkt von Lz und By, nach xopt auflösen Lz = By → c
xopt x M 2 aM 2 → xopt = 1 − d = a xopt 2 xp x c 1 − d x p
Lösungsweg 2: partielle Ableitung der Lagerkosten Ky nach der Bestellmenge xopt ∂K y xopt c ∂xopt 2
x M 1 − d + a xopt xp
c x aM = 1 − d − 2 2 x p xopt
x aM c 2aM 2 1 − d − 2 = 0 → xopt = 2 x p xopt x c 1 − d x p
xopt =
2 aM x c 1 − d x p
→ optimale Bestellmenge
Beispiel xopt =
3.632.346 2 aM 2 ∗ 9 ∗ 201.797 = = = 3.578,19 hl → 3.578 hl 554 0, 2837 xd 0, 5 1 − c 1 − x 1.281 p
60
3 SCM – Supply-Chain-Management
Ky = c
xopt x M 3.578 554 201.797 = 0, 5 ∗ 1− + 9∗ 1 − d + a 2 xp xopt 2 1.281 3.578 = ¤1’015.24 → ¤ 1’015
Ay = Z=
M 201.797 = = 56, 40 → 56 3.578 xopt
364 364 = = 6, 5 Tage → 6 Tage Ay 56
Pz =
3.7
xopt xp
=
3.578 = 2, 79 → 3 1.281
x 554 xmax = xopt 1 − d = 3.578 1 − = 2.030, 61hl → 2..031hl x 1.281 p
Blockchain im Supply-Chain-Management
3.7.1 Blockchain Geschichte Die Blockchain-Reise begann 1991. Haber und Stornetta (1991) veröffentlichten eine Forschungsarbeit mit dem Titel „How to time-stamp a digital document“. Demnach sendet ein Client ein Dokument an einen Zeitstempelserver und der Server signiert das Dokument mit dem aktuellen Zeitstempel. Außerdem würde der Server das Dokument mit dem vorherigen Dokument verknüpfen. Die Zeitstempel dienen als Pointer auf bestimmte Daten und nicht auf den Speicherort des Dokuments. Wenn sich also die Daten ändern, ändert sich der Zeitstempel und der Pointer wird ungültig. Das stellt sicher, dass niemand die Daten manipulieren könnte, wenn sie einmal den Server passiert haben. Der nächste Schritt, der zur Blockchain-Technologie führte, war ein White Paper mit dem Titel „Bitcoin: a peer-to-peer electronic cash system“ (Nakamoto 2008). Nakamoto führt zusätzliche Schlüsselkomponenten in das Blockchain-Konzept ein: die Nutzung des Internets, dezentralisierte Ledger in Peer-to-Peer-Netzwerken, das Zeitstempeln von Transaktionen durch Hashing und einen Konsensalgorithmus, der kryptografische Beweise erstellt.
3.7.2 Kryptografischer Hash Ein kryptografischer Hash ist eine Art Signatur für einen Text, eine Datendatei oder einen Datensatz. Es handelt sich um eine kryptografische Einwegfunktion, die für jede Quelltextgröße eine feste Größe hat. Ein Hash ist keine Verschlüsselung – er kann nicht wieder
3.7 Blockchain im Supply-Chain-Management
61
in den Originaltext entschlüsselt werden. Er eignet sich gut, um gehashte Versionen von Texten zu vergleichen, anstatt den Text zu entschlüsseln, um die ursprüngliche Version zu erhalten. Die Tatsache, dass ein Hash eindeutig zu dem Datensatz gehört, den er repräsentiert, ist von entscheidender Bedeutung für die Blockchain. Jede Änderung des Datensatzes generiert also einen neuen Hash. Da jedoch die meisten Hash-Algorithmen denselben Hash für identische Daten erzeugen, werden sie gleichzeitig für Blockchains unbrauchbar. Zusätzliche Verfahren sind notwendig, um die Eindeutigkeit von Hashes in einer Blockchain für Blöcke mit identischen Datensätzen sicherzustellen. Die Verwendung von kryptografischen Hash-Funktionen ist eine übliche Methode zum Hashen von Passwörtern. Da die meisten Hash-Algorithmen offen sind, können sie zum Hacken von Passwörtern verwendet werden. Im Laufe der Jahre wurden Millionen von Passwörtern von öffentlichen Domänen wie LinkedIn und Dropbox gestohlen. Und obwohl die Passwörter gehasht wurden, können sie leicht geknackt werden. Die einfachste Möglichkeit, einen Hash zu knacken, besteht darin, das Kennwort zu erraten, indem aus einer Serie von Testworten jedes einzelne gehasht und überprüft wird, ob der Hash des Testwortes dem zu knackenden Hash entspricht. Wenn die Hashes gleich sind, ist das Testwort das Passwort. Die beiden häufigsten Methoden zum Erraten von Passwörtern sind Wörterbuchangriffe und Brute-Force-Angriffe. Bei einem Wörterbuchangriff wird eine Datei verwendet, die Wörter, Ausdrücke, gebräuchliche Kennwörter und andere Zeichenfolgen enthält, die wahrscheinlich als Kennwort verwendet werden. Jedes Wort in der Datei wird gehasht und sein Hash wird mit dem Passwort-Hash verglichen. Wenn sie übereinstimmen, ist dieses Wort das Passwort. Diese Wörterbuchdateien werden durch Extrahieren von Wörtern aus großen Datenmengen und sogar aus echten Kennwortdatenbanken erstellt. Es gibt keine Möglichkeit, Wörterbuchangriffe oder Brute-Force-Angriffe zu verhindern. Sie können weniger effektiv gemacht werden, aber es gibt keine Möglichkeit, sie insgesamt zu verhindern (crackstation.net 2019). Es gibt eine Technik namens Salt, die es fast unmöglich oder zumindest extrem schwierig macht, Nachschlagetabellen zu verwenden, um einen Hash zu knacken. Salt stellt sicher, dass die gleichen Passwörter für verschiedene Benutzer niemals gleich sind. Salt randomisiert die Hashes, indem vor dem Hashen eine zufällige Zeichenfolge – Salt – an das Kennwort angehängt oder vorangestellt wird. Dadurch werden unterschiedliche Zeichenfolgen für verschiedene Benutzer mit demselben Kennwort erstellt (Tab. 3.6). Salt kann als Methode verwendet werden, um die Eindeutigkeit von Hashes in Blockchains zu gewährleisten.
Tab. 3.6 Salting Hashes. (Angelehnt an crackstation.net 2019) Data to be Hashed hello helloQxLUF1bgIA hellobv5PehSMfV helloYYLmfY6Ieh
Hash 2cf24dba5fb0a30e26e83b2ac5b9e29e1b161e5c1fa7425e73043362938b9824 9e209040c863f84a31e719795b2577523954739fe5ed3b58a75cff2127075ed1 d1d3ec2e6f20fd420d50e2642992841d8338a314b8ea157c9e18477aaef226ab a49670c3c18b9e079b9cfaf51634f563dc8ae3070db2c4a8544305df1b60f007
3 SCM – Supply-Chain-Management
62
3.7.3 Blockchain Grundlagen Eine Blockchain ist eine Kette von speziellen Datensätzen (Blocks) in einer Datenbank, die Informationen generieren. Die in einer Blockchain aufgezeichneten Informationen können jede Form annehmen – Geldtransfer, Eigentum, Transaktion, Identität einer Person, Vereinbarung zwischen zwei Parteien, Marketingaktivitäten oder Nachverfolgung von Waren und Material … Jeder Block enthält einen Satz von Daten, den Hash des Blocks und den Hash des vorherigen Blocks (Tab. 3.7; Abb. 3.24). Der erste Block kann offensichtlich nicht auf einen Tab. 3.7 Blockchain – Resultate Bierprodukte (Quelle: kdibis.com) Blockchain – Resultate Bierprodukte Block Produkt 1 Premiumflasche 2 Alkoholfreiflasche 3 Bügelflasche 4 Premium-6-Pack Abb. 3.24 Blockchain – Resultate Bierprodukte. (Quelle: kdibis.com)
Umsatz 652.796 656.855 670.551 669.629
Hash 3a45b24d … 2cf24dba … 5fb0a30e … 26e83b2a …
Previous Hash 3a45b24d … 2cf24dba … 5fb0a30e …
3.7 Blockchain im Supply-Chain-Management
63
vorherigen Block verweisen. Er heißt Genesisblock. Ändern von Daten in einem Block, z. B. Block 2, ändert seinen Hash und ist nicht mehr mit dem nachfolgenden Block verbunden. Dadurch werden dieser und alle nachfolgenden Blöcke ungültig, was es extrem schwierig macht, Daten zu ändern, sobald sie generiert wurden. Dies ist ein Schlüsselelement von Blockchain-Konzepten: Änderung von Daten zu verhindern. Mit zur Verfügung stehender großer Computerleistung ist es prinzipiell möglich, die Hashes aller nachfolgenden Blöcke neu zu berechnen und die Kette wieder gültig zu machen. Um dies zu verhindern, wird ein Konsensalgorithmus verwendet. Der ursprüngliche Konsensalgorithmus in einer Blockchain ist Proof-of-Work. Dieser Algorithmus wird verwendet, um Transaktionen zu bestätigen und der Kette neue Blöcke hinzuzufügen. Diese Daten sind schwierig (kostspielig, zeitaufwendig) zu erstellen, für andere jedoch leicht zu überprüfen. In der Kryptowährung Bitcoin ist das Generieren neuer Blöcke durch das Netzwerk auf einen Block alle 10 Minuten beschränkt. Wenn die Daten eines Blocks sich ändern, was nur durch Erstellen eines neuen Blocks mit demselben Vorgänger möglich ist, müssen alle Nachfolger neu generiert und für alle Proof-of-Work angewendet werden. Dies schützt den Block vor Manipulationen (Bitcoin Wiki 2019). Konsensalgorithmen sind nur in öffentlichen Blockchains notwendig. Blockchains in Supply Chains sind privat und verfügen über zentrale Mechanismen, um die Integrität der Blockchain sicherzustellen. Blockchains sichern sich zusätzlich durch die Verteilung in einem Peer-to-Peer- Netzwerk. Diese sind offen für alle Teilnehmer in öffentlichen Blockchains und für bekannte Teilnehmer in privaten Blockchains (Abb. 3.25) Wenn sich jemand dem Netzwerk anschließt, erhält er eine vollständige Kopie der Blockchain. Wenn jemand einen neuen Block erstellt, wird der Block an alle Mitglieder des Netzwerks gesendet. Jeder Knoten überprüft den Block und fügt diesen Block zu seiner eigenen Blockchain hinzu. Das Peer-to-Peer-Netzwerk einer Blockchain bildet eine dezentrale Datenbank, ein Distributed Ledger. Eine Blockchain ist eine spezielle Art von Distributed Ledgers. Grundsätzlich ist ein Distributed Ledger eine dezentralisierte Datenbank, die über mehrere Computer oder Knoten verteilt ist, wie ein Peer-to-Peer-Netzwerk. In dieser Technologie verwaltet jeder Knoten das Ledger und wenn sich Daten ändern, wird das Ledger aktualisiert. Die Aktualisierung erfolgt unabhängig an jedem Knoten (101 Blockchains 2019). Die Blockchain ist eine Folge von Datensätzen – Blöcken – in einer Datenbank, die durch Hashes verknüpft sind. In einem Distributed Ledger erhält jeder Knoten eine identische Kopie der Blockchain. Jedes Mal, wenn jemand eine neue Transaktion hinzufügt – einen neuen Block –, werden alle Kopien des Ledgers aktualisiert. Eine zusätzliche Komponente der Blockchain-Technologie sind Smart Contracts, die für die Automatisierung des Supply-Chain-Managements von entscheidender Bedeutung sind. Smart Contracts sind schriftliche, sich selbst durchsetzende Vereinbarungen, die in den Computercode eingebettet und an die Blockchain gebunden sind. Der Code und die Vertragsbedingungen sind im Ledger öffentlich verfügbar. Der Code enthält eine Reihe von Regeln, nach denen die Parteien eines Smart Contracts eine Interaktion miteinander vereinbaren. Wenn ein im Contract beschriebenes Ereignis ausgelöst wird, z. B. ein Ablaufdatum oder das Erreichen des Zielpreises eines Vermögenswerts, wird der Code ausgeführt (Rosic 2016).
64
3 SCM – Supply-Chain-Management
Abb. 3.25 Peer-to-Peer-Netzwerk – Distributed Ledger
3.7.4 Blockchain und Supply-Chain-Automation Der Blockchain-Hype, der mit digitalen Währungen begann, löste in vielen Branchen eine Kettenreaktion aus, der Suche nach Lösungen, wie diese Technologie zu ihrem Vorteil eingesetzt werden kann. Drei Schlüsselaspekte jeder Blockchain – Rückverfolgbarkeit, Transparenz, Unveränderlichkeit – machen sie attraktiv als Voraussetzung für die Automatisierung der Supply Chain. Supply-Chain-Management wurde von Unternehmen bereits intern mit ERP- und SCM-Methoden und -Systemen digitalisiert. Material und Produkte können durch RFID, QR-Codes oder GPS von der Produktion bis zur Entsorgung und zum Recycling mit Informationsaustausch entlang der Supply Chain verfolgt werden. Trotz erheblicher Investitionen in digitale Infrastrukturen verfügen die meisten Unternehmen nach dem Vertrieb nur über begrenzte Informationen zu Produkten – wo sie sich befinden und was mit ih nen aufgrund analoger Lücken zwischen verschiedenen Systemen geschieht. EDI- und
3.7 Blockchain im Supply-Chain-Management
65
XML-Nachrichtenübermittlungssysteme werden verwendet, um die Integrität und Kontinuität über Unternehmens- und Systemgrenzen hinweg zu gewährleisten. Diese Punkt- zu-Punkt-Nachrichtenübermittlungssysteme haben das Problem, dass Daten nicht synchronisiert sind und falsche Informationen geben können, z. B. dass dasselbe Produkt an zwei Orten zur gleichen Zeit ist. Unternehmen verfügen über eine Vielzahl von Datenquellen, Schnittstellen und IT-Systemen mit Inkompatibilitäten zwischen Datenformaten und Schnittstellen. Daten aus Altsystemen müssen manuell importiert und exportiert werden und die Datenübertragung über Unternehmensgrenzen hinweg erfordert häufig individuelle Schnittstellen (Baumann und Supe 2018). Supply Chains haben sich von eindimensionalen Systemen zwischen Lieferanten, Herstellern und Kunden zu komplexen Ökosystemen mit einer großen Variantenvielfalt und kurzen Produktlebenszyklen entwickelt, die kontinuierliche Investitionen in die Technologie erfordern, und Unternehmen haben Probleme, der Entwicklung zu folgen. Die Verfolgung – Tracking – von Waren reicht nicht mehr aus, um Supply Chains zu verwalten. Die Rückverfolgbarkeit – Tracing – vom Verbraucher bis zur Gewinnung von Rohstoffen oder Lebensmitteln hat einen hohen Stellenwert erlangt. Soziale und ökologische Verantwortung entlang der Supply Chain ist zu einem Verkaufs- und Marketingelement in der Lebensmittelindustrie geworden. Kaffeeproduzenten und Einzelhändler werben mit Fair- Trade-Produkten, die die Landwirte in ihre Supply Chain einbeziehen. Und mit dem Modewort Carbon Footprint – CO2-Fussabdruck – im Zusammenhang mit den Klimadiskussionen haben sich die Prioritäten bei den Transportmitteln von Gütern von schnell und frisch zu keine Flugzeuge verschoben. Supply-Chain-Management ist zu einem integrierten Bestandteil globaler sozioökonomischer und sozioökologischer Systeme geworden, die soziale, ökologische und ökonomische Verantwortlichkeiten umfassen. Dies geht einher mit dem Wandel des Verständnisses, was der Zweck eines Unternehmens ist, von der uralten Notation, dass Unternehmen in erster Linie die Aufgabe haben, ihren Aktionären zu dienen und den Gewinn – den Shareholder Value – zu maximieren, zu einem auf Stakeholder ausgerichteten – Stakeholder-oriented – Modell. Der Influencial Body – eine Gruppe von Vorstandsvorsitzenden der wichtigsten US-amerikanischen Unternehmen des Business Roundtable – hat kürzlich formuliert, dass der Schwerpunkt von Unternehmenszielen auf Investitionen in Mitarbeiter, der Wertschöpfung für Kunden, dem ethischen Umgang mit Lieferanten und der Unterstützung externer Gemeinschaften liegen sollte (Business Roundtable 2019). Dieser Fokuswechsel wird nach wie vor aus wirtschaftlichen Gründen vorangetrieben, um die Aktionäre glücklich zu machen. Die Unternehmen haben jedoch erkannt, dass eine Investition in Stakeholder der einzige Weg ist, um langfristig erfolgreich zu sein (Holt 2019). Die Automatisierung des Supply-Chain-Managements als Teil globaler sozioökologischer Systeme erfordert neue Ansätze. Die Blockchain-Technologie scheint eine mögliche Lösung zu sein. Sie ermöglicht Tracking und Tracing, verfügt über Methoden zur ordnungsgemäßen Dateneingabe und -validierung sowie über Informationstransparenz und -konsistenz, garantiert jedoch keine sozial und ökologisch verantwortlichen Praktiken entlang der Supply Chain. Sie vernachlässigt Informationen über ethische Arbeitspraktiken,
66
3 SCM – Supply-Chain-Management
kann Menschenrechtsverletzungen, korrupte Praktiken, Umweltschäden sowie Gesundheits- und Sicherheitsfragen zulassen (Calvão and Gronwald 2019). Blockchains digitaler Währungen sind „permissionless“ – öffentliche – Distributed Ledger, die anonym und für alle Parteien offen sind. Sie sitzen in der Public Domain und verwenden ein Konsensüberprüfungsprotokoll, um Trust in jedem Block herzustellen. Diese Blockchains besitzen keine Governance. Supply Chain Blockchains sind „permissioned“ – private – Ledger, die Parteien sind bekannt und vertrauenswürdig. Sie erfordern Governance. Governance umfasst alle internationalen und nationalen Regeln, die zur Führung und Überwachung eines Unternehmens dienen.
3.7.5 Smart Contracts und Due Diligence Das Konzept von Smart Contracts wurde von Szabo (1996, 1997) formuliert. Er definierte dies als eine Reihe von Versprechen, die in digitaler Form spezifiziert wurden, einschließlich von Protokollen, innerhalb derer die Parteien untereinander Versprechen einhalten. Sie verbessern die Umsetzung von vier grundlegenden Zielen, die Szabo als Observability – Beobachtbarkeit –, Verifiability – Überprüfbarkeit –, Privity– Mitwisserschaft –, Enforceability – Durchsetzbarkeit bezeichnet hat. Aufgrund der Verteilung im Netzwerk ermöglichen Smart Contracts vertrauenswürdige Transaktionen zwischen beteiligten Parteien, ohne dass eine zentrale Behörde oder ein Rechtssystem erforderlich ist. Sie können Transaktionen nachvollziehbar, transparenter und irreversibel machen. Da Smart Contracts von Programmierern erstellt werden, sind menschliche Fehler unvermeidbar. Smart Contracts sind rechtlich noch nicht eindeutig geregelt (Clairfield 2019). Mlynar und Schaefer (2018) empfehlen für Smart Contracts die Notwendigkeit einer neuen Art von Due Diligence – die Bewertung von Risiken und ihre Minderung – für eine Analyse von vorgeschlagenen Transaktionen und ausgehandelten Bedingungen, eine Source-Code-Analyse sowie eine ordnungsgemäße Simulation und Prüfung. Während sich die Due Diligence für Smart Contracts auf das Softwarequalitätsmanagement konzentriert, muss die Due Diligence für Blockchains in Supply Chains die Integrität und Verantwortung der damit verbundenen Produktions- und Handelspraktiken gewährleisten. Calvão und Gronwald (2019) schlagen eine Due Diligence in Blockchains und Supply Chains vor, die sicherstellen soll, dass die in die Blockchain eingespeisten Produktionsinformationen einer anerkannten Zertifizierung wie der OECD Due Diligence Guidance (OECD 2013a) entsprechen. Da Rohstoffe wie Mineralien häufig aus Konflikt- und Risikogebieten stammen, empfiehlt die OECD Due Diligence einen fünfstufigen Rahmen für die Supply Chains von Mineralien (OECD 2013b): Schritt 1 – Starkes Unternehmensmanagementsystem • Verabschiedung einer Richtlinie für verantwortungsvolle Supply Chains • Kommunikation von Richtlinien an Lieferanten und Integration von Due Diligence in Verträge • Rückverfolgbarkeit über die Supply Chain hinweg sicherstellen
3.7 Blockchain im Supply-Chain-Management
67
Schritt 2 – Identifikation und Bewertung von Risiken in der Supply Chain • Ermittlung und Überprüfung der Rückverfolgbarkeit (z. B. Herkunftsort, Handelswege, Lieferanten) • Für Red-Flag-Standorte, Lieferanten oder Umstände Vor-Ort-Bewertung durchführen, um das Risiko des Beitrags zu Konflikten oder schwerwiegenden Missbräuchen zu bestimmen Schritt 3 – Risikomanagement • Identifizierte Risiken an die Geschäftsleitung melden und interne Systeme korrigieren • Trennung von Lieferanten, die mit den schwerwiegendsten Auswirkungen in Verbindung stehen • Risiken beseitigen, überwachen und Fortschritt verfolgen! Schritt 4 – Prüfung der Sorgfaltspflicht bei Raffinerien • Raffinerien sollten an Industrieprogrammen teilnehmen, damit ihre ordnungsgemäßen Due-Diligence-Praktiken anhand eines Prüfungsstandards geprüft werden, der den OECD-Leitlinien entspricht • Aufbereitung der gesamten Dokumentation für das Audit • Prüfern den Zugriff auf Unternehmensdokumentationen und -aufzeichnungen ermöglichen • Prüfern den Zugang zu einer Stichprobe von Lieferanten ermöglichen • Veröffentlichung eines zusammenfassenden Prüfungsberichts mit Prüfungs schluss folgerungen • Regelmäßige Überprüfung der Qualität dieser Programme • Kommunikation und Nutzung von Initiativen, um Programme zu stärken Schritt 5 – Öffentlicher Bericht über die Due Diligence • Regelmäßige Beschreibung aller Due-Diligence-Bemühungen (Schritte 1 bis 4), z. B. Risikobewertung und -minderung unter gebührender Berücksichtigung von Geschäftsgeheimnissen und anderen wettbewerbsrechtlichen oder Sicherheitsbedenken (z. B. sollten Lieferantenbeziehungen, Preisinformationen oder die Identität von Whistle blowern oder Quellen nicht offengelegt werden) • Bericht öffentlich zugänglich machen Wir können dies als allgemeine Grundlage verwenden und es in Smart Contracts, in Blockchains und ins Supply-Chain-Management integrieren. Mit der Einführung von Artificial-Intelligence-Methoden wie Machine Learning und Deep Learning (Kap. 6) können alle diese Schritte vollständig automatisiert werden und so sicherstellen, dass keine Akteure entlang der Blockchain mit bewaffneten Gruppen in Verbindung stehen oder zur
3 SCM – Supply-Chain-Management
68
Konfliktfinanzierung und zu Menschenrechtsverletzungen, Korruption oder Umweltschäden beitragen, sowie die Arbeitsbedingungen entlang der Supply Chain überprüfen (Calvão und Gronwald 2019) und somit eines der Prinzipien von Stakeholder-influenced- Unternehmen erfüllen – ethischen Umgang mit Lieferanten.
3.8
Übungen und Quiz
Übungen und Quiz für dieses Kapitel finden Sie unter https://www.kdibisglobal.com/de/ uebungen/ibis/kapitel3. Registrierte Teilnehmer einer aktiven Getränkegamingklasse haben automatischen Zugriff auf Übungen und Quiz. Dozierende können einzelne Übungen für eine Klasse aktivieren oder deaktivieren und den Zugang zum nächsten Kapitel von einem bestandenen Test abhängig machen. Teilnehmer, die nicht für eine aktive Gamingklasse registriert sind, müssen sich separat für kdibisglobal registrieren. Durch Aufrufen des obigen Links wird die Berechtigung automatisch überprüft und es werden die erforderlichen Maßnahmen eingeleitet.
Literatur 101 Blockchains (2019) Blockchain vs. Distributed Ledger. https://101blockchains.com/blockchain-vs-distributed-ledger-technology. Zugegriffen am 30.10.2019 Baumann K, Supe J (2018) Blockchain als Treiber im modernen Supply Chain Management 4.0. BearingPoint GmbH, Frankfurt Beer A (2014) Der Bullwhip-Effekt in einem komplexen Produktionsnetzwerk. Springer Gabler, Wiesbaden Bitcoin Wiki (2019) Proof of work. https://en.bitcoin.it/wiki/Proof_of_Work. Zugegriffen am 30.10.2019 Bradbury J (2018) Muda Mura Muri, Kaizen Institute Blog. https://www.kaizen.com/blog/ post/2018/05/09/muda-mura-muri.html. Zugegriffen am 20.11.2019 Business Roundtable (2019) Leadership in action. https://www.businessroundtable.org. Zugegriffen am 02.11.2019 Calvão F, Gronwald V (2019) Blockchain in the mining industry: implications for sustainable development in Africa, Policy Insights 74, SAIIA South African Institute of International Affairs. https://saiia.org.za/research/blockchain-in-the-mining-industry-implications-for-sustainable-development-in-africa/. Zugegriffen am 02.10.2019 Chen F et al (2000) The impact of exponential smoothing forecasts on the bullwhip effect. Nav Res Logist 47(4):269–286 Clairfield (2019) The potential of blockchain and smart contracts in M&A, Clairfield International. http://www.clairfield.com/wp-content/uploads/Blockchain-and-Smart-Contractsin-MA-2019.03.12.pdf. Zugegriffen am 03.10.2019 Crackstation.net (2019) Salted password hashing – doing it right. https://crackstation.net/hashing-security.htm. Zugegriffen am 29.10.2019 DecisionCraft (2010) Choosing the right forecasting technique, DecisionCraft Inc. http://www.decisioncraft.com/dmdirect/forecastingtechnique.htm. Zugegriffen am 29.10.2019
Literatur
69
Dejonckheere J et al (2003) Measuring and avoiding the bullwhip effect: a controlling theoretic approach. Eur J Oper Res 147(3):567–590 Dietl H (2012) Operations Management, Universität Zürich. http://www.business.uzh.ch/professorships/som/stu/Teaching/F2012/BA/BWL/5_Lagerhaltungsmanagement.pdf. Zugegriffen am 16.10.2014 Haber S, Stornetta S (1991) How to time-stamp a digital document. J Cryptol 3(2):99–111. Springer Holt A (2019) Shift from shareholders value to stakeholder-focused model for top US firms. IR Magazine. https://www.irmagazine.com/esg/shift-shareholder-value-stakeholder-focused-modeltop-us-firms. Zugegriffen am 02.11.2019 Lee H et al (1997) Information distortion in a supply chain: the bullwhip effect. Manag Sci 43:4. ABI/INFORM Global, S. 546 Lenk T (2009) Die Delphi-Method in der Regionalentwicklung, Arbeitspapier Nr. 41, Universität Leipzig, Wirtschaftswissenschaftliche Fakultät Metters R (1997) Quantifying the bullwhip effect in supply chains. J Oper Manag 15:89–100 Mlynar T, Schaefer I (2018) Blockchain smart contracts need a new kind of due diligence, Hogan Lovells. https://www.hlengage.com/blockchain-smart-contracts-need-a-new-kind-of-due-diligence. Zugegriffen am 03.11.2019 Nakamoto S (2008) Bitcoin: a peer-to-peer electronic cash system. https://www.bitcoin.org/bitcoin. pdf. Zugegriffen am 29.10.2019 OECD (2013a) OECD due diligence guidance for responsible supply chains of minerals from conflict-affected and high-risk areas, Organisation for Economic Co-operation and Development. https://www.oecd.org/corporate/mne/mining.htm. Zugegriffen am 03.11.2019 OECD (2013b) OECD due diligence guidance for minerals – 5-step framework for upstream and downstream supply chains, Organisation for Economic Co-operation and Development. http:// mneguidelines.oecd.org/5%20Step%20Framework_A3.pdf. Zugegriffen am 03.11.2019 Ohno T (1988) Toyota production system: beyond large-scale production. Portland: Productivity Press Rosic A (2016) Smart contracts: the blockchain technology that will replace lawyers. https://www. blockgeeks.com/guides/smart-contracts/. Zugegriffen am 01.11.2019 Sterman J (1989) Modelling managerial behaviour: misperceptions of feedback in dynamic decisions making experiment. Manag Sci 35(3):321–339 Szabo N (1996) Smart contracts: building blocks for digital markets. http://www.fon.hum.uva.nl/ rob/Courses/InformationInSpeech/CDROM/Literature/LOTwinterschool2006/szabo.best.vwh. net/smart_contracts_2.html. Zugegriffen am 02.11.2019 Szabo N (1997) Smart contracts: formalizing and securing relationship on public networks. First Monday, vol 2(9). https://journals.uic.edu/ojs/index.php/fm/article/view/548/469. Zugegriffen am 02.11.2019 Wang X, Disney M (2015) The bullwhip effect: progress, trends and directions. Eur J Oper Res 250(2016):691–701. https://www.elsevier.com/locate/ejor. Zugegriffen am 20.11.2019
4
CRM
Zusammenfassung
Customer-Relationship-Management wird als kundenorientiertes Konzept zur Umsetzung von Marketingstrategien eingeführt. Die vier Methoden eines CRM-Systems (strategisch, analytisch, operativ und kommunikativ) werden diskutiert und für die SCM-CRM-Integration vorbereitet.
4.1
Ausgangslage
Customer-Relationship-Management ist (wie ERP und SCM) ein unternehmerisches Konzept, das sich seit Mitte der 1990er-Jahre von einem taktischen Marketingtool zu einem strategischen Element in allen Marketingentscheidungen entwickelt hat (Kumar und Reinartz 2012). CRM ist als Front-End-System zum Kunden integrierter Bestandteil von Supply-Chain-Management-Systemen und beeinflusst mit Marketingaktionen direkt den Demand (Bedarf). Forecasting ist das Bindeglied zwischen CRM als Demand Generator und SCM als Methode für Demand Fulfillment. Damit wird Forecasting automatisch zu einer kausalen Methode. Anstelle der bisher verwendeten Zeitserienverfahren erzwingt CRM die Verwendung von Ursache-Wirkung-Methoden im weiteren Verlauf des Kurses. Der Wandel von einem zielgruppenorientierten zu einem kundenzentrierten Marketing manifestiert sich in der evolutionären Entwicklung von CRM. Dieser Wandel vollzieht sich parallel zur Evolution vom produktorientierten zum kundenorientierten unternehmerischen Denken und Handeln. Business Intelligence (BI) und Big Data Analytics (Big Data) sind die technologieinduzierten Methoden, die diese Entwicklung unterstützen. CRM, BI und Big Data sind zunehmend ineinander verwoben und die Grenzen sind
© Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature 2020 K.-D. Gronwald, Integrierte Business-Informationssysteme, https://doi.org/10.1007/978-3-662-59815-3_4
71
72
4 CRM
fließend, wie zum Beispiel im analytischen CRM. Nach Abschluss der firmeninternen Optimierungsthemen ERP und SCM wird diese kundenorientierte Evolution den weiteren Verlauf des Kurses bestimmen. Kumar und Reinartz (2012) identifizieren vier Generationen von CRM-Methoden im Zeitraum zwischen 1990 und 2008: • Funktionales CRM (erste Generation), welches die unabhängigen Methoden Sales Force Automation (SFA) und Customer Service und Support (CSS) integriert. SFA umfasst alle Aktivitäten im Innen- und Außendienst des Vertriebs. CSS befasst sich mit After-Sales-Aktivitäten wie Helpdesk, Callcenter, und Field-Service Unterstützung. • CRM – kundenorientiertes Front-End (zweite Generation) bündelte alle Aktivi täten mit Kunden zu einer einheitlichen Sicht, unabhängig von den Zielen des Kundenkontakts (Presales, Sales, Post-Sales). Dieser vor allem technologisch und tool orientierte Ansatz führte Mitte der 1990er-Jahre zu einer Desillusionierung in Bezug auf den Nutzen von CRM-Systemen. Kundenerwartungen überstiegen die Möglichkeiten dieser Systeme bei Weitem. Das führte zu einem Umdenken von CRM als IT-Tool zu CRM als unternehmerisches Konzept mit einem mehr strategischen Blickwinkel. • CRM – strategischer Ansatz (dritte Generation) ist der Paradigmenwechsel der CRM-Ziele von Kostenkontrolle zur Generierung von Umsatz und Wachstum. Dieser führte zur Integration von CRM als Front-End-System mit Back-End-Systemen wie ERP und SCM. • Agile und flexible CRM-Strategie (vierte Generation) nutzt konsequent die Möglichkeiten des Internetzeitalters wie Cloud-Computing, Social Media, webbasierende Services, Selfservices. Diese Möglichkeiten öffnen CRM als strategisches Instrument für kleine und mittlere Unternehmen ohne große Investitionen in Technologie und Tools.
4.2
CRM-Strategie
Customer-Relationship-Management ist die Pflege von Kundenbeziehungen mit den primären Zielen von Kundengewinnung, der Vergrößerung des Kundenstamms, von Kundenselektion, der Identifikation profitabler Kunden und Kundenbindung (Loyalty Management), dem Bemühen, bestehende Kunden zu halten (Schmid und Bach 2000). Das Ziel einer CRM-Strategie ist, möglichst umfassendes Wissen über Kunden aufzubauen, um dieses Wissen dann zu verwenden, um die Interaktion zwischen Unternehmen und Kunden zu optimieren, mit dem Ziel, den Customer Lifetime Value (CLV) für das Unternehmen zu maximieren. Mit der Zentrierung auf den ökonomischen Wert individueller Kunden muss es eine Übereinstimmung zwischen den Angeboten des Unternehmens und den Bedürfnissen, dem Verhalten und den Eigenarten eines Kunden geben. Die Kundenbeziehung ist ein interaktiver Dialog. Information und Waren werden ausgetauscht und dieser Austausch entwickelt sich auf der Basis des Vorhergehenden. Kundenzufriedenheit ist ein entscheidender Parameter. Damit wird CRM zu einem kontinuierlichen Prozess für eine wachsende Kundenzentrierung des Unternehmens (Kumar und Reinartz 2012).
4.4 Ziele und Vorgehensmodelle
4.3
73
CRM-Kundenbindung
Es gibt insbesondere in jüngster Zeit eine verstärkte Diskussion, ob Kundenbindung tatsächlich sinnvoll ist oder nicht. Die Studien und Meinungen gehen da sehr auseinander, wobei der Kostenfaktor dabei in den Vordergrund gestellt wird. Kundenbeziehungsmanagement hat eben nicht nur monetäre Motive, obwohl sich das Resultat in Profitabilität niederschlägt. Es scheint, dass Unternehmen hier andere Maßstäbe anlegen als Kunden. Für Unternehmen scheint der beste Kunde der profitabelste zu sein. Es ist unbestritten, dass es billiger ist, einen Kunden zu halten, als an neue zu verkaufen. Die Aufzählung der Gründe für eine Kundenbindung enthält deswegen auch keine Zahlen, sondern Trends. Das Chartered Institute of Marketing hat 2010 eine Blitzumfrage bezüglich der Kosten für eine Kundeneugewinnung gegenüber dem Aufwand, einen Kunden zu halten, durchgeführt. Die Angaben reichten von 4- bis 30-mal Mehraufwand für Kundeneugewinnung (The Chartered Institute of Marketing 2010). Für den Aufbau einer kundenzentrierten Marketingstrategie gibt es folgende Argumente: • Es ist erheblich teurer, an einen neuen Kunden zu verkaufen als an einen existierenden Kunden. • Ein typischer unzufriedener Kunde wird eine größere Zahl anderer Menschen beeinflussen. • Die Mehrzahl von sich beschwerenden Kunden wird bleiben, wenn ihr Problem gelöst wurde.
4.4
Ziele und Vorgehensmodelle
Bezüglich der Ziele und Vorgehensmodelle unterscheidet man heute vier prinzipielle Methoden: strategisches CRM, analytisches CRM, operatives CRM, kommunikatives CRM.
4.4.1 Strategisches CRM Das Ziel von strategischem CRM ist, möglichst umfassendes Wissen über Kunden aufzubauen, um dieses Wissen dann zu verwenden, um die Interaktion zwischen Unternehmen und Kunden zu optimieren, mit dem Ziel den Customer Livetime Value (CLV) für das Unternehmen zu maximieren (Kumar und Reinartz 2012).
4.4.2 Analytisches CRM Analytisches CRM nutzt Kundendaten, um profitable Beziehungen zwischen Kunden und Unternehmen zu bilden. Es nutzt traditionelle Business-Intelligence-(BI-)Methoden wie Data Warehouse, Data Mining und Online Analytical Processing Systeme (OLAP), um
74
4 CRM
Kundenzufriedenheit, Kundentreue (Share of Wallet) zu bestimmen und daraus aktive Maßnahmen zur Optimierung der entsprechenden Parameter abzuleiten. In diesem Kurs spielt insbesondere die Kundentreue (Loyalty) eine Rolle. Diese ist über den Share of Wallet direkt messbar. Er bedeutet, wie viel Prozent seines Bierkonsums ein Kunde zwischen den vier Marken teilt. Marketingmaßnahmen können daraus abgeleitet werden (operatives CRM).
4.4.3 Kommunikatives CRM Kommunikatives CRM umfasst das Management aller Kommunikationskanäle zwischen Kunde und Unternehmen (Telefonie, Internet, E-Mail, Direct Mailing etc.). Die verschiedenen Kommunikationskanäle werden synchronisiert, gesteuert und zielgerichtet eingesetzt, um eine bidirektionale Kommunikation zwischen Kunden und Unternehmen zu ermöglichen. Dieser Ansatz wird auch als Multichannel-Management bezeichnet (Grabner-Kräuter und Schwarz-Musch 2009, S. 184).
4.4.4 Operatives CRM Operatives CRM setzt die im strategischen CRM identifizierten und im analytischen CRM quantifizierten Maßnahmen in Form (automatisierter) Lösungen für Marketing, Sales und Services um. In diesem Kurs wird ausschließlich das Kampagnenmanagement als Grundlage für entsprechende Marketingmaßnahmen behandelt. Operatives CRM befasst sich mit den Interaktionen eines Unternehmens mit seinen Kunden. Das beinhaltet: • • • • • • •
Frontoffice, Backoffice, Basisfunktionen für Vertrieb, Marketing, Service, Schnittstellen zu anderen Systemen (z. B. zu ERP), zentrale Kundendatenbank, Termin-, Kontakt- und Beschwerdemanagement, Reporting.
Frontoffice beinhaltet Funktionalitäten, welche sämtliche Kommunikationsaktivitäten mit Kunden unterstützen, wie • Informationsaustausch über neue Produkte, • Salesforce-Unterstützung.
4.4 Ziele und Vorgehensmodelle
75
Backoffice Funktionen integrieren CRM und SCM. Sie umfassen • Rechnungsstellung, • Auftragsabwicklung, • Auslieferung. Salesforce-Management ist der Verkaufsteil des operativen CRM mit den Funktionen • • • • • •
Angebotsmanagement, Vertretermanagement, Verkaufsregionenmanagement, Opportunity-Management, Telesales-Management, Vertragsmanagement.
After-Sales dient der langfristigen Kundenbindung: • • • •
ist Auslöser für Support, Auslieferung und Rechnungsabwicklung, dient als Unterstützung für Maintenance und Reparaturprozesse, unterstützt das Beschwerdemanagement sowie das Management von Kennzahlen (KPI) z. B. für Kundenzufriedenheit und Service-Level-Management (SLA).
Marketing umfasst • • • •
Kundensegmentierung, Kampagnenmanagement, Lead-Management, Produktportfoliomanagement.
Kundensegmentierung ist der Prozess der Identifizierung und Klassifizierung von individuellen Kunden und Kundengruppen für gezielte Marketing- und Vertriebsaktivitäten. Dazu gehören • soziodemografische Daten, • Daten über das Kundenverhalten, • Daten über den Kundenwert,
76
4 CRM
• psychologische Daten, • geografische Daten. Aus CRM-Sicht dient die Kundensegmentierung der Fokussierung von Marketingmaßnahmen mit dem Ziel einer Optimierung des Return on Investment (ROI) von Verkaufsaktivitäten. Kampagnenmanagement hat zum Ziel, die Profitabilität von Marketingaktionen zu optimieren, Marketingkosten pro Kunde zu reduzieren und den Kundenwert zu erhöhen. Maßnahmen sind • • • • • •
Spezifizierung des Angebots an den Kunden, Festlegung der Kommunikationskanäle für das Produktangebot, Zeitfenster, in denen die Kampagnen stattfinden, Erfassung von potenziellen Kundenreaktionen, Festlegung, wie diese Reaktionen in Informationssystemen registriert werden, Folgeaktivitäten als Antwort auf Kundenreaktionen.
4.5
Loyalty-Management und Share of Wallet
In diesem Kurs spielt insbesondere die Kundentreue (Loyalty) eine Rolle. Diese ist über den Share of Wallet direkt messbar. Er bedeutet, wie viel Prozent eines Produkts ein Kunde zwischen den vier Marken teilt. Marketingmaßnahmen können daraus abgeleitet werden und führen in das operative CRM über. Dieses geht einher mit einem Paradigmenwechsel im Marketing vom Transaktionsmarketing zum Beziehungsmarketing, von Erhöhung des Marktanteils zum Share of Wallet (Trommsdorf 2011; Abb. 4.1). Share of Wallet ist der Anteil der Kaufkraft eines Kunden, der beim Unternehmen bleibt. Die Ziel- und Steuergröße ist der Customer Lifetime Value (Kundenwert), der sich über den Gesamtzeitraum einer Geschäftsbeziehung erstreckt (Trommsdorf 2011; Abb. 4.2).
4.5.1 Customer Lifetime Value CLTV Nach Wisner et al. 2008 wird der Customer Lifetime Value (CLTV) wie folgt berechnet (Tab. 4.1 und Tab. 4.2): T
CLTV = ∑ t =1
5
CLTVK1 = ∑
CLTVK 2 = ∑
t =1
(1 + r )
t −1
0, 22 ∗ 22.000 − 1
t =1
15
dktykt − Fkt
(1 + 0,08 )
t −1
0,15 ∗ 16.000 − 1
(1 + 0,08 )
t −1
= 20.866
= 22.177
4.5 Loyalty-Management und Share of Wallet
Abb. 4.1 Paradigmenwechsel im Marketing (Ahlert et al. 2000)
Abb. 4.2 Kundenlebenszyklus (Strauss 2000)
77
4 CRM
78 Tab. 4.1 CLTV-Parameter CLTV: k: t: dkt: Fkt: r: ykt:
Customer Lifetime Value (Kundenwert) Kunde Periode Deckungsbeitrag pro verkauften Produkt an Kunden k während der Periode t Fixkosten, die sich aus dem Verhältnis zum Kunden k während der Periode t ergeben Zinsen Anzahl Produkte, die an den Kunden k während der Periode t verkauft wurden
Tab. 4.2 CLTV-Kundenvergleich
Umsatz/Jahr y Deckungsbeitrag d Lebensdauer T K1: ¤22.000 20 % 5 Jahre K2: ¤16.000 15 % 15 Jahre
Tab. 4.3 NPV-Parameter a: i: n:
Durchschnittlicher jährlicher Deckungsbeitrag Jährliche Discountrate (8 %) Erwartete Kundenbeziehungslebensdauer in Jahren
Tab. 4.4 NPV-Kundenvergleich
Umsatz/Jahr y Deckungsbeitrag d Lebensdauer T K1: ¤22.000 20 % 5 Jahre K2: ¤16.000 15 % 15 Jahre
4.5.2 Customer Lifetime Value NPV Der Customer Lifetime Value lässt sich ebenso mittels des Net Present Value (NPV) ermitteln (Wisner et al. 2008; Tab. 4.3 und Tab. 4.4).
(1 + i )n − 1 NPV = a n i (1 + i )
(1 + 0,08 ) − 1 NPVK1 = ( 22.000 ∗ 0,2 ) 5 0, 08 ∗ (1 + 0,08 )
(1 + 0,08 ) − 1 NPVK 2 = (16.000 ∗ 0,15 ) 15 0, 08 ∗ (1 + 0,08 )
5
= 17.568
15
= 20.543
4.7 Einflussfaktoren von gescheiterten CRM-Projekten auf die …
4.6
79
Warum CRM-Projekte scheitern
Die Misserfolgsquote für IT-Projekte ist traditionell hoch und seit vielen Jahren nahezu konstant einschließlich der Gründe für ihr Scheitern. The Standish Group publiziert seit mehr als 20 Jahren ihr jährlich erscheinendes Chaos Manifesto, eine Statistik über Erfolg und Misserfolg von IT-Projekten (Johnson 2013). Durchschnittlich nur 34 % aller Softwareprojekte zwischen 2004 und 2012 wurden erfolgreich beendet („on time“, „on budget“, „on target“). 46 % mussten wegen Budget- bzw. Zeitüberschreitungen sowie Nichterreichen der Projektziele nachgebessert werden und 20 % aller Projekte scheiterten vollständig. Die Gründe für das Scheitern sind ebenfalls konstant gleich: . das Fehlen von Executive-Management-Support, 1 2. die unzureichende Einbeziehung von Endbenutzern, 3. mangelhafte Optimierung von Projektzielen, Zeit-, Aufwand- und Kostenschätzungen, Erwartungshaltung u. a. CRM-Projekte haben eine überdurchschnittlich hohe Misserfolgsquote von durchschnittlich 50 % (Krigsman 2009). Im Jahr 2013 waren es sogar 63 % (Prezant 2013). Die Hauptgründe für das Scheitern unterscheiden sich in ihrer Reihenfolge ebenfalls signifikant von denen für andere IT-Projekte (techtarget.com 2004): . Mangel an bereichs- und funktionsübergreifender Koordination, 1 2. keine CRM-Business-Strategie, 3. fehlende Prozessänderungen, 4. mangelnde Senior-Executive-Unterstützung. Im Zusammenspiel von CRM und SCM spielen Demand Generation (Bedarfsgenerierung – CRM) und Demand Fulfillment (Bedarfsbefriedigung – SCM) eine herausragende Rolle vor allem auch in den Prozesssimulationen in diesem Buch.
4.7
influssfaktoren von gescheiterten CRM-Projekten auf E die Unternehmensperformance
Im Folgenden eine Zusammenfassung typischer Einflussfaktoren (techtarget.com 2004). Finanzen: • Verlust von Marktanteilen und operationelle Verluste, • Kein Return on Investment (ROI), • Budgetüberschreitungen, • Hohe Folgekosten für den Betrieb.
4 CRM
80
Qualität des Kundenservice: • Kundenunzufriedenheit, Frustration und Konfusion, • Verminderter Servicelevel, • Geringere Time to the Market, • Negative Wahrnehmung des Brands. Sales-Effektivität: • Rückgang der Produktivität der Salesforce, • Wachsender Zynismus und Frustration bezüglich des neuen Systems. Einfluss auf die Unternehmenskultur: • Niedrige Moral innerhalb der IT und der betroffenen Unternehmensbereiche, • Wachsender kultureller Zynismus innerhalb des Unternehmens in Bezug auf die Geschäftsprozessänderungen (Resistance against Change), • Vertrauensverlust in die Fähigkeit des Unternehmens in seiner Führung, Prozessänderungen zu verwirklichen, • Neigung von Unternehmen zu einer übermäßig konservativen Haltung bezüglich Investitionen in strategische Initiativen. Das führt zu einer Dämpfung von Innovation, dem Versäumnis, eigene Vorteile zu stärken, und der Verhinderung notwendiger Erneuerung gealterter Prozesse und Infrastruktur.
4.8
Übungen und Quiz
Übungen und Quiz für dieses Kapitel finden Sie unter https://www.kdibisglobal.com/de/ uebungen/ibis/kapitel4. Registrierte Teilnehmer einer aktiven Getränkegamingklasse haben automatischen Zugriff auf Übungen und Quiz. Dozierende können einzelne Übungen für eine Klasse aktivieren oder deaktivieren und den Zugang zum nächsten Kapitel von einem bestandenen Test abhängig machen. Teilnehmer, die nicht für eine aktive Gamingklasse registriert sind, müssen sich separat für kdibisglobal registrieren. Durch Aufrufen des obigen Links wird die Berechtigung automatisch überprüft und es werden die erforderlichen Maßnahmen eingeleitet.
Literatur Ahlert D et al (2000) Markenmanagement im Handel. Gabler, Wiesbaden Grabner-Kräuter S, Schwarz-Musch A (2009) CRM Grundlagen und Erfolgsfaktoren. In: Hinterhuber H, Matzler K (Hrsg) Kundenorientierte Unternehmensführung, Kundenorientierung – Kundenzufriedenheit – Kundenbindung, 6. Aufl. Gabler, Wiesbaden, S 174–189
Literatur
81
Johnson J (2013) The CHAOS Manifesto, The Standish Group. http://www.versionone.com/assets/ img/files/CHAOSManifesto2013.pdf. Zugegriffen am 05.06.2014 Krigsman M (2009) CRM failure rates: 2001–2009, zdnet.com. http://www.zdnet.com/article/ crm-failure-rates-2001-2009. Zugegriffen am 20.02.2015 Kumar V, Reinartz W (2012) Customer relationship management concept, strategy, and tools. Springer, Berlin/Heidelberg Prezant J (2013) 63 % of CRM initiatives fail, Direct Marketing News, Haymarket Media, Inc. http://www.dmnews.com/63-of-crm-initiatives-fail/article/303470. Zugegriffen am 20.02.2015 Schmid E, Bach V (2000) Customer Relationship bei Banken, Bericht Nr. BE HSG/CC BKM/4. Universität St. Gallen, St. Gallen Strauss B (2000) Perspektivwechsel: Vom Produkt-Lebenszyklus zum Kundenbeziehungs- Lebenszyklus. Thexis 2:15–18 techtarget.com (2004) A review of CRM failures. http://media.techtarget.com/searchCRM/downloads/CRMUnpluggedch2.pdf. Zugegriffen am 20.02.2015 The Chartered Institute of Marketing (2010) Cost of customer acquisition vs customer retention. http://www.camfoundation.com/PDF/Cost-of-customer-acquisition-vs-customer-retention.pdf. Zugegriffen am 16.11.2014 Trommsdorf V (2011) VL Strategisches Marketing – Markteintritt und Kundenbindung. https:// www.marketing.tu-berlin.de/fileadmin/fg44/download_strat/ws1112/08_Markteintritt_und_ Kundenbindung.pdf. Zugegriffen am 15.03.2015 Wisner D et al (2008) Principles of supply chain management. South Western Publishing, Cincinnati
5
BI – Business Intelligence
Zusammenfassung
Business Intelligence wird formal als eigenständige Disziplin eingeführt mit den Verfahren, die diesen Bereich von Big Data Analytics abgrenzen: OLAP, OLTP, ETL und Data Mining.
5.1
Einleitung und Definitionen
Business Intelligence (BI) ist ein Oberbegriff für Anwendungen, Infrastruktur, Werkzeuge und Best Practices für den Zugang zu und die Analyse von Daten und Information für die (strategische) Entscheidungsfindung und Performanceverbesserung zur Erzielung von Marktvorteilen (Gartner 2013). Business-Intelligence-Systeme gehören zur Gruppe der Managementunterstützungssysteme (Management Support Systems). Als Management-Support-Systeme (MSS) bzw. Managementunterstützungssysteme werden alle IT-Anwendungssysteme bezeichnet, die das Management, d. h. die Fach- und Führungskräfte einer Unternehmung, bei seinen vielfältigen Aufgaben unterstützen. Dabei handelt es sich vor allem um Tätigkeiten, die der Planung, der Organisation, der Steuerung und der Kontrolle betrieblicher Leistungsprozesse dienen. Klassische Ausprägungen der Management-Support-Systeme sind MIS (Managementinformationssysteme), DSS (Decision- Support-Systeme), EIS (Executive-Information-Systeme; Gluchowski et al. 2008). Der Übergang zu modernen Lösungsansätzen des Business Intelligence (BI) ist fließend (Enzyklopädie der Wirtschaftsinformatik 2013). Die Qualität der Tätigkeit der Fach- und Führungskräfte einer Unternehmung wird maßgeblich bestimmt durch die angemessene Einschätzung gegenwärtiger und zukünftiger außer- und innerbetrieblicher Faktoren sowie durch die Fähigkeit, daraus frühzeitig erfolgsrelevante Entscheidungen für die eigene Unternehmung abzuleiten. Je mehr © Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature 2020 K.-D. Gronwald, Integrierte Business-Informationssysteme, https://doi.org/10.1007/978-3-662-59815-3_5
83
84
5 BI – Business Intelligence
Manager über die zur Verfügung stehenden Handlungsalternativen und über deren Auswirkungen bezüglich des zugrunde liegenden Zielsystems wissen, desto besser wird ihre Entscheidung ausfallen. Daten, Information, Wissen und Kommunikation spielen somit bei der Durchführung von Fach- und Führungsaufgaben eine wichtige Rolle (Gluchowski et al. 2008). Informationsmanagement ist die Gesamtheit aller Führungsaufgaben in einer Organisation bezogen auf deren computergestütztes bzw. computerunterstützbares Informations- und Kommunikationssystem (Gluchowski et al. 2008; Gabriel und Beier 2003). Business- Intelligence-Systeme haben sich evolutionär aus Decision-Support-Systemen entwickelt (Desai und Srivastava 2013). Definition: Business Intelligence (BI) bezeichnet einen Prozess, der aus fragmentierten, inhomogenen Unternehmens-, Markt- und Wettbewerbsdaten handlungsgerichtetes Wissen über eigene und fremde Positionen, Potenziale und Perspektiven transformiert (Grothe und Gentsch 2000). Diese zu ihrer Zeit zukunftsweisende Definition hat ihre Gültigkeit insbesondere im Zusammenhang mit Big Data Analytics unter Beweis gestellt, wenn man die Begriffe Realtime und Online hinzufügt. Gluchowski et al. (2008) haben den von Grothe und Gentsch (2000) implizit formulierten Prozess des Knowledge Discovery in einem phasenweisen und potenziell rekursiven Prozess wie folgt formuliert: 1. Auswahl Die Auswahl der zu examinierenden Datenquelle wird durch die Zielsetzung der Wissensentdeckung bestimmt. 2. Aufbereitung Der Datenbestand wird so modifiziert, dass er einer nachfolgenden Analyse zugänglich ist. 3. Analyse Bei der Analyse werden potenziell interessante Beziehungsmuster (Regelmäßigkeiten, Auffälligkeiten) aus dem Datenbestand destilliert und durch logische bzw. funktionale Abhängigkeiten beschrieben. Diese Phase wird als Data Mining bezeichnet. Definition: Data Mining ist ein interdisziplinärer Forschungsansatz, der seine Wurzeln in der Statistik, Mathematik und künstlichen Intelligenz findet (Gluchowski et al. 2008).
5.2
OLAP und OLTP
Der traditionelle Business-Intelligence-Ansatz verwendet für das Data Mining spezielle Datenbanksysteme (Business Warehouse), Datenaufbereitungsprozesse (ETL) und Datenabfragesysteme für die Analyse (OLAP; Abb. 5.1). OLTP OLTP (Online Transaction Processing) sind transaktionsorientierte Prozesse, welche die operativen Daten des Unternehmens in (standardisierten) Softwarelösungen bearbeiten und in normalisierten Datenbanken oder flachen Dateien speichern.
5.3 ETL-Prozess
85
Abb. 5.1 Business Intelligence OLTP-ETL-OLAP-Prozessfluss
ETL ETL (Extraktion Transformation Laden) ist der Prozess, der die Daten für das Business Warehouse (Data Warehouse) aufbereitet. Business Warehouse Dieses enthält die für Analytics, Reporting und Data Mining aufbereiteten Daten aus dem ETL-Prozess. Diese Daten sind multidimensional und denormalisiert. OLAP OLAP (Online Analytic Processing) greift auf multidimensionale oder relationale Daten aus dem Business Warehouse für Analyse und Data Mining zu. OLAP-Datenwürfel Dieser (OLAP Cube) ist eine Kernkomponente des OLAP-Systems. Der OLAP Cube aggregiert Fakten aus jeder Ebene einer Dimension. Dimensionen sind z. B. Produkte, Zeit, Regionen, Umsatz, Gewinn … OLAP Cubes können beliebig viele Dimensionen haben, nach denen das Business Warehouse ausgewertet werden kann. Insofern ist der Begriff Cube (Würfel) nicht ganz korrekt und irreführend.
5.3
ETL-Prozess
Der ETL-Prozess ist ein vierstufiges Verfahren, das die Daten für das Business Warehouse aufbereitet. Ursprünglich IT-zentriert, wird dieser Prozess heute vermehrt durch Data Scientists auf der Businessseite durchgeführt, da das Verfahren schon eine Vorinterpretation der Daten sein kann, bevor sie in den Analyseprozess gehen (Bächle und Kolb 2012):
86
5 BI – Business Intelligence
1. Bereinigung • Vereinheitlichung von Datenformaten. • Bereinigung von syntaktischen und semantischen Mängeln. 2. Harmonisierung • Synonyme und Homonyme sowie unterschiedliche Codierungen beseitigen. 3. Verdichtung • Summation auf verschiedenen Aggregationsstufen, die aus Performancegründen im Business Warehouse gespeichert werden. 4. Anreicherung • Berechnung und Speicherung wichtiger Kennzahlen. Mit der zunehmenden Verbreitung von In-Memory Computing wird die Trennung von transaktionsorientierten (OLTP) und analyseorientierten (OLAP) Abfragen sowie der aufwendige ETL-Prozess vermehrt infrage gestellt. Plattner (2013) schlägt die Kombination von OLAP und OLTP vor, welche den ETL-Prozess obsolet macht. Dieser Schritt führt direkt zur Aufgabe des Data Warehouse und zum Data Lake. In einem Data Lake werden die Rohdaten in ihren Originalformaten (strukturiert und unstrukturiert) gespeichert, bis sie benötigt werden. Big-Data-Tools und -Technologie wie In-Memory Computing und Analysewerkzeuge wie Hadoop und Map Reduce ermöglichen eine neue Vorgehensweise für den Zugriff und die Verarbeitung von Daten in Data Lakes, die in Business Warehouses nicht oder nur eingeschränkt möglich wären: • • • •
Identifikation der benötigten Datentypen, Menge der benötigten Daten, wann sie gebraucht werden und Auswahl des zu verwendenden Analytikverfahrens.
5.4
Data Mining
Data Mining ist ein langwieriger und aufwendiger Prozess, der erhebliche Statistikkenntnisse und gleichzeitig ein umfangreiches Businessverständnis erfordert. Mit dem Wandel zu einer Kundenorientierung und Big-Data-Realtime-Anwendungen bekommt Data Mining eine wachsende Bedeutung für die Mustererkennung des Kaufverhaltens und für die daraus abgeleiteten Sofortmaßnahmen. Data Mining, Modellbildung und Verifizierung sind die ersten Schritte in erfolgreichen Big-Data-Projekten. Dabei werden umfangreiche historische Daten nach bestimmten Mustern analysiert. Data Mining allein ohne Big-Data-Bezug, also traditionelle Business-Intelligence- Anwendungen, zeichnet sich dadurch aus, dass Kaufmustererkennung nach Kundengruppen und nicht nach individuellen Personen, wie bei Big Data, erfolgt. Der individuelle Kunde erscheint nicht, sondern es werden Zielgruppen identifiziert und dann mit entsprechenden Marketingaktionen adressiert. Das kann unerwartete Folgen haben, wie das folgende Beispiel zeigt.
Literatur
5.5
87
Case Studies
Case Studies für dieses Kapitel sind verfügbar unter https://www.kdibisglobal.com/de/ case_studies/ibis/kapitel5. Für den Zugriff auf die Case Studies dieses Kapitels ist keine Registrierung erforderlich.
5.6
Übungen und Quiz
Übungen und Quiz für dieses Kapitel finden Sie unter https://www.kdibisglobal.com/de/ uebungen/ibis/kapitel5. Registrierte Teilnehmer einer aktiven Getränkegamingklasse haben automatischen Zugriff auf Übungen und Quiz. Dozierende können einzelne Übungen für eine Klasse aktivieren oder deaktivieren und den Zugang zum nächsten Kapitel von einem bestandenen Test abhängig machen. Teilnehmer, die nicht für eine aktive Gamingklasse registriert sind, müssen sich separat für kdibisglobal registrieren. Durch Aufrufen des obigen Links wird die Berechtigung automatisch überprüft und es werden die erforderlichen Maßnahmen eingeleitet.
Literatur Bächle M, Kolb A (2012) Einführung in die Wirtschaftsinformatik. Oldenbourg Wissenschaftsverlag, München Desai S, Srivastava A (2013) ERP to E2RP a case study approach. PHI Learning Private Limited, Delhi Enzyklopädie der Wirtschaftsinformatik (2013) online-Lexikon, Oldenbourg. http://www.enzyklopaedie-der-wirtschaftsinformatik.de/wi-enzyklopaedie/lexikon/uebergreifendes/Kontext-und-Grundlagen/Informationssystem/Managementunterstutzungssystem. Zugegriffen am 16.11.2014 Gabriel R, Beier D (2003) Informationsmanagement in Organisationen. Kohlhammer, Stuttgart, S 27 Gartner (2013) Business Intelligence (BI), Gartner IT Glossary. http://www.gartner.com/it-glossary/ business-intelligence-bi. Zugegriffen am 16.11.2014 Grothe M, Gentsch P (2000) Business Intelligence – Aus Informationen Wettbewerbsvorteile gewinnen. Addison-Wesley, München Gluchowski P et al (2008) Management Support Systeme und Business Intelligence. Computergestützte Informationssysteme für Fach- und Führungskräfte, 2. Aufl. Springer, Berlin Plattner H (2013) A course in in-memory data management the inner mechanics of in-memory databases. Springer, Berlin/Heidelberg
6
Big Data Analytics
Zusammenfassung
Business Intelligence und Big Data Analytics werden voneinander getrennt und als unabhängige komplementäre Methoden eingeführt. Predictive Analytics, Sentiment Analysis und Social Media Analytics werden als Big-Data-Methoden für aktives Marktmanagement auf individueller Kundenbasis eingeführt und bereiten die letzte Spielrunde eines transparenten und proaktiven Markteinflusses in Echtzeit vor. Theoretische Grundlagen und Algorithmen für Social-Media-Text-Mining und Sentiment Analysis als Maß für die Performance von Marketingaktivitäten von Unternehmen und Produkten werden als Vorbereitung für das CRM-Big-Data-Integrationsspiel entwickelt.
6.1
Standortbestimmung
Big Data ist keine Technologie. Big Data verwendet Technologien, um auf die richtigen Fragen Antworten in Echtzeit zu finden und diese im Geschäftsalltag gewinnbringend umzusetzen. Die richtige Kombination von Big-Data-Methoden, Tools und Technologien wie Hadoop, In-Memory Computing, NoSQL-Datenbanken, Social Media und traditionellem Data Mining ermöglichen Unternehmen jeder Größe, Antworten auf ihre Fragen zu finden. Die Schwierigkeit besteht darin, die richtigen Fragen zu stellen. Big Data ist primär kein Datenmengenproblem, sondern ein Komplexitätsproblem. Dies betrifft sowohl die Fragestellungen als auch den Zugang zu den richtigen Daten. Big Data setzt das kundenorientierte Geschäftsmodell der invertierten Managementpyramide voraus (Abb. 6.1). Damit verbunden ist ein Umdenken von einem allein auf Intuition und Erfahrung basierenden Entscheidungsprozess zu einem datendominierten Prozess als Teil der Unternehmenskultur. Big Data erfordert Flexibilität und ein für Innovation offenes Unternehmen sowohl von den Produkten als auch von dem Geschäftsmodell her – und vor allem ein Customer-Relationship- Management, das kein Tool, sondern die Basis für ein aktives persönliches Kundenverhältnis © Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature 2020 K.-D. Gronwald, Integrierte Business-Informationssysteme, https://doi.org/10.1007/978-3-662-59815-3_6
89
90
6 Big Data Analytics
Abb. 6.1 Die invertierte Managementpyramide
Abb. 6.2 Moore’s Law. (In Anlehnung an BCA Research)
ist. Die Rolle der IT wechselt von der Bereitstellung und Aufarbeitung großer Datenmengen hin zur Sicherstellung des Zugangs zu Daten, Netzen und Dienstleistungen, der notwendigen Infrastruktur und Bereitstellung von Big Data Self-Services (Gronwald 2014). Big Data Analytics ist das Resultat von vier globalen Trends: Moore’s Law, Mobile Computing, Social Networking, Cloud-Computing (Minelli et al. 2013). Moore’s Law postuliert (seit 1965), dass die Anzahl der Transistoren auf einem Mikrochip sich alle 24 Monate verdoppelt. Intel schätzt, dass sich dieser Trend bis 2029 fortsetzen wird. Ergebnis: Computerleistung wird ständig billiger (INTEL 2014) (Abb. 6.2).
6.3 Paradigmenwechsel
6.2
91
ig Data im Spannungsfeld von Daten und Intuition B (Gronwald 2018)
Der „Faktor Mensch“ spielt seit dem Auftauchen des Begriffs: „Big Data“ im Gartner Hype Cycle im Jahr 2011 (Gartner 2011) eine maßgebliche Rolle. McAfee und Brynjolfsson (2012) bezeichnen Big Data als „die Managementrevolution“. Sie beschreiben Big Data als eine neue Kultur der Entscheidungsfindung und schätzen die Managementherausforderungen höher ein als die technischen Anforderungen, insbesondere bei den Senior- Executive- Teams. Dahinter steht das Ziel, datengetriebene Unternehmenskulturen zu schaffen, in denen Bauchgefühl und Intuition durch Entscheidungen ersetzt werden, die auf Daten und Fakten beruhen. Das Business Application Research Center (BARC) hat im Rahmen seines BI-&-Data-Management-Kongresses den BI-Trendmonitor 2019 veröffentlicht (Hensel und Litzel 2018). Das Etablieren datengetriebener Firmenkulturen gehört zu den fünf wichtigsten aktuellen Trends. In nordamerikanischen Konzernen liegt die Einführung einer datengetriebenen Unternehmenskultur sogar auf dem ersten Rang. Ausgerechnet Amazon, eines derjenigen Unternehmen, die Big Data Analytics und die dazugehörigen Technologien dominieren, setzt weiterhin auf Bauchgefühl und Intuition u. a. bei der Auswahl und Einstellung künftiger Mitarbeiter. Im November 2018 fiel die Entscheidung, dass Amazon sein zweites Headquarter in Nord Virginia eröffnen und in der Region bis zu 50.000 neue Arbeitsplätze schaffen wird. Die Auswahl der künftigen Mitarbeiter erfolgt allerdings nicht durch Computersysteme, Big Data oder Artificial Intelligence, sondern durch persönliche Interviews speziell ausgebildeter Mitarbeiter, „bar raisers“ auf allen Ebenen des Unternehmens (Anders 2018). Intuition, Bauchgefühl und Erfahrung dominieren bei der Entscheidung, ob ein Kandidat in Amazons Firmenkultur passt. Gartner ist ein starker Promoter einer datengetriebenen Firmenkultur (Hippold 2018). Data Literacy ist eine grundlegende Kompetenz, um in der digitalen Welt in Wissenschaft, Arbeitswelt und Gesellschaft bestehen zu können (Stifterverband 2018). Gartner prognostiziert, dass bis zum Jahr 2020 80 % aller Organisationen Kompetenzbildungsprogramme zur Förderung von Data Literacy initiieren werden (Hippold 2018). Der deutsche Stifterverband und die Nixdorf Stiftung haben ein Förderprogramm für deutsche Hochschulen gestartet, um den Erwerb von Data Literacy fachübergreifend zu etablieren (Stifterverband 2018). Logan und Rozwell (2018) haben ebenfalls bei Gartner zeitgleich einen Beitrag unter dem Titel „Data-driven decision making: the role of emotional intelligence“ publiziert, in dem sie im Gegenzug Datenspezialisten und Analytikern die Rolle und Macht von Emotionen bei datengetriebenen Entscheidungsprozessen verdeutlichen, um diese entsprechend zu berücksichtigen und einzubeziehen. Der synergetische Prozess der Wechselwirkung zwischen Mensch und Maschine ist eines der herausragenden Merkmale von Big-Data-Modellen.
6.3
Paradigmenwechsel
Traditionelles Data Mining (BI) Traditionelles Data Mining segmentiert Kunden in Gruppen für zielgruppenorientiertes Marketing. Es ist die Suche nach Parametern, um Kundengruppen optimal zu klassifizieren, und entwickelt Modelle, um Kunden diesen
92
6 Big Data Analytics
Zielgruppen zuzuordnen. Der Kunde existiert in diesen Modellen nicht als Individuum, nicht als Person. Big-Data-Ansatz Der Big-Data-Ansatz verwendet Data-Mining-Resultate zur Realtime- Analyse des Kundenverhaltens auf individueller Basis und zieht daraus Rückschlüsse auf ein Gruppenverhalten. Es ist der Shift vom produktorientierten zum kundenorientierten Cross-Selling und Up-Selling mit Fokus auf individuelle Kunden als Individuum, als Person.
6.4
Die sieben+ Vs
Big Data wird durch eine wachsende Anzahl von Dimensionen charakterisiert, von denen nur einige exklusiv für Big Data gelten. Es begann mit drei Dimensionen bereits im Jahr 2001: Volume, Velocity, Variety zu einer Zeit, in der Big Data noch nicht existierte und technologisch gar nicht möglich war. Diese Dimensionen konzentrierten sich vor allem auf technologische Aspekte des Datenmanagements in zentralen Data Warehouses (Laney 2001). Von größerer Bedeutung für Big Data sind jedoch die semantischen Dimensionen mit Veracity als eine der ersten, die Vertrauenswürdigkeit von Daten berücksichtigt, z. B. wie man Sarkasmus bei der Sentiment Analysis erkennt. Validity, Volatility und Value (Normandeau 2013) vervollständigen die wichtigsten sieben. Einige Autoren haben Variability und Visualization ergänzt (McNulty 2014), die hier allerdings nicht berücksichtigt werden. Zum einen wurden hinsichtlich Variability zumindest einige Aspekte bereits von einer oder mehreren der anderen semantischen Dimensionen abgedeckt, die somit bis zu einem gewissen Grad redundant sind. In Bezug auf Visualization müsste man andere Aspekte, wie z. B. Machine Learning, hinzufügen, die eher der Analytik zuzuordnen sind und weniger als Dimensionen, um zu charakterisieren, was Big Data ist und wie es sich von traditioneller Business Intelligence unterscheidet. Volume (Datenmenge) Ein einziges Jettriebwerk generiert 30 Terabyte an Daten in 30 Minuten. Mit mehr als 25.000 Flügen pro Tag beträgt das Datenvolumen einer einzigen Datenquelle einige Petabyte (Raj 2013). Es ist hierbei nicht das Datenvolumen, das Big Data charakterisiert, sondern dass diese Daten „streaming“, in Realtime anfallen und interpretiert werden müssen. Die Verarbeitung großer Datenmengen ist nicht neu. Es gab sie schon, bevor Big Data als Begriff und Disziplin auftauchte (Laney 2001). Velocity (Speed) Die Geschwindigkeit, mit der Daten bei einer Organisation ankommen und wie schnell sie verarbeitet werden (Raj 2013). Variety (Vielfalt und Komplexität der Datenquellen) Das Ziel ist der Versuch, sämtliche Datenquellen, strukturiert, unstrukturiert, semistrukturiert Realtime in Entscheidungsprozesse einzubeziehen (Raj 2013).
6.5 Das Problem der unstrukturierten Daten
93
Dieses sind die ersten drei Dimensionen, die für die Charakterisierung von Big Data verwendet werden. Bis heute ist ihre Zahl auf 10 (je nach Autor) gewachsen und es ist nicht ausgeschlossen, dass noch weitere im Laufe der Zeit hinzukommen. Von größerer Bedeutung für Big Data sind die semantischen Dimensionen: Veracity (Datenunsicherheit) Unsicherheit über die Datenverfügbarkeit, Schwankungen von Streaming Data, die richtigen Daten in der richtigen Menge zur richtigen Zeit (Bowden 2014). Die Glaubwürdigkeit von Daten. Zum Beispiel das Erkennen von Sarkasmus in Text Mining und Sentiment Analysis. Validity Sie ist mit Veracity verbunden, hat aber den Fokus auf die Genauigkeit für den beabsichtigten Gebrauch, indem sie einen kontextspezifischen Aspekt und die Sicht auf die Daten hinzufügt (Normandeau 2013). Volatility Big Data Volatility bezieht sich darauf, wie lange Daten gültig sind und wie lange sie gespeichert werden sollten, wenn überhaupt. In einer Welt von Realtime-Datenverarbeitung müssen Organisationen bestimmen, an welchem Punkt die Daten für eine aktuelle Analyse nicht mehr relevant sind (Normandeau 2013). Value (ökonomischer Nutzen) Wer zieht direkten Nutzen aus der gewonnenen Information? Welche Businessentscheidungen müssen getroffen werden? Wann wird die Information benötigt, um bessere Entscheidungen zu treffen (Raj 2013)?
6.5
Das Problem der unstrukturierten Daten
Big Data lässt sich ebenfalls über das V Variety definieren. Big Data ist die Summe strukturierter und unstrukturierter Daten aus dynamischen unterschiedlichen Quellen und Medien, die in Realtime verarbeitet werden. An dieser Stelle ist das Datenvolumen von Bedeutung. 90 % aller Daten seit Anbeginn der Zeit wurden zwischen 2012 und 2014 generiert. Die meisten dieser Daten stammen aus unstrukturierten Quellen. Diese konnten bereits seit ca. 2004 nicht mehr konventionell verarbeitet werden, da sie nicht mehr zwischengespeichert werden konnten. Google entwickelt mit Map Reduce ein kostengünstiges Verfahren zur Parallelverarbeitung großer Datenmengen unter Verwendung von Clustern kommerzieller Computer. Hadoop ist eine Open- Source-Schnittstelle zu Map Reduce. Hadoop ist populär geworden, weil es mit unstrukturierten bzw. semistrukturierten oder quasistrukturierten Daten umgehen kann.
94
6 Big Data Analytics
In der Realität haben alle Daten eine oder mehrere (verborgene) Strukturen. Daten werden als unstrukturiert definiert, wenn sie in einer derart komplexen Weise formatiert sind, dass sie nicht leicht in eine analysefähige Form gebracht werden können (Franks 2014). Um für die Verarbeitung dieser Daten die optimalen Verfahren und die entsprechenden Tools zu identifizieren, sind sie nach dem Grad ihrer Strukturiertheit in mittlerweile vier Klassen unterteilt (EMC 2015). Strukturiert (Structured) Daten enthalten einen definierten Datentyp, ein wohldefiniertes Format, und eine Daten struktur. Beispiel: Transaktionsdaten und OLAP. Semistrukturiert (Semi-structured) Textdateien mit einem identifizierbaren Muster, einer Struktur, die sich analysieren lässt. Beispiel XML-Dateien, die selbsterklärend sind und durch ein XML-Schema beschrieben werden. Quasistrukturiert (Quasi-structured) Textdateien mit inkonsistenten, variierenden Datenformaten, die mit Aufwand und den entsprechenden Tools formatiert werden können. Beispiel: Web-Clickstream-Daten, die Inkonsistenzen bei Werten und Formaten haben können. Unstrukturiert (Unstructured) Daten haben keine sichtbare oder leicht identifizierbare Struktur und sind normalerweise in unterschiedlichen Datenformaten gespeichert. Beispiel: Textdokumente, PDFs, Bilder und Videos.
6.6
Analytics Evolution
Descriptive Analytics Descriptive Analytics ist die einfachste Form der Analytics. Sie ist vergangenheitsbezogen. Descriptive Analytics dominiert noch immer die gesamte Business Analytics. Sie beantwortet Fragen darüber, was und warum es passiert ist, und untersucht historische Daten durch Data Mining auf Erfolgs- oder Misserfolgsfaktoren. Die meisten Managementreports für Sales, Marketing, Betrieb und Finanzen verwenden diese Art der Post- Mortem-Analyse (Bertolucci 2013). Predictive Analytics Predictive Analytics ist bereits zukunftsorientiert. Hier werden historische Daten mit Regeln, Algorithmen und manchmal externen Daten kombiniert, um Vorhersagen z. B. zu Marktentwicklungen zu treffen. Sie verwendet umfassende statistische Methoden, Modelle, Data Mining und Machine Learning, um aktuelle und historische Daten zu analysieren und Prognosen für die Zukunft abzuleiten (Bertolucci 2013).
6.7 Analytics Lifecycle – Big-Data-Analytics-Prozessmodelle
95
Prescriptive Analytics Prescriptive Analytics beschreibt nicht nur, was und wann ein Ereignis auftritt, sondern auch warum. Prescriptive Analytics macht Vorschläge für Entscheidungsoptionen, um die Vorteile der Zukunft zu nutzen oder Risiken zu minimieren. Sie verwendet hybride Daten, Kombinationen von strukturierten (Zahlen, Kategorien …) und unstrukturierten Daten (Videos, Bilder, Ton, Text …) und Geschäftsregeln, um datengesteuerte Entscheidungen zu treffen, ohne andere Prioritäten zu gefährden. Prescriptive Analytics kann dynamisch und kontinuierlich Daten in Echtzeit analysieren und damit Prognosen kontinuierlich aktualisieren (Bertolucci 2013). Sentiment Analysis Sentiment Analysis befasst sich mit der Analyse von Emotionen, Überzeugungen, Meinungen, Urteilen und Einstellungen gegenüber Organisationen, Produkten, Dienstleistungen, anderen Menschen, Themen, Veranstaltungen, Fragen …, die über soziale Medien und andere Medien online kommuniziert werden. Diese Mitteilungen lassen sich in drei grundlegende Kategorien einteilen: positiv, neutral oder negativ. Es gibt eine Reihe anderer Begriffe mit leicht unterschiedlichen Zielen für diese Art von Analysen: Sentiment Analysis, Opinion Mining, Opinion Extraction, Sentiment Mining, Subjectivity Analysis, Affect Analysis, Emotion Analysis, Review Mining. Je nach Autor wird Sentiment Analysis zwischen Descriptive und Prescriptive Analytics angesiedelt (Bertolucci 2013; Sharef 2014). Text Mining Text Mining ist in erster Linie der Prozess, unstrukturierten Text in einer Weise aufzubereiten, dass er mit anderen analytischen Methoden weiterverarbeitet werden kann, um Informationen daraus zu extrahieren (Hardoon und Shmueli 2013). Es gibt zwei Hauptansätze für Text Mining, den linguistischen Ansatz, der versucht, Struktur und Bedeutung durch grammatikalische Regeln zu bestimmen, und den mathematischen Ansatz, der numerische Methoden verwendet, um so viele Informationen wie möglich aus Texten zu extrahieren. Der mathematische Ansatz erfordert mehrere Stufen, um Textdaten in eine numerische Form umzuwandeln, die als mathematische, analytische Methoden verstanden werden. Typische Anwendungen für Text Mining sind Suchmaschinen, E-Mail-Spamfilter, Betrugserkennung, Kundenbeziehungsmanagement, Social-Media-Analyse, Marketing studien, Web-Content-Analyse …
6.7
Analytics Lifecycle – Big-Data-Analytics-Prozessmodelle
Big Data Analytics verwendet zum großen Teil traditionelle Methoden der Analytik. Das trifft auch auf Big-Data-Analytics-Prozessmodelle zu. Franks (2014) schlägt zwar ein eigenes, neues vor (Big Data Discovery), betont aber gleichzeitig, dass es sich vor allem um eine angepasste Beschreibung und somit um modifizierte Inhalte jeder Phase handelt, das Phasenmodell mit den zu erreichenden Zielen jedoch weitgehend gleich bleibt. Nicht zu verwechseln mit dem gleichnamigen Oracle-Tool Big Data Discovery (Henschen 2014),
6 Big Data Analytics
96
Tab. 6.1 Big-Data-Analytics-Prozessmodelle Gegenüberstellung. (Quelle: Franks 2014) CRISP-DM Business Understanding
Big Data Discovery Analytics Idea
Data Understanding Data Preparation Modeling
Data Loading and Integration
Evaluation Deployment
SQL and Non-SQL Analysis Evaluation of Results Operationalizing
SAS SEMMA Businessproblem (Assumed) Sample and Explore Modify Model Assess Deployment (Follows)
Abb. 6.3 Generischer Analytics-Prozessfluss. (In Anlehnung an Franks 2014 und EMC 2015)
das als Business Self-Service Tool und Visualisierungsinterface zu Hadoop dient, ähnlich wie z. B. Tableau (http://www.tableausoftware.com). Zur Abgrenzung wird daher im Folgenden der Begriff Big-Data-Prozessmodell verwendet. Es gibt zwei dominierende Verfahren: CRISP-DM (Cross Industry Standard Process for Data Mining) und SAS SEMMA (Sample, Explore, Modify, Model, Assess). SEMMA (www.sas.com/offices/europe/uk/ technologies/analytics/datamining/miner/semma.html) und CRISP-DM unterscheiden sich im Wesentlichen dadurch, dass SEMMA keine Business-Understanding-Phase als Teil des Prozessmodells hat, sondern davon ausgeht, dass das Businessproblem bei Projektbeginn bekannt und gelöst und beschrieben ist (Tab. 6.1; Abb. 6.3).
6.8
Text Mining
Text Mining ist primär der Prozess, unstrukturierten Text so aufzubereiten, dass er mit anderen analytischen Methoden weiterbehandelt werden kann, um daraus Information zu gewinnen. Text Analytics umfasst die Prozesse:
6.8 Text Mining
97
Content Categorization Einteilung von Textdokument in Kategorien, Text Mining Erkennen von Mustern und Strukturen, um daraus Vorhersagen zu machen oder das Verhalten zu verstehen, Sentiment Analysis Bewertung von Textinhalten als positiv oder negativ (Polarisierung).
6.8.1 Text Mining – Kategorien Text Mining lässt sich in sieben Kategorien unterteilen, die zwar separat als Prozesse identifizierbar, aber miteinander vernetzt sind (Miner 2012). Search and Information Retrieval Speicherung und Retrieval von Textdokumenten (z. B. Suchmaschinen, Keywordsuche); Document Clustering Gruppierung und Kategorisierung von Begriffen, Abschnitten, Paragrafen und Dokumenten mithilfe von Data-Mining-Clustering-Methoden; Document Classification Gruppierung und Klassifizierung von Abschnitten, Textpassagen, Paragrafen und Dokumenten mithilfe von Data-Mining-Klassifizierungsmethoden; Web Mining Daten und Text Mining im Web; Information Extraction Identifikation und Extraktion relevanter Fakten und Beziehungen aus unstrukturiertem Text, was die Transformation unstrukturierter und semistrukturierter Texte in strukturierte Daten beinhaltet; Natural Language Processing Mensch-Maschine-Interaktion, welche es Computern erlaubt, Bedeutung aus natürlicher Sprache zu ermitteln und daraus Handlungen abzuleiten (Computational Linguistics); Concept Extraction Gruppierung von Worten und Sätzen in semantisch ähnliche Gruppen.
98
6 Big Data Analytics
6.8.2 Text Mining – linguistischer und mathematischer Ansatz Es gibt zwei prinzipielle Ansätze für Text Mining, den linguistischen Ansatz, der versucht Struktur und Bedeutung durch grammatikalische Regeln zu ermitteln, und den mathematischen Ansatz, der numerische Methoden verwendet, um möglichst viel Information aus Texten zu extrahieren. Der mathematische Ansatz erfordert mehrere Stufen, um Textdaten in eine numerische Form zu transformieren, die von mathematischen, analytischen Methoden verstanden wird. Sentiment Analysis wird als linguistischer Ansatz verstanden (Duffy 2008).
6.8.3 Text Mining – numerische Transformation nach Duffy (2008) Es wird angenommen, dass ein Corpus für Text Mining definiert und vorhanden ist. Ein Corpus ist eine Gruppe von Textdokumenten mit mindestens einer gemeinsamen Eigenschaft (gehören zu einem gemeinsamen Forschungsbereich, sind in derselben Zeitschrift erschienen …). Bevor der Corpus in ein mathematisches Data-Mining-Modell eingelesen werden kann, muss dieser entsprechend aufbereitet werden. Dazu braucht es folgende Schritte: Standardization Alle Dokumente werden in dasselbe Format konvertiert. Tokenization Der Zeichenfluss in jedem Dokument wird in Worte (Tokens) heruntergebrochen. Lemmatization (Stemming) Alle verschiedenen Formen eines Wortes werden vereinheitlicht und in ihre Grundform gebracht (z. B. Transformation aller Pluralformen in ihre Singularform). Dictionary Reduction (Stop Word Removal) Stop Words sind Worte, die sehr selten eine Vorhersagefähigkeit beinhalten wie Artikel und Pronomen. Vector Generation Dokumente werden als Vektoren dargestellt, wobei jede Wortwurzel eine Zeile darstellt. Jedes Dokument ist eine Spalte. Das ergibt eine Matrix, die als Vector Space Model of the Corpus (Vektorraummodel des Corpus) auch für semantische Analyse verwendet wird. Vielfach wird auch die Häufigkeit eines Wortes anstelle des Wortes selbst verwendet (Frequency Scoring). Diese kann normalisiert werden, da die relative Häufigkeit eines Wortes im gesamten Corpus wichtiger ist als die absolute Häufigkeit in einem Text.
6.8 Text Mining
99
6.8.4 Text Mining – numerische Transformation nach Lu (2013) Lu vermeidet den Standardisierungsschritt und fügt stattdessen einen Filterschritt ein, bei dem spezielle Zeichen und die Interpunktion entfernt werden. Dieses ist von größerer Bedeutung für Webseiten. Zusätzlich führt er Pruning ein, welches Worte mit einer sehr geringen Häufigkeit entfernt. Lu nennt das generierte Vektorraummodell Bag of Words oder Dictionary Model. Das wird von Suchmaschinen verwendet, welche die Ähnlichkeit zwischen den Termen eines Dokuments und den Worten eines Querys vergleichen. Es gibt eine Reihe weiterer Autoren, welche dieses Modell modifizieren und ihren speziellen Bedürfnissen anpassen.
6.8.5 Text Mining – Vektorraummodell Das Vektorraummodell (Vector Space Model) geht zurück auf Gerard Salton, der dieses beginnend in den 1960er-Jahren im Rahmen des SMART-Systems entwickelt hat. SMART steht für System for the Mechanical Analysis and Retrieval of Text (Salton 1968). In einem Vektorraummodell repräsentiert ein Vektor einen bestimmten Term (Konzept, Keyword, Begriff), der zu einem bestimmten Dokument gehört. Ein Gewichtungswert, der einem Term zugeordnet wird, repräsentiert die Wichtigkeit des Terms in Bezug auf die Semantik des Dokuments. Beispiel: Analyse von Dokumenten, die sich mit der Biermarktentwicklung befassen. In der Datenbank (Corpus) stehen diese als indizierte Begriffe (Terme) Bier, Markt, Entwicklung. Ein Query q mit den drei Termen kann als Vektor in den drei korrespondierenden Dimensionen dargestellt werden. Dasselbe gilt für Dokumente d, die auf das Vorkommen dieser Terme hin untersucht werden sollen. Die Terme sind sowohl im Query q als auch für die Dokumente d nach bestimmten Kriterien gewichtet (darauf wird später eingegangen). Der Grad der Übereinstimmung zwischen dem Query q und dem Dokument d ergibt sich aus dem Abstand zwischen den Dokumenten im euklidischen Raum, das heißt aus dem q Winkel zwischen beiden Vektoren und d . Dieser wird als Skalarprodukt zwischen q und d berechnet (Abb. 6.4). q⋅d cos ∝= q ⋅ d q ist die Norm desVektors q, d ist die Norm desVektors d Die Norm des Vektors q wird berechnet als q =
n
∑q i =1
2 i
6 Big Data Analytics
100 Abb. 6.4 Text Mining – Vektorraummodell
Die Norm des Vektors d wird berechnet als
d =
n
∑d
2 i
i =1
0, 8 1, 0 mit q = 1, 0 und d = 0, 8 wird 0, 6 0, 8 2, 08 2, 08 0, 8 ∗ 1, 0 + 1, 0 ∗ 0, 8 + 0, 6 ∗ 0, 8 = = = 0, 97 cos α = 2 2 2 2 2 2 2,14 2 2 , 28 ∗ 0 , 8 + 1 , 0 + 0 , 6 ∗ 1 , 0 + 0 , 8 + 0 , 8 Bei einem Winkel von 0 Grad wird der Cosinus = 1. Das ergibt die größte Übereinstimmung zwischen dem Query und dem Dokument. Bei einem Winkel von 90 Grad wird der Cosinus = 0 und es gibt keine Übereinstimmung zwischen Dokument und Query. Auf die gleiche Weise lassen sich auch Dokumente untereinander auf Ähnlichkeit vergleichen. Für i Dokumente Di, einen bestimmten Query Qj und t Terme Tk wird cos ( Di ,Q j ) =
∑ (T t
ik
k =1
⋅ Q jk )
∑ (T ) ⋅ ∑ (Q ) t
k =1
2
ik
t
k =1
jk
2
Es gibt eine Reihe unterschiedlicher Verfahren und Varianten für die Gewichtung von Termen. Das am meisten verbreitete ist die tf-idf-Gewichtung.
6.8 Text Mining
101
Der tf-Faktor (Term Frequency Factor) beschreibt, wie häufig der Term Tk in einem Dokument Di vorkommt. Es wird angenommen, dass die Häufigkeit des Auftretens eines Terms in einem Dokument ein Maß für die Wichtigkeit des Dokuments ist. Der idf-Faktor (Inversed Document Frequency) ist ein Maß dafür, in wie vielen Dokumenten der Term Tk auftaucht. Damit wird die Gewichtung wi, k = tfi, k ⋅ idfk Die Datenbank (Corpus) enthält als Ergebnis der numerischen Transformation die Anzahl d Dokumente beschrieben durch die Terme t. Diese wird dargestellt als T × D Matrix A
Die Termvektoren Tk sind die Spalten, die Dokumentvektoren Di sind die Zeilen der Matrix. Für sechs Dokumente und drei Terme wird die Matrix T11 T21 T A = 31 T41 T 51 T61
T12 T22 T32 T42 T52 T62
T13 T23 T33 T43 T53 T63
Beispiel für Biermarkentwicklung Terme:
T1 → Bier
T2 → Markt
T3 → Entwicklung Dokumente:
D1 → α = 0,9848 → die Entwicklung des Biermarktes im kommenden Jahr D2 → α = 0,7071 → der Markt stagniert durch höhere Bierpreise D3 → α = 0,4694 → die Entwicklung des Marktes ist rückläufig D4 → α = 0,9659 → gute Marktprognosen für die Entwicklung des Bierkonsums D5 → α = 0,3420 → alles, was Sie über Bier wissen wollen D6 → α = 0,5735 → Dosenbier hat wenig Chancen im Markt Das ergibt folgende Matrix ohne Gewichtung:
102
6 Big Data Analytics
1 1 0 A= 1 1 1
1 1 1 1 0 1
1 0 1 1 0 0
Mit Gewichtung:
0, 9848 0, 7071 0 A= 0, 9659 0, 3420 0, 5735
0, 9848 0, 9848 0, 7071 0 0, 4694 0, 4694 0, 9659 0, 9659 0 0 0, 5735 0
6.8.6 Levenshtein-Distanz Während das Vektorraummodell den Grad der Übereinstimmung zwischen einer Abfrage q und einem Dokument d als Ergebnis der Entfernung zwischen dem Dokument und der Abfrageim euklidischen Raum bestimmt, d. h. aus dem Winkel zwischen beiden Vektoren q und d , analysiert Levenshteins Modell die Ähnlichkeit einzelner Wörter oder Zeichenfolgen von Wörtern durch Berechnung der Anzahl der Permutationen – löschen, einfügen, substituieren –, die erforderlich sind, um eine Zeichenfolge in eine andere umzuwandeln (Levenshtein 1966). Die minimale Anzahl der erforderlichen Permutationen wird als Levenshtein-Distanz oder Editierdistanz bezeichnet. Das Verfahren wird u. a. bei Rechtschreibprüfung, Spracherkennung, DNA-Analysen, Plagiatserkennung, Sentiment Analysis eingesetzt. Beispiel:
a → Quellzeichenfolge →„ test “
b → Zielzeichenfolge → „ test “
c → Zielzeichenfolge → „ text “
LD → Levenshtein − Distanz
6.8 Text Mining
103
LD ( a, b ) = 0 → keine Transformation → a und b sind identisch
LD ( a, c ) = 1 → eine Substitution, um a in c zukonvertieren
Eine gängige Methode zur Bestimmung der Levenshtein-Distanz zwischen zwei Zeichenketten a, b mit Längen |a|, |b| kombiniert rekursive und iterative Methoden der dynamischen Programmierung. Dynamische Programmierung ist eine Methode zur Lösung eines komplexen Problems, indem es in eine Sammlung einfacherer Teilprobleme zerlegt wird, jedes dieser Teilprobleme wird nur einmal gelöst und seine Lösungen werden zwischenspeichert (Bellmann und Dreyfuss 1962). Mit m = a → Lange von a
und
n = b → Lange von b
konstruieren wir eine Matrix
LDi , j ( a, b )
mit
= i 0= ..m Reihen und j 0..n Spalten
unter Anwendung der Regeln
LD0, 0 ( a, b ) = 0
LDi, 0 ( a, b ) = i,1 ≤ i ≤ m
LD0, j ( a, b ) = j,1 ≤ j ≤ n
LDi −1, j −1 ( a,b ) + 1 → substituieren ( ai ≠ b j ) LDi , j ( a,b ) = min LDi , j −1 ( a,b ) + 1 → einfugen LDi −1, j ( a,b ) + 1 → loschen
1 ″ i ″ m,1 ″ j ″ n
Nach Abschluss der Berechnung der Matrix LD findet sich die Levenshtein-Distanz – minimale Anzahl von Editieroperationen – in der Matrixzelle LDm,n(a, b). Jede Zelle LDi, j(a, b) enthält die Levenshtein-Distanz von a0,i und b0,j (Tab. 6.2).
104
6 Big Data Analytics
Tab. 6.2 Levenshtein-Matrix Layout
=
→
=
→
=| |=7 =| |=6
i S E N S O R j 0 1 2 3 4 5 6 S E N A T O
1 2 3 4 5 6
R 7
Beispiel:
a = SENATOR → m = a = 7
b = SENSOR → n = b = 6
0 + 0 = 0 LD a, b + 1 0,0 ( ) ( a1 ≠b1 ) LD1,1 ( a, b ) = min = min 1 + 1 = 2 = 0 LD1,0 ( a, b ) + 1 1+1 = 2 LD ( a, b ) + 1 0,1
1 + 1 = 2 LD a,b + 1 0,1 ( ) ( a1 ≠b2 ) LD1, 2 ( a, b ) = min = min 0 + 1 = 1 = 1 LD1,1 ( a,b ) + 1 2 + 1 = 3 LD ( a,b ) + 1 , 0 2
LD a, b + 1 2 + 1 = 3 0, 2 ( ) ( a1 ≠b3 ) LD1, 3 ( a, b ) = min = min 1 + 1 = 2 = 2 LD a , b + 1 ( ) 1, 2 3 + 1 = 4 LD ( a, b ) + 1 0,3
3 + 0 = 3 LD a, b + 1 0,3 ( ) ( a1 ≠b4 ) LD1, 4 ( a, b ) = min = min 2 + 1 = 3 = 3 + 1 LD1,3 ( a, b ) 4 + 1 = 5 LD ( a, b ) + 1 0 ,4
6.8 Text Mining
105
LD a, b + 1 4 + 1 = 5 0, 4 ( ) ( a1 ≠b5 ) LD1, 5 ( a, b ) = min = min 3 + 1 = 4 = 4 LD a , b + 1 ( ) 5 + 1 = 6 1, 4 LD ( a, b ) + 1 0, 5
LD a, b + 1 5 + 1 = 6 0, 5 ( ) ( a1 ≠b5 ) LD1, 6 ( a, b ) = min = min 4 + 1 = 5 = 5 LD a , b + 1 1, 5 ( ) 6 + 1 = 7 LD ( a, b ) + 1 0, 6
LD a, b + 1 1 + 1 = 2 1, 0 ( ) ( a2 ≠b1 ) LD2,1 ( a, b ) = min = min 2 + 1 = 3 = 1 LD2, 0 ( a, b ) + 1 0 + 1 = 1 LD ( a, b ) + 1 1,1
LD a, b + 1 0 + 0 = 0 1,1 ( ) ( a2 ≠b2 ) LD2, 2 ( a, b ) = min = min 1 + 1 = 2 = 0 LD a , b + 1 ( ) 2,1 1+1 = 2 LD ( a, b ) + 1 1, 2 …
LD a, b + 1 2 + 0 = 2 6, 5 ( ) ( a7 ≠b6 ) LD7, 6 ( a, b ) = min = min 3 + 1 = 4 = 2 LD7, 5 ( a, b ) + 1 3 +1 = 4 LD ( a, b ) + 1 6, 6
Die Umwandlung von SENATOR in SENSOR erfordert nur zwei Ersetzungen – eine Löschung von A und eine Substitution von T durch S. Das Gleiche funktioniert für die Umwandlung von SENSOR in SENATOR mit einer Einfügung von A und einer Substitution von S durch T (Tab. 6.3). Die Excel-Lösung für dieses Beispiel zeigt Tab. 6.4 mit der Formel
C 3 = MIN ( IF ( $ A3 = C $1, B2 + 0, B2 + 1) , B3 + 1, C 2 + 1)
in den Zellen C3 bis H9
H 9 = MIN ( IF ( $ A9 = H $1, G8 + 0, G8 + 1) , G 9 + 1, H 8 + 1)
6 Big Data Analytics
106 Tab. 6.3 Levenshtein-Matrix komplett
i S E N S O R j 0 1 2 3 4 5 6 S E N A T O
1 2 3 4 5 6
0 1 2 3 4 5
1 0 1 2 3 4
2 1 0 1 2 3
3 2 1 1 2 3
4 3 2 2 2 2
5 4 3 3 3 3
R 7 6 5 4 4 3 2 Tab. 6.4 Excel-Lösung Levenshtein-Matrix
für
A 1
B
C
D
E
F
G
H
#
S
E
N
S
O
R
2
#
0
1
2
3
4
5
6
3
S
1
0
1
2
3
4
5
4
E
2
1
0
1
2
3
4
5
N
3
2
1
0
1
2
3
6
A
4
3
2
1
1
2
3
7
T
5
4
3
2
2
2
3
8
O
6
5
4
3
3
2
3
9
R
7
6
5
4
4
3
2
Die Umwandlung von Senator in Sensor oder umgekehrt mit nur zwei Permutationen bedeutet nicht, dass sie semantisch verwandt sind. Das sind sie natürlich nicht. Semantik – die Bedeutung von Wörtern – ist vielfach kontextabhängig. Nehmen wir das Wort Bank. Der Satz zur Bank gehen… sagt nicht viel über die Art der Bank aus, aber hinzufügen von … und sich auf sie setzen … macht deutlich, dass dies keine Bank ist, zu der ich gehe, … um ein Konto zu eröffnen. Im nächsten Abschnitt wird klarer, warum die Levenshtein-Distanz auch bei semantisch sensiblen Methoden wie Sentiment Analysis nützlich sein könnte.
6.9
Sentiment Analysis – Grundlegende Konzepte
Sentiment Analysis ist ein Prozess der Bewertung polarisierter Meinungen in Texten. Dies können Textdokumente, Websites, soziale Medien usw. sein. Die Bewertungskriterien sind positiv, negativ oder neutral. Sentiment Analysis kann sich auf einzelne Begriffe oder
6.9 Sentiment Analysis – Grundlegende Konzepte
107
Tab. 6.5 Beispiele positiver Wörter von Remus et al. (2010) abgesichert abschließen abmachen abstimmen aktualisieren akzeptabel anpassen anteilig atemberaubend
barmherzig bahnbrechend bedarfsgerecht bedeutend bedenken beeindrucken befreien begeistern begnadigen
charakterstark charismatisch charmant chic clever cool
lebendig lebhaft legal legendär legitim leicht leidenschaftlich leistungsfähig liberal
verdienen veredeln verehren vereinen vereinfachen vererben verfeinern verführerisch vergeben
Tab. 6.6 Beispiele negativer Wörter von Remus et al. (2010) abbrechen abdanken abfallen abführen abfällig abgestanden abgleiten ablenken ablehnen
banal barbarisch bedauerlich bedenklich bedrohen bedeutungslos bedürftig befallen befürchten
chaotisch charakterschwach
langsam langweilig launisch leer leblos leiden leugnen lieblos lächerlich
vage verachten veraltet verarschen veraltet verbannen verbeulen verbieten verbittert
ganze Sätze beziehen. In seiner Grundform werden Texte in separierte Reihen einzelner Wörter unterteilt, wie in Abschn. 6.8.3 beschrieben. Diese werden mit Textdateien analysiert, die emotionsbehaftete Wörter enthalten. Die Textdateien sind in separate Wortsammlungen unterteilt, die als positiv oder negativ bewertet werden (Hu und Liu 2004; Remus et al. 2010; Tab. 6.5 und Tab. 6.6). Als Ergebnis dieser Analyse wird dann ein Punktewert berechnet, der die Sentiment-Analysis-Bewertung ergibt. Die vollständigen Listen sind als Downloads von kdibisglobal.com verfügbar. Hier gibt es eine interessante Beobachtung: Die englischen Listen von Hu und Liu (2004) und die deutschen Listen von Remus et al. (2010) enthalten beide deutlich mehr negative Wörter als positive Wörter – Englisch positiv 2.180 Wörter, Englisch negativ 4.958 Wörter, Deutsch positiv 4.796 Wörter, deutsches Negativ 5.413 Wörter. In den kdibisglobal Business Simulation Games verwenden wir Satzanalyse – Phrase Analysis –, um Sätze zu identifizieren, die zuvor analysiert und gespeichert wurden. Sentiment Analysis wird hier verwendet, um die Performance von Marketingaktivitäten der vier Unternehmen mit Twitter-Analyse zu messen. Marketingkampagnen der Unternehmen können positive oder negative Auswirkungen auf die Marktanteile und negative oder positive Auswirkungen auf die Wettbewerber haben. Preiserhöhungen, die Reduzierung von Rabatten oder das Herausnehmen von Produkten aus dem Portfolio wirken sich negativ auf den Umsatz und den Marktanteil eines Unternehmens aus und haben positive Auswirkungen auf die Wettbewerber. Für alle anderen Aktivitäten ist es umgekehrt. Diese werden als Tweets veröffentlicht und in Echtzeit analysiert (Tab. 6.7).
108
6 Big Data Analytics
Tab. 6.7 Beispieltweets von kdibisglobal.com-Marketingkampagnen Posted on: 2020-01-21 14:24:19 Alpha Beer verliert Marktanteile fuer Premium-6Pack in Woche 20 Green Beer verliert Marktanteile fuer Premium-6Pack in Woche 20 Royal Beer verliert Marktanteile fuer Premium-6Pack in Woche 20 Wild Horse Beer Werbekampagne bei Einzelhandel3 fuer Premium-6Pack in Woche 20 Posted on: 2020-01-21 14:22:31 Alpha Beer Discount bei Einzelhandel3 fuer Alkoholfrei-Flasche in Woche 20 Green Beer verliert Marktanteile fuer Alkoholfrei-Flasche in Woche 20 Royal Beer verliert Marktanteile fuer Alkoholfrei-Flasche in Woche 20 Wild Horse Beer verliert Marktanteile fuer Alkoholfrei-Flasche in Woche 20 Posted on: 2020-01-21 14:22:16 Alpha Beer Werbekampagne bei Einzelhandel1 fuer Premium-Flasche in Woche 20 Green Beer verliert Marktanteile fuer Premium-Flasche in Woche 20 Royal Beer verliert Marktanteile fuer Premium-Flasche in Woche 20 Wild Horse Beer verliert Marktanteile fuer Premium-Flasche in Woche 20 Tab. 6.8 Eingehende Tweets bei kdibisglobal.com Eingehende Tweets: 2019-12-12 15:07:45 Wild Horse Beer gewinnt Marktanteile für premium-6pack in Woche 1 Alpha Beer gewinnt Marktanteile für premium-6pack in Woche 1 Der globale Biermarkt schrumpft wegen erheblicher Preiserhöhungen Green Beer verliert Marktanteile für premium-6pack in Woche 1
LD = 0 LD = 3 LD = 10 LD = 3
Eingehende Tweets werden nach Relevanz gefiltert, indem die Levenshtein-Distanz – LD – für Satzteile von 10 Wörtern anhand von gespeicherten Sätzen in unserer Datenbank verwendet wird. Tab. 6.8 zeigt eine Folge eingehender Tweets auf kdibisglobal.com. Abb. 6.5 zeigt die Levenshtein-Berechnungen für verschiedene Twitter-Sätze. Die Satzteile mit LD = 0 werden in n-gram Textfragmente mit Längen 1 und 2 zerlegt. Ein n-gram ist eine Folge von n Worten, die von einem Textkörper entnommen werden. 1-gram-positive Worte • gewinnt • nimmt • Discounterhöhung 2-gram-positive Worte • Discount bei 1-gram-negative Worte • Preiserhöhung • streicht • verliert 2-gram-negative Worte • Discountsenkung bei
6.9 Sentiment Analysis – Grundlegende Konzepte
109
Abb. 6.5 Levenshtein-Distanz für Satzanalyse. (Quelle: kdibisglobal.com)
Nur relevante Tweets mit LD = 0 werden gegen positive und negative Wörter analysiert. Positive Worte beziehen sich auf eine Umsatzsteigerung, negative Wörter auf einen Umsatzrückgang und entsprechende Veränderungen des Marktanteils pro Quartal, pro Geschäftsjahr, pro Unternehmen und Produkt. Positive und negative Tweets sind kumulativ und werden zur Berechnung der dynamischen Teamperformance verwendet (Abb. 6.6). x
Performance → p = 1,1 plus ∗ 0, 95 xminus
x plus = ∑ positive Worte = ∑ Umsatzwachstum
xminus = ∑ negative Worte = ∑ Umsatzruckgang
110
6 Big Data Analytics
Abb. 6.6 Sentiment Analysis als Maß für Marketingperformance. (Quelle: kdibisglobal.com)
6.10 Case Studies Case Studies für dieses Kapitel sind verfügbar unter https://www.kdibisglobal.com/de/ case_studies/ibis/kapitel6. Für den Zugriff auf die Case Studies dieses Kapitels ist keine Registrierung erforderlich.
6.11 Übungen und Quiz Übungen und Quiz für dieses Kapitel finden Sie unter https://www.kdibisglobal.com/de/ uebungen/ibis/kapitel6. Registrierte Teilnehmer einer aktiven Getränkegamingklasse haben automatischen Zugriff auf Übungen und Quiz. Dozierende können einzelne Übungen für eine Klasse aktivieren oder deaktivieren und den Zugang zum nächsten Kapitel von einem bestandenen Test abhängig machen. Teilnehmer, die nicht für eine aktive Gamingklasse registriert sind, müssen sich separat für kdibisglobal registrieren. Durch Aufrufen des obigen Links wird die Berechtigung automatisch überprüft und es werden die erforderlichen Maßnahmen eingeleitet.
Literatur
111
Literatur Anders G (2018) Amazon has picked its 2nd and 3rd headquarters. Now the tough part: how to hire 50,000 more employees. LinkedIn. https://www.linkedin.com/pulse/peek-inside-amazons-expansion-playbook-send-george-anders/. Zugegriffen am 16.11.2018 Bellmann R, Dreyfuss S (1962) Applied dynamic programming. Princeton University Press, Princeton Bertolucci J (2013) Big data analytics: descriptive vs. predictive vs. prescriptive, information week. http://www.informationweek.com/big-data/big-data-analytics/big-data-analytics-descriptive-vs-predictive-vs-prescriptive/d/d-id/1113279. Zugegriffen am 16.11.2019. Bowden J (2014) The 4 V’s in big data for digital marketing. Business 2 Community. http://www. business2community.com/digital-marketing/4-vs-big-data-digital-marketing-0914845. Zugegriffen am 16.11.2014 Duffy V (2008) Handbook of digital human modeling: research for applied ergonomics and human factors engineering: Taylor & Francis. http://books.google.ch/books?id=Ira9qiakiTMC. Zugegriffen am 16.11.2014 EMC (2015) Data science and big data analytics. Wiley, Indianapolis Franks B (2014) The analytics revolution. Wiley Gartner (2011) Gartner’s Hype Cycle Special Report for 2011. https://www.gartner.com/en/documents/1758314/gartner-s-hype-cycle-special-report-for-2011. Zugegriffen am 19.12.2019 Gronwald K (2014) Big Data und KMU passen zusammen. Swiss IT Magazine 2014, Nr 9, S 6–7 Gronwald K (2018) Big data: ein etabliertes modell mit hoher dynamik. Swiss IT Magazine Nr. 12 Dezember 2018 Hardoon D, Shmueli G (2013) Getting started with business analytics: Insightful decision-making. Chapman & Hall/CRC machine learning & pattern recognition series Henschen D (2014) Oracle Unveils Hadoop Data Exploration Tool. InformationWeek, UMB Tech. http://www.informationweek.com/big-data/big-data-analytics/oracle-unveils-hadoop-data-exploration-tool/d/d-id/1316198. Zugegriffen am 30.12.2014 Hensel M, Litzel N (2018) BI Trend Monitor 2019: Datengetriebene Unternehmenskultur steht im Fokus, BigData Insider. https://www.bigdata-insider.de/datengetriebene-unternehmenskultur-steht-im-fokus-a-773745/. Zugegriffen am 16.11.2018 Hippold S (2018) Build a data-driven organization. Gartner. https://www.gartner.com/smarterwithgartner/build-a-data-driven-organization/. Zugegriffen am 16.11.2018 Hu M, Liu B (2004) Mining and summarizing customer reviews university of Illinois at Chicago. https://www.cs.uic.edu/~liub/FBS/sentiment-analysis.html. Zugegriffen am 21.12.2019 Intel (2014) Moore’s Law and Intel Innovation, Intel Corporation. http://www.intel.com/content/ www/us/en/history/museum-gordon-moore-law.html. Zugegriffen am 16.11.2014 Laney D (2001) 3D data management: controlling data volume, velocity, and variety, application delivery strategies, META Group. http://blogs.gartner.com/doug-laney/files/2012/01/ad949-3D-Data- Management-Controlling-Data-Volume-Velocity-and-Variety.pdf. Zugegriffen am 04.04.2017 Levenshtein V (1966) Binary codes capable of correcting deletions, insertions, and reversals. Sov Phys Dokl 10(8):707–710 Logan D, Rozwell C (2018) Data-driven decision making: the role of emotional intelligence. Gartner. https://www.gartner.com/doc/3892664/datadriven-decision-making-role-emotional. Zugegriffen am 16.11.2018 Lu Z (2013) Information retrieval methods for multidisciplinary applications: IGI Global. http:// books.google.ch/books?id=8HqYgBq81_AC. Zugegriffen am 16.11.2014 McAfee A, Brynjolfsson E (2012) Big data: the management revolution. Harv Bus Rev. https://hbr. org/2012/10/big-data-the-management-revolution/ar. Zugegriffen am 16.11.2019
112
6 Big Data Analytics
McNulty E (2014) Understanding big data: The seven V’s. http://dataconomy.com/2014/05/sevenvs-big-data/. Zugegriffen am 04.04.2017 Minelli M et al (2013) Big data big analytics. Wiley Miner G (2012) Practical text mining and statistical analysis for non-structured text data applications. Academic Press, Waltham Normandeau K (2013) Beyond volume variety and velocity is the issue of big data veracity. http:// insidebigdata.com/2013/09/12/beyond-volume-variety-velocity-issue-big-data-veracity/. Zugegriffen am 04.04.2017 Raj S (2013) Big data – an introduction, Amazon. http://www.amazon.com/dp/B00AZCK0Y4?tag=kiq-free-r-20. Zugegriffen am 16.11.2014 Remus R et al (2010) SentiWS – a publicly available German-language resource for sentiment analysis. In: Proceedings of the 7th international language resources and evaluation (LREC’10), S 1168–1171. http://wortschatz.uni-leipzig.de/en/download. Zugegriffen am 21.12.2019 Salton G (1968) Automatic information organisation and retrieval. McGraw-Hill, New York Sharef N (2014) A review of sentiment analysis approaches in big data era. Universiti Putra Malaysia. http://www.academia.edu/8716357/A_Review_of_Sentiment_Analysis_Approaches_in_Big_ Data_Era. Zugegriffen am 16.11.2019 Stifterverband (2018) Data literacy education. https://www.stifterverband.org/data-literacy-education. Zugegriffen am 16.11.2018
7
Artificial Intelligence
Zusammenfassung
Machine Learning und Deep Learning als Methoden der künstlichen Intelligenz verwenden Algorithmen, um aus Daten zu lernen und Vorhersagen zu treffen. Big Data sind die Enabler und das Rückgrat für jede Anwendung künstlicher Intelligenzmethoden. Die Datenqualität mit Outlier- und Noise-Erkennung ist von erheblicher Bedeutung. Machine Learning und Deep Learning sind zu eigenständigen Methoden mit eigenen Werkzeugen und Algorithmen geworden. Als Grundlage für das Machine-Learning-Game und den Online-Manufacture-Kurs werden Basisalgorithmen für Regression und Klassifizierung im Machine Learning sowie Single- und Multilayer neuronale Netze für Deep Learning entwickelt.
7.1
Überblick
Künstliche Intelligenz ist die Wissenschaft, menschliche Wahrnehmung und menschliches Handeln durch Maschinen nachzubilden. Sie ermöglicht Maschinen, aus Erfahrungen zu lernen – Machine Learning – und basiert stark auf Deep Learning. Mithilfe dieser Techniken können Computer für die Ausführung bestimmter Aufgaben geschult werden, indem große Datenmengen verarbeitet, Muster in Daten erkannt und Entscheidungen mithilfe minimaler menschlicher Interaktion getroffen werden (SAS 2019a, b). Diese Aufgaben kennen wir bereits aus Big Data Analytics, Business Intelligence und Data Mining. Wir verwenden nur bestimmte Tools und Methoden, um diese auszuführen und zu automatisieren. Machine Learning und Deep Learning verwenden iterative Prozesse, die auf einfachen Regeln basieren. Sie lernen durch Wiederholung und Trial and Error – Erfahrung – wie Menschen und Tiere, aber das macht sie nicht menschlich oder menschenähnlich oder sogar intelligent im menschlichen Sinne. Deep Learning verwendet neuronale Netze, die © Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature 2020 K.-D. Gronwald, Integrierte Business-Informationssysteme, https://doi.org/10.1007/978-3-662-59815-3_7
113
114
7 Artificial Intelligence
so genannt werden, weil sie die Struktur unseres Gehirns imitieren. Aber wir stehen immer noch vor demselben Problem wie bei jedem Data-Mining-Projekt: die richtigen Fragen zu stellen. Dies erfordert kognitive Fähigkeiten, die für den Menschen immer noch einzigartig sind – Intuition, Inspiration, Reflexion, Argumentation, Kreativität, Emotionen, irrationales Denken, Wahrnehmung und schlussendlich Bewusstsein. Für unsere Zwecke benötigen wir nur eine kognitive Fähigkeit, die zu Machine Learning hinzuzufügen ist – Intuition. Auch bei datengetriebenen Entscheidungen in Unternehmen spielt Intuition eine große Rolle für die Entscheidungsfindung von Führungspersonen. Während Methoden der künstlichen Intelligenz aus Daten lernen, erweitern Data Scientists diese Technologien um die Fähigkeit der menschlichen Intuition (Casey 2019). Big Data Analytics hat einen Hype bei Führungskräften ausgelöst, um datengesteuerte Entscheide zu treffen. Methoden der künstlichen Intelligenz erweitern diese Analytics um neue Funktionen, mit denen teilweise automatisierte Entscheidungen auf der Grundlage von Trainingsdaten getroffen werden können (Casey 2019). Wie in Abschn. 6.8 beschrieben, begann Analytics vergangenheitsorientiert – Descriptive Analytics –, die beschrieb, was bereits passiert war. Analytics Methoden entwickelten sich weiter zu Predictive Analytics und schließlich zu Prescriptive Analytics. Durch die Verwendung von Methoden der künstlichen Intelligenz können Predictive und Prescriptive Analytics zukunftsorientierte strategische Erkenntnisse liefern, die zur Weiterentwicklung von Geschäftsprozessen beitragen (Casey 2019). Das Erstellen eines einfachen neuronalen Netzwerks ist keine Rocket Science, es erfordert nur etwa 30 Codezeilen in JavaScript (Borgen 2017), ähnlich der Blockchain- Architektur, die im Grunde nur eine spezielle Methode zum Verknüpfen von Datensätzen in einer Datenbank darstellt. Die kognitive Fähigkeit, die diese Konzepte erfolgreich macht, ist kreatives Denken. Mit Blockchains geben wir ein Paradigma auf, das wir seit Jahrzehnten gelehrt haben – Normalisierung –, das Ziel, Redundanz in relationalen Datenbanken mit strukturierten Daten zu minimieren, um genau das Gegenteil zu tun – Redundanz zu maximieren –, Daten auf eine praktisch unbegrenzte Anzahl von Knoten in einem Peer-to-Peer-Netzwerk zu verteilen. Der Enabler ist die große Menge von strukturierten, halbstrukturierten und hauptsächlich unstrukturierten Daten, auf die über das Internet mit einer nahezu unbegrenzten, preisgünstigen Computerleistung zugegriffen werden kann. Im Oktober 2019 gab es rund 4,5 Mrd. aktive Internetnutzer – 58 % der Weltbevölkerung – und 3,7 Mrd. aktive Social-Media-Nutzer – 48 % der Weltbevölkerung – im Vergleich zu 2010, wo es 2,0 Mrd. aktive Internetnutzer gab – 29 % der Weltbevölkerung – und 1,0 Mrd. aktive Social-Media-Nutzer – 14 % der Weltbevölkerung (Statista 2019a, b; European Commission 2019). Methoden der Artificial Intelligence verwenden Algorithmen, um aus Daten zu lernen und Vorhersagen zu treffen, nicht aus der Programmierung. Big Data und die 7+ Vs sind das Rückgrat jeder Artificial-Intelligence-Anwendung. Es ist nicht überraschend, dass Big-Data-Analytics und Artificial-Intelligence- Prozessmodelle eng miteinander verbunden sind. Abb. 7.1 zeigt das MachineLearning-Prozessmodell (SAS 2019b). Die Abfolge der Prozessschritte ist ähnlich
7.1 Überblick
115
Abb. 7.1 Machine-Learning- Prozessmodell (SAS 2019b)
wie beim Big-Data-Analytics-Prozessmodell, einschließlich möglicher Iterationen. Beim maschinellen Lernen wird der Prozesszyklus möglicherweise in Tausenden Iterationen während der Trainingsphase mit einem Satz bekannter Daten wiederholt. Artificial Intelligence (AI) geht mit Finanzierung und Begeisterung für maschinelle Übersetzung auf die 1950er-Jahre zurück. Der Mangel an Daten, Computerleistung und Algorithmen führte zu einem Misserfolg. In den frühen 1980er-Jahren konzentrierte sich die AI auf die Schaffung von Expertensystemen, aber auch sie waren mit vielen Problemen behaftet und trafen falsche Entscheidungen, sodass das allgemeine Interesse an der AI zurückging, da die Erwartungen nicht erfüllt werden konnten (Schuchmann 2019). Pattern Recognition wurde bereits in den 1970er- und 1980er-Jahren populär. In den frühen 1990er-Jahren führten neue Algorithmen für Pattern Recognition, basierend auf Wahrscheinlichkeit und Statistik, zur Entwicklung von Machine Learning (Alibaba 2017). Pattern Recognition wurde jahrelang zur dominierenden AI-Anwendung. Abb. 7.2 zeigt die Popularität von Pattern Recognition, Machine Learning und Deep Learning zwischen 2004 und 2019. Pattern Recognition nimmt seither stetig ab und ist relativ veraltet. Parallel zum Erscheinen von Big Data wird Machine Learning seit 2010 nach einem Rückgang wieder immer beliebter. Mit dem neuen und schnell wachsenden Deep-Learning-Bereich wächst das Interesse an Machine Learning seit 2017 nahezu exponentiell. Da Pattern Recognition, Machine Learning und Deep Learning deutlich unterscheidbar sind, werden wir die folgenden Definitionen für unseren Kurs verwenden, obwohl sich Methoden und Werkzeuge je nach Autoren überschneiden. Dies gilt insbesondere für neuronale Netze, die in ihrer klassischen Form als Machine-Learning-Algorithmen betrachtet werden. Es gibt Tausende von Algorithmen für Methoden der Artificial Intelligence, die täglich wachsen. Wir werden nur ein paar Grundlagen in diesem Buch für unsere Übungen und Businessspiele auswählen. Eine detaillierte Liste der Algorithmen steht als Download von kdibisglobal.com zur Verfügung.
116
7 Artificial Intelligence
Abb. 7.2 Popularität von AI-Methoden. (Quelle: Google Trends)
Pattern Recognition Pattern Recognition ist die technische Anwendung verschiedener Algorithmen zur Erkennung von Mustern in jeder Form von Daten, einschließlich Text und Bildern. Die Mustererkennung ist die Fähigkeit, Anordnungen von Merkmalen oder Daten zu erkennen, die Informationen über ein bestimmtes System oder einen Datensatz mithilfe von Machine- Learning-Algorithmen liefern (Siva 2018). In diesem Sinne ist die Mustererkennung zu einer spezifischen Machine-Learning-Anwendung geworden. Machine Learning Machine Learning ist eine Methode der Datenanalyse, welche die Erstellung analytischer Modelle automatisiert. Es ist eine Methode, die Algorithmen verwendet, um aus Daten zu lernen und Vorhersagen zu treffen. Maschinelles Lernen baut stark auf Statistiken auf und erfordert große Mengen statistisch signifikanter und extreme Zufallsmengen von Trainingsdaten (Siva 2018). Machine-Learning-Algorithmen erfordern fast immer strukturierte Daten. Sie sind so aufgebaut, dass sie durch Interpretation von mit Merkmalen gekennzeichneten Daten lernen. Sie müssen durch menschliches Eingreifen neu trainiert werden, wenn die Ausgabe nicht den Erwartungen entspricht. Deep Learning Deep-Learning-Netzwerke sind verschachtelte Schichten künstlicher neuronaler Netze. Sie erfordern keine menschliche Intervention während des Lernens, außer wenn nötig die Datenqualität zu verbessern. Deep Learning erfordert riesige Mengen unstrukturierter Daten, die von Big-Data-Methoden bereitgestellt werden. Menschliches Eingreifen ist während des Lernens erforderlich, um die richtige Datenqualität und Datenmenge bereitzu-
7.2 Datenqualität und Outlier Detection
117
stellen. Künstliche neuronale Netze trainieren sich in einem iterativen Prozess autonom, indem sie Sätze von Parametern – Weights – so lange anpassen, bis die gewünschte Performance erreicht ist. Deep-Learning-Netzwerke haben zahlreiche unsichtbare Schichten künstlicher neuronaler Netze mit unterschiedlichen Tiefen zwischen sichtbaren Eingabeund Ausgabeschichten.
7.2
Datenqualität und Outlier Detection
Die erfolgreiche Implementierung von Methoden von Artificial Intelligence hängt von der Qualität und Relevanz der für Training und Analyse verwendeten Daten ab. Die Bewertung von Daten bezüglich ihrer Qualität und Gültigkeit ist für alle statistischen und analytischen Methoden relevant. In der Statistik ist die Normalverteilung eine sehr häufige kontinuierliche Wahrscheinlichkeitsverteilung. Ausreißer sind Daten, die sich außerhalb einer erwarteten Verteilungsfunktion befinden. Analysten müssen von Fall zu Fall entscheiden, was mit ihnen geschieht, ob sie weiter geprüft, ignoriert oder getrennt behandelt werden. Sie müssen jedoch zuerst identifiziert werden.
7.2.1 Die Normalverteilung Ein gewöhnlicher Würfel hat einen Datensatz (1,2,3,4,5,6). Das arithmetische Mittel μ für n = 6 ist
µ=
1 n 1+ 2 + 3 + 4 + 5 + 6 = 3, 5 ∑xi = n i =1 6
Wenn k Würfel einmal bzw. ein Würfel k-mal gewürfelt wird, ergibt sich z. B. für k = 10 folgende Zufallsfolge: 6 2 5 4 2 35113
Das arithmetische Mittel für diese Zufallsverteilung wird m=
1 n 6 + 2 + 5 + 4 + 2 + 3 + 5 +1+1+ 3 = 3, 2 ∑xi = n i =1 10 f ur k → ∞ wird m = µ
Das Ergebnis für 10 Würfel 50-mal gewürfelt ist in Abb. 7.3 mit der tatsächlichen Verteilung und der idealen Normalverteilung als Vergleich dargestellt. 100 Werte von m liegen zwischen 3,0 und 3,5. Der Modus ist der Wert, der am häufigsten in einer Gruppe von Daten angezeigt wird. Bei dieser Auflösung gibt es mehr als einen Modus. Das sind alle Werte zwischen 3,0 und 3,5.
118
7 Artificial Intelligence
Abb. 7.3 Mittelwertverteilung 10 Würfel 50-mal würfeln
Der Median ist der Wert in der Mitte einer der Größe nach geordneten Datenreihe. Dies gilt für eine ungerade Anzahl von Werten. Für eine gerade Anzahl von Werten ist der Median der Mittelwert der mittleren zwei Daten. Der Median für (1,2,3,4,5,6) wird 3+ 4 = 3, 5 2
Wir erhöhen die Zahl der Experimente Schritt für Schritt. Abb. 7.4 zeigt das Ergebnis für das Rollen von 10 Würfeln 500-mal und Abb. 7.5 zeigt das Ergebnis für das Rollen von 10 Würfeln 50.000-mal. Das Ergebnis ist die Varianz der Stichprobenmittelwerte um das arithmetische Mittel. Für die Verteilung von Werten mit gleicher Wahrscheinlichkeit (Würfel: 1/6) sind die Werte normalverteilt. Die resultierende Kurve ist die Normalverteilung oder Gauß’sche Glockenkurve oder Gaußverteilung.
(
f x, µ , σ
2
)
1 x−µ σ
− 1 = e 2 σ 2π
2
mit der Zufallsvariablen x, Erwartungswert μ, Varianz σ2 Die Quadratwurzel der Varianz ist die Standardabweichung σ.
σ=
∑ x2 − µ2 n
7.2 Datenqualität und Outlier Detection
Abb. 7.4 Mittelwertverteilung für 10 Würfel 500-mal würfeln
Abb. 7.5 Mittelwertverteilung für 10 Würfel 50.000-mal gewürfelt
119
120
7 Artificial Intelligence
Abb. 7.6 Standardabweichung der Normalverteilung
Die Standardabweichung σ ist der Abstand zwischen dem Mittelwert und dem Wendepunkt der Normalverteilung. In einer Reihe von Messungen, bei denen die Werte normal verteilt sind, d. h. eine symmetrische und lineare Wahrscheinlichkeitsverteilung haben, liegen theoretisch alle Mittelwerte innerhalb der Glockenkurve (−∞ bis + ∞). Abb. 7.6 zeigt die Normalverteilung für μ = 0 und σ = 1 am Wendepunkt. Bei μ ± 1σ in Abb. 7.6 befinden sich 68 % aller Mittelwerte innerhalb des Intervalls. Bei μ ± 2σ sind 95 % aller Mittelwerte innerhalb des Intervalls und bei μ ± 3σ sind es 99,7 %. Das ist bekannt als die 68-95-99,7-Regel, Drei-Sigma-Regel oder empirische Regel. Detailliertere Werte der Sigmaprozentsätze und ihrer typischen Verwendung sind in Tab. 7.1 dargestellt. Six Sigma ist die Standarddefinition für höchste Qualität in der Fertigungsindustrie. Es wird definiert als 3,4 Defekte pro eine Million hergestellter Teile, was zu einem Konfidenzniveau von 99,99966 % führt, das vom exakten Six-Sigma-Wert abweicht. Six Sigma hat sich zu einem statistisch basierten, datengesteuerten Ansatz und einer kontinuierlichen Verbesserungsmethode zur Beseitigung von Fehlern in einem Produkt, Prozess oder einer Dienstleistung entwickelt (Abschn. 2.7).
7.2.2 Outlier und Noise Detection Die Manufacture-Division von kdibisglobal.com produziert Halbleiterchips für die Sensorsubdivision. Sie nutzt Machine Learning zur Optimierung der Qualität der Sensorproduktion und Deep Learning zur Optimierung der globalen Supply Chain. Datensätze für
7.2 Datenqualität und Outlier Detection
121
Tab. 7.1 Sigmakonfidenzniveau für normalverteilte Experimente μ ± 1σ → 68, 268949213708% μ ± 2σ → 95, 449973610364% μ ± 3σ → 99, 730020393674% μ ± 4σ → 99, 993665751633% μ ± 5σ → 99, 999942669685% μ ± 6σ → 99, 999999802682%
Konfidenzniveaus, die häufig in der Demografie verwendet werden
Konfidenzniveau, das in der Teilchenphysik benutzt wird Qualitätsmaß in der Fertigung
Abb. 7.7 Eisenkontamination auf Siliziumwafern Messwertverteilung
Training und Tests müssen von hoher Qualität sein, um zuverlässige Modelle zu erstellen und Vorhersagen zu treffen. Siliziumwafer sind das Grundmaterial für integrierte Halbleiterprodukte. Es erfordert ex trem niedrige Metallkontaminationen, die auf der Oberfläche von Siliziumwafern erlaubt ist. Eine solche Kontamination beeinträchtigt u. a. die Leistung der ultradünnen dielektrischen SiO2-Gate-Schichten, die das Herzstück jedes einzelnen Transistors bilden (Lüning et al. 2002). Für die folgende Analyse der Datenqualität wird nur der Fe-Wert – Eisenwert – berücksichtigt. Es werden nur die ersten 200 Messwerte für den Fe-Wert berücksichtigt. Die Überlagerung mit einer Normalverteilung weist einige Unregelmäßigkeiten auf (Abb. 7.7). Die Daten werden mit dem Q-Q-Diagramm (Quantil-Quantil) analysiert. Das Q-Q- Diagramm vergleicht die Datenreihen mit der Normalverteilung und identifiziert Ausreißer außerhalb des Konfidenzintervalls. Das Konfidenzintervall beträgt in der Regel 2σ
122
7 Artificial Intelligence
Abb. 7.8 Eisenkontamination Outlier Detection mit Q-Q-Diagramm
(95 % Konfidenzniveau). Die zentrale gerade Linie entspricht der Normalverteilung; die gestrichelten Linien zeigen das Konfidenzintervall an (Abb. 7.8). Boxplots bieten einen schnellen Überblick einiger Basiseigenschaften der Variablenverteilung. Es gibt eine Box, deren vertikale Grenzen das 1. und 3. Quartil der Variablen sind. Dieses Feld verfügt über eine horizontale Linie, die den Medianwert der Variablen darstellt. Der Interquartilsabstand IQR ist gleich Q3-Q1. Der kleine horizontale Strich über dem Feld ist die größte Beobachtung, die kleiner oder gleich dem 3. Quartil plus 1,5 IQR ist. Der kleine horizontale Strich unter dem Feld ist die kleinste Beobachtung, die größer oder gleich dem 1. Quartil minus 1,5 IQR ist. Die Kreise unterhalb oder oberhalb dieser kleinen Striche stellen Beobachtungen dar, die im Vergleich zu allen anderen extrem niedrig (hoch) sind und in der Regel als Ausreißer betrachtet werden. Ausreißer sind Daten, die mindestens 1,5-mal außerhalb des Interquartilsabstands IQR liegen (Abb. 7.9).
7.3
Machine Learning
Machine Learning verwendet entweder überwachtes Lernen, das ein Modell mit bekannten Input- und Outputdaten trainiert, um zukünftige Ergebnisse vorhersagen zu können, oder unüberwachtes Lernen, das verborgene Muster oder intrinsische Strukturen in Eingabedaten findet (Abb. 7.10).
7.3 Machine Learning
123
Abb. 7.9 Eisenkontamination Outlier Detection mit Boxplot
Abb. 7.10 Machine-Learning-Techniken. (Angelehnt an Mathworks 2019)
Überwachtes Lernen Ein überwachter Lernalgorithmus verwendet einen bekannten Satz von Eingabedaten und bekannten Antworten auf die Daten (Ausgabe) und trainiert ein Modell, um vernünftige Vorhersagen für die Reaktion auf neue Daten zu generieren. Überwachtes Lernen verwendet Klassifizierungs- und Regressionstechniken, um Vorhersagemodelle zu entwickeln (Mathworks 2019). Unüberwachtes Lernen Unüberwachtes Lernen findet verborgene Muster oder intrinsische Strukturen in Daten. Es wird verwendet, um Rückschlüsse aus Datensätzen zu ziehen, die aus Eingabedaten ohne gekennzeichnete Antworten bestehen, indem Clustering als die häufigste unüberwachte Lerntechnik verwendet wird. Es wird für die explorative Datenanalyse verwendet, um verborgene Muster oder Gruppierungen in Daten zu finden. Zu den Anwendungen für Clustering gehören Marktforschung und Objekterkennung (Mathworks 2019).
124
7 Artificial Intelligence
7.3.1 Regression Regressionstechniken prognostizieren kontinuierliche Antworten. Typische Anwendungen sind Forecasting, algorithmischer Handel oder die Temperatur einer Maschine (Abb. 7.11). Gegeben ein Datensatz x0, x1⋯xn und ein Satz von Gewichtungsvariablen w0, w1⋯wn mit
x0 x 1 X = x2 x n
und
w0 w 1 W = w2 w n
Abb. 7.11 Regression und Klassifikation. (Angelehnt an Aunkofer 2017)
7.3 Machine Learning
125
Die Nettosumme y ist die Summe der Eingangsvariablen xi multipliziert mit ihren Gewichtungen wi. Wir müssen daher einen der beiden Spaltenvektoren in einen Zeilenvektor transponieren, gemäß Matrixmultiplikationsregeln.
x0 x n 1 y = [ w0 w1 w2 wn ] ⋅ x2 = W T · X = ∑ wi · xi i =0 x n
mit x0 = 1 als Biasinput für den Bias – Schwellwert – w0 WT · X ist das Skalarprodukt zwischen den Vektoren W und X (siehe Abschn. 6.8.5). Normalerweise wird eine Störungsvariable bzw. eine Fehlervariable ε hinzugefügt. Es ist eine unbeobachtete Zufallsvariable, die Noise zu den Beobachtungen hinzufügt. Das wird hier vernachlässigt. Das Modell in Abb. 7.12 beschreibt, wie aus nx-Dimensionen und n+1 Gewichtungen eine Funktion erzeugt wird, die einen Wert y berechnet. Dieser Prozess wird als Forward- Propagation bezeichnet. Um die korrekte Lösung zu finden, müssen wir die Gewichte nur richtig einstellen, indem wir unsere Daten über Back-Propagation trainieren (Aunkofer 2017). Back-Propagation ist ein iterativer Prozess, um die Fehler einer Forward-Propagation zu berechnen und die Gewichtungen wn so anzupassen, dass die Fehler mit einer entsprechenden Fehlerfunktion minimiert werden. Back-Propagation wird in kdibisglobal.com ausführlich erklärt und dort für Übungen und Games für dieses Kapitel verwendet.
Abb. 7.12 Gewichtetes Regressionsmodell
126
7 Artificial Intelligence
7.3.2 Klassifikation Klassifizierungstechniken sagen diskrete Antworten voraus. Sie klassifizieren Eingabedaten in Kategorien. Typische Anwendungen sind Bild- und Spracherkennung, Spamfilter, vorausschauende Wartung oder wenn die Temperatur einer Maschine zu hoch oder zu niedrig ist (Abb. 7.11). Anstatt lineare oder nichtlineare Regressionskurven zu bestimmen, wollen wir Wolken von Messergebnissen identifizieren und in Klassen einteilen, um ihren entsprechenden Klassen, z. B. Hunde zu Hunden und Katzen zu Katzen, neue Eingabedaten zuzuweisen. Die Back-Propagation wird wie im Regressionsmodell verwendet, konzentriert sich jedoch auf das Identifizieren und Trennen von Klassen. Das Regressionsmodell aus Abb. 7.12 wird um eine Aktivierungsfunktion erweitert (Abb. 7.13). Es ist der einfachste binäre lineare Klassifikator, der die Nettosumme in Klassen unterteilt: der Perzeptron-Klassifikator. Es ist die kleinste Form eines künstlichen neuronalen Netzes (Aunkofer 2017). Der binäre lineare Klassifikator ϕ kann wie folgt beschrieben werden. 1 f ur W T · X > 0 y = φ WT· X = ur W T · X < 0 0 f
(
)
Es gibt eine Entscheidungsgrenze für
(
)
y = φ W T · X = 0
Die Entscheidungsgrenze teilt die Hyperebene in zwei Regionen, eine mit ϕ(WT · X) > 0 und eine mit ϕ(WT · X) 0 φ (z) = 0 z ≤ 0
mit
z = W T · X + w0
und dem Ergebnis y
y = φ ( z ) = φ (W T ⋅ X + w0 )
AND-Logik (Abb. 7.16)
za = w1a · x1a + w2 a · x2 a + w0 a = 1·0 + 1·0 − 1, 5 = −1, 5
zb = w1b · x1b + w2 b · x2 b + w0 b = 1·0 + 11 · − 1, 5 = −0, 5
zc = w1c · x1c + w2 c · x2 c + w0 c = 11 · + 1·0 − 1, 5 = −0, 5
zd = w1d · x1d + w2 d · x2 d + w0 d = 11 · + 11 · − 1, 5 = +0, 5
ya = φa ( za ) = φa ( −1,5 ) = 0
yb = φb ( zb ) = φb ( −0,5 ) = 0
yc = φc ( zc ) = φc ( −0,5 ) = 0
yd = φd ( zd ) = φd ( +0,5 ) = 1
130
7 Artificial Intelligence
Abb. 7.16 AND-Entscheidungsgrenze
OR-Logik (Abb. 7.17)
za = w1a · x1a + w2 a · x2 a + w0 a = 1·0 + 1·0 − 0, 5 = −0, 5
zb = w1b · x1b + w2 b · x2 b + w0 b = 1·0 + 11 · − 0, 5 = +0, 5
zc = w1c · x1c + w2 c · x2 c + w0 c = 11 · + 1·0 − 0, 5 = +0, 5
zd = w1d · x1d + w2 d · x2 d + w0 d = 11 · + 11 · − 0, 5 = +1, 5
ya = φa ( za ) = φa ( −0,5 ) = 0
yb = φb ( zb ) = φb ( +0,5 ) = 1
yc = φc ( zc ) = φc ( +0,5 ) = 1
yd = φd ( zd ) = φd ( +1,5 ) = 1
7.4.3 Multilayer-neuronales Netz Wie in Abb. 7.18 dargestellt, erfordert die XOR-Logik zwei Entscheidungsgrenzen. Sie kann nicht mit einem einzigen linearen Perzeptron realisiert werden. Das XOR-Problem kann mit einem Deep Learning neuronalen Netzwerk mit zwei AND-Perzeptrons in einem Hidden Layer und einem OR-Perzeptron als Outputlayer gelöst werden.
7.4 Deep Learning
131
Abb. 7.17 OR-Entscheidungsgrenze
Abb. 7.18 XOR-Entscheidungsgrenzen
Die XOR-Logik kann wie folgt beschrieben werden.
( x1 XOR x2 ) = ( x1 AND ¬x2 ) OR ( ¬x1 AND x2 ) ¬ = NOT
Abb. 7.19 zeigt die Lösung für das XOR-Problem. Wir nehmen an, dass das Netzwerk erfolgreich trainiert wurde. Die Ergebnisse sind die Gewichtungsmatrizen W1, W2, W3.
132
7 Artificial Intelligence
Abb. 7.19 XOR-logik-neuronales Netz mit ReLU-Aktivierungsfunktion. (Angelehnt an Aunkofer 2018)
AND – Neuron 1 (Abb. 7.19)
w +1 W1 = 11 = → W1T = [ w11 w12 ] = [ +1 − 1] w12 −1
mit dem Bias w10 = −0, 5
den Inputdatensätzen
x X = 1 x2
mit
0 0 1 1 Xa = , Xb = , Xc = , Xd = 0 1 0 1
und der Aktivierungsfunktion ϕ1
1 z > 0 φ1 ( z1 ) = 1 0 z1 ≤ 0
mit
z1 = W1T · X + w10
7.4 Deep Learning
133
und dem Resultat y1
(
)
y1 = φ1 ( z1 ) = φ1 W1T · X + w10
z1a = w11a · x1a + w12 a · x2 a + w10 a = 1·0 − 1·0 − 0, 5 = −0, 5
z1b = w11b · x1b + w12 b · x2 b + w10 b = 1·0 − 11 · − 0, 5 = −1, 5
z1c = w11c · x1c + w12 c · x2 c + w10 c = 11 · − 1·0 − 0, 5 = +0, 5
z1d = w11d · x1d + w12 d · x2 d + w10 d = 11 · − 11 · − 0, 5 = −0, 5
y1a = φ1a ( z1a ) = φ1a ( −0,5 ) = 0
y1b = φ1b ( z1b ) = φ1b ( −1,5 ) = 0
y1c = φ1c ( z1c ) = φ1c ( +0,5 ) = 1
y1d = φ1d ( z1d ) = φ1d ( −0,5 ) = 0
AND – Neuron 2 (Abb. 7.19)
w −1 W2 = 21 = → W1T = [ w21 w22 ] = [ −1 + 1] w22 +1
mit dem Bias w20 = −0, 5
den Inputdatensätzen
x X = 1 x2
mit
0 0 1 1 Xa = , Xb = , Xc = , Xd = 0 1 0 1
und der Aktivierungsfunktion ϕ2
1 z > 0 φ2 ( z2 ) = 2 0 z 2 ≤ 0
134
7 Artificial Intelligence
mit z2 = W2T · X + w20
und dem Resultat y2
(
)
y2 = φ2 ( z2 ) = φ2 W2T · X + w20
z2 a = w21a · x1a + w22 a · x2 a + w20 a = −1·0 + 1·0 − 0, 5 = −0, 5
z2 b = w21b · x1b + w22 b · x2 b + w20 b = −1·0 + 11 · − 0, 5 = +0, 5
z2 c = w21c · x1c + w22 c · x2 c + w20 c = −11 · + 1·0 − 0, 5 = −1, 5
z2 d = w21d · x1d + w22 d · x2 d + w20 d = −11 · + 11 · − 0, 5 = −0, 5
y2 a = φ2 a ( z2 a ) = φ2 a ( −0,5 ) = 0
y2 b = φ2 b ( z2 b ) = φ2 b ( +0,5 ) = 1
y2 c = φ2 c ( z2 c ) = φ2 c ( −1,5 ) = 0
y2 d = φ2 d ( z2 d ) = φ2 d ( −0,5 ) = 0
OR – Neuron 3 (Abb. 7.19)
w +1 W3 = 31 = → W3T = [ w31 w32 ] = [ +1 + 1] w32 +1
mit dem Bias w30 = −0, 5
den Inputdatensätzen
y Y = 1 y2
mit
0 0 1 0 Ya = , Yb = , Yc = , Yd = 0 1 0 0
und der Aktivierungsfunktion ϕ3
1 z > 0 φ3 ( z3 ) = 3 0 z3 ≤ 0
Literatur
135
mit z3 = W3T ·Y + w30
und dem Resultat y3
(
)
y3 = φ3 ( z3 ) = φ3 W3T ·Y + w30
z3 a = w31a · y1a + w32 a · y2 a + w30 a = +1·0 + 1·0 − 0, 5 = −0, 5
z3b = w31b · y1b + w32 b · y2 b + w30 b = +1·0 + 11 · − 0, 5 = +0, 5
z3c = w31c · y1c + w32 c · y2 c + w30 c = +11 · + 1·0 − 0, 5 = +0, 5
z3 d = w31d · y1d + w32 d · y2 d + w30 d = +1·0 + 1·0 − 0, 5 = −0, 5
y3 a = φ3 a ( z3 a ) = φ3 a ( −0,5 ) = 0
y3b = φ3b ( z3b ) = φ3b ( +0,5 ) = 1
y3c = φ3c ( z3c ) = φ3c ( +0,5 ) = 1
y3 d = φ3 d ( z3 d ) = φ3 d ( −0,5 ) = 0 Das schließt die XOR-Logik ab.
7.5
Übungen und Quiz
Übungen und Quiz für dieses Kapitel finden Sie unter https://www.kdibisglobal.com/de/ uebungen/ibis/kapitel7. Registrierte Teilnehmer einer aktiven Getränkegamingklasse haben automatischen Zugriff auf Übungen und Quiz. Dozierende können einzelne Übungen für eine Klasse aktivieren oder deaktivieren und den Zugang zum nächsten Kapitel von einem bestandenen Test abhängig machen. Teilnehmer, die nicht für eine aktive Gamingklasse registriert sind, müssen sich separat für kdibisglobal registrieren. Durch Aufrufen des obigen Links wird die Berechtigung automatisch überprüft und es werden die erforderlichen Maßnahmen eingeleitet.
Literatur Alibaba (2017) Deep learning vs. machine learning vs. pattern recognition, Alibaba Cloud. https:// www.alibabacloud.com/blog/deep-learning-vs%2D%2Dmachine-learning-vs%2D%2Dpattern-recognition_207110. Zugegriffen am 25.11.2019
136
7 Artificial Intelligence
Araújo L (2018) Solving XOR with a single Perceptron, Medium.com. https://medium.com/@lucaspereira0612/solving-xor-with-a-single-perceptron-34539f395182. Zugegriffen am 04.01.2020 Aunkofer B (2017) Maschinelles Lernen: Klassifikation vs Regression, Data-Science-Blog.com. https://data-science-blog.com/blog/2017/12/20/maschinelles-lernen-klassifikation-vs-regression/. Zugegriffen am 03.01.2020 Aunkofer B (2018) Machine Learning vs Deep Learning – Wo liegt der Unterschied? Data-Science- Blog.com. https://data-science-blog.com/blog/2018/05/14/machine-learning-vs-deep-learningwo-liegt-der-unterschied/. Zugegriffen am 24.11.2019 Borgen H (2017) How to create a Neural Network in JavaScript in only 30 lines of code. Free CodeCamp. https://www.freecodecamp.org/news/how-to-create-a-neural-network-in-javascriptin-only-30-lines-of-code-343dafc50d49/. Zugegriffen am 24.11.2019 Casey K (2019) How big data and AI work together. The Enterprise Project. https://enterprisersproject.com/article/2019/10/how-big-data-and-ai-work-together?page=1. Zugegriffen am 24.11.2019 European Commission (2019) Number of social media users worldwide 2010–17 with forecasts to 2021. https://ec.europa.eu/knowledge4policy/visualisation/number-social-media-users-worldwide-2010-17-forecasts-2021_en. Zugegriffen am 24.11.2019 Lüning K et al (2002) Looking at trace impurities on silicon wafers using synchrotron radiation, Stanford Synchrotron Radiation Laboratory. https://www-ssrl.slac.stanford.edu/research/highlights_archive/txrf.html. Zugegriffen am 31.12.2019 Mathworks (2019) Machine learning in MATLAB, The Mathworks, Inc. https://ch.mathworks.com/ help/stats/machine-learning-in-matlab.html. Zugegriffen am 30.12.2019 Minsky M, Papert S (1969) Perceptrons. An introduction to computational geometry. Cambridge, MA, MIT Press Rosenblatt F (1958) The perceptron: a probabilistic model for information storage and organization in the brain. Psychol Rev 65(6):386–408 SAS (2019a) Artificial intelligence – what it is and why it matters, SAS Institute. https://www.sas. com/en_us/insights/analytics/what-is-artificial-intelligence.html. Zugegriffen am 24.11.2019 SAS (2019b) Machine learning – what it is and why it matters, SAS Institute. https://www.sas.com/ en_us/insights/analytics/machine-learning.html. Zugegriffen am 24.11.2019 Schuchmann S (2019) History of the first AI Winter, Medium. https://towardsdatascience.com/history-of-the-first-ai-winter-6f8c2186f80b. Zugegriffen am 24.11.2019 Siva C (2018) Machine learning and pattern recognition. DZone. https://dzone.com/articles/machine-learning-and-pattern-recognition. Zugegriffen am 26.11.2019 Statista (2019a) Global digital population as of October 2019. https://www.statista.com/statistics/617136/digital-population-worldwide/. Zugegriffen am 24.11.2019 Statista (2019b) Number of internet users worldwide from 2005 to 2018. https://www.statista.com/ statistics/273018/number-of-internet-users-worldwide/. Zugegriffen am 24.11.2019
Teil II Businesssimulation
8
Kdibis Global
Zusammenfassung
Das virtuelle Unternehmen kdibisglobal.com ist die Onlinegamingumgebung für praktische Anwendungen und Übungen zu den Lerninhalten der Kap. 3, 4, 5, 6 und 7 dieses Buches mit 2 Mio. Lines of Code, 90 Datenbanktabellen und 100.000 Datensätzen, die von jeder Klasse in vier Spielrunden generiert werden, und mit Tausenden von Diagrammen für die Ergebnisanalyse. kdibisglobal.com hat vier konkurrierende Unternehmen. Jedes Unternehmen besitzt eine Getränkedivision und eine Manufacture-Division. Die Getränkedivision ist die Umgebung für Rollenspiele und Onlinegaming in Kap. 9 dieses Buches. Die Manufacture-Division ist als reiner E-Learning-Kurs auf kdibisglobal.com angelegt mit der Theorie der Kap. 3 und Kap. 7 dieses Buches. Die Getränkebereiche der vier Unternehmen haben identische Subdivisionen für Bier, Softdrinks und Wasser mit je 11 Produkten und Geschäftsbereichen, die eine vierstufige Supply Chain bilden. Die Fertigungsbereiche der vier Unternehmen verfügen über eine Sensor- und eine Scannersubdivision mit einem Portfolio von 11 Produkten.
8.1
Kdibis Global Organisation
Nach dem Erwerb einer Getränkekette wurde Kdibis Global (Abb. 8.1) in vier Unternehmen aufgeteilt – Alpha Kdibis, Green Kdibis, Royal Kdibis, Wild Horse Kdibis – und bildet eine Unternehmensgruppe mit identischen Geschäftseinheiten für jedes Unternehmen, eine Getränkedivision mit Subdivisionen Bier, Wasser, Softdrinks und eine Manufacture- Division mit Subdivisionen Scanner und Sensoren (Abb. 8.2). Der in diesem Buch enthaltene Kurs deckt nur den Getränkebereich ab. Die Theorie für den Manufacture-Bereich ist in diesem Buch in den Kap. 3 und Kap. 7 enthalten. Der Manufacture-Kurs wird ausschließlich online beschrieben und durchgeführt. © Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature 2020 K.-D. Gronwald, Integrierte Business-Informationssysteme, https://doi.org/10.1007/978-3-662-59815-3_8
139
140
8 Kdibis Global
Abb. 8.1 Kdibis Global – https://www.kdibisglobal.com
Abb. 8.2 Kdibis-Global-Unternehmensgruppe
8.2
Getränkedivision
Jede Getränkesubdivision hat eine identische vierstufige Supply Chain – Einzelhandel, Verteiler, Großhandel und Produktion (Abb. 8.3). Der Einzelhandel besitzt vier separate Einzelhandelsketten – Einzelhandel 1, Einzelhandel 2, Einzelhandel 3, Einzelhandel 4. Das Direktgeschäft trägt rund 30 % zum Gesamtumsatz jedes Unternehmens bei. 70 % stammen von vier Key Accounts – Großverteiler KDISCOUNT, KDISUPER, KDIVALUE, KDIFRESH – (Abb. 8.4) und alle vier Kdibis-Unternehmen haben Marktanteile bei jedem Key Account (Abb. 8.5).
8.2 Getränkedivision
141
Abb. 8.3 Getränkesubdivisionen
Abb. 8.4 Share of Wallet von Key Accounts bei Kdibis-Unternehmen. (Quelle: Kdibis.com)
Die Studierenden haben Rollen, CEO als Subdivisionsleiter Bier, Wasser oder Softdrinks und Business-Unit-Leiter Einzelhandel, Verteiler, Großhandel und Produktion für die ERP- und SCM-Games und -Übungen. Für die CRM-Games und -Übungen wechseln die Rollen zu Leiter der Einzelhandelsgruppen Einzelhandel 1, Einzelhandel 2,
142
8 Kdibis Global
Abb. 8.5 Share of Wallet der Kdibis-Unternehmen bei Key Accounts. (Quelle: Kdibis.com)
inzelhandel 3, Einzelhandel 4. Die Rolle des CEO als Subdivisionsleiter bleibt unveränE dert, wobei sich einige Verantwortlichkeiten ändern. Die Bier-, Wasser- und Softdrinkssubdivisionen unterscheiden sich bezüglich ihrer Produkte, der jährlichen Bedarfsverteilungen, Umsatz und Profite mit der gleichen Organisationsstruktur. Die Lehrpersonen/Kursleiter haben drei Rollen: • als Dozent, verantwortlich für die Erreichung der Lernziele, • als Supervisor für die Kursadministration, • als Chairperson für jedes der vier Unternehmen, verantwortlich für Reviews und Genehmigung der Teamentscheidungen und Resultate.
8.2.1 Biersubdivision Abb. 8.6 zeigt das Portfolio von 11 Produkten der Subdivision Wild Horse Beer. Das Portfolio ist für alle vier Unternehmen – Alpha Kdibis, Green Kdibis, Royal Kdibis, Wild Horse Kdibis – zu Beginn der Games identisch. Teams können die Portfolios während der
8.2 Getränkedivision
143
Games ändern. Der Bierbedarf geht zurück und es gibt eine jährliche saisonale Bedarfsverteilung (Abb. 8.7). Tab. 8.1 zeigt die Anfangsresultate aller vier Unternehmen für ihr Biergeschäft. Die Zahlen variieren leicht von Game zu Game.
Abb. 8.6 Bier – Portfolio. (Quelle: kdibis.com)
Abb. 8.7 Bier – jährliche Bedarfsverteilung. (Quelle: kdibis.com)
Tab. 8.1 Biersubdivision Ergebnisse nach dem Merger. Zahlen können pro Game variieren Bier Resultate Jahr 0 Unternehmen Alpha Green Royal Wild Horse Total
Bedarf [hl] 199.000 199.000 202.000 212.000 812.000
Wachstum [%] −8,0 −7,0 −10,0 −9,0 −8,5
Umsatz [lokale Währung] 53.000.000 55.000.000 58.000.000 58.000.000 224.000.000
EBITDA [%] 15,0 15,0 16,0 15,0 15,3
144
8 Kdibis Global
8.2.2 Wassersubdivision Abb. 8.8 zeigt das Portfolio von 11 Produkten der Subdivision Wild Horse Wasser. Das Portfolio ist für alle vier Unternehmen – Alpha Kdibis, Green Kdibis, Royal Kdibis, Wild Horse Kdibis – zu Beginn der Games identisch. Teams können die Portfolios während der Games ändern. Der Wasserbedarf wächst stetig und es gibt eine jährliche lineare Bedarfsverteilung (Abb. 8.9). Tab. 8.2 zeigt die Anfangsresultate aller vier Unternehmen für ihr Wassergeschäft. Die Zahlen variieren leicht von Game zu Game.
8.2.3 Softdrinkssubdivision Abb. 8.10 zeigt das Portfolio von 11 Produkten der Subdivision Wild Horse Softdrinks. Das Portfolio ist für alle vier Unternehmen – Alpha Kdibis, Green Kdibis, Royal Kdibis, Wild Horse Kdibis – zu Beginn der Games identisch. Teams können die Portfolios
Abb. 8.8 Wasser – Portfolio. (Quelle: kdibis.com)
Abb. 8.9 Wasser – jährliche Bedarfsverteilung. (Quelle: kdibis.com)
8.2 Getränkedivision
145
während der Games ändern. Der Softdrinksbedarf wächst gering und es gibt eine jährliche lineare Bedarfsverteilung (Abb. 8.11). Tab. 8.3 zeigt die Anfangsresultate aller vier Unternehmen für ihr Softdrinksgeschäft. Die Zahlen variieren leicht von Game zu Game. Tab. 8.2 Wassersubdivision Resultate nach dem Merger. Zahlen können pro Game variieren Wasser Resultate Jahr 0 Unternehmen Alpha Green Royal Wild Horse Total
Bedarf [kl] 18.400 18.500 18.400 18.400 73.700
Wachstum [%] +21,0 +20,0 +18,0 +20,0 +19,8
Umsatz [lokale Währung] 22.000.000 24.000.000 24.000.000 24.000.000 94.000.000
Abb. 8.10 Softdrinks – Portfolio. (Quelle: kdibis.com)
Abb. 8.11 Softdrinks – jährliche Bedarfsverteilung. (Quelle: kdibis.com)
EBITDA [%] 6,0 6,0 7,0 6,0 6,3
8 Kdibis Global
146
Tab. 8.3 Softdrinkssubdivision Resultate nach dem Merger. Zahlen können pro Game variieren Softdrinks Resultate Jahr 0 Unternehmen Alpha Green Royal Wild Horse Total
Bedarf [kl] 16.800 16.700 16.700 16.700 66.900
Wachstum [%] +3,0 +2,0 +3,0 +2,0 +2,5
Umsatz [lokale Währung] 45.000.000 42.000.000 43.000.000 42.000.000 172.000.000
EBITDA [%] 34,0 34,0 35,0 34,0 34,3
8.2.4 Getränkedivision Post-Merger-Situation Dies ist für alle vier Unternehmen und alle Getränkeproduktlinien identisch. Vertriebsstruktur Kunden – Einzelhandelskette 1–4 Die Bestellungen werden wöchentlich erfasst und je nach Lagerbestand erfolgt ein Auftrag an den Verteiler. Das Ziel ist eine minimale Lagerhaltung bei den einzelnen Abhollagern bei gleichzeitiger hoher Lieferbereitschaft. Es gibt keine Zwischenlager. Die Lieferung erfolgt direkt vom Verteiler an das jeweilige Abhollager. Es gibt keine Bedarfsplanung, sondern der Bedarf wird ad hoc befriedigt und es besteht ein hoher Anspruch auf sofortige Auftragserfüllung an den Verteiler. Einzelhandelskette 1 versorgt eigene Läden und große Retail-Ketten mit dem gesamten Portfolio in der Regel außer Kegs. Es werden neben Getränken in den eigenen Läden auch andere Waren, vor allem Genusswaren angeboten. Einzelhandelskette 2 versorgt eigene Getränkemärkte mit dem gesamten Portfolio außer Einzelflaschen. Es werden ausschließlich Getränkegebinde und Kegs an Privatkunden und Restaurants geliefert. Einzelhandelskette 3 betreibt eigene reine Getränkeboutiquen in Malls und in prominenten Einkaufsstraßen mit einem eigenen Brand. Es wird ausschließlich an Privatkunden geliefert. Kästen und Kegs werden an Kunden für spezielle private oder Firmenanlässe geliefert, sind allerdings nur auf Anfrage für einen ausgewählten Stammkundenkreis erhältlich. Einzelhandelskette 4 versorgt eigene Getränkeabhollager ausschließlich mit Kästen und Kegs. Kunden sind Restaurants, Gaststätten, Vereine und Großanlässe. Die Einzelhandelskette 4 hat einen proaktiven Sales und einen festen Endkundenstamm mit teilweise festen Lieferverträgen und Abnahmeverpflichtungen, die vor allem Restaurants und Gaststätten betreffen.
8.2 Getränkedivision
147
Vertriebsstruktur Kunden – Verteiler Der Verteiler hat keinen Direktverkauf an Endkunden, sondern versorgt vier sehr unterschiedliche Einzelhandelsketten, die über das ganze Land verteilt sind. Die Bestellungen werden direkt von den Einzelhandelsketten entgegengenommen und je nach Lagerbestand erfolgt ein Auftrag an den Großhändler. Das Ziel ist eine minimale Lagerhaltung. Da der Bedarf über die gesamte Supply Chain bis zum Endkunden nicht transparent ist, wird der Forecast mit Lager- und somit kostenintensiven Pufferkapazitäten geschätzt. Vertriebsstruktur Kunden – Großhandel Der Großhändler hat keinen Direktverkauf an Endkunden, Einzelhändler, sondern vertreibt ausschließlich über einen Verteiler. Die Bestellungen werden direkt vom Verteiler entgegengenommen und je nach Lagerbestand erfolgt ein Auftrag an die Produktion. Das Ziel ist eine minimale Lagerhaltung. Da der Bedarf über die gesamte Supply Chain bis zum Endkunden nicht transparent ist, wird der Forecast mit Lager- und somit kostenintensiven Pufferkapazitäten geschätzt. Vertriebsstruktur Kunden – Produktion Die Produktion hat keinen Direktverkauf an Endkunden, Einzelhändler oder Verteiler, sondern vertreibt ausschließlich über einen Großhändler. Der Aufbau eines Exportgeschäfts war angedacht, ist jedoch durch den Merger zunächst einmal gestoppt worden. Die Bestellungen werden direkt vom Großhändler entgegengenommen und je nach Lagerbestand erfolgt ein Auftrag an die Produktion. Die Produktionskapazitäten werden grob geplant und können mit einem Vorlauf von 7 Tagen erweitert werden. Das Ziel ist eine minimale Lagerhaltung. Da der Bedarf über die gesamte Supply Chain bis zum Endkunden nicht transparent ist, wird der Forecast mit Lager- und somit kostenintensiven Pufferkapazitäten geschätzt. IT-Infrastruktur – Einzelhandelsketten 1–4 Es gibt keine Auftragsverwaltung, keine Lagerverwaltung und keine Personalverwaltung, ausschließlich ein Finanzsystem, über das die Rechnungen abgewickelt werden. Die Bestellungen werden bei den Läden telefonisch abgefragt, wobei jeder Verkaufsmitarbeiter diese Daten in einem eigenen separaten PC verwaltet. Die Bestellungen werden gebündelt und dann direkt an den Verteiler mit Lieferadresse und Lieferdatum verschickt. Es gibt keine Transparenz bezüglich des Bedarfs und es sind weder Bedarfsplanung noch Fore casting als Prozesse institutionalisiert. IT-Infrastruktur – Verteiler Es gibt eine Auftragsverwaltung, eine kleine Lagerverwaltung und eine Personalverwaltung, die beide in ein Finanzsystem integriert sind. Die Bestellungen werden von den Einzelhandelsketten per E-Mail, telefonisch (mit späterer schriftlicher Auftragsbestätigung), per Fax oder normaler Post entgegengenommen. Sie werden mit dem Lagersystem manuell abgeglichen und es erfolgt je nach Lagerbestand die Eingabe einer Bestellung an den
148
8 Kdibis Global
Großhandel über das Onlineportal der Produktion. Es gibt keine Transparenz bezüglich des Bedarfs und es sind weder Bedarfsplanung noch Forecasting als Prozesse institutionalisiert. IT-Infrastruktur – Großhandel Es gibt eine Auftragsverwaltung, eine kleine Lagerverwaltung und eine Personalverwaltung, die beide in ein Finanzsystem integriert sind. Die Bestellungen werden vom Verteiler per E-Mail, telefonisch (mit späterer schriftlicher Auftragsbestätigung) oder per Fax entgegengenommen. Sie werden mit dem Lagersystem manuell abgeglichen und es erfolgt je nach Lagerbestand die Eingabe einer Bestellung über das Onlineportal der Produktion. Es gibt keine Transparenz bezüglich des Bedarfs und es sind weder Bedarfsplanung noch Forecasting als Prozesse institutionalisiert. IT-Infrastruktur – Produktion Die Produktion ist weitgehend automatisiert. Es gibt ein ERP-System für die Produktionsplanung, Finance und HR und CRM. CRM wird ausschließlich für die Auftragserfassung verwendet. Der Großhändler gibt Bestellungen online über das Onlineportal der Produktion ein. Ein Supply-Chain-Management wurde als bisher nicht notwendig erachtet. Das ändert sich allerdings mit dem Merger. Das ERP-System ist 8 Jahre alt und ein größeres Upgrade steht an, ist allerdings aufgrund des Mergers „on hold“.
8.3
Manufacture-Division
Der Manufacture-Kurs beginnt im sechsten Jahr nach der Aufspaltung in die vier Unternehmen. Alle vier haben zwei identische Subdivisionen – Scanner und Sensor (Abb. 8.12) – mit identischen Portfolios von drei Sensorprodukten und acht Scannerprodukten (Abb. 8.13). Die Sensorsubdivision produziert verschiedene Sensortypen für den globalen Markt und einen optischen Sensor für ihre eigenen Scannerproduktlinien, einschließlich des Controllerchips für dieses High-End-Produkt. Das ursprüngliche Design des Chips stammte von Kdibis Global vor der Aufspaltung, wurde aber von jedem der vier Unternehmen optimiert und modifiziert, um einen Wettbewerbsvorteil zu erzielen. Das Ergebnis ist, dass alle vier Teams unterschiedliche Leistungen pro Produkt, pro Subdivision und damit für die gesamte Manufacture-Division zu Beginn des Kurses haben. Der Schwerpunkt dieses Kurses liegt auf der Implementierung von Blockchain- Technologien in Kombination mit Deep Learning Systemen, um Multilayer neuronale Netzwerke für die globale Optimierung der Supply Chain von Rohstoffminen bis hin zur Produktion aufzubauen und zu trainieren sowie Kanban-Systeme für die Sensorproduktion zu optimieren und für die Entwicklung von Marketingstrategien für die verschiedenen Produkte und Märkte. Die Teilnehmer des Manufacture-Kurses bilden Data-Scientist- Teams, um die Leistung ihrer jeweiligen Produktlinien zu verbessern. Eine detaillierte
8.3 Manufacture-Division
149
Abb. 8.12 Manufacture-Subdivisionen
Abb. 8.13 Manufacture-Produktportfolio
Produktanalyse zeigt, dass alle vier Unternehmen erhebliche Probleme mit mindestens einem ihrer Produkte haben. Die Scanner- und Sensormärkte wachsen weltweit zwischen 11 % und 16 % pro Jahr. Die Gründe für einstelliges oder sogar negatives Wachstum müssen identifiziert und gelöst werden. Es gibt Probleme in den Montage- und Produktionslinien, Lieferantenprobleme, globale Supply-Chain-Probleme mit Rohstofflieferanten und andere. Die Studierenden werden als Mitglieder der Data-Scientist-Teams Deep Learning Methoden verwenden, um intelligente Lösungen und Performanceverbesserungen für alle Produkte und Geschäftsbereiche zu erzielen. Für dieses Kapitel steht das gesamte Material, einschließlich Tools, Daten, Handbücher und Schulungsmaterial, im Gaming- und Übungsbereich zur Verfügung. Die Theorie für diesen Kurs ist in den Kap. 3 und Kap. 7 enthalten. Der Manufacture-Kurs ist online als E-Learning-Kurs bei kdibisglobal.com verfügbar.
9
Getränke: Rollenspiel und Games
Zusammenfassung
Unabhängig davon, ob die Games während des Kurses aktiv gespielt werden, ist eine Registrierung der Kursteilnehmenden bei www.kdibisglobal.com zwingend, da hier ergänzendes Unterrichtsmaterial sowie Zusatzinformationen als Downloads sowie online-Übungen zur Verfügung stehen. Diese geschieht vorzugsweise unmittelbar vor Kursbeginn.
9.1
Rollenverteilung
Es müssen mindestens fünf Rollen pro Unternehmen besetzt werden: CEO, Leiter Einzelhandel, Leiter Verteiler, Leiter Großhandel, Leiter Produktion für das ERP und die SCM-Games (Abb. 9.1) und CEO, Leiter Einzelhandel 1, Leiter Einzelhandel 2, Leiter Einzelhandel 3, Leiter Einzelhandel 4 für die CRM-Games (Abb. 9.2). Es können bis zu zwei Teammitglieder pro Rolle nominiert werden. Damit ergeben sich folgende Szenarios: a) 5–10 Kursteilnehmer: eine aktive Gruppe, drei Gruppen, die vom Computer gespielt werden, b) 11–15 Kursteilnehmer: zwei aktive Gruppen, zwei Gruppen, die vom Computer gespielt werden, c) 16–20 Kursteilnehmer: drei aktive Gruppen, ein Team, das am Computer gespielt wird, d) 20–25 Kursteilnehmer: vier aktive Gruppen. Für Klassen mit mehr als 25 Teilnehmern können in kdibisglobal.com zusätzliche Kurse generiert werden. Das ermöglicht eine nahezu unbegrenzte Anzahl von Teilnehmern pro Klasse. Die ideale Anzahl von Teilnehmern pro Kurs ist 20.
© Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature 2020 K.-D. Gronwald, Integrierte Business-Informationssysteme, https://doi.org/10.1007/978-3-662-59815-3_9
151
152
9 Getränke: Rollenspiel und Games
Abb. 9.1 Rollen für die Getränke-ERP- und -SCM-Games
Abb. 9.2 Rollen für das Getränke-CRM-Game
9.2
Vorbereitung
Um sich in das kdibis-Businessgame als integrierten Bestandteil dieses Lehrbuchs einzuloggen, ist die Registrierung entweder als Supervisor oder Student erforderlich. Die Anmeldung als Student ist für die Teilnahme an einem Game nicht erforderlich. Die Zulassung von Studenten erfolgt durch den Supervisor. Für den Zugang zu den Übungen und zu ergänzendem Onlinematerial ist eine spezielle Registrierungs- und Berechtigungsprüfung erforderlich. Wenn die Teilnehmer bereits für einen Kurs angemeldet sind, ist keine zusätzliche Anmeldung erforderlich. Dieses Buch ist für jede Registrierung obligatorisch. Umgekehrt erfordert die volle Nutzung dieses Buches die Games. Die Zugriffs- und Registrierungsprozesse zu kdibisglobal.com werden in einem separaten Manual als Download oder Onlinepräsentation beschrieben. Einfach als Gast einloggen und in das Visitor Center gehen: 1. https://www.kdibisglobal.com → Log-in, 2. Deutsch → Business Games Deutsch → Gast,
9.4 Kursmanagement
153
3. Deutsch → Visitor Center → Visitor Check-in, 4. Downloads → Manual → Administrator Manual D. Das Manual enthält detaillierte Anleitungen für die Anmeldung, für den Aufbau der eigenen Kursumgebung und zu den Games sowie Zugang zu Übungen und anderem Zusatzmaterial und Funktionen. Das Admin Manual steht auch online als Präsentation zur Verfügung. Der Zugang zu Downloadmaterial ist sprachabhängig. Die Sprache kann im Visitor Center jederzeit geändert werden. Die Änderung der Sprache außerhalb des Visitor Center ist nur durch erneutes Einloggen mit der entsprechenden Sprache möglich. Die Website https://www.kdibis.com ist mit der vorherigen Ausgabe dieses Lehrbuchs verknüpft und wird für etwa ein Jahr nach der Veröffentlichung dieses Lehrbuchs zugänglich bleiben. Neuregistrierungen sind nach der Veröffentlichung dieses Lehrbuches nur über kdibisglobal.com möglich.
9.3
Gamestruktur und Organisation
Games werden in Kursen organisiert. Jedes Supervisorkonto kann eine prinzipiell unbegrenzte Anzahl von Kursen erstellen. Für jeden Kurs kann eine praktisch unbegrenzte Anzahl von Games erstellt werden, aber nur ein Game kann jeweils aktiv gespielt werden. Games können jederzeit archiviert und aufgerufen werden, auch während eines aktiven Spiels. Jeder Kurs hat eine bestimmte Anzahl von registrierten Teilnehmern. Die Teilnehmer werden in Teams organisiert – Alpha, Green, Royal, Wild Horse. Jedes Teammitglied hat eine bestimmte Rolle – CEO, Leiter Einzelhandel, Leiter Verteiler, Leiter Großhandel, Leiter Produktion …. Die ideale Teamgröße ist fünf. Es kann mehr als ein Mitglied pro Rolle geben, idealerweise nicht mehr als zwei. Alle Rollen verfügen je nach Gametyp über spezielle Berechtigungen. Supervisor werden durch ihre E-Mail-Adresse identifiziert. Es kann nur eine Supervisorregistrierung pro E-Mail-Adresse geben. Dieselbe E-Mail-Adresse kann allerdings als Benutzername verwendet werden, um in einer praktisch unbegrenzten Anzahl von Kursen als Teilnehmer registriert zu werden, jedoch nur in einer Rolle pro Kurs.
9.4
Kursmanagement
Die Initiierung von Kursen und Games kann in vier Schritten erfolgen.
9.4.1 Schritt 1 – Supervisorregistrierung Der detaillierte Registrierungsprozess ist im Administratormanual beschrieben (siehe Abschn. 9.2):
154
9 Getränke: Rollenspiel und Games
1. https://www.kdibisglobal.com → Log-in, 2. Deutsch – Business Game Deutsch – Registrieren, 3. Anmeldeformular ausfüllen und mit Submit abschließen. Eine Bestätigungs-E-Mail wird an die angegebene E-Mail-Adresse gesendet, die als Benutzername dient und mit einem automatisch generierten Passcode den Zugang zum kdibisglobal-Portal öffnet. Dieser Passcode kann nicht geändert werden. 4. Durch Anklicken des Aktivierungslinks wird die Supervisorregistrierung abge schlossen. 5. Da die unbegrenzte Nutzung des kdibisglobal-Portals mit diesem Lehrbuch verknüpft ist, ist eine Berechtigungsprüfung erforderlich, wenn sich ein Supervisor zum ersten Mal einloggt. Ein zufälliger Satz von sechs Bildern aus dem Buch muss mit der richtigen Abbildungsnummer in der richtigen Reihenfolge identifiziert werden. Wenn eine der Antworten nicht korrekt ist, wird ein neuer Satz von sechs Bildern generiert.
9.4.2 Schritt 2 – Kurse generieren Der detaillierte Registrierungsprozess ist im Administratormanual (Abschn. 9.2) beschrieben: 1. https://www.kdibisglobal.com → Log-in, 2. Deutsch → Business Game Deutsch → Login Business Game, 3. als Supervisor mit der registrierten E-Mail-Adresse und dem Supervisorpasscode anmelden, 4. Sprache wählen. Um die Sprache nach dem Log-in zu ändern, ausloggen und neu einloggen. 5. In der Lobby auf das Kdibis-Logo klicken. Supervisor haben Zugriff auf alle Unternehmen. 6. Den Palmscanner auf der rechten Seite klicken und im Büro das Desktopbildschirmlogo klicken, um zum Supervisormenü zu gelangen. 7. Im Supervisormenü Administrator → Kurs Admin → Neuer Kurs wählen. 8. Den Anweisungen im Administratorhandbuch folgen. 9. Nach erfolgreicher Kursgenerierung zurück zum Supervisormenü gehen und den soeben generierten Kurs als aktiven Kurs auswählen. Wenn mehr als ein Kurs vorhanden ist, ist der ausgewählte Kurs während der gesamten Sitzung aktiv.
9.4.3 Schritt 3 – Games generieren Der detaillierte Prozess zur Gamegenerierung wird im Administratormanual (Abschn. 9.2) beschrieben:
9.4 Kursmanagement
155
1. Im Supervisormenü einen Kurs als aktiven Kurs auswählen. Wenn kein Kurs vorhanden ist, mit Schritt 2 (Abschn. 9.4.2) fortfahren. 2. Im Supervisormenü Administrator → Game Admin → Neues Game auswählen. 3. Den aktiven Kurs aus dem Menü auswählen. Wenn kein aktiver Kurs vorhanden ist, einen Kurs im Supervisormenü aktivieren oder mit Schritt 2 (Abschn. 9.4.2) fortfahren. 4. Einen Gametyp aus dem Menü auswählen. Dieses Buch behandelt die Gametypen SCM1 – Bullwhip Game, SCM2 – Inventory-Management, SCM3 – Machine Learning, CRM1 – Marketing, CRM2 – Marketing mit Big Data. 5. Den Anweisungen im Administratormanual folgen.
9.4.4 Schritt 4 – Teilnehmer registrieren Der detaillierte Registrierungsprozess ist im Administratormanual (Abschn. 9.1.2) beschrieben: . Ein Kurs muss aktiv sein (siehe oben). 1 2. Im Supervisormenü Administrator → Stud Admin → Stud registrieren wählen. 3. Den Anweisungen im Administratormanual folgen.
9.4.5 Teilnehmer-Log-in Sobald Teilnehmer für eine aktive Klasse und ein aktives Game registriert und einem Team und einer Rolle zugewiesen wurden, können sie sich mit ihren Anmeldeinformationen einloggen: 1. https://www.kdibisglobal.com → Log-in, 2. Deutsch → Business Game Deutsch → Login Business Game, 3. Log-in mit E-Mail-Adresse und Passcode, 4. Sprache wählen. Um die Sprache nach dem Log-in zu ändern, ausloggen und erneut einloggen. 5. In der Lobby auf das Alpha-, Green-, Royal- oder Wild-Horse-Logo klicken. Wenn der Teilnehmer erfolgreich identifiziert wurde, wird der Zugriff zu dem entsprechenden Unternehmen gewährt. 6. Den Handflächenscanner auf der rechten Seite klicken und im ausgewählten Firmenbüro das Desktopbildschirmlogo klicken, um auf das Dashboard des aktuellen Kurses zuzugreifen. 7. Detaillierte Anweisungen finden sich im Administratormanual.
156
9.5
9 Getränke: Rollenspiel und Games
Entwicklung und Implementierung einer ERP-Strategie
Es beginnt mit einer typischen Post-Merger Situation mit Geschäftsbereichen, die weder organisatorisch noch technisch harmonieren. Mit den strategischen Zielen einer ERP- Einführung – Standardisierung der Geschäftsprozesse, Vereinheitlichung der Stammdaten, Optimierung der IT-Infrastruktur – wird diese Situation für die vier Unternehmensgruppen entsprechend bereinigt. Die Analyse der Geschäftssituation anhand der Ergebnisse des Vorjahres und eine Produktportfolioanalyse sind Ausgangsbasis für ein erstes Reviewmeeting, an dem die Teams ihre Analysen und Strategien vorstellen.
9.5.1 Situationsanalyse Die neuen Geschäftsleitungen der vier Unternehmensgruppen stehen alle vor demselben Problem der Integration bisher nicht zusammengehöriger, individueller Unternehmens teile, beginnend bei jeder Einzelhandelsgruppe, über Verteiler, Großhandel, Produktion bis zu acht voneinander abhängigen, bisher allerdings unabhängig agierenden Geschäftsbereichen mit voller P&L-Verantwortung und mit einer eigenen Vergangenheit. Diese werden online im aktiven Kurs und im Game detailliert dokumentiert. Folgende Problembereiche wurden auf den ersten Blick identifiziert: • • • •
aktuelle Geschäftslage, M&A-IT-Integrationsstrategie, Geschäftsprozessanalyse, insbesondere der Order-to-Cash-Prozess, Produktportfolioanalyse.
9.5.2 ERP-Strategie Vertriebsstrukturen, Geschäftsprozesse sowie die IT-Infrastruktur sind über ERP mitei nander vernetzt und lassen sich somit mithilfe einer geeigneten ERP-Strategie standardisieren und mit geeigneten Softwaresystemen realisieren. Die operative Sicht auf ein ERP- System beschreibt es als System, das sämtliche in einem Unternehmen ablaufenden Geschäftsprozesse unterstützt. Es enthält Module für die Bereiche Beschaffung, Produktion, Vertrieb, Anlagenwirtschaft, Finanz- und Rechnungswesen usw., die über eine gemeinsame Datenbasis miteinander verbunden sind (Springer Gabler Verlag o. J.). Die Einbeziehung von Businesszielen in die Überlegungen führt zu einem eher strategischen Ansatz für die Implementierungsziele eines ERP-Systems. Die Standardisierung von Geschäftsprozessen über Organisationsgrenzen hinaus kann enorme Synergieeffekte haben. Organisationen können Best Practices im System implementieren und damit wird das ERP-System als Businesstool und nicht als IT-Tool wahrgenommen (Desai und Srivastava 2013).
9.5 Entwicklung und Implementierung einer ERP-Strategie
157
Über die letzten 20 Jahre haben vor allem globale Unternehmen ERP-Implementierungen erfolgreich aus Businesssicht durchgeführt, um Best Practices zu realisieren und globale Synergieeffekte zu erzielen. Eines der größten Projekte seiner Art ist Nestlé GLOBE (Nestlé 2014). Das Projekt begann im Jahr 2000. Der damalige Nestlé-CEO, Peter Brabeck, hat die GLOBE-Ziele seinerzeit wie folgt formuliert: „I want this to be very clear. With GLOBE we will create common business processes, standardized data, and a common IT infrastructure – but do not think this is an IT initiative. We are going to fundamentally change the way we run this company“ (Killing 2010).
Damit hat Brabeck die drei fundamentalen unternehmerischen Ziele einer ERP- Implementierung formuliert: • Schaffung einer einheitlichen Geschäftsprozessarchitektur, • Standardisierung interner und externer Stammdaten, • Standardisierung der Informationssystemarchitektur. Diese drei Ziele sind von den Unternehmensleitungen hier zu formulieren und auf ihre Unternehmenssituation zu übertragen.
9.5.3 M&A-IT-Integration Grundsätzlich lassen sich vier Szenarien unterscheiden. S1 – Koexistenz/Symbiose Dabei werden existierende IT-Systeme erhalten. Die Integration erfolgt über Schnittstel len und Portale oberhalb der aktuellen Systeme. Der Fokus liegt hierbei auf der Geschäftsprozessstandardisierung und Stammdatenbereinigung. Diese ist für alle existierenden Systeme separat durchzuführen und erfordert zusätzlichen Aufwand (Abb. 9.3).
Abb. 9.3 M&A-IT-Integration – Koexistenz/Symbiose
158
9 Getränke: Rollenspiel und Games
Abb. 9.4 M&A-IT-Integration – Absorption/Übernahme
• Integrationsgeschwindigkeit ist hoch • Kosteneinsparungen sind gering • Synergieeffekte sind gering
S2 – Absorption/Übernahme Die dominante IT-Organisationsform wird erhalten. Daraus wird ein ERP-Template entwickelt, das in allen Geschäftsbereichen implementiert wird. Damit werden alle drei primären strategischen ERP-Ziele erreicht. Das erfordert allerdings einen hohen Aufwand an Business Process Reengineering in den Geschäftsbereichen, in denen das neue System implementiert wird, verbunden mit entsprechendem Schulungsaufwand und Organisational Changemanagement (Abb. 9.4). • Integrationsgeschwindigkeit ist gering • Kosteneinsparungen sind hoch • Synergieeffekte sind gering
S3 – Best of Breed/Standardisierung Diese verwirklicht die Ziele eines Mergers in Hinblick auf die Erzielung von Mehrwert durch Kapitalisierung von Synergien aller Organisationseinheiten. Das Ergebnis ist ebenfalls ein ERP-Template, das allerdings die Synergie der Best Practices aller Geschäftsbereiche darstellt und somit Business Process Reengineering und Organisational Changemanagement auf allen Ebenen und in allen Organisationen erfordert (Abb. 9.5). • Integrationsgeschwindigkeit ist gering • Kosteneinsparungen gering • Synergien sind mittel
9.5 Entwicklung und Implementierung einer ERP-Strategie
159
Abb. 9.5 M&A-IT-Integration – Best of Breed/Standardisierung
Abb. 9.6 M&A-IT-Integration – Transformation
S4 – Transformation Die Installation einer vollständig neuen IT-Plattform und Infrastruktur unter Ablösung existierender Systeme ist die umfassendste und aufwendigste der vier Strategien. Resultat ist ebenfalls ein ERP-Template. Diese Strategie macht Sinn, wenn bestehende Systeme veraltet sind oder sie die neuen Anforderungen nicht erfüllen können (Abb. 9.6). • Integrationsgeschwindigkeit niedrig • Kosteneinsparung medium • Synergien sind mittel
9.5.4 M&A-IT-Integrationsbereiche und Integrationssequenz M&A-IT-Integrationsbereiche umfassen Geschäftsbereiche, Technologie, Anwendungen und Daten (Abb. 9.7). Security, Daten, User Interface (UI) und Anwendungskonsolidierung sind die Basis für eine erfolgreiche Integration (Abb. 9.8)
160
9 Getränke: Rollenspiel und Games
Abb. 9.7 M&A-IT-Integrationsbereiche
Abb. 9.8 M&A-IT-Integrationssequenz
Identity Management • Identity Management zentralisieren, um die Security in Echtzeit zu gewährleisten • Erhöht die Flexibilität und Agilität von Geschäftsbereichen für die Verwaltung von Mitarbeiteridentitäten • Erhöht die Flexibilität und Agilität von Geschäftsbereichen für die Verwaltung von Identitäten über Unternehmensgrenzen hinweg mit Kunden, Distributoren oder Lieferanten
9.5 Entwicklung und Implementierung einer ERP-Strategie
161
Data Consolidation • Aggregiert Finanzdaten, bietet eine homogene Sicht auf Produkte, Kunden und Mitarbeiter • Hilft, Kunden zu binden, indem es sich auf diejenigen mit den besten Beziehungen und der größten Profitabilität konzentriert • Optimiert das Produktportfolio, indem margenstarke Produkte beibehalten und der Rest aus dem Portfolio genommen wird User Interface Consolidation • Konsolidiert Benutzeroberflächen • Bietet Kunden, Mitarbeitern und Geschäftspartnern eine einheitliche Sicht auf das Business Application Consolidation • Identifiziert Rationalisierungspotenzial von Anwendungen für die –– Beibehaltung von Anwendungen beider Einheiten –– Konsolidierung von Anwendungen –– Ablösung von Anwendungen –– Transformation von Anwendungen Technology Consolidation • Identifiziert Technologien zur Rationalisierung zur Optimierung von –– Hardware –– Plattform –– Netzwerk Process Redesign • Identifiziert Geschäftsprozesse zur Rationalisierung für –– Prozessverbesserungen –– Prozess- und Regelkonsolidierung –– Prozesstransformation Organizational Realignment • Neuausrichtung von IT-Dienstleistern – intern und extern –– zentralisierte IT-Dienstleistungen –– Lieferantenkonsolidierung Operational Excellence • Effektive und effiziente Bereitstellung von IT-Services, die einen messbaren Mehrwert für die Unternehmen bieten • Businessorientierte Prozesse, die definiert, wiederholbar und effizient sind • Geschultes Personal mit klar definierten Rollen und Verantwortung
162
9 Getränke: Rollenspiel und Games
9.5.5 M&A-IT-Integrationsresultate Businessprozessintegration • Eliminierung von Prozessvarianten und Standardisierung mit einem globalen Template IT-Infrastrukturintegration • Integration von Data Centers, Netzwerken, Datenspeichern, Servern Benutzerinfrastrukturintegration • Integration von E-Mail, Service Desks, Unternehmensportalen … Anwendungsintegration • Konsolidierung von Backoffice-, Middleware- und Frontoffice-/Nischen-/domainspezifischen Anwendungen • Funktionelle Überlappung von Anwendungen –– Geschäftsprozesse zerlegen, um eine Liste von Duplikaten, überlappenden und sich ergänzenden Anwendungen zu erstellen – insbesondere bei Frontofficeanwendungen • Technische Überschneidungen bei Middleware und Daten • Prozessüberschneidungen im Backoffice und bei ERP-Schichten Datenintegration • Archivierung alter Transaktions- und Stammdaten und Migration aktiver Transaktionsund Stammdaten in ein neues Schema IT-Prozess – Toolsintegration • IT-Prozess – 2-stufiger Vereinheitlichungsplan: –– IT-Unterstützungsprozess vereinheitlichen –– Vereinheitlichung des IT-Entwicklungsprozesses und des erweiterten Supportprozesses
9.5.6 Produktportfolioanalyse, Bereinigung und Geschäftsprozessstandardisierung Die Bereinigung der Portfolios ist sowohl ein ERP- als auch ein CRM-Thema. Hier ergeben sich die größten Differenzen sowohl innerhalb einer Unternehmensgruppe zwischen den vier Einzelhandelsketten als auch zwischen den Unternehmensgruppen. Das Ausgangsmaterial für die Analyse findet sich in Kap. 8 bei den Themen Produktportfolios, Resultate Vorjahr sowie Markt-Vertriebsstruktur-Kunden und im Downloadbereich bei
9.5 Entwicklung und Implementierung einer ERP-Strategie
163
kdibisglobal.com für die detaillierten Produktportfolios der Einzelhandelsketten 1, 2, 3, 4, die für alle vier Unternehmen unterschiedlich sind. Ein Vergleich der jeweiligen Portfolios der drei Mitbewerber mit den eigenen kann die Entscheidung maßgeblich mitbeeinflussen. Es liegt im Ermessen der Kursleitung, ob sie Portfolioänderungen im späteren Verlauf des Kurses zulässt, zum Beispiel vor dem CRM-Marketinggame. Diese Entscheidung kann jederzeit während des laufenden Kurses erfolgen. Die Portfoliobereinigung findet ausschließlich bei den Einzelhandelsketten statt. Das Gesamtportfolio der Unternehmensgruppe ergibt sich aus der Summe der Portfolios aller vier Einzelhandelsketten. Zusätzlich zur Wettbewerbssituation sind bei der Portfolioauswahl die Struktur der jeweiligen Einzelhandelskette und ihr Zielmarkt zu berücksichtigen. Der Order-to-Deliver-Prozess lässt sich weitgehend über die gesamte Versorgungskette standardisieren außer zwischen Produktion und Rohmateriallager. Order-to-Deliver-Prozess Einzelhandel 1 – Verteiler Die Einzelhandelskette 1 versorgt eigene Läden und große Einzelhandelsketten mit dem gesamten Portfolio in der Regel außer Kegs. Es werden neben Getränken in den eigenen Läden auch andere Waren, vor allem Genusswaren angeboten (Abb. 9.9). Order-to-Deliver-Prozess Einzelhandelskette 2 – Verteiler Die Einzelhandelskette 2 versorgt eigene Getränkemärkte mit dem gesamten Portfolio außer Einzelflaschen. Es werden ausschließlich Getränkegebinde und Kegs an Privatkunden und Restaurants geliefert (Abb. 9.9). Order-to-Deliver-Prozess Einzelhandelskette 3 – Verteiler Die Einzelhandelskette 3 betreibt eigene reine Getränkeboutiquen in Malls und in prominenten Einkaufsstraßen mit einem eigenen Brand. Es wird ausschließlich an Privatkunden geliefert. Kästen und Kegs werden an Kunden für spezielle private oder Firmenanlässe geliefert, sind allerdings nur auf Anfrage für einen ausgewählten Stammkundenkreis erhältlich (Abb. 9.9). Order-to-Deliver-Prozess Einzelhandelskette 4 – Verteiler Die Einzelhandelskette 4 versorgt eigene Getränkeabhollager ausschließlich mit Kästen und Kegs. Kunden sind Restaurants, Gaststätten, Vereine und Großanlässe. Sie ist die einzige Kette mit einem dedizierten Sales und einer direkten Endkundenbetreuung (Abb. 9.9). Order-to-Deliver-Prozess Verteiler – Großhandel – Produktion Der Order-to-Deliver-Prozess von Verteiler und Großhandel ist identisch mit dem der Einzelhandelsketten 1–4 (Abb. 9.9).
9 Getränke: Rollenspiel und Games
Abb. 9.9 Order-to-Deliver-Prozess
164
9.5 Entwicklung und Implementierung einer ERP-Strategie
165
Order-to-Deliver-Prozess Produktion – Rohmateriallager Der Order-to-Deliver-Prozess von Produktion und Rohmateriallager ist gradlinig, da das Lager über unlimitierte Kapazität verfügt und somit immer lieferbereit ist. Die Lieferverzögerung ist allerdings identisch mit allen anderen Geschäftsbereichen (Abb. 9.10).
9.5.7 Aufgabe – Board-Review-Meeting 1 Die identifizierten Problembereiche im Zusammenhang mit der Entwicklung und Umsetzung einer ERP-Strategie sind Gegenstand des ersten Board-Review-Meetings, in dem der Kursleiter die Rolle der Chairperson jedes der vier Unternehmen übernimmt. Die Teams legen ihre Ergebnisse vor und reichen sie dem Vorstand zur Genehmigung ein. Dies ist die Grundlage für den ersten Schritt einer Supply-Chain-Integration. Agenda 1. Analyse der aktuellen Geschäftslage auf Basis der konsolidierten Ergebnisse des Vorjahres 2. Vorschlag für eine M&A-IT-Integrationsstrategie mit Argumentation, Maßnahmen und einem High-Level-Projekt- und Umsetzungsplan 3. Analyse des Order-to-Deliver-Prozesses, SWOT-Analyse und Implementierungsplan 4. ERP-Geschäftsprozessanalyse, Stammdatenkonsolidierung, Template, Lokalisierung, Organizational Readiness 5. Zusammenfassung und Schlussfolgerungen 6. Diskussion Registrierte Benutzer – Kursleiter und Teilnehmer – können Templates für jedes Team aus kdibisglobal.com herunterladen (siehe Administratormanual) ebenso die detaillierten Ergebnisse des Vorjahres.
Abb. 9.10 Order-to-Deliver-Prozess Produktion – Rohmateriallager
166
9.6
9 Getränke: Rollenspiel und Games
amerunde 1 – Supply Chain nicht optimiert – Das G Bullwhip-Game
In Gamerunde 1 erfahren die Teilnehmer die Auswirkungen einer nichtkommunikativen Supply Chain mit isolierten Geschäftsbereichen, die die Situation im ersten Geschäftsjahr ohne die geplante, aber noch nicht realisierte ERP-Integrationsstrategie widerspiegelt. Die Ergebnisse dieser Runde werden zum Ausgangspunkt für eine Supply-Chain-Integrationsund Optimierungsstrategie. Die Regeln für dieses Spiel sind im kdibisglobal.com Visitor Center als Download – SCM1 Manual D – oder als Onlinepräsentation – SCM1 Manual – zu finden. Ausgangslage Die beschlossene ERP-Integrationsstrategie wurde noch nicht umgesetzt. Sie hat wenig Einfluss auf die Probleme des Supply-Chain-Managements. Ein Geschäftsjahr wird in der aktuellen intransparenten und inkonsistenten Supply-Chain-Umgebung gespielt, in der die Probleme einer nichtoptimierten Supply Chain auftreten. Jedes Team spielt separat. Der Wettbewerb findet nur indirekt im Vergleich der Endresultate dieser Runde statt. Typische Ergebnisse am Ende der ersten Runde wurden in den Abschn. 3.3 und Abschn. 3.4 diskutiert. Die vorgestellten Beispiele sind Ergebnisse von Teilnehmern, die diesen Kurs bereits in www.kdibis.com absolviert haben. SCM1-Game – Vorbereitung Die notwendigen Schritte zur Initiierung der kdibisglobal.com-Gamingumgebung wurden am Anfang dieses Kapitels beschrieben und sind im Administratormanual zu finden. Folgende Vorbereitungsschritte sind erforderlich: 1. Registrierung Der Registrierungsprozess für Kursleiter und Teilnehmer wurde abgeschlossen und ein Kurs wurde erstellt. 2. Generieren von Games Supervisor generieren ein neues Spiel, wie im Administratormanual beschrieben. Gametyp SCM1 – Bullwhip-Game wählen. SCM1-Game – Durchführung Supervisor starten das Game für jedes Team separat (siehe Administratormanual). Das Geschäftsjahr hat 364 Tage. Der Bestellzyklus ist auf 7 Tage oder 1 Woche festgelegt. Das ergibt 52 Spielrunden, was 52 Wochen entspricht. Die Lieferverzögerung beträgt 2 Wochen. Es gibt keinen Forecast, kein Inventory-Management, keine Kommunikation zwischen Teammitgliedern. Entscheidungen sollten nicht länger als 2–3 Minuten dauern, sodass diese Runde in 2–3 Stunden gespielt werden kann. Alle Details mit Beispielen,
9.7 Entwicklung und Implementierung einer SCM Strategy
167
Regeln und Vorschriften für diese Runde sind im SCM1-Manual für alle Teilnehmer und Rollen einschließlich des Supervisors enthalten. Mindestens 30 Wochen sollten gespielt werden, um die Effekte zu sehen. SCM1-Game – Resultate Die Ergebnisse wurden in den Abschn. 3.3 und Abschn. 3.4 erörtert und interpretiert. Das Spiel sollte archiviert werden, damit die Teilnehmer später die Ergebnisse mit der folgenden Spielrunde 2 vergleichen können. Zusätzlich kann das Inventar aus Runde 1 in Runde 2 in das Spiel geladen werden, um den Start von Runde 2 interessanter zu machen.
9.7
Entwicklung und Implementierung einer SCM Strategy
Basierend auf den Ergebnissen aus Gamerunde 1 werden die theoretischen Grundlagen von Supply-Chain-Managementmethoden mit einer entsprechenden Optimierungsstrategie entwickelt und umgesetzt. Das Supply-Chain-Management wird definiert und der Bullwhip-Effekt wird ausführlich diskutiert, einschließlich der Maßnahmen zur Prävention. Forecasting und Inventory-Management werden als primäre Supply-Chain-Managementmethoden eingeführt. Die detaillierten Theorien und Lerninhalte der vorgestellten Methoden wurden in den Abschn. 3.5 und Abschn. 3.6 ausführlich diskutiert.
9.7.1 Aufgabe – Board-Review-Meeting 2 In einem zweiten Reviewmeeting präsentieren die Teams ihre Ergebnisse und interpretieren ihr Verhalten aus Runde 1, aus der sie Lösungen für eine optimale kommunikative Supply Chain ableiten. Sie müssen sowohl eine Forecasting-Methode als auch einen Inventory- Managementprozess auswählen, der für die nächste Spielrunde implementiert wird. Agenda 1. Interpretation der Ergebnisse der SCM1-Simulation – 1. Geschäftsjahr – für jeden Bereich; SWOT-Analyse 2. Auswahl und Begründung der Forecasting-Methode(n) für jeden Bereich 3. Auswahl und Begründung der Inventory-Managementmethode für jeden Bereich 4. Auswahl der folgenden Parameter für eine automatische SCM-Lösung a) Lieferzeit nach Auftragseingang b) Bestellzyklen c) Minimaler Lagerbestand – inkl. Fehlmengen, falls erforderlich d) Zusätzliche Anforderungen an eine automatisierte SCM-Lösung
9 Getränke: Rollenspiel und Games
168
Tab. 9.1 Typische Resultate von drei EOQ-Modellen. (Quelle: kdibis.com)
Results Optimale Bestellmenge [hl] Maximaler Lagerbestand [hl] Minimale Lagerkosten [¤] Optimaler Bestellzyklus [Days] Jährlicher Bedarf [hl] Teillieferungen Optimale Fehlmenge [hl]
Einzelhandel Non- Basic Instant 2363 2893 2363 1931 1182 966 6,05 7,29
Shortage 2642 2113 1057 6,70
155.077
155.077 202.048
155.077 3
Verteiler Basic 2697 2697 1349 5,36
Non- Instant 3583 2031 1016 6,95 202.048 4
528
Shortage 3015 2412 1207 5,93 202.048 603
Beispiel Die Berechnungen basieren auf den Ergebnissen des ersten Geschäftsjahres – SCM1- Game – für den Einzelhandel und den Verteiler im Vergleich. Der Parameter für die Auswahl des optimalen Modells sind die minimalen jährlichen Lagerkosten. Für den Einzelhandel führt dies zum Shortages-Modell und für den Distributor zum Non-Instantaneous-Modell als der kostengünstigsten Variante (Tab. 9.1).
9.8
amerunde 2 – Supply Chain optimiert – SCM2 – G Inventory-Management
In dieser Gamerunde wird die Supply Chain durch die Integration von Forecasting und Inventory-Management optimiert. Die Teams wählen die erforderlichen Methoden und Parameter aus und ein Geschäftsjahr wird in einer teilautomatisierten Umgebung gespielt. Die Ergebnisse werden überprüft und in einem dritten Reviewmeeting vorgestellt. Die Ergebnisse des Reviewmeetings werden in das System integriert und die Supply Chain wird voll automatisiert. SCM2-Game – Vorbereitung Die notwendigen Schritte zur Initiierung der kdibisglobal.com-Gamingumgebung wurden am Anfang dieses Kapitels beschrieben und sind im Administratormanual zu finden. Folgende Vorbereitungsschritte sind erforderlich: a) SCM1-Games archivieren Es ist eine gute Idee, die fertigen SCM1-Games zu archivieren. Die Ergebnisse der SCM1-Games können mit SCM2 verglichen werden und der Lagerbestand des SCM2-Games kann mit dem Lagerbestand aus Runde 1 voreingestellt werden, was es interessanter macht. b) Games generieren Supervisor generieren ein neues Game, wie im Administratormanual beschrieben. Gametyp SCM2 – Inventory-Management auswählen.
9.9 Gamerunde 3 – CRM-SCM-Integration
169
Gameregeln Die Spielregeln ähneln SCM1 mit den folgenden Unterschieden: 1. Alle Divisionen (Einzelhandel, Verteiler, Großhandel, Produktion) haben vollständige Transparenz über die gesamte Lieferkette. Die Teammitglieder stimmen sich über das gemeinsame Bestellverhalten ab. 2. Eine Forecasting-Methode wird für alle Divisionen implementiert und ist für alle Teammitglieder zugänglich. Alle Details für diese Gamerunde sind im SCM2-Manual entweder als Download oder online verfügbar. Resultate Typische Resultate dieser Runde sind in Abb. 3.9 dargestellt, wobei der Bullwhip-Effekt eliminiert und die Lagerkosten deutlich reduziert wurden.
9.8.1 Aufgabe – Board-Review-Meeting 3 Die Ergebnisse der SCM-Integration werden interpretiert und Forecasting und Inventory- Management optimiert. Auch das Produktportfolio kann noch einmal überarbeitet werden, insbesondere in Bezug auf die Portfolios der Mitbewerber. Die Portfolios sind jetzt für alle sichtbar.
9.9
Gamerunde 3 – CRM-SCM-Integration
Als Front-End-System ist CRM ein integrierter Bestandteil von Supply-Chain-Manage ment-Systemen und wirkt sich mit Marketingkampagnen direkt auf die Nachfrage aus. Forecasting ist die Verknüpfung zwischen CRM als Bedarfsgenerator und SCM als Methode zur Bedarfserfüllung. Das Forecasting wird automatisch zu einer kausalen Methode. Anstelle der bisher verwendeten Zeitserienverfahren erzwingt CRM den Einsatz von Ursache-Wirkung-Methoden im Folgenden. Nach der Automatisierung der Supply Chain stehen die vier Unternehmen nun direkt im Wettbewerb. Die Generierung der Nachfrage dominiert und ist in das Forecasting und Inventory-Management integriert. Das Spiel wird monatlich mithilfe von Promotionen, Preisänderungen und dem Portfoliomanagement durchgeführt. Mangelnde Business Intelligence macht ein proaktives Handeln für die Unternehmen unmöglich und die Situation ähnelt der der nicht kommunikativen Supply Chain in der ersten Runde, nur jetzt in Bezug auf den gesamten Markt.
170
9 Getränke: Rollenspiel und Games
CRM1-Game – Vorbereitung Folgende Vorbereitungsschritte sind erforderlich: a) SCM2-Games archivieren b) Games generieren Supervisor generieren ein neues Game, wie im Administratormanual beschrieben. Gametyp CRM1 – Marketing wählen. Ausgangslage Gamerunde 3 unterscheidet sich deutlich von den ersten beiden. Die Supply Chain wird automatisiert, Bestellungen und Lieferungen werden automatisch ausgeführt. Die vier Teams stehen in direktem Wettbewerb zueinander und ihre Aktivitäten beeinflussen sich gegenseitig. Teammitglieder erhalten neue Rollen als Leiter Einzelhandel 1–4 (Abb. 9.2). Entscheidungen werden monatlich getroffen. Es gibt 12 Runden. Es gibt ein anfängliches Budget von 5.000.000 ¤ in lokaler Währung. Supervisor können das Marketingbudget jederzeit während des Games auffüllen, falls dies gewünscht ist. Die Teams analysieren ihre Ergebnisse jeden Monat. Gameregeln und Details finden sich im CRM1-Manual als Download oder online als Präsentation. Teilnehmer können folgende Aktivitäten ausführen: Promotionen für ein oder mehrere Produkte Für jedes einzelne Produkt und jede einzelne Einzelhandelskette werden Werbeaktionen durchgeführt. Jede Promotion erhöht den Umsatz für das entsprechende Produkt um 30 % für die entsprechende Einzelhandelskette und reduziert den Umsatz für die anderen drei Unternehmen um jeweils 10 %. Die mangelnde Transparenz zwischen den Wettbewerbern in Ermangelung von Business Intelligence kann dazu führen, dass ein oder mehrere andere Wettbewerber gleichzeitig eine Werbung für dasselbe Produkt machen, was das erwartete Umsatzwachstum ausgleichen kann und Auswirkungen auf das EBITDA hat. Preis- und Marktabsprachen zwischen Wettbewerbern sind selbstverständlich ver boten. Die Supply- Chain- Management-Systeme passen Bedarfsänderungen automatisch an. Preisänderungen für ein oder mehrere Produkte Preisänderungen – Preiserhöhung, Preissenkung – können für einzelne Produkte und einzelne Einzelhandelsketten durchgeführt werden. Jede Preiserhöhung kostet 200.000 ¤ in lokaler Währung. Jede Preiserhöhung reduziert den Umsatz für das entsprechende Produkt um 10 % für die entsprechende Einzelhandelskette und erhöht ihren Umsatz für die anderen drei Unternehmen um jeweils 5 %. Jede Preissenkung kostet 200.000 ¤ in lokaler Währung. Jede Preissenkung erhöht den Umsatz für das entsprechende Produkt um 30 % für die entsprechende Einzelhandelskette und reduziert den Umsatz für die anderen drei Unternehmen.
9.10 Gamerunde 4 – CRM-Big-Data-Integration
171
Discount für ein oder mehrere Produkte Jeder Discount kostet 200.000 ¤ in lokaler Währung. Jeder Discount erhöht den Umsatz für das entsprechende Produkt um 30 % für die entsprechende Einzelhandelskette und reduziert den Umsatz für die anderen drei Unternehmen um jeweils 10 %. Änderung des Produktportfolios Produktportfolios können nur in Woche 1 geändert werden. Jeder Portfoliowechsel kostet 250.000 in der lokalen Währung. Da dies nur vor Spielbeginn möglich ist, hat es keinen unmittelbaren Einfluss auf die Leistung der Teams, sondern nur während des Spiels. Share of Wallet bei Key Accounts Neu in dieser Runde ist der Sales an vier unabhängige Großverteiler – KDISCOUNT, KDISUPER, KDIVALUE, KDIFRESH. Das Direktgeschäft mit den eigenen vier Einzelhandelsketten trägt nur zu etwa 30 % zum Gesamtumsatz bei. Etwa 70 % der Einnahmen stammen aus den vier Key Accounts. Das sorgfältige Management dieser Accounts hat erhebliche Auswirkungen auf den Marktanteil. Es gibt zwei Perspektiven des Share of Wallet, eine für die Umsatzverteilung zwischen den vier Key Accounts bei Alpha Kdibis, Green Kdibis, Royal Kdibis und Wild Horse Kdibis (Abb. 8.4) und eine für die Umsatzverteilung von Alpha Kdibis, Green Kdibis, Royal Kdibis, Wild Horse Kdibis bei jedem der vier Key Accounts (Abb. 8.5). Der Share of Wallet kann durch Erhöhung oder Verringerung des Discounts für den entsprechenden Account beeinflusst werden. Discounterhöhung und -abnahme erfolgt mit Schritten von 2 % in beide Richtungen. Eine Erhöhung des Discounts um 2 % erhöht den Umsatz um 20 %, eine Verringerung des Discounts reduziert den Umsatz um 20 % bei dem jeweiligen Key Account. Sie hat keine direkten Auswirkungen auf die anderen Teams und hat keinen Einfluss auf das Marketingbudget (Abb. 9.11).
9.9.1 Aufgabe – Board-Review-Meeting 5 Als Vorbereitung auf die Endrunde bereiten die Teilnehmer ein abschließendes Reviewmeeting vor. Sie analysieren ihre CRM-Ergebnisse mit einer SWOT-Analyse und planen den Einsatz von Business Intelligence und Big Data Analytics.
9.10 Gamerunde 4 – CRM-Big-Data-Integration Die Regeln dieser Runde entsprechen weitgehend denen von Gamerunde 3. Darüber hi naus werden alle geplanten Aktivitäten auf Twitter veröffentlicht. Die Tweets sind für alle Teams zugänglich. Jede Aktion eines Teams und die Auswirkungen auf die Mitbewerber werden sofort veröffentlicht, wenn die Gebühr für eine Marketingaktivität abgezogen
172
9 Getränke: Rollenspiel und Games
Abb. 9.11 Share of Wallet Discount. (Quelle: kdibis.com)
wurde, noch bevor sie eingereicht und ausgeführt wurde. Die Teams können daher sofort auf geplante Aktivitäten ihrer Mitbewerber reagieren (Tab. 6.7). Sentiment Analysis wurde in Abschn. 6.9 eingeführt. Satzanalyse wird hier verwendet, um Sätze zu identifizieren, die zuvor analysiert und gespeichert wurden. Die Sentiment Analysis wird hier verwendet, um die Performance der Marketingaktivitäten der vier Unternehmen mit Twitter-Analyse „streaming“ in Realtime zu messen. Marketingkampagnen der Unternehmen können positive oder negative Auswirkungen auf die Marktanteile und negative oder positive Auswirkungen auf die Wettbewerber haben. Preiserhöhungen, die Reduzierung von Rabatten oder das Herausnehmen von Produkten aus dem Portfolio wirken sich negativ auf den Umsatz und den Marktanteil eines Unternehmens aus und haben positive Auswirkungen auf die Wettbewerber. Für alle anderen Aktivitäten ist es umgekehrt (Abb. 9.12). Verwenden von Twitter-Analyse und Word Cloud, um Marketingaktivitäten pro Produkt zu visualisieren. Die Häufigkeit von Marketingkampagnen für ein bestimmtes Produkt ist proportional zur Größe des Produktnamens in der Word Cloud. Dies geschieht in Realtime „streaming“ (Abb. 9.13).
9.11 SCM3 – Machine Learning Der Getränkekurs endete mit dem CRM2-Game offiziell. Aber es gibt ein Problem mit Inventory-Management und Forecasting für eine saisonale Bedarfsverteilung, wie sie typisch für den Biermarkt ist. Alle verwendeten Methoden in diesem Buch funktionieren perfekt für flache geradlinige Anforderungen. Sie reduzierten das Chaos im SCM2, obwohl sie Fehler produzierten. Abb. 9.14 zeigt den einfachen gleitenden Mittelwert-Forecast
9.11 SCM3 – Machine Learning
173
Abb. 9.12 Twitter und Sentiment Analysis für Teamperformance. (Quelle: kdibis.com)
Abb. 9.13 Twitter und Word Cloud für Produktperformance. (Quelle: kdibis.com)
mit einer Periode von 5 Wochen. Zwischen Woche 5 und Woche 18 ist der Bedarf deutlich höher als die prognostizierte Nachfrage, was zu Fehlmengen führt. Zwischen Woche 25 und Woche 42 ist es umgekehrt, Fehlmengen werden kompensiert. Die Glättung reduzierte den Bullwhip-Effekt, optimierte aber nicht die Lagerkosten. Die Teilnehmer mussten den Forecast Woche für Woche manuell an die Realität anpassen. Einige Teams haben dies mit analytischen Methoden erfolgreich durchgeführt.
174
9 Getränke: Rollenspiel und Games
Abb. 9.14 Einfacher gleitender Mittelwert-Forecast für saisonale Bedarfsverteilung. (Quelle: kdibis.com)
Die Idee des SCM3-Machine-Learning-Games ist es, ein einfaches neuronales Netzwerk zu trainieren, sodass die Vorhersage für jede Art von Bedarfsverteilung verwendet werden kann. Dazu gehören Lösungen für EOQ, was Ergebnisse lieferte, die höher waren als das, was Teilnehmer mit Intelligenz erreichen konnten. Mit einer solchen Lösung könnte unsere Supply Chain voll automatisiert werden. Dieses Buch dient als Quelle für die Theorie und Methoden, wie in Kap. 7 beschrieben. Alle Materialien und Beschreibungen, Richtlinien und Werkzeuge werden von kdibisglobal.com zur Verfügung gestellt. Das SCM3-Manual enthält weitere Informationen zu Methoden und Vorgehensweise. Das bereitgestellte interaktive Schulungsmaterial sollte für das Selbststudium von Teilnehmern, die den Getränkekurs bestanden haben, ausreichend sein. Dieses Spiel sollte als E-Learning-Modul für die Klasse zur Verfügung gestellt werden.
Literatur Desai S, Srivastava A (2013) ERP to E2RP a case study approach. PHI Learning Private Limited, Delhi Killing P (2010) Nestlé’s Globe Program (A): The Early Months. Harvard Business Publi shing, IMD 194 Nestlé (2014) GLOBE Center Europe. http://www.nestle.de/karriere/arbeiten-nestle/nestle-international/globe-center-europe. Zugegriffen am 16.11.2014 Springer Gabler Verlag (Hrsg) (o. J.) Gabler Wirtschaftslexikon, Stichwort: ERP. http://wirtschaftslexikon.gabler.de/Archiv/3225/erp-v14.html. Zugegriffen am 16.11.2014
Stichwortverzeichnis
A agile und flexible CRM-Strategie 72 Aktivierungsfunktion 126–129, 132–134 Alpha Kdibis 1, 139, 142, 144, 171 analytisches CRM 73 Artificial Intelligence 1, 3, 5, 67, 91, 113–115, 117
CRM – kundenorientiertes Front-End 72 CRM-Strategie 72 CRM – strategischer Ansatz 72 Customer Lifetime Value 76 Customer Lifetime Value CLTV 76 Customer Lifetime Value NPV 78 Customer-Relationship-Management 71, 72, 89
B Bestellpunktmodell (Fixed-order Quantity Model) 47 Bestellrhythmusmodell (Fixed-time Period Model) 47 Beziehungsmarketing 76 BI 1, 3, 5, 71, 73, 83, 84, 91 Bier 1, 2, 43, 44, 62, 99, 139, 142, 143 Big Data 1–3, 5, 37, 71, 83, 84, 86, 89–93, 95, 96, 113–116, 155, 171 Big Data Analytics 89 Big-Data-Analytics-Prozessmodelle 95 Blockchain 1, 60–67, 114, 148 BS 7799 und ISO 20000 17 Bullwhip-Effekt 36 Business Intelligence 83
D das Problem der unstrukturierten Daten 93 Data Mining 86 Deep Learning 2, 5, 67, 113, 115, 116, 120, 127, 130, 148
C CMMI 16 CMMI – Capability Maturity Model Integration 19 CRISP-DM 96 CRM 1, 71, 162 CRM-Kundenbindung 73
E einfacher gleitender Mittelwert-Forecast 39 Einflussfaktoren von gescheiterten CRM- Projekten auf die Unternehmensperformance 79 Einperiodenmodell mit deterministischer Nachfrage 47 Einperiodenmodell mit stochastischer Nachfrage 47 EOQ-Modell 47 ERP 1–3, 5, 7–13, 15, 16, 64, 71, 72, 74, 141, 148, 151, 152, 156–159, 162, 165, 166 ERP-Template 11–13, 15, 158, 159 ERP-Template-Lokalisierung Governance 16 ETL-Prozess 85 exponentiell geglätteter MittelwertForecast 40
© Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature 2020 K.-D. Gronwald, Integrierte Business-Informationssysteme, https://doi.org/10.1007/978-3-662-59815-3
175
176
Stichwortverzeichnis
F Fehlmengenkosten 32, 47, 52, 53 Fixed-order Quantity Model 47 Forecasting 37, 71 funktionales CRM 72
N naiver Forecast 38 neuronale Netze 113, 115, 117, 127 Non-Instantaneous-Receipt-Modell 48 Normalverteilung 21, 117, 118, 120, 121
G Geschäftsprozessarchitektur 8, 157 Geschäftsprozessstandardisierung 8 Getränkedivision 1, 139, 140, 146 Green Kdibis 1, 139, 142, 144, 171
O OLAP und OLTP 84 operatives CRM 73, 74 Order-to-Deliver-Prozess 163 Organisational Readiness 15
I Informationssystemarchitektur 8, 157 Inventory-Management 45 ITIL – Information Technology Infrastructure Library 17
P Perzeptron 126–128, 130 Produktportfolioanalyse 156, 162
K Kdibis Global 1, 139, 140, 148 Klassifikation 124, 126 kommunikatives CRM 73, 74 Konfidenzintervall 22, 121 Kundenwert 76 L Lagerhaltungskosten 47 Lagerhaltungsmodell 46 Lagerkosten 45 Lean IT 22 linearer Trend-Forecast 42 Lokalisierung 8, 14 Lokalisierung Prozessanalyse 15 Loyalty-Management und Share of Wallet 76 M Machine Learning 2, 5, 67, 92, 94, 113–116, 120, 122, 123, 126, 155, 172, 174 Manufacture 1, 113, 120, 139, 148, 149 Median 118 Mehrperiodenmodell mit deterministischer Nachfrage 47 Mehrperiodenmodell mit stochastischer Nachfrage 47 Modus 117
R Regression 37, 42, 113, 124, 127 Royal Kdibis 1, 139, 142, 144, 171 S Scanner 1, 139, 148, 149 SCM 1, 25 SCM-CRM-Integration 71 SEMMA 96 Sensor 1, 139 Share of Wallet 76 Six Sigma 21 Softdrink 1, 2, 45, 46, 139, 141, 142, 144–146 Stammdaten 8, 157 Stammdatenoptimierung 9 Standardabweichung 21, 32, 118, 120 Standardisierung der IT-Infrastruktur 10 strategisches CRM 73 Supply-Chain-Management 25 T TCO – Total Cost of Ownership 10 Text Mining – linguistischer und mathematischer Ansatz 98 Text Mining – numerische Transformation nach Lu 99 Text Mining – Vektorraummodell 99 Transaktionsmarketing 76
Stichwortverzeichnis
177
V Varianz 32, 33, 118
www.kdibisglobal.com 1, 23, 68, 80, 87, 110, 135, 140, 152, 154, 155
W warum CRM-Projekte scheitern 79 Wasser 1, 2, 43–45, 139, 141, 142, 144, 145 Wild Horse Kdibis 1, 139, 142, 144, 171
X XOR-Problem 127, 130, 131 Z Zeitserien-Forecasting-Komponente 38