Lean Six Sigma und Minitab : der umfassende Leitfaden fur Business Improvement [5. Auflage] 9780995789913, 0995789916


363 58 60MB

German Pages [320] Year 2018

Report DMCA / Copyright

DOWNLOAD PDF FILE

Recommend Papers

Lean Six Sigma und Minitab : der umfassende Leitfaden fur Business Improvement [5. Auflage]
 9780995789913, 0995789916

  • 0 0 0
  • Like this paper and download? You can publish your own PDF file online for free in a few minutes! Sign Up
File loading please wait...
Citation preview

Lean Six Sigma und Minitab Der umfassende Leitfaden für Business Improvement Quentin Brook

^OPEX Resources

S OPEX Resources Willkommen zur 5. Auflage von Lean Six Sigma und Minitab auf Deutsch. Mit 150.000 verkauften Exemplaren ist dieses Buch der Leitfaden der Wahl für professionelles Business Improvement weltweit geworden.

OPEX Resources ist ein spezialisierter Anbieter von

Dieses Buch ist nur ein Teil eines Gesamtpakets. Es

praktischen, einfach zu bedienenden Operational-

wird durch eine Reihe zusätzlicher Ressourcen ergänzt,

Excellence-Büchern und Support-Tools.

um in einem Training, als auch bei der alltäglichen Arbeit, zu unterstützen.

Unser Flagschiff ist das Handbuch Lean Six Sigma und Minitab. Daneben bieten wir auch eine Reihe

• Kostenlose Tool Finder App (Android und IOS)

maßgeschneiderte, branchenspezifische Bücher mit

• Kostenlose Dateien und Vorlagen für alle Beispiele

klaren, prägnanten Erklärungen in einem praktischen Format an.

• Kostenloses angepasstes Minitab-Menü • iBook-Versionen für iPad

Diese deutsche Version wurde aus dem Englischen mit Unterstützung folgender Partner übersetzt, denen

• Schulungsmaterialien und Folien

wir danken möchten:

• Rabatte für Firmen und akademische Institutionen

• Raymond Edward Jubb, Ute Leiner und das Improvement Team Merck KGaA, Germany

• Monatliche Newsletter, Angebote und Artikel

• ADDITIVE GmbH (www.additive-net.de/minitab)

Holen Sie das Beste aus diesem Handbuch heraus: Besuchen Sie www.opexresources.com noch heute!

Vorwort Titel: Lean Six Sigma und Minitab (5. Auflage) Untertitel: Der umfassende Leitfaden für Business Improvement Autor: Quentin Brook ISBN-13: 978-0-9957899-1-3

Mit weltweit über 150.000 verkauften Exemplaren ist dieses Buch als Leitfaden für Business Improvement fest etabliert. Es erklärt Lean Six Sigma in einem sachlichen, praktischen und benutzerfreundlichen Format, indem das Fachjargon und Insider-Sprache entmystifiziert wird.

Herausgeber: OPEX Resources Ltd

Hauptmerkmale dieses Buchs umfassen:

Herausgegeben: 1. September 2018

• Praktische Beispiele aus unterschiedlichen Industrien.

Vorherige (4.) Edition herausgegeben als 'Lean Six Sigma and Minitab' von OPEX Resources, Mai 2014, ISBN 978-0-9546813-8-8.

• Strukturiert durch DMAIC mit Teilschritten durch jede Phase.

Heruagegeben durch OPEX Resources Ltd: Kontaktieren Sie uns oder besuchen Sie unsere Website für weitere Informationen, Rabatte, Online-Verkäufe, Errata, Lean Six Sigma Trainingsmaterial Lizenzen.

• Kostenlose Dateien und Vorlagen online verfügbar (s. Seite 13).

E-mail: [email protected] Web: www.opexresources.com Tel: UK +44(0)8453885835 © Copyright OPEX Resources Ltd 2018. Alle Rechte vorbehalten. Teile dieses Buches dürfen nur mit vorheriger schriftlicher Genehmigung des Hersausgebers elektronisch, mechanisch, durch Kopieren oder auf andere Weise reproduziert werden. Ed5.1G-102018-V1. Minitab® und alle weiteren Markenzeichen und Logos für die Produkte und Dienstleistungen des Unternehmens sind eingetragene Markenzeichen von Minitab Inc. Alle anderen erwähnten Markenzeichen bleiben Eigentum ihrer jeweiligen Besitzer. Teile der in dieses Buch geflossenen Inhalte werden mit Genehmigung von Minitab Inc. gedruckt. Alle Materialien bleiben das ausschließliche Eigentum und Urheberrecht von Minitab Inc. Alle Rechte vorbehalten. Weitere Informationen finden Sie unter www.minitab.com.

• Minitab® 18 Screenshots und Anweisungen für jedes Tool. • Wegweiser vermitteln ein logischen Fluss durch jede DMAIC Phase.

Was ist neu in der 5. Auflag?

Diese 5. Auflage wurde vollständig mit Minitab 18 überarbeitet und ist weiterhin mit früheren Versionen kompatibel. Neue Tools wurden hinzugefügt (inkl. Blasendiagramme, Trendanalyse und Karten nach Laney), bestehendes Material verbessert (inkl. Zeitreihenanalyse und Datentransformation) und vieles mehr.

Wer sollte dieses Buch benutzen? • Lean Six Sigma Trainees. • Anwender in realen Projekten. • Projektsponsoren in Verbesserungsprojekten. • Senior Manager, die eine Einführung in Lean Six Simga benötigen.

Wer sollte diese Buch benutzen

Der Autor

Wer sollte diese Buch benutzen

Der Autor

Dieses Buch eignet sich zum Einstieg in Lean und Six Sigma. Es dient als Begleiter und Nachschlagewerk in Projekten. Im Folgenden sind die Vorteile für individuelle Benutzer aufgeführt, die dieses Buch mit sich bringen:

Quentin Brook

Für Manager und Projektsponsoren: • Der DMAIC-Prozess ist in klare Teilschritte unterteilt. • Eine einfache Zusammenfassung jedes Tools wird bereitgestellt. • Zahlreiche „nicht statistische", prozessbasierte Tools. • Überprüfungsfragen am Ende jeder DMAIC-Phase (nützlich in der Projektbewertung und zur Freigabe der Projetkphasen).

Für Lean Six Sigma Trainees: • Verwendung zusammen mit Schulungshandbüchern.

Nach einem erstklassigen Ingenieurs- und ManagementAbschlusses an der Universität von Bath (UK 1994, entwickelte Quentin seine Erfahrung mit statistischen Tools zur Prozessverbesserung in der Automobilbranche von Detroit und der Luft- und Raumfahrtindustrie in Großbritanien. Er absolvierte die Six-Sigma-Ausbildung bei General Electric Aircraft Engines in Cincinnati, USA, bevor er Geschäftsführer von QSB Consulting wurde, wo er Kunden verschiedener Branchen unterstützte, kontinuierliche Verbessungsinitiativen zu implementieren. OPEX Resources entstand 2010 als Anbieter von Supporttools für Fachleute in der Operational Excellence-Branche, insbesondere Lean and Six Sigma. Quentin Brook lebt in Hampshire, UK

• Step-by-step Anweisungen für jedes Tool und jede Technik. • Dateien und Vorlagen sind online verfügbar, so können Sie Beispiele durcharbeiten und maximale Lernerfolge erzielen.

Für Lean Six Sigma Anwender: • tragbares Format - nach dem Training, ab in die Tasche. • Kern-Aussagen für jedes Minitab-Tool sind zusammengefasst, um das Gelernte nach dem Training zu vertiefen.

Danksagungen

Vielen Dank an das Team von Rezensenten, die dieses Buch auf „Benutzerfreundlichkeit" getestet und unschätzbares Feedback zu dessen Entwicklung beigetragen haben. Danke auch an meine Familie und Freunde für ihre Unterstüztung und besonderer Dank an:

• Zahlreiche Wegweiser, um die richtigen Tools zu finden.

Raymond Edward Jubb und Ute Leinert, Merck KGaA

• Checkliste am Ende jeder DMAIC Phase.

Shy Sivapatham (Layout und Design)

Vergesse nicht die kostenlosen Dateien und Vorlagen herunterzuladen! Weitere Informationen finden Sie auf Seite 13.

Andreas Heilemann, www.additive-net.de

Inhaltsverzeichnis Was ist Six Sigma? DMAIC - Ein logischer Ansatz zur Problemlösung Was ist Lean? Lean und die Six Sigma DMAIC Struktur Aufbau eines Lean Six Sigma Programms Verschiedene Typen von Lean Six Sigma Projekten Woher kommen Lean Six Sigma Projekte? Management von Lean Six Sigma Projekten Minitab - Übersicht Companion von Minitab - Übersicht Anwendung dieses Leitfadens - Kostenlose Dateien!

1 2 3 4 5 7 9 10 11 12 13

DEFINIEREN (DEFINE) Problemdarstellungen Zielbeschreibungen Kosten schlechter Qualität (Costs of Poor Quality - COPQ) Stimme des Kunden (VOC), Kano Modell der Kundenzufriedenheit „ House of Qual ity" „Critical-to-Quality" (CTQ) Baum SIPOC (LEPAK) - Prozessdarstellung auf der Makroebene Gemba Projektstruktur und Projektpläne Stakeholderanalyse Arbeitsdateien Moderationsfähigkeiten Effektive Teams und Meetings Projektcharter Checkliste DEFINIEREN und Phasenabschluss

14 15 17 18 19 21 23 25 26 27 28 29 30 31 32 33

MESSEN (MEASURE) Leistungskennzahlen (Key Performance Indicators - KPIs) KPI-Bäume

34 35 36

Inhaltsverzeichnis

Lean Messgrössen (PCE, OEE, Taktzeit usw.) Deskriptive Statistik - Lage- und Streuungsparameter Operationale Definitionen Datenarten (stetige Daten /Zähldaten/attributive Daten) Datenerfassungsmethoden Datenerfassungspläne und Stichproben Minimaler Stichprobenumfang Frequenz der Stichprobenentnahme Zusammenhangsbezogene Daten - die 4. Datenart

37 40 42 45 51 52 53 56 57

Messsystemanalyse (MSA) - Einführung & Wegweiser - Bias und Präzision - Messsystem Auflösung - Wiederholbarkeit & Reproduzierbarkeit des Messsystems GR&R - MSA, Gage R&R in Minitab - MSA für attributive Daten in Minitab - MSA Drilldown

58 60 61 62 63 66 72

Ein erster Blick auf die Daten - Einführung - Verteilungsformen und die Normalverteilung - Normalverteilung in Theorie und Praxis - Zufällige und systematische Streuung - Kurz- und Langzeitstreuung - Trends, Saisonalität und zufälliges Rauschen

73 75 77 79 80 81

Einführung Prozessfähigkeit & Wegweiser - Prozessfähigkeitsanalyse - Normalverteilte Daten - Prozessfähigkeitsanalyse - Nicht normalverteilte Daten - Cp, Cpk, PPM, DPMO Messgrössen - Ermittlung der fehlerhaften Einheiten in % - Sigma-Niveau - Sigma-Shift Checkliste MESSEN und Phasenabschluss

82 85 87 89 91 93 95 97

Inhaltsverzeichnis

Inhaltsverzeichnis (Fortsetzung) ANALYSIEREN (ANALYSE) Prozesstür - Wegweiser - Prozessdarstellung - Wertstromanalyse (Value Stream Mapping - VSM) - Zeitanalyse (Time Value Map) und Taktzeitdiagramm - Fünf Lean Prinzipien - Sieben Verschwendungsarten - Spaghetti-diagramm - Ursache-Wirkungs-Matrix - Brainstorming und 5-mal-Warum - Fischgrätendiagramm - Affinitätsdiagramm - Fehler-Zählblatt - Fehlermöglichkeits- und -einflussanalyse (FMEA) Datentür - Wegweiser - Minitab - Datenarten, Manipulation und Grafiken - Minitab's Deskriptive Statistik anzeigen - Histogramm - Punktdiagramm - Minitab's Grafische Zusammenfassung - Wahrscheinlichkeitsnetz - Zeitreihendiagramm - Verlaufsdiagramm -Trendanalyse - Pareto-Diagramm - Datenschichtung (Stratifikation) - Multi-Vari-Bild - Boxplot - Einzelwertdiagramm - 100% gestapelte Bakendiagramme - Streudiagramm

98 99 100 102 105 106 107 108 109 110 111 112 113 114 116 117 121 123 125 126 127 130 132 134 135 138 139 140 143 144 145

- Blasendiagramm - Matrixplot Grafische Darstellung zur statistischen Signifikanz Konfidenzintervalle

147 149 150

151

Hypothesentests - Hypothesentests auf Mittelwert - Wegweiser - t-Test, 2 Stichproben (2 Sample t-test) - t-Test, 1 Stichprobe (1 Sample t-test) - t-Test, verbundene Stichproben (Paired t-test) - Varianzanalyse - Einfache ANOVA (One Way ANOVA) - Tukey-Methode Median-Tests -Wegweiser - Vorzeichentest bei einer Stichprobe - Kruskal-Wallis-Test - Mood-Median-Test Hypothesentests auf Varianz - Wegweiser - Test auf gleiche Varianzen in Minitab Hypothesentests von Anteilen - Wegweiser - Test von Anteilen bei einer Stichprobe - Test von Anteilen bei zwei Stichproben - Chi-Quadrat-Test

154 159 160 165 167 169 171 172 173 175 177 179 180 182 183 185 187

Test auf Normalverteilung (Anderson Darling) Identifikation der Verteilung

189 191

Korrelation und Regression Übersicht - Wegweiser - Pearson-Korrelationskoeffizient - Regression und die Anpassungslinie in Minitab - Prüfung der Güte eines Modells (Residuendiagramme) - Multiple Regression - Binäre Logistische Regression

193 195 197 200 201 203

Inhaltsverzeichnis (Fortsetzung) ANALYSIEREN (ANALYSE) Versuchsplanung (Design of Experiments - DOE) - Übersicht - Versuchsplanung - Wegweiser - 2-stufige vollfaktorielle Versuchspläne - Vollfaktorieller Versuchsplan - Beispiel - Versuchsplan analysieren - Reduzieren des Modells - Regresionsmodell berechnen - Teilfaktorielle Versuchspläne - Teilfaktorieller Versuchsplan - Beispiel - Versuchsplan analysieren - Auf Vermengung prüfen - Versuchplanung in Minitab

207 208 209 211 213 217 219 220 221 223 225 226

Checkliste ANALYSIEREN und Phasenabschluss

227

VERBESSERN (IMPROVE) Negatives Brainstorming und „Assumption Busting" Fehlervermeidung und Benchmarking Kettenbriefe und Plakatwände (Billboards) SCAMPER Bewertungskriterien Paarweiser Vergleich Priorisierungsmatrix Pugh-Matrix Lösungsscreening und Pilotstudien Rüstzeitoptimierung (Single Minute Exchange of Dies - SMED) Total Productive Maintenance (TPM) Kanban-Methode der Produktionsprozesssteuerung Mitarbeitergebundener Arbeitsfluss (One Piece Flow) 5S Visuelles Management Checkliste VERBESSERN und Phasenabschluss

228 229 230 231 232 233 234 235 236 237 238 239 240 243 244 245 247

Inhaltsverzeichnis

REGELN (CONTROL) Statistische Prozessregelung (SPR) - Übersicht - SPR - Wegweiser - l-MR-Karte - X quer - R-Karte - U-Karte - P-Karte - U' und P' Karten nach Laney Reaktionspläne Standardisierte Prozesse Projektberichte und Aktionsprotokolle

248 249 253 255 257 ... 259 .... 261 .... 263 265 266 266

Checkliste REGELN und Phasenabschluss

267

MANAGEN Desktop App des Companions - Road map - Tools - Formulare und Analysis Captures Web App des Companions

268 269 271 272 278 281

ANHANG A: Empfohlene Ressourcen und Partner B: Kurzanleitung zu p-Werten C: Von OPEX angepasste Minitab Menü D: UnterschiedlicheTerminologie für Datenarten E: Zentraler Grenzwertsatz F: Varianzanalyse (ANOVA) G: Datentransformation H: Warum Normalität? l: Meine Daten sind nicht normalverteilt! J: Trennschärfe und Stichprobenumfang Akronyme und Glossar

287 ... 291 293 295 296 297 298 300 .... 301 302 .... 303

EINFÜHRUNG > Was ist Six Sigma?

Was ist Six Sigma? Es gibt viele Beschreibungen für Six Sigma, angefangen davon, ein Qualtiätsniveau von 3,4 Ausschuss pro Million einzunehmen, bis hin dazu, eine lebensverändernde Philosophie zu sein! Eine praktikablere Definition ist die der 'datengesteuerten Problemlösung'. Datenklarheit:

Die Phase "Messen" von Six Sigma stellt sicher, dass eine klare Reihe von Messungen der Prozessleistung vorhanden ist, bevor mit der Problemanalyse begonnen wird. ._

Datengesteuert in jeder Phase:

Six Sigma bietet einen datengesteuerten Ansatz in jeder Phase des Prozesses.

Eine Problemlösende Struktur:

Six Sigma bietet einen strukturierten Ansatz zur Problemlösung. Der Ansatz hat fünf Phasen: Definieren, Messen, Analysieren, Verbessern (Improve) und Regeln (Control) (DMAIC).

Problem fokusiert:

Der DMAIC-Ansatz konzentriert sich auf Probleme, nicht auf Lösungen (daher sind Projekte, bei denen Lösungen vorab festgelegt sind, nicht geeignet).

Ein rigoroser Ansatz:

Grafische Techniken:

Six Sigma untermauert die Wichtigkeit der grundlegenden grafischen Tools (Histogramm, • Verlaufsdiagramm, usw.) bei der Prozessleistungsanalyse hervor.

Daten Qualität:

Trotz der ständig wachsenden Datenmenge wird oft festgestellt, dass die Datenqualtität nicht aussagekräftig ist. Six Sigma konzentriert sich auf die Qualität der Datenerhebung und stellt sicher, dass Prozessmaßnahmen aussagekräftig, richtig und präzise sind.

Datengesteuert...

Statistische Techniken:

Six Sigma nutzt die Möglichkeiten der Statistik in einem praktikablen Format, welches den Anwendern ermöglicht, die Relevanz statistischer Ergebnisse und die Risiken ihrer Entscheidung zu beurteilen.

...Problem gesteuert

Ein generischer Ansatz:

Der DMAIC-Ansatz ist generisch und in allen Bereichen anwendbar. Die Tools kommen in den verschiedenen Branchen unterschiedlich zur Anwendung aber der DMAIC-Ansatz bleiben immer gültig.

Der DMAIC-Durchlauf erfordert Disziplin. Jeder Schritt muss abgeschlossen sein, um den Erfolg des ' Projektes zu gewährleisten, die Problemursache zu finden, und dauerhaft zu kontrollieren.

*• Ein einfacher Ansatz:

Die Stärke von DMAIC liegt in seiner Einfachheit und Klarheit. Jede Phase hat klare Ziele, Aktionen und Ergebnisse.

DMAIC - Ein logischer Ansatz zur Problemlösung Der DMAIC-Lösungsansatz von Six Sigma ist einfach und logisch. DMAIC und dessen Struktur sind der Schlüssel zu einem erfolgreichen Lean Six Sigma Projekt.

O Definieren des Problems

Messen des Prozesses

Erstellen eines Projektcharters basierend auf einem bestehenden kundenrelevanten Problem, das dem Business entscheidende Vorteile bringt. Den Prozess anhand einer Reihe relevanter und robuster Messgrössen (KPIs) verstehen und von Grund auf nachvollziehen.

Projektfreigabe erhalten:

Bei Phasenabschluss werden die in der Phase Definieren gewonnnen Informationen ausgewertet, um einen Konsens dahingehend zu erlangen, dass sich die Durchführung des Projektes lohnt und dass die erforderlichne Ressourcen zur erfolgreichen Durchführung bewilligt /freigegeben werden.

Analysieren des Prozesses

Improve/ Verbessern .des Prozesses

Control/ Regeln des Prozesses Sicherstellung, dass die Lösungen greifen, dass Prozesskontrollen implementiert wurden und dass das Projekt abgeschlossen ist.

Die Ursachen des Problems finden und deren Auswirkungen auf die Prozessleistung verstehen/quantifizieren.

Entwicklung, Auswahl und Implementierung der besten Lösungen mit kontrollierbaren Risiken.

O

IterativerAnsatz:

Trotz der disziplinierten Vorgehensweise des DMAICProzesses sind die ersten vier Phasen (Definieren bis Verbessern) iterativ in ihrer Anwendung.

Projektabschluss:

Erfolgreiche Projekte brauchen einen klaren und sichtbaren Abschluss, dessen Schlüsselelemente folgendes beinhalten sollten: Dokumentation der gewonnenen Erkenntnisse, Übertragen des Prozesses in „business äs usual" und schließlich den Erfolg feiern.

EINFÜHRUNG > DMAIC - Ein logischer Ansatz zur Problemlösung

EINFUHRUNG > Was ist Lean?

Was ist Lean? Ein Prozess der Lean ist, liefert die vom Kunden gewünschten Produkte und Dienstleistungen, und zwar zu einem Preis, der den Wert wiedergibt, für den der Kunde bereit zu zahlen ist. Was wünscht sich der Kunde?

Und wofür ist er bereit, zu zahlen (oder nicht)?

Normalerweise will er, dass sein Anliegen sofort erledigt wird!

Kunden sind nicht bereit, für Folgendes zu zahlen:

• Also muss ein Lean-Prozess schnell sein.

• Ein produzierter Überschuss, bevor sich der Bedarf des Produktes ergibt

Und er will, dass sein Anliegen so bearbeitet wird, wie er es möchte! • Daher muss ein Lean-Prozess flexibel sein, um die dem Kundenbedürfnis genau angepassten Produkte und Dienstleistungen zu liefern.

• Die Entsorgung oder Behebung fehlerhafte Produkte oder Dienstleistungen. • Verzögerungen oder unklare Kommunikation im Verlauf des Prozesses. • Energieverschwendung bei der Bereitstellung von Produkten und Dienstleistungen usw. Diese Kosten sind Beispiele für Verschwendung in einem Prozess, und bei der Gestaltung von Lean-Prozessen steht Verschwendung im Fokus - siehe Seite 107.

Und wie bringt man einen Lean-Prozess zustande?

Weiterführende Lese-Empfehlung:

Die Entwicklung eines Lean-Prozesses beginnt damit, den Wertstrom des Produktes oder der Dienstleistung aus der Sicht des Kunden zu verstehen.

Der Lean-Ansatz umfasst einen riesigen Bereich an Arbeit und Techniken und weit mehr als wir in diesem Buch als Teil von Lean und Six Sigma vorstellen können. Als weiterführende Lektüre empfehlen wir Texte von. Womack and D. Jones.

Dies kann helfen, Verschwendungen, für die der Kunde nicht bezahlen wird, zu identifizieren und zu beseitigen und den kritischen Weg für Produkte und Dienstleitungen zu erkennen, um den Kunden schneller zu beliefern.

Lean Thinking: Free Press, 7 July 2003 Lean Solutions: Simon and Schuster, 4 June 2007

Lean und die Six Sigma DMAIC Struktur Das Lean-Toolkit bietet zusätzliche Tools, die innerhalb der DMAIC-Struktur bereitgestellt werden können. n Definieren |

M II—S(A Improve Messen JL-/IAna|ys'erenJL-/l(Verbessern)JLVi

Control (Regeln)

SMED Rüstzeitoptimierung (S. 238), Wert definieren (siehe Zeitanalyse

S. 105) House of Quality (S. 21)

Lean Messgrößen (PCE, OEE, Durchlaufzeit, Taktzeit) (S.37)

Wertstromanalyse (S. 102) Zeitanalyse und Taktzeitdiagramme (S.105) Spaghetti-Diagramme (S. 108)

Total Productive Maintenance (S. 239) Kanban (S.240), Mitarbeitergebundener Arbeitsfluss (One Piece Flow) (S.243) 5S (S. 244), Fehlervermeidung (S.230) Standardisierte Prozesse (S. 266)

Verschwendung identifizieren - Die 7 Verschwendungsarten (S. 107) Gemba (S. 26)

Visuelles Management (S. 245)

Fünf Lean Prinzipien (S.106)

Lean versus DMAIC:

Wenn Sie eine Diskussion über die Konflikte zwischen Lean und Six Sigma suchen, werden Sie enttäuscht sein, denn wir glauben nicht, dass es welche gibt! Die beiden Ansätze enthalten eine komplementäre Palette an Tools und Techniken. In der Realität werden die meisten Projekte eine Reihe von Lean- und Six-Sigma - Techniken erfordern. DMAIC ist eine effektive Problemlösungsstruktur, die hilft, sich darüber klar zu werden, was man erreichen möchte. Aus diesem Grund empfehlen wir, Lean- und Six-Sigma -Techniken zu kombinieren, wenn sie innerhalb einer DMAIC-Struktur benötigt werden, s. o.

EINFUHRUNG > Lean und DMAIC

EINFÜHRUNG > Aufbau eines Lean Six Sigma Programms

Aufbau eines Lean Six Sigma Programms Die Verwendung von Lean Six Sigma als Grundlage für die Verbesserung einer Organisation erfordert eine Infrastruktur, die auf die Unterstützung und Verwaltung der Projekte ausgerichtet ist, die einen Nutzen bringen. Programm-Management, Steuerung und Berichterstattung Managementbewusstsein und Kommunikation Projekt

i—\r

—/

v

(Lean Six Sigma) Verbesserungsprojekte

1 Mitarbeiter i—"\r

>

> '—/

c

>l

>c

>1

>1

>

>

Coaching und Unterstützung Training Einige Organisationen übernehmen den gesamten Lean Six Sigma-Ansatz als Verbesserungsprogramm, andere integrieren die relevanten Tools und Techniken in ein bestehendes Programm - mit und ohne Six Sigma-Terminologie und Markenzeichen. In beiden Fällen enthalten die meisten Verbesserungsprogramme die oben gezeigten generischen Komponenten, die auf den nächsten Seiten ausführlicher beschrieben werden.

J

Aufbau eines Lean Six Sigma Programms (Fortsetzung) Managementbewusstsein und Kommunikation: Alle Verbesserungsprojekte erfordern die Unterstützung der Geschäftsleitung in Verbindung mit einem effektiven Kommunikationsplan. Erfolgreiche Lean SixSigma-Projekte können als Kombination von Pull und Push verstanden werden. Zwar kann es eine erhebliche Menge an „Push" geben, die von neu ausgebildeten Green und Black Belts geschaffen wird, aber es ist wichtig, einen „Pull" für Six Sigma zu schaffen, der von der Geschäftleitung unterstützt wird. Six SigmaSensilbilisierungssitzungen können nützlich sein, um der Geschäftsleitung ihre Rolle bei der Generierung dieses „Pull" für datengestützte Entscheidungsfindung zu demonstieren - „Zeige mir die Daten". Programm Management, Steuerung und Berichterstattung: Wenn die Größe eines Six-Sigma-Projektes zunimmt, ist eine klare Manangementstruktur entscheidend für die Überwachung und Berichterstattung über die laufenden Projekte. Diese Funktion beinhaltet auch die Nachverfolgung der finanziellen Vorteile, die durch die Projekte entstanden sind. Coaching und Unterstützung: Das Coaching und die Unterstützung neu ausgebildeter Six Sigma Anwender ist der wichtigste Faktor, um erfolgreiche Projekte voranzutreiben. Nicht zufällig ist das Fehlen von Coaching und Unterstützung bei ersten Projekten die häufigste aller negativen Rückmeldungen von Black Belts. Die Unterstützung kann in unterschiedlicher Form bereitgestellt werden, um den verschiedenen Anforderungen von Green und Black Belts gerecht zu werden, einschließlich: • Projekt-Coaching, um detaillierte Eins-zu-ein-Unterstützung zu bieten. • Six Sigma Helpdesks (telefonisch oder per E-Mail) zur Lösung statistischer oder Minitab-Fragen, die andernfalls zu Projektverzögerungen führen können. • Community-Events und Webseiten bieten die Möglichkeit zum Austausch von Ideen und weiteren Lernen. • Bücher (wie dieses) und Schulungshandbücher zur Verwendung nach dem Training.

Six Sigma Projekte: Der Wert von Six Sigma Initiativen wird durch ein breites Spektrum von Verbesserungsprojekten abgedeckt. Die Projekte reichen von kleinen „One Black Belf'-Projekten zu größeren Team-Projekten (siehe nächste Seite), aber alle weisen gemeinsame Merkmale auf, da sie klar definiert, problemorientiert und datengesteuert sind. Der Projekt Motor: Der „Projekt Motor" bezieht sich auf den Prozess der Entwicklung einer priorisierten Liste von potenziellen Verbesserungsprojekten, die dann von Black Belt Teams weitergeführt werden. Dieser Prozess beginnt mit einer Analyse des Unternehmens, seiner Kunden und seiner Strategie auf hoher Ebene, um klare Ziele für das Six Sigma Projekt zu entwickeln. Der Mitarbeiter Motor: Während große Anstrengungen unternommen werden, um die richtigen Six Sigma Projekte zu finden, wird manchmal viel weniger Aufmerksamkeit darauf verwendet, die richtigen Personen zu finden! Schulungen in Lean Six Sigma sind eine bedeutende Investition und erfordern daher eine sorgfältige Auswahl der Teams, um sicherzustellen, dass sie über die entsprechenden Fähigkeiten des Change Agents verfügen. Training: Six Sigma beinhaltet zwangsläufig eine Menge Training. Es ist jedoch wichtig, sich daran zu erinnern, dass es bei Six Sigma darum geht, eine echte Prozessverbesserung durch strukturierte Projekte zu erreichen, die bei Bedarf durch Schulungen unterstützt werden, und nicht umgekehrt! Organisationen, die den Großteil ihres Six SigmaEngagements ausschließlich auf Schulungen konzentrieren, erzielen häufig einen hohen Durchsatz an Green- und Black Belts, die sich dann in der Organisation wieder auflösen, ohne durch erfolgreiche Projekte finanzielle Erträge zu erwirtschaften. Wie jedes Training, erfordert auch ein effektives Six Sigma-Training eine Mischung aus Theorie und Praxis, basierend auf relevanten Fallbeispielen. Six Sigma-Trainer sollten dahin gehend ausgesucht werden, ob sie in der Lage sind, die Statistik zu erklären und in eine umfassende Auswahl praktischer Anwendungen zu übertragen, anstatt die Trainingsteilnehmer mit komplexen Formeln zu erschlagen!

EINFÜHRUNG > Aufbau eines Lean Six Sigma Programms

EINFÜHRUNG > Verschiedene Typen von Lean Six Sigma Projekten

Verschiedene Typen von Lean Six Sigma Projekten Lean Six Sigma bietet einen allgemeinen Ansatz zur Problemlösung, aber seine Anwendung wird ein breites Spektrum von Projekten umfassen, von kleineren lokalen Verbesserungen bis hin zu größeren Projekten. Lean Six Sigma Projekte:

Es gibt keinen klaren Unterschied zwischen Lean und Six Sigma , wenn es um Projekte im wirklichen Leben geht. Sie hören vielleicht, dass man an einem „Lean Projekt" oder „DFSS-Projekt" ( Design for Six Sigma) arbeitet, aber in der Realität versuchen alle, Prozesse und Produkte zu verbessern. Jedes Projekt neigt dazu, hinsichtlich der Arten von Tools, die sich als nützlich erweisen, einzigartig zu sein, und das Diagramm unten zeigt die beiden Extreme des Spektrums.

Lokales Verbesserungs Projekt

Es geht nicht nur um die Größe!

Lokale Verbesserungsprojekte sind nicht notwendigerweise kleinere Projekte (aber können es sein). Einige lokale Projekte haben zu erheblichen Einsparungen geführt, wenn sie in einer Organisation eingeführt wurden. Ein wichtigerer Aspekt eines Projekts ist die Art des Problems und die am besten geeigneten Tools, um es zu lösen. Die folgende Seite zeigt die verschiedenen Arten von Tools und Techniken, die für lokale Verbesserungsprojekte verwendet werden können, im Vergleich zu denen, die in fortgeschrittenen Projekten nützlich sind.

Lean Six Sigma Projektspektrum. Vom Lean Projekt...

Viele schnelle inkrementelle Verbesserungen.

...zu Six Sigma orientiert

Fortgeschrittene Projekte

Wenige, substantiellere Verbesserungen.

Ein 'just do it' Ansatz.

Eingehende Analyse, die längere Zeiträume erfordert.

Kleinere Teams.

Größere Teams mit übergeordnetem Sponsoring.

Lokaler Umfang.

Breiterer Umfang, oft Teil einer Initiative.

Niedrigere Projekteinparungen (aber nicht immer!).

Höhere Projekteinsparungen oder strategisch kritisch.

Lokale Bereitstellung und Führung.

Lokale oder unternehmensweite Bereitstellung.

Praktische, kostengünstigere Lösung.

Mischung aus prakischen und anspruchsvollen Lösungen.

Verschiedene Arten von Lean Six Sigma Projekten (Fortsetzung) Lokale Verbesserungsprojekte

Fortgeschrittene Projekte

Bewegliches Rahmenwerk, mit Fokus auf Verbesserung.

DMAIC Rahmenwerk

Rigoros angewendet, mit starkem Fokus auf D, M & A, um erfolgreiche Verbesserungsund Kontrollphasen zu gewährleisten.

Selten erforderlich für lokale Verbesserungsprojekte.

Fortgeschrittene statistische Tools

MSA, Fähigkeitsanalyse, Versuchsplanung, Regression, Hypothesentest, Prozessmodellierung.

Prozessdarstellung, Ursache und Wirkung, 5-mal-Warum, ParetoAnalysen, Zeitreihendiagramme, Histogramme usw.

Qualität- und Grafik-Tools

Grundlegende Techniken und erweiterte Tools wie QFD, KPI-Bäume, Verlaufsdiagramme, Streudiagramme, Wahrscheinlichkeitsdiagramme, FMEA usw.

Grundlegende LeanTechniken (Wertstromanalyse, Spaghetti-Diagramm, sieben Verschwendungsarten usw.).

Lean Tools

Grundlegende Lean-Tools zuzüglich erweiterte Methoden, wie One Piece Flow, Reduzierung der Komplexität und Just-inTime.

Kleine Projektteams, die von Prozessverantwortlichen geleitet werden, und daher weniger Teamleitung fordern.

Projekt- und TeamleitungsFertigkeiten

Führungsstärke sowie die Managementfähigkeiten einer Interessengruppe sind für den Erfolg großer Projekte entscheidend.

EINFÜHRUNG > Verschiedene von Arten von Lean Six Sigma Projekten

EINFUHRUNG > Woher kommen Lean Six Sigma Projekte?

Woher kommen Lean Six Sigma Projekte? Verbesserungsprojekte kommen aus verschiedenen Quellen innerhalb einer Organisation. Zu jedem Zeitpunkt werden Weltklasse-Organisationen eine Reihe von verschiedenen Verbesserungsprojekten durchführen, aber woher kommen sie? Das nebenstehende Modell zeigt ein vereinfachtes, aber typisches Szenario, in dem einige Verbesserungsprojekte Teil von „Topdown"Initiativen sind, und andere von „Bottom-up"-lnitiativen ausgehen. Dieses Modell ist ein nützlicher Ausgangspunkt, um Organisationen bei der Entwicklung einer umfassenden Verbesserungsstrategie zu unterstützen. Es ist auch erwähnenswert, dass es ein Spektrum verschiedener Arten von Verbesserungsprojekten gibt, wie auf den beiden vorherigen Seiten beschrieben.

Zentrales Management

Externes VOC Feedback

Von oben nach unten /(„Top-down"), zentral gesteuerte Projekte:

Von unten nach oben („Bottom up"), lokale Projekte: • Internes VOC Feedback (z. B. aus dem nächsten Schritt im Prozess) ist nützlich, um lokale Verbesserungsprojekte zu priorisieren. • Lokalisierte (initiativen können oft am besten über DMAIC bereitgestellt werden, um sicherzustellen, dass sie echte Probleme lösen und Vorteile bringen. • Vorschläge von Mitarbeitern sind ein Beispiel für „Bottom-up" Projekte, obwohl sie zentral überprüft und überwacht werden können.

großes Anderungsmanagementprogramm

Andere Top Down' Quellen

Verbesserungsprojekte in allen Formen und Größen (siehe Projektspektrum S.7)

• Externes VOC Feedback wird häufig zentral gesammelt und dazu verwendet, Projekte einzurichten, die sich auf die Verbesserung der Produkt-/Servicequalität konzentrieren. • Strategische Ziele können spezifische Projekte hervorbringen oder als Kriterien für die Bewertung vorgeschlagener Projekte dienen (d. h. Stimmen sie mit der Strategie überein?). • Große Änderungsmanagementprogramme werden routinemäßig in Teilprojekte zerlegt, von denen einige ideale DMAIC-Projekte sein werden.

Strategische Ziele

Internes VOC Feedback

Lokale Initiativen

Mitarbeiter Vorschläge

Lokales Management

Andere 'Bottom Dp' Quellen

Management von Lean Six Sigma Projekten Wie alle Projekte, erfordern Lean Six Sigma Projekte ein effektives Projektmanagement, um erfolgreich zu sein.

.. . 11—M 11—\ Projekt Motor | > Definieren | >

Der Auswahl-Prozess:

Der „Projekt Motor" (auf den Seiten 5 und 6 vorgestellt) ist ein Prozess, der eine breite Palette von Projektideen berücksichtigt und diese auf eine priorisierte Liste potenzieller Six Sigma-Projekte reduziert. Aber der Auswahl-Prozess endet hier nicht. Projektprüfungen am Ende der Phasen „Defineren" und „Messen" sollten ebenfalls als AuswahlKriterien betrachtet werden, bei denen Six Sigma-Projekte angehalten oder gestoppt werden können, wenn die Bedingungen nicht zutreffen. Die Möglichkeit, Projekte zu stoppen, die nicht mehr die richtigen Komponenten für den Erfolg haben, ist ein wichtiges Merkmal eines „ausgereiften" Verbesserungsprogramms.

Warum könnten Projekte gestoppt werden?

Projekte können bei der Überprüfung in der Phase "Definieren" aus einer Vielzahl von Gründen angehalten oder gestoppt werden, z. B. mangelnde Unterstützung, Mangel an Ressourcen, unklare Problemdarstellung und Zielbeschreibungen, ein unklarer Business Gase, geringe Renditechancen, usw. Projekte können gelegentlich, obwohl weniger wahrscheinlich, auch am Ende der Phase "Messen" gestoppt werden. Dies könnte dann der Fall sein, wenn sich herausstellt, dass das Problem eher durch die Art des Messens des Prozesses verursacht ist, als durch dessen tätsächliche Leistung.

Messen

11—M | >

Analysieren, Verbessern (Improve), Regeln (Control)

J_L Projektbewertungen / Meilensteine / Phasenabschlüsse:

Ein gutes Projektmanagement beinhaltet die Entwicklung eines klaren Projektplans, mit Meilensteinen und zugehörigen Ergebnissen. Es ist sinnvoll, die Meilensteine des Projektplans wie oben gezeigt mit den DMAIC-Phasen von Lean Six Sigma abzustimmen. Eine Checkliste und eine Liste von Prüfungsfragen finden Sie am Ende jeder DMAICPhase in diesem Handbuch.

Projekt Dokumentation:

Eine effektive Methode zur Dokumentation eines Six Sigma-Projekts ist die Verwendung einer Projektarbeitsdatei, die im Verlauf des Projekts aktualisiert wird (als Präsentation). Wie eine Präsentation, bietet die Projektarbeitsdatei eine Zusammenfassung des bisherigen Projekts, die als Grundlage für Projekt-Coaching und zur Bewertung dienen kann. Die DMAIC-Phasen des Projekts sollten in der gesamten Projektarbeitsdatei klar dargestellt werden (siehe Seite 29). Der Wert einer Arbeitsdatei liegt darin, dass sie die Projektklarheit fördert, indem sie einen Black Belt dazu ermutigt, die Fortschritte innerhalb der DMAIC-Struktur kontinuierlich zusammenzufassen.

EINFÜHRUNG > Management von Lean Six Sigma Projekten

EINFUHRUNG > Minitab(

Minitab - Übersicht i

Was ist Minitab?

Minitab ist ein statistisches Softwarepaket, das häufig von Fachleuten auf den Gebiet der kontinuierlichen Verbessererung angewendet wird. Minitab ist nicht die einzige Software dieser Art, aber sie hat sich aufgrund ihrer spezifischen Funktionalität und Benutzerfreundlichkeit zum Industriestandard für Lean Six Sigma und Operational Excellence entwickelt. Weitere Informationen zu Minitab finden Sie unter:

www.minitab.com Wie der Titel dieses Buches andeutet, ist Minitab eng in dieses Handbuch integriert, mit detaillierten Anweisungen zur Vervollständigung der Tools und Techniken, die die Software verwendet. Auf Seite 13 wird erläutert, wie Sie die MinitabDateien für die Beispiele in diesem Handbuch herunterladen können. Das nebenstehende Bild zeigt einen typischen Screenshot der Minitab Software. Es zeigt, dass eine Minitab-Projektdatei (Erweiterung .MPJ) normalerweise aus mehrere StandardFenster-Arten (rechts beschrieben) enthält.

Deskriptive Statistik: Daten Statistik

23.7767 13.6906 19.7382 211140 20.6409 24.1642

Der Session-Ordner:

Ein Minitab-Projekt hat immer einen Session-Ordner, in dem die gesamte nummerische Ausgabe (im Gegensatz zur grafischen Ausgabe) zu finden ist, die während der Analyse erstellt wird. Der Session-Ordner speichert alle Ergebnisse in chronologische Reihenfolge, so dass es als Verlauf der durchgeführten Analyse genutzt werden kann.

Arbeitsblatt:

Daten werden in Minitab Arbeitsblättern gespeichert (die Tabellen ähneln). Minitab arbeitet in Spalten und jeder unterschiedliche Datentyp sollte in einer eigenen Spalte eingegeben werden. Dieses Spaltenformat ist sehr flexibel und ermöglicht es Benutzern, die Daten während der Analysephase sehr schnell zu zerlegen (siehe Seite 117 für weitere Informationen zur Minitab-Datenstruktur).

Grafik:

f Jedes in Minitab erstellte Diagramm wird in einem eigenen Fenster angezeigt, wie mit dem Histogrammbeispiel auf der linken Seite dargestellt. MinitabDiagramme können problemlos exportiert werden, und die Verknüpfung zwischen einem Diagramm und den Originaldaten kann gesteuert werden (d. h. ob das Diagramm aktualisiert wird, wenn die Daten geändert wurden siehe Seite 119). Minitab-Grafiken können auch mit der Funktion Markieren (siehe Seite 120) „erkundet" werden. Dies ist ein leistungsstarkes Werkzeug, das bei der Suche nach Hinweisen in den Daten hilft.

Companion von Minitab® - Übersicht Was ist Companion by Minitab?

Companion von Minitab ist eine Software, mit der Unternehmen ihre Programme zur kontinuierlichen Verbesserung verwalten können. Wie dieses Buch zeigt, ist die Verwendung von Minitab zur Datenanalyse nur ein kleiner (aber essentieller) Teil eines echten Lean Six SigmaProjekts. Erfolgreiche Verbesserungsprojekte erfordern auch eine sorgfältige Verwaltung durch eine klare Struktur (z. B. DMAIC) und verwenden eine viel breitere Palette von Werkzeugen als nur Graphen und Hypothesentests! Companion von Minitab unterstützt dies, indem es Benutzern ermöglicht, ihre Verbesserungsprojekte über ein strukturiertes Framework zu verwalten und „nicht statistische" Formulare und Tools wie Prozessdarstellung, CTQ-Bäume, Ursache-AVirkungsdiagramme, Brainstorming usw. bereitzustellen. Companions Vorteil ist die nahtlose Integration von Projekt-Tools und Dashboard Reporting. Wenn Teams mithilfe von Tools in ihrer DesktopApp Projekte durcharbeiten, werden kritische Daten automatisch zu einer Web-App und einem Dashboard verknüpft, sodass Führungskräfte und Stakeholder den aktuellen Status ihres Projektes bei Bedarf sehen können. Da das Dashboard automatisch aktualisiert wird, ist das Reporting für Teams buchstäblich mühelos, sodass sie mehr Zeit haben, sich auf Projektaufgaben zu konzentrieren. Der Abschnitt „Verwalten" in diesem Buch (S. 268) konzentriert sich speziell auf Companion und enthält Anleitungen und Screenshots für die Desktop- und Web-Apps. 1) Die Companion Desktop App unterstützt Projektteams bei der Durchführung von Projekten durch Bereitstellung: • Strukturierter, anpassbarer Wegweiser. • Zentraler Speicherort für die Dokumentation eines Projekts. • Palette von Prozessverbesserungswerkzeugen. • Auswahl relevanter Projektmanagement-Tools. Das Project Today screen der Companion Desktop App (rechts) bietet eine Startseite für ein Verbesserungsprojekt und eine Zusammenfassung der wichtigsten Elemente.

EINFUHRUNG > Companion von Minitab0

2) Die Companion Web App, hilft Führungskräften, Stakeholdern, Sponsoren und Programmmanagern dabei, einen Überblick über den Status ihres gesamten Verbesserungsprogramms sowie einzelner Projekte zu erhalten. Dashboards und Berichte können leicht für bestimmte Zielgruppen angepasst werden. Darüber hinaus ermöglicht das Design-Center der Web-App (p285) die zentrale Entwicklung von Projektvorlagen und -formularen, die für eine unternehmensweite Standardisierung sorgen.

EINFÜHRUNG > Vewendung dieses Handbuchs mit Minitab

Verwendung dieses Handbuchs mit Minitab Dieses Buch ist als praktische Lernressource konzipiert. Sie erhalten maximalen Lernwert, indem Sie die Minitab-Analyse-Beispiele selbst durcharbeiten, während Sie das Buch durchgehen. Um dies zu unterstützen, stehen die Dateien für alle Beispiele auf der Website von OPEX Resources zum kostenlosen Download zur Verfügung. Dort finden Sie auch weitere nützliche Ressourcen. Auf dieser Seite wird erläutert, wie Sie die Minitab-Beispielen folgen können.

Folgen Sie den Minitab Menübefehlen:

Wenn in diesem Text ein neues Werkzeug oder eine MinitabDialogbox angezeigt wird, finden Sie auch den zugehörigen MinitabMenübefehl. Dies wird wie folgt blau geschrieben:

Minitab: Stat > Basic Statistics > usw. Beachte: Das Symbol > weist auf das nächste Untermenü.

Laden Sie die Dateien und Vorlagen herunter:

Das folgende Symbol zeigt an, dass eine Datei (mit dem angezeigten Namen) für das Beispiel auf dieser Seite verfügbar ist:

Beispiel Dateiname.mpj

Die angegebenen Minitab-Menübefehle basieren auf den Standardmenüs von Minitab 18, wobei Unterschiede zu früheren Minitab-Versionen angegeben wurden, um sicherzustellen, dass der Text kompatibel ist.

Benutzen des OPEX Customized Minitab Menüs:

Gehen Sie zu www.opexresources.com und laden Sie die Dateien aus dem Abschnitt Ressourcen (oder dem Menü Schnellverknüpfungen) herunter.

Minitab bietet ein einfach zu bedienendes Tool zur Menüanpassung, mit dem Sie Ihre eigene Menüstruktur ändern und erstellen können. Auf diese Weise können Sie Ihre am häufigsten verwendeten Tools und Funktionen in einem neuen Menü zusammenfassen, das als Profil gespeichert und mit anderen Benutzern geteilt werden kann.

Alle Minitab-Dateien und andere Vorlagen werden in einem einzelnen Zip-Ordner heruntergeladen. Wählen Sie einfach den passenden Download für die Version von Minitab aus, den Sie haben, und laden Sie die Zip-Datei dann auf Ihren Computer herunter. Nach dem Speichern entpacken Sie die Datei.

Wenn Sie Ihr Menü nicht anpassen möchten, haben wir eins für Sie erstelllt! Alle Minitab-Tools, die in diesem Handbuch beschrieben werden, wurden in einem „OPEX Customized MinitabMenü" zusammengefasst, das kostenlos von der OPEX-Website heruntergeladen werden kann.

Sie können die Dateien in Minitab auf normale Weise öffnen (Datei > Öffnen und dann zur Datei navigieren) oder direkt mit Doppelklick.

Weitere Informationen zu diesem vorgefertigten Profil finden Sie in Anhang C zusammen mit detaillierten Anweisungen zur Installation auf Ihrem PC. Das Profil kann einfach ausgeschaltet oder entfernt werden.

Definieren (DEFINE) - Übersicht Der DMAIC Prozess beginnt mit der Identifizierung eines Problems. Die Phase " Definieren" dient dem Verständnis: Warum ist es ein Problem?, bevor man Zeit und Ressourcen in ein Projekt investiert. Der Fluss durch die Phase "Definieren": f

Geschäftsnutzen formalisieren

Kundensicht verstehen

Prozess definieren

N,

Projektleitung managen v.

Was stimmt nicht? Was möchte man erreichen?

Wie ist das Problem mit dem Kunden verbunden?

Problemdarstellungen (S. 15)

Stimme des Kunden (S. 19)

Zielbeschreibungen (S. 17)

Kano Modell der Kundenzufriedenheit (S. 20)

"Costs of Poor Quality" (S. 18)

"House of Quality" (S. 21) CTQ Baum (S. 23)

Wie ist das Problem mit dem Kunden verbunden?

SIPOC (LEPAK) Prozessdarstellung (S. 25)

J Wer?' Wo? Wann? Wie?

Genehmigung des Projekts erhalten

F Findet das Projekt die notwendige Akzeptanz, um notv durchgeführt und erfolgreich abgeschlossen zu werden?

Projektstruktur- und ablaufsplanung (S.27) Stakeholdeanalyse (S.28) Projektdateien (S. 29)

Gemba (S. 26)

O

Projektcharter (S. 32)

Moderationstechniken (S. 30) Effektive Teams und Meetings (S. 31)

Six Sigma Projekte beginnen mit Problemen, nicht mit Lösungen: Die Phase "Definieren" fokussiert sich lediglich auf das Problem • Grundursachen und Lösungen werden im Folgenden behandelt. Falls Lösungsvorschläge schon angedacht sind, oder der Projektname darauf schliessen lässt, ist es Aufgabe des Projektleiters, das Projekt problemorientiert umzugestalten.

DEFINIEREN (Define) > Übersicht

DEFINIEREN (Define) > Problemdarstellung

Problemdarstellungen Eine Problemdarstellung ist ein einfaches und dennoch leistungsstarkes Werkzeug, ist aber nicht so einfach wie es scheint! Problemdarstellungen sind kurze aber konkrete Beschreibungen des Problems. Sie dienen dazu, das Problem klar zu beschreiben, die Häufigkeit des Auftretens und die Auswirkungen (Kosten) deutlich zu machen.

Was macht eine gute Problemdarstellung aus? • Halten Sie es kurz: höchstens 2-3 kurze Sätze • Vermeiden Sie Fachsprache: Das Problem soll in einfachen Worten beschrieben werden. • Quantifizieren Sie das Problem: Nutzen Sie verfügbare Daten. • Erläutern Sie die mit dem Problem zusammenhängenden Kosten: Sie sollten auf die durch mangelnde Qualität (COPQ) verursachten Kosten verweisen. • Definieren Sie den Umfang: Setzen Sie Begriffe ein, die dazu beitragen, den Umfang des Projektes zu definieren.

Beispiele von Problemdarstellungen: 1) Im Laufe des Jahres 2016 dauerten 20% der Zahlungen der Überseekunden länger als die vereinbarten Zahlungskonditionen. Daraus entstanden durchschnittliche Außenstände von k€375 bei 5% Kapitalkosten. 2) Von Oktober 2016 bis März 2017 haben 5% des auf Linie 1 hergestellten Produkts A, die Endkontrolle nicht bestanden. Daraus entstanden zusätzliche Überprüfungen/Umarbeitungen bei monatlichen Kosten von k€25 und eine Ausschussrate von 2%, mit Folgekosten von monatlich k€20 in Form entgangener Einnahmen.

/\s ist gut an den o

Wenden Sie die unten aufgeführte SMART Checkliste an, um Ihre Darstellung auf den Prüfstand zu stellen. Ist die Problemdarstellung:

Spezifisch? Messbar? Akzeptiert? (Zielbeschreibung) Realistisch / Relevant? Terminiert?

• Beide enthalten Zeitangaben und Daten, die dazu beitragen, die Ausgangssituation zu beschreiben. • Der Umfang des Problemes wird durch Begriffe wie Produkt A, Übersee und Produktionslinie 1 festgelegt. • Beide Problemdarstellungen erläutern, wie sich die Probleme auf die Organisation auswirken, und liefern eine Schätzung der damit verbundenen Kosten. • Sie beinhalten keine Lösungsansätze oder Grundursachen.

Problemdarstellungen - Wie tief sollen wir gehen? Die Schwierigkeit der Entwicklung einer Problemdarstellung besteht häufig darin, eine Entscheidung zur Detailtiefe zu treffen, und auf welcher Prozessebene sie innerhalb der Organisation aufgestellt werden sollte. Die Aufgabe besteht darin sich zu vergewissern, dass die Problemdarstellung nicht ein Problem absteckt, von dem Sie die Lösung schon kennen. Beginnen Sie am Anfang... Die Geschäfte erwirtschaften zu wenig Gewinn!

Diese Darstellung ist für ein Six Sigma Projekt zu weit gefasst. Es ist nicht möglich alle Probleme auf einmal zu lösen. Darüberhinaus ist die Formulierung nicht SMART (s. Seite 15). Und, realistisch gesehen, wissen wir schon, warum das Geschäft zu wenig Gewinn erwirtschaftet.

Nun versuchen Sie die nächste darunterliegende Ebene... Während der letzten 12 Monate lagen unsere Betriebskosten um 20% höher als Best-in-Class (oder Ziel), wodurch der Gewinn gemindert wurde.

Nun wird es zunehmend handhabbar, da es sich um eine tiefere Ebene (nämlich Betriebskosten) handelt, nicht um die höhere Ebene Gewinn. Der Umfang ist jedoch für ein Lean Six Sigma Projekt immer noch zu gross.

Nun versuchen Sie die nächste darunterliegende Ebene... Der Nacharbeitungsaufwand innerhalb des Abrechnungsprozesses der Niederlassung Süd beläuft sich seit einem Jahr auf 70%. Dies führt zu erhöhten Betriebskosten (Arbeitszeit, EDV, Bürofläche), entgangene Einnahmen und eine niedrige Kundenzufriedenheit.

DEFINIEREN (Define) > Problemdarstellung

Zielbeschreibung

Zielbeschreibungen Eine Zielbeschreibung antwortet auf die Problemdarstellung und legt das Projektziel fest. Zielbeschreibungen sollen kurz und konkret sein. Sie dienen als Antwort auf die Problemdarstellung.

Was macht eine gute Zielbeschreibung aus? • Fassen Sie sich kurz. • Vermeiden Sie Fachsprache. • Verwenden Sie dieselben Metriken wie in der Problemdarstellung. • Versuchen Sie möglichst spezifisch zu sein, wenn es sich um Zeitangaben handelt.

Beispiele von Zielbeschreibungen: 1) Reduzieren Sie bis Ende des vierten Quartals 2017 die Prozentzahl der Zahlungen der Überseekunden, die länger als die vereinbarten Zahlungskonditionen dauern, von 20% auf 5%. 2) Verringeren Sie bis Ende Oktober 2018 die Ausschussrate der Endkontrolle des auf Linie 1 hergestellten Produkts A von 5% aufX%.

• Vermeiden Sie die Definition von Problemlösungen.

Wie setzt man ein Ziel während der Phase DEFINIEREN?

Was ist gut an den oben aufgeführten Bespielen?

Zu diesem Zeitpunkt des Projektes ist eine Quantifizierung der zu erwartenden Prozessverbesserung natürlich schwierig. Es gibt ein paar Optionen, um dies zu lösen:

• Beide legen Termine fest, bis wann die Verbesserungsmassnahmen umgesetzt werden müssen.

• Geben Sie einen Schätzwert an, (den man zu einem späteren Zeitpunkt revidiert). • Setzen Sie ein 'X' ein (S. Beispiel 2 rechts). Dies weist darauf hin, dass eine Schätzung später angegeben wird. Die Zielbeschreibung wird typischerweise am Ende der Phasen "Messen" und "Analysieren" auf den Prüfstand gestellt, um sicherzustellen, dass das Ziel realistisch bleibt.

• Beide legen fest, welche Prozessmessgrössen verbessert werden sollen. • Beide enthalten keine Lösungen oder Grundursachen. • Der Projekterfolg wird durch Verbesserung einer Kennzahl definiert. • Beide sind kurz gefasst.

Kosten aufgrund der Nichterreichung der Qualität (COPQ) Der Six Sigma Begriff „Cost of Poor Quality" bezieht sich auf alle dem Problem zugeordneten Kosten. Es gibt zahlreiche „Cost of Poor Quality" (COPQs), die leicht erkennbar sind, wie zum Beispiel Umarbeitungen, Ausschuss, Eignungsprüfungen, Kundenrückgaben und -reklamationen, usw. Darüberhinaus findet man ein breites Spektrum an COPQs, die so üblich vorkommen, dass diese schon als „normal" betrachtet werden, wie Überbevorratung, verspätete Zahlungen, Versand kosten, hohe Mitarbeiterfluktuation, usw.

COPQ und die Problemdarstellung:

Die Problemdarstellung sollte die Hauptkategorie der COPQ enthalten, die das Geschäft finanziell belastet. Z. B. Finanzielle Auswirkungen des Problems könnten entgangene Einnahmen, Materialausschusskosten, Personal kosten beim Nacharbeiten oder Kapitalbindung durch Überbevorratung, usw. sein. Üblicherweise hat jedes Problem mehrere unterschiedliche COPQs, es lohnt sich, um diese abgesehen von der Problemdarstellung zu erweitern.

Harte gegenüber weiche Nutzen:

Nach der Lösung eines Problemes helfen uns die COPQs, harte und weiche Nutzen zu definieren, die daraus resultieren. Unter „harte Nutzen" versteht man Nutzen die sich finanziell quantifizieren lassen, „weiche Nutzen" lassen sich dagegen nicht finanziell ausdrücken. Weiche Nutzen, z.B. verbesserte Kundenzufriedenheit, sollte man jedoch nicht ignorieren, da diese eines Tages möglicherweise in harten Nutzen umgewandelt werden können.

Unterschiedliche Arten der COPQ

Die unten aufgeführten Kategorien sollen dazu dienen, das Thema COPQ ins Bewußtsein zu bringen. Hierbei wird nur ein Rahmen vorgestellt, um sicherzustellen, dass beim COPQAssessment nichts verpasst wird.

Bewertung:

Dies umfasst Systeme, Prozesse oder Verfahren, die sich mit der Erfassung von Problemen beschäftigen, wie Eignungsprüfungen. Wie oft führen Sie etwas aus und überprüfen dies umgehend. Vorbeugung: Es gibt oft zahlreiche Systeme und Abläufe zur Fehlervermeidung. Obwohl nützlich, gehören diese zur COPQ.

Interne Fehlerkosten:

Interne Fehlerkosten treten noch im Prozess/Unternehmen auf, also bevor der Fehler an den Kunden weitergegeben wird, sind aber COPQ. Eines Tages erreichen die Kosten den Kunden in Form von erhöhten Preisen oder Verzögerungen.

Externe Fehlerkosten:

Externe Fehlerkosten sind Kosten, die aus Fehlerentdeckungen beim Kunden resultieren. Die Kosten können gravierend werden.

Wichtig! Die Nutzen des Projektes mit Controlling während der Phase "Definieren" prüfen, um abzustimmen, wie am Ende des Projektes eine verbesserte Prozessleistung finanziell quantifiziert werden kann.

DEFINIEREN (Define) > Costs of Poor Quality (COPQ)

DEFINIEREN (Define) > Stimme des Kunden / Voice Of The Customer (VOC)

19

Stimme des Kunden / Voice Of The Customer (VOC) Auch im kleinsten Six-Sigma-Projekt muss sichergestellt werden, dass es auf den Kunden fokussiert ist. In der Praxis bedeutet das, mit den Kunden zu sprechen und selbst sein eigener Kunde zu werden, um die Kundenbedürfnisse zu verstehen. Verschiedene Methoden, um die VOC zu erheben: • Kundenreklamationen - Ein guter Startpunkt, aber seien Sie sich einer möglichen Voreingenommenheit bewusst. • Direkter Kontakt - Anrufe, Fokus-Gruppen, Interviews vor Ort • Indirekte Methoden - Umfragen, Feedbackbögen, Marktforschung, Analyse der Wettbewerber, usw. • Ein Kunde der eigenen Organisation werden - Rufen Sie das eigene Call Centre an, bestellen Sie Lebensmittel in Ihrem eigenen Online- Versand, kaufen Sie eine Waschmaschine der eigenen Marke, eröffnen Sie ein Konto bei Ihrer eigenen Bank, usw.

! Es gibt keine Ausrede, die Stimme des Kunden (VOC) nicht zu berücksichtigen! Die meisten Six-Sigma-Projekte sind zu klein, um ein Budget für wissenschaftliche Kundenforschung zu rechtfertigen, und diese wird gewöhnlich auch nicht benötigt. Im Internet sind vielfältige Informationen bzgl. Marktforschung verschiedener Organisationen auf den jeweiligen Websiten öffentlich zugänglich, und viele der dort vorgestellten Methoden und Vorschläge benötigen keine weiteren Aufwendungen außer Zeit.

Einige praktische Beispiele für das Sammeln der VOC:

Denken Sie an die Praxis! VOC-Forschung kann nicht vom Schreibtisch aus erfolgen, Sie müssen losgehen und die Kunden treffen!

Beispiel 1:

Für ein Projekt, das auf die Reduzierung der Kosten für den Einzug der Versicherungsbeiträge von Privatkunden abzielt, können Sie einige Kunden zufällig auswählen, anrufen, und mit ihnen über die Gründe für die gewählte Zahlmethode (Kreditkarte, Lastschrift, Bar) sprechen.

Beispiel 2:

Für ein Projekt, das die Erhöhung der Kundenzufriedenheit eines Lieferdienstes anstrebt, können Sie ein oder zwei Tage mit einem Lieferwagen mitfahren und vor Ort direkt mit den Kunden sprechen. Was an der gebotenen Dienstleistung ist besonders wichtig? Was ist akzeptabel, was nicht?

Beispiel 3:

Für ein Projekt, das auf die Produktionsqualität einer Flugzeugkomponente ausgerichtet ist, können Sie mit den Ingenieuren des Kunden sprechen, um ihre Denkweise bzgl. des Designs, der Toleranzen, Materialien, usw. zu verstehen.

Kano-Analyse Beim Sammeln der VOC kommt es zu unterschiedlichen Formen der Rückmeldung des Kunden. Das Kano-Modell bietet einen Rahmen, um die verschiedenen Leistungsmerkmale eine Produktes oder einer Dienstleistung zu kategorisieren und priorisieren. Basismerkmale („Must Haves") erfüllen eine grundlegende Anforderung des Kunden, und der Kunde nimmt an, dass diese vorhanden sind. Sie bekommen keine Extrapunkte für diese Merkmale, aber der Kunde wird feststellen, wenn sie nicht vorhanden sind. Daher werden sie ebenfalls als Unzufriedenheitsfaktoren bezeichnet. Die Leistungsmerkmale („More is better") erfüllen eine Leistungsanforderung. Je mehr (in Anzahl und Ausprägung) dieser Merkmale zur Verfügung stehen, umso zufriedener ist der Kunde. Daher werden sie ebenfalls als Bedarfsdecker bezeichnet. Beispiele hierfür in einem Auto sind der Kraftstoffverbrauch, die Reichweite und (für einige Kunden) die Anzahl der Becherhalter! Begeisterungsmerkmale („Delighters") erfüllen das Bedürfnis nach Spannung, Vorfreude und Begeisterung über das Produkt oder die Dienstleistung. Sie vermitteln den „Wow-Faktor" und begeistern den Kunden - daher ihr Name! Das Problem bei der Ermittlung der Begeisterungsmerkmale ist, dass sogar die Kunden nicht notwendigerweise in der Lage sind, zu benennen, was sie begeistert, da sie diese Erfahrung ja noch nicht gemacht haben! Beispiele für Begeisterungsmerkmale beim Autokauf könnten die Autoübergabe zuhause, früher als geplant, frisch gewaschen und verbunden mit einer Flasche Champagner sein.

Unterschiedliche Wege, das Kano-Modell zu nutzen: • Man kann bestehende oder vorgeschlagene Merkmale eines Produktes oder einer Dienstleistung in die Kano-Kategorien einordnen, um besser zu verstehen, wie ein Produkt oder eine Dienstleistung die Kundenbedürfnisse erfüllt. • Man kann die Kunden bitten, dasselbe zu tun, um die VOC besser zu verstehen. • Man kann das Kano-Modell nutzen, um allgemeine Kundenrückmeldungen zu kategorisieren und strukturieren.

DEFINIEREN (Define) > VOC > Kano-Analyse

Begeisterungs nerkmale

0) 0? '(D

Das Kano-Modell ermittelt drei Kategorien von Leistungsmerkmalen eines Produktes oder einer Dienstleistung.

cn VOC > Haus der Qualität / House of Quality

Haus der Qualität / House of Quality Das House of Quality hilft, die Kundenanforderungen in Bezug zu den Fähigkeiten eines Produktes oder einer Dienstleistung zu setzen. Damit wird sichergestellt, dass ein Produkt (oder Dienstleistung) einen echten Mehrwert für den Kunden liefert, und nicht nur die bloße Erfüllung von Anforderungen. Das House of Quality ist eine strukturierte Methode, um die: • Kundenbedürfnisse zu erfassen (das „Was"). • Kundenbedürfnisse in grundlegende Merkmale das Produktes (oder der Dienstleistung) zu übersetzen (das „Wie"). • Verknüpfung zwischen Produktmerkmalen und Kundenanforderungen, sowie Wechselwirkungen zwischen den Produktmerkmalen zu bewerten. • spezifischen Anforderungen an die Entwicklung und Herstellung eines Produktes, oder die Erbringung einer Dienstleistung, abzuleiten. Die Bestandteile des House of Quality werden auf der nächsten Seite beschrieben. Die Methode selbst ist ein integraler Bestandteil des weiter gefassten Ansatzes „Quality Function Deployment (QFD)". Was ist QFD (Qualitätsfunktionendarstellung)? Der Begriff QFD bezieht sich auf einen umfassenden Ansatz zum Verständnis von Kundenbedürfnissen und deren Übertragung in Produkte/Dienstleistungen, die einen echten Nutzen liefern. Obwohl das House of Quality oft als Dreh- und Angelpunkt von QFD angesehen wird, kann ein breites Spektrum weiterer Methoden zusätzlich eingesetzt werden: • Kano-Analyse, CTQ-Bäume und Affinitätsdiagramme sind nützlich für das Verstehen, Strukturieren und Priorisieren von Kundenanforderungen. • Die Pugh-Matrix und der Paarweise Vergleich sind nützlich, um verschiedene Optionen zu vergleichen und Kundenanforderungen zu gewichten.

Ein schnellerer, team-basierter Ansatz zur Produktentwicklung: Durch das gleichzeitige Einbeziehen aller Stakeholder kann das House of Quality eine entscheidende Rolle bei der Optimierung von Entwicklungszeit und -qualität spielen. Dies steht im Gegensatz zum herkömmlichen Ansatz, bei dem ein neues Produkt jeweils von Marketing zu Design, zu technischer Entwicklung, und letztendlich zur Produktion, weitergereicht wird mit wenig vorausgehender Zusammenarbeit. ! Das House of Quality kann sich leicht zu einer umfangreichen Aufgabe entwickeln! Das House of Quality ist vergleichbar mit einer FMEA (siehe S. 114), da es die Zusammenarbeit im Team erfordert, um eine detailliertes Aufgabenpaket zu bearbeiten. Ohne sorgsame Moderation und gute Team-Disziplin bergen beide Methoden die Gefahr, mühselig zu werden und sich festzufahren, was einen Großteil ihres Nutzens zunichtemacht. Ein nützlicher Ansatz (für beide Methoden) ist, die Team-Mitglieder einzelne Aufgaben selbstständig außerhalb der House of Quality (oder FMEA) Meetings bearbeiten zu lassen. Dies beschleunigt den Prozess, da in den Meetings der Fokus auf der Erreichung einer Übereinstimmung liegt (und nicht darauf, das Thema von ganz vorne aufzurollen). So kann, z.B. während einer ersten Zusammenkunft, das Team sich auf die Kundenanforderungen und technischen Merkmale (das „Was" und „Wie" - siehe nächste Seite) konzentrieren. Nach dem Meeting kann das Team individuell die verschiedenen Matrizen des House of Quality vervollständigen, um die Resultate in einer zweiten Besprechung vorzustellen, deren Fokus auf der Erreichung einer gemeinsamen Einschätzung liegt.

Haus der Qualität / House of Quality (Fortsetzung) Abhängig vom gezielten Anwendungsfall gibt es eine Vielzahl an Versionen des House of Quality. Um die Kernelemente zu demonstrieren ist das hier gezeigte Beispiel einfach und generisch gehalten.

Technische Merkmale

OA

^

Wettbeweber B

/\r Bezug Q

mittlerer Bezug

Q starker Bezug

Zielgrößen

Oo

Batterieart

1 Bezugs-Matrix leichte handhabung 4 (Relationship Matrix): Im £ O) zentralen Bereich des House S-o Taschengrösse 2 ~O 13 of Quality wird die Stärke der CD 0) CG £: Anpassbar 2 Beziehung zwischen jeder 1 Kundenanforderung und Schnelle Datentransfer 3 re jedem technischen Merkmal 5 i1 Guter Empfang bewertet. Typischerweise 1 v> 3 erfolgt eine einfache 'S Langlebige Batterie £ _i 3 Einstufung wie „stark, mittel, Technische Matrix schwach" (eine numerische Eigene Produkt/Dienstleistung Wertung ist ebenfalls möglich). Wettbeweber A In diesem Beispiel gilt:

Ausmaß (Grosse)

•5 S .S1

Bildschirmgrösse

!

Ersetzbare Hülle

Physikalisch

Netzabdeckung

c01 •o

u§0

Eigene Produkt/Dienst

Verbesserungsrichtung

Touch screen

Kundenanforderungen (das igen „Was"): Die Kundenanforderungen (falls hilfreich, gruppiert in Unterkategorien) werden auf der linken Seite des House of Quality aufgeführt. Das teilweise vervollständigte Beispiel bezieht 1t sich auf ein Smartphone. Jede Kundenanforderung wird nach ihrem Stellenwert eingeordnet.

Wechselwirkungs-Matrix (Correlation Matrix): das „Dach" Jede Wechselwirkung zwischen technischen Merkmalen (sowohl gegensätzliche als auch miteinander konkurrierende) wird im Dach des House of Quality festgehalten. In diesem Beispiel wurde die Wechselwirkung zwischen D Displaygröße (Screen Size) und Größe des Smartphom (Volume/Size) als negativ bewertet, um den Smartphones zugrundeliegenden zugrundelie Design-Konflikt zwischen einem großen Bildschirm und der Gerätegröße zu reflektieren. Bildschirm

A üo O

0

ü ©

AO


1 s

g> i t

Technische Merkmale (das „Wie") Die technischen Merkmale (die benötigt werden um die Kundenanforderungen umzusetzen) werden an der Spitze des Hauses (falls hilfreich, gruppiert in Unterkategorien) aufgeführt. Planungs- oder Vergleichs-Matrix (Planning Matrix) Die rechte Seite des House of Quality unterstützt die strategische Produktplanung. Aufbauend auf dem Stellenwert für den Kunden (Custorner Importance Rating), wird die Güte des Produktes (oder der Dienstleistung) für jede einzelne Kundenanforderung eingeschätzt. Die Güte von Konkurrenz-Produkten oder -Dienstleistungen kann ebenfalls eingeschätzt werden. Diese Informationen können genutzt werden, um strategische, auf die Kundenbedürfnisse zielende, Änderungen am Produkt oder der Dienstleistung zu planen.

Technische Matrix (Technical Matrix) Der untere Abschnitt Technische des House cof Quality unterstützt die technische Planung. Die des technischen Eigenschaften werden untereinander priorisiert und gegen Konkurrenz-Produkte oder -Dienstleistungen verglichen. Für jedes technische Merkmal werden Zielgrößen gesetzt, die nachfolgend für die Priorisierung technischer Entwicklungen genutzt werden.

DEFINIEREN (Define) > VOC > Haus der Qualität

DEFINIEREN (Define) > CTQ-Baum / Critical to Quality (CTQ) Tree

CTQ-Bäume / Critical to Quality (CTQ) Trees Nach dem Erlangen eines Verständnisses für die Stimme des Kunden (VOC), kann es hilfreich sein, die Ergebnisse in einem „CTQ-Baum" darzustellen. Dieses Vorgehen liefert Klarheit und Struktur für die Ableitung quantifizierbarer Spezifikationen. Was ist ein CTQ-Baum?

Ein CTQ-Baum hilft, Klarheit und Struktur in die Stimme des Kunden zu bringen. VOC-Informationen können sehr vielfältig sein, und es ist oft schwer, die Kernanforderungen der Kunden und deren Wechselwirkungen untereinander zu identifizieren. CTQ-Bäume sind nützlich, da sie eine visuelle Zusammenfassung der Stimme des Kunden erlauben, in der die Kernanforderungen klar herausgestellt werden. Diese werden dann bis auf die Ebene der spezifischen Kundenanforderungen und ihrer messbaren Spezifikationen heruntergebrochen. CTQ-Bäume sind ein wesentliches Werkzeug in der Phase "Definieren" eines Verbesserungsprojektes. Sie befähigen das Projektteam, sicherzustellen, dass an einem für den Endkunden wichtigen Thema gearbeitet wird.

Wie sich CTQ-Bäume mit anderen VOCWerkzeugen ergänzen: Aktivitäten, die Stimme des Kunden in Erfahrung zu bringen (wie die auf Seite 19 beschriebenen) liefern üblicherweise große Mengen von Informationen über die Kundenanforderungen und -bedürfnisse. Während die KanoAnalyse (Seite 20) helfen kann, die Kundenanforderungen zu verstehen, und Affinitätsdiagramme (Seite 112) bei der Identifizierung ähnlicher Themen oder Gruppen innerhalb der Rückmeldung von Kunden hilfreich sind, können CTQ-Bäume eingesetzt werden, um die Kundenanforderungen in einer klaren, hierarchischen Struktur zusammenzufassen.

Prozess für die Entwicklung eines CTQ-Baums: Definiere den spezifischen Anlass: An der Spitze des CTQ-Baums steht der spezifische Anlass des Kunden. Es ist lohnenswert, einen spezifischen Anlass statt eines Prozesses zu definieren, da ansonsten der CTQ-Baum nicht aussagekräftig wird. Das Beispiel auf der nächsten Seite bezieht sich daher auf das „Beheben eines Fehlers an einem privaten Breitbandanschluss" anstelle des allgemeinen „Fehlerbehebungsprozesses".

Identifiziere die allgemeinen Anforderungen der Kunden: In den meisten Fällen ist es möglich, die Erwartungen des Kunden in drei bis vier allgemeinen Anforderungen, wie etwa „unkomplizierte Fehlermeldung" oder „wieder schnell online gehen" zusammenzufassen.

Breche die allgemeinen Anforderungen in spezifische CTQs herunter: Der nächste Schritt ist das Aufschlüsseln jeder allgemeinen Anforderung in mehrere, spezifische und detailliertere Anforderungen bzgl. der Kundenerwartung.

Entwickle CTQ-Spezifikationen: Letztendlich wird jede spezifische CTQ in eine messbare Größe, wie etwa „Fehlerbehebung innerhalb von 4 Stunden", übersetzt. Diese CTQSpezifikationen werden später in der Phase "Messen" genutzt, um kundengetriebene KPIs (siehe Seite 35) abzuleiten.

CTQ-Bäume / Critical to Quality (CTQ) Trees (Fortsetzung) Das unten aufgeführte Beispiel eines CTQ-Baums bezieht sich auf den Prozess zur Fehlerbehebung an privaten Breitbandanschlüssen. Es liefert eine strukturierte Sicht auf die Kundenerwartungen und -anforderungen bei der Behebung eines Fehlers am Breitbandanschluss. Diese Seite des CTQ-Baums konzentriert sich auf das Kundenerlebnis beim Erhalten eines Produktes oder einer Dienstleistung.

Allgemeine Anforderungen

Spezifische CTQs

CTQ Spezifikationen

c

Unkomplizi erte Meldung c les Fehlers

Ke ne ten

n

Auf dem L aufenden gehalten werden

S chnell

Zugär gliche Inform ationen (Off- line)

Anrurf wird innerhalb von 7-mal Klingeln angenommen

KO CTQ-Baum

Erfolgreiche Reparatur

Beim 1. Mal repariert

Tägliche Updates vom Anbieter (nicht als E-Mail)

Kunde wird mindestens alle 24h eimal kontaktiert, bis der Information Bearbeitung (p "Son) Fehler behoben ist

innerhalb von 30 Minuten nach Meldung erhältlich

rroouKies ouer einer uieiisiieisiung.

Erfolgreich repariert

Maximal ein Besuch beim Kunden

Alle Fehler innerhalb vo n 4 h behoben

Selber Fehler tritt innerhalb von 90 Tagen nicht erneut auf

24

DEFINIEREN (Define) > SIPOC - Prozessdarstellung auf der Makroebene

SIPOC - Prozessdarstellung auf der Makroebene Für eine detaillierte Prozessdarstellung ist es noch zu früh - dies kommt erst in der Phase Analysieren. Eine einfache Prozessdefinition und -darstellung kann zu diesem Zeitpunkt jedoch dazu beitragen, dass jeder den Kernprozess versteht. SIPOC steht für Supplier, Input, Process, Output und Customer (LIPOK - Lieferant, Eingabe, Prozess, Ausgabe, Kunde). Wozu ein SIPOC? Ein SIPOC-Diagramm trägt dazu bei, den Kernprozess des Projektes zu verdeutlichen. Dieses kann dann im Phasenabschluss Definiern verwendet werden, um zu überprüfen, ob alle Stakeholder des Projektes sich über den Kernprozess einig sind. Der SIPOC-Prozess: 1) Ein SIPOC startet mit einer einfachen Definition des Prozesses. 2) 4-6 Schlüsselschritte des Prozesses werden unter dem Diagramm aufgeschlüsselt. 3) Haupteingänge und -ausgänge werden nun aufgelistet. 4) Anschließend werden die Lieferanten der Eingänge und die Kunden der Ausgänge identifiziert.

Suppliers

Inputs

Process

Outputs

Customers

Lieferanten

Eingabe

Prozess

Ausgabe

Kunden

Betrieb

Lieferdatum

Rechnung

Kunde

Vertrieb

Kundendaten

Fälligkeitstermin

Daten im Vertrieb aufzeichnen

Buchhaltung

Zahlungsziel

Verkaufsdaten

Vertrieb

Rechtsabteilung

Steuerregeln

Steuerdaten

Buchhaltung

Kunden-

Eine Rechnung ausstellen

r\rA [Rechnung]rA [ Adr^ssLeren IrA l u^" 'K l > schreibenig>[drucken9JQ[un^^p|^|

OSIPOC Template.ppt

Gemba Gemba ist ein Ansatz, der sich auf den tatsächlichen Ort konzentriert, an dem die wichtigsten Tätigkeiten stattfinden. Was ist Gemba?

Wortwörtlich bedeutet Gemba (ein japanisches Wort) „tatsächlicher Ort". Im Produktionsumfeld könnte Gemba also den Ort bezeichnen, an dem die Produkte hergestellt werden, z.B. die Werkstatt. Analog hierzu könnte Gemba im Service-Umfeld den Ort bezeichnen, an dem die Dienstleistung erschaffen und geliefert wird, z.B. ein Restaurant, ein Kino oder eine Internetseite.

Wie wird der Gemba-Ansatz angewendet?

Zur Verbesserung des Geschäfts erinnert uns der Gemba-Ansatz daran, dass es wichtig ist, die Orte, an denen die Prozesse ablaufen (den Gemba), zu besuchen. Hierdurch versteht man, wie ein Prozess wirklich funktioniert. In anderen Worten: nur wenn man sich die Zeit nimmt, sich den Vorgang vor Ort anzuschauen, kann man folgende Sachen beobachten: • • • • • •

Wie der Prozess im Normalfall läuft. Wie der Prozess läuft, wenn etwas schiefgeht. Welche Arten von Problemen auftreten. Wie Probleme gelöst werden. Wie der Prozess gelenkt und geregelt wird. Die Unterschiede zwischen der geschriebenen Anleitung und der Realität.

Das Schlüsselergebnis von Gemba, ist ein besseres Verständnis für die Abläufe des Prozesses sowie dafür: • was schriftlich festgehalten ist, das zu tun sei (die Absicht). • was gedacht wird, das zu tun sei (die Auffassung/ das Verständnis). • was tatsächlich gemacht wird (die Realität).

DEFINIEREN (Define) > Gemba

Schlüsselschritte von Gemba: Stufe 1 - Bilde ein funktionsübergreifendes Team: Stelle sicher, dass Personen involviert werden, die neu in dem Bereich oder Prozess sind, und die neue Ansichten einbringen können. Stufe 2 - Geh hin und schau an: Das Team soll den tatsächlichen Ort (den „Gemba") besuchen, an dem die Tätigkeiten stattfinden. Stufe 3 - Beobachte und in Berührung kommen: Man sollte zunächst damit anfangen, nur zu beobachten und in Berührung zu kommen. Idealerweise sollte das Team die Tätigkeit mindestens 10-15 Minuten kommentarlos beobachten, bevor man anfängt, zu diskutieren und Fragen zu stellen. Stufe 4 - Stelle offene Fragen: Das Team wird zu diesem Zeitpunkt vermutlich viele Fragen haben. Es ist wichtig, die Fragen offen zu halten. Fragen, die mit „was, wo, wann, wie viele" anfangen, können helfen, informative Antworten führen über die tatsächlichen Vorgänge zu erlangen. Stufe 5 - Vermeide anmaßenden Fragen: Fragen, die mit „warum" oder „wie" anfangen, liefern oftmals Antworten, die mit einer Meinung behaftet sind. Diese könnten lediglich die Sichtweise eines Einzelnen darstellen. Versuchen Sie, solche Fragen erst am Ende zu stellen.

Gemba beim Kunden anwenden:

Gemba kann auch beim Kunden angewendet werden. Damit man wirklich die Sichtweise der Kunden versteht (und wie sie das Produkt wahrnehmen), ist es wichtig, den tatsächlichen Ort zu besuchen, an dem die Kunden das Produkt oder die Dienstleistung anwenden (S. 19).

DEFINIEREN (Define) > Projektstruktur und Projektpläne

Projektstruktur und Projektpläne Wie jedes anderen Projekt so braucht auch ein Six-Sigma-Projekt ein Projektteam mit klaren Strukturen, Rollen und Verantwortlichkeiten, sowie einen vorläufigen Projektplan. Eine typische Projektstruktur beinhaltet: • Einen Six-Sigma-Champion - Das Projekt sollte die Unterstützung und das Bewusstsein des relevanten Six-Sigma-Champions haben. Er stellt sicher, dass das Projekt in die gesamte Lean-Six-Sigma-Strategie passt. • Den Projektsponsor - Er ist verantwortlich für das Projekt. Aber Achtung! Zu viele Projektsponsoren werden ihre Rolle bloß als Berater ohne Verantwortung für den Erfolg des Projektes wahrnehmen. • Den Projektleiter - Normalerweise ein Black Belt, der das Projekt tagtäglich (bevorzugt in Vollzeit) leitet. • Teammitglieder - Oftmals mit Green-Belt-Ausbildung und in Teilzeit beteiligt.

Projektplanung:

In der Phase Definieren wird man lediglich einen ungefähren Zeitrahmen für das Projekt festlegen können. Dies ist jedoch immer noch wichtig um den erwarteten Projektfortschritt zu kommunizieren. Meilenstein-Reviews sind ein essenzieller Teil eines Projektes. Sie stellen sicher, dass es auf jeder Stufe klar definierte Ziele gibt. Die Schlüsselschritte für ein erfolgreiches Review sind: • Das ganze Projektteam sollte involviert sein (sowohl vorher als auch währenddessen). • Stelle sicher, dass die Stakeholder anwesend sind (Champion, Sponsor, usw.). • Stelle eine Zusammenfassung bis zu diesem Zeitpunkt vor, mit Schlüsselerkenntnissen. • Bereite dich vor und plane Zeit für Fragen ein.

Wen soll man im Team einbeziehen:

• Stelle sicher, dass Anforderungen für Unterstützung geklärt werden.

• Stelle sicher, dass alle wichtigen Prozesse im ausgewählten Team vertreten sind.

• Stelle die nächsten Schritte klar vor.

• Wähle die richtigen Personen. Nimm nicht nur die, die verfügbar sind! » Binde nicht zu viele Personen ein. Du kannst immer noch zusätzliche Unterstützung anfordern. Vier bis sechs Teammitglieder sollten gerade richtig sein.

Checklisten und Review-Fragen für jede DMAIC-Phase:

Es ist sinnvoll, Projektmeilensteine um DMAIC-Phasen zu strukturieren. Am Ende jeder Phase bietet dieses Buch: • Eine Checkliste, die dem Projektteam hilft, Meilensteinziele zu entwickeln • Eine Liste von Review-Fragen die von Stakeholdern und Sponsoren verwendet werden können.

Stakeholderanalyse Die Stakeholderanalyse ist etwas, was wir jeden Tag tun, ohne es zu merken. Ein strukturierter Ansatz bietet eine klare Strategie für ein effektives und angemessenes Management der Stakeholder. Was ist eine Stakeholderanalyse?

Die Stakeholderanalyse ist ein Prozess, bei dem diejenigen Personen berücksichtigt werden, die in das Projekt involviert sind, oder betroffen sein werden, oder die ein gewisses Maß an Kontrolle über das Projekt und den Prozess haben.

Verschiedene Formate für die Stakeholderanalyse:

Es gibt mehrere Formate für die Durchführung einer Analyse, aber sie alle tendieren dazu, sich auf zwei Kriterien zu konzentrieren (wie im Stakeholder-Werkzeug Abb. rechts):

Zufrieden halten

Hauptakteurre

cc

u(0

.g>

• Macht - Die Rolle eines Stakeholders und seine Beziehung zum Projekt bestimmt seine Fähigkeit, das Projekt zu unterstützen oder seinen Fortschritt zu behindern.

Minimale Aufwand

• Position - Die Position eines Stakeholders als Blocker oder Unterstützer und sein Interesse bestimmen seine Reaktion auf ein Projekt.

Niedrig (Blocker)

im Bild halten

Hoch (Supporter)

Interesse / Position Kommunikationspläne:

Die Stakeholderanalyse ist nicht etwas, das man einfach „macht" und dann ablegt. Ihr Ziel ist es, eine Strategie für das tägliche Management der wichtigsten Stakeholder zu entwickeln, um die potenziellen Projektblocker zu minimieren. Diese Strategie wird oft als Kommunikationsplan bezeichnet, aber in Wirklichkeit umfasst sie auch die subtileren Aspekte, wie ein Stakeholder in das Projekt einbezogen werden sollte. Ein Kommunikationsplan muss keine sehr formelle Angelegenheit sein, aber für jeden wichtigen Stakeholder sollte er detailliert sein: • Das Format, das für die Kommunikation mit dem Stakeholder verwendet wird (z.B. E-Mails, 1 -2-1 s, Teammeetings, wöchentliche Reviews usw.). • Wer wird der Hauptansprechpartner für das Management des Stakeholders sein. • Die wichtigsten Maßnahmen für den Stakeholder - ein Aktionsplan, der sicherstellt, dass der Stakeholder die Informationen erhält, die er benötigt.

DEFINIEREN (Define) > Stakeholderanalyse

DEFINIEREN (Define) > Projekt-Arbeitsdateien (Storyboards)

Projekt-Arbeitsdateien (Storyboards) Es gibt einige zusätzliche Vorteile, die eine laufende Projektarbeitsdatei mit einschließt:

Eine effektive Methode, ein Verbesserungsprojekt zu dokumentieren, ist die Verwendung einer Projektarbeitsmappe, die als Präsentation geschrieben, im Verlauf des Projekts aktualisiert und klar um die DMAIC-Phasen herum strukturiert wird.

• Die Datei kann als Grundlage des Projekt-Coachings verwendet werden.

Der Wert der Pflege eines Projektarbeitsfeldes besteht darin, dass es die Projektklarheit fördert, indem es einen Projektleiter ermutigt, seine Fortschritte innerhalb der DMAIC-Struktur kontinuierlich zusammenzufassen.

• Die Vorbereitungszeit für Phasenabschlüsse wird minimiert. • Die Erstellung von Projektabschlussberichten ist schneller und detaillierter möglich. • Projekte werden in einem einheitlichen, erkennbaren Format dargestellt.

Eine typische Gruppe von Kern-Folien für die Phasen "Definieren", "Messen" und "Analysieren" sind unten dargestellt. Definieren: Problemdarstellung und Zielbeschreibungen Kosten aufgrund des Nichterreichens der Qualität (Costs of Poor Quality) CTQ-Baum oder „House of Quality" LEPAK (SIPOC) Projektplan Projektcharter

Messen: Leistungskennzahlen (KPIs)

Analysieren: Prozessdarstellung

Operationale Definitionen Datenerfassungspläne

Wertstromanalyse oder Zeitanalyse FMEA Brainstorming & Fischgrätendiagramm

MSA KPI 1 - Prozessfähigkeit KPI 2 - Prozessfähigkeit

Grafische Darstellungen Statistische Analyse

USW...

Moderationsfähigkeiten Viele Lean- und Six Sigma-Techniken beinhalten funktionsübergreifende Teams, bei denen starke Moderationsfähigkeiten entscheidend sind, um alle Teilnehmer einzubinden und den maximalen Nutzen aus der Veranstaltung zu ziehen. Die Rolle des Moderators: Ganz gleich, ob es sich um ein Routine-Meeting, ein Prozess-MappingEvent, eine Brainstorming-Sitzung oder eine andere Teamaktivität handelt, die Rolle des Moderators besteht darin, sicherzustellen, dass die Veranstaltung einen maximalen Nutzen bringt: Vorbereitung auf die Veranstaltung. Die richtigen Personen einbinden. Festlegung und Kommunikation von Zielen und Umfang. Professionelles Vorgehen und Vorbildfunktion. Die Dinge im Blick behalten. Festlegung von Grundregeln und deren Einhaltung. Sicherstellen, dass sich die Teilnehmer in den Prozess einbringen können. Verwaltung der physischen Umgebung (Raum, Temperatur, Sauerstoff!). Die Zeit im Auge behalten. Verwaltung der Gruppendynamik (siehe Effektive Teams auf der nächsten Seite). Förderung der Kreativität. Steuerung des Prozesses (sind die Aktivitäten auf die Ziele ausgerichtet). Delegieren, wo es angebracht ist, um sicherzustellen, dass die Gruppe zielorientiert bleiben kann. Alternative Pläne haben, um das Unerwartete zu bewältigen. Die Gruppe zu Entscheidungen bewegen, die einen Konsens finden. Moderation versus Ausführen: Erfolgreiche Moderatoren sind diejenigen, die sich bewusst sind, dass sie nicht persönlich die Prozesslandkarte liefern, die Ursache eines Problems herausfinden oder dessen Lösung entwickeln müssen. Stattdessen verstehen sie, dass ihre Rolle darin besteht, die Entwicklung solcher Ergebnisse durch ihr Team zu fördern.

Die Rolle des Feedbacks: Die Entwicklung von Moderationskompetenzen braucht Zeit und viel Übung, und konstruktives Feedback ist ein wesentlicher Bestandteil des Entwicklungsprozesses. Die Möglichkeit für Teammitglieder, einem Moderator Feedback zu geben, sollte daher ein integraler und routinemäßiger Bestandteil jeder Gruppenaktivität sein. So sollte die Gruppe zum Beispiel am Ende eines Process Mapping Workshops nicht nur die Prozesslandkarte überprüfen und die nächsten Schritte vereinbaren, sondern dem Moderator auch Feedback darüber geben, was sie gut gemacht hat (in Bezug auf die Moderation) und was er getan hat, um sich in Zukunft darauf zu konzentrieren. Routinemäßiges, konstruktives Feedback ist ein wichtiger Teil des kulturellen Wandels. Die Rolle des Moderators ist nicht einfach! Von allen Fähigkeiten, die ein Experte auf dem Gebiet der kontinuierlichen Verbesserung benötigt, ist diejenige am schwersten zu erlangen, die ihn zu einem effektiven Moderator macht, und macht diese Fähigkeit doch den Unterschied zwischen Erfolg und Misserfolg aus. Moderationsfähigkeiten sollten daher eine respektierte und zentrale Fähigkeit innerhalb eines jeden Verbesserungsprogramms sein. ! Moderation erfordert ständige Konzentration und kann daher sehr anstrengend sein! Also, seien Sie realistisch in Ihren Zielen. Eine allumfassende Tagesveranstaltung kann sowohl für Sie, als auch für Ihr Team, zu viel sein. Eine Reihe von kürzeren Veranstaltungen ermöglich es jedem, dass er immer auf dem Höhepunkt seiner Leistung sein kann. Es gibt immer Platz für Verbesserungen! Stellen Sie also sicher, dass Sie jedes Mal, wenn Sie eine Veranstaltung moderieren, einen Aspekt Ihrer Moderationskompetenz wählen, auf den Sie sich an diesem Tag besonders konzentrieren möchten.

DEFINIEREN (Define) > Moderationsfähigkeiten

DEFINIEREN (Define) > Effektive Teams und Meetings

Effektive Teams

Effektive Meetings

Ein effektives Team kommt nicht von ungefähr - es bedarf einer sorgfältigen Entwicklung und Führung: Alle Teams werden eine Vielzahl von verschiedenen Charakteren beinhalten, und die Teammitglieder brauchen unweigerlich Zeit, um sich gegenseitig kennenzulernen und ihre eigene „Nische" innerhalb des Teams zu finden. Solange dieser Prozess nicht gut vorankommt, wird das Team nicht voll konzentriert sein oder nicht sein volles Potenzial entfalten können. Das vielleicht bekannteste Modell für Teamentwicklung wurde von Bruce Tuckman entwickelt und ist auch heute noch aktuell. Das modell sieht vier Stufen vor: Formung: Die Teammitglieder werden sich zunächst darauf konzentrieren, innerhalb der Gruppe akzeptiert zu werden. Konflikte sind in dieser Phase selten, während sich die Mitglieder gegenseitig und ihre neue Umgebung bewerten. Die Teamleiter sollten in diesem Stadium eine Führung übernehmen, um Einführungen zu erleichtern und klare Tagesordnungen festzulegen. Stürmen: Wenn der Teamleiter beginnt, den Gruppenzweck und den Weg nach vorne festzulegen, treten Meinungsverschiedenheiten, persönliche Agenden und stärkere Charaktere in den Vordergrund. Die Teamleiter sollten sicherstellen, dass sie zu diesem Zeitpunkt größtmögliche Klarheit schaffen und den Schwerpunkt auf die Führung von Schlüsselpersonen legen, die das Vorankommen der Gruppe verhindern könnten. Normung: Wenn sich die Gruppe in akzeptierten Arbeitsmethoden mit etablierten Rollen, Verhaltensweisen und Hierarchien einlebt, entwickelt sie eine stärkere Identität und wird konstruktiver. Auf individueller Ebene werden sich die Teammitglieder in der Regel wohler fühlen, wenn sie im Team arbeiten. Die Moderation sollte sich darauf konzentrieren, vereinbarte Ziele zu erreichen (gegebenenfalls durch Delegation) und die Teammitglieder bei Bedarf zu coachen. Ausführen: Ein reifes Team ist eines, dessen Teammitglieder konstruktiv zusammenarbeiten, und die Ziele des Teams ohne intensive Hilfestellung konsequent umsetzen. Dadurch kann sich der Teamleiter auch den Fortschritt des Teams hinsichtlich der Zielsetzung widmen, statt eine alltägliche Moderation.

Eine Kultur effektiver Meetings kann den meisten Organisationen erhebliche Effizienzsteigerungen bringen: Viele Menschen verbringen den Großteil ihrer Arbeitszeit in Meetings und haben oft das Gefühl, dass sie wenig Zeit für etwas anderes haben! Effektive Meetings können daher sowohl im gesamten Unternehmen als auch in einzelnen Verbesserungsprojekten einen echten Nutzen bringen. Effektive Meetings erfordern eine effiziente Moderation, (und) deshalb sind viele der Punkte auf der vorherigen Seite auch hier anwendbar. Darüber hinaus gelten die folgenden Punkte besonders für effektive Meetings: • Brauchen Sie wirklich ein Treffen? Könnte es durch mehrere kleinere Gespräche oder E-Mails erledigt werden? • Brauchen Sie wirklich alle Eingeladenen? Das Einladen von Personen, die nicht unbedingt notwendig sind, schafft eine größere Gruppe, die schwieriger zu managen ist. • Je kürzer, desto besser! Meetings sind keine Workshops. Sie sollten schnell vorankommen, und die Diskussionen sollten schnell zu Entscheidungen führen. • Der Vorsitzende (d.h. der Moderator) muss nicht der Projektleiter sein. Es ist verlockend, eigene Meetings zu moderieren, aber es könnte auch besser sein, es nicht zu tun. • Klare Grundregeln setzen und ihnen folgen - mit gutem Beispiel vorangehen! Der Verlust von 5-10 Minuten einer einstündigen Besprechung, ist ein bedeutender Verlust. Sei frühzeitig da, damit Sie immer rechtzeitig beginnen, und Störungen rigoros managen. • Halten Sie sich an eine klare Vorgehensweise: Wenn die Besprechung regelmäßig abgehalten wird, dann knüpfen Sie an die Verfahren der letzen Besprechung an, schließen Sie die Besprechung ab, und besprechen Sie erst dann neue Maßnahmen aus dieser Besprechung. Dies muss konsistent geschehen, um zu funktionieren. • Und das Wichtigste ist: Eine Nulltoleranz gegenüber Telefonen und E-Mails. Wenn jemand mit den Gedanken nicht bei der Sache ist, dann ist es genauso, als wäre er gar nicht da!

Projektcharter Eine Projektcharter fasst die Ergebnisse der Phase „Definieren" des Projekts zusammen. Die Bedeutung des Arbeitstempos in der Phase "Definieren":

Viele Projekte brauchen zu lange, um die Phase "Definieren" abzuschließen, was zu einem Mangel an Dynamik führt, bevor das Projekt überhaupt gestartet wurde! In der Praxis sollte die Definitionsphase als Screening- Prozess betrachtet werden. Der Prozess erzeugt einen klaren Projektumfang, einen Business Gase und ein Projektteam, aber es sollte auch möglich sein, ein Projekt bei der Überprüfung der Definitionsphase zu stoppen - der potenzielle Nutzen könnte nicht ausreichend sein, die Verfügbarkeit von Ressourcen könnte ein Problem sein, oder die Lösung könnte vorbestimmt sein. Ein schnelles Tempo durch "Definieren" zeigt an, dass das Projekt die Unterstützung und die Ressourcen hat, die es braucht, um erfolgreich zu sein.

Eine typische Projektcharter enthält: • Projektname - Dieser sollte beschreiben, womit sich das Projekt befassen wird.

Wie ordnet sich die Projektcharter ein? Um die Überprüfung der Projektphase zu erleichtern, ist eine Projektcharter (auch bekannt als Zusammenfassung / Mandat / Projektbeschreibung) ein einseitiges Dokument, das es allen Beteiligten ermöglicht, das Projekt zu überprüfen und sich zu seiner Unterstützung zu verpflichten. Eine Projektcharter ist das Lean Six Sigma-Äquivalent zu den traditionellen (und formalen) Projektgenehmigungsverfahren.

Projektcharter Projektname: Hone

Teamstruktur

Stakeholders Name

ProKWSpons« ProK*De«er

Rgfle Six Sigma Champion?

Marne

Teammitglieder

Problemdarstellung

Zielbeschreibung

• Problemdarstellung und Zielbeschreibung.

COPQ Zusammenfassung

VOC - Hauptkunden

• COPQ - eine Zusammenfassung der Kosten dieses Problems für das Unternehmen.

Umfang

• Teamstruktur - Projektsponsor, Projektleiter, Teammitglieder.

• VOC - die Hauptkunden und ihre qualitätskritischen Fragen (CTQs). • Umfang - den Umfang des Projekts in Bezug auf Produkte, Abteilungen, Standorte, Prozesse usw.

Projektplan Start ofproject Phasenabscfiluss "Definieren" Phasenabschluss "Messen" Phasenabschluss "Analysieren" Phasenabschluss "Verbessern" Phasenabschluss "Regeln"

• Stakeholders - eine Liste der wichtigsten Stakeholder (Interessenvertreter). • Projektplan - geplante Termine für den Abschluss der DMAIC-Phasen.

DEFINIEREN (Define) > Projektcharter

Projektcharter Template.xls

DEFINIEREN (Define) > Checkliste und Phasenabschluss

Definieren - Checkliste

Definieren - Phasenabschluss

|~| Ist das Problem klar? Und gibt es Daten / Beweise, die die Problemdarstellung untermauern?

• Warum dieses Projekt? • Wie verhält es sich zu den Bedürfnissen der Unternehmen? (strategisch/operativ) • Wie wirkt sich das Problem auf das Ergebnis aus (Cash)? • Wie viel von dem Problem wollen Sie beseitigen? • Hat das Team Erfahrungen aus erster Hand mit dem Prozess? Wenn nicht, wie wollen sie es bekommen? • Wie verhält sich dieses Projekt zum Endkunden? Wer ist es? • Was wurde getan, um die Kundenanforderungen (VOC) wirklich zu verstehen? • Welchen Umfang hat das Projekt? Gibt es Probleme oder Überschneidungen mit anderen Projekten? • Wurde dieses Problem schon einmal untersucht? Was ist passiert? • Wer sind die Hauptakteure des Projekts? Warum? • Wie werden die Stakeholder gemanagt?

n Sind die Ziele des Projekts klar (Zielbeschreibung) und realistisch? [] Hat das Projekt einen klaren Business Gase? (ein Problem im Zusammenhang mit Kosten schlechter Qualität in Verbindung mit Geschäftsvorteilen). [~1 Wurde der potenzielle Geschäftsnutzen in Betrag und Währung geschätzt? D Ist der Prozess klar verstanden? (mit SIPOC?) |~| Sind die internen und externen Kunden des Prozesses klar? Q| Werden die Bedürfnisse des Kunden verstanden? Und unterstützt durch Nachweise/Daten? Q Ist das Projekt auf eine Kundenanforderung ausgerichtet? Q] Ist der Umfang des Projekts klar? Q Sind die Stakeholder des Projekts/Prozesses identifiziert und ein Kommunikationsplan vorhanden, um sie zu managen?

Projektmanagement: Q Hat das Projekt eine klare Zusage? Q Gibt es ein Team, das über die Zeit und die Ressourcen verfügt, um das Projekt abzuschließen (im Rahmen der derzeitigen Möglichkeiten)? |~| Gibt es eine Struktur zur kurzfristigen Führung des Teams? P! Ist ein vorläufiger Projektplan vorhanden (einschließlich des geplanten Endtermins)? Hat der Plan klare Meilensteine und Ergebnisse?

Projektmanagement: • Wer ist für den Erfolg dieses Projektes verantwortlich? (Der Sponsor?) • Ist das Projektteam vor Ort? Wenn ja, wer wurde ausgewählt? Warum? • Hat das Projekt genügend Zeit/Ressourcen? • Haben die wichtigsten Teammitglieder ihre Zeit für dieses Projekt freigesetzt? • Wie wird das Team geführt? • Wie wird das Projekt dokumentiert? • Was sind die wichtigsten Meilensteine im Projektplan? • Was sind die nächsten Schritte nach dieser Überprüfung?

Messen (MEASURE) - Übersicht Das Ziel der Phase "Messen" ist es, eine Übersicht der Ausgangslage bezüglich der Prozessleistung zu gewinnen, indem klare und sinnvolle Messsysteme entwickelt werden. Der Fluss durch die Phase "Messen": f

Prozess messgrössen

"N,

Datenqualität untersuchen

Prozessdaten sammeln

v Wie wird das Problem erfasst?

Wann und woher kommen die Daten?

Leistungskennzahlen (S. 35)

Datenerfassungsmethoden (S. 51)

Lean Messgrössen (S. 37)

Datenerfassungspläne (S. 52)

Statistik (S. 40) Operationale Definitionen (S. 42) Datenarten (S. 45)

Stichproben (S. 52) Frequenz der Stichprobennahme (S. 56) Zusammenhangsbezogene Daten (S. 57)

J

f

O

^

Prozessverhalten verstehen L

Prozessfähigkeit und Potential bei

der Ausgangslage

Spiegelt der Datensatz die Erwartungen wider?

Wie verhält sich der Prozess zur Zeit?

Welche ist die gegenwärtige Prozessleistung mit Hinblick auf die Erwartungen des Kunden.

MSA (S. 58)

Ein erster Blick auf die Daten (S. 73) Verteilungsformen (S. 75) Identifikation der Verteilung (S. 191) Normalverteilung (S. 77) Test auf Normalverteilung (S.189) Prozessstabilität (S. 79) Kurz- und Langzeitstreuung (S. 80)

Prozessfähigkeitsanalyse (S. 82)

Auflösung (S. 61) Stetige GR&R (S. 63) Attributive GR&R (S. 66) MSA Drilldown (S. 72)

Cp, Cpk (S. 89)

PPM, DPMO (S. 90) Ermittlung der fehlerhaften Einheiten in % (S. 91) Sigma-Niveau (S. 93) Sigma-Shift (S. 95)

! Man sollte sich nicht verleiten lassen, der Grundursache (Phase "Analysieren") oder der Lösungen (Phase "Verbessern") vorwegzugreifen, bevor der Prozess effektiv gemessen werden kann. Die Phase "Messen" baut auf den schon vorhandenen Daten auf (unter Einbindung neuer Datensammlungen, falls erforderlich), um den Hergang des Prozessablaufs umfassend zu verstehen. Erstmalig mit Six Sigma Projekten betraute Teammitglieder empfinden die Phase Messen als überraschend detailliert und streng, jedoch mit einiger Erfahrung wird offenbar, dass sich alle Akribie im weiteren Verlauf des Projektes auszahlt.

MESSEN (Measure) > Übersicht

MESSEN (Measure) > Leistungskennzahlen (Key Performance Indicators - KPIs) 35

Leistungskennzahlen (Key Performance Indicators - KPIs) Nachdem die CTQ Funktionen der Kunden verstanden sind, werden sie als Grundlage für die Leistungskennzahlen verwendet. Was sind Leistungskennzahlen (Key Performance Indicators, KPIs)?

KPIs sind Messungen, die die Leistung des Prozesses wiedergeben. Das Akronym 'KPI' ist weit verbreitet, sie können aber auch „Primäre Metrik" genannt werden. KPIs müssen die Stimme des Kunden abbilden, und das folgende Beispiel baut auf den kritischen Qualitätsspezifikationen auf, die im Beispiel für die Breitbandreparatur auf den Seite 23/24 entwickelt wurden. Anrufe innerhalb von 7 Mal Klingeln beantwortet

Updates per Telefon verfügbar innerhalb von 30 Minuten nach Bericht

Alle Fehler innerhalb von 4 Stunden behoben

1 % Anrufe beantwortet innerhalb von 7 Mal Klingeln

1 % der Updates verfügbar innerhalb 30 Minuten

1 % Fehler innerhalb von 4 Stunden behoben

V

+

CTQ Spezifikationen (von Seite 24)

Kundengesteuerte KPIs

[

Zeit für die Beantwortung jedes Anrufs

Daten, die gesammeln werden müssen

Zeit zwischen Fehlerberichterstattung und Verfügbarkeit des Updates

i Benötigte Zeit zur Behebung jedes Fehlers

Maximal einen Besuch für den Zutritt zum Kundenstandort

Kein Wiederauftreten desselben Fehlers innerhalb von 90 Tagen

V % der Fehler, die mit einem Mal (oder weniger) Zutritt zum Kundenstandort behoben werden konnten

*

% der Fehler ohne Wiederauftreten innerhalb 90 Tagen

V Anzahl der Besuche, um den Kundenstandort zu betreten

*

Anzahl des Wiederauftretens von Fehlern innerhalb 90 Tagen

^

Sammeln der richtigen Daten für Kennzahlen:

Kundengesteuerte KPIs sind in der Regel Prozentsätze, die den Prozessoutput in Pass-oder Fail-Kategorien (bestanden oder fehlgeschlagen) klassifizieren, basierend auf der Grundlage der CTQs des Kunden. Um diese KPIs zu berechnen, sollte man darauf abzielen, die Rohdaten des Prozesses zu sammeln (z. B. die tatsächliche Zeit, jeden Anruf zu beantworten).

Effizienz versus Effektivität:

Die oben gezeigten KPIs konzentrieren sich auf die Messung der Effektivität eines Prozesses in den Augen des Kunden. Ein Projekt sollte jedoch auch einige KPIs haben, die die Effizienz des Prozesses von der Geschäftsperspektive her wiedergeben. Effizienzkennzahlen sind im KPI-Baum (nächste Seite) enthalten.

Key Performance Indicator (KPI)-Bäume Ein KPI-Baum ist eine visuelle Methode zum Anzeigen einer Reihe von Prozessmessungen, die für das Projekt oder den Prozess relevant sind. Er ist besonders nützlich, um die verschiedenen Kategorien von Messungen zu demonstrieren. KPI-Bäume sind ein Werkzeug, um eine Reihe von Messungen zusammenzuführen, die für die Situation relevant sind (entweder ein Projekt oder ein Prozess). Oft werden diese Messungen bereits in der Organisation durchgeführt, und Sie können diese daher aus anderen KPI-Bäumen übernehmen. Alternativ werden Sie manchmal feststellen, dass Sie einige neue Messungen entwickeln müssen.

Logische Kategorien: Es ist sinnvoll, den KPI-Baum in logische Kategorien zu strukturieren (z. B. die blauen schattierten Kästen im Beispiel unten), und dann zu überprüfen, ob Sie die richtige Kombination von KPIs gefunden haben, um jede Kategorie darzustellen.

Ein ausgewogener Ansatz:

Eine erfolgreicher KPI-Baum enthält eine Ausgewogenheit von Messgrößen, die sowohl die Effizienz als auch die Effektivität eines Prozesses abdecken. Im folgenden Beispiel, in dem sich das Projekt auf die Verbesserung der Geschwindigkeit bei der Reparatur von Fehlern konzentrieren könnte, enthält der KPI-Baum auch Messungen zur Kundenzufriedenheit und die Ressourcenkosten für die Reparatur. Es wäre ja verrückt, die Geschwindigkeit der Reparatur zu verbessern, nur um festzustellen, dass Ihre „Verbesserungen" die Kunden unglücklicher gemacht, und dass Sie die Kosten für die Reparatur der Fehler verdoppelt haben! So benötigen Sie eine Balance von Messgrößen, die Qualität, Lieferung und Kosten abdecken.

(Fehler Reparatur Projekt KPI-Baum j Den Fehler reparieren

Mit dem Kunden interagieren

% repariert in 4 Stunden

Helpdesk

n

Das Geschäft managen i Durchschnittliche Ressourcenstunden pro Fehler

1Auskunftsstelle) 1 % der Fehler bei % der Kunden, °/ 'o der Anrufe % der Updates Anzahl der % der Fe nler ohne einem öd er weniger die mit Ref >araturservice inne rhalb von 7 Mal innerhalb von 30 reparierten Fehler Wiedera uftreten Minuten Besuche i repariert innerhalb vc n 90 Tagen zufrie den sind Kling ein beantwortet pro Woche Durchschnittliche Anzahl von Besuchen pro Fehler

MESSEN (Measure) > KPI-Baum

Durchschnittliche Beantwortungszeit

Anzahl der Mitarbeiter der Reparaturabteilung

MESSEN (Measure) > Lean-Messgrößen

Lean-Messgrößen Es gibt eine Reihe von Lean-Messgrößen, die verwendet werden können, um die schlanke Leistung eines Prozesses zu beurteilen. Bearbeitungszeit = Processing Time (PT) - die Durchlaufzeit eines individuellen Prozessschritts. Wartezeit = Queue Time (QT) - die Wartezeit zwischen zwei Prozessschritten. QT

QT

PT

X*

QT

PT

"N

Schritt 1 wertschöpfend V J

Schritt 2 ^ nicht wert^schöpfend. r

O

PT

PT

O

f

~\t 3

wertschöpfend v J

Fertigstellungsrate = Completion Rate - die Anzahl von „Dingen", die in einer spezifischen Zeiteinheit fertiggestellt werden (z. B. in einer Minute, einer Stunde, am Tag).

^

N

v

J

O

Schritt 4 wertschöpfend

Ware in Arbeit = Work in Process (WIP) - die Anzahl der Produkte oder Dienstleistungen, die zwischen zwei Schritten warten oder innerhalb eines Schritts verarbeitet werden (auch bezeichnet als Work in Progress = Arbeit im Fortschritt). Gesamtdurchlaufzeit = Total Lead Time - die Gesamtzeit, in der ein Produkt oder eine Dienstleistung der gesamte Prozess vom Start bis zur Endbearbeitung durchläuft. Gesamtwertschöpfende Zeit = Total Value Add Time - die Gesamtverarbeitungszeit des wertschöpfenden Prozesses (ohne Schritt 2 in diesem Beispiel).

Lean-Messgrößen: Prozesszyklus-Effizienz, Durchlauf- und Taktzeit Lean-Messgrößen können kombiniert werden, um mehrere wichtige Lean-KPIs wie folgt zu berechnen: Prozesszyklus-Effizienz (Process Cycle Efficiency, PCE) ist die vorrangige Lean-Messgröße, sie kombiniert Elemente von Geschwindigkeit (Durchlaufzeit) und Wert. Sie stellt den Anteil der Zeit im Prozess dar, die ein Produkt oder eine Dienstleistung auf eine Weise bearbeitet wird, die einen Mehrwert für den Kunden erzeugt.

PCE(%) =

gesamte wertschöpfende Zeit gesamte Durchlaufzeit

Durchlaufzeit (die Geschwindigkeit eines Prozesses) ist ein wichtiger Lean-KPI. Sie kann direkt aus dem Prozess durch Messung der tatsächlichen Durchlaufzeiten abgeleitet werden, oder alternativ kann eine durchschnittliche Durchlaufzeit mit Hilfe von Little's Gesetz unten berechnet werden. Diese Methode ist eine nützliche Erinnerung daran, dass WIP eine Hauptursache für lange Durchlaufzeiten ist, und dass die Reduzierung WIP eine der besten Möglichkeiten ist, einen schnelleren Prozess zu erreichen.

Durchschnittliche Durchlaufzeit

WIP

Fertigstellungsrate

Welche PCE hat ein Lean-Prozess also? Wie immer hängt es von der Art des Prozesses und der Umgebung ab, aber hier sind einige Richtlinien: • Typische Transaktions-und Service-Prozesse haben eine PCE von bis zu 10 %, und ein Weltklasse-Lean-Ziel würde 50 % oder mehr betragen. • Typische Produktionsprozesse haben eine PCE von bis zu 20 %, und ein Weltklasse-Lean-Ziel wäre 25 % oder mehr für kontinuierliche Prozesse. Ein Leistungsvergleich der PCE ist schwierig aufgrund der unterschiedlichen Möglichkeiten wie wertschöpfende Zeit gemessen werden kann. Allerdings ist das wichtigste Problem, dass Sie diese in einer gleichbleibenden Weise messen, und sie dann verbessern.

Taktzeit (der Trommelschlag eines Prozesses) ist auch eine wichtige Lean-Messgröße, aber sie ist nicht unbedingt ein KPI. Stattdessen stellt Sie die Rate der Kundennachfrage dar und wird berechnet durch Dividieren der pro Tag verfügbaren Arbeitszeit durch die Anzahl der durch den Kunden benötigten Produkte an einem Tag. Die Kenntnis der Taktzeit ist kritisch beim Entwurf eines Lean-Prozesses, damit er Produkte in der vom Kunden benötigten Frequenz liefert.

Taktzeit =

verfügbare Arbeitszeit Kundennachfrage

MESSEN (Measure) > Lean-Messgrößen > PCE, Durchlaufzeit, Taktzeit

MESSEN (Measure) > Lean-Messgrößen > OEE

Gesamtanlageneffektivität = Overall Equipment Effectiveness (OEE) Wie der Name schon vermuten lässt, ist OEE eine übergreifende Maßeinheit, die die Leistungsfähigkeit aus mehreren Perspektiven spiegelt. Die Overall Equipment Effectiveness (OEE) kombiniert Aspekte von Zuverlässigkeit, Leistung und Qualität in einem einzigen KPI (ausgedrückt als Prozentsatz). Weil sie solche breiten Inputs abdeckt, kann die OEE eine nützliche Messgröße sein, wenn Sie versuchen, Management und Leistung eines kritischen Equipments (insbesondere im Hinblick auf Instandhaltung, Produktionsplanung, täglichen Betrieb und Prozessfähigkeit) zu verbessern. OEE hat Verbindungen zu vielen Komponenten des Lean-Ansatzes, insbesondere: • Total Productive Maintenance - Fokussierung auf die Reduzierung ungeplanter Ausfälle durch geplante, vorhersehbare Wartung. • Schnelle Umrüstung - mit dem Ziel, die Umrüstzeiten zu reduzieren und so die Flexibilität bei der Terminierung, kürzere Chargen und reduzierten WIP zu ermöglichen. • Verschwendung reduzieren - Defekte sind eine der sieben Verschwendungsarten (Seite. 107).

OEE ! Es ist wichtig, sicherzustellen, dass operationale Definitionen (Seite . 42) für jede Komponente der OEE vorhanden sind, um sicherzustellen, dass sie einheitlich gemessen wird.

Wedelt der Schwanz mit dem Hund!?

OEE soll dazu beitragen, die Verbesserung zu fördern, indem hervorgehoben wird, welche Elemente Ihrer Geräte (Verfügbarkeit, Leistung oder Qualität) die meiste Aufmerksamkeit erfordern. Wird eine Organisation jedoch auf die Verbesserung der OEE um jeden Preis konzentriert, kann dies auch zu Verhaltensweisen führen, die dem LeanAnsatz entgegenstehen. Im Bestreben, den OEE zu verbessern, könnte eine Planungsabteilung z. B. entscheiden, größere Chargen auf einer bestimmten Linie laufen lassen (um die verlorene Zeit und die defekten Teile zu vermeiden, die aus dem Umrüsten resultieren). Während dies den OEE verbessern könnte, würden gleichzeitig größere Chargen zu höhere Lagerbeständen (WIP) und längeren Durchlaufzeiten führen - überhaupt nicht „lean"! Stattdessen sollte die OEE-Auswertung benutzt werden, um hervorzuheben, dass eine Verbesserung des Umrüstverfahrens (schneller mit weniger Ausschuss) den OEE verbessern und kleinere Chargen und niedrigere Lagerbestände ermöglichen würde - viel „leaner"!

Verfügbarkeit (%) Steht das Equipment zur Verfügung?

Leistung (%) Wird das zu erwartende Output erreicht?

Qualität (%)

Aktuelle Verfügbarkeit (nach Umrüstungen und ungeplanten Verlusten wie Ausfällen)

Tatsächlicher Output (alle Teile, gut und schlecht)

Gute Teile produziert

Geplante Verfügbarkeit (ohne geplante Stillstandzeiten wie Pausen und geplante Wartung)

Vorhergesagter Output (basierend auf der tatsächlichen Verfügbarkeit und der Zykluszeit der Maschinen)

Gesamt produzierte Teile (einschließlich aller schlechten Teile und während des Rüstens produzierte)

Stellt es gute Qualität her?

Statistische Methoden zur Zusammenfassung der Prozesslage Es ist mehr als wahrscheinlich, dass Ihre ausgewählten KPIs einen „Durchschnitt" irgendeiner Art beinhalten. Trotz der weit verbreiteten Verwendung des arithmetischen Mittelwertes, ist es Wert, daran zu erinnern, dass es Alternativen gibt! Die beiden Hauptmerkmale eines Histogramms sind seine zentrale Lage und seine Streuung: Die Streuung des Histogramms (wie breit es ist) ist wichtig, weil sie einen Hinweis auf den Umfang der Variation im Prozess gibt. Dies wird auf der nächsten Seite weiter erläutert.

Lage 30J

Die Lage des Histogramms bezieht sich darauf, wo der Prozess zentriert ist. Es gibt zwei verbreitete statistische Angaben, die verwendet werden können, um die Lage wiederzugeben:

Spannweite

1) Der Mittelwert - häufig verwendet, weil er leicht zu verstehen und zu berechnen ist. Der Durchschnitt funktioniert gut, wenn der Prozess relativ symmetrisch ist und es keine „Ausreißer" (unerwartet kleine oder große Datenpunkte) gibt, die die Berechnung des Durchschnitts erheblich beeinflussen können. 2) Der Mediän - weniger weit verbreitet, aber eine nützliche Statistik aufgrund seiner „Robustheit". Der Mediän ist definiert als mittlerer Wert der sortierten Daten (50. Perzentil) und seine Berechnung ist nicht signifikant von Ausreißern in den Daten betroffen.

Alternative Terminologie für den Mittelwert:

• Durchschnitt - manchmal verwendet anstelle von Mittelwert. • X- (ausgesprochen 'x quer') - verwendet, um den Mittelwert einer Stichprobe darzustellen. • u - (ausgesprochen 'Mü') - dient zur Darstellung des Mittelwerts einer Grundgesamtheit. NB: in der Theorie sind X quer und u für den Einsatz in unterschiedlichen Situationen beschrieben. In Wirklichkeit werden sie oft austauschbar verwendet (obwohl dies keine gute statistische Praxis ist).

Mediän = 65

Mittelwert = 70

SO

Wo Durchschnitt und Mediän unterschiedlich sind:

Dieses Beispiel einer „schiefen" Verteilung zeigt die Unterschiede, die zwischen Durchschnitt und Mediän auftreten können. Der Durchschnitt wird nach rechts gezogen in Richtung der hohen Ausreißer. Welcher statistische Wert benutzt werden sollte ist von der Situation abhängig, die Vor- und Nachteile werden oben besprochen.

9O

MESSEN (Measure) > Deskriptive Statistik für die Prozesslage

MESSEN (Measure) > Deskriptive Statistik für die Prozessstreuung

Statistische Methoden zur Zusammenfassung der Prozessstreuung Six Sigma konzentriert sich auf Prozessvariation und damit ist die Messung der Variation unabdingbar. ötandardabweicnung = Spannweite = 60

Die Verteilung des Histogramms zeigt das Ausmaß der Variation in dem Prozess an. Es gibt zwei alternative Statistiken, die zur Messung der Variation verwendet werden können: 1) Spannweite (Range) - häufig verwendet, weil sie leicht zu verstehen ist. Die Spannweite ist der Unterschied zwischen den maximalen und minimalen Ergebnissen, und wegen dieser „einfachen" Vorgehensweise ist sie nicht sehr robust. Nur ein Ausreißer in diesem Prozess wird die Spannweite dramatisch erhöhen. 2) Standardabweichung - ist ein robusteres Maß für Variation, aber sie wird als schwierig zu verstehen wahrgenommen, weil es nicht einfach ist sich vorzustellen, was sie ist. Siehe unten für eine Erklärung.

10

30

20

40

50

60

70

Was ist Standardabweichung? Standardabweichung = 3 Spannweite =15

Eine praktische Definition von Standardabweichung ist: „Die durchschnittliche Entfernung der Datenpunkte von ihrem eigenen Durchschnitt". Die Entfernung der Datenpunkte von ihrem eigenen Durchschnitt wird hier grafisch dargestellt als blau gepunktete Linien auf dem Zeitreihendiagramm.

90

95

100

105

Verteilungen.mpj

r

Das für die Standardabweichung verwendete Symbol ist das griechische Symbol ' a ' ausgesprochen Sigma! Diese Datei enthält eine Auswahl der verschiedenen Verteilungen, die auf den letzten beiden Seiten angezeigt werden.

Operationale Definitionen Operationale Definitionen werden entwickelt, um klare und eindeutige Beschreibungen für jede KPI zu haben. Komponenten einer Operationalen Definition: • Name der KPI: die ausgewählte Terminologie muss über das gesamte Projekte hinweg durchgängig genutzt werden. Es ist auch nützlich, die KPIs zu nummerieren (zumindest für die Dauer des Projektes). • Was die KPI darstellen soll: eine pragmatische Beschreibung der Messung, die für jemanden außerhalb der Organisation oder des Projektes verständlich ist. • Prozessdiagramm oder Zeichnung: siehe nächste Seite.

Beispiel einer Operationalen Definition für die KPI „Fehlerbehebungszeit" (siehe Seite 35 und 36): Name der KPI: Fehlerbehebungszeit Was die KPI darstellen soll: die verstrichene Zeit zwischen der Fehlermeldung durch den Kunden und der Benachrichtigung des Kunden durch den Dienstleister, dass der Fehler behoben wurde. Prozessdiagramm/Zeichnung: siehe nächste Seite.

• Detaillierte Definition: die Bereitstellung zusätzlicher Details zielt darauf ab, Unklarheiten hinsichtlich der Aufzeichnung der Messung durch verschiedene Personen oder Systeme zu vermeiden.

Detaillierte Definition: Prozessstart - die Zeit (in Tage/Stunden/Minuten/Sekunden) zu welcher die Fehlerzentrale den Anruf oder die E-Mail als „eingegangen" aufzeichnet.

• Messumfang: obwohl dieser größtenteils durch den Projektumfang definiert ist, könnte es sein, dass manche Messungen nicht im Projektumfang enthalten sind.

Prozessende - die Zeit, zu welcher der Anruf oder die E-Mail (die den Kunden über die Behebung der des Fehlers informiert) getätigt/gesendet wird.

Was ohne eine Operationale Definition geschieht: • Unzuverlässige Daten werden auf unterschiedliche Art und Weise gesammelt. • Unterschiedliche Standards werden in verschiedenen Bereichen angewendet.

Kundenorientierte KPIs:

Häufig sind die existierenden Messgrößen nicht sehr kundenorientiert. Zum Beispiel wird die Fehlerbehebungszeit (wie oben definiert) ab dem Zeitpunkt gemessen, zu welchem der Kunde den Fehler berichtet. Es wäre aber deutlich kundenorientierter, wenn der tatsächliche Zeitpunkt der Fehlerentstehung erfasst wird. In der Realität ist dies für gewöhnlich schwieriger zu erfassen, weshalb ein Kompromiss erforderlich ist. Der Vorteil der Entwicklung einer Operationalen Definition ist, dass das Projektteam gezwungen wird, diese Thematik zu berücksichtigen, ansonsten würde sie möglicherweise ignoriert werden.

MESSEN (Measure) > Operationale Definitionen

MESSEN (Measure) > Operationale Definitionen > Prozessdiagramme

Diagramme der Operationalen Definition Ein Prozessdiagramm oder -bild ist ein wesentlicher Bestandteil einer effektiven Operationalen Definition. Beispiel 1:

Ein vereinfachter Prozessplan kann genutzt werden, um zu verdeutlichen, auf welche Prozessbestandteile sich die KPI bezieht. Die Nummerierung der KPIs (KPI1, KPI2, usw.) ermöglicht eine konsistente Referenzierung über die verbleibende Projektlaufzeit. KP11: Zeit zur Behebung (Stunden) Das Diagramm veranschaulicht, dass die Zeit zur Behebung nach dem Fehlermeldeprozess beginnt und dann endet, nachdem der Kunde informiert und der Fehler behoben wurde.

Besuch des Technikers

KPI 2: Fehler beim ersten Mal behoben (%) Das Diagramm veranschaulicht, dass die Messgröße „Fehler beim ersten Mal behoben" den Anteil der Fehler darstellt, die nach dem ersten Besuch des Technikers behoben wurden (ungeachtet des Grundes).

KPI 2 = Fehler beim ersten Mal behoben (%)

(Information an den Kunden über ^ Fehterbeseitigung

l Einheiten: Definiere immer die Messeinheit, in der das Ergebnis der Operationalen Definition berichtet werden soll.

Diagramme der Operationalen Definition (Fortsetzung) Beispiel 2: Die Messung (und Einheit) der Breite dieser Lasche werden auf einem Foto angezeigt.

Beispiel 3: Die Akzeptanz eines Defektes an dieser Schweißnaht wird am besten in einem Foto verdeutlicht (oder mit einem realen Musterteil).

Breite der Lasche (mm)

MESSEN (Measure) > Operationale Definitionen > Prozessdiagramme

MESSEN (Measure) > Datenarten > Übersicht

Datenarten - Übersicht Alle numerischen Daten können einer der drei unten beschriebenen Six Sigma Datenarten zugeordnet werden. Ein Verständnis der verschiedenen Datenarten ist wichtig, weil dies Auswirkungen auf die Art der Analyse, Werkzeuge und Methoden hat, die später genutzt werden.

stetige

Zähldaten

attributive

Daten (Seite 46)

(Seite 47)

Daten (Seite 48)

gemessen wird

gezählt wird

klassifiziert wird

Wenn Sie Mittelwerte und Streuungen berechnet haben und wenn die Auflösung Ihrer Daten nur durch die Güte Ihres Messsystems bestimmt ist.

Wenn Sie ganze Dinge zählen oder wenn die Daten nur ganze Zahlen sein können.

Wenn Sie Dinge in verschiedene Kategorien einordnen, die nicht notwendigerweise numerische Werte oder eine Reihenfolge haben (z.B. bestanden/ durchgefallen).

Die Six Sigma Datenart ist wahrscheinlich...

Wen n etwas...

Die Hinweise nach denen Ausschau gehalten werden sollte...

Datenarten - ein vergessenes Prinzip:

Viele Trainingsprogramme behandeln die Datenarten nicht detailliert genug. Ein detailliertes Verständnis der verschiedenen Datenarten und ihren Auswirkungen ist entscheidend um sicherzustellen, dass ein Six Sigma Analyst die richtigen Werkzeuge und Methoden auswählt.

! Es gibt eine Vielzahl von verschiedenen Terminologien für die Datenarten, was sehr verwirrend sein kann. Anhang D vergleicht und erklärt die verschiedenen Terminologien genauer. Die Begriffe stetig zählbar und attributiv werden durchgängig in diesem Text verwendet.

Stetige Daten Stetige Daten resultieren aus der Messung eines Produkt- oder Dienstleistungsmerkmals. 55,8 56,4 36,2

Diese Daten (links) sind typisch für stetige Daten, weil sie nicht auf ganze Zahlen beschränkt sind.

59,7

• Zeit um neue Stellen zu besetzten (Tage)

54,8 54,0 43,3 42,9 53,7

Die Daten könnten darstellen: • Den Durchmesser einer Metallachse (Millimeter) • Ofentemperatur (Grad) • Gewicht von Briefen (Gramm) • Druck (kg/cm2)

31,2

• Bearbeitungszeit von Rechnungen (Tagen)

63,8 45,3 34,5 44,3

Achtung: Immer die Einheiten der stetigen Daten angeben.

! Eine Falle, die bei stetigen Daten vermieden werden sollte:

Manchmal kann die Auflösung des Messsystems einen Einfluss darauf nehmen, wie sich die Daten darstellen. Zum Beispiel könnten Daten über die Bearbeitungszeit von Rechnungen auf den nächstgelegenen Tag gerundet werden (so würden die Daten links beispielsweise aufgezeichnet werden als 56, 56, 36, etc.). Das kann irreführend sein, weil es sich immer noch um stetige Daten handelt, aber das Messsystem die Daten auf die nächste ganze Zahl rundet, was die Daten als diskret erscheinen lässt (wie abzählbare Daten). Ein Histogramm - Ein übliches Werkzeug für die Analyse von stetigen Daten:

Das statistische Modell, welchem stetige Daten (unter bestimmten Bedingungen) manchmal folgen, ist die Normalverteilung (siehe Seite 77 für weitere Details). Ein graphisches Werkzeug, das häufig für die Analyse von stetigen Daten verwendet wird, ist wie rechts abgebildet, das Histogramm. Statistik: Stetige Daten werden für gewöhnlich durch Kenngrößen aggregiert wie Mittelwert und Mediän (geben die Lage der Daten an), Spannweite und Standardabweichung (geben die Breite der Verteilung an).

10

MESSEN (Measure) > Datenarten > Stetige Daten

20

30 Messgröße

40

50

MESSEN (Measure) > Datenarten > Zähldaten

Zähldaten Wie der Name schon impliziert, stammen zählbare Daten aus dem Zählen von Dingen. Häufig werden Defekte oder andere Teilmengen einer Grundgesamtheit abgezählt. 2 3 4 2 1 0 1

Diese Datensätze (links) sind typisch für zählbare Daten, weil es sich um ganze Zahlen handelt. 45 37 39 21 36 29 31 35

Die Daten könnten darstellen: Fehler bei Rechnungen Bewerber für offene Stellen Anrufe bei einer IT-Servicezentrale innerhalb einer Stunde Ausschussteile pro Charge

Wie können zählbare Daten erkannt werden:

Halbe Einheiten sind nicht möglich - ein halber Fehler, ein halber Bewerber, ein halber Anruf, ein halber Kratzer sind einfach nicht möglich! Keine physikalische Obergrenze - in der Theorie gibt es keine obere Grenze für all diese Zählungen. Null ist möglich - es sollte möglich sein, Null als Ergebnis zu haben. Zählbare Daten werden immer für einen spezifischen Anwendungsbereich aufgezeichnet wie eine Rechnung, eine vakante Stelle oder eine volle Stunde eines IT-Servicezentrale.

Kratzer auf Glasplatten Ausgelieferte Pakete pro Tag

Ein Histogramm wird häufig verwendet, um zählbare Daten zu analysieren (siehe rechts). Das statistische Modell, welchem zählbare Daten folgen (sofern unter statistischer Kontrolle), ist die Poissonverteilung, die in dem gegenüberliegenden Histogramm gezeigt ist. Bei einem niedrigen Durchschnittswert ist die Poisson-Verteilung nach rechts geneigt, weil es nicht möglich ist weniger als Null zu zählen. Statistik: Zählbare Daten werden normalerweise aggregiert, indem der Durchschnitt berechnet wird. Allgemeinhin ist dies bekannt als durchschnittliche „Defekte pro Einheit" (engl. defects per unit, DPU) und für die oben genannten Beispiele könnte es „durchschnittliche Fehler pro Rechnung" oder „durchschnittliche Anzahl von Bewerbern pro offener Stelle" etc. heißen.

Frequency

1

A

^ Zentralwert bezeichn .X"^ als „DPU" (engl. defects per unit, durchschnittlich Defekte pro Einheit)

~^^ Zaehldaten.mpj Enthält Beispiele für mehrere verschiedene Möglichkeiten, wie abzählbare Daten in Minitab erfasst werden können.

Attributive Daten Gut

Attributive Daten resultieren aus der Kategorisierung von Dingen.

«wriDU tiue Rohdaten

Schlecht Gut Bestanden Gut Nicht bestanden O Ul U ocniGcn Pünktlich Gut Bestanden Nicht pünktlich Gut Bestanden Pünktlich Gut Pünktlich Bestanden Pünktlich Bestanden Nicht pünktlich Pünktlich Pünktlich

Alle Datensätze links sind typisch für attributive Rohdaten. Man erkennt als erstes, dass es sich nicht nur um numerische Daten handelt, es aber immer nur zwei Kategorien gibt, weshalb attributive Daten wie binäre Daten erscheinen (wie in dem Beispiel, das ausschließlich Nullen und Einsen enthält). Je nach Branche können diese Daten darstellen:

1 Q 1

Das statistische Modell, welchem attributive Daten folgen (sofern unter statistischer Kontrolle), ist die Binomialverteilung. Alltägliche Beispiele, die der Binomialverteilung folgen, sind das Werfen einer Münze, das Ziehen einer Spielkarte oder das Werfen eines Würfels. Statistik: Attributive Daten sind für gewöhnlich als Prozentwerte aggregiert. Prozentwerte sind eine der gebräuchlichsten Kenngrößen und setzen in jedem Fall voraus, dass zwei mögliche Ergebniskategorien existieren, wie zum Beispiel bestanden/ durchgefallen.

Pünktlichkeit einer Lieferung

Netzwerkverfügbarkeit

Problembehebung eines IT-Servicezentrums

Teileverfügbarkeit

Kundenzufriedenheit

Zusammengefasste Attributive Daten Anzahl mit Stichproben% Attribut g rosse

0 1 1 1 1

Prüfergebnisse von Computern

j

2 3 10 8 5 4 30

8 10 90 65 40 41 252

25,0 30,0 11,1 12,3 12,5 9,8 11,9

Rohdaten und deren Aggregation: Die Tabelle links enthält attributive Daten in aggregierter Form. Jede Zeile stellt eine Stichprobe von attributiven Rohdaten dar. Die erste Zeile (2 von 8) fasst dieselbe Information zusammen, die in der Tabelle oben links auf der Seite dargestellt ist. Die dritte Spalte beinhaltet dieselben attributiven Daten umgewandelt in Anteile.

^UF Attributdaten.mpj Enthält Beispiele für mehrere verschiedene Möglichkeiten, wie attributive Daten in Minitab erfasst werden können.

MESSEN (Measure) > Datenarten > Attributive Daten

MESSEN (Measure) > Datenarten > Vergleich der Datenarten

Vergleich der Datenarten Die Leistungsfähigkeit der meisten Prozesse wird als Prozentwert angegeben (attributive Daten). Stetige Daten und Zähldaten haben allerdings eine größere Aussagekraft und sind daher für die Analyse wertvoller. , obere Spezifikation

Die gegenüberliegenden Graphiken zeigen, wie stetige Daten oder abzählbare Daten immer als attributive Daten aggregiert werden können. Die Leistungsfähigkeit eines Prozesses wird für gewöhnlich in % (attributive Daten) angegeben, weil es das Verständnis erleichtert. Die Analyse eines Problems ist allerdings weitaus einfacher in den „reicheren" Datenwelten der stetigen und zählbaren Daten. Es ist natürlich auch ein Kompromiss aus: • Kosten: stetige und zählbare Daten sind kostenintensiver, weil es länger dauert, sie zu sammeln und weil komplexere Erfassungssysteme erforderlich sind. Es ist weitaus einfacher und schneller ein attributives Datensystem zu implementieren, das die Ergebnisse nur in die Gruppen „bestanden" und „durchgefallen" kategorisiert (die Daten sind allerdings nicht so wertvoll). • Aussagekraft und Verständnis: stetige und zählbare Daten versprechen eine größere Aussagekraft. Statt der Klassifizierung eines Produktes oder einer Dienstleistung in ein oder zwei Kategorien (bestanden oder durchgefallen) versprechen sie ein größeres Verständnis darüber, wie gut oder schlecht etwas war.

Deshalb...

obere Spezifikation

Gut Schlecht

Gut

LT 30

i

40

50

60

Schlecht

70

0

1

stetige Daten

2

3

4

5

6

7

Zähldaten

Gut l

Schlecht

l

Attributive Daten

...statt Kunden zu fragen, ob sie zufrieden sind oder nicht (attributiv) - versuchen Sie deren Zufriedenheit zwischen 1 und 10 zu bewerten (stetig). ...statt zu erfassen, ob eine Lieferung pünktlich war oder nicht (attributiv) - versuchen Sie exakt zu messen, wie viel zu früh oder spät sie ist (stetig). ...statt zu fragen, ob ein Auto nach der Reinigung sauber ist oder nicht (attributiv) - erfassen Sie die Anzahl der Schmutzflecken, die immer noch vorhanden sind (zählbare Daten). ...statt zu erfassen, ob der Durchmesser eines Fußballs innerhalb der offiziellen Spezifikationen liegt oder nicht (attributiv) - messen Sie exakt wie groß er ist (stetig).

Datenarten - Zusammenfassung Aufbauend auf dem Überblick am Anfang dieses Kapitels Datenarten (Seite 45) bezieht diese Zusammenfassung die statistischen Modelle und Statistiken ein, die auf den Seiten 46 bis 48 eingeführt wurden. Ist die Six Sigma Datenart...

Dann ist ein passendes statisches Modell... Das statistische Modell _j. findet ohne Einschränkung Q y Anwendung... Übliche Kenngrößen sind...

Nützliche Diagramme...

stet'9

Die Normalverteilung nicht immer- die überprüft werden

Durchschnitt (Mittelwert)

zählbar

attributiv

Die Poissonverteilung

die Binomial Verteilung

( Die Poissonverteilung kann immer angewendet werden, wenn der Prozess unter l Kontrolle ist

Die Binomialverteilung kann immer angewendet werden, wenn der Prozess unter \e ist

Defekte pro Einheit (engl. Defects per Unit (DPI)))

Prozentzahlen (Anteil)

Histogramm (Seite 123)

Histogramm (Seite 123)

Zeitreihendiagramm (Seite 130)

Zeitreihendiagramm (Seite 130)

Zeitreihendiagramm (Seite 130) 100% gestapeltes Balkendiagramm (Seite 144) Pareto-Diagramm (Seite 135)

Standardabweichung (Sigma)

MESSEN (Measure) > Datenarten > Zusammenfassung

MESSEN (Measure) > Datenerfassungsmethoden

Datenerfassungsmethoden Die Datenerfassung ist kostspielig in der Durchführung und deswegen erheben die meisten Firmen Daten mit zweifelhafter bis schlechter Qualität. Eine erfolgreiche Datenerfassung erfordert eine klare Zielrichtung und eine gründliche Vorbereitung. Historische Daten oder neue Datenerfassung?

Seien Sie vorsichtig in der Annahme, dass historische Daten für die Verwendung in Ihrem Projekt geeignet sind. Stattdessen sollten Sie die historischen Daten gegen Ihre Operationalen Definitionen abgleichen, um zu entscheiden, ob die Daten für die geplanten Analysen geeignet sind.

Zwei Hauptmöglichkeiten bei der Datenerfassung: • In-Prozess Daten: Die Datenerfassung ist im Prozess integriert und geschieht deswegen automatisch.

• Manuell: Die Datenerfassung muss zusätzlich zum Prozess (z.B. mittels Strichliste oder Aufschreibung) durchgeführt werden.

Strichlisten sind Datenerfassungsformulare, die die manuelle Datenerfassung mittels Aufnahme von „Strichen" in dafür vorgesehenen Feldern ermöglicht. Sie werden generell genutzt, um Daten vorübergehend zu erheben (z.B. für die Dauer des Verbesserungsprojekts). • Begleit-Strichlisten - bleiben bei einem Produkt oder Service während des gesamten Prozesses, wobei die Daten bei jedem Schritt ergänzt werden. • Fehler-Strichlisten - sammeln Informationen über die Fehlerursachen an den unterschiedlichen Prozessschritten (siehe Beispiel auf dieser Seite). • Visuelle-Stichlisten - hier werden Bilder des Prozesses oder des Produktes benutzt, um aufzuzeichnen, wo der Fehler passiert bzw. lokalisiert ist (z.B. Mietwagen Schadensbild).

Tipps und Tricks für Strichlisten:

Fehlergrund Rechnungs -nummer

Lieferant

454

Pro-Form

A633

Magna-Tech

A657

Magna-Tech

LKS22

LKS

LKS25

LKS

476

Pro-Form

keine falscher fehlende falsche BestellWert Transport Steuernummer -art nummer



|/

« '

• Erstellen Sie die Strichliste mit genau dem Team an Leuten, das die Liste später benutzen wird. • Halten Sie sie klar, einfach und selbsterklärend - versuchen Sie es zuerst selbst.

Nicht eingegangen

*/



Sonstige

• Kommunizieren Sie - Wenn Sie die Leute nicht rechtzeitig informieren, zu welchem Zweck sie eine Tabelle ausfüllen sollen, werden sie es nicht tun! • Nachverfolgbarkeit - Vergessen Sie nicht Namen, Datum, Seriennummern etc. aufzuschreiben. Das sind nützliche Daten für den Gesamtzusammenhang - mehr dazu Seite 57. • Vorsicht bei der Kategorie „Sonstige" - Wenn alle Ihre Fehler in dieser Spalte enden, dann sind die Fehlerkategorien vermutlich falsch gewählt.

Datenerfassungspläne und Stichproben Nachdem Sie entschieden haben, was gemessen werden soll und wie es dokumentiert wird, legen Sie im Datenerfassungsplan fest wie viele Daten erhoben werden (Stichprobengröße) und wie oft Sie messen wollen (Stichprobenhäufigkeit). 100 % Erhebung oder Stichproben?

Zu viele Organisationen messen 100 % ihres „Outputs". Dieser Ansatz „Im Zweifel messen wir es" wird durch eine mangelnde Zuversicht in statistische Verfahren verursacht.

Der Stichprobenumfang (wie viel Daten brauche ich) - (mehr auf der nächsten Seite), basiert auf den folgenden Erwägungen:

In Wahrheit werden die wertvollsten Informationen aus den ersten wenigen Messungen gezogen - bekannt als die Minimale Stichprobe - das Sammeln weiterer Daten verursacht einen immer mehr abnehmenden Nutzen hinsichtlich statistischer Sicherheit und praktischem Nutzen.

• der betrachteten Datenart (Welt).

Datenerfassung aus einer Grundgesamtheit oder aus einem Prozess?

1) Datenerfassung aus einer statischen Gruppe fokussiert auf die Grundgesamtheit. Alltagsbeispiele können das Ziehen einer Wasserprobe aus einem Schwimmbecken, um den Chlorgehalt zu bestimmen, oder die Marktforschung mittels Fokus-Gruppen, um die Kundensicht herauszufinden, sein. In diesen Beispielen ist die wesentliche Entscheidung, wie viele Daten erhoben werden sollen (Stichprobengröße).

• der Streuung innerhalb des Prozesses. • der angestrebten Präzision des Ergebnisses.

Die Frequenz der Stichprobenentnahme (wie oft messe ich) - (Seite 56), basiert auf folgenden Faktoren: • natürlichen Zyklen, die im Prozess auftauchen. • der benötigten Präzision der aufgenommenen Daten. • der Menge und produzierten Produkten oder Dienstleistungen.

2) Datenerfassung auf kontinuierlicher Basis, um Änderungen eines Prozesses über die Zeit aufzunehmen. Ein Alltagsbeispiel ist das Monitoring des Kraftstoffverbrauches eines Autos während des Pendeins zur Arbeit. In diesem Fall ist die Frage nicht nur welche Stichprobengröße (wie viel), sondern auch die Frequenz der Stichprobenentnahme (wie oft).

MESSEN (Measure) > Datenerfassungspläne und Stichproben

MESSEN (Measure) > Minimaler Stichprobenumfang > stetige Daten

Minimaler Stichprobenumfang - stetige Daten Die am häufigsten gestellte Frage bezüglich Datenerfassung ist diejenige nach dem Umfang der Datenaufnahme - „wie viele Daten sollten wir aufnehmen?" Unerfreulicherweise ist die Antwort oft „es kommt darauf an..." Aber, es gibt einige Minimalanforderungen: Für Stetige Daten, kalkulieren Sie den minimalen Stichprobenumfang wie folgt: Kalkulation des minimalen Stichprobenumfangs (MSU) für Stetige Daten

Beispiel: Datenerfassung der Durchlaufzeit für einen Rechnungslegungsprozess (Einheit in Tagen).

Schätzen Sie die Standardabweichung des Prozesses (siehe Box auf der rechten Seite).

Die historischen Daten zeigen, dass die Rechnungserstellung zwischen 10 und 30 Tagen dauert. Die Standardabweichung wird auf 4 Tage geschätzt.

Entscheiden Sie sich für die benötigte Präzision.

Die gewünschte Präzision ist +/- 2 Tage.

Abschätzen der Standardabweichung: Mit dem Wissen über die Streuung des Prozesses (Standardabweichung) können Sie einen realistischeren Stichprobenumfang ermitteln. Aber wie können Sie die Standardabweichung schätzen, wenn sie bisher noch keine Daten über den Prozess aufgenommen haben? Die Antwort ist, Sie müssen schätzen.

Ein grundlegender Ansatz, um die Standardabweichung zu schätzen, ist es einen Blick auf die historische Bandbreite des Prozesses zu werfen (den Unterschied zwischen dem höchsten und dem niedrigsten gemessenen Wert) und diesen durch 5 zu teilen. Normalerweise deckt der Prozess etwa 6 Standardabweichungen ab, sodass dies eine sichere „Überschätzung" darstellt.

Kalkulieren Sie den minimale Stichprobenumfang (MSU) wie folgt: ((2 x Standardabweichung)/Präzision)2 Hinweis: Wenn der minimale Stichprobenumfang die Anzahl der Teile übersteigt, messen Sie sie alle (100 %).

MSU = ((2x4) / 2)2 = 16 Um also die durchschnittliche Durchlaufzeit mit einer Genauigkeit von +/- 2 Tagen zu berechnen, sollten Sie mindestens 16 Datenpunkte erheben.

Minimaler Stichprobenumfang - Attributive (Diskrete) Daten Für Attributive Daten kalkulieren Sie den minimalen Stichprobenumfang wie folgt: Kalkulation des minimalen Stichprobenumfangs (MSU) für Attributive Daten

Schätzen Sie den „Fehleranteil" des Prozesses (p) - siehe rechte Seite.

Besipiel: Datenerfassung, um die Anzahl von Möbelbausätzen mit fehlenden Teilen herauszufinden. (Einheit: 1 Bausatz).

Aus Erfahrung schätzen sie den Anteil fehlerhafter Bausätze auf 10 % (ausgedrückt als 0,10).

Entscheiden Sie sich für die benötigte Präzision/Genauigkeit (d).

Benötigte Präzision/Genauigkeit = +/-1.5 % (ausgedrückt als 0,015).

Kalkulieren Sie den minimalen Stichprobenumfang (MSU) wie folgt:

MSU= (2/0,015)* x 0,1 x (1-0,1)

Hinweis: Wenn der minimale Stichprobenumfang die Anzahl der Teile übersteigt, messen Sie sie alle (100 %).

= 1600

Um die Anzahl fehlerhafter Bausätze mit einer Genauigkeit von +/-1,5 % abzuschätzen, sollten Sie mindestens 1600 Datenpunkte erheben.

Abschätzen des „Fehleranteils": Das Wissen über den erwarteten Fehleranteil (p) hilft einen realistischeren Stichprobenumfang zu ermitteln.

Aber wie können Sie das erreichen, ohne bisher Daten über den Prozess vorliegen zu haben? Die Antwort ist Sie müssen schätzen. Erinnern Sie sich, es ist bloß eine Abschätzung. Wenn Sie später herausfinden, dass Sie unzureichend war, können sie den MSU jederzeit neu kalkulieren.

! Dieses Besipiel für die Kalkulation des Stichprobenumfangs schlägt mit 1600 Datenpunkten einen signifikant größeren MSU vor als für stetige Daten auf der vorangehenden Seite (von nur 16). Dies zeigt die schlechtere Auflösung und Qualität von attributiven Daten, wie bereits auf Seite 49 diskutiert.

MESSEN (Measure) > Minimale Stichprobenumfang > Attributive Daten

MESSEN (Measure) > Minimaler Stichprobenumfang > Zusammenfassung

Minimaler Stichprobenumfang - Zusammenfassung Minimaler Stichprobenumfang meint genau das - einen unteren Richtwert, der als Leitlinie dient. Anwendung des minimalen Stichprobenumfangs:

Der minimale Stichprobenumfang stellt nur einen Startpunkt dar, um grundlegende Six Sigma Werkzeuge zu benutzen, wie z.B. Histogramme, Prozessfähigkeitsanalysen und Sigma-Niveau. Fortgeschrittenere Methoden, wie beispielsweise SPR Karten, oder Hypothesentests, können eine größere Stichprobe erfordern.

Die Ansätze, die auf den vorangegangenen Seiten beschrieben wurden, können als Richtlinie begriffen werden, um einen Datenerfassungsplan während der Phase "Messen" zu erstellen. Als Erstes kalkulieren Sie Ihren minimalen Stichprobenumfang, dann wählen Sie Ihre Datenerfassungsstrategie und sammeln so lange Daten, bis Ihre minimale Stichprobengröße erreicht wurde. Erst danach führen Sie Ihre Analysen durch und ziehen Schlussfolgerungen aus den gesammelten Daten.

Der minimale Stichprobenumfang in der Praxis:

In der Praxis, kann eine limitierte Datenverfügbarkeit, oder begrenzte Zeit und Ressourcen, die Ihnen zur Verfügung stehen, dazu führen, dass Sie den minimalen Stichprobenumfang nicht erreichen können. Sollte zum Beispiel die Erfassung eines Datenpunktes an attributiven Daten (akzeptabel/fehlerhaft) für ein spezifisches Produkt oder eine Dienstleistung eine Stunde dauern, könnte es Monate dauern, bis der minimale Stichprobenumfang erreicht wird. Stattdessen könnten Sie versuchen stetige oder Zähldaten aus dem Prozess zu erheben, da diese statistisch aussagekräftiger sind und damit geringere Stichprobenumfänge benötigen.

Was machen Sie, wenn sie nicht genügend Daten haben, um den minimalen Stichprobenumfang zu erreichen?

Nutzen Sie, was sie haben, aber mit dem Bewusstsein, dass die Zuverlässigkeit in jedweder Statistik oder Entscheidung, die auf den Daten gründet, niedriger sein wird, als sie es gerne möchten. Konfidenzintervalle können genutzt werden, um die Genauigkeit jedweder Statistik zu beurteilen - mehr Informationen hierzu auf Seite 151.

Was machen Sie, wenn sie mehr Daten, als den minimalen Stichprobenumfang zur Verfügung haben? Beschweren Sie sich nicht! - aber überprüfen Sie noch einmal, dass Sie nicht wertvolle Ressourcen in eine nicht notwendige Datenerfassung investieren.

Es könnte möglich sein, die Menge an Daten, die aufgenommen wird, zu reduzieren, ohne die benötigte Genauigkeit einzuschränken.

Frequenz der Stichprobenentnahme Wenn Sie sich entschieden haben mit Hilfe von Stichproben einen Prozess zu messen, müssen Sie entscheiden, wann und wo Stichproben aus dem Prozess entnommen werden sollen - die Frequenz der Stichprobenentnahme. Auswahl der Frequenz der Stichprobenentnahme, um den Prozess zu überwachen: Jeder Prozess hat entsprechende „Zyklen" in seinen Prozessergebnissen (Outputs). Zum Beispiel: • Für einen 3 Schichtbetrieb könnte die Dauer des erwarteten Zyklus etwa 8 Stunden entsprechen. • Der Maschinenverschleiß bei einem Produktionsprozess könnte einen erwarteten Zyklus von wenigen Stunden erzeugen. • In einem Buchhaltungsprozess könnte der erwartete Zyklus in etwa eine Woche betragen, um einen Abgleich mit den gültigen Abläufen und Systemen zu ermöglichen. Mit Hilfe dieser Information sollte die Frequenz der Stichprobenentnahme so eingerichtet werden, dass mindestens 4 mal innerhalb eines Zyklus eine Stichprobenentnahme erfolgt, um zu gewährleisten, dass eventuelle Unterschiede innerhalb eines Zyklus in den Daten abgebildet werden (siehe Abbildung unten).

Prozess Output

Erwarteter Prozesszyklus

Stichprobenentnahme von Grundgesamtheiten:

Eine statistisch fundierte Herangehensweise an die Stichprobenentnahme ist wichtig, wenn Stichproben aus Grundgesamtheiten gezogen werden, um sicherzustellen, dass die Stichprobe auch repräsentativ ist.

Eine vollständig zufällige Stichprobenentnahme gibt der gesamten Grundgesamtheit eine gleiche Wahrscheinlichkeit ausgewählt zu werden. Alternativ mag es manchmal wichtig sein, dass spezifische Kategorien innerhalb einer Grundgesamtheit in einer Stichprobe repräsentiert sind. Eine „geschichtete" Stichprobe bedeutet, dass zufällige Daten aus spezifischen Kategorien innerhalb der Grundgesamtheit ausgewählt werden. Zum Beispiel würde ein vollständig zufälliger Probenzug nicht dazu führen, dass eine Jury exakt aus 6 Männern und 6 Frauen besteht. Ein „geschichteter" Stichprobenplan würde absichtlich 6 Frauen und 6 Männer auswählen, um sicherzustellen, dass das Geschlechterverhältnis innerhalb der Grundgesamtheit in der Jury abgebildet wird.

Minimale Frequenz - 4 mal innerhalb jedes Zyklus

MESSEN (Measure) > Frequenz der Stichprobenentnahme

MESSEN (Measure) > Zusammenhangsbezogene Daten

Zusammenhangsbezogene Daten - die 4. Datenart Kategorische Daten enthalten Informationen über den Kontext, aus dem die Daten erhoben wurden. Diese Informationen sind später essenziell für die Phase "Analysieren" eines Verbesserungsprojektes. Das gezeigte Datenblatt ist typisch für wirklichkeitsgetreue Daten. Es enthält Daten über einen Prozess zur Störungsbehebung.

Numerische Daten repräsentieren das Prozessergebnis.

Kategorische / zusammenhangsbezogene Daten liefern den Hintergrund zu jedem Datensatz.

Die ersten drei Spalten zeigen wie das Prozessergebnis in den 3 Datenarten aufgezeichnet werden könnte. Die anderen Spalten enthalten Informationen über den Kontext der Störungsbehebung und sind meist kategorische Daten.

Warum sind zusammenhangsbezogene Daten wichtig? ZusammenhangsbezogeneDaten sind essenziell für die Phase "Analysieren" eines Projektes. Ohne sie, werden Sie Schwierigkeiten haben aus den Daten Schlussfolgerungen zu ziehen. Deshalb ist es wichtig soviele zusammenhangsbezogene Daten wie möglich über die Ereignisse im Prozess aufzuzeichnen.

Sie können später immer noch entscheiden, die Daten nicht zu verwenden, aber es ist schwierig im Nachhinein zusammenhangsbezogene Daten zu rekonstruieren.

Eine Vielzahl von zusammenhangsbezogenen Daten manche als Zahlenwert, manche als Text, oder beides.


Messsystemanalyse > Richtigkeit und Präzision

MESSEN (Measure) > Messsystemanalyse > Auflösung

Messsystem Auflösung Falls die Auflösung des Messsystems zu groß ist, kann man kleine Veränderungen im Prozess nicht erfolgreich erkennen, und die Messsystemanalyse wird nicht erfolgreich sein. Da sich die Auflösung leicht überprüfen lässt, sollte das als erstes erfolgen. Auflösung: Die Auflösung gibt den kleinsten mit dem Messsystem wahrnehmbaren Unterschied an. Daher ist die Auflösung im untenstehenden Datensatz 1 = 0,05 und im Datensatz 2 = 1. 5,00 4,95 4,90 5,05 5,15 4,95 5,00 4,80 4,95 5,10

Datensatz 1 Auflösung: 0,05 Min: 4,80 Max: 5,15 Reichweite: 0,35 Datensatz 2 Auflösung: 1 Min: 78 Max: 94 Reichweite: 16

78 85 94 91 89 81 88 92 79 87

Woher kommt eine schlechte Auflösung? • Häufig ist das Messgerät nicht in der Lage, eine höhere Auflösung zu liefern. In diesem Fall ist die Anschaffung eines anderen Messgeräts unvermeidbar. • Manchmal werden die Messdaten jedoch im Rahmen der Datenaufnahme und -Verarbeitung gerundet. Durch Verwendung der ungerundeten Daten kann man die Datenqualität kostenfrei verbessern.

Die „Zehnerregel" besagt, dass die Auflösung des Messgeräts in der Lage sein sollte, mindestens zehnmal in die zu untersuchende Prozessstreuung zu passen, wie unten gezeigt: Prozessstreuung

Die „Zehnerregel" ist ein schnelles und praktisches Werkzeug für die Beurteilung, ob das Messsystem eine realistische Chance hat, die Messsystemanalyse erfolgreich zu bestehen. Zum Beispiel: • Der Datensatz 1 (links) hat eine Auflösung von 0,05. Die Prozessstreuung wurde aus dem Datensatz als 0,35 (= 5,15-4,80) abgeschätzt. Die Auflösung von 0,05 unterteilt die Prozessstreuung nur 7-mal. Damit ist es sehr unwahrscheinlich, dass das Messsystem akzeptabel ist, da es die „Zehnerregel" nicht erfüllt. • Die Auflösung des Datensatzes 2 (links) scheint akzeptabler. Die Auflösung ist 1, der Arbeitsbereich als Schätzung für die Prozessstreuung beträgt 16 (= 94-78). Damit wird die „Zehnerregel" gut erfüllt. Das äquivalente Maß für die Auflösung von Minitab wird als „Anzahl der eindeutigen Kategorien" bezeichnet (siehe Seite 65). Das Konzept ist das gleiche, aber die Berechnungen sind etwas anders, und so sind die Kriterien für die Akzeptanz fünf oder mehr (nicht 10 oder mehr, wie hier beschrieben).

Wiederholbarkeit und Reproduzierbarkeit des Messsystems (GR&R) Die Messsystemanalyse für stetige Daten ermittelt die Präzision des Messsystems und bewertet die Eignung.

Im Englischen spricht man von Gage R&R, d. h. Messmittel Repeatability (Wiederholpräzision) & Reproducibility (Wiederholbarkeit).

Nicht das absolute Level der Präzision ist relevant, sondern das relative Level. Zum Beispiel ist eine Uhr, die für die Zeitmessung eines Marathons ausreicht vermutlich nicht akzeptabel für die Zeitnahme eines 100-m-Sprints. In ähnlicher Weise ist ein Spannungsmessgerät für Haushaltsgeräte nicht geeignet für die Vermessung elektronischer Komponenten. Mit anderen Worten, das Messsystem muss für den vorgesehenen Zweck geeignet sein. Daher wird die Akzeptanz des Messsystems anhand des Verhältnisses (ausgedrückt in Prozent) der Messsystemstreuung (Präzision) im Vergleich zur Prozessstreuung (oder Teilestreuung) und der Toleranz (Kundenspezifikation) beurteilt, wie unten gezeigt:

GR&R Streuung zum Vergleich gezeigt.

Ein Teil, mehrfach gemessen unter unterschiedlichen Bedingungen liefert Ergebnisse, die die GR&R wiedergeben.

GR&R

GR&R

Toleranz ---^ +.1 \

-

..*

-*

Gesamtstreuung S* (zwischen den Teilen f und GR&R) •• »

-••

obere Spezifikationsgrenze

Unter der Voraussetzung, dass sich das Teil nicht verändert, wird die beobachtete Streuung der Ergebnisse durch die Wiederholpräzision (hauptsächlich Streuung des Messgerätes) und die Wiederholbarkeit (hauptsächlich Streuung durch verschiedene Prüfer) hervorgerufen.

Was ist ein akzeptables Level der Messsystempräzision?

1 untere / Spezifikationsgrerize

Bei der Messsystemanalyse für stetige Daten wird die Präzision bestimmt, indem ein Teil mehrere Male und von verschiedenen Prüfern gemessen wird. Dies wird für mehrere Teile wiederholt.

nicht akzeptabel

marginal

gut

ausgezeichnet

Messsystemstreuung im Verhältnis zur Gesamtstreuung = GR&R / Gesamtstreuung x 100%

> 30%

< 30%

< 20%

30%

< 30%

< 20%

Messsystemanalyse > GR&R

MESSEN (Measure) > Messsystemanalyse > stetige Daten GR&R

stetige Daten GR&R in Minitab - Übersicht Eine übliche Vorgehensweise für die Durchführung einer Messsystemanalyse sieht die Untersuchung von 10 Teilen, jeweils dreimal gemessen von drei verschiedenen Benutzern, vor. Insgesamt müssen also 90 Messungen durchgeführt werden.

Statistik > Qualitätswerkzeuge > Messsystemanalyse (MSA) > Messsystemanalyse (gekreuzt) Messsystemanalyse (gekreuzt) Teilnum Prüfer Messdaten Prozesstoleranz

C3 C5

Teilenummer Prüfer: Messdaten:

Die drei Eingabefelder sind selbsterklärend. Die Teile und Prüfer können auch als Textdaten eingegeben werden (z. B. die Namen der Prüfer).

Vorbereitung der Daten: Minitab erwartet die Daten wie üblich in verschiedenen Spalten; jeweils eine für die Teilenummern, die Prüfer und die Messergebnisse - wie unten gezeigt: "S GR&R gekreuzt«" fo 1! S iSäiJ * C1 C2 C3 Teilnummer Prüfer Meisdaten 1 65 1 1 1 1 60 2 1 1 1 1 1.70 3 4 2 00 2 1 5 2 1 200 6 2 00 2 1 7 1.85 3 1 8 3 1 1 80 » 1 85 3 1 10 4 1 1 85 4 1 11 1 95 4 1 12 1 90 13 1.55 5 1 14 1.45 5 1

Minitab kann auch Konfidenzintervalle für die wichtigsten statistischen Parameter ausgeben und im Arbeitsblatt Speichern, in diesem Beispiel wird das aber nicht genutzt.

Optionen:

Messsystemanalyse (gekreuzt): ANOVA-Optionen ig m Untersuchung: l 5.15

"^^""""^Anzahl der Standardabweichungen)

(~ Mindestens eine Grenze eingeben Untere Spezifikationsgrenze: Obere Spezifikationsgrenze: Normalverteilung

MESSEN (Measure) > Prozessstabilität > Zufällige und systematische Streuung 79

Prozessstabilität: Zufällige und systematische Streuung Ein weit verbreiteter Begriff für die Zusammenfassung des Verhaltens eines Prozesses ist die „Stabilität". Die Erkenntnis, ob ein Prozess stabil ist oder nicht, bestimmt die Vorgehensweise der Regelung. Ein stabiler Prozess hat stabile Inputs:

Das Schlüsselkonzept der Prozessstabilität liegt darin, dass die Streuung eines Prozessoutputs von der Streuung der Inputs abhängt. • Ein stabiler Prozess ist einer, bei dem alle Inputs zufällig streuen. Das Zusammenkommen dieser zufälligen Streuungen ergeben zusammen eine ähnliche zufällige Streuung des Outputs, die innerhalb bestimmter Grenzen vorhersagbar ist. • Ein instabiler Prozess ist einer, bei dem einer oder mehrere der Inputs sich in einer unvorhersehbaren Weise verhalten. Die resultierende Streuung des Outputs ist das Ergebnis von systematischer Streuung, und daher nicht vorhersagbar.

Ein Beispiel für systematische Streuung ist das Wetter. Ein Blitzeinschlag könnte einen besonderen Überspannungsstoß von mehreren tausend Volt in der Netzspannung verursachen, der normalerweise relativ stabil variiert.

So bewerten Sie die Prozessstabilität:

Um Prozessinstabilität zu erkennen, die für das menschliche Auge nicht leicht erkennbar ist, können SP-Regelkarten in der Phase „Messen" zur Analyse von historischen Prozessdaten eingesetzt werden. SP-Regelkarten sind eine erweiterte Form des Zeitreihendiagramms und werden auf Seite 249 ausführlich vorgestellt

Ein Prozess ist stabil... wenn er beherrscht wird und vorhersagbar ist. Der Output variiert aufgrund der zufälligen Streuung in den Inputs. Ein Prozess ist instabil... wenn er nicht beherrscht und vorhersagbar ist. Der Output variiert aufgrund systematischer Streuung in nur einem oder zwei seiner Inputs, die den Prozess dominieren.

Einige Beispiele:

Dieser Prozess scheint stabil zu sein. Es gibt keine offensichtlichen Ausreißer oder Trends, und daher ergibt die Streuung des Outputs eine vernünftige Vorhersage der zukünftigen Leistung. Dieser Prozess scheint mit Ausnahme von zwei Ausreißern stabil zu sein. Diese sollten untersucht werden, um die Ursachen festzustellen. Dieser Prozess ist eindeutig nicht stabil über die Zeit. Es sollte untersucht werden, ob Änderungen am Prozess vorgenommen wurden, oder ob die speziellen Ursachen kontrolliert.

Prozessstabilität: Kurz- und Langzeitstreuung Der Unterschied zwischen der Kurzzeit- und Langzeitprozessstabilität kann wertvolle Hinweise liefern. Der Unterschied zwischen der Kurzzeit- und Langzeitstreuung eines Prozesses kann Hinweise auf die Art von erforderlichen Prozessverbesserungen geben: • Ein großer Unterschied weist darauf hin, dass die Prozessleistung durch eine bessere Steuerung verbessert werden konnte. Der Prozess kann zwar gut funktionieren, aber diese Leistung ist nicht nachhaltig. In diesem Fall kann man sagen, dass der Prozess Potential hat, wenn die Steuerung verbessert wird.

! Wenn Sie das nächste Mal eine größere Investition in Betracht ziehen, stellen Sie sicher, dass Sie das Beste aus dem Bestehenden herausholen! Eine neue Maschine oder ein neues IT-System kann eine teure Lösung für eine schlechte Prozesssteuerung sein:

• Ein kleiner Unterschied deutet darauf hin, dass der Prozess auf lange Sicht bereits gut gesteuert wird. Wenn Sie also noch eine bessere Leistung benötigen, ist es unwahrscheinlich, dass diese durch eine verbesserte Steuerung realisierbar ist. In diesem Fall sagt man, dass der Prozess an der Grenze seines Potenzials steht - die Technologie des Prozesses kann nichts mehr bieten. Dies könnte darauf hindeuten, dass das Projekt eher in Richtung Produkt- oder Prozess-Redesign zu sehen ist.

Wie definiert man Kurzzeit- und Langzeitprozessstabilität im wirklichen Leben?

Leider ist die Antwort wieder „es hängt davon ab". Was als systematische Streuung bei einer Kurzzeitbetrachtung aussieht, kann sich bei einer Langzeitbetrachtung als zufällige Streuung erweisen. Es kann sein, dass Ihr Prozess mehrere Zeitskalen hat; bei der Kurzzeitbetrachtung handelt es sich um Minuten, bei der Mittelzeibetrachtung werden Schichten angesehen, und bei der Langzeitbetrachtung schaut man die Monatsergebnisse an.

MESSEN (Measure) > Prozessstabilität > Kurz- und Langzeitstreuung

MESSEN (Measure) > Prozessstabilität > Trends, Saisonalität und Rauschen

81

Prozessstabilität: Trends, Saisonalität und zufälliges Rauschen Prozessoutputs resultieren aus einer Kombination von Trends, Saisonalität und zufälliger Streuung. Erkenntnis dieser Bestandteile kann bei der Interpretation eines Zeitreihendiagramms hilfreich sein. Gesamtbild

Trend

Saisonalität

zufälliges Rauschen

Das Gesamtbild (Links) zeigt die Prozessoutputs als Zeitreihendiagramm. Prozesse sind komplex und ihre Outputs sind im Allgemeinen das Ergebnis mehrerer verschiedener Bestandteile wie folgt: Trends: Die meisten Prozesse ändern sich langsam im Laufe der Zeit, und diese allgemeinen Änderungen werden üblicherweise als Trends bezeichnet. Die Trendbild (links) zeigt den Trendverlauf aus dem Gesamtbild (oben). Trends sind häufiger und leichter zu erkennen, wenn Sie eine Langzeitbetrachtung des Prozesses machen. Wenn der Trend Teil einer wiederholten Zunahme oder Abnahme ist, die keine konsistente Dauer hat, wird er als ein Zyklus bezeichnet. Zum Beispiel, viele Wirtschaftsindikatoren sind zyklisch, weil sie dem unbeständigen Konjunkturzyklus folgen.Wenn Sie Verbesserungen an einen Prozess implementieren, möchte man einen Verbesserungstrend sehen! Mit dem Trendanalyse-Tool von Minitab können diese Trends identifiziert und vorhergesagt werden. Saisonalität: Viele Prozesse haben einige beständige, zeitbasierte Muster, die wir als Saisonalität bezeichnen. Das Saisonalitätsbild (links) zeigt die Komponente der Saisonalität aus den Gesamtbild (oben). Wichtig ist, dass „Saisonalität" nicht bedeutet, dass diese Muster auf die Klimazonen zurückzuführen sind. Es bezieht sich auf zyklische Muster in den Ergebnissen, die eine beständige Dauer haben, z. B. stündlich, täglich, wöchentlich oder monatlich. Minitab bietet unterschiedliche additive Modelle zur Zelegung von Prozessen an, um mögliche Trends und Saisonalitaten zu erkennen, obwohl sie in diesem Text nicht behandelt wird. zufälliges Rauschen: Alle Prozesse enthalten zufällige Streuung. Ist diese vergleichsweise niedrig, wird sie oft durch die Trends und Saisonalität innerhalb eines Prozesses maskiert. Wenn sie aber relativ hoch ist, wird die Reduzierung dieser Streuung oft der erste Fokus für die Verbesserung sein.

Prozessfähigkeit - Übersicht

Die Prozessfähigkeit bezieht sich auf eine Reihe von KPIs (Metriken), die die Fähigkeit eines Prozesses messen, die Anforderungen des Kunden zu erfüllen. Auf den nächsten Seiten werden viele alternative Metriken vorgestellt, und Six Sigma führt eine neue Prozessfähigkeitsmetrik ein - das Sigma-Niveau - das auf Seite 93 beschrieben wird. Beispiel: Das nebenstehende Histogramm zeigt die Lieferzeiten eines Lieferdienstes. Der tatsächliche Zeitpunkt der Lieferung wird von der Ziellieferzeit gemessen (mit dem Kunden vereinbart), und somit wird eine pünktliche Lieferung als Null definiert. Der Bereich zwischen den unteren und oberen Spezifikationsgrenzen (die Toleranz) wird als Voice of the Customer (VOC) bezeichnet. In diesem Beispiel beträgt die VOC zwei Stunden - eine Stunde zu beiden Seiten der Ziellieferzeit. Die gesamte Prozessstreuung (die sich auf die Breite des Histogramms auswirkt) wird als Voice of the Process (VOP) bezeichnet, die in einem normalverteilten Prozess wie dem hier gezeigten sechs Standardabweichungen entspricht.

! Spezifikationen sind nicht immer die VOC!

Achte darauf, dass nicht davon ausgegangen wird, dass interne Ziele, Spezifikationen oder Fertigungstoleranzen die Anforderungen des Kunden wiedergeben.

Voice of the Customer (VOC)

(D

Voice of the Process (VOP)

co

C D

n

II

o

C

0

03

ra

"N Q, C/)

'N

(D

"c 13

-1,0

-0,8

H

1

-0,6 -0,4 -0,2 0,0 0,2 0,4 0,6 0,8 Lieferzeiten gegenüber Ziellieferzeit (Dezimalstunden)

obere Spe

Was ist Prozessfähigkeit?

Stunde

Die Prozessfähigkeit beschreibt, wie gut der Prozess das liefert, was der Kunde sich wünscht.

1,0

Wie bestimmt man die Prozessfähigkeit?

Die Prozessfähigkeit ist der Vergleich der VOP mit der VOC (Prozess gegen Kunde). Da in diesem Fall die Breite des Histogramms (VOP) kleiner ist als die Spanne zwischen den Spezifikationsgrenzen (VOC), scheint es, dass dieser Prozess in der Lage sein sollte, innerhalb der festgelegten Spezifikationen zu liefern. Das Histogramm ist jedoch nicht mittig zwischen den Spezifikationsgrenzen, d. h. Lieferungen werden in der Regel nach der Zielzeit zugestellt und es besteht daher das Risiko, dass einige Lieferungen außerhalb der oberen Spezifikationsgrenze erfolgen. Sowohl die Breite als auch die Lage des Histogramms definieren die Fähigkeit des Prozesses, und diese Eigenschaften werden auf Seite 89 näher erläutert.

MESSEN (Measure) > Prozessfähigkeit

MESSEN (Measure) > Prozessfähigkeit > Wegweiser

Prozessfähigkeit Wegweiser Berechnen Sie die fehlerhaften Einheiten in % (den Anteil der Produkte oder Dienstleistungen, der die Kundenanforderungen nicht erfüllt). stetige Daten (S. 46)

USG

OSG

Stellen Sie anhand der Daten, die für die Berechnung verwendet wurden, anhand der ST- oder LT-Notation klar, ob die fehlerhaften Einheiten in % Kurz- oder Langzeit sind.

Konvertieren Sie in ein Sigma-Niveau (siehe Seite 93), wobei das ST- oder LT- Suffix beibehalten wird und eine Z-Tabelle verwendet wird, die keinen Sigma-Shift von 1,5 hat (s. die Innenseite des hinteren Buchdeckels dieses Leitfadens.

Berechnen Sie der Sigma-Shift oder wenn keine Alternative vorliegt, verwenden Sie einen geschätzten Sigma-Shift von 1,5.

Cp, Cpk (Seite 89) Normale Daten (Seite 85) Nicht normale Daten (Seite 87)

KurzzeitMetriken

ZST

Zähl d ate l (S. 47) schlecht Dl

0

v

~L_

fehlerhafte Einheiten

in % =

= (1 - FTY)

1 2 3 Defekte

Attributive Daten (S. 48)

gut schlecht

Mit attributiven Daten ist es einfach, die fehlerhaften Einheiten in % zu ermitteln, aber es muss sichergestellt werden, dass die gut / schlecht- Kriterien kundenorientiert sind.

Wenden Sie den geschätzten Sigma-Shift an, um ZLT zu schätzen

ZSHIFT = (ZST-ZlT) V

'

ZLT

Berechnen Sie die tatsächliche ZST, um die tatsächliche ZSHIFT zu berechnen

Sigma-Shift

(S. 95)

LangzeitMetriken

PPM- oder DPMO-Metriken kann man einsetzen, um die fehlerhaften Einheiten in % Langzeit darzustellen (Seite 90).

Prozessfähigkeitsanalyse in Minitab Die Funktionen zur Prozessfähigkeitsanalyse in Minitab vereinen viele der in der Measure-Phase eingeführten Konzepte wie Histogramme, Verteilungskurven, Kurz- und Langzeitstreuung. Die oberen drei Menüpunkte der „Prozessfähigkeitsanalyse" von Minitab sind für die Verwendung mit stetigen Daten vorgesehen. Normal... (S. 85) ist für Daten, die normalverteilt sind. Es ermöglicht bei Bedarf natürliche Teilgruppen in den Daten, kann jedoch auch mit einer Teilgruppengröße von 1 (d. h. keine natürlichen Teilgruppen) gearbeitet werden. Zwischen/Innerhalb... ist Normal... sehr ähnlich. Es wird für Daten verwendet, die in sehr spezifischen Teilgruppen gesammelt wurden, aber Sie werden keinen Fehler machen, wenn Sie sich für die „Normal..." entscheiden, wenn Sie Zweifel haben. Nicht normal... (S. 87) sollte verwendet werden, wenn die Daten in irgendeiner Weise deutlich verzerrt oder nicht normalverteilt sind. Es ist jedoch komplexer und sollte nur verwendet werden, wenn man mit der „normalen" Fähigkeitsanalyse vertraut ist.

Statistik > Qualitätswerkzeuge > Prozessfähigkeitsanalyse Die mittleren zwei Menüpunkte bieten gleichzeitig eine Funktionsanalyse für mehrere Variablen zu Vergleichszwecken. Sie werden in diesem Text nicht weiter untersucht.

Normal... Zwischen/Innerhalb... Nicht normal... Mehrere Variablen (normal)...

*

Mehrere Variablen (nicht normal). Binomial... Poisson...

Die unteren zwei Menüpunkte sind für die Verwendung mit Zähldaten und Attributdaten (Binomial...) und Zähldaten pro Einheit (Poisson) vorgesehen. Sie sind fortgeschrittene Techniken und werden in diesem Text nicht im Detail behandelt. Alternativ finden Sie auf Seite 92 einen Ansatz zur Prozessfähigkeit für Zähl- und Attributdaten.

Durchführung von Prozessfähigkeitsstudien: Fähigkeitsanalysen können anhand von historischen Daten oder Daten, die speziell für diesen Zweck gesammelt wurden, durchgeführt werden. In jedem Fall muss sichergestellt werden, dass die Daten in zeitlicher Reihenfolge aufgezeichnet werden, da Minitab diese Annahme trifft. Darüber hinaus sollte, wenn möglich, die Kurz- und Langzeitleistung des Prozesses in den gesammelten Daten widergespiegelt werden. Ein üblicher Ansatz besteht darin, kleine Stichproben (Teilgruppen) von etwa fünf Messungen zu sammeln, um die Kurzzeitleistung zu erfassen, und diese Stichprobe in bestimmten Intervallen zu wiederholen, urn die Langzeitstreuung des Prozesses zu ermitteln.

MESSEN (Measure) > Prozessfähigkeit > Prozessfähigkeitsanalyse in Minitab

84

MESSEN (Measure) > Prozessfähigkeit > Normalverteilte Daten

Prozessfähigkeitanalyse mit normalverteilten Daten - Daten Input Beispiel: Ein Projekt untersucht die Zeit, die Außendienstteams benötigen, um Störungen in Klimaanlagen an Kundenstandorten zu beheben. Fünf (aufeinanderfolgende) Reparaturarbeiten wurden 20 Tage lang jeden Tag zufällig ausgewählt (daher enthalten die Daten eindeutig natürliche Teilgruppen). Verwenden Sie diese erste Option, wenn Ihre Daten in einer Spalte gestapelt sind. Wenn die Teilgruppengröße in einer separaten Spalte erfasst ist, geben Sie diese Spalte hier ein. Beachten Sie, dass die Größen der Teilgruppen nicht gleich sein müssen. Wenn die Größe der Teilgruppen jedoch gleich ist, können Sie die Teilgruppengröße direkt anstelle einer Spalte eingeben. Wenn keine Teilgruppen vorhanden sind, geben Sie'1'ein. Verwenden Sie diese zweite Option, wenn die Daten mehrere Spalten mit einer Zeile für jede Teilgruppe umfassen (geben Sie alle Spalten ein, die die Daten enthalten). Die Datei für dieses Beispiel (unten) enthält zwei verschiedene Versionen der gleichen Daten, um die alternativen Methoden zum Aufzeichnen von teilgruppierten Daten in Minitab anzuzeigen.

Reparaturzeiten.mpj

Statistik > Qualitätswerkzeuge > Prozessfähigkeitsanalyse > Normal igkeitsanalyse (Norm a l Verteilung) "Öl C2

Reparaturz&H^t Anordnung der Date Teilgruppe ^(y Elnze|ne spalte: TeilgruppengrölSe:

| Teilgruppe

(Konstante oder ID-Spalte verwenden) (" Teilgruppen über folgende Zeilen:

itere Spezifikationsgrenze: I

pf

>ere Spezifikationsgrenze: l

^6

Historischer Mittelwert: Historische Standardabweicflung:!

Wenn die vorliegenden Daten nicht normalverteilt sind, können diese mit den Box-Cox- oder JohnsonTransformationsmethoden in normalverteilten Daten transformiert werden (siehe Anhang G). Unter Schätzen legt man fest, wie die Kurzzeitstreuung (innerhalb der Teilgruppen) berechnet wird. Die Zusammengefasste Standardabweichung und Mittelwert der gleitenden Spannweite sind standardmäßig ausgewählt. In Optionen kann man die Metrik festlegen, der berechnet wird. Wählen zwischen:

• Parts per Million (PPM) oder Hier gibt man die Kundenspezifikationen ein. Wenn der Prozess Prozent (siehe Seite 90) nur eine Spezifikation hat, lässt man das andere Feld leer. Wenn eine^ Cp / Cpk oder Sigma-Niveaus Spezifikation eine natürliche oder physikalische Grenze darstellt, die (siehe Seiten 89/93) für den Prozess nicht überschritten werden kann, wählt man Grenze aus, um die obere Spezifikationsgrenze als Begrenzung festzulegen. Verwenden Sie Speichern wenn die Ausgaben, zusätzlich zur grafischen In diesem Beispiel sind sechs Stunden das vom Kunden maximal Ausgabe, in einem Arbeitsblatt zulässige und drei Stunden eine interne niedrigere Angabe, die gespeichert werden sollen. darauf hinweist, dass der Prozess möglicherweise mit zu vielen Ressourcen ausgestattet ist (zusätzliche Kosten).

Prozessfähigkeitanalyse mit normalverteilten Daten - Output Die Spezifikationen und Statistiken der Fähigkeit sind hier zusammengefasst. Standardabweichungen:

Kapazitätsmetriken können abhängig von den ausgewählten Optionen im Format Cp / Cpk (Seite 89) oder Sigma- Niveau (Seite 93) vorliegen.

Bericht der Prozessfähigkeit für Reparaturzeit (dez. Stunden)

\t der ProiesstahigkeÄ für Reparaturzeit (dez. Stunden)

• StdAbw (gesamt) stellt v die Langzeitstreuung N des Prozesses dar. • StdAbw (innerhalb) stelltdie Kurzzeitstreuung des Prozesses dar. Die beobachtete Leistung basiert auf den * tatsächlichen Ergebnissen,^ die für die Analyse verwendet wurden. In diesem Fall dauerte keine Reparatur weniger als drei Stunden, aber 11 (von 100) dauerten länger als 6 Stunden. Diese 11% entsprechen 110.000 Teilen pro Million.

Gesamt Innerhalb

USG

Soll OSG

Gesamtprozessfa'higkeit

6

Pp PPL PPU Ppk

MWert SP 5.0333 4 Stichprobe N 100 0.770317 StdAbw (gesamt) StdAbw (innerhalb) 0.433805

PPM • USG PPM > OSG PPM Gesamt

Beobachtet 0.00 110000.00 11000000

Leistung Erwartet gesamt 4150.65 104750.60 108901.24

0.65 0.88 0.42 0.42

J

i Cpm * Potenzielle Prozessfahigkeit (innerhalb) Cp 1.15 CPl 1.56 > CPU

0.74

Cpk

0.74

• Die Gesamtprozessfähigkeiten basieren auf allen Streuungen, die in der Analyse (Langzeit) beobachtet wurden, und geben die aktuelle Leistung des Prozesses wieder. • Die potenziellen Prozessfähigkeiten basieren auf der Kurzzeitstreuung. Diese geben wieder, wie gut der Prozess sein könnte. Die Langzeitprozessfähigkeiten werden als „Pp" usw. bezeichnet, um von ihnen Kurzzeitäquivalenten (Cp usw.) zu unterscheiden.

Erwartet innerhalb 1.39 12926.18 12927.56

\e angegebenen

Erwartete Leistungsstatistiken sind Vorhersagen der Proportionen, die die Spezifikationsgrenzen nicht erfüllen. Sie basieren auf den Flächen unter den Normalkurven und nicht auf den tatsächlichen Daten im Histogramm. Es werden zwei verschiedene Wertesätze berechnet, einer basiert auf der Kurzzeit- (innerhalb) und einer auf der Langzeitleistung (gesamt).

Normale Kurven: In diesem Beispiel ergab die Analyse einen großen Unterschied zwischen der Kurzzeitstreuung (Standardabweichung = 0,43) und der Langzeitstreuung (Standardabweichung = 0,77). Die beiden Normalkurven spiegeln diese Differenz wider - die durchgezogene Linie repräsentiert die Langzeit- und die gestrichelte Linie die Kurzzeit-Prozessfähigkeit (sie ist viel schmaler / größer).

MESSEN (Measure) > Prozessfähigkeit > Normalverteilte Daten

MESSEN (Measure) > Prozessfähigkeit > Nicht normalverteilten Daten

Prozessfähigkeitsanalyse mit nicht normalverteilten Daten - Daten Input Ein Projekt untersucht die Zeit, die Hypothekenanträge zwischen zwei kritischen Schritten im Bewerbungsprozess in Warteschlangen verbringen. Die Warteschlangenzeiten von 100 Hypothekenanträgen werden über einen Zeitraum von zwei Monaten aus dem Prozess entnommen (sodass sowohl Langzeit- als auch Kurzzeitdaten als angemessen angesehen werden können).

In diesem Beispiel belässt man die Voreinstellungen von Schätzen.

Statistik > Qualitätswerkzeuge > Prozessfähigkeitsanalyse > Nicht normal Prozessfähigkeitsanalyse (Nicht-Normalverteilung) Cl

Wartezeiten

Anordnung der Daten (* Einzelne Spalte: | Wartezeiten C Teilgruppen über folgende Zeilen:

Schätzen.. Optionen../ Speichern...

• Teile pro Million oder Prozente (siehe S. 90)

Aus betrieblichen Gründen beträgt die maximal zulässige Wartezeit fünf (Arbeits-) Stunden, und der Projektleiter möchte die Fähigkeit dieses Prozesses ermitteln, diese Spezifikation zu erfüllen.

• Cp / Cpks oder Sigma Niveaus (siehe S. 89 / 93)

Ein Histogramm der Daten zeigt an, dass die Prozessverteilung schief ist, und ein Normalitätstest zeigt auch an, dass die Daten nicht normalverteilt sind. Die Prozessfähigkeitsanalyse mit nichtnormalverteilten Daten von Minitab ist daher angemessen, erfordert jedoch die Auswahl einer geeigneten Verteilung für die Daten. Die Funktion „Identifikation der Verteilung" (siehe Beispiel auf Seite 191) zeigt an, dass diese Daten zu einer Weibull-Verteilung am besten passen.

• Unter Optionen kann man die Art der anzuzeigenden Metriken auswählen, die berechnet werden. Wähle zwischen:

Speichern, wenn die Ausgaben zusätzlich zur grafischen Ausgabe in einem Arbeitsblatt gespeichert werden sollen.

Hier wählt man aus der Dropdown-Liste die Verteilung aus, die zu Ihren Daten passt.

Hier trägt man die Spezifikationsgrenzen des Prozesses ein. (in diesem Fall gibt es nur eine obere Spezifikationsgrenze).

NN-Wartezeiten.mpj

\n Sie Hier gibt man die

Spalte mit den Prozessdaten ein.

Prozessfahigkeitsanalyse mit nicht normalverteilten Daten - Output Die Spezifikationen und Statistiken des Prozesses sind hier zusammengefasst. Beobachtete N Leistungsstatistiken basieren auf den tatsächlichen Ergebnissen innerhalb der für die Analyse verwendeten Stichprobe. In diesem Fall standen 2 der 100 Hypothekenanträge für mehr als fünf Arbeitsstunden an und die beobachtete — Leistung, die die obere Spezifikationsgrenze (OSG) überschreitet, beträgt 20.000 PPM (2 %).

Bericht der Prozessfähigteit für Wartezeiten

Bericht der Prozessfähigkeit für Wartezeiten Die Berechnung wurde auf der Grundlage des Weibull Verteilungsmodells erstellt. OSG * s USG

Prozessdaten

Soll

OSG

5

MWert SP Stichprobe N Form Skala

1.99499 100 1.69368 2.23732

Weil keine untere Spezifikationsgrenze (USG) angegeben wurde, gibt Minitab nur ein Sternchen für PPM OSG PPM Gesamt

20162.01 20162.01

Die Pp- und PPL-Werte sind leer, da in diesem Beispiel keine untere Spezifikationsgrenze angegeben ist. Ppk ist ähnlich der auf der nächsten Seite beschriebenen Cpk-Statistik, und ein Wert von 0,68 (0,64 in V17 aufgrund unterschiedlicher Berechnungsmethode) zeigt an, dass die Langzeitprozessfähigkeit nicht gegeben ist. In diesem Fall sagen die erwarteten Leistungszahlen voraus, dass 20.162 Teile pro Million über dem OSG liegen werden, wenn der Prozess so weiterläuft. 20.162 PPM ist das gleiche wie 2.01 %.

Erwartete Leistungsstatistiken sind Vorhersagen der Proportionen, die die Spezifikationsgrenzen nicht erfüllen. Sie basieren auf den Flächen unter den angepassten Kurven (in diesem Fall die Weibull-Verteilung) und nicht auf den tatsächlichen Daten im Histogramm und können daher eine zuverlässigere Vorhersage sein (wenn das angepasste Modell geeignet ist).

MESSEN (Measure) > Prozessfähigkeit > nicht normalverteilten Daten

MESSEN (Measure) > Prozessfähigkeit > Cp und Cpk

Prozessfähigkeit - Cp und Cpk Indizes Die Cp-Wert gibt die potenzielle Prozessfähigkeit wieder, unter der Annahme, dass das Histogramm zentral innerhalb der Spezifikationsgrenzen (VOC) positioniert ist.

Mittelwert = 0,20 Sigma = 0,29

Cp ist daher ein Verhältnis und ist definiert als:

Cp =

Voice of the Customer

Spezifikationsstreubreite (Toleranz)

(OSG - USG)

Voice of the Process

Prozessstreubreite

6 x Sigma

Der Cpk-Wert gibt die tatsächliche Fähigkeit des Prozesses wieder, indem sie das gleiche Verhältnis wie Cp misst, jedoch nur bis zur nächsten Spezifikationsgrenze (da dies die Grenze ist, die am wahrscheinlichsten fehlschlägt). Cpk ist definiert als: Beispiel: Für das Beispiel des Lieferprozesses, das auf Seite 82 eingeführt und oben gezeigt wurde, können die Cp und Cpk-lndizes wie folgt berechnet werden:

Cp = (1 - (-1)) / (6 x 0,29)

Cpk =

Nächstliegende Voice of the Customer

(Nächstliegende SG. - Mittelwert)

Die Hälfte der Voice of the Process

3 x Sigma

=1,15

Cpk = (1 - 0,2) / (3 x 0,29) = 0,92

USG

Cp-Werte von 1,33 oder darüber werden als akzeptabel angesehen, und ein Cp über 2 ist ausgezeichnet (da es anzeigt, dass das Spezifikationsfenster doppelt so breit wie die Prozessstreuung ist). In diesem Beispiel zeigt der Cp-Wert von 1,15 an, dass der Lieferprozess potenziell fast fähig ist (1,33 ist akzeptabel), aber der niedrigere Cpk-Wert von 0,92 zeigt an, dass seine tatsächliche Fähigkeit schlecht ist. Der Cpk ist niedriger als der Cp, da der Prozessmittelwert nicht zentral zwischen den Spezifikationsgrenzen liegt.

OSG

: Schlechte ) Fähigkeit, ; aber zentriert

:cp = o,9

; Cpk = 0,9 USG

OSG

Gute Fähigkeit, und zentriert Cp = 2,0 Cpk = 2,0

USG

OSG

Schlechte Fähigkeit, und nicht zentriert Cp = 0,9 Cpk = 0,5 Gute Fähigkeit, aber nicht zentriert Cp = 2,0 Cpk = -0,5

Prozessfähigkeit - Metriken PPM und DPMO Pro Möglichkeit: Prozessfähigkeitsmetriken, die den Ausdruck „Pro Möglichkeit" enthalten, werden verwendet, um die Komplexität eines Prozesses bei der Bewertung seiner Fähigkeiten zu berücksichtigen. Sie arbeiten, indem sie die Anzahl der Fehler in einem Prozess durch die Anzahl der Möglichkeiten teilen, dass Dinge schiefgehen (Komplexität). Sie werden ermittelt, indem die Anzahl der Fehler in einem Prozess durch die Anzahl der Fehlermöglichkeiten (Komplexität) geteilt werden. Ein hochkomplexer Prozess, der 5 % Ausschuss produziert, hätte also eine bessere (niedrigere) Ausfallrate "Pro Möglichkeit" als ein weniger komplexer Prozess, der mit den gleichen 5 % Ausschuss läuft. Dies scheint vernünftig zu sein, aber in der Praxis hat sich die Verwendung von „Pro Möglichkeif'-Metriken aufgrund der Schwierigkeit, Komplexität zu messen, als wenig praktikabel erwiesen.

Wie misst man Komplexität?

Die meisten Ansätze zur Bestimmung der Komplexität tun dies, indem sie die Anzahl der Fehlermöglichkeiten (Opportunities for defects, OFDs) in einem Produkt oder Prozess zählen. Das Zählen von OFDs beinhaltet normalerweise das Zählen von Faktoren wie die Anzahl der Prozessschritte, Teile, Verbindungen oder Übergaben in einem Prozess, auf die in diesem Text nicht näher eingegangen wird.

Welcher Ansatz auch immer verwendet wird, der entscheidende Erfolgsfaktor ist, dass er konsequent angewendet werden muss. Es ist wenig sinnvoll, "Pro Möglichkeit"- Metriken zu vergleichen, wenn die Basis für das Zählen von OFDs inkonsistent ist! Während der Anwendung von Komplexitätsmetriken für die Bestimmung von Prozessfähigkeitsanalysen schwierig sein kann, spielt sie eine wichtige Rolle bei der (Neu-) Gestaltung von Prozessen und Produkten, d. h. Design for Six Sigma (DFSS). Ein Fokus auf die Reduzierung der Komplexität sollte ein Eckpfeiler jedes Business Process Re-Engineering (BPR) -Projekts oder eines neuen Produktdesigns sein. Aus diesem Grund ist die Messung der Komplexität in der Phase "Verbessern" eines Projekts oft relevanter.

Pro Million: Prozessfähigkeitsmetriken, die den Ausdruck „Pro Million" enthalten, werden verwendet, um den Maßstab zu erweitern, sodass kleinere Unterschiede messbarer werden. Dies scheint in diesem Moment für die Prozesse nicht relevant zu sein, aber wenn sich die Prozessfähigkeit verbessert, wird auch die für die Messung erforderliche Auflösung erreicht. Mit diesem Ansatz wird eine Ausschussquote von 0,2 % als 2000 Schrottteile pro Million ausgedrückt - ein wesentlich schwieriger zu reduzierendes Ziel! Ein alltägliches Beispiel für diese Art von Metrik sind chemische Verdünnungsraten (wie die Menge an Chlor in einem Schwimmbecken). Da diese Werte sehr niedrig sind, werden sie manchmal in „Parts per Million" angegeben. PPM - Parts per Million: Wie bereits erwähnt, kann diese Metrik verwendet werden, um einen Prozentsatz zu erhöhen, und wird oft verwendet, um zu vermitteln, wie viele fehlerhafte Produkte oder Dienstleistungen über länger Zeit geliefert werden. DPMO - Fehler pro Million Möglichkeiten (Defects per Million Opportunities): Diese Metrik beinhaltet sowohl die pro Million und pro Möglichkeit-Konzepte und wird oft als eine Schlüssel-SixSigma-Metrik vorgeschlagen. In der Praxis wird empfohlen, DPMO zu vermeiden, es sei denn, die Fehler der Komplexitätsmessung können zuverlässig überwunden werden. ! Verwenden Sie nur Langzeitdaten zur Berechnung von PPM und DPMO. PPM und DPMO zielen beide darauf ab, die Langzeitfehlerquote (mehrere Millionen) zu beschreiben. Aus diesem Grund sollte keine Fehlerquote in % verwendet werden, die auf Kurzzeitdaten basiert, und diese in eine PPM- oder DPMO-Metrik vergrößern. Die Langzeitprognose wäre zwangsläufig zu optimistisch, da die tatsächliche Langzeitleistung, auf längere Sicht fast immer schlechter ist, als die Kurzzeitleistung.

MESSEN (Measure) > Prozessfähigkeit > PPM und DPMO

MESSEN (Measure) > Prozessfähigkeit > Fehlerhafte Einheiten in %

Berechnen des Prozentsatzes für kontinuierliche Daten Die Berechnung der Summe der fehlerhaften Einheiten in % ist die Schlüsselangabe einer Leistungsanalyse. USG = 1,25mm

Berechnung der Summe der fehlerhaften Einheiten in %:

Wie in der nebenstehenden Grafik gezeigt, wird der Gesamtfehler% berechnet, indem die % Fehler addiert werden, die außerhalb jeder Spezifikation liegen.

Die fehlerhaften Einheiten in %, die außerhalb der einzelnen Spezifikationsgrenzen liegen, werden unter Verwendung der Z-Tabelle wie unten beschrieben oder unter Anwendung von Minitab (unten rechts) berechnet. Beispiel: Wenn das CD-Dicken-Beispiel von Seite 78 fortgesetzt wird, nimmt man an, dass eine niedrigere Spezifikationsgrenze (LSL) von 1,25 mm vom Kunden zusätzlich zu der bestehenden Obergrenze von 1,5 mm erforderlich ist. Das nebenstehende Histogramm zeigt deutlich, dass einige CDs die USG nicht erfüllen, und wir wissen bereits, dass eine kleine Zahl (0,6%) die USL nicht erfüllen wird (Seite 78). Man weiß auch:

Durchschnittliche CD-Dicke = 1,35 mm (gerundet) Standardabweichung der CD-Dicke = 0,06 mm

• Die OSG liegt 2,5 Sigma entfernt vom Mittelwert ((1,5 -1,35) / 0,06), und die ZTabelle sagt voraus, dass 0,6% der CDs zu dick sind (über OSG). • Die USG liegt 1,65 Sigma entfernt vom Durchschnitt ((1,35 -1,25) / 0,06), und die Z-Tabelle sagt voraus, dass 4,95% der CDs zu dünn sind (unterhalb der USG). Die Summe der fehlerhaften CDs beträgt (0,6% + 4,95%) = 5,55%. Kurzzeit oder Langzeit? Vergessen Sie nicht, diese fehlerhaften Einheiten in % einen Kurz- oder Langzeit-Subskript hinzuzufügen. Auf Seite 78 sehen wir, dass die Daten auf einem kleinen Stichprobe von nur 100 CDs basieren, und deshalb sollten wir dieser defekten Zahl den Code „ST" (kurz) hinzufügen (es soll uns erinnern, dass dies möglicherweise nicht darstellt, wie sich der Prozess auf längere Sicht auswirkt).

OSG = 1,5mm ^^

15-

/

N

/

N \,

/

ä> 10cr (D

\

. .f-*^~

(\^

_

'S

—r£

\

) 1,30

1,35

1,40

1,45

x^,-"^> >vv^-An

^X

CD Dicke (mm) Die fehlerhaften Einheiten in % von jeder Spezifikation werden zusammenaddiert, um die Gesamtsumme von 5,55% zu erfassen^

Berechnung der Summe der fehlerhaften Einheiten in Minitab: Die erwartete ,, Gesamtleistung findet man Erw. Gesamtleistung in den Minitab Menüpunkten PPM < USG 50786.71 Prozessfähigkeitsanalyse Normal oder PPM > OSG 6221.17 nicht normal. Die Zahl erscheint als PPM Gesamt 57007.88 PPM Gesamt oder % Gesamt, abhängig von den Einstellungen in Minitab.

Berechnen der fehlerhaften Einheiten in % für Zähl- und Attributdaten Fehlerhafte Einheiten in % bei Zähldaten:

Wenn Fehler gezählt werden, dann sind die Produkte oder Dienstleistungen, die „gut" sind, definitionsgemäß fehlerfrei. Zum Beispiel zeigt das Histogramm unten die Anzahl von Kratzern, die auf 100 Mobiltelefonbildschirmen gefunden wurden, wenn sie den Kunden erreichten. Die Mehrheit (58) der Telefone hatte keine Kratzer, aber einige hatten einen oder mehrere Kratzer. Also ist die Anzahl der Telefone (Anzahl der fehlerhaften Einheiten), die einen oder mehrere Kratzer hatten, wie folgt:

58 50N 40 0) g. 30 0)

£ 20

schlecht

in %

*

Gesamtanzahl Telefone

O>

11 3

0

Anzahl Telefone mit 1 oder mehr Kratzern

28

10 0

fehlerhatte

1 2 Anzahl Kratzer

3

In diesem Fall betrug die Anzahl der fehlerhaften Einheiten 42%, da 42 von 100 Telefone einen oder mehr Kratzer hatten.

oder

Attributdaten sind bereits in gute und schlechte Ergebnisse unterteilt, somit ist der Prozentsatz schlechter Ergebnisse aus der Stichprobe. Zum Beispiel, bei einer Stichprobe von 100 Computern, bestanden 79 Computer den Endtest vor dem Versand. 21 Computer fielen durch. Damit beträgt die Anzahl der fehlerhaften Einheiten 21 %. Dies sollte mit einem Kurzzeit- oder Langzeit- Subskript gekennzeichnet werden (da nur 100 Computer getestet wurden, wäre dieses Beispiel eine Kurzzeit-Betrachtung).

Nun das Handy Beispiel:

Alternativer Ansatz zur Berechnung der fehlerhaften Einheiten in % bei Zähldaten: Defects per Unit (DPU) (Seite 47) und stellt die durchschnittliche Anzahl gefundener Defekte pro Einheit dar. Es scheint vernünftig zu sein, dass es eine Beziehung zwischen DPU und Anzahl fehlerhafter Einheiten in % gibt, da eine hohe DPU (viele Defekte) eine hohe fehlerhafte Einheiten in % bedeuten würde. Die unten angegebenen mathematischen Beziehungen kann man verwenden, um die fehlerhaften Einheiten in % aus der durchschnittlichen DPU zu berechnen. Dieser Ansatz liefert eine bessere Schätzung der fehlerhaften Einheiten in %, da die Poisson-Verteilung angewendet wird.

FTY = e D p u x100%

Fehlerhafte Einheiten in % für Attributdaten:

fehlerhafte . i* aEinheiten in % ~ " ~ e

Die DPU beträgt 0,59 (durchschnittliche Kratzer / Telefon), die wie folgt berechnet wird: 28 Telefone hatten einen Kratzer, 11 Telefone hatten zwei Kratzer, drei Telefone hatten drei Kratzer - insgesamt 59 Kratzer bei 100 Telefonen (0,59 Kratzer pro Telefon). Bei einer DPU von 0,59 ergibt die links gezeigte Gleichung fehlerhafte Einheiten von 44,6 %. Dies ist etwas höher und zuverlässiger als die direkt aus den Rohdaten erzeugten 42 %.

MESSEN (Measure) > Prozessfähigkeit > fehlerhafte Einheiten in %

MESSEN (Measure) > Prozessfähigkeit > Sigma-Niveaus

Prozessfähigkeit - Sigma-Niveaus Mit so vielen verschiedenen verfügbaren Prozessfähigkeitsmetriken zielt Six Sigma darauf ab, eine gemeinsame Metrik zur Verfügung zustellen, die für alle Datenwelten und -Umgebungen gelten würde - das Sigma-Niveau. Sigma-Niveau in der Theorie:

Wie auf den vorherigen Seiten zu sehen ist, gibt es zahlreiche Metriken, die zur Quantifizierung der Prozessfähigkeit verwendet werden, und viele weitere, die Unternehmens- oder branchenspezifisch sind. Six Sigma zielt darauf ab, sie alle durch eine gemeinsame Metrik, das Sigma-Niveau zusammenzuführen.

Was ist ein Sigma-Niveau?

Das Sigma-Niveau ist das Gleiche wie der Z-Wert in der Z-Tabelle.

Man stellt sich einen normal verteilten Prozess vor, der nur eine obere Spezifikationsgrenze (OSG) hat, siehe unten. Das Sigma-Niveau ist definiert als der Abstand zwischen dem Mittelwert und dem OSG in Einheiten von Standardabweichungen (d. h. sein Z-Wert).

Zwei Hauptvorteile von Sigma Niveaus sind: • Sie sind eine gebräuchliche Fähigkeitsmetrik, die es ermöglicht, Prozesse über verschiedene Branchen, Technologien, Datenwelten usw. miteinander zu vergleichen. • Die Skala ist nicht linear. Die Sigma-Niveaus haben eine erhöhte Auflösung bei niedrigen Defektzahlen, wodurch der Unterschied zwischen 99,8 % und 99,9 % (zum Beispiel) auf eine signifikantere Weise reflektiert werden kann.

Fläche = fehlerhafte Einheiten in %

Sigma-Niveaus in der Praxis:

Zwar ist es eine gute Idee, aber leider gibt es bereits ein universelles Maß an Prozessfähigkeit - der Prozentsatz! Der Prozentsatz ist so üblich und gut verstanden, dass es schwierig ist, einen vollständigen Übergang zu Sigma- Niveaus in Betracht zu ziehen. Allerdings wäre dieses Buch nicht vollständig, ohne ein Verständnis dafür zu liefern, wie Sigma-Niveaus funktionieren, sodass der Leser ein umfassendes Verständnis dafür entwickeln kann und dieses nutzen kann.

~

Um das Sigma-Niveau für jeden Prozess zu berechnen, muss man den Prozess mit einem normalverteilten Prozess gleichsetzen, der nur eine obere Spezifikationsgrenze hat. Aus der Zeichnung oben ist ersichtlich, dass sich das Sigma-Niveau (Z) erhöht, wenn sich der Prozess weiter von der Spezifikationsgrenze (nach links) entfernt, und der Anteil der Produkte, die außerhalb der OSG liegen (die fehlerhaften Einheiten in %) reduziert werden. Ein höheres SigmaNiveau entspricht also einer höheren Leistung und umgekehrt.

Prozessfähigkeit - Sigma-Niveaus (Fortsetzung) Unabhängig vom Geschäftszweig oder der Datenart werden Sigma Niveaus berechnet, indem jeder Prozess dem „imaginären" (einseitigen) Prozess gleichgesetzt wird, der in der Z-Tabelle definiert ist. Wie auf der vorherigen Seite erklärt, ist die Z-Tabelle auch eine Tabelle des Sigma-Niveaus und kann verwendet werden, um den %-Defekt eines Prozesses in ein Sigma-Niveau zu übersetzen und umgekehrt.

Sigma-Niveau-Beispiele von vorherigen Seiten:

• Wenn Sie den Prozentsatz eines Prozesses (entweder als Anteil, Prozentsatz, PPM oder DPMO) kennen, können Sie ihn mit Hilfe der Z-Tabelle in einen Sigma-Niveau umwandeln.

Für das CD-Dickenbeispiel wurden die fehlerhaften Einheiten mit etwa 5,55 % berechnet.

• Wenn Ihnen jemand sagt, dass ein Prozess mit einem SigmaNiveau von 2 Sigma läuft, können Sie alternativ dazu die Z-Tabelle in einen % Defect von 2,3 % umwandeln. Die Z-Tabelle ist also wirklich eine Umrechnungstabelle zwischen zwei verschiedenen Skalen -fehlerhafte Einheiten in % und SigmaNiveau. Die (sehr) abgekürzte Tabelle unten zeigt einige wichtige Sigma-Niveaus, an die Sie sich erinnern sollten. Eine ausführlichere Version finden Sie auf der Rückseite dieses Handbuchs.

fehlerhafte Einheiten in "/

50% 31 % 16% 7%

2,3 % 0,6%

0,13%

SigmaNiveau 0,0 0,5 1,0 1,5 2,0 2,5 3,0

Beispiel für stetige Daten auf Seite 91:

Aus der Z-Tabelle entspricht dies einem Sigma-Niveau von 1,60 Sigma. Beispiel „Zähldaten" auf Seite 92: Für das Beispiel über Kratzer auf Handy-Bildschirmen wurde die Summe der fehlerhaften Einheiten mit 44,6 % berechnet (Fehler pro Einheit (DPU)-Methode). Aus der Z-Tabelle entspricht dies einem Sigma-Niveau von 0,15 Sigma. Beispiel für Attributdaten auf Seite 92: Für das Beispiel zur Endprüfung von Computern betrugen die fehlerhaften Einheiten bei der Endprüfung 21%. Aus der Z-Tabelle entspricht dies einem Sigma-Niveau von 0,8 Sigma. l Bitte beachten, dass einige der obigen von der Z-Tabelle abgelesenen Sigma-Niveaus gerundet wurden.

MESSEN (Measure) > Prozessfähigkeit > Sigma-Niveaus

MESSEN (Measure) > Prozessfähigkeit > Sigma-Niveaus > Sigma-Shift

Prozessfähigkeit - Sigma-Shift Der Unterschied zwischen Kurzzeit- und Langzeitleistung muss in Sigma-Niveaus wiedergegeben werden. Seite 80 beschreibt die wesentlichen Leistungsunterschiede, die zwischen den Kurzzeit- und Langzeitbetrachtungen auftreten können. Dies ist grafisch in der gegenüberliegenden Zeitreihengrafik dargestellt, wurde aber bisher nicht im Rahmen der auf den letzten Seiten beschriebenen Prozessfähigkeitsmetriken berücksichtigt. Bei der Zusammenfassung der Prozessleistung ist es wichtig zu wissen, ob die verwendeten Daten den Kurzzeitoder Langzeitprozessleistung wiedergeben.

Die Prozessfähigkeitsanalyse in Minitab

verwendet einen statistischen Ansatz, um Kurzzeitund Langzeitstreuungen innerhalb eines Datensatzes zu bestimmen. Es unterscheidet zwischen den Kurzzeitprozessfähigkeiten (Cp und Cpk) und den Langzeitprozessfähigkeiten (Pp und Ppk). Ein ausführliches Beispiel findet man auf Seite 85.

Sigma-Shift in der Theorie:

Sigma-Niveaus, die auf Langzeitdaten basieren, sind im Allgemeinen niedriger als diejenigen, die aus Kurzzeitdaten berechnet werden. Der Unterschied zwischen ihnen wird als Sigma-Shift bezeichnet. Aus der Empirie beträgt eine typische Sigma-Shift zwischen den Kurzzeit- und Langzeitbetrachtungen etwa 1,5. Dies bedeutet, dass der Unterschied zwischen der Kurzzeit- und Langzeit-Leistung durch das Wandern des Prozessdurchschnitts um bis zu +/-1,5 Sigma verursacht wird. Sigma-Niveaus sollten ursprünglich nur dazu dienen, die Kurzzeitleistungsfähigkeit eines Prozesses darzustellen. —

Sigma-Shift in der Praxis: In Wirklichkeit ist der Sigma-Shift für jeden Prozess anders und seine Messung ist wichtig, um zu verstehen, wie der Prozess verbessert werden könnte. Daher sollte die generische Anwendung von 1,5 Sigma-Shift nur als letztes Mittel verwendet werden, um den Unterschied zwischen den Kurz- und Langzeitleistung zu schätzen. Darüber hinaus werden Sigma-Niveaus eher für Lang- und Kurzzeitdaten verwendet, ohne dass ein Unterschied zwischen ihnen besteht, was zu einer erheblichen Verwirrung führen kann.

Ein praktischer Ansatz zur Verwendung von Sigma-Niveaus: • Wenn möglich, sammlen Sie die Langzeitdaten aus dem Prozess und berechnen Sie der tatsächliche Sigma-Shift des Prozesses (siehe nächste Seite). • Man fügt den Fähigkeitsmetriken (einschließlich Sigma-Niveaus) immer einen zusätzlichen Subskript hinzu, um anzugeben, ob es sich um Kurzzeit- (Zsr) oder die Langzeit-Metriken (Zu) handelt.

Prozessfähigkeit - Sigma-Shift (Fortsetzung) Die Verwendung einer generischen 1,5-Sigma-Shifts verursacht eine erhebliche Verwirrung, und es ist fair zu sagen, dass diese Situation von „Experten" verewigt wird, die ihre Auszubildenden während des Six-Sigma-Trainings weiterhin damit verwirren. Zum Beispiel: • Es wird oft gesagt, dass ein Six Sigma Prozess 3,4 DPMO liefert. Jedoch eigentlich gemeint ist, dass ein Prozess, der in der KurzzeitBetrachtung 6-Sigma ist - in einer Langzeit-Betrachtung 4,5 Sigma ist und somit einem Fehleranteil von 3,4 DPMO entspricht. • Außerdem wurden einige Z-Tabellen und Sigma-Niveau-Tabellen so voreingestellt, dass sie den 1,5 Sigma-Shift enthalten, ob es einem zusagt oder nicht! Aus diesem Grund unterscheiden sich einige Z-Tabellen von anderen.

Wie verwirrend! So kann man dieses Problem umgehen: 1) Vermeiden Sie Z-Tabellen, in denen der 1 ,5 Sigma-Shift eingebaut ist. Mit diesen Tabellen kann leicht eine falsche Vorhersage getroffen werden.

2) Benutzen Sie den Wegweiser durch den Sigma-Shift, der rechts beschrieben wird, und kennzeichnen Sie immer die Sigma-Niveaus als Kurz- oder Langzeit. 3) Schätzen Sie den Sigma-Shift nicht auf 1 ,5! Die Verwendung des generischen 1,5-Sigma-Shifts ist nicht zielführend (und viele Statistiker zwiefeln ihre Gültigkeit an). Stattdessen sollte immer versucht werden, echte Daten aus dem Prozess zu sammeln, die den wahren Sigma-Shift des Prozesses darstellen. Der SigmaShift repräsentiert den Unterschied zwischen der Kurz- und Langzeitstreuung des Prozesses - siehe Seite 80.

Z-Table & Sigma-Niveaus.xls

Wenn Langzeitdaten gesammelt wurden... • kann das Langzeit-Sigma-Niveau ausgearbeitet werden und als Zu gekennzeichnet werden. • Die Langzeitdaten können auch in PPM oder DPMO konvertiert werden, da diese für Langzeitdaten verwendet werden. ...und jetzt will man die Kurzzeitleistung des Prozesses berechnen, um zu sehen, wie gut der Prozess sein könnte: • Sie können die Kurzzeitleistung des Prozesses innerhalb der Langzeitdaten finden (die Prozessfähigkeitsanalyse in Minitab kann dies tun). • Sie können dann die Kurzzeitleistung in ein Sigma-Niveau umwandeln und den Sigma-Shift (Zsi - ZLT) berechnen.

Wenn nur Kurzzeitdaten gesammelt wurden ... • kann man das Kurzzeit-Sigma-Niveau ausarbeiten, aber es muss sichergestellt werden, dass als es ZST gekennzeichnet wird, sodass es klar ist, dass es nur die Kurzzeit darstellt. • Die Kurzzeit-Proportionen nicht in PPM- oder DPMO multiplizieren, da diese nur für Langzeitdaten bestimmt sind. ... und jetzt möchten man herausfinden, wie die Langzeitleistung des Prozesses aussehen wird: • Wenn es nicht möglich ist, Langzeitdaten weiter zu sammeln (die ideale Option), kann man die ZLT nur abschätzen! • Falls man ZLT wirklich schätzen muss, kann man 1,5 vom Kurzzeit- Sigma-Niveau subtrahieren, um einen Langzeit-SigmaNiveau (Zur) zu schätzen/erhalten. Seien Sie vorsichtig mit dieser Langzeitschätzung! Stellen Sie sicher, dass es klar als Schätzung gekennzeichnet ist. Der Prozess könnte sich auf lange Sicht sogar besser oder schlechter entwickeln - die Zeit wird es zeigen!

MESSEN (Measure) > Prozessfähigkeit > Sigma-Niveaus > Sigma-Shift

MESSEN (Measure) > Checkliste und Phasenabschluss

Messen - Checkliste [Vf Q Wurden relevante Key Performance Indicators (KPIs) ausgewählt und / oder entwickelt? Q Sind die KPIs anhand von Prozesskarten oder Diagrammen und operationalen Definitionen eindeutig definiert? Q] Gibt es einen Datenerhebungsplan für die KPIs, gegebenenfalls einschließlich der Probenahme? Q Werden relevante zusammenhangsbezogene Informationen neben den KPIs gesammelt (zur Datenschichtung während der Phase Analysieren)? Q] Wurde die Datenqualität mithilfe von Messsystemanalysen (GR & R usw.) überprüft / in Frage gestellt? |~| Wurde eine '1st-Pass-Analyse' (Histogramme und Zeitreihendiagramme) der KPIs unter Verwendung der historischen Daten durchgeführt? |~| „Wurde die Art der Streuung im Prozess (zufällige oder systematische) in Betracht gezogen?" [~| Wurde der Unterschied zwischen der Kurzzeit- und Langzeitleistung des Prozesses berücksichtigt? [] Wurden gültige KPI-Baselines basierend auf den historischen Daten festgelegt? [[] Wurden Definitionen von Defekten und Spezifikationsgrenzen entwickelt, die für die Stimme des Kunden relevant sind? Q Wurde die Prozessfähigkeit analysiert und die Problemdarstellung und Zielbeschreibung gegebenenfalls aktualisiert? O Wurde ein Sigma-Niveau berechnet? (Falls diese Metrik in der Organisation verwendet wird).

Messen - Phasenabschluss Welche KPIs wurden für das Problem ausgewählt? Warum? Aus welchen Datenarten kommen die KPIs (stetige Daten/ Zähldaten / Attributdaten)? Woher kommen die Daten für die KPis? Waren die Daten bereits verfügbar oder mussten Sie eine Datenerhebung einführen? Wenn ja, ist es vorübergehend für das Projekt oder dauerhaft? Wird 100 % des Prozesses gemessen oder werden Proben genommen? Wenn Probennahme - Was ist die Stichprobenstrategie und warum? Welche anderen zusammenhangsbezogenen Informationen werden mit den KPIs gesammelt? Wie wurde die Qualität der Daten überprüft (stellt sie dar, was sie darstellen soll)? Was hat man über das historische Verhalten des Prozesses gelernt? Sieht der Prozess stabil (statistisch unter Kontrolle) oder instabil aus? Was ist das Beste, was der Prozess je geleistet hat? Und das Schlimmste? In welchem Zeitraum wurde die Baseline-Leistung des Prozesses ermittelt? Wie hat sich die Stimme des Kunden beim Festlegen der Prozessfähigkeit widergespiegelt? Wurde die Prozessfähigkeit in ein Sigma-Niveau umgewandelt?

Analysieren (ANALYSE) - Übersicht Die Phase "Analysieren" zielt darauf ab, kritische Faktoren eines "guten" Produktes oder einer Dienstleistung auszumachen und die Grundursachen von Fehlern zu erkennen. Dies folgt weniger einem logischen Ablauf, vielmehr stellt dies die erforderlichen Tools und Techniken bereit. Der Fluss durch die Phase "Analysieren": Theorien und Ideen entwicklen (potentielle Grundursachen)

Daten analysieren

Grundursachen verifizieren und Ursache und Wirkung verstehen ^ •

Was vermittelt das vorhandene Prozesswissen?

Was vermitteln die Daten?

Wie wirke'n sich die Grundursachen auf das Prozessergebnis aus?

Ursache-Wirkungs-Matrix (S. 109) Brainstorming % 5-malWarum(S. 110) Fischgrätendiagramm (UrsacheWirkungsdiagramm) (S. 111) Affinitätsdiagramme (S. 112) Fehler-Zählblatt (S. 113) FMEA(S. 114)

Graphische Darstellungen (S. 118-149)

Hypothesentests (S. 154-188)

Prozess analysieren v

Wie funktioniert der Prozess in der Praxis?

Prozessdarstellung (S. 100) Wertstromanalyse (S. 102) Zeitanalysen (S. 105) Taktzeitdiagramme (S. 105) Fünf Lean Prinzipien (S. 106) Sieben Verschwendungsarten (S. 107) Spaghetti-diagramm (S. 108)

.

Die Prozesstür - Wegweiser (Seite 99):

Die ersten beiden Schritte der Phase "Analysieren" werden auch als Prozesstür bezeichnet, weil diese beiden Schritte das Verständnis und die Ideengewinnung anhand des Prozesses selbst ermöglichen sollen. Die Tools zielen auf das Erlangen eines Tiefenverständnisses für den wirklichen Ablauf des Prozesses ab, daher bedingen die Tools den Einbezug derjenigen, die den Prozess am Besten kennen - die ihn ausführen.

ANALYSIEREN (Analyse) > Übersicht

Konfidenzintervalle (S. 151) Hypothesentests (S. 154-188) Test auf Normalverteilung (S. 189) Identifikation der Verteilung (S. 191)

Korrelation und Regression (S. 193-206) Versuchsplanung (S. 207-226)

Die Datentür - Wegweiser (Seite 116):

Die letzten beiden Schritte der Phase "Analysieren" werden auch als Datentür bezeichnet, weil diese beiden Schritte das Verständnis und die Ideengewinnung anhand der Daten selbst ermöglichen sollen. Diese Tools umfassen eine Reihe von grafischen und statistischen Werkzeuge, um die Daten zu analysieren.

ANALYSIEREN (Analyse) > Prozesstür > Wegweiser

Der Prozesstür-Wegweiser - Das richtige Werkzeug finden Die Abbildung des realen Prozesses ist der Ausgangspunkt innerhalb der Prozesstür. Der Rest des Prozesstür-Werkzeugs konzentriert sich auf die Analyse wann, wo und wie der Prozess fehlschlagen könnte. Den Prozess kennenlernen: Die erste Stufe der Analyse besteht darin, aus dem Büro herauszukommen und den Prozess kennenzulernen. Unabhängig von der Art des Produkts oder der Dienstleistung kann ein tiefgehendes Verständnis des Prozesses in dieser Phase des Projekts nicht ersetzt werden. Prozessdarstellung hilft, aber vorher sollte es praktischer sein... gehen Sie und erleben Sie den Prozess, stellen Sie den Service selbst zur Verfügung oder stellen Sie das Produkt her! In der Fertigungswelt sollten Ingenieure und Designer Zeit damit verbringen, die von ihnen entworfenen Maschinen und Produkte zu bedienen. Die gleichen Prinzipien gelten für das Transaktionsumfeld, in der Teammitglieder eine oder zwei Schichten Telefonanrufe annehmen oder Bestellanforderungen ausfüllen, einen Tag mit einem Servicetechniker unterwegs sind oder eine Woche am Empfang des Hotels verbringen können. Sie werden bald Dinge bemerken, die Sie noch nicht kannten.

Verstehen Sie, welche Prozesseingaben für die Kundenanforderungen entscheidend sind... • Ursache-Wirkungs-Matrix (Seite 109) Einen Defekt untersuchen, um seine Ursache zu verstehen... • 5-mal-Warum (Seite 110) Beurteilung, was schief laufen könnte und wo... • Fehlermöglichkeits- und -einflussanalyse (FMEA) (Seite 114) Verstehen, was schief läuft und wo... • Affinitätsdiagramme (Seite 112)

Die folgenden Felder helfen Ihnen bei der Suche nach der richtigen Prozesstür-Technik, basierend auf dem, was Sie wissen müssen.

• Fehler-Zählblatt (Seite 113)

Den Prozess so kennenlernen, wie er tatsächlich passiert...

Identifizieren möglicher Grundursachen...

• Prozessdarstellung (Seite 100) und Wertstromanalyse (Seite 102)

• Brainstorming (Seite 110)

• Zeitanalysen (Seite 105) und Taktzeitdiagramme (Seite 105) • Sieben Verschwendungsarten (Seite 107) und SpaghettiDiagramme (Seite 108) __

_

_

_

Strukturelle Ursachen in logischer Weise strukturieren. • Fischgrätendiagramm (Seite 111)

Prozessdarstellung Die in den Verfahrens- und Qualitätshandbüchern enthaltenen Ablaufdiagramme zeigen, wie ein Prozess funktionieren sollte. Eine Prozessdarstellung hilft zu zeigen, wie ein Prozess wirklich funktioniert. Was ist eine Prozessdarstellung?

Prozessdarstellung ist eine Möglichkeit, einen Prozess visuell abzubilden. Sie hilft zu verstehen, wie der Prozess tatsächlich funktioniert und ist eine Grundlage für weitere Prozessanalysen. Prozessdarstellungen helfen unter anderem, komplexe Prozesse zu verdeutlichen und bestimmte Aspekte des Prozesses hervorzuheben, die für Ihr Verbesserungsprojekt relevant sind, wie zum Beispiel: • Wertschöpfende / nicht-wertschöpfende Schritte • Entscheidungspunkte • Übergaben • Nacharbeitungsschleifen (siehe unten) • Redundante oder wiederholte Prozesse usw.

Nacharbeitungsschleifen:

Einer der häufigsten Zwecke der Prozessdarstellung besteht darin, die Nacharbeitungsschleifen in einem Prozess zu identifizieren. Die meisten Prozesse haben einige formelle, dokumentierte Nacharbeitungsschleifen für erkannte Probleme. Dies könnte durch Reklamationsformulare, Bestandsanpassungsformulare, RMA (Return Merchandise Authorization) -Formulare usw. ersichtlich sein. Die meisten Prozesse verfügen jedoch über eine Fülle von informellen Nacharbeitungsschleifen, die nur dann identifiziert werden können, wenn in jeder Phase der detaillierten Prozessdarstellung gefragt wird, „was kann passieren/geschehen?" also was schiefgehen kann.

Level 1

nicht auf Lager (10% falsche Teile (20%) 1

Level 2

Teile funktionieren nicht (20%) Technologie nicht geeignet (15%)

Beispiel: Die obige Prozessübersicht zeigt einen allgemeinen ServiceInstallationsprozess und ist nach verschiedenen Prozessebenen organisiert. Diese hierarchische Anordnung zeigt deutlich, dass es um den mittleren ServiceInstallations-Schritt (Level 1) handelt, der dann weiter in Level-2-Unterschritte unterteilt wird. Die Karte konzentriert sich auf die Nacharbeitsschleifen, Fehlermodi und Fehlerraten, die auf Ebene 2 auftreten, aber Informationen, die für andere Projekte von Interesse sind, können Vorlaufzeiten, Prozesseigentum (geografisch, organisatorisch oder vertraglich usw.), Datensammelpunkte, Erträge, Lagerbestände, optionale Prozesse etc. beinhalten.

ANALYSIEREN (Analyse) > Prozesstür > Prozessdarstellung

ANALYSIEREN (Analyse) > Prozess-Tür > Prozessdarstellung

Prozessdarstellung (Fortsetzung) Wie eine Prozessdarstellung die Prozessverbesserung unterstützt:

Schwimmbahn (funktionsübergreifende) Prozesslandkarte

Prozessdarstellung ist ein grundlegendes Werkzeug zur Prozessverbesserung. Die Prozessdarstellung dokumentiert, wie ein Prozess tatsächlich funktioniert, regt zu Fragen an und liefert nützliche Einsichten. Dies ermöglicht einem Projektteam, über mögliche Verbesserungen nachzudenken. Die Prozessdarstellung steht mit anderen Elementen der Prozessverbesserung in Verbindung durch:

• Identifizierung des Wertstroms innerhalb eines Prozesses. • Dokumentiertes standardisiertes Arbeiten. • Fokus auf Beseitigung von nicht wertschöpfenden Aktivitäten. Standardsymbole helfen sicherzustellen, dass Prozessdarstellungen konsistent geschrieben werden. Es gibt eine Reihe verschiedener Standards, aber Prozessschritte sind normalerweise in Quadraten und formalen Entscheidungspunkten (wie Inspektion oder Test) in Diamanten enthalten. Auf Seite 104 finden Sie eine Auswahl gängiger Prozessdarstellungs-Symbole. Es sollte jedoch überprüft werden, ob in Ihrer Organisation Standardsymbole vorhanden sind, die Sie zuerst beachten sollten.

Bestellung erhalten

KundenService

1

i
Prozesstür > Wertstromanalyse

ANALYSIEREN (Analyse) > Prozesstür > Wertstromanalyse

Wertstromanalyse (Fortsetzung) Beispiel: Ein Projekt versucht, die Geschwindigkeit eines Installationsprozesses für Telekommunikationsanlagen zu verbessern und die aktuelle, unten gezeigte Wertstromanalyse wurde vom Projektteam entwickelt. Die Darstellung hilft dabei, klar zu zeigen, wo das Inventar innerhalb des Prozesses vorhanden ist, den Fluss von Teilen und Informationen sowie Prozessmetriken für wichtige Prozessschritte zu identifizieren. VSM führt viele neue Symbole ein, von denen einige auf der nächsten Seite gezeigt werden.

—?-vwv^r Installation entwerfen Rüstzeit Prozesszeit Wartezeit Tätigkeiten

Installation ß\5terminieren

1 0 min 75 min 3100min 12

Rüstzeit Prozesszeit Wartezeit Tätigkeiten

X täglich 1 min 10min 1500min 2

150 Anlage installieren Rüstzeit Prozesszeit Wartezeit Tätigkeiten

5 min 120min Omin 30

Wie angefordert per Fax

Kunde

Software für VSM:

Wie bei der Prozessdarstellung ist der beste Weg, eine Wertstromanalyse während eines Team-Workshops auf einem großen Papier an der Wand zu dokumentieren, mit Post-it®-Notizen usw. Danach ist es oft nützlich, die Wertstromanalyse mit einer geeigneten Software darzustellen.

Prozessboxen:

Prozessschritte werden als Boxen dargestellt.

Datenboxen:

Maße für wichtige Prozessschritte sind in Datenfeldern enthalten.

Symbole für Prozessdarstellung und Wertstromanalyse Eine Auswahl nützlicher ProzessdarstellungsSymbole:

Eine Auswahl nützlicher VSM Symbole:

Prozessschritt

Kunde oder Lieferant

Entscheidungs- / Kontrollpunkt

Warteschlange mit 125 Inventareinheiten

/!' 125

Flussrichtung Start / Ende Verbinder

Physischer Fluss von Teilen

CD

O

^

Fluss von manuellen Informationen (z. B. Formulare)

monatlich

Fluss von elektronischen Informationen (z. B. EDI)

SS^'C

Dokument

Ein potenzielles Verbesserungsprojekt

Verzögerung

Eine elektronische Datenbank

Lagerung

Anzahl der Mitarbeiter Transport

ANALYSIEREN (Analyse) > Prozesstür > Prozessdarstellung und VSM

0

ANALYSIEREN (Analyse) > Prozesstür > Zeitanalyse

Zeitanalyse (Time Value Map)

Taktzeitdiagramm

Eine Zeitanalyse veranschaulicht grafisch den Anteil der Zeit, die für Wertschöpfung aufgewendet wird.

Ein Taktzeitdiagramm hilft, die zeitlichen Aufwände über die Prozessschritte hinweg zu vergleichen.

Tag 2

Tag 3

Eine Zeitanalyse wird mithilfe der Warteschlangen- und Prozesszeiten erstellt, die während der Wertstromanalyse aufgezeichnet wurden. Darüber hinaus wird jeder Prozessschritt in eine der folgenden drei Kategorien eingeteilt: • Wertschöpfende Aktivitäten (Value Add, VA: blau) Erhöhung des Wertes des Produktes (oder der Dienstleistung) aus der Sicht des Kunden. • wertermöglichende Aktivitäten (Business Non-Value Add, BNVA: hellgrau) sind für das Geschäft notwendig, aber der Kunde wäre nicht bereit, für diese mehr zu bezahlen (z. B. Regulierung, Dateneingabe, Fakturierung, Einkauf, Forschung und Entwicklung). • Nicht wertschöpfende Aktivitäten (Non-Value Add, NVA: dunkelgrau) fügen Sie keinen Wert hinzu und sie sind aus betriebswirtschaftlichen Gründen nicht erforderlich. Dies umfasst alle sieben Verschwendungsarten (siehe Seite 107).

Das obige Diagramm zeigt die Prozesszeit für jeden Prozessschritt, damit sie mit der Taktzeit des Prozesses (siehe Seite 38) und miteinander verglichen werden können. Die Prozesszeiten werden ebenfalls in die drei links beschriebenen Wertkategorien aufgeteilt. Die Hauptziele der Tabelle sind festzustellen: • Ob die Prozessschrittzeiten ausgeglichen sind (ähnlich). • Ob einige Prozessschritte länger dauern als die berechnete Taktzeit. Das Taktzeitdiagramm hilft auch zu identifizieren, welche Prozessschritte Möglichkeiten zur Verbesserung durch die Entfernung von NVA enthalten. ! Der Hauptunterschied zwischen den Diagrammen auf dieser Seite besteht darin, dass die Zeitanalysen die gesamte Verarbeitungszeit (einschließlich der Wartezeit zwischen den Schritten) anzeigt, während die Taktzeitdiagramme nur bestimmte Prozessschrittzeiten anzeigen (einschließlich der Wartezeiten innerhalb von Schritten).

Fünf Lean Prinzipien Die Fünf Lean Prinzipien verkörpern den Lean-Ansatz und liefern Schlüssel für Verbesserungen. 1) Das Gesetz des Marktes sagt effektiv, dass der Kunde König ist. Kritische Qualitätsmerkmale (CTQ) kann nur der Kunde definieren und sollten für die Definition und Verbesserung von Werten oberste Priorität haben. Alles andere (wie nachhaltiges Marktwachstum und Renditen unserer Investitionen) hängt von unserer Konzentration auf den Kunden ab. 2) Das Gesetz der Flexibilität besagt, dass die Geschwindigkeit und Flexibilität eines Prozesses miteinander verknüpft sind. Ein unflexibles Verfahren wird den Fluss (und damit die Liefergeschwindigkeit) eines Produkts oder einer Dienstleistung behindern und das Gegenteil gilt für einen flexiblen Prozess. Diese Idee weiter gesponnen: • Wenn eine Produktionslinie unflexibel ist (so dass es sehr schwierig ist, zwischen den Produkten hin- und herzuwechseln), ermutigt dies das Unternehmen, größere Produktionschargen zu produzieren und jedes Produkt weniger häufig zu planen, dies erhöht die Menge an Ware in Arbeit (WIP) und die Durchlaufzeiten aller Produkte. • Wenn ein Kreditunternehmen viele verschiedene Arten von Darlehen anbietet, aber seine Mitarbeiter Zeit benötigen, um zwischen verschiedenen Formen, Prozessen und IT-Systemen zu wechseln, dann werden die Mitarbeiter verleitet, die Kreditanträge zu stapeln und in eine Warteschlange zu stellen und es dauert länger, um ein Darlehen zu erhalten! 3) Das Gesetz des Fokus besagt, dass 80% der Verzögerungen in einem Prozess nur von 20% der Aktivitäten verursacht werden. Daher sollten Sie diese Zeitfallen ausfindig machen und sich auf diese konzentrieren, um einen schlankeren Prozess zu schaffen. Eine ähnliche Beobachtung wird bei der Lösung von Qualitätsproblemen mit DMAIC gemacht. Hier werden Sie oft feststellen, dass die meisten Probleme (etwa 80%) auf einige wenige Schlüsselursachen zurückzuführen sind (etwa 20%).

4) Das Gesetz der Geschwindigkeit (alias Little's Law) sagt, je mehr WIP es in einem Prozess gibt, desto länger wird seine Vorlaufzeit sein. Dies ist sinnvoll, da ein hoher WIP mehr Warteschlangen und mehr Wartezeiten zwischen den einzelnen Prozessschritten bedeutet. Das Little's Law kann als (eine) Gleichung ausgedrückt werden, die es uns ermöglicht, die durchschnittliche Durchlaufzeit eines Prozesses zu berechnen, indem wir wissen, wie viel WIP es gibt und die Produktionsrate des Gesamtprozesses kennen- siehe Seite 38 für weitere Details. 5) Das Gesetz der Komplexität und Kosten besagt, dass Produkte und Dienstleistungen, die komplexer sind, deutlich mehr Kosten für Produktion und Lieferung verursachen. Dies scheint im Widerspruch zu dem ersten Gesetz zu stehen, in dem der Kunde König ist und häufig hochgradig maßgeschneiderte Produkte wünscht, aber viele Unternehmen haben Wege gefunden, eine „Massenanpassung" zu bieten. Dell zum Beispiel ist bekannt dafür, dass es schnell maßgeschneiderte Computer liefert.

Zusammenfassend sagen die Fünf Lean Prinzipien: 1) Priorität sollte auf die Bereitstellung der Kundenbedürfnisse gesetzt werden. 2) Prozesse sollten flexibel sein, um Produkte und Dienstleistungen schneller bereitstellen zu können. 3) Durch die Konzentration auf wichtige „Zeitfallen" werden wesentlich schnellere Prozesse geschaffen. 4) Work in Progress (WIP) ist ein Hauptfeind, da es Prozesse verlangsamt, Geld kostet und Qualitätsprobleme verbirgt. 5) Unnötige Produktkomplexität sollte in Frage gestellt werden, aber wir müssen weiterhin flexible Prozesse entwickeln, die komplexe Produkte und Services liefern können, die an individuelle Kundenanforderungen angepasst sind.

ANALYSIEREN (Analyse) > Prozesstür > Fünf Lean Prinzipien

ANALYSIEREN (Analyse) > Prozesstür > Sieben Verschwendungsarten

Die Sieben Verschwendungsarten, plus ein paar Neue Die Sieben Verschwedungsarten sind eine nützliche Struktur zur Identifizierung, Beseitigung und Vermeidung von Verschwendung. Kürzlich wurden mehrere Neue hinzugefügt, zusammen mit Verschwendungen, die für die Dienstleistungsindustrie bestimmt sind. Die sieben Verschwendungsarten: Überproduktion: Mehr Produkte als der Kunde benötigt. Diese Verschwendung erhöht den WIR und die Durchlaufzeiten, verbirgt schlechte Qualitätsraten, erfordert zusätzlichen Lagerplatz und fördert einen „Stapeln und Einreihen" -Ansatz. Warten: Jedes Mal, wenn Produkte warten, nehmen die Durchlaufzeiten zu und es wird kein Wert hinzugefügt (das Einzige, das ein Kunde bezahlt). Transportieren: Unnötiges Transportieren kostet Geld, Zeit und erfordert meist eine Rückführung - alles ohne Mehrwert für den Kunden! Überentwicklung: Bezieht sich darauf, dem Produkt oder der Dienstleistung mehr Wert (d. h. Merkmale und Spezifikationen) hinzuzufügen, als der Kunde zu zahlen bereit ist. Unangemessene Verarbeitung ist etwas anders und bezieht sich auf die Verwendung von ungeeigneten Geräten, die für diesen Zweck überentwickelt sind und daher mehr Kosten als Wert hinzufügen. Unnötiges Inventar: Das Halten und Anlegen übermäßiger Lagerbestände kostet Geld und erhöht die Durchlaufzeiten. Ein gewisses Inventar ist erforderlich, aber die meisten Prozesse können unterschiedlich verwaltet werden, um das Inventar zu minimieren. Unnötige Bewegung: Unnötige Bewegungen auf ergonomischer Ebene haben einen wesentlichen Einfluss auf die Gesamteffizienz und sind zunehmend Ursache von Gesundheits- und Sicherheitsfragen. Defekte (oder Fehler): Am deutlichsten ist die Verschwendung von Fehlern und Defekten, die eine Behebung oder einen Austausch erfordern und sich unmittelbar auf das Endergebnis auswirken.

Einige neue Verschwendungsarten: Verschwendetes menschliches Potenzial: Traditionelle hierarchische Kulturen verschwenden wichtige Fähigkeiten und Fachkenntnisse in der Belegschaft. Verschwendung von Energie: Der endliche Aspekt fossiler Brennstoffe hat das Bewusstsein für Verschwendung von Energie geschärft und seine Wirkung auf das Endergebnis erhöht. Dies wird sich mit dem Klimawandel weiter verstärken. Umweltverschmutzung: Historisch betrachtet sind diese Kosten für uns alle ein versteckter Kostenfaktor. Produzenten werden zunehmend dafür verantwortlich gemacht, und müssen für die Umweltverschmutzung bezahlen, um damit deren Wichtigkeit zu erhöhen. Platzverschwendung: Der Platzvorrat in bestimmten Umgebungen wird immer größer und diese Verschwendung wird vom Kunden nicht bezahlt. Verschwendungen aus der Serviceperspektive: Verzögerung bei der Bereitstellung: Zeit ist ein wichtiger Bestandteil des Werts einer Dienstleistung und kann daher erhebliche Auswirkungen auf die Kosten haben. Inkorrekte Bestände: Die falschen Bestände (oder Ausverkauf) sind eine erhebliche Verschwendung im Dienstleistungssektor, bei denen Kunden nicht warten und stattdessen zu einem anderen Anbieter wechseln. Duplizierung: Service-Prozesse hängen stark von der Handhabung und Verarbeitung von Daten ab und beinhalten häufig doppelte Dateneingaben oder unnötige Datenübertragungen.

Spaghetti-Diagramm Ein Spaghetti-Diagramm ist ein wertvolles Tool, um Verschwendungen im Prozess (insbesondere übermäßige Transporte) aufzuzeigen, indem es die tatsächliche Route einer bestimmten Ressource durch eine physische Umgebung abbildet. Wie bei vielen Tools der Prozesstür (Seite 99), ist ein Spaghetti-Diagramm ein praktisches Werkzeug, das sehr einfach zu bedienen ist und wertvolle Informationen liefert. Es ähnelt dem Prozess-Mapping, in dem man sich auf das konzentriert, was in einem Prozess wirklich passiert (und nicht auf das, was passieren sollte). Während sich Prozessdarstellungen auf Prozessschritte fokussieren, dient das Spaghetti-Diagramm der Visualisierung von Arbeitsabläufen und Materialflüssen. SpaghettiDiagramme konzentrieren sich auf den tatsächlichen Weg einer Ressource (z.B. ein Teil oder ein Stück Papier) durch eine Organisation (z.B. ein Büro, ein Lager oder eine Produktionsstätte). Spaghetti-Diagramme zeigen in der Regel, dass Ressourcen eine überraschend lange und verschwenderische Reise erleben. Schlechte Arbeitsabläufe verbergen Ineffizienzen und führen zu übermäßigem Transport und WIR

Das Vorgehen zur Erstellung eines Spaghetti-Diagramms:

• Es wird ein Layout-Diagramm der Anlage benötigt (möglichst maßstabsgetreu). • Wählen Sie eine Sache (z. B. Teil oder Papier) nach dem Zufallsprinzip aus und folgen Sie seiner Reise. • Es muss sichergestellt werden, dass der zurückgelegte Weg verfolgt wird und nicht nur dessen Start- und Zielpunkte. • Wird ein Teil bewegt, so muss der zurückgelegte Weg verfolgt werden, z.B. mit Hilfe eines Verfolgungsblatts. • Durch den Prozess können mehrere Sachen verfolgt werden. Unterschiedliche Sachen gehen verschiedene Wege, man kann sich dadurch ein Gesamtbild der Lage machen. • Es muss auf Nacharbeitungssschleifen und nicht offizielle Lagerorte oder Warteschlangen geachtet werden.

Empfang Rechnung verlässt .-• denWefk..-"

Beispiel: Das oben abgebildete Spaghetti-Diagramm zeigt den Weg eines Teils durch einen Produktionsprozess (die durchgezogene blaue Linie) und eine Rechnung durch einen Zahlungsprozess (die gestrichelte Linie). Beide Beispiele demonstrieren die signifikanten Distanzen, die zurückgelegt werden müssen, um nur wenige Prozessschritte zu absolvieren.

ANALYSIEREN (Analyse) > Prozesstür > Spaghetti-Diagramm

ANALYSIEREN (Analyse) > Prozesstür > Ursache-Wirkungs-Matrix

Ursache-Wirkungs-Matrix Nachdem die Prozess-inputs und -Outputs während der Prozessdarstellung identifiziert wurden, kann unter Anwendung einer Ursache-Wirkungs-Matrix ermittelt werden, welche der Prozessinputs in Bezug auf die Kundenanforderungen (Outputs) am wichtigsten sind.

1) Die Prozessoutputs müssen identifiziert werden. 2) Jedes Prozessoutput muss nach ihrer Bedeutung für den Kunden bewertet werden. 3) Die Prozessschritte und die Inputs für jeden Prozessschritt müssen mit Hilfe der Prozessdarstellung identifiziert werden. 4) Die Korrelation zwischen dem Prozessinput und -Output (eine niedrige Punktzahl bedeutet, dass der Input wenig Einfluss auf den Output hat und umgekehrt) muss bewertet werden. 5) Jeder Korrelationswert muss mit der Bedeutung für den Kunden multipliziert werden, anschließend müssen die Ergebnisse für jede Zeile addiert werden (d.h. für jeden Prozessinput). Abschließend soll nach den Ergebnissen gehandelt werden, man soll sich auf die Regelung (oder Verbesserung) der wenigen Prozessinputs mit den höchsten Bewertungen fokussieren.

4^

'„

Bedeutung für " die Kunden

8

5

' l

Prozessschritt

1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 ta«

„g 1 "§1 CD

pünktliche Lieferung

Das Vorgehen zur Erstellung eines Ursache-Wirkungs-Matrix:

Beispiel: Die untenstehende Ursache-Wirkungs-Matrix wurde für einen Online-Bestellvorgang fertiggestellt. Sie zeigt, dass die hervorgehobenen Prozessinputs (Artikelnummer, Menge, Pickliste, Inventar, Kartonage und gedruckte Rechnung) die wichtigsten Prozessinputs in Bezug auf die Kundenzufriedenheit sind.

geeignete Verpackung

Eine Ursache-Wirkungs-Matrix trägt dazu bei, die wichtigsten Prozessinputs in Bezug auf die Kundenanforderungen zu identifizieren. Wie viele der Werkzeuge in der Prozesstür der Phase Analysieren ist eine Ursache-Wirkungs-Matrix eine Teamleistung - Es muss ein funktionsübergreifendes Team zusammengestellt werden, das sowohl den Kunden als auch den Prozess selbst versteht. Wichtig ist, dass sich eine Ursache-Wirkungs-Matrix deutlich von einem UrsacheWirkungs- (Fischgräten-)-Diagramm unterscheidet. Eine Ursache-WirkungsMatrix priorisiert Prozessinputs gegenüber Prozessoutputs (aus Kundensicht), während ein Ursache-Wirkungs- Diagramm sich auf die Ursachen für ein bestimmtes Problem oder einen bestimmten Fehler konzentriert. Eine Ursache-Wirkungs-Matrix verbindet sich mit mehreren anderen Lean Six Sigma Tools. Die Prozessfähigkeit der wichtigsten Prozessoutputs sollte bewertet werden, und die wichtigsten Prozessinputs sollten innerhalb der FMEA und der Reaktionspläne verwendet werden.

Prozessoutputs

Was ist eine Ursache-Wirkungs-Matrix?

ff cc »

1 1 1 1

4 4

1 1

Summe

Prozessinput

Auftragseingang l Artikelnummer l Menae j^l Anlieferunqsadresse Kjl Rechnunasadresse ^W Zahlunqsmodalitäten Kommissionierauftrag Ooerator Pickliste Inventar Verpacken Ooerator Kartonaqe Luftpolsterfol e Füllstoff Versand Kurier Anlieferunqsadresse Gewicht / Abmessungen vereinbarte Lieferzeit gedrückte Rechnuna

10 8 1 1 1 6 8 5 1 1 1 1 1 1 1 1 1

9 1

1 1 1 1

7 9 6 R 1 1 1 1 1

8 2 4 2 1 10 9

7

—%J!

i 11 3 8

1 11 1

*1 9 fi

0

2 3 9

490 344 430 371

157 84 79 78 80 115 105 83 109 75 86 75 70 B7 84 111

Brainstorming

5-mal-Warum (5-Whys)

Brainstorming wird verwendet, um eine Auswahl der möglichen Grundursachen für eine Fehlerart zu eruieren.

Die 5-mal-Warum-Methode wird angewendet, um eine Ursache für einen Defekt oder ein Problem zu bestimmen, um letztendlich die wahre Grundursache zu finden.

Brainstorming ist eine wertvolle Methode, die in vielen Umgebungen und für viele Zwecke eingesetzt werden kann. In Lean-Six-SigmaProjekten wird das Brainstorming häufig zu Beginn der Phase Analysieren eingesetzt. Während die 5-mal-Warum Methode (rechts) zur Untersuchung einer gezielten Fehlerart verwendet werden kann, kann Brainstorming eingesetzt werden, um eine Reihe von möglichen Ursachen für einen generischen Fehlertyp zu identifizieren.

Wenn ein Problem behoben werden soll, muss die Grundursache erst verstanden werden. Manchmal ist es sinnvoll, zwei bis drei echte Fehler im Prozess zufällig auszuwählen und sie mit Hilfe von 5-mal-Warum, einer einfachen, aber effektiven Methode, genauer zu hinterfragen. Bei 5-mal-Warum ist es so, als wäre man ein neugieriger Vierjähriger, der immer wieder fragt, warum? Sie nehmen ein echtes Problem und forschen nach, indem Sie fragen, warum, warum, warum?

Brainstorming in der Praxis:

Ein Brainstorming bedarf einer sorgfältigen Moderation (siehe Seite 30). Wenn die Aufwirbelung von Ideen langsam verläuft, kann der Moderator Fragen stellen, um der Gruppe zu helfen, sich für eine Weile auf ein bestimmtes Thema zu konzentrieren. Wenn jemand sich nicht einbringt, muss der Moderator versuchen, ihn in die Diskussionen miteinzubeziehen. Das Brainstorming-Team sollte aus Personen aus verschiedenen Ebenen innerhalb der Organisation bestehen. Dies hilft, die unterschiedlichen Wahrnehmungen des Problems innerhalb der Organisation aufzugreifen.

Unterschiedliche Ansätze zum Brainstorming:

Bei der Durchführung eines Brainstormings können die Teilnehmer entweder aufgefordert werden, nacheinander eine Idee abzuliefern (damit werden alle mit eingebunden, kann aber auch einschüchternd sein), oder sie können ein offenes Brainstorming vornehmen (was eine gewissenhafte Moderation erfordert). Alternativ kann ein Brainstorming im Laufe der Zeit durchgeführt werden. Zum Beispiel: Ein Fischgrätendiagramm (nächste Seite) wird für ein oder zwei Wochen an eine Wand aufgehängt. Die Mitarbeiter werden gebeten, ihre Ideen darauf zu notieren.

Beispiel: Das Paket ist in der Post verloren gegangen... Warum? Weil es vor der Haustür des Kunden gestohlen wurde. Warum? Weil der Kunde nicht da war, um es in Empfang zu nehmen. Warum? Weil der Kunde während der vereinbarten Lieferzeit nicht zu Hause war. Warum? Weil der Kunde vergessen hatte, dass die Lieferung fällig war. Warum? Weil die Lieferung mehrere Wochen im Voraus vereinbart wurde, und der Kunde nicht daran erinnert wurde. Ist die Grundursache erst einmal verstanden, verbessert sich die Chance auf eine effektive Lösung erheblich. In diesem Beispiel könnte die Vorlaufzeit zwischen Absprache und Lieferung verkürzt werden oder es könnten Erinnerungen (per E-Mail/Text/Post) unmittelbar vor der Lieferung verschickt werden. Es sollte darauf geachtet werden, dass die Antworten nicht zu weit gefasst werden. Wenn man zu dem Schluss kommt, dass die Grundursache „schlechtes Management" oder „schreckliche Lieferanten" ist (auch wenn sie wahr sein mögen!), dann wird es nicht spezifisch genug sein, um das Problem zu lösen.

ANALYSIEREN (Analyse) > Prozesstür > Brainstorming und 5-mal-Warum

110

ANALYSIEREN (Analyse) > Prozesstür > Fischgrätendiagramm

Fischgrätendiagramm (Ursache-Wirkungs-Diagramm) Fischgrätendiagramme werden oft während eines Brainstormings verwendet, um potentielle Ursachen zu erfassen. Sie können aber auch während der gesamten Phase "Analysieren" als hervorragendes Werkzeug zur Strukturierung der Gedanken eines Teams eingesetzt werden. Fischgrätendiagramme sind ein wirksames Hilfsmittel beim Brainstorming. Das Beispiel (rechts) ist das Ergebnis eines Brainstormings über die Ursachen des geringen Kraftstoffeffizienz bei einem Auto. Haupteinflussgrößen auf Fischgrätendiagramme: Es gibt viele verschiedene Abwandlungen von Fischgrätendiagrammen - mit unterschiedlichen Haupteinflussgrößen (z.B. Mensch, Methode, usw.). Das liegt daran, dass es keine richtigen oder falschen gibt, es können die verwendet werden, die für das Projekt geeignet sind, oder es kann ein neues erstellt werden. Andere Anwendungen von Fischgrätendiagramme: Wenn Projekte in die Phase "Analysieren" gehen, stellen sie in der Regel mehrere konkrete Untersuchungsschwerpunkte heraus. Obwohl ein Fischgrätendiagramm nicht technisch für die Analyse der Grundursachen verwendet wird, kann es Klarheit schaffen, indem es zur Dokumentation der Projektstruktur verwendet wird, wobei jeder Untersuchungsschwerpunkt durch einen anderen Zweig dargestellt wird.

Messung

Mensch

Maschine

Schwere Zähler nicht zurück-gesetzt

Kraftstoffmischung zu reich Timing \t stimmt nicht

Reifen überfüllt

Passagiere

Ladun9

Luftfilter

Entfernung untergemessen Schlechte Motoreffizienz

fangsame Geschwindiakeit

andere Strombedarf

schnei Kurvenfahrt

Geschwindigkeit

\g

\f iibergemessen

Schlechte Kraftstorfqualität

Methode

Mitwelt

Material

Das Vorgehen zur Erstellung eines Fischgrätendiagramms:

Die Fischgrätendiagramme können am Besten erstellt werden, wenn man eine große Vorlage an der Wand oder dem Whiteboard verwendt (es gibt keinen Preis für ein hübsches Fischgrätendiagramm zu gewinnen!). Zum Dokumentieren der Ergebnisse können Minitab oder Companion verwendet werden. Weitere Informationen sind im Abschnitt Managen zu finden.

Affinitätsdiagramm Affinitätsdiagramme helfen, Schlüsselkategorien innerhalb von Textdaten zu identifizieren, wie z.B. die Schlüsseltypen von Fehlern in einem Produkt oder einer Dienstleistung oder die Schlüsselfragen, die in Kunden-Feedback-Formularen enthalten sind. In der Phase "Messen" können Datenerfassungspläne implementiert werden, indem nach den Details eines Fehlers gefragt wird. Während der Phase "Analysieren" werden Sie wahrscheinlich einige anekdotische Hinweise auf Fehler innerhalb des Prozesses finden, insbesondere während der Prozessabbildung. Affinitätsdiagramme helfen dabei, ähnliche Gruppen innerhalb textueller (nichtnumerischen) Datenquellen zusammenzuführen.

VORHER...

Das Vorgehen zur Erstellung eines Affinitätsdiagramms:

• Die Textdaten werden auf Zettel geschrieben und auf einen Tisch oder an eine Wand geklebt.

• Das Projektteam wird gebeten, die Zettel so zu verschieben, dass ähnliche Zettel zueinander finden. Es sollte schweigend getan werden und nicht versuchen die Schlussfolgerung für das Verschieben eines Zettels zu erklären - tun Sie es einfach! Andere Teilnehmer können die Zettel wieder zurückschieben, wenn sie nicht einverstanden sind. • Sobald sich natürliche Cluster in den Zetteln gebildet haben, diskutieren Sie diese innerhalb der Gruppe und geben Sie jedem Cluster einen Namen. Manche Cluster können aus nur ein oder zwei Zetteln bestehen.

Was kann man mit den Ergebnissen von Affinitätsdiagrammen machen:

• Begründungscodes (für Datenerfassungspläne) können relevanter gestaltet werden.

NACHHER... Cluster 1

Cluster 3 Unterthema

Unterthema

Cluster 2 Einzelne Ergebnisse

• Beim Problemlösen kann man sich in der Phase "Analysieren" auf die größten Cluster fokussieren.

ANALYSIEREN (Analyse) > Prozesstür > Affinitätsdiagramm

Unterthema

ANALYSIEREN (Analyse) > Prozesstür > Fehler-Zählblatt

Fehler-Zählblatt Ein Fehler-Zählblatt ist ein nützliches Hilfsmittel zum Sammeln von Daten, die bei der Analyse des Auftretens von Fehlern in einem Produkt oder Prozess hilfreich sind. Obwohl die Ausfallrate oder die Erstausbeute eines Prozesses gemessen, werden soll, sind diese nicht unbedingt aussagekräftig darüber, wo die meisten Probleme auftreten. Fehler-Zählblätter sind eine visuelle und sehr praktische Methode, um die Lage und die Häufigkeit von Fehlern auf einer repräsentativen Zeichnung oder einem Bild eines Produktes oder Prozesses darzustellen.

RECHNUNG

Wann setzt man ein Fehler-Zählblatt ein:

Rechnungsadresse

Firmenname Datum Bereicfi/Abt. Zuständig Unsere Zeichen

Fehler-Zählblätter können als Teil eines Datensammelplans während der Phase "Messen" eingesetzt werden, oder begleitend zur Prozessaufnahme während der Phase "Analysieren" durchgeführt werden.

Beispiel: In einem Projekt geht es darum, die Anzahl der Rechnungen zu reduzieren, die von Kunden zurückgegeben werden, weil sie Fehler aufweisen. Eine Standardrechnung (rechts) wird als Poster ausgedruckt und an der Wand des Büros angebracht. Bei jeder zurückgegebenen Rechnung wird ein Punkt auf dem Rechnungsposter angebracht, um die Fehlerquelle zu kennzeichnen. Schnell wird klar, dass die Lieferadresse und die Steuerberechnung die häufigsten Probleme verursachen. Beispiel: Ein Produktionsprozess für Dosen hat zu lange Stillstandszeiten durch Verklemmen von Teilen in der Bügelmaschine. Ein Bild der Presse wird auf dem Shopfloor aufgestellt und jedes Mal, wenn eine Dose klemmt, wird der Ort des Verklemmens mit einem roten Punkt auf dem Bild (Fehler-Zählblatt) markiert. Nach kurzer Zeit entsteht ein klarer Haufen roter Punkte, der bestätigt, dass die größte Ursache von Verklemmen die Lippe der Dose ist, die sich an einen bestimmten Teil des Auswurf Mechanismus aufhängt. Beispiel: Autovermieter verwenden Fehler-Zählblätter, um Schäden am Mietwagen zu erfassen. Wird ein Mietwagen zurückgeben, wird der Mieter gebeten, eventuelle Schäden am Fahrzeug auf einem Blatt zu vermerken.

Position

Artikel-Nr.

Beschreibung

Preis/Stück

Gewicht/ Stück

Menge

Gesamtpreis

_^ • ^_ J Zwischensum^ Steuer Überweisung: Kunden-ID: Datum: Fälliger Betrag: Betrag:

Zoll Fracht SUMME

• f" • "•

^_IÜ

L*^*

U. .!,),.(.„-

Addressc 2: Stadt, Land: Postleitzahl:

Firmenname

Fehlermöglichkeits- und Einflussanalyse (FMEA) Die FMEA kann während der Phasen "Analysieren", Verbessern oder Regeln verwendet werden, um die Eigenheiten eines Produktes oder Prozesses aufzuzeigen, die zur Verbesserung anvisiert werden sollten (ohne dass tatsächlich Fehler aufgetreten sind). Prozessschritt oder Komponente Auftrag annehmen

Potenzielle Potenzielle Fehler Fehlerfolgen falsche Kundenadresse

verpasste Lieferung

Was bedeutet FMEA?

Die FMEA ist im Wesentlichen eine Methode zur Analyse von Fehlerrisiken. Die FMEA kann in Situationen nützlich sein, in denen ein Ereignis verhindert werden muss (z.B. Sicherheit) oder in denen die Ausfallrate für einen Prozess so niedrig ist, dass es wenig Möglichkeiten gibt, aus früheren Fehlem zu lernen. Die FMEA wird in zwei unterschiedliche Haupttypen in Lean & Six Sigma unterteilt: 1) Konstruktions-FMEAs analysieren die Funktion, das Design und den potenziellen Ausfall jeder Komponente eines Produkts. 2) Prozess-FMEAs analysieren die wichtigsten Outputs und potenziellen Fehler jedes Prozessschritts und berücksichtigen die Auswirkungen von Prozessfehlern auf das betreffende Produkt oder die betroffene Dienstleistung.

B

5

Potenzielle Ursachen Zahlendreher bei der Postleitzahl

A

Vorhandene Kontrollmaßnahmen

3

Prüfung der Adresse mit den Kunden

E

R P Z

4

60

Maßnahmen

Das Vorgehen zur Erstellung einer FMEA:

Zuständig

• Prozessschritte oder Komponenten des Produkts müssen identifiziert werden. • Für jeden einzelnen Prozessschritt (oder jede Komponente) sollen die potentiellen Fehler auf, die auftreten können aufgeführt werden, und deren Bedeutung (B) bewertet werden. • Für jeden potentiellen Fehler müssen die verschiedenen potenziellen Ursachen, die den Ausfall verursachen können berücksichtigt werden und deren Auftretenswahrscheinlichkeit (A) bewertet werden. • Für jede potenzielle Ursache sollten die Kontrollmechanismen berücksichtigt werden, die vorhanden sind, um dies zu verhindern und/ oder den Fehler zu entdecken, wenn die Ursache auftritt. Daraufhin muss die Entdeckungswahrscheinlichkeit (E) bewertet werden. • Für jeden potenziellen Fehler muss die Risikoprioritätszahl (RPN) berechnet werden. Diese setzt sich als Produkt zusammen aus Bedeutung (B), Auftreten (A) und Entdeckung (E). • Es soll auf der Grundlage der Ergebnisse gehandelt werden! Es müssen Maßnahmen festgelegt werden, um die höchsten RPZs anzugehen und die Überprüfung des Fortschritts sollte terminiert werden.

ANALYSIEREN (Analyse) > Prozesstür > FMEA

getroffene Maßnahmen

B

A

E

R P Z 0

Die oben abgebildete FMEA Tabelle zeigt ein typisches Format. Die linke Seite (erste neun Spalten) wird während des ersten Entwurfs der FMEA abgeschlossen, und die rechte Seite (die restlichen sieben Spalten) wird verwendet, um nachfolgende Maßnahmen zu verfolgen und reduzierte RP zu dokumentieren. FMEAs sollten als lebende Dokumente behandelt werden, nicht als etwas, was man tut und irgendwo in einem Aktenschrank aufbewahrt. Nachdem ein Risiko identifiziert wurde, muss etwas dagegen getan werden!

ANALYSIEREN (Analyse) > Prozesstür > FMEA

Fehlermöglichkeits- und Einflussanalyse (Fortsetzung) Bewertungen von der Bedeutung, der Auftretensund der Entdeckungswahrscheinlichkeit:

Die Bewertungen für Bedeutung, Auftretens- und Entdeckungswahrscheinlichkeit liegen normalerweise auf einer Skala von 1 bis 10. Es gibt verschiedene Versionen von Tabellen, die die verschiedenen Bewertungen definieren, wie auf der Abbildung zu sehen ist. Diese sind in der FMEA Vorlage Datendatei verfügbar:

FMEA Template & Ratings.xls Die Anwendung von Ratings kann viele Diskussionen und Debatten auslösen. Es soll darauf geachtet werden, dass Ihr FMEA-Team keine Zeit verschwendet, wenn es darum geht, zu entscheiden, ob etwas mit 2 anstelle von 3 bewertet werden soll! Das Wichtigste ist, dass die Bewertungsskalen konsequent angewendet werden. Oft lohnt es sich, die Ratingstabellen an die Umgebung des Unternehmens anzupassen. Eine einfache Sprache hilft, sich auf die Definitionen zu beziehen und höhere Konsistenz bei Bewertungen zu treffen.

Bedeutung der Fehlerfolge Effect Hazardouswithoul warning

Hazardouswrth warning

hic;h - , : • - ' • ( I . - . r : «

Ranking 1

• ] .".' •-••. .1 ; • -^± :

Vcr

Probability of Failure Possible Failure Rates Ranking

anc g o:

Faiture is almost inevit

High

Prc tevi

H' h R

1

Entdeckungswahrscheinlichkeit des Fehlers l oder seiner Ursache Detection Criteria Ranking 1 Absolute Uncertainty

Design Control will not and / or can not detect a potential cause mechanism and subsequent failure mode; or there is no design control.

10

Very Remote

Very remote chance the design control will detect a potential cause / mechanism and subsequent laiiure mode.

9

Cu Moderate: Occasional Offl

Cu Prt

Low: Retatively few fai

COI lOVf

Cii!

Minor

1

Auftretenswahrscheinlichkeit der Fehlerursache

Prc pur

Low

li'

BTK

Very High

Remote: Failure is unt

not conform. Detect noiiced by most cus Fit & finish / squeak & rattle not conform. Defect noticed by average (

Very Minor

Fit & finish / squeak & rattle not conform. Defect noticed by discrimin

None

No effect.

FMEAs in Praxis:

Wie bei vielen anderen Tools in der Prozesstür muss ein Team aus dem gesamten Prozessumfeld zusammengestellt werden. Stellen Sie sicher, dass Sie die Personen einbeziehen, die den Prozess betreiben, managen und weiterentwickeln. FMEAs wachsen schnell in der Größe, da jeder Prozessschritt (oder Teil) mehrere Fehlermodi haben kann, die wiederum mehrere mögliche Ursachen haben, die mehrere relevante Steuerungen haben können. Aus diesem Grund erfordern sie eine gewissenhafte Moderation, um sie auf Kurs zu halten und rechtzeitig fertig zu stellen. Es müssen mehrere Sitzungen eingeplant werden!

Criteria Vor failt

Remote

1 OW

Moderate

Remote chance the design control will detect a potential cause / mechanism and subsequent faiture mode.

8

detect a potential cause / mechanism and subsequent failure mode. Low chance the design control will detect a potential cause / mechanism and subsequent failure mode.

6

Moderate chance the design control will detect a potential cause / mechanism and subsequent failure mode.

5

Moderate y High Moderately high chance the design control will detect a potenlial cause / mechanism and subsequent failure mode. High High chance the design control will detect a potential cause / mechanism and subsequent faikne mode

4

Vor v H 1 1.; h

Very high chance the design control will detect a potential cause / mechanism and subsequent failure mode.

2

Almost Certam

Design control will almost certainly detect a potential cause / mechanism and subsequent failure mode.

1

-

Datentür Wegweiser - Das richtige Werkzeug finden Grafische Werkzeuge sind der Ausgangspunkt für die Datentür. Theorien und Ideen, die aus der grafischen Analysen (links) gewonnen werden, können dann mit weitergehenden statistischen Analysen (rechts) untersucht werden. Für grafische Analysen:

Für statistische Analysen: Entscheidung ob die Daten in eine Verteilung passen (z.B. Normal)...

Verteilung betrachten... • Histogramm (Seite 123), Punktdiagramm (Seite 125) • Minitab's Grafische Zusammenfassung (Seite 126) • Wahrscheinlichkeitsnetz (Seite 127)

• Test auf Normalverteilung (Anderson Darling) (Seite 189) • Identifikation der Verteilung (Seite 191)

N

J .

^

Veränderung über die Zeit betrachten...

• Statistische Prozessregelung (SPR) (Seite 249) • Verlaufsdiagramm (Seite 132)

l • Zeitreihendiagramm (Seite 130), Trendanalyse (Seite 134) ^

>

Verteilungen oder Datengruppen vergleichen... • Boxplot (Seite 140), Einzelwertdiagramm (Seite 143) • Multi-Vari-Bild (Seite 139)

Anteile vergleichen...

Quantifizierung des Verhältnisses zwischen Prozess Eingangs- und Ausgangsgrößen... N

Zusammenhänge zwischen Datensätzen suchen...

v

• Streudiagramm (Seite 145), Matrixdiagramm (Seite 149) • Blasendiagramm (Seite 147)

verschiedene Kategorien betrachten...

l • Pareto Diagramm (Seite 135)

Entscheidung, ob die Datengruppe unterschiedlich sind und den Unterschied quantifizieren... • Konfidenzintervalle (Seite 151), Hypothesentests (Seite 154)

• 100% gestapelte Balkendiagramme (Seite 144)

f

Entscheidung, ob Veränderungen über die Zeit signifikant sind...

N

s

• Korrelation & Regression (Seite 193) • Einfache Regression (Seite 197), Anpassungslinie (Seite 198) • Multiple Regression (S. 201), Binäre Logistische Regression (S.203)

Einstellen des Prozesses und nach Zusammenhängen zwischen Eingangs- und Ausgangsgrößen schauen... • Versuchsplanung - Design of Experiments (DOE) (Seite 207)

ANALYSIEREN (Analyse) > Datentür > Wegweiser

ANALYSIEREN (Analyse) > Minitab > Datenarten

Minitab - Datenarten und Daten Manipulation Häufig werden die Tabellen so angeordnet, dass sie leicht für das menschliche Auge lesbar sind. Ein Feature von Minitab ist jedoch, dass es immer erfordert, das Daten in Spalten gespeichert werden.

Standort 1 Standort 2 Standort 3

Jan

Feb

März

April

289 70

295 73 174

300 75 180

301 76 189

168

Die Rohdaten in der Tabelle oben (die Zahlen, Standorte und Monate) müssen alle eigene Spalten in Minitab bekommen. (Und zwar deshalb, weil) Da viele der Funktionen in Minitab gleichzeitig auf einer ganzen Spalte mit Daten arbeiten. Minitab setzt voraus, dass die Daten in der gleichen Zeile verknüpft sind, so dass die Daten auf verschiedene Arten angeordnet werden können (einschließlich der beiden gezeigten Alternativen auf der rechten Seite), solange die Zeilen noch einander entsprechen.

Verschiedene Datenarten in Minitab:

Minitab erkennt drei Datenarten (numerisch, Text, Datum/Uhrzeit) und fügt ein 'T' (Text) oder ein 'D' (Datum/Uhrzeit) zu der Spaltennummer nach Bedarf hinzu. Dies geschieht durch automatische Betrachtung der Daten die eingegeben wurden bzw. des Inhalts der eingefügt wurde. ! Beim Kopieren von Daten nach Minitab muss darauf geachtet werden, dass verschiedene Datentypen in der Datenauswahl von Minitab möglicherweise falsch oder als fehlend identifiziert werden. In diesem Fall kann der Datentyp der Spalte mit der folgenden Funktion geändert werden:

i Ein typisches Arbeitsblatt kann zum Beispiel l so aussehen wie links dargestellt. In Minitab, müssen die gleichen Daten in Spalten folgendermaßen angeordnet werden (siehe unten):

ODER gS Bestellt pro Monat *** A

f'JU Bestellt von Standort ""

Cl

C2

C3-T

Daten

Standort

Monat

1 2

289

3

168

4

295

70

5

73

6

174

7

300

8

75

9

180

10

301

11

76

12

189

1 Jan 2 Jan 3 Jan 1 Feb 2 Feb 3 Feb 1 März 2 März 3 März 1 April 2 April 3 April

4

Cl

C2

Daten

Standort

C3-T Monat

1

289

1 Jan

2

295

1Feb

3

300

4

301

1März 1April

S

70

2 Jan

6

73

2 Feb

7

75

2 März

8

76

2 April

9

168

3 Jan

10

174

3 Feb

11

180

3 März

12

189

3

April

Minitab: Daten > Datentyp ändern Diese Funktion ermöglicht Ihnen das Format aus verschiedenen, Numerischen, Text und Datum/Uhrzeit, Formaten auszuwählen.

! Fehlende/gelöschte text Daten werden als 'Fehlend' markiert und fehlende numerische oder Datum/Uhrzeitdaten als '*' markiert. Diese Markierungen werden automatisch eingefügt.

Minitab - Grafiken Minitab bietet eine breite Palette von Grafiken an und liefert oft Vorschläge für die passendste Grafik des jeweiligen Analysewerkzeuges (durch die Grafik-Option). Grafik .'••' Streudiagramm... ;/; Matrixplot. » Blasendiagramm... *l Randdiagramm.,

}

Wie finden Sie Grafiken in Minitab: Minitab bietet zwei Möglichkeiten um auf die Grafiken zuzugreifen: Llm Korrelationen zu erkennen

• Das Minitab Grafik Menü (siehe links) bietet eine Reihe von Grafiken an. • Wenn eine statistische Funktion verwendet wird, bietet Minitab eine Reihe unterschiedlicher Grafiken an, die für die Analyse passend sind, die gerade durchgeführt wird.

A Histogramm,. •:;;;. Punktdiagramm...

Um Verteilungen zu charakterisieren

;;, Stamm- und Blattdiagramm., .'•: Wahrscheinlichkeitsnetz... Empirische Verteilungsfurtktioa. Darstellung der Wahrscheinlichkeitsverteilung.. Mt Boxplot,

Um Datensätze zu vergleichen

•« fehlerbalkendiagramm... '•':'. Einzelwertdiagramm.. Liniendiagramm...

Um Datenkategorien zu untersuchen

|| Balkendiagramm^| Tortendiagramm,.

Um Trends als Funktion der Zeit zu studieren

.'•'• Zeitreihendiagramm.. St Flächendiagramm., L Konturdiagramm.. ;:> 3D-Streudiagramm._ 'f 3D-Wirkungsflächendiagramm.,

!

Um 3D Grafiken zu erstellen

Management von Grafiken: Bei der Anwendung stellt man schnell fest, dass Minitab mit zahlreichen Grafiken sehr unübersichtlich wird. Der Schlüssel ist, die Kontrolle zu behalten, indem man sich diszipliniert: • Die Grafiken so zu benennen, dass der Titel wiedergibt, was die Grafik zeigt. • Alle unerwünschten Grafiken zu schließen, und welche verwendet werden, zu minimieren. • Grafiken, die Sie für eine lange Zeit behalten möchten, als separate Dateien zu speichern (Dateiendung. mgf).

! Grafik Disziplin: Bei der Erstellung von Diagrammen ist es wichtig, die Grundlagen nicht zu vergessen. Jedes Diagramm soll einen Titel, Achsenbeschriftungen, einen Hinweis auf die Stichprobengröße und die verwendeten Einheiten besitzten.

ANALYSIEREN (Analyse) > Minitab > Grafiken

118

ANALYSIEREN (Analyse) > Minitab > Grafiken

Minitab - Grafiken (Fortsetzung) Minitab Grafiken bieten exzellente Funktionen an. Ihre Verknüpfung mit den Originaldaten kann nachverfolgt werden, sie können durch eine Brushing Funktion abgefragt und ihr Format einfach angepasst werden. tHftlogr.rTm.onP»«™!«!«!)

Grafiken mit neuen Daten ergänzen:

Anders als bei Excel wird eine Grafik, die mit Minitab erstellt wurde, nicht automatisch aktualisiert, wenn die Originaldaten nachfolgend geändert werden. Es kann zwischen einer manuellen und einer automatischen Änderung der Grafik durch rechtsklicken gewählt werden. Der Status der Grafik wird durch ein Symbol in der linken oberen Ecke des Grafikfensters wie folgt angezeigt: • Ein grüner Haken bedeutet, die Grafik ist noch aktuell und basiert noch auf den Originaldaten, aus denen sie hervorging. • Ein gelbes Symbol bedeutet, die Grafik ist nicht aktuell, kann aber aktualisiert werden (manuell oder durch automatische Aktualisierung). • Ein rotes Kreuz bedeutet, dass die automatische Aktualisierung der Grafik eingeschaltet ist, sie aber nicht aktuell ist, weil es ein Problem mit den Daten gegeben hat. • Ein rotes Kreuz in einem Kreis bedeutet, dass die Grafik nicht aktuell ist und nicht aktualisiert werden kann (dies kann eine Reihe von Gründen haben - die Grafik muss neu erstellt werden).

D

STÖTS]

i p

Hrstografnm von Paketgewichl (Kg)

1



>$; Histogramm von Paketgewicht (Kg)

'

'/

f

t

® Histogramm von Paketgewicht (Kg)

1

[ a ijj3 !|K^

Histogramm von Paketgewicht (Kg) 14 12

••.

10

4 3

3 'S*

,

8

——

D

I

6 4

—1—| -

2.4

3.0

3.6

4.2

4.8

a 5.4

Paketgewicht (Kg)

Wie aktualisiert man eine Grafik in Minitab?

Benutzerdefinierte Anpassung: Die meisten Merkmale einer Grafik

1) Klicken Sie rechts auf die Grafik und wählen Sie Grafik jetzt aktualisieren oder Grafik automatisch aktualisieren, oder 2) Gehen Sie zum Fenster Alle Grafiken jetzt aktualisieren

können angepasst und ergänzt werden, nachdem die Grafik erstellt wurde, kann der Anwender Bestandteile, die für ihn von Interesse sind, durch Doppelklick aufrufen. Zusätzliche Bestandteile (z. B. Bezugslinien, Untertitel, Streuung) können hinzugefügt werden mit: Editor > Hinzufügen

Minitab - Grafiken (Fortsetzung) Grafik Markierung:

Punktdiagramm von Paketgewicht (Kg)

Minitab hat eine Markierfunktion, die erlaubt, Grafiken dynamisch abzufragen und herauszufinden, von welchen Zeilennummern spezifische Datenpunkte kommen. Wenn einmal ein spezifisches Daten-Unterset ausgewählt wurde (in diesem Beispiel durch gestrichelte Linien angezeigt) erscheinen die zugehörigen Zeilennummern in einem kleinen Markieren-Fenster (unten links gezeigt).

•n 2.0

2.5

^3.0

3.5

4.0

4.5

5.0

Paketgewicht (Kg)

Gleichzeitig steht ein schwarzer Punkt in jeder relevanten Zeilennummer des zugehörigen Arbeitsblattes und dieselben Datenpunkte werden auch in allen anderen aktiven Grafiken hervorgehoben. Eine sehr nützliche Funktion!

Editor > Markieren Markieren Zeile 6 7 9 12 18 26 23 32 36 46 47 53 54 56

@ Standort Geschäftsart > Frankreich auf den Woh England auf den Woh Frankreich auf den Höh Frankreich gewerblich England auf den Woh S Frankreich auf den Woh England auf den Woh England gewerblich England auf den Woh Frankreich auf den Woh Frankreich auf den Woh Frankreich gewerblich England gewerblich Frankreich auf den Woh "

Fortgeschrittene Grafik Markiertechniken: 1) ID-Variable setzen:

Zusätzlich zur Anzeige der Zeilennummern, des markierten Gebietes, einer Grafik, kann das Markieren-Fenster auch für die Anzeige anderer Informationen des Arbeitsblattes benutzt werden. In diesem Beispiel (links) werden Ort und Geschäftsart, der markierten Punkte, ebenfalls im MarkierenFenster angezeigt, zusammen mit den Zeilennummern. Dies wird (im Markieren-Modus) erreicht mit Editor > Identifikationsvariablen festlegen. 2) Eine Indikatorvariable erstellen: Minitab kann aus den Datenpunkten, die aus dem markierten Grafikbereich basieren, auch eine Datenspalte erstellen. Die Standardausgabe ist, dass markierte Punkte als 1 ausgegeben werden, andere als 0. Dies wird (im Markieren-Modus) erreicht mit Editor > Indikatorvariable erstellen.

ANALYSIEREN (Analyse) > Minitab > Grafiken

120

ANALYSIEREN (Analyse) > Minitab > Deskriptive Statistik anzeigen

Minitab's Deskriptive Statistik anzeigen Der erste Befehl, der auf die meisten Daten angewendet wird, ist Deskriptive Statistik anzeigen. Dieser beinhaltet eine Reihe von Statistiken, die die Daten zusammenfassen und eine Bandbreite von grundlegenden Grafiken anbietet. Statistik > Statistische Standardverfahren > Deskriptive Statistik anzeigen Die linke Seite listet die Deskriptive Statistik anzeigen Spalten auf, die Daten v k. Cl Paketgewicht (h Variablen: beinhalten. Nur die Spalten, die den richtigen Datentyp für die aktuelle Analyse besitzen, werden hier dargestellt. Entsprechend ist eine Änderung der Auflistung zu sehen. Datenspalten werden in die Dateneingabefelder aufgenommen, indem man auf sie doppelklickt oder die Funktion ^^ Auswählen nutzt. ^^"^

C2 C3 C4

Standort Geschäftsart Dienstleistung

|a£3*| ^

'Paketgewicht (Kg)'

-^

hJach Variablen (optional):

"^

! Um Daten einzugeben, wird die entsprechende Box einmal angeklickt, sodass der Cursor darin ist. In diesem Beispiel wurde C1 (Paketgewicht) als die Datenspalte zur Analyse eingegeben. Später, werden die Daten stratifiziert möchten (in verschiedene Untergruppen aufgeteilt, s. Seite 138) der Untergruppencode kann in die zweite (optionale) Box eintragen werden. Deskriptive Statistik anzeigen: Grafiken

|p£

f~ Histogramm der Daten l* jHistogramm der Daten mit Normalverteilungskurvei

A

11

T Einzelwertdiagramm Statistik...

> OK

| '>

Grafiken...

|

Abbrechen

/

Kurier.mpj

^ ^H

, Die rechte Seite von Minitab-Funktionen enthält normalerweise die Dateneingabebereiche. Hier können die Datenspalten platziert werden, die zu analysieren sind.

Das Statistik Untermenü bietet eine Auswahl an Statistiken, die in aktueller Session angezeigt werden, wie auf der nächsten Seite gezeigt.

h

V Boxplot der Daten

Hilfe

QK

Abbrechen

Das Grafiken Untermenü bietet relevante Grafiken an, die in Grafikfenstern dargestellt werden. In diesem Beispiel wurde Histogramm der Daten mit Normaiverteilungskurve ausgewählt, das auf Seite 124 analysiert wird.

Minitab's Deskriptive Statistik anzeigen (Fortsetzung) Das Statistik Untermenü (siehe rechts) für die Funktion Deskriptive Statistik anzeigen wie sie auf den vorangegangenen Seiten vorgestellt wurde hält einen weiten Bereich von Statistiken vor, die für Ihre ausgewählten Daten erstellt werden können. Die obere linke Gruppe ermöglicht' grundlegende Statistiken wie Mittelwert, Standardabweichung und Spannweite usw. Die untere linke Gruppe ermöglicht • Perzentil- Information wie Erstes Quartil (25. Perzentile), zweites Quartil (50. Perzentile) etc., dazu einige fortgeschrittenere Statistik für Verteilungsmuster (wie Schiefe, Kurtosis usw.).

Die ausgewählte Statistik wird berechnet und die Ergebnisse im Sitzungsfenster in Minitab dargestellt, wie auf der rechten Seite gezeigt. Für das Beispiel mit den Paketgewichten, das auf der vorherigen Seite vorgestellt wurde, ergibt dieses, dass 100 Pakete in der Stichprobe (N) waren, die ein durchschnittliches Gewicht von 3,61 kg (Mittelwert) mit einem Bereich von 1,98 kg (Minimum) bis 5,33 kg (Maximum) hatten.

ö

Deskriptive Statistik anzeigen: Statistik ff Mittelwert

r Getrimmtes Mittel

ff N nicht fehlend

ff SE des Mittelwerts

T Summe

17 N fehlend

ff Standardabweichung T Varianz ff

ff

T Variationskoeffizient

Minimum Maximum

'

r M gesamt r Kumulierte N T Erozent

r Spannweite

T Kumuliert in Prozent rff

Erstes Quartil

ff Mediän ff Drittes Quartil r Interguartilbereich

. Die obere rechte Gruppe ermöglicht Informationen über Ihre Stichprobe, inklusive Stichprobengröße (N nicht fehlend) und die Anzahl fehlender Daten (N fehlend).

1~ Summe der Quadrate^ Statistik auswählen r Schiefe