130 8 5MB
German Pages 413 Year 2011
Wirtschaftskybernetik und Systemanalyse Band 26
Innovation und Information Wissenschaftliche Jahrestagung der Gesellschaft für Wirtschafts- und Sozialkybernetik vom 3. bis 5. Dezember 2008 in Oestrich-Winkel
Herausgegeben von
Meike Tilebein
Duncker & Humblot · Berlin
Meike Tilebein (Hrsg.)
Innovation und Information
Wirtschaftskybernetik und Systemanalyse Herausgegeben von Prof. Dr. Jörg Baetge, Münster/Westfalen Prof. Dr. Heribert Meffert, Münster/Westfalen Prof. Dr. Karl-Ernst Schenk, Stuttgart Prof. Dr. Bernd Schiemenz, Marburg
Band 26
Innovation und Information Wissenschaftliche Jahrestagung der Gesellschaft für Wirtschafts- und Sozialkybernetik vom 3. bis 5. Dezember 2008 in Oestrich-Winkel
Herausgegeben von
Meike Tilebein
Duncker & Humblot · Berlin
Gesellschaft für Wirtschafts- und Sozialkybernetik e. V. Frankfurt am Main Sekretariat: Institut für Textil- und Verfahrenstechnik Postfach, D-73766 Denkendorf Tel. + 49 711 93 40 0 / Fax + 49 711 93 40 297
Institut für Unternehmenskybernetik e. V. Schurzelter Straße 25, D-52075 Aachen Tel. + 49 241 80 911 70 / Fax + 49 241 80 911 22
Bibliografische Information der Deutschen Nationalbibliothek Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http://dnb.d-nb.de abrufbar.
Alle Rechte, auch die des auszugweisen Nachdrucks, der fotomechanischen Wiedergabe und der Übersetzung, für sämtliche Beiträge vorbehalten © 2011 Duncker & Humblot GmbH, Berlin Fremddatenübernahme: L101 Mediengestaltung, Berlin Druck: Berliner Buchdruckerei Union GmbH, Berlin Printed in Germany ISSN 0947-2452 ISBN 978-3-428-13683-4 (Print) ISBN 978-3-428-53683-2 (E-Book) ISBN 978-3-428-83683-3 (Print & E-Book) Gedruckt auf alterungsbeständigem (säurefreiem) Papier entsprechend ISO 9706
Internet: http://www.duncker-humblot.de
Geleitwort Mit dem vorliegenden Tagungsband setzt die GWS – Gesellschaft für Wirtschafts- und Sozialkybernetik ihre traditionelle Berichterstattung über wissenschaftliche Symposia fort, bei denen aktuelle Themen der Wirtschaft und der Wissenschaft aus der Perspektive der Kybernetik dargestellt, analysiert und diskutiert wurden. Das Tagungsthema „Innovation und Information“ zeichnet sich – obwohl auch in früheren Veranstaltungen der GWS bereits Gegenstand wissenschaftlicher Analyse und lebhafter Diskussionen – nicht nur durch eine anhaltende Aktualität aus, es eröffnet vielmehr neuerlich die Gelegenheit, das Phänomen „Innovation“ und die damit zusammenhängenden Managementaufgaben unter Berücksichtigung aktueller Gesichtspunkte und neuer Forschungsergebnisse zu diskutieren und hinsichtlich der praktischen Implikationen für Wirtschaft und Gesellschaft zu untersuchen. Der Rahmen dieser Diskussion wurde vor allem durch das Thema „Kooperation und Kollaboration in Netzwerken“ bestimmt. Beides ist notwendig, will man heute wissensintensive Produkte und Dienstleistungen hoher Wertschöpfung entwickeln und vermarkten. Die Themen der verschiedenen Beiträge kreisen demgemäß um die Begriffe Ideen, Wissen und Kompetenz, um Kommunikation und Kollaboration von Akteuren sowie um die heute notwendige Offenheit für Wissens transfer und die damit verbundenen Risiken. Konzepte, Methoden und Technologien, die interorganisationalen Wissenserwerb und Wissensaustausch ermöglichen, und die geeigneten Modellierungs-Konzepte und Methoden, mit dem die zunehmend anwachsenden Informationssysteme und Wissensdomänen in ihrer Komplexität „beherrscht“ und erschlossen werden können, tragen dazu bei, dass Innovationsprozesse effizient gestaltet und erfolgreich abgeschlossen werden können. Frau Professor Meike Tilebein und ihr Team haben diese Veranstaltung an der EBS – European Business School in Oestrich-Winkel mit großem Engagement und mit Begeisterung vorbereitet und erfolgreich durchgeführt. Dafür möchte ich im Namen der GWS herzlich Dank sagen. Die zahlreichen Referenten haben durch ihre Beiträge für großes Interesse und lebhafte Diskussionen gesorgt. Auch ihnen gilt mein Dank verbunden mit dem Wunsch, dass dieser Tagungsband die Mühen der Autoren dadurch belohnt, dass er nachhaltig die Diskussion um das aktuelle Thema „Innovationsmanagement“ bereichert. Denkendorf, im Mai 2011
Prof. Dr. Thomas Fischer Vorsitzender des Vorstandes der Gesellschaft für Wirtschafts- und Sozialkybernetik e. V.
Vorwort Der vorliegende Tagungsband „Innovation und Information“ umfasst die Beiträge der gleichnamigen Jahrestagung der Gesellschaft für Wirtschaftsund Sozialkybernetik (GWS). Die Tagung fand vom 3. bis 5. Dezember 2008 an der European Business School (EBS) in Oestrich-Winkel statt und wurde vom dortigen Strascheg Institute for Innovation and Entrepreneurship (SIIE) ausgerichtet. Innovation und Unternehmertum sind die treibenden Kräfte einer leistungsfähigen und wachstumsstarken Volkswirtschaft. Nur wenn Wirtschaft und Wissenschaft gemeinsam praxisorientierte Lösungen entwickeln, bleibt die Innovationsfähigkeit als einer der wichtigsten unternehmerischen Erfolgsfaktoren erhalten. Bei allen Formen von Innovationen, sei es die inkrementelle Verbesserung oder der radikale Durchbruch, die neue Technologie oder das neue Geschäftsmodell, die Anregung oder die Umsetzung von Innovation, spielt Information eine zentrale Rolle. Aus der systemischen Perspektive der Kybernetik ist jedoch Information nicht allein als Inputfaktor für Innovation zu begreifen, sondern bilden Innovation und Information zwei untrennbar verbundene Grundlagen wirtschaftlichen Erfolgs, die sich gegenseitig bedingen. So unterstützt der Einsatz von innovativen Informations- und Kommunikations-Systemen das Identifizieren und Ausschöpfen von Potentialen, um neue Produkte und Dienstleistungen, Arbeitsmethoden und Prozesse oder neue Geschäftsmo delle oder -beziehungen zu generieren. Interaktionsbeziehungen und damit insbesondere der Austausch von Wissen und Information haben zentrale Funktionen bei der Innovation in Wertschöpfungsnetzwerken. Dies trifft für Netzwerke verschiedenster Größe und Aggregationsebenen zu – stets sollte gelten „Das Ganze ist mehr als die Summe seiner Teile“. Eine Ausprägung auf höchster Aggregationsebene sind Smart Networks, bei denen der Schwerpunkt auf den Informations- und Innovationsprozessen liegt. Teams als Netzwerke auf kleinster Aggregationsebene nehmen im Innovationsprozess eine zentrale und häufig erfolgsbestimmende Rolle ein und erfordern ebenfalls eine gesonderte Betrachtung. Die zunehmende Komplexität von Innovationsprozessen schließlich macht den Einsatz von Modellbildung und Simulation zu einem wichtigen Hilfsmittel für ein kybernetisches Verständnis der Wechselwirkungen von Innovation und Information.
8 Vorwort
Diese Wechselwirkungen standen im Mittelpunkt der Jahrestagung 2008 der GWS. Mit vier Plenumsvorträgen aus Wissenschaft und Praxis und über 30 weiteren Vorträgen zum Generalthema „Innovation und Information“ mit den Fokusthemen „Innovationskompetenzen“, „Informations- und Kommunikationssysteme im Innovationsmanagement“, „Innovation in Netzwerken“, „Smart Networks“, „Gestaltung von Innovationsteams“ und „Modellierung und Simulation für Innovationsprozesse“ hat die Tagung vielfältige Perspektiven zu diesen Wechselwirkungen beleuchtet und intensive Diskussionen hierzu angestoßen. Die im vorliegenden Tagungsband versammelten Beiträge reflektieren das facettenreiche Tagungsprogramm und zeigen damit das breite Spektrum des Zusammenwirkens von Innovation und Information auf. An dieser Stelle sei allen gedankt, die an der Vorbereitung und Durchführung der Tagung beteiligt waren und die zum Gelingen des Tagungsbands beigetragen haben. Stuttgart, im Mai 2011
Meike Tilebein
Inhaltsverzeichnis Forum 1 Innovationskompetenzen Switbert Miczka, Christian Weitert und Peter M. Milling Die Geister, die ich rief – Zur Gefahr der Erosion technologischer Markteintrittsbarrieren durch Kompetenzverschiebungen in Forschung und Entwicklung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15 Stefan N. Grösser und Markus Schwaninger Lerneffekte durch computerbasierte Simulatoren: Status Quo und Hypothesen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33 Thomas Klug und Kai Neumann Der langfristige Wertbeitrag eines ganzheitlichen Management-Trainings – eine dynamische Simulation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47 Ingo Leisten und Frank Hees Strategische Transferkommunikation von Innovations- und Forschungswissen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55 Ralf Isenmann, Benjamin Teufel und Marion Weissenberger-Eibl Softwaregestütztes Technologie-Roadmapping – Unterstützungspotenziale, Werkzeuge, Empfehlungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71 Jan Buchmann and Meike Tilebein Design Aspects of Idea Management Systems . . . . . . . . . . . . . . . . . . . . . . . . . 89
10 Inhaltsverzeichnis Forum 2 Informations- und Kommunikationssysteme im Innovationsmanagement Daniel Schilberg Digitale Produktion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109 Anja Kreidler und Tobias Maschler Ein ontologiebasiertes IuK-System zur innovationsbegleitenden Qualifikationsentwicklung im Unternehmen am Beispiel eines Entwicklungs- und Prüflabors . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 121 Tobias Maschler und Heiko Matheis Konzepte zur Gestaltung von Ontologien für individualisierte Produktionsprozesse – Ergebnisse von Fallstudien . . . . . . . . . . . . . . . . . . . . . 131
Forum 3 Innovation in Netzwerken Bernd Schiemenz Förderung effektiver und effizienter Innovationen in Unternehmensnetz werken durch Kreativität, Wissensverteilung und Vertrauen . . . . . . . . . . . . . . 145 Frank Drews Risikomanagement als integraler Bestandteil stufenübergreifender Innovationsprozesse: Einsatzmöglichkeiten der FMEA . . . . . . . . . . . . . . . . . . 159 Florian Welter, Claudia Jooß, Anja Richert und Sabina Jeschke Der Exzellenzcluster „Integrative Produktionstechnik für Hochlohnländer“ an der RWTH Aachen – Management und Controlling von Interdisziplinarität . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 175 Thilo Münstermann, Jessica Koch, Raphaela Bruch und Ingrid Isenhardt Open Innovation als Zukunftsstrategie für kleine und mittelständische Unternehmen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 191 Christian Mieke Innovationen in Ideen-Netzwerken . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 205
Inhaltsverzeichnis11 Ronald Billen Innovationen in Netzwerken – Wissensentstehung und -verteilung in Wissensnetzwerken . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 219 Björn Hobus und Marcus Lorenz Innovation durch Kooperation: Dynamische Betrachtung des inter organisationalen Wissenstransfers in strategischen Netzwerken . . . . . . . . . . . 233
Forum 4 Smart Networks Thomas Fischer und Sven-Volker Rehm Konzeption, Methodik und Technologie kollaborativer Innovationsprozesse in Wertschöpfungsnetzwerken . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 253 Michael Weiß Modellierung von ‚Smart Networks‘ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 265 Armin Lau Modellgestützte Anwendungsentwicklung von Methoden zur kollaborativen Innovation in Smart Networks . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 281 Manuel Hirsch Integration von Wissen in Innovationsnetzwerken mithilfe eines ontologie basierten Entscheidungsunterstützungssystems . . . . . . . . . . . . . . . . . . . . . . . . 295
Forum 5 Gestaltung von Innovationsteams Esther Borowski und Klaus Henning Agile Prozessgestaltung und Erfolgsfaktoren im Produktionsanlauf als komplexer Prozess . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 313 Michael W. Busch Fluktuation in Teams – Mitgliederwechsel erfolgreich bewältigen . . . . . . . . . 331 Falko E. P. Wilms DIALOG als Kunst, gemeinsam zu denken . . . . . . . . . . . . . . . . . . . . . . . . . . . 349
12 Inhaltsverzeichnis Forum 6 Modellierung und Simulation für Innovationsprozesse Andreas Thümmel Cooperation and Egoism in a World with Innovation – a Game Theoretic Analysis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 365 Andreas Größler Produktdiffusion in „the Long Tail“ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 373 Nicole Zimmermann und Peter Milling Die Bedeutung der Aufmerksamkeit des Managements auf Stakeholder für eine innovative Ausrichtung von Unternehmen . . . . . . . . . . . . . . . . . . . . . . . . 381 Florian Kapmeier Systemdynamische Überlegungen zum Portfoliomanagement – dargestellt am Beispiel eines europäischen Automobilherstellers . . . . . . . . . . . . . . . . . . . 395 Autorenverzeichnis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 409
Forum 1
Innovationskompetenzen
Die Geister, die ich rief – Zur Gefahr der Erosion technologischer Markteintrittsbarrieren durch Kompetenzverschiebungen in Forschung und Entwicklung Von Switbert Miczka, Christian Weitert und Peter M. Milling
A. Das zweischneidige Schwert der F&E-Kooperation Der sich ständig verschärfende Technologiewettbewerb, verkürzte Innovationszyklen und steigende Produktkomplexität haben Industrieunternehmen über die letzten Jahre veranlasst, tiefgreifende Veränderungen im Forschungs- und Entwicklungsbereich vorzunehmen: Produktmodularisierung erlaubt es, die in der Produktentwicklung zu bewältigende technologische und organisatorische Komplexität signifikant zu reduzieren.1 Open Innovation bindet systematisch unternehmensextern generierte Ideen in den Innovationsprozess ein und forciert die gezielte Verwertung von Entwicklungen und Patenten durch Vermarktung an Dritte.2 Eine Konzentration der OEM (Original Equipment Manufacturer) auf die „Systemintegration“ in Entwicklung und Produktvermarktung gelten verbunden mit einer Verringerung der Fertigungstiefe als erfolgversprechend, wie Beispiele aus der Automobiloder Computerindustrie zeigen.3 Die Veränderungen beeinflussen die Verteilung der Kompetenzen zwischen dem OEM und seinen Zulieferern im Innovationsprozess: Der OEM wendet sich zunehmend der Integration einer steigenden Zahl zunehmend komplexerer Module zu, wohingegen die Entwicklung dieser immer aufwändigeren Komponenten maßgeblich bei den Zulieferern erfolgt.4 Daraus können sich eine Reihe von insbesondere für den OEM strategisch bedeutsamen Implikationen ergeben. So besteht zum einen die Gefahr einer nachhaltigen Erosion der vormals (teil-)exklusiven Entwicklungskompetenz des 1 Vgl. Hayes / Pisano / Upton / Wheelwright (2005): S. 14 f. sowie Mikkola (2003): S. 439f. sowie Baldwin / Clark (2003): S. 149 ff. 2 Vgl. Chesbrough (2006): S. 2, Mondragon / Mondragon / Miller (2006): S. 346. 3 Vgl. Veloso / Fixson (2001): S. 239 ff. sowie Langlois / Robertson (1992): S. 297 f. sowie Miguel / Pires (2006): S. 315 ff. 4 Vgl. Batchelor (2006): S. 276 f.
16
Switbert Miczka, Christian Weitert und Peter M. Milling
OEM. Die kurzfristige Exklusivität von Innovationen, die OEM und Zulieferer ggf. gemeinsam entwickeln, ist vertraglich zu gewährleisten.5 Langfristig könnte die Aufgabenverteilung jedoch zu einem nachhaltigen Aufbau von Kompetenz in der Komponentenentwicklung beim Zulieferer führen und sie damit auch anderen Wettbewerbern zugänglich machen.6 Zum zweiten unterstützt die wachsende Komplexität der Endprodukte Bestrebungen zur Vereinheitlichung der Schnittstellen zwischen Komponenten. Damit besteht die Gefahr, dass die zum Nachteil der Komponentenentwicklung aufgebaute „Integrationskompetenz“ des OEM an Bedeutung verliert.7 In ihrer Kombination könnten die vorgenannten Tendenzen neuen Wettbewerbern den Markteintritt erleichtern, indem technologische Eintrittsbarrieren nachhaltig erodieren: Expertise in der Komponentenentwicklung ist über die Zulieferer zugänglich, die zur Integration der verschiedenen Komponenten notwendige Kompetenz nimmt ab. Durch gezielten Zugriff auf im Markt zugängliche Entwicklungsexpertise bietet sich neuen Wettbewerbern damit die Möglichkeit, den langwierigen, selbständigen Aufbau von Fähigkeiten und Kompetenzen in der Entwicklung und Fertigung technologisch kom plexer Produkte substantiell abzukürzen.8 Dies impliziert, dass just jene Mechanismen, die entwickelt wurden, um mit aggressiverem Wettbewerb Schritt halten zu können, ihn im Gegensatz zur ursprünglichen Intention weiter befeuern und zu einer nachhaltigen Erosion von Technologieführerschaft beitragen.9 Koreanische Automobilhersteller bieten eine interessante Illustration der hier umrissenen Problematik. Innerhalb einer Zeitspanne von weniger als 20 Jahren haben sie sich von Lizenzproduzenten veralteter, in den westlichen Märkten bereits aus dem Produktprogramm ausgemusterter Fahrzeuge zu etablierten Konkurrenten z. B. auf dem US-amerikanischen Fahrzeugmarkt entwickelt. So hat beispielsweise der Hersteller Kia mit seinem Produkt „Borrego“ ein leistungsstarkes Sport Utility Vehicle (SUV) im Programm, a. Rückfahrkamera, welches mit modernster technischer Ausstattung (u. Radio-Navigationssystem oder Mehrzonen-Klimaanlage), umfangreichem Sicherheitspaket und modernem Design zu einem vergleichsweise niedrigen
5 Vgl.
Shirley (2009): S. 431. Wagner / Hoegl (2006): S. 939 sowie McDermott / Handfield (2000): S. 44 sowie Gilley / Rasheed (2000): S. 766 f. 7 Vgl. Chen / Liu (2005): S. 776. Die Bedeutung der Systemintegration für etablierte Unternehmen und ihre dominante Markstellung wird auch durch die ungleich größere Bedrohung durch radikale Innovationen im Vergleich Neuerungen auf Komponentenebene herausgestellt. Vgl. hierzu Henderson / Clark (1990): S. 9 ff. 8 Vgl. Eisenhardt / Tabrizi (1995): S. 84. 9 Vgl. Cantwell / Andersen (1996): S. 221 ff. 6 Vgl.
Die Geister, die ich rief17
Preis angeboten wird.10 Ein Rückblick zeigt, dass Kia keine 20 Jahre zuvor auf niedrigstem technischen Niveau Geländefahrzeuge in Lizenz gefertigt hat, welche zu dieser Zeit in westlichen Märkten bereits nicht mehr abzusetzen gewesen wären.11 Muss das Beispiel Kias als eine Ausnahmeerscheinung angesehen werden oder ist sie vielmehr das Symptom einer nachhaltigen Erosion technologischer Markteintrittsbarrieren, welche die westlichen Automobilhersteller durch Technologieführerschaft zuvor aufgebaut hatten? Dierickx und Cool argumentieren, dass Akkumulationsprozesse, wie sie z. B. in Form von Lernprozessen ablaufen nicht beliebig durch erhöhten Ressourceneinsatz oder andere Maßnahmen verkürzt werden können. Diese time compression diseconomies sehen sie als eine der grundsätzlichen Ursachen eines nachhaltigen, ressourcenbasierten Wettbewerbsvorteils.12 Aufgrund abnehmender Grenzerträge führt erhöhter Ressourceneinsatz nur zu unterproportionalem Wachstum des Outputs. Daraus lässt sich die Möglichkeit ableiten, durch nachhaltige Forschungs- und Entwicklungsinvestitionen einen dauerhaften, schwer zu imitierenden Wettbewerbsvorteil und gegebenenfalls Markteintrittsbarrieren zu etablieren. Ein selbstverstärkender Effekt aus der Anhäufung erfolgreicher F&E-Kompetenz unterstützt diese Entwicklung und vergrößert Dierickx und Cool zufolge den Technologievorsprung weiter: „The underlying notion is that ‚success breeds success‘: historical success translates into favorable initial asset stock positions which in turn facilitate further asset accumulation.“13 Wie ist eine gegenteilige Entwicklung wie im hier erläuterten Beispiel von Kia zu erklären? Für eine nähere Untersuchung soll in einem ersten Schritt die zugrundeliegende Problemstruktur konzeptionell gefasst werden. Es ist zu beobachten, dass komplexe Produktentwicklungsprozesse in den seltensten Fällen von einem Unternehmen alleine bearbeitet werden. Vielmehr wird die Entwicklungsarbeit aufgeteilt zwischen den OEMs als eigentlichen Anbietern des zu entwickelnden Produktes und einer Vielzahl von Zulieferern.14 Dabei werden zum einen solche Entwicklungsaufgaben den Zulieferern übertragen, die spezifische Kompetenzen erfordern, welche der OEM nicht in ausrei-
10 Beispielhaft stellt ein Automobiltest der Washington Post fest: „[…] the Borrego’s clever inclusion of advanced infotainment technology as standard equipment at an exceptionally competitive price, it is better than its rivals“, Brown (2009): S. 17. 11 Vgl. Monaghan (2008): S. 30 ff. 12 Vgl. Dierickx / Cool (1989): S. 1507. 13 Dierickx / Cool (1989): S. 1507. 14 Vgl. Gilley / Rasheed (2000): S. 765.
18
Switbert Miczka, Christian Weitert und Peter M. Milling
Abbildung 1: Grundsätzliche Problemstruktur
chendem Maße besitzt.15 Zum anderen besteht die Möglichkeit, in umfangreichen Entwicklungsprojekten durch die Einbindung der Zulieferer auf zusätzliche F&E-Kompetenz zuzugreifen, um die anstehenden Entwicklungsaufgaben durch parallele Bearbeitung in kürzerer Zeit erfüllen zu können. Eine Weitergabe von Entwicklungsaufträgen an Zulieferer oder spezialisierte Dienstleister ist somit auch als eine temporäre Erweiterung der Entwicklungskapazitäten anzusehen.16 Der Trend zur Modularisierung von Produkten lässt es zudem zu, zwei unterschiedliche Aufgabenbereiche innerhalb der Produktentwicklung zu unterscheiden. In der Komponentenentwicklung werden einzelne, für sich abgeschlossene Bausteine des Gesamtproduktes entworfen. Diese Aufgabe können zwischen dem OEM und seiner Zuliefererbasis aufgeteilt werden, um spezifische Kompetenzen der einzelnen Entwicklungspartner zu nutzen. Eine Verringerung der Entwicklungstiefe des OEM ist die Folge.17 Dem OEM obliegt darüber hinaus jedoch auch die Aufgabe, die einzelnen Komponenten miteinander in einem Endprodukt zu integrieren.18 Diese Aufgabe der Systemintegration kann nicht von den Zulieferern übernommen werden. Im Umkehrschluss ergibt sich, dass eine Produktmodularisierung nur dann 15 Vgl. Quinn (1999): S. 9 f. Unzureichende interne Expertise ist neben der Verkürzung der time-to-market der wichtigste Grund für das Outsourcing von Entwicklungstätigkeiten. Hierzu vgl. Howells / Gagliardi / Malik (2008): S. 211. 16 Vgl. Ulset (1996): S. 65. 17 Vgl. Clark (1989): S. 1247 f. sowie vgl. Gilley / Rasheed (2000): S. 766 f. 18 Vgl. Henderson / Clark (1990): S. 9.
Die Geister, die ich rief19
sinnvoll umgesetzt werden kann, wenn der OEM über eine entsprechende Kompetenz hinsichtlich der Systemintegration verfügt. Wie Abbildung 1 verdeutlicht, greifen unterschiedliche OEMs auf eine grundsätzlich gleiche Zuliefererbasis zurück. Durch ihre jeweilige Integrationsleistung, die vom OEM selbst entwickelten Komponenten sowie die entsprechenden Entwicklungsvorgaben an die Zulieferer ergeben sich trotz der gemeinsamen Nutzung der spezifischen Kompetenzen der Zulieferer letztlich unterschiedliche Endprodukte.19 Die Differenzierung erfolgt dabei zunehmend nur bei ausgewählten Produktmerkmalen, welche in der Kundenwahrnehmung als zentrale Differenzierungsmerkmale des OEM aufgefasst werden.
B. Ein System Dynamics Modell zur Untersuchung der Effekte einer F&E-Kooperation I. Dynamische Hypothese und methodisches Vorgehen Der Beitrag untersucht die Hypothese, dass aus Entwicklungskooperationen zwischen OEMs und Zulieferern eine Verschiebung von Entwicklungskompetenzen resultiert, welche technologisch begründete Markt eintritts barrieren für neue Wettbewerber des OEMs nachhaltig erodieren kann. Dazu soll mithilfe eines System-Dynamics-Modells die oben porträtierte Problemstruktur abgebildet und auf ihre dynamischen Implikationen hin untersucht werden, indem die kurz- und langfristigen Auswirkungen einer Veränderung in den Kompetenzprofilen von OEM und Zulieferer in einer durch intensiven Technologiewettbewerb gekennzeichneten Branche simuliert werden. Eine solche Analyse kann dazu beitragen, die langfristig wirksamen Rückkopplungsbeziehungen aufzuzeigen und zu verstehen, durch welche eine Kooperation, die ursprünglich einer Stärkung der Wettbewerbsfähigkeit durch schnellere Marktreife der eigenen Produkte dienen sollte, unter Umständen zu unerwünschten Effekten führen und den Wettbewerb fördern kann. Durch Überführung von verbal formulierten Hypothesen in ein formal-mathematisches Modell erlaubt System Dynamics eine Überprüfung der logischen Kohärenz des Annahmengerüstes.20 Darüber hinaus kann so das komplexe Zusammenspiel abgebildet werden und Rückschlüsse vom Verhalten auf die Struktur und vice versa gezogen werden.21 19 Vgl. Ulrich (1995): S. 419 ff. sowie Salvador / Forza / Rungtusanatham (2002): S. 553 f. 20 Für ein Beispiel der Überprüfung eines theoretischen Hypothesengeflechts mittels System Dynamics vgl. Sastry (1997): S. 237 ff. 21 Vgl. Lane (1999): S. 501 f.
20
Switbert Miczka, Christian Weitert und Peter M. Milling
Als eine Strukturtheorie sozioökonomischer Systeme sucht System Dynamics eine Erklärung für das beobachtete Verhaltens in ihrer Struktur. Diese Struktur besteht dem Ansatz folgend aus Rückkopplungen, Akkumulationsprozessen und Verzögerungen zwischen Ursache und Wirkung. Die Komplexität sozioökonomischer Systeme erschwert sowohl eine ex ante Vorhersage als auch das ex post Verständnis der langfristigen Konsequenzen einer Strategie oder Handlung.22 System Dynamics erscheint als angemessene Forschungsmethode für die hier untersuchte Fragestellung, da bereits aus der einführenden Problemskizzierung die genannten, typischen Charakteristika sozioökonomischer Systeme abzulesen sind. Sowohl die Akkumulation von Fähigkeiten, die Haupt- und Nebenwirkungen der Fremdvergabe von Entwicklungsleistungen als auch die Verzögerung der Auswirkungen dieser auf den Wettbewerb sind eindeutige Indikatoren des Vorliegens eines systemdynamischen Problems. II. Struktur des Simulationsmodells Die kausalen Zusammenhänge des hier betrachteten Problems sollen mithilfe einer möglichst einfachen, zugleich aber aussagekräftigen Modellstruktur abgebildet werden. Als Ausgangspunkt kann die in Abbildung 1 dargestellte, grundsätzliche Problemstruktur herangezogen werden, wonach das Modell im Kern zwei oder mehr konkurrierende OEMs sowie eine gemeinsame Basis an Zulieferern abbilden muss. Die Entwicklung von neuen Komponenten kann entweder durch OEMs oder die Zulieferer erfolgen, die Systemintegration ist alleinige Aufgabe der OEMs. Jeder der Akteure baut mit zunehmender Erfahrung wachsende Fähigkeiten hinsichtlich der Ausführung seiner Entwicklungsaufgaben auf. Abbildung 2 gibt die Struktur des Simulationsmodells wieder. Zentraler Strukturbestandteil ist eine Aging Chain, welche die Abarbeitung von Entwicklungsaufgaben darstellt. An ihrem Anfang steht die Notwendigkeit, neue Produktmerkmale anzubieten und damit der Bedarf einer Neuent wicklung von Komponenten, welche diese bieten können (demand for components).23 Der aus der Nachfrage nach neuen Komponenten wachsende Bestand an nicht abgearbeiteter Komponentenentwicklung (components to be developed) kann durch den OEM selbst (component development) oder durch Auftragsentwicklung der Zulieferer abgearbeitet werden. Die entwickelten Komponenten müssen im nächsten Schritt in das Endprodukt integ22 Vgl.
Größler / Thun / Milling (2008): S. 373. bzw. unmittelbare Bezugnahmen darauf werden zur besseren Nachvollziehbarkeit und Vergleichbarkeit mit Abbildung 2 im Text kursiv dargestellt. 23 Variablennamen
Abbildung 2: Kausalstruktur des Simulationsmodells
Die Geister, die ich rief21
22
Switbert Miczka, Christian Weitert und Peter M. Milling
riert werden.24 Diese Systemintegration erbringt der OEM exklusiv. Im Endprodukt integrierte Komponenten werden nach einer gewissen Zeit obsolet. Die Fähigkeiten zur Komponentenentwicklung (cd capability und supplier cd capability) bzw. Systemintegration (si capability) bestimmen, wie schnell die entsprechenden Aufgaben abgearbeitet werden (abgebildet durch oem cd time, supplier cd time und si time). Sie speisen sich wiederum aus den bisher bereits abgearbeiteten Entwicklungsaufgaben, erodieren andererseits jedoch auch im Zeitablauf, z. B. aufgrund technologischen Wandels.25 Für jede Komponente und für jedes Interface zwischen zwei zu integrierenden Komponenten wird ein fixer Workload angenommen. Die Anzahl der Interfaces bestimmt sich aus der Anzahl der neuen, zu integrierenden Komponenten und der Anzahl der bereits im Endprodukt integrierten Komponenten sowie der Konnektivität als Maßzahl für die Verknüpfungsdichte.26 Die Vergabe von Entwicklungsaufträgen vom OEM an den Zulieferer – der share supplier development – wird durch eine am Absatzmarkt orientierte Policy gesteuert: Aus der si time und der cd time wird berechnet, wie lange es zur Marktreife der neuen Komponente (d. h. Entwicklung plus Integration) dauert (time-to-market). Der Vergleich mit einer akzeptablen time-to-market ergibt, in welchem Umfang zusätzliche Entwicklungsarbeit der Zulieferer angefordert wird. Dabei wird unterstellt, dass zunächst kleine Zeitabweichungen nur in geringem Maße zu einer Fremdvergabe führen. Der Druck dazu steigt jedoch überproportional mit der befürchteten Zeitabweichung. III. Simulationsergebnisse Aus Gründen der Übersichtlichkeit ist in der Visualisierung der Modellstruktur der OEM nur ein einziges Mal abgebildet. Über eine Indizierung der entsprechenden Variablen können jedoch auch mehrere OEMs gleichzeitig in der Simulation berücksichtigt werden. 24 Es sei an dieser Stelle angemerkt, dass die hier gewählte Darstellung einer strikt sequentiellen Abfolge von Komponentenentwicklung und Systemintegration eine Vereinfachung darstellt. In der Realität sind Iterationen zwischen beiden Arbeitsschritten möglich. Da jedoch aufgrund des kontinuierlichen Simulationsansatzes nicht nur fertige Komponenten, sondern bereits Teile davon zur Integration weitergeleitet werden, ist dies im Modellverhalten hinreichend genau abgebildet. 25 Vgl. Rahmandad / Repenning (2009): S. 4 f. sowie Warren (2002): S. 21 f. 26 Zum Begriff der Konnektivität vgl. Milling (1981): S. 91 sowie Milling (2002): S. 11 f. Es kann z. B. davon ausgegangen werden, dass chemische Produkte eine höhere Verknüpfungsdichte ausweisen als mechanische, da jede Komponente bei gleicher Gesamtzahl an Komponenten mit einer ungleich höheren Anzahl an anderen in Verbindung steht.
Die Geister, die ich rief23
Abbildung 3: Basislauf
Mithilfe mehrerer Simulationsläufe soll nun das dynamische Verhalten analysiert werden, welches durch die dargestellte Kausalstruktur erzeugt wird. In den folgenden Abbildungen wird dazu jeweils das Verhalten zentraler Variablen getrennt für zwei OEMs (OEM1 im oberen, OEM2 im unteren Schaubild) dargestellt. Im Basislauf (vgl. Abbildung 3) ist das folgende Szenario wiedergegeben. OEM1 stellt ein technisch anspruchsvolles Produkt her. Durch kontinuierliche Entwicklungstätigkeit wird genau die Anzahl an Komponenten, welche aufgrund des technologischen Wandels veraltet, wieder durch Neuentwicklungen ersetzt. Die Nachfrage nach Entwicklungsleistung und die angebote-
24
Switbert Miczka, Christian Weitert und Peter M. Milling
ne Entwicklungskapazität befinden sich einem Gleichgewicht. Dementsprechend zeigt sich für OEM1 in Abbildung 3 keine auffällige Dynamik. Das zweite betrachtete Unternehmen (OEM2) bietet zunächst ein technisch minderwertiges Produkt an. Es besteht nur aus 20 Komponenten im Vergleich zu den 60 Komponenten des Produktes von OEM1. Auch OEM2 entwickelt anfangs exakt die Anzahl an Komponenten neu, die technisch jeweils obsolet werden. Zum Zeitpunkt t = 60 entscheidet sich OEM2 nun, im „Premiumsegment“ tätig werden zu wollen, in dem OEM1 aktiv ist. Daraus ergibt sich ein deutlich erhöhter Bedarf an Komponentenentwicklung, der jedoch auf begrenzte Entwicklungskapazitäten trifft. Dementsprechend steigt die time-to-market massiv an (Graph 4). Als Konsequenz steigt der Anteil an Entwicklungsaufträgen, welche an Zulieferer vergeben werden (Graph 6): wodurch es möglich ist, die Entwicklungslücke sukzessive zu schließen. Graph 2 steigt entsprechend mit Verzögerung auf das Niveau von Graph 1, wodurch technischer Gleichstand zwischen beiden Produkten zum Ausdruck kommt. Die time-to-market sinkt auf ein akzeptables Niveau (Graph 4) und der Anteil der fremdvergebenen Entwicklungsaufträge geht ebenfalls wieder zurück. OEM2 hat es mithilfe der Unterstützung durch seine Zulieferer geschafft, innerhalb von ca. 150 Monaten zu OEM1 aufzuschließen. Als zweites Szenario – vgl. dazu die nachfolgende Abbildung 4 – sehen sich die beiden Hersteller mit ständig wachsenden Kundenansprüchen der Premiumkunden konfrontiert. Dieser Trend setzt nach den ersten 20 Monaten der Simulation ein. Dementsprechend besteht ab diesem Zeitpunkt eine ständige Nachfrage nach neuen Komponenten, die über der Veralterungsrate der bisherigen Komponenten liegt und wiederum auf begrenzte Entwicklungskapazitäten trifft. Nun sieht auch OEM1 es als notwendig an, Entwicklungsaufträge an seine Zulieferer zu vergeben (Graph 5). OEM1 gelingt es, in ein dynamisches Gleichgewicht zu kommen, in welchem er eine stetig wachsende Zahl an Komponenten in seinen Produkten anbietet (Graph 1). Durch die anfangs starke Einbindung der Zulieferer kann er seine time-tomarket trotz der herausfordernden Situation nach einem zwischenzeitlichen Anstieg wieder auf ein akzeptables Niveau reduzieren (Graph 3) und als Konsequenz die Unterstützung durch den Zulieferer zurückfahren. OEM2 steht einer ungleich größeren Herausforderung gegenüber. Er tritt zum Zeitpunkt t = 60 in einen sich dynamisch entwickelnden Markt ein und sieht sich einer drastisch erhöhten time-to-market gegenüber (Graph 4). Durch eine Zuliefererquote von ca. 95 % gelingt es ihm jedoch – wenn auch nach einer deutlich längeren Anlaufphase als im Basisszenario – zu OEM1 aufzuschließen (Graph 2). Die Anzahl der integrierten Komponenten für OEM2 überschießt hier sogar, was bedeutet, dass er zwischenzeitlich das
Die Geister, die ich rief25
Abbildung 4: Steigende Kundenerwartungen und Eintritt von OEM2 in den Premiummarkt
technisch aufwändigere Produkt anbietet. Der starke Zugriff auf die Entwicklungskompetenzen der Zuliefererbasis bleibt langfristig bestehen. Für dieses zweite Szenario ergibt sich nun eine interessante Dynamik hinsichtlich der Fähigkeitsprofile der beiden OEMs sowie des Zulieferers (vgl. Abbildung 5). Die Graphen 1 und 2 geben den bereits aus der vorigen Abbildung bekannten supplier share wieder. Für OEM1 zeigt sich, dass er auf die steigenden Kundenansprüche zunächst nur mit Fremdvergabe reagiert und seine eigenen Fähigkeiten in der Komponentenentwicklung nicht ausbaut (Graph 3). Ebenso entscheidet OEM2, nur aufgrund seines verspä-
26
Switbert Miczka, Christian Weitert und Peter M. Milling
Abbildung 5: Entwicklung der Fähigkeitsprofile bei steigenden Kundenerwartungen
teten Markteintritts mit einer gewissen Verzögerung (Graph 4). Aus den Verläufen 5 und 6 wird deutlich, dass die wahre Herausforderung in diesem Szenario nicht in der Komponentenentwicklung liegt, sondern vielmehr massiv in die Fähigkeiten zu Systemintegration investiert werden muss, um der steigenden Komplexität der Endprodukte gerecht werden zu können (Graphen 5 und 6). Diese Aufgabe übersteigt den im gesamten betrachteten Zeithorizont anfallenden Bedarf an Komponentenentwicklung drastisch. Der Zulieferer baut im Zuge dieses Szenarios sukzessive die größten Fähigkeiten bei der Komponentenentwicklung auf (Graph 7). Die umfang-
Die Geister, die ich rief27
reiche Fremdvergabe macht dies möglich und bringt so die OEMs in eine gewisse Abhängigkeit. Durch das „Pooling“ der Entwicklungsaufträge von beiden OEMs besteht für den Zulieferer die Möglichkeit, den von Dierickx und Cool beschrieben „success breeds success“-Effekt voll auszunutzen. Erst mit deutlich steigenden Fähigkeiten der OEMs zur Eigenentwicklung von Komponenten geht die Dominanz des Zulieferers in diesem Bereich wieder zurück. Die Auswirkungen der beobachteten Kompetenzverschiebung bei der Komponentenentwicklung hin zu den Zulieferern sollen nun in einem dritten Szenario untersucht werden. Wieder wird ein Markt mit steigenden Kundenansprüchen im Premiumsegment simuliert, analog zum zweiten Szenario. Als Variation tritt nun OEM2 jedoch erst deutlich später, nämlich bei t = 180 im Vergleich zu t = 60 in diesen Markt ein. Der Technologierückstand von OEM2 ist nun deutlich größer als zuvor, da die Lücke zwischen der ihm verfügbaren Technologie und der am Markt geforderten wie auch der von OEM1 bereits gebotenen deutlich größer ist. Dementsprechend sieht sich OEM2 mit einer signifikant schlechteren Ausgangssituation konfrontiert. Aber: Bereits im zweiten Szenario hat er, wie gezeigt, mit einer Fremdvergabe von 95 % der Komponentenentwicklung reagiert. Dies ist kaum zu steigern, begegnet jedoch einer deutlich höheren Kompetenz des Zulieferers, der bereits aus den umfangreichen Entwicklungsaufträgen des OEM1 – die Reaktion auf die steigenden Marktanfor derungen – große Fähigkeiten in der Komponentenentwicklung aufgebaut hat. Dieser Umstand führt zu einem überraschenden Resultat, wie Abbildung 6 (siehe S. 28) verdeutlicht: Tatsächlich verkürzt sich für OEM2 bei einem späteren Markteintritt die Zeit bis zu technologischem Gleichstand im Vergleich zum vorigen Szenario. Statt ca. 200 Monaten benötigt er aufgrund der verfügbaren Entwicklungskapazitäten des Zulieferers nun nur rund 155 Monate, um das Leistungsniveau von OEM1 zu erreichen.
28
Switbert Miczka, Christian Weitert und Peter M. Milling
Abbildung 6: Beschleunigte Entwicklung aufgrund verfügbarer Zuliefererkompetenz
C. Fazit Die Simulationsstudie zeigt die Bedeutung langfristig wirksamer Kompetenzverschiebungen auf und illustriert das sensible Gleichgewicht zwischen Integrations- und Entwicklungskompetenz sowie der technologischen Affinität des Marktes, welches durch geringe marktseitige Veränderungen nachhaltig gestört werden kann und überraschende Entwicklungsmöglichkeiten für neue Wettbewerber in einem technologisch anspruchsvollen Markt hervorruft. Die Szenarien zeigen auf, dass durch die Auslagerung von Entwicklungstätigkeit bei stark modularisierten Produkten eine signifikante Mög-
Die Geister, die ich rief29
lichkeit besteht, langjährige Erfahrung eines OEMs in der Komponentenentwicklung zu neutralisieren. Mit Hilfe eines Satzes von Strukturhypothesen, wie sie in dem hier verwendeten System-Dynamics-Modell verwendet werden, kann aufgezeigt werden, dass entgegen der Annahmen von Dierickx und Cool durchaus Potenzial für „time-compression economies“ im F&EBereich besteht. Die Vergabe von Entwicklungsaufträgen an den Zulieferer stellt für OEM1 ursprünglich einen Ausweg dar, um dem steigenden Entwicklungsbedarf aufgrund wachsender Kundenansprüche zu begegnen. Diese nahe liegende Lösung erodiert jedoch langfristig die technologische Markteintrittsbarriere, welche OEM1 durch den langjährigen Aufbau von Fähigkeiten zur Komponentenentwicklung geschaffen hatte. Es erscheint nicht möglich, diesen nicht intendierten, nachteiligen Effekt zu unterbinden. Er beruht ausdrücklich in dem hier dargestellten Modell nicht auf der Verwendung standardisierter Komponenten, die ein neuer Wettbewerber als Grundlage für einen Markteintritt nutzt, sondern auf den unterliegenden Entwicklungsfähigkeiten des Zulieferers. Während der Zugriff auf fertig entwickelte Komponenten vom ursprünglichen Auftraggeber reglementiert werden könnte, erscheint es nicht möglich, die Nutzung der abstrakten Fähigkeiten eines Entwicklerteams nachhaltig zu beschränken. Diese ernüchternde Erkenntnis zeigt großes Potenzial für den Markteintritt in attraktive Premiummärkte auf, weist zugleich aber darauf hin, dass eine Vergabe von Entwicklungsaufträgen an Zulieferer aus strategischer Sicht wohl bedacht sein sollte.
Literaturverzeichnis Baldwin, C. Y. / Clark, K. B. (2003), Managing in an age of modularity, in: Raghu Garud, A. K. / Richard N. Langlois (Hrsg.): Managing in the modular age: architectures, networks, and organizations, Oxford 2003. Batchelor, J. (2006), Modularisation and the changing nature of automotive design capabilities, in: International Journal of Automotive Technology and Management, 6. Jg., 2006, Nr. 3, S. 276–297. Brown, W. (2009), Too Much of an SUV, Too Late in the Game, in: The Washington Post, 2009, Ausgabe vom 24. Mai. Cantwell, J. / Andersen, B. (1996), A Statistical Analysis of Corporate Technological Leadership Historically, in: Economics of Innovation and New Technology, 4. Jg., 1996, Nr. 3, S. 211–234. Chen, K.-M. / Liu, R.-J. (2005), Interface strategies in modular product innovation, in: Technovation, 25. Jg., 2005, Nr. 7, S. 771–782.
30
Switbert Miczka, Christian Weitert und Peter M. Milling
Chesbrough, H. W. (2006), Open innovation: a new paradigm for understanding industrial innovation, in: Chesbrough, H. W. / Vanhaverbeke, W. / West, J. (Hrsg.): Open innovation: researching a new paradigm, Oxford 2006, S. 1–14. Clark, K. B. (1989), Project Scope and Project Performance: The Effect of Parts Strategy and Supplier Involvement on Product Development, in: Management Science, 35. Jg., 1989, Nr. 10, S. 1247–1263. Dierickx, I. / Cool, K. (1989), Asset Stock Accumulation and Sustainability of Competitive Advantage, in: Management Science, 35. Jg., 1989, Nr. 12, S. 1504–1511. Eisenhardt, K. M. / Tabrizi, B. N. (1995), Accelerating Adaptive Processes: Product Innovation in the Global Computer Industry, in: Administrative Science Quarterly, 40. Jg., 1995, Nr. 1, S. 84–110. Gilley, K. M. / Rasheed, A. (2000), Making More by Doing Less: An Analysis of Outsourcing and its Effects on Firm Performance, in: Journal of Management, 26. Jg., 2000, Nr. 4, S. 763–790. Größler, A. / Thun, J.-H. / Milling, P. M. (2008), System Dynamics as a Structural Theory in Operations Management, in: Production & Operations Management, 17. Jg., 2008, Nr. 3, S. 373–384. Hayes, R. / Pisano, G. / Upton, D. / Wheelwrigh, S. (2005), Pursuing the Competitive Edge, Hoboken 2005. Henderson, R. M. / Clark, K. B. (1990), Architectural Innovation: The Reconfiguration of Existing Product Technologies and the Failure of Established Firms, in: Administrative Science Quarterly, 35. Jg., 1990, Nr. 1, S. 9–30. Howells, J. / Gagliardi, D. / Malik, K. (2008), The growth and management of R&D outsourcing: evidence from UK pharmaceuticals, in: R&D Management, 38. Jg., 2008, Nr. 2, S. 205–219. Lane, D. C. (1999), Social Theory and System Dynamics Practice, in: European Journal of Operational Research, 113. Jg., 1999, Nr. 3, S. 501–527. Langlois, R. N. / Robertson, P. L. (1992), Networks and innovation in a modular system: Lessons from the microcomputer and stereo component industries, in: Research Policy, 21. Jg., 1992, Nr. 4, S. 297–313. McDermott, C. / Handfield, R. (2000), Concurrent development and strategic outsourcing: Do the rules change in breakthrough innovation?, in: The Journal of High Technology Management Research, 11. Jg., 2000, Nr. 1, S. 35–57. Miguel, P. A. C. / Pires, S. R. I. (2006), A case study on modularity in product development and production within the auto industry, in: International Journal of Automotive Technology and Management, 6. Jg., 2006, Nr. 3, S. 315– 330. Mikkola, J. H. (2003), Modularity, component outsourcing, and inter-firm learning, in: R&D Management, 33. Jg., 2003, Nr. 4, S. 439–454. Milling, P. (1981), Systemtheoretische Grundlagen zur Planung der Unternehmenspolitik, Berlin 1981. – (2002), Kybernetische Überlegungen beim Entscheiden in komplexen Systemen, in: Milling, P. (Hrsg.): Entscheiden in komplexen Systemen, Berlin 2002, S. 406.
Die Geister, die ich rief31
Monaghan, M. (2008), Kia goes big with Borrego, in: Automotive Engineering International, 2008, Nr. 3, S. 30–32. Mondragon, C. E. C. / Mondragon, A. E. C. / Miller, R. (2006), Modularity, open architecture and innovation: an automotive perspective, in: International Journal of Automotive Technology and Management, 6. Jg., 2006, Nr. 3, S. 346–363. Quinn, J. B. (1999), Strategic Outsourcing: Leveraging Knowledge Capabilities, in: Sloan Management Review, 40. Jg., 1999, Nr. 4, S. 9–21. Rahmandad, H. / Repenning, N. (2009), The Dynamics of Capability Development and Erosion, Virginia Tech, S. 69. Salvador, F. / Forza, C. / Rungtusanatham, M. (2002), Modularity, product variety, production volume, and component sourcing: theorizing beyond generic prescriptions, in: Journal of Operations Management, 20. Jg., 2002, Nr. 5, S. 549–575. Sastry, M. A. (1997), Problems and Paradoxes in a Model of Punctuated Organizational Change, in: Administrative Science Quarterly, 42. Jg., 1997, Nr. 2, S. 237–275. Shirley, J. H. (2009), Information leakage in innovation outsourcing, in: R&D Management, 39. Jg., 2009, Nr. 5, S. 431–443. Ulrich, K. (1995), The role of product architecture in the manufacturing firm, in: Research Policy, 24. Jg., 1995, Nr. 3, S. 419–440. Ulset, S. (1996), R&D outsourcing and contractual governance: An empirical study of commercial R&D projects, in: Journal of Economic Behavior & Organization, 30. Jg., (1996): Nr. 1, S. 63–82. Veloso, F. / Fixson, S. (2001), Make-Buy Decisions in the Auto Industry: New Perspectives on the Role of the Supplier as an Innovator, in: Technological Forecasting and Social Change, 67. Jg. (2001): Nr. 2–3, S. 239–257. Wagner, S. M. / Hoegl, M. (2006), Involving suppliers in product development: Insights from R&D directors and project managers, in: Industrial Marketing Management, 35. Jg. (2006): Nr. 8, S. 936–943. Warren, K. (2002), Competitive Strategy Dynamics, 1. Aufl., Chichester 2002.
Lerneffekte durch computerbasierte Simulatoren: Status Quo und Hypothesen Von Stefan N. Grösser und Markus Schwaninger
A. Einleitung Angesichts aktueller wirtschaftlicher und gesellschaftlicher Entwicklungen, wie z. B. die Wirtschafts- und Währungskrise, ist es fragwürdig, ob traditionelle Ansätze zur Aus- und Weiterbildung von Führungskräften diesen Gegebenheiten Rechnung tragen. In komplexen, diskontinuierlichen Realitäten benötigen Unternehmenslenker adäquate Kompetenzen, um fundamentalen Veränderungen wirksam begegnen zu können. Empirische Studien lassen den Schluss zu, dass Führungskräfte nur unzureichend auf Komplexitätsschübe vorbereitet sind.1 Ein Grund dafür ist, dass Manager nur selten mit radikalen Veränderungen konfrontiert werden bzw. wurden und deshalb in kritischen Entscheidungssituationen nur selten auf adäquate Erfahrungen zurückgreifen können. Solche spezielle Krisenerfahrung zu erwerben ist ein zeitintensiver Prozess, welchen in Realität zu erleben nur selten möglich ist. Bei der Ausbildung von Führungskräften durch beispielsweise problembasierte Lernansätze (PBL) wird nicht nur versucht, die normale Wissensakkumulation anzuregen, sondern problematische Situationen zu erzeugen, mit deren Auseinandersetzung die Teilnehmenden wertvolle Erfahrungen sammeln können. Hierbei nehmen computerbasierte Simulatoren eine essenzielle Rolle ein. Obwohl solche schon seit den 1950iger Jahren zur Ausbildung eingesetzt werden, gelangen sie erst in Anbetracht aktueller Entwicklungen stärker in das Zentrum der Aufmerksamkeit.2 Die Tatsache, dass Unternehmen vermehrt Aus- und Weiterbildungsangebote bevorzugen, welche Simulationsplanspiele beinhalten, ist ein weiterer Indikator für die neue Fokussierung. Branchenexperten bestätigen das Wachstum im relevanten Seminargeschäft mit durchschnittlich acht Prozent per annum. Dieses größere Vertrauen fordert die aktuelle Forschung auf, simulationsbasierte Lernmethoden mit an1 Vgl.
Mintzberg (2004) und Atwater (2008). Entwicklungen werden in folgenden Arbeiten thematisiert: Dörner / Schaub (1992), Wolfe (2004), Keys / Wolfe (1990), Lane (1995) und Romme (2003). 2 Diese
34
Stefan N. Grösser und Markus Schwaninger
deren zu vergleichen. Inwieweit sind die Erwartungen in das Lernen mit computerbasierten Simulationen gerechtfertigt? Können damit höhere Lernergebnisse als mit anderen Methoden erzielt werden? Aktuelle Forschungsergebnisse liefern erste Indizien dafür, dass Lernen und Training durch formalisierte Simulationsmodelle positiv zur Entwicklung von mentalen Modellen sowie Verhaltensweisen von Führungskräften beitragen können.3 Um einen Beitrag zur Schließung der Forschungslücke über Lerneffekte durch Computersimulationen zu leisten, verfolgen wir zwei Ziele: erstens wir erstellen eine konzeptionelle Unterscheidung, welche die Funktionen von Simulatoren strukturiert und zweitens generieren wir Hypothesen zur Erklärung des Lernerfolgs in Abhängigkeit vom Kontext der Lernsituation. Dieser Artikel soll nicht die aktuelle wirtschaftspädagogische Praxis anklagen, sondern versucht den Nutzen von computerbasierten Simulationen zu konkretisieren. Im nächsten Kapitel werden die begrifflichen Grundlagen für computerbasierte Simulatoren eingeführt sowie eine Unterscheidung in die zwei Typen Laboratorium und Trainingssimulator vorgenommen. Kapitel 3 gibt einen Einblick in die relevante Forschung zu Lerneffekten durch Computersimulatoren. Im vierten Kapitel werden auf Basis relevanter Literatur und explorativer Interviews Hypothesen über die Lerneffekte von Computersimulatoren erstellt. Das fünfte Kapitel beschließt die Arbeit mit einer Diskussion und einem Ausblick auf weitere Forschung.
B. Begriffliche Grundlagen Zum Thema computerbasierte Simulatoren existiert eine begriffliche Vielfalt Tabelle 1 zeigt einige Begriffe im Überblick. Die aktuell am weitesten verbreitete scheint die Bezeichnung Microworld4 zu sein. Im Zusammenhang mit der System Dynamics Methodik5 werden häufig auch die Begriffe Management Flight Simulator sowie Interactive Learning Environment verwendet.6 Die Originaldefinitionen dieser Begriffe unterscheiden sich konzeptionell nur unwesentlich. Deshalb haben wir in Tabelle 1 die direkten 3 Vgl.
Sterman (under review) sowie Cronin / Gonzalez / Sterman (2009). (1980) hat den Begriff Microworld geprägt. Seine Definition für eine Microworld ist „… a subset of reality or a constructed reality whose structure matches that of a given cognitive mechanism so as to provide an environment where the latter can operate effectively“ (S. 204). 5 Mehr Informationen über die System Dynamics Methodik findet sich in Sterman (2000) oder unter www.systemdynamics.org. 6 Vgl. Sterman (1994), Senge / Sterman (1992), Davidsen (2000) und Qudrat-Ullah (2008). 4 Papert
Lerneffekte durch computerbasierte Simulatoren35
Assoziationen zum Begriff aufgeführt, die für einen Versuch der Abgrenzung der Begriffe geeignet erscheinen. Zudem haben wir die Begriffe mit den Anforderungen der Bloomschen Lernzieltaxonomie in Verbindung gebracht.7 Tabelle 1 Verwendete Terminologie für computerbasierte Simulatoren Begriff
Quelle
direkte Assoziation
pädagogisches Niveau
Management Game
e. g. Simcity
spielen, Spassfaktor, gewinnen optimieren Versuch und Irrtum
anwenden
Βusiness Simulation
Stermann (2000) Paich & Sterman (1993)
Rollenspiel Szenario Zweckorientiert
anwenden
Management Flight Sterman (1992) Simulator Senge (1994)
Valide Abbildung des Systems Reaktionsverhalten des Systems
trainieren anwenden
Training Simulator
CEO of the Future (McKinsey) Beergame
trainiere, wiederhole entwickle Intuition
trainieren anwenden
Management Laboratory
Maani et al. (2000) entdecken, herausfinden Einstellung zum Lernen experimentieren
verstehen erkennen
Interactive Learning Environment
Davidsen (2000) Davidsen and Spector (1997)
verstehen zusätzlicher Kontext zum Fall Lernatmosphäre
verstehen erkennen
Microworld
Papert (1980) Romme (2003) Warren (1999)
„Welt im Kleinen“ beherrschbar Valide Abbildung des Systems
verstehen erkennen
Decision Support System
Maier (1995) Maier & Grössler (2000) Milling (1999)
unterstützen, schnell keine explizite nur relevante Variable beinhaltend Relation Entscheidung ist Ergebnis, Erfolg
Die Verbindung zu den Lernzielniveaus erlaubt uns, die einzelnen Begriffe anhand pädagogischer Anforderungen zu sortieren. Die höchste Anforderung stellen die Ziele Anwenden und Trainieren; Ziele mit geringeren kognitiven Anforderungen sind Verstehen sowie Erkennen. Für die Kategorie Decision Support System konnte keine explizite Relation zur Lernzieltaxo7 Die Bloomsche Taxonomie ist eine Zusammenfassung von kognitiven Lernzielen und in der Pädagogik generell akzeptiert (Anderson, Krathwohl et al. 2001).
36
Stefan N. Grösser und Markus Schwaninger
Abbildung 1: Exploratives Lernen und konsolidierendes Lernen als Ordnungsschema für die Vielzahl an Computersimulatoren
nomie festgestellt werden. Ein Decision Support System wird weniger im Ausbildungs- als vielmehr im Anwendungskontext eingesetzt. Ob im konkreten Fall der mit dem jeweiligen Begriff ausgestattete Computersimulator in der Realität die Anforderungen der jeweiligen Taxonomiestufe tatsächlich erfüllt, kann durch unsere Arbeit empirisch nicht belegt werden. Die Zuordnung erfolgte anhand konzeptioneller und nicht empirischer Anhaltpunkte. Zusammenfassend kann festgehalten werden, dass sich eine terminologische Vielfalt herausgebildet hat, welche nicht auf konzeptionellen Unterschieden zu beruhen scheint, sondern eher dem Umstand zuzurechnen ist, dass Marktakteure versuchen, durch neue Begrifflichkeiten Wiedererkennungseffekte zu erzielen. Im Folgenden möchten wir dieser Begriffsvielfalt zwei konzeptionell sinnvoll trennbare Begriffe gegenüberstellen. Der Ursprung unseres Begriffspaars stützt sich auf die in der Pädagogik bekannte Unterscheidung in exploratives Lernen und konsolidierendes Lernen.8 Gemäß Abbildung 1 unterscheiden wir neu lernen (explorieren) und festigen (konsolidieren). Der Logik folgend lernen bzw. entdecken die Teilnehmer zuerst neue Inhalte bzw. Inhalte in einer neuen Kombination, bevor diese Inhalte gefestigt werden. Computerbasierte Laboratorien sind für exploratives Lernen prädestiniert. Diese Lernart ist auch als Scientific Discovery Learning bekannt.9 Ihr Hauptzweck ist, den Teilnehmern die (Neubzw. Wieder-)Entdeckung der Lerninhalte zu ermöglichen. Diese Simulato8 Vgl. 9 Vgl.
Steiner (2006). de Jong / van Joolingen (1998).
Lerneffekte durch computerbasierte Simulatoren37
ren bieten die Inhalte transparent und verständlich jeweils als sogenannte „White Box“ dar.10 Um das Ziel des Entdeckens zu erreichen, ist es essenziell, dass der Grad der Komplexität des Simulators der Erfahrung der Teilnehmenden angemessen ist. Laboratorien konzentrieren sich auf eine didaktische Aufbereitung der Inhalte, um Lernen zu begünstigen. Die Teilnehmenden sollen Prinzipien, kausale Strukturen, Modellverhalten sowie Auswirkungen von Interventionen erkennen, verstehen, erklären und ggf. vorhersagen können. Um den Grad der kausalen Ambiguität niedrig zu halten, sind exogene Einflüsse tendenziell gering. Dies ermöglicht durch Exploration die kausalen Wirkungszusammenhänge herauszuarbeiten. Eine Interactive Learning Environment fällt beispielsweise in diese Kategorie. Konsolidierendes Lernen ist der logische Nachfolger des explorativen Lernen. Computerbasierte Simulatoren können dafür ebenfalls eingesetzt werden. Das Hauptziel in diese Kategorie ist die zuvor neu gelernten Inhalte zu festigen. Der Übergang vom explorativem Lernen zum konsolidierenden Lernen kann fließend sein. Um eine Konsolidierung von Wissen zu erreichen, ist es nicht notwendig, auf die Einführung neuer Inhalte zu verzichten. Vielmehr sollen die bestehenden Inhalte durch eine hohe Wiederholungszahl verankert werden. Simulatoren in dieser Kategorie führen die Teilnehmer auch an den Umgang mit einem höheren Grad externer Einflüsse heran; d. h. die Lerninhalte müssen unter sich verändernden Kontextbedingungen erkannt, verstanden und angewendet werden können. Dies ist ein anspruchsvolles Lernziel! Durch Veränderungen des Kontexts entsteht tendenziell ein hoher Grad an kausaler Ambiguität. Ohne zuvor aufgebautes Wissen über kausale Systemstrukturen können die im Simulator eintretenden Veränderungen im Prinzip nur teilweise erklärt werden. Die Situation wird noch intransparenter, wenn sogenannte Mehrspieler-Simulatoren eingesetzt werden. Die multiplen Ursachen für Veränderungen lassen sich dann praktisch nicht mehr nachvollziehen. Der Erwerb von Wissen kann in einem solchen Umfeld nicht erfolgen. Es ist dieser Anspruch auf Wissenserwerb, der die Trennung von explorierendem Lernen und konsolidierendem Lernen notwendig macht. Die Mehrzahl der verfügbaren Trainingssimulatoren bezieht sich auf die konsolidierende Phase. Die Begriffe Management Flight Simulator, Management Game und Business Simulation beziehen sich auf Simulatoren dieser Kategorie.
10 Papert (1980) fasst die Eigenschaften eines Laboratoriums treffend zusammen: „The use of the microworld provides a model of a learning theory in which active learning consists of exploration by the learner of a microworld sufficiently bounded and transparent for constructive exploration and yet sufficiently rich for significant discovery“ (S. 280).
38
Stefan N. Grösser und Markus Schwaninger
C. Bestehende Forschung Seit über zwei Jahrzehnten versuchen Forscher Erkenntnisse über den Einsatz und die Lernwirkungen von computerbasierten Simulatoren zu erarbeiten. Dabei teilen viele Autoren die Meinung, dass die Verwendung von Simulatoren positive Effekte auf das Lernresultat hat.11 Obwohl es eine Vielzahl an Publikationen zum Thema gibt,12 sind diese Aussagen bisher nicht wissenschaftlich valide belegt worden. Im Folgenden werden beispielhaft Erkenntnisse für die Erforschung von durch Computersimulatoren induzierten Lerneffekten zusammengefasst. Diese Darstellung muss aufgrund von Platzrestriktionen unvollständig bleiben. Einige Studien konnten durch Simulationsexperimente eine positive Korrelation zwischen den von Teilnehmenden erzielten Simulationsergebnissen und deren Verständnis der Inhalte der Computersimulation nachweisen.13 Diese Erkenntnis scheint trivial, führt jedoch zur Frage, wann eine Person den Inhalt eines Computersimulators verstanden hat. Die zitierten Studien verwenden von den Teilnehmenden selbst berichtete Indikatoren für die Messung des Verständnisses der Inhalte – eine Schwäche dieser Studien. Des Weiteren ist bekannt, dass der Erfolg einer Person im Zusammenhang mit dem Kontextwissen bzw. der Erfahrung dieser Person steht: zu Beginn begünstigen Kontextwissen und reale Erfahrung betreffend den Inhalt des Simulators die Qualität der Entscheidungen und führen somit zu verbesserten Ergebnissen. Dieser positive Zusammenhang steigt bis zu einem maximalen Grenzwert an. Zusätzliche Erfahrung und Kontextwissen führen dann zu keinen weiteren Verbesserungen der Simulationsergebnisse. Das Resultat kann sich bei sehr umfangreicher Erfahrung bzw. Wissen sogar verschlechtern. Gesamthaft betrachtet folgt der Zusammenhang von Erfahrung und Erfolg in einem Simulator einer invertierten Parabel. Dieser Zusammenhang scheint darin begründet zu sein, dass die relevanten Inhalte sowie deren Interaktionen durch Erfahrung zuverlässiger abgeschätzt werden können. Besitzt die Person jedoch ein relativ großes Wissen über den Sachverhalt, scheint es, dass die Person die Situation eher automatisch-intuitiv einschätzt und somit der Anteil einer bewussten Analyse reduziert wird, was bei radikalen Veränderungen des Kontexts zu einem schlechteren Ergebnis zu führen scheint.14 11 Vgl. Senge (1990), Warren / Langley (1999), Maani / Cavana (2007), Alavi et al. (1997) sowie Toyli et al. (2006). 12 Vgl. die Zusammenfassung von Romme (2003) sowie die darin zitierten Quellen; außerdem Keys / Wolfe (1990) und Lane (1995). 13 Vgl. Bakken (1989) sowie Capelo / Dias (2009). 14 Vgl. Bakken (1993).
Lerneffekte durch computerbasierte Simulatoren39
Eine andere wichtige Erkenntnis liefert die lernpsychologische Forschung. Sie konnte beweisen, dass die Lerneffekte signifikant durch den Schwierigkeitsgrad des Simulators moderiert werden. Mit anderen Worten: Je komplexer ein Simulator ist, desto weniger sind die Teilnehmenden in der Lage, Lernerkenntnisse durch diesen Simulator aufzubauen, da die Ursache-Wirkungs-Beziehungen nicht mehr nachvollziehbar sind.15 Zusammenfassend lässt sich feststellen, dass die Forschung erste Erkenntnisse über Lerneffekte von computerbasierten Simulatoren bieten kann. Jedoch wurden spezielle Lerneffekte sowie der relative Vorteil von Simulatoren gegenüber anderen Lernmethoden noch nicht wissenschaftlich zufriedenstellend belegt.
D. Hypothesen Zur Herleitung unserer Hypothesen verwenden wir bestehende Literatur sowie Ergebnisse explorativer Interviews mit Studierenden der Executive Master Ausbildung der Universität St. Gallen, mit Anbietern von computerbasierten Simulatoren und mit für die Personalentwicklung verantwortlichen Führungskräften. Die Auswahl der Interviewpartner folgte einem varianzmaximierenden Selektionsansatz. Aus der Verhaltenspsychologie ist bekannt, dass Versuchspersonen ein Verhalten eher herbeiführen, wenn sie den Eindruck haben, dieses Verhalten selbst beeinflussen zu können. Dies wird als wahrgenommene Verhaltenskontrolle bezeichnet und definiert als die subjektiv wahrgenommene Einfachheit oder Schwierigkeit, ein Verhalten auszuführen oder zu bewirken. Im Zusammenhang mit Computersimulatoren verstehen wir darunter die Einschätzung einer Person, das beabsichtige Ergebnis im Simulator bewirken zu können. In unseren Interviews konnten wir zunehmende Resignation als Folge einer längeren Interaktion mit einem Computersimulator als eine dominierende Tendenz feststellen. Mit anderen Worten ausgedrückt nimmt die Motivation, das Verhalten der Simulation gerichtet zu beeinflussen, bei Teilnehmenden ab, wenn sie die Resultate der Simulation nicht nachvollziehen können. Schätzen die Teilnehmenden ihre Möglichkeiten als gering ein, den Simulator zielgerichtet zu beeinflussen, wird dies für die Motivation abträglich sein. Es ist davon auszugehen, dass ohne die Lernmotivation der Lernerfolg entsprechend ausbleibt. H1: Die von einem Teilnehmenden wahrgenommenen Möglichkeiten, das Simulationsergebnis zu beeinflussen, wirken sich positiv auf die Lernwirkung aus. 15 Vgl.
Kluge (2008).
40
Stefan N. Grösser und Markus Schwaninger
Teilnehmende, welche nur über eine geringe Berufserfahrung bzw. wenig Wissen über den simulierten Teil der Realität verfügen, neigen tendenziell dazu, die Inhalte eines Simulators weniger zu hinterfragen. Bei diesen Teilnehmern werden simulierte Inhalte eher als kongruent mit der Realität angenommen. Somit ist die Validitätsfrage bei diesen Teilnehmern von untergeordneter Bedeutung. Bei Teilnehmenden mit größerer relevanter Erfahrung gewinnt die externe Validität eines Simulators an Wichtigkeit. Es zeigt sich die Tendenz, dass nur ein Simulator, der als extern valide eingeschätzt wird, zu Lerneffekten beitragen kann; einem nicht validen Simulator wird die Legitimität abgesprochen, nützlich für die Ausbildung zu sein. Dabei ist zu berücksichtigen, dass die subjektiv wahrgenommene Validität ausschlaggebend ist. Auch wenn ein Simulator die Realität adäquat widerspiegeln würde, könnte dieser als extern nicht valide eingeschätzt werden, wenn die Inhalte und Ergebnisse des Simulators nicht den Inhalten und Ergebnissen der mentalen Modelle der Teilnehmenden entsprechen. Wir können somit unabhängig vom Aspekt der Erfahrung folgende Hypothese formulieren. H2: Ein Simulator mit hoher wahrgenommener externer Validität begünstigt Lerneffekte bei Teilnehmenden. Auf dem Markt verfügbare Computersimulatoren beziehen sich auf fiktive Unternehmen mit konkreten Produkten und Dienstleistungen. So werden z. B. Kopiermaschinenhersteller und Fluggesellschaften in solchen Simulatoren dargestellt. Teilnehmende mit nur wenig relevanter Erfahrung neigen dazu, sich stärker für Simulationsinhalte aus Bereichen zu interessieren, die sich von dem ihnen bekannten Geschäftsumfeld unterscheiden. Teilnehmende mit mehr relevanter Erfahrung zeigen die Tendenz, verstärkt Inhalte bearbeiten zu wollen, welche im Bereich ihrer bisherigen Erfahrung liegen. Wird der Inhalt als nicht relevant wahrgenommen, scheint die Lernmotivation stark abzufallen. Diese geringere Lernmotivation resultiert in einem geringeren Lerneffekt. Zwischen der durch den Teilnehmenden wahrgenommenen Relevanz H3: des Inhalts des Simulators und dem Lerneffekt besteht ein positiver Zusammenhang. Die grafischen Qualitäten verfügbarer Simulatoren erwecken oft den Eindruck, dass die Simulatoren „Unterhaltungsspiele“ und keine „Lerninstrumente“ sind. Einfache Benutzerführungen und Programmsteuerungen reduzieren den Aufwand für die Moderatoren von computerbasierten Simulatoren erheblich. Wir haben festgestellt, dass sich dadurch eine ausgeprägte Mentalität des Spielens nach dem Versuch-Irrtums-Prinzip (oder: Plug-&-Play) entwickelt. Die Teilnehmenden versuchen durch „Trial and Error“ ein Ziel zu erreichen, z. B. ein sehr hoher Unternehmensgewinn am Ende der Com-
Lerneffekte durch computerbasierte Simulatoren41
putersimulation. Reflexionen über Ursache-Wirkungsbeziehungen und Systemstrukturen werden durch „Game Playing“ verdrängt. Tiefere Einsichten in Zusammenhänge können durch dieses Lernverhalten nicht gewonnen werden.16 Vereinzelt konnten wir die Auswirkung von exzellenten Pädagogen auf die Teilnehmenden sowie die erzielten Lerneffekte feststellen. Diese Personen erklären die Grundstrukturen des Simulators, vermitteln den Teilnehmenden den Prozess des explorativen Lernens und leiten die Teilnehmer anhand von Beispielen an, wie der Simulator effektiv für die Lernarbeit eingesetzt werden kann. Beispielsweise werden die Teilnehmenden angehalten, vor jedem Simulationslauf eine Hypothese bezüglich des damit zu erzielenden Systemverhaltens aufzustellen. Exzellente Pädagogen scheinen das Game-Playing Verhalten stark verringern zu können. H4: Konstruktive pädagogische Leistungen von Dozierenden bzw. Moderierenden vergrößern die durch einen Simulator ausgelösten Lerneffekte der Teilnehmenden. Die für die explorativen Interviews ausgewählten Teilnehmenden unterschieden sich signifikant in ihrer Berufserfahrung. Es waren sowohl Teilnehmende mit wenig Berufserfahrung (meistens Studierende im Bacheloroder Masterstudium), als auch solche mit relevanter Berufserfahrung (Studierende auf Stufe Executive-MBA oder Teilnehmende an Weiterbildungsveranstaltungen für Führungskräfte). Dank dieser Zusammensetzung konnten wir Indizien dafür gewinnen, dass ein Unterschied in der relevanten (Berufs-) Erfahrung moderierend auf den Zusammenhang gemäß Hypothese H3 wirkt. H5: Die relevante (Berufs-)Erfahrung von Teilnehmenden wirkt moderierend auf den positiven Effekt der wahrgenommenen Relevanz auf das Lernen. Je größer die relevante Erfahrung, desto größer ist die Auswirkung der wahrgenommenen Relevanz des Simulators auf den Lerneffekt. Für unseren Artikel haben wir bidirektionale Beziehungen zwischen Variablen ausgeblendet. Beispielsweise kann ein Lerneffekt nicht nur von den wahrgenommenen Möglichkeiten, das Simulationsergebnis zu beeinflussen abhängen (H1), sondern diese über die Zeit wiederum verändern. Ebenso ist die Rückwirkung eines Lerneffekts auf die wahrgenommene externe Validität denkbar (H2). Vorerst wird die Analyse solcher dynamischer Effekte auf eine spätere Phase verschoben. Im nächsten Kapitel werden die Beiträge dieses Artikels diskutiert sowie Schritte für weitere Forschung zu Lerneffekten von computerbasierten Simulatoren thematisiert. 16 Vgl.
Rieber (2005).
42
Stefan N. Grösser und Markus Schwaninger
E. Diskussion und Ausblick Dieser Beitrag zeigt den Bedarf an wissenschaftlicher Forschung über die Lerneffekte computerbasierter Simulatoren. Bisher sind unseres Wissens keine validen Versuche unternommen worden, die Vorteile simulationsgestützter Lernmethoden durch komparative Analysen zu belegen. Wir sehen unseren Beitrag als einen Schritt in diese Richtung. Wir entwickeln eine begriffliche Zweiteilung für Simulatoren was in einen konzeptionellen Rahmen für computerbasierte Simulatoren mündet. Wir unterscheiden die beiden Typen Laboratorium und Trainingssimulator und vereinfachen dadurch die undurchsichtige und wenig konzeptionell geprägte Begriffsvielfalt. Darüber hinaus erstellen wir durch explorative Forschung untermauerte Hypothesen zu den durch Simulatoren verursachten Lerneffekten. Wie bereits erwähnt, hat die Pädagogikforschung bisher noch keinen schlüssigen Beweis für Lernvorteile von computerbasierten Simulatoren erbracht. Dieser scheint zunächst nur für Simulatoren als klaffende Lücke. Bei genauerem Studium der Literatur wird jedoch offensichtlich, dass ein Nachweis der Vorteile relativ zu anderen Methoden für weitere sogenannte „neue“ Methoden ebenfalls noch aussteht. So fehlt z. B. ein entsprechender Befund für den Fallstudienansatz oder auch das problembasierte Lernen. Zusammenfassend können wir festhalten, dass diese Arbeit keine direkten Erkenntnisse zu den Lerneffekten selbst generiert, jedoch Grundlagen zu deren Erarbeitung liefert. Ein zuvor angesprochenes Thema ist wesentlich im Zusammenhang mit der Erzeugung von Lerneffekten: Die Komplexität von Simulatoren hat Auswirkung auf die Möglichkeit, Lerneffekte zu erfahren.17 Eine erste und noch unvollständige empirische Analyse des Marktes für computerbasierte Simulatoren fördert zutage, dass der durchschnittliche Simulator eine sehr hohe Detailtreue der Unternehmensrealitäten aufweist. Durch diesen hohen Detaillierungsgrad bilden diese Simulatoren Detailkomplexität oder kombinatorischen Komplexität ab.18 Dieser Begriff bezeichnet Situationen, in denen eine große Zahl an Elementen und deren Interaktionen die charakterisierende Eigenschaft ist. Beispielsweise beinhalten die meisten Simulatoren mehrere Produkttypen für mehrere Absatzmärkte und mehrere Kundengruppen pro Absatzmarkt. Dem gegenüber steht das Konzept der dynamischen Komplexität.19 Diese Art der Komplexität entsteht durch die Interaktionen von Systemelementen im Zeitverlauf. Sie ist mit dem Niveau der 17 Vgl.
Kluge (2008). Komplexität / Detailkomplexität wird auch als Kompliziertheit oder als statische Komplexität bezeichnet. 19 Vgl. Senge (1990), Sterman (2000) und Schwaninger (2010). 18 Kombinatorische
Lerneffekte durch computerbasierte Simulatoren43
Abbildung 2: Interaktion von dynamischer und statischer Komplexität
Evolution assoziiert, d. h., mit zunehmender Entwicklung eines Systems nimmt dessen dynamische Komplexität tendenziell zu. Charakteristisch für diese Komplexitätsart ist, dass die Systemelemente miteinander in Rückkopplungsbeziehungen stehen, Ursache-Wirkungsbeziehungen meist nichtlinear sowie temporal oder räumlich getrennt sind. Die Auswirkungen von Eingriffen in dynamisch komplexe Systeme sind dadurch langfristig nur schlecht einschätzbar. Typische Managementsituationen weisen beide Arten der Komplexität auf; Ausbildungen an Universitäten und in Unternehmen berücksichtigen die dynamische Komplexität jedoch nur unzureichend.20 Die meisten der bestehenden Simulatoren erfassen fast nur die kombinatorische Komplexität. Dadurch besteht ein Mangel an Simulatoren, welche sich explizit auf die dynamisch komplexen Aspekte von Managementsituationen fokussieren. Abbildung 2 stellt die beiden Komplexitätsarten in einer Matrix gegenüber und klassifiziert die Eigenschaft des sich daraus jeweils ergebenen Systems. Ein einfaches System besitzt sowohl einen geringen Grad an dynamischer als auch kombinatorischer Komplexität. Beispiele für simple Systeme sind abstrakte mikroökonomische Sachverhalte (einfache Ursache20 Vgl.
Atwater et al. (2008).
44
Stefan N. Grösser und Markus Schwaninger
Wirkungsbeziehung). Für solche Inhalte eignen sich die meisten der existierenden Lerninstrumente, z. B. einfache lineare Modelle oder Rahmenwerke. Komplizierte Systeme, d. h. Systeme mit einer großen Anzahl an Elementen und einem geringen Evolutionsgrad (z. B. einfache, lineare Modelle für Preisbestimmung parallel in mehreren Märkten), benötigen Methoden, welche diesen Detaillierungsgrad beherrschen können. Hier werden meist detailgetreue Computersimulatoren eingesetzt. Die meisten der existierenden computerbasierten Simulatoren sind hier einzuordnen. Für komplexe Systeme (hohe dynamische Komplexität; geringe kombinatorische Komplexität) sind vergleichsweise wenige Lernmethoden vorhanden. Ein Beispiel für diese Systeme ist die Veränderung der Marktstruktur als Folge von Preiswettbewerb. Ein Laboratorium ist ein solches Instrument. Auch der problembasierte Lernansatz kann diesem Feld zugeordnet werden. Dem Lernenden wird es ermöglicht, die sich über die Zeit verändernden Sachverhalte zu verstehen und Prinzipien daraus abzuleiten. Die drei zuvor dargestellten Systemtypen sind hilfreich, um einen speziellen Teil der Realität zu betrachten. Das der Realität oft am ehesten entsprechende System ist das ambiguide, d. h. uneindeutige oder unbestimmte System. Aktuell kann keine Methode eindeutig identifiziert werden, welche diesen Bereich sinnvoll ausfüllt. In Zukunft wäre denkbar, dass hier Trainingssimulatoren eingesetzt werden. Diese Simulatoren müssten jedoch die Anforderung erfüllen, dass die Inhalte zuerst durch Laboratorien erarbeitet wurden, bevor der Grad an Detailkomplexität erhöht wird. Ein solches Vorgehen bedingt u. a. die Integration von Computersimulatoren in das bestehende Ausbildungsprogramm. Dadurch könnten die Vorteile von Fallstudie, Literaturstudium und Computersimulatoren zum Vorteil der Lernenden besser ausgeschöpft werden.21 Computerbasierte Simulatoren haben ein großes Potenzial für die universitäre und unternehmerische Aus- und Fortbildung. Ein Aspekt von Simulatoren, der in Zukunft immer bedeutender werden wird, ist die Möglichkeit, konkrete, bis heute noch seltene und somit wertvolle Lerninhalte durch die Komprimierung von Raum und Zeit zugänglich zu machen.22 Ein unmittelbar nächster Schritt unserer Forschung ist, die im vierten Kapitel aufgestellten Hypothesen einem empirischen Test zu unterziehen.
21 Vgl. 22 Vgl.
Romme (2003). Bakken / Gould (1992).
Lerneffekte durch computerbasierte Simulatoren45
Literaturverzeichnis Alavi, M. / Yoo, Y. / Vogel, D. R. (1997), „Using Information Technology to Add Value to Management Education.“ Academy of Management Journal 40(6): 1310–1333. Anderson, L. W. / Krathwohl, D. R. / Bloom, B. S. (2001), A Taxonomy for Learning, Teaching, and Assessing a Revision of Bloom’s Taxonomy of Educational Objectives. New York, Longman. Atwater, B. / Kannan, V. R. / Stephens, A. A. (2008), „Cultivating Systemic Thinking in the Next Generation of Business Leaders.“ Academy of Management Learning and Education 7(1): 9–15. Bakken, B. / Gould, J. et al. (1992), „Experimentation in Learning Organizations – a Management Flight Simulator Approach.“ European Journal of Operational Research 59(1): 167–182. Bakken, B. E. (1989), Learning in Dynamic Simulation Games; Using Performance as a Measure. Computer-Based Management of Complex Systems: International System Dynamics Conference, Stuttgart, International System Dynamics Society. − (1993), Learning and Transfer of Understanding in Dynamic Decision Environments, M. I. T. Capelo, C. / Dias, J. F. (2009), „A System Dynamics-Based Simulation Experiment for Testing Mental Model and Performance Effects of Using the Balanced Scorecard.“ System Dynamics Review 25(1): 1–34. Cronin, M. A. / Gonzalez, C. / Sterman, J. D. (2009), „Why Don’t Well-Educated Adults Understand Accumulation? A Challenge to Researchers, Educators, and Citizens.“ Organizational Behavior and Human Decision Processes 108(1): 116–130. Davidsen, P. I. (2000), „Issues in the Design and Use of System Dynamics-Based Interactive Learning Environments.“ Simulation & Gaming 31(2): 170–177. de Jong, T. / van Joolingen, W. R. (1998), „Scientific Discovery Learning with Computer Simulations of Conceptual Domains.“ Review of Educational Research 68(2): 179–201. Dörner, D. / Schaub, H. (1992), „Spiel und Wirklichkeit: Über die Verwendung und den Nutzen computersimulierter Planspiele.“ Kölner Zeitschrift für „Wirtschaft und Pädagogik“ 7(12): 55–78. Keys, B. / Wolfe, J. (1990), „The Role of Management Games and Simulations in Education and Research.“ Journal of Management 16(2): 307–336. Kluge, A. (2008), „Performance Assessments with Microworlds and their Difficulty.“ Applied Psychological Measurement 32(2): 156–180. Lane, D. C. (1995), „On a Resurgence of Management Simulations and Games.“ Journal of the Operational Research Society 46(5): 604–625. Maani, K. E. / Cavana, R. Y. (2007), Systems Thinking, System Dynamics: Managing Change and Complexity. New Zealand, Pearson Education.
46
Stefan N. Grösser und Markus Schwaninger
Mintzberg, H. (2004), Managers Not MBAs a Hard Look at the Soft Practice of Managing and Management Development. San Francisco, Berrett-Koehler. Papert, S. (1980), Mindstorms Children, Computers, and Powerful Ideas. New York, Basic Books. Qudrat-Ullah, H. (2008), Student Perceptions of the Effectiveness of System Dynamics-based Interactive Learning Environments: A Case Study. 16th International Conference on Computers in Education, Taipei. Taiwan. Rieber, L. P. (2005), Mulitmedia Learning in Games, Simulations, and Microworlds. The Cambridge Handbook of Multimedia Learning. R. E. Mayer. Cambridge, Cambridge University Press. Romme, A. G. L. (2003), „Learning Outcomes of Microworlds for Management Education.“ Management Learning 34(1): 51–61. Schwaninger, M. (2010), „Complex versus Complicated: The How of Coping with Complexity.“ Kybernetes 38(1 / 2): 83–92. Senge, P. M. (1990), The Fifth Discipline: The Art and Practice of the Learning Organization. New York, Currency & Doubleday. Senge, P. M. / Sterman, J. D. (1992), „Systems Thinking and Organizational Learning – Acting Locally and Thinking Globally in the Organization of the Future.“ European Journal of Operational Research 59(1): 137–150. Steiner, V. (2006), Exploratives Lernen der persönliche Weg zum Erfolg ein Arbeitsbuch für Studium, Beruf und Weiterbildung. Zürich, Pendo. Sterman, J. D. (1994), „Learning in and about Complex Systems.“ System Dynamics Review 10(2 / 3): 291–330. − (2000), Business Dynamics: Systems Thinking and Modeling for a Complex World. Boston, McGraw-Hill. − (under review), „Does Formal System Dynamics Training Improve People’s Understanding of Accumulation?“. Toyli, J. / Hansen, S. O. et al. (2006), „Plan for Profit and Achieve Profit: Lessons Learnt from a Business Management Simulation.“ Production Planning & Control 17(6): 584–595. Warren, K. D. / Langley, P. A. (1999), „The Effective Communication of System Dynamics to Improve Insight and Learning in Management Education.“ Journal of the Operational Research Society 50(4): 396–404. Wolfe, J. (2004), Two Computer-Based Entrepreneurship Experiences: An Essay Review. Academy of Management Learning & Education, Academy of Management. 3: 333–339.
Der langfristige Wertbeitrag eines ganzheitlichen Management-Trainings – eine dynamische Simulation Von Thomas Klug und Kai Neumann
A. Einführung Ohne die aktuelle Diskussion und Forschung zum Thema Humankapital und seinen Indikatoren aufzugreifen, zeigt der vorliegende Beitrag eine ganz pragmatische Herangehensweise, mit der Unternehmen ihre Weiterbildungsbedarfe hinsichtlich fachlicher (Hard-Skills) und persönlicher (Soft-Skills) Kompetenzen der Mitarbeiter identifizieren und deren Nutzen bewerten können. Neben fachlichen Kompetenzen spielen persönliche Kompetenzen eine ebenso große Rolle für die Leistung von Mitarbeitern. Es ist sogar von einem multiplikativen Zusammenhang1 zwischen beiden auszugehen, was bedeutet, dass ein Mitarbeiter mit nur fachlichen, aber geringen persönlichen Kompetenzen – wie entsprechend umgekehrt – weit hinter seinen möglichen Leistungen zurückbleiben muss. Der Unterschied zwischen fachlichen und persönlichen Kompetenzen liegt unter anderem darin, dass Erstere schnell wirksam aber kurzlebig sind, hingegen Zweitere sich erst langfristig – und dann aber nachhaltig – wirksam zeigen. Nicht zuletzt darin liegt ein Grund, weshalb das Training persönlicher Kompetenzen in vielen Unternehmen als wenig wirksam angesehen wird. Dazu kommt natürlich, dass persönliche Kompetenzen häufig als gegeben vorausgesetzt werden und gleichzeitig ungern bei diesen ein Verbesserungsbedarf gesehen wird. Mit der Möglichkeit, beliebige Zusammenhänge durch Ursache-Wirkungsmodellierung in Unternehmen transparent zu machen, kann für das Unternehmen, die Abteilung und jeden einzelnen Mitarbeiter geschaut werden, welche Fähigkeiten welche Bedeutung für das Unternehmen haben. Mit der groben Gewichtung der Qualitativen Modellierung kann zudem eine Selbsteinschätzung der Betroffenen aufgegriffen werden, welche dann im 1 https: / / www.saarbruecker-formel.net / .
48
Thomas Klug und Kai Neumann
Weiteren mittels der so genannten relativen, quantitativen Modellierung auch in konkreten Zahlen betrachtet werden kann – genauso, wie die zu erwartende Wirkung eines Trainings von persönlichen Kompetenzen.
B. Erfassen der unternehmerischen Zusammenhänge Grundsätzlich sollte jedes Unternehmen seinen individuellen Gesamtzusammenhang von der Vision über die Mission und die Strategie bis herunter auf die operative Ebene kennen und zur Integration der Mitarbeiter, Zulieferer und zumeist sogar auch der Kunden zudem transparent machen.2 Bei zunehmender Dynamik der Rahmenbedingungen gibt es kaum noch langfristige Geschäftsmodelle basierend auf Best Practice, noch reichen situative, so genannte Bauchentscheidungen zur Lenkung der Geschicke eines ganzen Unternehmens. Wenn ein Unternehmen diese Zusammenhänge beispielsweise mit der KNOW-WHY-Methode abbildet, werden zu den strategischen und operativen Faktoren auch die notwendigen Kompetenzen als Einflussfaktoren genannt. Diese können nach einer qualitativen Gewichtung der Zusammenhänge dann sowohl hinsichtlich des Betriebsergebnisses als auch hinsichtlich übergeordneter, strategischer Ziele bewertet werden.3 I. Qualitative Modellierung der Bedeutung von Kompetenzen Über so genannte Submodelle können in der Software CONSIDEO MODELER zur Visualisierung und Analyse von Zusammenhängen hunderte von Faktoren übersichtlich miteinander in Beziehung gebracht werden (Abbildung 1). So können beispielsweise für Abteilungen wie die Produktentwicklung, das Marketing, das Controlling etc. die zur Zielerreichung notwendigen Faktoren – darunter auch die Kompetenzen der Mitarbeiter – gesammelt werden (Abbildung 2). Bei der qualitativen Modellierung werden die Einflüsse dieser Faktoren nur grob mit den Attributen ‚schwach‘, ‚mittel‘ oder ‚stark‘, oder alternativ mit Prozentwerten beschrieben (Abbildung 3). Diese unscharfe Gewichtung der Zusammenhänge ist gerade bei so genannten weichen Faktoren eine große Stärke der Modellierung, da Beteilig2 Vgl.
Neumann (2009). das kostenlose E-Buch zur Systemischen Strategieentwicklung (http: / / www. consideo-modeler.de / papers.html). 3 Vgl.
Der langfristige Wertbeitrag eines ganzheitlichen Management-Trainings49
Abbildung 1: Submodelle zur Abbildung umfangreicher Zusammenhänge
Abbildung 2: Beispiel für ein Submodell mit qualitativer Gewichtung
50
Thomas Klug und Kai Neumann
Abbildung 3: Identifikation entscheidender Faktoren in der Erkenntnis-Matrix
te sich schnell auf eine grobe Gewichtung einigen können und die Summe der groben Gewichtungen ein durchaus präzises Gesamtbild ergeben kann.4 Dieses zeigt sich in der „Erkenntnis-Matrix“. In den Erkenntnis-Matrizen der Faktoren kann allein aufgrund der groben und zügigen Gewichtung der Zusammenhänge bereits abgelesen werden, welche Faktoren diese kurz- (X-Achse) und langfristig (Y-Achse) am stärksten beeinflussen. So kann ein Unternehmen bzw. eine Abteilung schnell deutlich machen, welche Kompetenzen die wichtigsten und welche Trainingsmaßnahmen die vielversprechendsten sind. II. Quantitative Modellierung der Wirkung von Kompetenzen Während die qualitative Modellierung nur die Bedeutung von Faktoren herausstellt, kann die quantitative Modellierung5 die konkrete, dynamische Entwicklung gerade auch von Wertbeiträgen6 aufzeigen. Dabei werden mit Formeln und Daten Entwicklungen im Zeitverlauf simuliert, was immer eine hohe Genauigkeit suggeriert, die bei komplexen 4 Vgl.
Vester (2002). wird dabei der System Dynamics Ansatz, vgl. Sterman (2006). 6 Vgl. Klug (2007). 5 Verwendet
Der langfristige Wertbeitrag eines ganzheitlichen Management-Trainings51
Abbildung 4: Mathematische Beschreibung von Zusammenhängen im quantitativen Modell
Zusammenhängen naturgemäß gar nicht vorliegen kann und leider immer wieder zu Fehlinterpretationen führt. Eine solche Simulation dient lediglich dazu, grundsätzliche Entwicklungsmöglichkeiten aufzuzeigen und ein verbessertes Verständnis von Zusammenhängen zu gewinnen. Gegner einer solchen Methode führen hingegen die ungenauen Ergebnisse als Rechtfertigung für einen Verzicht auf jeden noch so minimalen Aufwand an. Eine weitere Kritik an der Simulation von weichen Faktoren richtet sich gegen deren schwierige Messbarkeit. Hier haben die Autoren7 sehr gute Erfahrungen mit der so genannten relativen, quantitativen Modellierung und der Schätzung von Werten für die weichen Faktoren vergleichbar der qualitativen Modellierung gemacht.8 Mehrere Personen müssen sich hinsichtlich der weichen Faktoren, z. B. Kommunikationsfähigkeit, Kritikfähigkeit, Unternehmerischem Denken etc. im Rahmen einer Selbsteinschätzung nur auf einen Indexwert zwischen 0 und 1 einigen. Ebenso muss die erwartete Verbesserung durch Weiterbil7 Vgl.
hierzu aber auch aus der Literatur (2005). hierzu den unter (http: / / www.consideo-modeler.de / papers.html) Projekt bericht zur qualitativen und quantitativen Modellierung von HR-Kennzahlen beim Flughafen München. 8 Vgl.
52
Thomas Klug und Kai Neumann
Abbildung 5: Simulation der langfristigen Entwicklung des Wertbeitrages
dungsmaßnahmen als prozentuale Änderung des Indexwertes grob geschätzt werden, um schließlich in einen relativen quantitativen Zusammenhang mit auch harten Faktoren, wie etwa der Anzahl Trainingstage, der Kosten, der Umsätze, der Fehlerquote in der Produktion etc., gebracht zu werden. Die Korrelation von harten und weichen Faktoren kann dabei im MODELER sehr einfach grafisch skizziert werden. Das Ergebnis im konkreten, vorliegenden Beispiel (Abbildung 5) zeigt, wie ein ganzheitliches Training von persönlichen und fachlichen Kompetenzen erst nach 70 Monaten zu einem dann aber exponentiell steigenden Nutzen für ein Unternehmen führt. In diesem Beispiel wurde allerdings bereits berücksichtigt, dass das Training Einzelner sehr häufig in Unternehmen wirkungslos bleibt und erst ein sukzessiver Wandel der Unternehmenskultur die Kreativität, die Kommunikation, das Qualitätsbewusstsein etc. ergebniswirksam verbessert, wozu eine kritische Masse an Mitarbeitern ein solches Training zu durchlaufen hat.
Der langfristige Wertbeitrag eines ganzheitlichen Management-Trainings53
C. Wandel der Unternehmenskultur als notwendige Voraussetzung für durchschlagende Trainingsmaßnahmen Die ganzheitliche, bzw. systemische Betrachtung eines Unternehmenszusammenhangs bedarf einer neuen Bereitschaft für Transparenz im Unternehmen. Diese Transparenz erlaubt dann durch qualitative Ursache-Wirkungsmodellierung die konkret benötigten Kompetenzen in einem Unternehmen, und die hierfür am besten geeigneten Maßnahmen zu identifizieren. Eine quantitative Modellierung der Zusammenhänge eignet sich für das einzelne Unternehmen aufgrund ihres höheren Aufwandes eher im Zusammenhang mit einer weitergehenden Kennzahlenmodellierung mit Anbindung an operative Geschäftszahlen. Als generelles Modell, um die erst langfristige, aber dann entscheidende Verbesserung von Unternehmenssituationen durch ein ganzheitliches Training aufzuzeigen, lohnte sich für die Autoren aber auch der Aufwand der quantitativen Modellierung. Die Verwendung von gemeinsam geschätzten Indexwerten kann natürlich jederzeit durch wissenschaftlich erhobene Messwerte ersetzt werden. Literaturverzeichnis Klug, T. / Stephens, C. (2007), Das Eisbergphänomen, in: Harbig, J. H. / Klug, T. / Bröcker, M. (Hrsg.), Führung neu verorten, 2007, S. 121–137. Neumann, K. (2009), Management kapiert Komplexität, 2009. Sterman, J. D. (2006), Business Dynamics, 2006. Strohhecker, J. / Sehnert, J. (2007), System Dynamics für die Finanzindustrie, 2007. Surowiecki, J. (2005), The Wisdom of Crowds, 2005. Vester, F. (2002), Die Kunst vernetzt zu denken, 2002.
Strategische Transferkommunikation von Innovationsund Forschungswissen Von Ingo Leisten und Frank Hees
Abstract Die Schnittstelle zwischen Wissenschaft und Praxis gewinnt in Zeiten, in denen sowohl Innovation als auch Nachhaltigkeit zu den wesentlichen Faktoren im gesamtwirtschaftlichen Wettbewerb zählen, zunehmend an Bedeutung. Zahlreiche Forschungsdisziplinen beschäftigen sich mit der Entwicklung innovativer wie nachhaltiger Lösungen und Verfahren für die unternehmerische Praxis, doch oftmals schlägt ein zielgruppengerechter und handlungswirksamer Transfer von Innovations- und Forschungswissen fehl. Dieser Beitrag beschreibt anhand eines Fallbeispiels zu Forschungsprojekten des Präventiven Arbeits- und Gesundheitsschutzes, wie die Rollen von Forschung und Praxis bei der Wissensproduktion gestaltet werden sollten, damit Transfer gelingen kann. Als eine sensible Stellgröße dazu wird die Interaktionsarbeit der Projektakteure identifiziert. Zur systematischen Kommunikations- und Kooperationsentwicklung in (Forschungs-)Projekten wird der Ansatz des Transfer Engineerings vorgeschlagen, dessen Ausgestaltung und Umsetzung im Rahmen einer qualitativen Analyse von Projekten des Fallbeilspiels vorgestellt werden.
A. Innovation und Prävention Unternehmen und ihre Mitarbeiterinnen und Mitarbeiter müssen sich heute schnellen und stetigen Veränderungen stellen. Diese sind durch einen verschärften Wettbewerbsdruck, immer kürzere Produkt- und Innovations zyklen, eine globalisierte Arbeitsteilung und die Entlokalisierung von Arbeit charakterisiert. Sie müssen alle Ressourcen bündeln, um auf einem globalisierten Markt bestehen zu können, ihre Innovationsfähigkeit zu sicher und damit ihre Wettbewerbsfähigkeit nachhaltig zu bewahren1. Dabei stellt sich die Herausforderungen für Unternehmen zunehmend in Dilemmata dar: dabei handelt es sich um sozio-ökonomische Spannungsfelder der heutigen Arbeits- und Lebenswelt2, die Unternehmen und die darin tätigen Menschen vor komplexe Entscheidungen stellen. Trantow u. a. (2010) identifizieren als 1 Vgl. 2 Vgl.
Henning / Leisten / Hees (2009a). Trantow u. a. (2010).
56
Ingo Leisten und Frank Hees
„Dilemmata der Innovationsfähigkeit“, die gleichsam „Individuen, Organisationen, Netzwerke und Gesellschaft auf dem Weg zur Innovations- und globalen Wettbewerbsfähigkeit zu bewältigen haben“3: •• Verantwortlicher Umgang mit Humanressourcen vs. Kostendruck, •• Langfristige Strategien zur Erhöhung der Innovationsfähigkeit vs. Erfolgsdruck, •• Zeit für Lernprozesse vs. Zeitdruck, •• Stabilisierungsbedarf vs. Flexibilisierungsdruck. Diese Spannungsfelder, mit denen Akteure der modernen Arbeits- und Lebenswelt umgehen müssen, lassen sich dem übergeordneten Problemkomplex Nachhaltigkeit vs. kurzfristige Gewinnerwartung zuordnen4. Als Schlüssel um diesen Herausforderungen zu begegnen wird oftmals der Begriff „Innovation“ angeführt. Dabei engt der traditionell technik- und produktzentrierte Innovationsbegriff ein, so dass betriebliches Innovationsmanagement scheinbar ausschließlich Aufgabe von Großunternehmen und den darin angesiedelten Stabsstellen zur Forschung und Entwicklung ist. Das aktuelle Forschungs- und Entwicklungsprogramm des Bundesministeriums für Bildung und Forschung (BMBF) „Arbeiten – Lernen – Kompetenzen entwickeln. Innovationsfähigkeit in einer modernen Arbeitswelt“ erweitert diese Perspektive und betrachtet Innovationsfähigkeit als Schlüsselfaktor für wirtschaftlichen Erfolg und richtet den Blick auf den Menschen und dessen Arbeitsbedingungen als entscheidende Voraussetzung zur Entfaltung von Innovation (vgl. BMBF 2008). Demnach hängt häufig die „organisa tionale Fähigkeit, innovativ zu sein, (…) weniger vom technischen Entwicklungsstand eines Unternehmens als vielmehr von seinen Humanpotentialen sowie seinen internen Prozessen und Strukturen ab“5. Der Innovationsdruck sowie die enorme Dynamik der Arbeitswelt, fordern eine hohe Flexibilität, Autonomie und Vernetzung, nicht nur von Unternehmen sondern auch von Beschäftigten. Zusätzlich stellt der demografische Wandel Unternehmen vor die Herausforderung, die Arbeitsfähigkeit ihrer Mitarbeiter möglichst lange zu erhalten. Die Bedeutung der körperlichen und geistigen Gesundheit von Beschäftigten, wird häufig, gemäß dem Motto „nur ein gesunder Mitarbeiter ist ein innovativer Mitarbeiter“, als wichtiger Faktor der Innovationsfähigkeit betont. Zum Zweck der körperlichen und geistigen Gesunderhaltung von Arbeitskräften entwickelt die Arbeitsforschung deshalb seit langem umfangreiche Konzepte des Arbeits- und 3 Vgl.
ebd. ebd. 5 Vgl. Trantow u. a. (2010). 4 Vgl.
Transferkommunikation von Innovations- und Forschungswissen57
Gesundheitsschutzes. Allerdings ist eine nachhaltige Integration von Sicherheit und Gesundheit im betrieblichen Handeln, insbesondere im Sinne einer proaktiven, innovationsförderlichen Prävention, sowie die Unterstützung der überbetrieblichen Akteure bei der Neuorientierung ihrer Aufgaben vor dem Hintergrund der gesundheitspolitischen Herausforderungen einer hochgradig dynamisierten Arbeitswelt und des demografischen Wandels, vielfach noch nicht erfolgt. Eine Steigerung wettbewerbsförderlicher Innovationen in der Wirtschaft setzt allerdings einen zukunftsorientierten Arbeits- und Gesundheitsschutz, der über Gesundheitsförderung und den klassischen Gefahrenschutz hinausgeht, voraus. Im BMBF Förderschwerpunkt „Präventiver Arbeits- und Gesundheitsschutz“, in dem 18 Verbundprojekte mit insgesamt 52 Teilvorhaben gefördert werden, steht die Erarbeitung und Vermittlung von zukunftsgerichteten, anwendungsorientierten Konzepten im Fokus. Als Metathemen in diesem Förderschwerpunkt lassen sich u. a. identifizieren •• Betriebliches Innovationsmanagement, •• Prävention als Wettbewerbsfaktor, •• Innovationsstrategie und Gesundheit in der Wissensökonomie, •• Gesundheitsförderung im demografischen Wandel, •• Partizipation und Führung, •• Überbetriebliche Allianzen.
B. Wie kommt das Innovations- und Forschungswissen in die Praxis? In Bezug auf die Umsetzung der Forschungsergebnisse in das praktische Arbeitsumfeld besteht wie in vielen anderen Forschungsfeldern auch im Falle des Arbeits- und Gesundheitsschutzes allerdings ein Transferproblem. Unter diesem Transferproblem subsummiert man disziplinenübergreifend sämtliche Faktoren, die eine mangelhafte Wahrnehmung und Anwendung wissenschaftlicher Forschungsergebnisse in der Praxis bewirken6. Die Ergebnisse des BMBF-Metaprojektes StArG (Strategischer Transfer im Arbeits- und Gesundheitsschutz), das die aktuellen Präventionsprojekte begleitet, weisen darauf hin, dass die Transferproblematik auch im Präventiven Arbeits- und Gesundheitsschutz noch nicht abschließend gelöst ist. Praktiker beklagen weiterhin die teilweise mangelnde Praxisrelevanz wissenschaftlicher Forschungsergebnisse, Forscher bemängeln die fehlende Umsetzung der wissenschaftlichen Ergebnisse im unternehmerischen Handeln. Der Grund wird dabei oftmals im Scheitern von Transfer gesehen. 6 Vgl.
Haarich u. a. (2010).
58
Ingo Leisten und Frank Hees
Doch was versteckt sich hinter dem Ausdruck „Transfer“ im beschriebenen Themenfeld? Henning / Leisten / Bach / Hees (2009) weisen darauf hin, dass es notwendiger Weise einer Spezifizierung des Transfer-Begriffs bedarf. Neben Breitentransfer, der vor allem die Stakeholder der Präventionslandschaft im Sinne von Öffentlichkeitsarbeit und (Forschungs-)Marketing ansprechen und sensibilisieren soll, geht es um Tiefentransfer, der sich insbesondere auf Projektebene realisiert. Transfer im Sinne von Tiefentransfer bezieht sich auf die kooperative Forschungsarbeit zwischen Akteuren aus Forschung, unternehmerischer Praxis und Intermediären (wie zum Beispiel Verbände und Kammern, Krankenkassen und Berufsgenossenschaften). Hier entscheidet sich, inwiefern „Produkte“ der Forschungsarbeit in der (unternehmerischen) Praxis akzeptiert, verstanden, gewollt, angewendet und weiterentwickelt werden. Dazu werden Konzepte zur Wissensgenerierung und Handlungsumsetzung benötigt, die eine kooperative Zusammenarbeit in Akteursallianzen fördern. Unbestritten leistet der Präventive Arbeits- und Gesundheitsschutz einen Beitrag zur Stärkung der Innovationsfähigkeit7. Innovation kann nach Kowohl und Krohn (2000) als ein konstruktiver Lernprozess verstanden werden, der Entwurf und Verwendung umfasst. Doch diese Reziprozität des Innovationsprozesses spiegelt sich meist nicht in der Konstellation seiner Akteure wieder. Die Personen, die Innovationen entwickeln, sind häufig organisational wie fachlich unabhängig von den späteren Nutzern. Neue Produkte oder Prozesse werden in einer Forschungseinrichtung produziert, um dann über verschieden Kanäle in die Praxis transferiert zu werden. Die Gründe für die häufig mangelnde Praxisrelevanz von Forschungsergebnissen vermuten Henning et al. (2009) in der prinzipiellen Divergenz zwischen den forscherischen und unternehmerischen Zielsetzungen sowie der zum Teil mangelhaften Fähigkeit der Praktiker, akute Forschungsbedarfe zu formulieren. Verstärkt wird diese Symptomatik durch die schwache Ausprägung von Rückkopplungsmechanismen, mittels derer Wissenschaftler Praxiswissen zur Ausrichtung ihrer Forschungsaktivitäten erhalten. Auf der einen Seite steht also der Wissenschaftler mit seinem Streben nach allgemeingültigem Wissen und Erweiterung des disziplinären Erkenntnisstandes, auf der anderen der Anwender, der Interesse an einer möglichst schnellen, effektiven und kostengünstigen Lösung hat. Die unterschiedlichen Interessenhorizonte, Handlungslogiken, Verarbeitungskontexte und Alltagswelten von Forschern und Praktikern können dazu führen, dass Forschungsergebnisse nur eine geringe Relevanz im praktischen Arbeitsfeld haben8. 7 Vgl. 8 Vgl.
Henning u. a. (2009b). Sauer (2005).
Transferkommunikation von Innovations- und Forschungswissen59
An dieser Stelle zeigt sich, dass strategische Transferkonzepte nicht erst bei der Vermittlung, sondern schon bei der Produktion von Wissen ansetzen müssen9. „Das Wissenstransferproblem beginnt bereits während der Entstehungsphase von Wissen“10. Das Spannungsfeld zwischen den verschiedenen Systemzugehörigkeiten und Handlungslogiken von Forschern und Praktikern kann nur durch ein gegenseitiges Verständnis gelöst werden, welches einen intensiven Austausch von Forschern und Praktikern erfordert. Dies setzt eine Abkehr von einem Sender-Empfänger-Denken bei der „Transfer“-Arbeit voraus (Leisten / Hees 2009): es geht nicht um die isolierte Lösungssuche von Forschung für die unternehmerische Praxis mit einem universellen Umsetzungsanspruch. Vielmehr muss die Spezifik unternehmerischer Notwendigkeiten und Rahmenbedingungen sowie das Erkenntnisinteresse von Forschung gleichberechtigt in der kooperativen Projektarbeit berücksichtig werden. Um dem Rechnung zu tragen, wird im Bereich der Anwendungsforschung zunehmend auf kooperative Methoden bei der Zusammenarbeit von Forschung und (unternehmerischer) Praxis gesetzt. Der Zusammenschluss heterogener Akteure aus Wirtschaftsunternehmen, Wissenschaftsorganisationen und Dienstleistungseinrichtungen gewinnt zunehmend an Bedeutung11.
C. Transfer Engineering – Leitlinie für Strategische Transferkommunikation Ein Ansatz, der die daraus resultierenden Anforderungen zur Gestaltung der Kooperation der heterogenen Projektbeteiligten gerecht wird, ist das Transfer Engineering. Transfer Engineering beschreibt ein Konzept, das Gestaltungsaspekte und Methoden für eine systematische Kommunikationsund Kooperationsentwicklung zwischen Akteuren aus Forschung, unternehmerischer Praxis, Intermediären und überbetrieblichen Partnern in anwendungsorientierten Forschungsprojekten aufzeigt. Beschreibungs- und Gestaltungsdimensionen der Zusammenarbeit im Sinne des Transfer Engineerings werden in der Literatur im Rahmen von Studien zu Partizipation und Empowerment sowie aktuell zur Einbeziehung des Kunden in den Innovationsprozess diskutiert. Als bedeutender Einflussfaktor im Innovationsprozess werden Information und Kommunikation identifiziert (vgl. Bamberg u. a. 2009). Eine wesentliche Ursache für fehlgeschlagene Innovationen im Forschungsprozess liegt nach Scholl (2004) in sogenannten Informationspathologien zwischen Entwicklern und Anwendern. Diese Pathologien bestehen 9 Vgl.
Haarich u. a. (2010). (2007), S. 238. 11 Vgl. Sauer (2005), S. 13. 10 Ludwig
60
Ingo Leisten und Frank Hees
in entscheidungsrelevanter Information, die – obwohl prinzipiell zugänglich – nicht produziert, nicht korrekt übermittelt, nicht beschafft oder nicht korrekt verarbeitet wird. Der Austausch von Information und der kooperative Wissensproduktionsprozess ist in der Forschungsprojektarbeit wesentlicher Erfolgsfaktor für das Erreichen der Projektziele und damit für den Innovationsprozess. Transfer Engineering bezieht sich ausdrücklich auf alle Phasen des Innovationsprozesses und damit auf alle Phasen der Projektarbeit. Die Zusammenarbeit zwischen Forschern und Praktikern kann sich nicht nur auf einzelne Projektphasen, wie etwa in der Erhebungsphase und in der Anwendungsphase, beziehen. Vielmehr zählen zu den phasenübergreifenden Einflussfaktoren eine gemeinsame Mission und die kontinuierliche Einbeziehung aller relevanten Akteursgruppen, um eine bestmögliche Akzeptanz aufzubauen12. Dies ist von besonderer Bedeutung, wenn meinungs-, einstellungs- und verhaltensrelevante Veränderungsprozesse auf individueller oder organisationaler Ebene durch ein Projekt angeregt werden soll, so wie es in den meisten Projekten zum Präventiven Arbeits- und Gesundheitsschutz der Fall ist. Bisher wurde bei der Entwicklung von Produkten und Dienstleistungen in Forschungsprojekten oftmals nur der Nutzen einer der Partner berücksichtigt: entweder das Erkenntnisinteresse der Forscher oder die Anforderungen der Praxis. Vor den aktuellen Diskursen zu Innovationen durch Kunden orientierung werden Forderungen von Forschungsförderern nach stärkerer Kundenorientierung des „Leistungsangebotes“ von Forschungsprojekten laut: Forschungsprojekt-Ergebnisse sollen akzeptiert und benötigt werden, es soll Nachfrage nach den erzielten Lösungen bestehen, und Ergebnisse sollen den Erwartungen der Praktiker entsprechen. Dabei ist „Kundenorientierung“ – d. h. in diesem Verständnis Praxis-Nähe – nicht ausschließlich auf Produkte der Forschung zu beziehen, sondern auch auf den eigentlichen Entwicklungs- bzw. Innovationsprozess. So tritt neben das Kriterium der Kundenorientierung bzw. Praxisrelevanz der Ergebnisse des Forschungsprojektes in Anlehnung an Bruhn (2003) auch das Kriterium der Kundennähe des Interaktionsverhaltens. Doch wer ist eigentlich der Kunde in einem Forschungsprojekt? Es ist zu „reflektieren, dass nicht bloß […] die Wissenschaft in ein System der Praxis, sondern auch das System der Praxis in die Wissenschaft hinein interveniert“13. Im Rahmen des Konzeptes Transfer Engineering werden anstelle einer Kundenbeziehung zwischen Forschung und Praxis die Begriffe Anbieter und Nachfrager verwendet. Dies betont den Austauschprozess zwischen den Akteuren der 12 Vgl.
Payne (1990). u. a. (2009), S. 54.
13 Hanschitz
Transferkommunikation von Innovations- und Forschungswissen61
Projektarbeit: sowohl Forscher als auch Praktiker halten jeweils spezifische Leistungsangebote für den jeweils anderen Partner vor und versprechen sich vom jeweils anderen Projektpartner und von der gemeinsamen Projektarbeit spezielle Leistungen. Ziel von Transfer ist damit die anwendungsorientierte Interpretation von Information, um so gemeinsames, neues Wissen zu schaffen. Für die Forschung sind Wissen und Erkenntnisinteresse konstitutive und sinnstiftende Elemente. Doch auch die unternehmerische Seite kann nicht ohne (neues) Wissen nachhaltig wettbewerbsfähig sein; doch trotz aller Bemühungen, die Ressource Wissen entzieht sich hartnäckig jeder trivialisierenden Steuerungspraxis14. Auch wenn der Begriff „Wissensmanagement“ seit Jahren in Theorie und Management-Praxis kursiert, sind zahlreiche Instrumente und Methoden mehr oder weniger gescheitert; es besteht weiterhin die unabdingbare Notwendigkeit für Unternehmen nach Austausch von Wissen. Nach North u. a. (2010) lassen sich vier Gründe anführen, die Wissensaustausch für Unternehmen immer wichtiger werden lassen: ähnliche Probleme an unterschiedlichen Orten, Wissensintransparenz, Synergien durch Erfahrungsaustausch, Wissensteilung als menschliches Grundbedürfnis. Um diesen Anforderungen zu begegnen, sind „Möglichkeiten zu schaffen, Dialoge zwischen Wissensanbietern und Nachfragern zu unterstützen, um Wissen lokal verfügbar zu machen, Problemlösungen an spezifische Kontexte anzupassen sowie fehlendes Wissen zu beschaffen, zu vernetzen und zu kombinieren“15. Diese Einsicht bezieht sich explizit auf den unternehmensinternen Wissensproduktions- und Wissensaustauschprozess; doch auch für Handlungszusammenhänge, in denen überbetriebliche Zusammenarbeit in heterogenen Personenkonstellationen realisiert werden, wie in den hier beschriebenen Präventionsprojekten, ist Norths Forderung unverzichtbar. Verschwimmen nun die Grenzen zwischen Anbieter und Nachfrager im Forschungsprozess, da unternehmerische Praxis und Forschung gleichsam „Kunde“ als auch Anbieter von Informationen sind, so verstehen sich die Dimensionen der Kundenorientierung aus dem Industriegüter-Kontext16 bidirektional: Ein anwendungsorientiertes Forschungsprojekt weist dann Kundenorientierung auf, wenn der Entwicklungsprozess und die erzielten Ergebnisse a) Nutzbarkeit und Nützlichkeit für die (unternehmerische) Praxis aufweisen, b) dem Erkenntnisinteresse der Forschung dient und das Interaktionsverhalten der Beteiligten es zulässt, dass 14 Vgl.
North u. a. (2010). u. a. (2010). 16 Vgl. Bruhn (2003). 15 North
62
Ingo Leisten und Frank Hees
c) Vertreter der Forschung kontinuierlich Transparenz in die unternehmerische Praxis erhält und damit zum Teil der Praxis werden und d) Praktiker in den Forschungsprozess als Experten einbezogen werden und damit zum Teil der Forschung werden. Je intensiver die Interaktion und die Kooperationserfordernisse zwischen Forschung und Praxis, desto besser sind die Voraussetzungen für Perspektivenübernahme und gemeinsame Wissensschaffung. Hinsichtlich des Gegenstands der Projektarbeit können (und werden) zwischen Praktikern und Forschern gegenläufige Interessen bestehen. Oftmals sind die unternehmerischen Interessen an Präventionsthemen, wenn überhaupt ein Bedarf ausgeprägt ist, von grundsätzlich anderer Art als die der Präventionsforscher17. Abstrahierend lässt sich dies im anfangs beschriebenen Dilemma Nachhaltigkeit vs. kurzfristige Gewinnerwartung zusammenfassen. Aufgrund der differierenden Erwartungen ist ein gemeinsamer Gegenstand der Interaktion und Kooperation im Forschungsprozess zu bestimmen, der von allen Akteuren geteilt wird und für alle Relevanz hat. Die Akteure sollten ihr Handeln so aufeinander abstimmen, dass ein gemeinsamer Gegenstand bearbeitet werden kann18 und ein kooperativer Prozess der Leistungserstellung gestaltet wird. Dies führt zu einer veränderten Rolle der Projektakteure: die Praktiker werden vom passiven Beobachtungsobjekt der Forschung zu einem Co-Produzenten der Forschungsprojektergebnisse und die Forscher vom Beobachter von Praxis zum Berater, Moderator, Begleiter und Dienstleister im anwendungsorientierten Kontext. Wenn beide Seiten lernen, sich beide als Lehrer und Schüler fühlen, entsteht ein lebendiger Wissensaustausch19. Um eben diesen Prozess zu unterstützen, wird ein Kommunikations- und Kooperationsentwicklungsprozess zwischen den Projektakteuren im Sinne des Transfer Engineerings angeregt.
D. Interaktion als sensible Stellgröße im Innovationsund Forschungsprozess Die Ergebnisse des Metaprojektes StArG zeigen den transferförderlichen Einfluss langfristig angelegter Transferpartnerschaften zwischen Forschung und Praxis. Entscheidender als der Einsatz von Methoden zur Informationsweitergabe und -speicherung ist vielmehr noch die gegenseitige Anerkennung der Forscher und Praktiker als gleichberechtigte Experten innerhalb der Projektarbeit. Demnach sind Kommunikations- und Kooperationsräume 17 Vgl.
Henning u. a. (2009). Dunkel (2004). 19 Vgl. North u. a. (2010). 18 Vgl.
Transferkommunikation von Innovations- und Forschungswissen63
in der Projektarbeit zu schaffen, die die Expertise von Forschern und Praktikern gleichsam in den gemeinsamen Entwicklungsprozess einfließen lassen, um so einen Mehrwert für beide Seiten zu schaffen20. Ziel ist ein Projektsystem, das sich nach North als Wissensgemeinschaft definieren lässt. Wissensgemeinschaften sind über „einen längeren Zeitraum bestehende Personengruppen, die Interesse an einem gemeinsamen Thema haben und Wissen gemeinsam aufbauen und austauschen wollen“21. Wissen wird damit im Prozess der Kooperation zum Produkt der Interaktion der Personen, wobei explizite und implizite Anteile von Wissen untrennbar verbunden sind. Die impliziten Elemente von Wissen werden erhalten und weitergegeben bzw. an die lokalen Nutzungsbedingungen angepasst. Dies hat zur Folge, dass sich der Prozess weitgehend selbstgesteuert entwickelt und nur die Rahmenbedingungen geschaffen werden können, damit Wissensgemeinschaften entstehen22. Das Interaktionsverhalten entscheidet über den Erfolg der Zusammenarbeit. Michulitz (2005) hat gezeigt, dass Kommunikation durch ihre Ereignishaftigkeit prozesshafte Eigenschaften hat und darüber hinaus durch die Mitteilung von Entscheidungen23 in Organisationen und damit auch in überbetrieblichen Projekten strukturbildend ist. Die Grenze für die Zuordnung konkreter kommunikativer Handlungen zum Prozess oder zur Struktur der Organisation ist dabei fließend. Ob Kommunikation durch den Anschluss von Verstehen an mitgeteilte Information24 oder als Transformations-25 oder Evolutionsprozess in Organisationen26 verstanden wird, so verdeutlicht jede Perspektive nach Michulitz (2006) den Charakter von Kommunikation als (Kern-)Prozess einer Organisation. Die im Förderschwerpunkt Präventiver Arbeits- und Gesundheitsschutz untersuchten Projekte werden als Organisationen auf Zeit verstanden; alle Handlungen in diesen Projekten sind entweder genuin kommunikative Handlungen oder „von Kommunikation flankierte Handlungen, deren Kernursache oder Wirkungen Kommunikation sind“27. Um diese kommunikativen Handlungen in der Projektarbeit erfassen, einordnen und analysieren zu können, werden Leitdifferenzen entwickelt. Diese Leitdifferenzen ermöglichen die Beschreibung des Kommunikationsprozesses sowie die Ver20 Valter
(2009). North u. a. (2010). 22 Ebd. (2010). 23 Vgl. Luhmann (1984). 24 Vgl. Krämer (2001). 25 Vgl. Henning / Marks (1992). 26 Vgl. Michulitz (2006). 27 Vgl. Michulitz (2006), S. 58. 21 Vgl.
64
Ingo Leisten und Frank Hees
bindung von Prozess- mit Strukturmerkmalen. Jede Organisation – und damit auch jedes Projekt – entwickelt durch die für sie typischen Rahmenbedingungen und die daran anschließenden Kommunikationsprozesse ihre eigenen Kommunikationsmuster. Für die Untersuchung der Kommunikation in den Präventionsprojekten – insbesondere hinsichtlich der Beziehung zwischen Forschern und Praktikern – sollen Leitdifferenzen Instrumente zur Beschreibung der Kommunikation sein. Michulitz (2006) leitet aus unterschiedlichen Ansätzen der empirischen Forschung im Bereich der Organisationsentwicklung28 sechs Leitdifferenzen ab, die sie in Fallstudien zur internen Unternehmenskommunikation validiert: Kommunikationsorte, Kommunikationszeiten, Kommunikationswege, Personenkonstellation, Technische Hilfsmittel, Themen. In einer aktuellen Studie des Metaprojektes StArG wurden zur Untersuchung des Kommunikations- und Kooperationsverhaltens in den Forschungsprojekten des Förderschwerpunktes Präventiver Arbeits- und Gesundheitsschutz zentrale Projektakteure aus Forschung und Praxis in teilstandardisierten Interviews befragt. Im Rahmen einer rekonstruierenden Untersuchung29 wurden aus den Aussagen der Interviewpartner Kriterien in Form von Variablen abgeleitet, die in ihren verschiedenen Ausprägungen die jeweilige Integration (Forschung in das Feld der Praxis sowie Praxis in das Feld der Forschung) durch kommunikative und kooperative Handlungen in einer Art zeitlichem Einschnitt des Kommunikationsprozesses im Forschungsprojekt beschreiben. Die Angaben der Interviewpartner wurden inhaltsanalytisch ausgewertet und die jeweiligen Merkmalsausprägungen isoliert. Das entwickelte Kriteriensystem ermöglicht so eine qualitative Analyse des einzelnen Forschungsprojektes und zudem eine vergleichende Betrachtung zwischen den Projekten. Schließlich werden die aus der qualitativen Inhaltsanalyse stammenden Dimensionen zum Kooperations- und Kommunikationsverhalten in den jeweiligen Forschungsprojekten den sechs aus der Theorie abgeleiteten Leitdifferenzen zugeordnet (vgl. Tabelle 1). Ergänzt werden die Dimensionen der Befragung durch Ergebnisse von sogenannten Transfer-Diagnose Workshops. Ziel eines solchen Workshops ist neben der systematischen Analyse der Transfersituation die Sensibilisierung der Projektakteure für die verschiedenen Dimensionen und Charakteristika des Transferprozesses, der sich in der Zusammenarbeit in den jeweiligen Transferpartnerschaften zwischen Forschern, Praktikern und Intermediären vor dem jeweiligen Projekthintergrund realisiert30. Neben der Erfassung der Zielgruppen des Präventionsvorhabens werden die spezifischen 28 Vgl.
Müller (2000); von Rosenstiel (1996); Frey / Bente / Frenz (1995). Gläser / Laudel (2009). 30 Vgl. Hees / Leisten / Bach (2010). 29 Vgl.
Transferkommunikation von Innovations- und Forschungswissen65 Tabelle 1 Leitdifferenzen nach Michulitz (2005) und zugeordnete Dimensionen zur Kommunikation und Kooperation in Projekten des Präventiven Arbeitsund Gesundheitsschutzes Leitdifferenzen
Dimensionen und Ausprägungen der qualitativen Inhaltsanalyse (Auswahl)
Kommunikationsorte
Orte der Interaktion, gemeinsame Arbeitsräume, Rahmenbedingungen
Kommunikationszeiten
Dauer der Kooperation, Zusammenarbeit in Projektphasen, Kommunikationshäufigkeit, Nachhaltigkeit
Kommunikationswege
Entscheidungsfindung, Entscheidungsspielraum, Kommunikationsformen, Kommunikationsrichtung, Formalisierungsgrad, Feedbacksystem
Personenkonstellation
Akteursstruktur, Projektrollen, Rollenverständnis, Hauptzielgruppe, Beziehungsstruktur
Technische Hilfsmittel
Instrumente und Methoden zur gegenseitigen Integration
Themen
Projektinhalte, Projektziele, Konflikte
Rahmenbedingungen des Projektes hinsichtlich der Dimensionen Mensch, Organisation und Technik sowie deren triadischen Wechselwirkungen31 erarbeitet. Schließlich werden die Ziele und Inhalte des Präventionsprojektes gemäß den Rekursionsebenen Individuum, Organisation, Netzwerk und Gesellschaft erfasst. Dies eröffnet eine systematische Erfassung des Zielsystems und der inhaltlichen Ausrichtung des Projektes; diese Daten werden in einem zweiten Schritt in Bezug zu den adressierten Zielgruppen gesetzt. Es ist dabei zu prüfen, inwiefern die Inhalte und Ziele als eine von allen Projektakteuren gemeinsam getragene „Projektmission“ verfolgt werden und inwiefern alle Interessensvertretungen zur Erzielung einer größtmöglichen Akzeptanz und nachhaltigen Umsetzung der Projektergebnisse in der Entwicklungsphase des Projektes integriert sind. Die Analyse der Projekte mit Hilfe der vorgestellten Methoden hinsichtlich des Kooperations- und Kommunikationsverhaltens ermöglichen zum Einen als Diagnose- und Reflexionsinstrument eine systematische Spiegelung der „Transferarbeit“ während der Projektlaufzeit. Zum Anderen wird durch die Zusammen- und Gegenüberstellung der unterschiedlichen Ansätze zum „Transfer“ der analysierten Projekte des Förderschwerpunktes „Präven31 Vgl.
Aytac (2003).
66
Ingo Leisten und Frank Hees
tiver Arbeits- und Gesundheitsschutz“ der „State of the Art“ abgebildet. So lassen sich unterschiedliche Ansätze zur Gestaltung der Kooperation zwischen Forschern, Praktikern und Intermediären isolieren, die entsprechend dem Leitbild „Transfer Engineering“ Kommunikation zwischen den Projektakteuren mit unterschiedlichen Instrumenten und Methoden entwickeln. Als gelungene Beispiele lassen sich u. a. die Projekt PräSend und PräTrans nennen. Das Projekt PräSend (Betriebliche Prävention durch Service Engineering und Dienstleistungsmanagement) verfolgt den in der Dienstleistungsforschung entwickelten Ansatz des Service Engineerings zur konsequenten Einbindung von Betrieben, Kammern und Verbänden in den Forschungsprozess erstmalig in der Präventionsforschung. In Transferpartnerschaften des Projektes PräTrans (Gesundheit Unternehmen) erarbeiten Forscher und Unternehmensvertreter und Intermediäre im Dialog bereits in der Konzeptentwicklung gemeinsam Maßnahmen und Lösungsräume für einen betrieblichen Arbeits- und Gesundheitsschutz.
E. Fazit Verfahren und Ansätze zur Integration des Kunden in den Innovationsprozess sind in der Produktions- und teilweise in der Dienstleistungsentwicklung State-of-the-Art. Entsprechende Methoden für die Arbeitsforschung finden sich in Konzepten zur Partizipation und in der Aktionsforschung. Die Ergebnisse aus den vorgestellten Befragungen und Workshops mit den Projekten des Präventiven Arbeits- und Gesundheitsschutzes zeigen, dass diese Konzepte jedoch nicht konsequent umgesetzt werden. Forscher wie Praktiker beklagen ein Transferproblem, das sich u. a. in der mangelnden Umsetzung von Innovations- und Forschungswissen in (unternehmerischem) Handeln zeigt. Eine Lösung liegt in der Interaktionsarbeit der Projektakteure, die in der Zusammenarbeit gemeinsame Projektziele, Handlungsweisen und eine gemeinsame Sprache entwickeln. Transfer Engineering zielt auf die anwendungsorientierte Interpretation von Information, um so gemeinsames, neues Wissen zu schaffen. Es schlägt eine projektphasenübergreifende, bewusste Gestaltung der Kommunikations- und Kooperationsprozesse in Forschungsprojekten vor, in der die Rollen zwischen Experten und Laien, Forschern und Praktikern, Anbieter und Kunde verschwimmen. Die vorgestellten Leitdifferenzen mit den entsprechenden Dimensionen geben Anregungen zur Reflexion und Gestaltung von Kommunikations- und Kooperationsentwicklung in Forschungsprojekten. Durch das „Leben“ des Leitbildes Transfer Engineering realisiert sich das, was Volkholz als „Transferproduktivität“ beschreibt; diese wird durch die „Lust, etwas zusammen zu tun, durch neue Formen praktischer Kreati-
Transferkommunikation von Innovations- und Forschungswissen67
vitätserprobung, von Experimentieren“32 erhöht. Gleichzeitig wird durch die konsequente und kontinuierliche Rückbindung der unterschiedlichen und sich ändernden Zielsysteme von Forschung, Unternehmen und weiteren Interessensvertretungen an den gemeinsamen Projektzielen die Kommunikation und damit die Kooperation im Forschungsprojekt entwickelt. Wenn dies gelingt, kann sich der Präventive Arbeits- und Gesundheitsschutz „daran messen lassen, ob er einen Beitrag zur Potentialentwicklung des Unternehmens leistet, zur Fähigkeit, sich auf Veränderungen einzustellen“33. Nicht Forschung isoliert kann ein Unternehmen wettbewerbsfähig machen; Forschung kann nur gemeinsam mit den Unternehmen und Intermediären die Potentiale der Arbeitsforschung und des Präventiven Arbeits- und Gesundheitsschutzes heben34. Bei dieser Art von Kooperation soll es nicht darum gehen, die Unterschiede zwischen Forschung und Praxis „zum Verschwinden zu bringen, sondern durch verstehens- und aushandlungsorientierte Prozesse aus- und abzugleichen, um gemeinsam getragene und tragfähige Entscheidungen zu finden“35. Damit entwickelt sich das Paradigma der anwendungsorientierten Forschung vom „Forschen für die Praxis“ zum „Forschen mit der Praxis“! Literaturverzeichnis Aytac, S. (2003), Lean Manufactoring as a Human-Centred Approach for Manufactor ing System Design. Reflections on Human-Centred Systems and Leadership. An International Knowlegde Management Academy. Aachen. Bamberg, Eva / Dettmers, Jan / Marggraf-Micheel, Claudia / Stremming, Saskia (2009), Innovationen in Organisationen – der Kunde als König? Verlag Hans Huber, Bern. Bruhn, Manfred / Homburg, Christian (2003), Handbuch Kundenbindungsmanagement. Gabler: Wiesbaden. Bundesministerium für Bildung und Forschung (2008), Programm Arbeiten – Lernen – Kompetenzen entwickeln. Innovationsfähigkeit für eine moderne Arbeitswelt. Online: www.bmbf.de / pub / innovationsfaehigkeit_arbeitswelt.pdf. Dunkel, Wolfgang (2004), Arbeit am Kunden. Herausforderungen und Zukunftschancen für das personenbezogene Handwerk. In: Kreibich, R.; Oertel, B. (Hrsg.): Erfolg mit Dienstleistungen. Innovationen, Märkte, Kunden, Arbeit. SchaefferPoeschle: Stuttgart. S. 263–269. Frey, Siegfried / Bente, Gary / Frenz, Hans-Georg (1995), Analyse von Interaktionen. In: Schuler, Heinz (Hrsg.): Lehrbuch für Organisationspsychologie. Huber: Göttingen. 32 Vgl.
Volkholz (2007). ebd. 34 Vgl. Henning / Leisten / Bach / Hees (2009). 35 Hanschitz u. a. (2009). 33 Vgl.
68
Ingo Leisten und Frank Hees
Gläser, J. / Laudel, G. (2009), Experteninterviews und qualitative Inhaltsanalyse als Instrumente rekonstruierender Untersuchungen. Wiesbaden. Haarich, Maximilian / Leisten, Ingo / Hees, Frank / Jeschke, Sabina (2010), Langfristiges Verstehen durch kurzfristiges Missverstehen. Die Bedeutung der interaktivtranskriptiven Störungsbearbeitung für den Transfer von Wissen. In: Henning, Klaus; Bach, Ursula; Hees, Frank (Hrsg.): Präventiver Arbeits- und Gesundheitsschutz 2020: Prävention weiterdenken! ARMT Band 63. Mainz Verlag: Aachen. Hanschitz, R. / Schmidt, E. / Schwarz, G. (2009), Transdisziplinarität in Forschung und Praxis. Chancen und Risiken partizipativer Prozesse. 1. Aufl., Schriften zur Gruppen- und Organisationsdynamik, Bd. 5. Wiesbaden. Hees, Frank / Leisten, Ingo / Bach, Ursula (2010), Strategischer Transfer im Arbeitsund Gesundheitsschutz. Themenheft des BMBF Metaprojektes. Aachen. Henning, Klaus / Hees, Frank / Leisten, Ingo (2009a), Unternehmenskybernetik 2020 – Betriebswirtschaftliche und technische Aspekte von Geschäftsprozessen. In: Henning, Klaus; Michulitz, Christiane (Hrsg.): Unternehmenskybernetik 2020 – Betriebswirtschaftliche und technische Aspekte von Geschäftsprozessen. Wirtschaftskybernetik und Systemanalyse, Band 25. Berlin: Duncker&Humblot. Henning, Klaus / Leisten, Ingo / Bach, Ursula / Hees, Frank (2009), Präventionsforschung und unternehmerische Praxis: Zwei Seiten einer Medaille. In: Henning, Klaus; Leisten, Ingo; Hees, Frank (Hrsg.): Innovationsfähigkeit stärken – Wettbewerbsfähigkeit erhalten. Präventiver Arbeits- und Gesundheitsschutz als Treiber. ARMT Band 60. Mainz Verlag: Aachen. Henning, Klaus / Leisten, Ingo / Hees, Frank (Hrsg.) (2009b), Innovationsfähigkeit stärken – Wettbewerbsfähigkeit erhalten. Präventiver Arbeits- und Gesundheitsschutz als Treiber. ARMT Band 60. Mainz Verlag: Aachen. Henning, Klaus / Marks, Siegfried (1992), Kommunikations- und Organisationsentwicklung. ARMT. Mainz Verlag: Aachen. Kowol, Uli / Krohn, Wolfgang (2000), Innovation und Vernetzung. In: Weyer, Johannes (Hrsg.): Soziale Netzwerke. Konzepte und Methoden der sozialwissenschaftlichen Netzwerkforschung. Oldenbourg: München / Wien. Krämer, Sybille (2001): Sprache, Sprechakte, Kommunikation. Sprachtheoretische Positionen des 20. Jahrhunderts. Suhrkamp: Frankfurt a. M. Leisten, Ingo / Hees, Frank (2009), Strategic Transfer Communication in Prevention Research as a Contribution to the Innovative and Competitive Ability of Enterprises. In: ICERI (Hrsg.): International Conference of Education, Research and Innovation. Madrid, S. 6003–6010. Ludwig, Joachim (2007), Wissenschaftstransfer, Wissenstransfer und neue Veränderungskulturen. In: Ludwig, Joachim; Moldaschl, Manfred; Schmauder, Martin; Schmierl, Klaus (Hrsg.): Arbeitsforschung und Innovationsfähigkeit in Deutschland. München und Mering, S. 237–247. Luhmann, Niklas (1984), Soziale Systeme. Grundriss einer allgemeinen Theorie. Suhrkamp: Frankfurt a. M.
Transferkommunikation von Innovations- und Forschungswissen69
Michulitz, Christiane (2005), Kommunikationsprozessanalyse – ein interdisziplinärer Beitrag zur Analyse der Kommunikation in Organisationen. Unternehmenskybernetik in der Praxis, Band 11. Shaker Verlag: Aachen. Müller, Andreas (2000): Der Bericht an den Betrieb. Zur soziolinguistischen Dokumentation und Beurteilung des kommunikativen Haushalts in einer Organisation. In: Gesprächsforschung – Online Zeitung zur verbalen Interaktion. Ausgabe 1. North, Klaus / Romhardt, Kai / Probst, Gilbert (2010), Wissensgemeinschaften – Keimzellen lebendigen Wissensmanagements. Online:www.aifb.uni-karlsruhe. de / Lehrangebot / Sommer2001 / Wissensmanagement / download / literatur / CoP-Arti kel%20im%20ioMgt.pdf. Payne, R. (1990), The Effectiveness of Research Teams. A Review. In: West, M. A.; Farr, J. L. (Hrsg.): Innovation and Creativity at Work. Psychological and Organizational Strategies. Wiley. Chichester. S. 101–122. Rosenstiel, Lutz von (1996): Kommunikation und Führung in Arbeitsgruppen. In: Schuler, Heinz (Hrsg.): Lehrbuch für Organisationspsychologie. Bern. Sauer, Jutta (2005): Förderungen von Innovationen in heterogenen Forschungsnetzwerken und Evaluation am Beispiel des BMBF-Leitprojektes SENEKA. Aachener Reihe Mensch und Technik, Bd. 55. 1. Aufl. Aachen. Scholl, Wolfgang (2004), Innovation und Information. Wie in Unternehmen neues Wissen produziert wird. Hogrefe, Göttingen. Trantow, Sven / Schuster, Katharina / Hees, Frank / Jeschke, Sabina (2010), Spannungsfelder der Innovationsfähigkeit. Internationales Monitoring im BMBF-Forschungs- und Entwicklungsprogramm A-L-K. In: Henning, Klaus; Bach, Ursula; Hees, Frank (Hrsg.): Präventiver Arbeits- und Gesundheitsschutz 2020: Prävention weiterdenken! ARMT Band 63. Mainz Verlag: Aachen. Valter, Sarah (2009), Anwendungsorientierte, partizipative Forschung im Präventiven Arbeits- und Gesundheitsschutz. Analyse der Integration der (unternehmerischen) Praxis in den Forschungsprozess. Bachelorarbeit am ZLW / IMA der RWTH Aachen. Volkholz, Volker (2007), Capability for Innovation. In: Ludwig, J.; Moldaschl, M. (Hrsg.): Arbeitsforschung und Innovationsfähigkeit in Deutschland. München.
Softwaregestütztes Technologie-Roadmapping – Unterstützungspotenziale, Werkzeuge, Empfehlungen Von Ralf Isenmann, Benjamin Teufel und Marion Weissenberger-Eibl
A. Einführung in die IKT-Assistenz für das Technologie-Roadmapping Das Technologie-Roadmapping hat sich seit den ersten Ansätzen in den späten 1970er Jahren zu einem vielseitig eingesetzten Instrument im Technologie- und Innovationsmanagement entwickelt. Die Bandbreite der Einsatzfelder umfasst heute nicht mehr nur betriebliche Funktionsbereiche und Einzelunternehmen, sondern auch Unternehmensverbünde in Form von Wertschöpfungsketten und Kunden-Lieferanten-Netzwerken bis hin zu ganzen Industriebranchen, sogar im internationalen Maßstab. Mit den zunehmend komplexeren Anwendungen steigen aber auch die Anforderungen an das Technologie-Roadmapping: So wird es mühsam, zeitaufwändig und ressourcenintensiv, das Technologie-Roadmapping allein in Workshops, rein händisch, ausschließlich auf Papier sowie ohne die Assistenz moderner Informations- und Kommunikationstechnologien (IKT) zu betreiben. Stattdessen bietet es sich an, einerseits die Erstellung, Visualisierung, Pflege und Aktualisierung der Technologie-Roadmaps und andererseits deren Fortschreibung, Auswertung und Weiterverarbeitung durch geeignete Software-Werkzeuge zu unterstützen. Solche Software-Werkzeuge versprechen eine Reihe wirkungsvoller Unterstützungspotenziale, und sie erleichtern das Technologie-Roadmapping in vielfältiger Weise. Der Beitrag liefert dazu eine Übersicht über konzeptionelle Unterstützungspotenziale, am Markt verfügbare Software-Werkzeuge sowie damit verbundene Anwendungsempfehlungen.
72
Ralf Isenmann, Benjamin Teufel und Marion Weissenberger-Eibl
B. Software-Unterstützung für Technologie-Roadmapping Zum Einsatz von Software-Werkzeugen für Technologie-Roadmapping sind Praxisbeispiele dokumentiert, darunter z. B. die Fallstudie bei Motorola1, aber auch Erfahrungen bei Honeywell2 sowie Siemens3. Während Praxisbeispiele in Unternehmen fallbezogene Einblicke in die Entwicklung vom konventionellen Technologie-Roadmapping hin zur IKT-Assistenz und SoftwareUnterstützung gewähren, bieten empirische Studien wie der „Roadmapping Software Survey Report“4 eine gewisse Generalisierung. Die Erkenntnisse aus beiden Quellen, den subjektiv-explorativen Erfahrungen aus den Fallstudien einerseits und die intersubjektiv-empirische Generalisierung andererseits, werden hier in einer konzeptionellen Übersicht zusammengeführt. I. Konzeptionelle Unterstützungspotenziale Unabhängig von Vorgehensmodellen und Vorschlägen zum Ablauf der Aufgaben beim Technologie-Roadmapping geht es inhaltlich um zwei Kernpunkte: zum einen um die Klärung organisatorischer Aspekte wie Abgrenzung der Aufgaben und Abstimmung der Beteiligten sowie zum anderen um die Erstellung der Roadmaps, die Diskussion der Roadmaps-Entwürfe und deren Bewertung. Für beide Bereiche, für Organisation und institutionelle Verankerung einerseits sowie zur Unterstützung der Kernprozesse andererseits, bieten Software-Werkzeuge Erleichterungen. Neben diese traditionellen unternehmensinternen Bereiche tritt neuerdings ein Anwendungsfeld für unternehmensexterne Dienstleister und Bildungsinstitutionen als dritter Bereich, der sich im Technologie-Roadmapping durch den Einsatz von Software-Werkzeugen herauskristallisiert. Bei den Bereichen, wo und warum moderne IKT für das Technologie-Roadmapping eingesetzt werden und welche Potenziale Software-Werkzeuge erschließen können, ist insgesamt zu differenzieren zwischen5: •• organisatorischen Aspekten der institutionellen Verankerung, •• prozessualer Hilfe entlang der Kernprozesse des Technologie-Roadmapping und ergebnisbezogen bei der Nutzung der Roadmaps sowie •• akteursorientiert, seien es Ersteller und Bearbeiter von Roadmaps sowie deren Adressaten als auch externe Dienstleister und Bildungsinstitutionen. 1 Vgl.
Willyard / McClees (1987), Grinnell et al. (2002); Richey / Grinnell (2004). Bucher (2003) und Petrick / Echols (2004), Clerke (2006). 3 Vgl. XWS Cross Wide Solutions (2006). 4 Lupini (2002). 5 Vgl. ausführlich Isenmann (2008). 2 Vgl.
Softwaregestütztes Technologie-Roadmapping73
Abbildung 1: Unterstützungspotenziale eines softwaregestützten Technologie-Roadmapping (Isenmann 2008, S. 231)
Die Technologie-Roadmapping-Workshops, an denen die Entscheidungsträger aus den betrieblichen Funktionsbereichen und Geschäftsfeldern teilnehmen, finden in der Unternehmenspraxis oftmals im jährlichen Rhythmus hinaus statt. Die Gefahr eines solchen „traditional meeting model“ besteht darin, dass die dort getroffenen Entscheidungen tendenziell auf einem „onetime snapshot of the organization“ beruhen. Der Einsatz von SoftwareWerkzeugen kann zu einer Verstetigung beitragen, so dass sich das Technologie-Roadmapping insgesamt zu einem „ongoing process“ entwickelt, ganz im Sinne eines regelmäßig eingesetzten Instruments, nicht nur in Form fallweiser einzelner Workshops. Ein softwaregestütztes Vorgehen eröffnet dabei eine mögliche durchgängige Unterstützung des Technologie-Roadmapping entlang der Kernprozesse, von der Erstellung, Visualisierung und Pflege bis hin zur Archivierung, Auswertung und Weiterverarbeitung der Roadmaps. Parallel zur ablaufbezogenen Prozessorientierung erleichtert und begünstigt der Software-Einsatz die kontinuierliche arbeitsteilige Zusammenarbeit beim Technologie-Roadmapping. Insofern greifen organisatorisch-strukturelle und prozessual-ablaufbezogene Unterstützung beim softwaregestützten Vorgehen ineinander (Abbildung 1). In puncto Organisation unterstützt ein softwaregestütztes TechnologieRoadmapping eine flexibel arbeitsteilige und dezentrale Vorgehensweise der
74
Ralf Isenmann, Benjamin Teufel und Marion Weissenberger-Eibl
Beteiligten, ohne Ortsbindung oder zeitliche Restriktionen z. B. via Fernzugriff. Externe Stakeholder wie Lieferanten und Kunden lassen sich ohne Zeitverzögerung durch online-Befragungen oder Video-Konferenzen einbeziehen. Im Gegenzug können sie aktuelle Information zu Technologie-Roadmaps nahezu in Echtzeit erhalten z. B. via E-Mail. Tendenziell erweitert ein softwaregestütztes Vorgehen den Kreis der möglichen Beteiligten. Den ehemals oftmals kleinen Kreis von Involvierten können Unternehmen beim softwaregestützten Technologie-Roadmapping sukzessive vergrößern, so dass sich je nach Bedarf externe Stakeholder einbeziehen lassen, ohne den aufwändigen Vorlauf von Workshops mit den bekannten Abstimmungsproblemen zu Ort und Zeit. Durch den Software-Einsatz ergeben sich für das Technologie-Roadmapping insofern flexibel handhabbare Institutionalisierungsformen, von einer „closed shop procedure“ bis hin zur Öffnung der Beteiligten im Sinne eines quasi-öffentlichen Vorgehens. Abgestufte Nutzungsrechte auf die Roadmaps sowie Sicherheits-Funktionalitäten schützen vor einem unberechtigten Zugriff auf vertrauliche Information. Die Kernprozesse der Erstellung, Visualisierung, Pflege, Archivierung, Auswertung und Weiterverarbeitung lassen sich durch eine Software-Unterstützung zu einem durchgängig digitalisierten und teilautomatisch gesteuerten Workflow verbinden. Eine zentrale Datenbasis bietet dabei nicht nur ausreichend Kapazität zur Speicherung der Roadmaps, sondern fördert durch vereinheitlichende Templates sowie die Verwendung standardisierter Dateiformate auch eine unternehmensweite Harmonisierung. Zudem lässt sich die Roadmap-Historie besser verfolgen. Eine Versionskontrolle zum Roadmapping wird möglich. Medienbrüche sowie Redundanzen bei der Pflege und Inkonsistenzen bei der Archivierung der Roadmaps lassen sich weitgehend vermeiden. Die Transaktionskosten wie z. B. Suchkosten, Kosten durch manuelle Mehrfacheingaben und Kosten der Konvertierung von Dateiformaten können in beträchtlicher Weise gesenkt werden. Werden die Potenziale der Software-Unterstützung tatsächlich ausgeschöpft, dann kann ein Unternehmen beim Technologie-Roadmapping insbesondere in fünf Bereichen profitieren6: effizientes Informationsmanagement, verbesserte Kommunikation, erleichterte Zusammenarbeit, verlässlichere Planung und strategische Profilierung. Neben den unmittelbaren betrieblichen Unterstützungspotenzialen und den direkten Hilfen für die Bearbeiter der Roadmaps in Unternehmen und ihre Nutzer ergibt sich ein weiteres Erfolg versprechendes Anwendungsfeld, zum einen für spezialisierte Dienstleister rund um das (softwarege6 Vgl.
im Detail Isenmann (2008).
Softwaregestütztes Technologie-Roadmapping75
stützte) Technologie-Roadmapping, darunter z. B. Branchenverbände, Informationsbroker sowie Betreiber von Roadmap-Bibliotheken und Online-Archiven, zum anderen aber auch für Universitäten als Bildungsinstitutionen der Lehre und Forschung7: Als Dienstleister fungieren z. B. die Industry Association for Printed Curcuit Board Industry (IPC) und die National Electronics Manufacturing Initiative (NEMI) in den USA. Sie bieten z. B. Benchmarkings an und erarbeiten branchenweite Referenzroadmaps, mit denen Unternehmen eigene Roadmaps vergleichen und so die angenommene Markt-, Technologie- und Produktentwicklung im Industriezweig insgesamt besser einschätzen können. Als Bildungsinstitution hat das Purdue University Center for Technology Roadmapping eine Internetplattform mit einer „Active Digital Library“ eingerichtet. Interessenten am TechnologieRoadmapping können sich als Nutzer registrieren, verschiedene RoadmapBibliotheken online einsehen oder eigene hinzufügen und sich spezifischen Nutzergruppen zuordnen und die gängigen Vorzüge einer webbasierten Kommunikation nutzen. Die Internetplattform dient dem Center for Technology Roadmapping drei Zwecken: als Knoten zur Bereitstellung von Unterrichtsmaterialien und zur Verteilung von Unterlagen zum Lernen. Ferner bildet sie eine Basis zur Erprobung neuer Methoden, um Roadmaps zu erstellen und Grundmuster z. B. in Form von Ontologien zu entwickeln, Roadmaps z. B. via Data-Mining-Methoden zu analysieren und in Organisationen institutionell zu verankern. Nicht zuletzt repräsentiert die Internetplattform einen virtuellen Ort der Gemeinschaftsbildung, des Erfahrungsaustausches und der Kommunikation. II. Software-Werkzeuge für Technologie-Roadmapping Sind bei den verfügbaren Software-Werkzeugen die Funktionalitäten implementiert, um die konzeptionell möglichen Gestaltungschancen tatsächlich auszuschöpfen, oder steckt darin noch viel Zukunftsmusik? Hierzu hat Baker8 eine optimistisch anmutende Antwort parat: „Today there are powerful software programs available that can help managers identify, select, and implement sound strategies – and thereby improve the quality of their strategic decision making. The toy planning programs of yesteryear proved too slow to deal with the rapid rate of change in a firm’s external environment“. Bucher9 nimmt eine nahezu konträre Sichtweise ein: „A different story is the case of ‚roadmapping software‘. Up to today, all attempts to ‚automate‘ technology roadmapping using roadmapping software required a large 7 Vgl.
Duckles / Coyle (2002). (2000), S. 33. 9 Bucher (2003), S. 250. 8 Baker
76
Ralf Isenmann, Benjamin Teufel und Marion Weissenberger-Eibl
amount of resources but failed without exception.“ Aufgrund der bislang spärlich vorliegenden Erkenntnisse relativiert er allerdings seine eher pessimistische Einschätzung, indem er einräumt, „this generalization is inappropriate“. Die folgende Übersicht zu empirischen Studien zur Softwareunterstützung des Technologie-Roadmapping sowie die hier zusammengestellte Auswahl von Software-Werkzeugen vermag ein Bild vermitteln, um diese Fragen klären zu können, zumindest ansatzweise. Zum Einsatz von Software-Werkzeugen speziell für das TechnologieRoadmapping liegen bislang wenige gesicherte Erkenntnisse vor. Die vorliegenden empirischen Analysen (Tab. 1) haben zumeist einen umfassenderen Fokus auf das gesamte Innovationsmanagement. Sie geben kaum detaillierte Hinweise speziell zur Unterstützung des Technologie-Roadmapping sowie zu Eignungs- und Leistungscharakteristik spezifischer SoftwareWerkzeuge. Gleichwohl bieten sie erste hilfreiche Ansatzpunkte zur Marktseite, welche Software-Werkzeuge derzeit insgesamt angeboten werden und sich zur Unterstützung des Technologie-Roadmapping eignen mögen. Die hier vorgestellte Übersicht von Software-Werkzeugen zum Techno logie-Roadmapping ist das Ergebnis einer datenbankgestützten Literatur recherche. Sie spiegelt die in der einschlägigen Literatur dokumentierten Beispiele wider. Bei der Literaturrecherche lag der Schwerpunkt der Veröffentlichungen zwischen 1995 und Anfang 2006. Deutsche und englische Quellen wurden ausgewertet, darunter zum einen die Datenbanken: ABI Inform Global, CISTI Source, CSA Technology Research Database, Factiva Dow Jones & Reuters, IEEE Xplore Electronic Library Online, Lexi Nexis, McKinsey Quality Search und Science Direct. Zum anderen wurden einschlägige Zeitschriften analysiert wie: Research Technology Management, Technological Forecasting and Social Change, The Journal of Product Innovation Management, Industrie Management, New Management, Journal of the Amercian Society for Information Science and Technology. Gleichwohl lässt sich damit kein Anspruch auf marktabdeckende Vollständigkeit verbinden. Das Technologie-Roadmapping kann auch mit Hilfe von Büro-Anwendungssoftware und Software zum Projektmanagement betrieben werden, zumindest behelfsmäßig. Das Ziel ist hier, das Spektrum der verfügbaren Software-Werkzeuge in seiner Breite zu veranschaulichen, von professionellen Software-Lösungen von Großanbietern mit umfassender Ausstattung und globalem Servicenetzwerk bis hin zur Software im Versuchsstadium eines Prototyps, die Wissenschaftler entwickelt haben. In der Übersicht sind insgesamt acht Software-Werkzeuge einbezogen: VisionMapTM, Vision Strategist, Accept Planner 3 bzw. 360, Trisolver4.net,
Softwaregestütztes Technologie-Roadmapping77
Roadmapping-Tool von Hype, Roadmap-Tool von Lee und Park sowie VxInsightTM und In-SpireTM. Vor dem Hintergrund ihrer grundlegenden Ausrichtung und dem damit einhergehenden Funktionsumfang lassen sich die Software-Werkzeuge drei Bereichen zuordnen: •• Betriebliche Standard-Software, darunter z. B. VisionMapTM, Accolade Vision StrategistTM, Accept Planner 3 bzw. Accept 360 sowie Trisolver4. net; •• spezifische Roadmapping-Software wie das Roadmapping-Tool von Hype und das Roadmap-Tool von Lee und Park sowie •• ergänzende Software, etwa VxInsightTM und In-SpireTM.
Tabelle 1 Studien zu Software-Werkzeugen für Technologie-Roadmapping Autor(en), Jahr
Titel
Untersuchungsgegenstand und Ergebnisse
Methode
Spath, D. et al., (2004)
Marktstudie Innovations systeme
Aufgaben des Innovationsmanagement und darauf basierend am Markt verfügbare, unterstützende IT-Lösungen
Online-Softwareverzeich nisse, digitale Zeitschriften datenbanken, Literatur und Software-Studien, ferner: schriftliche Befragung von Software-Anbietern
Merkmalsbezogene Darstellung von SoftwareLösungen; Innovationsprozessbezogene Klassifikation in (1) Einzel-, (2) prozessübergreifende und (3) Gesamtlösungen Schluet, W. (2005)
Softwareunterstützung im Innovations prozess
Marktanalyse unterstützender Recherche über InternetIT-Lösungen im Innovations- Suchmaschinen; Kategorisiemanagement rung und Beurteilung der Software-Lösungen Nützliche Lösungen vorhanden, jedoch nicht für gesamten Innovationsprozess
Vorbach, S., Perl, E., (2005)
Software based support for innovation processes
Untersuchungsgegenstand: Marktanalyse von Softwaresystemen und Leitfäden zur Unterstützung von Innovationsprozessen
Recherche im Internetrecherche und in Software-Datenbanken; Kategorisierung der Software nach Prozessunterstützung; Bewertung (qualitativ und quantitativ)
(Fortsetzung nächste Seite)
78
Ralf Isenmann, Benjamin Teufel und Marion Weissenberger-Eibl
Tabelle 1 (Fortsetzung) Autor(en), Jahr
Titel
Untersuchungsgegenstand und Ergebnisse
Methode
Ergebnis: Nahezu keine Software zur umfassenden Strukturierung, Planung oder Unterstützung aller Prozesse identifiziert; Vorstellung einer zu entwickelnden IKT-Lösung Perl, E. et al., (2006)
Isenmann, R., (2008)
Software support for knowledge driven innovation management
Untersuchungsgegenstand: Diskussion von Anforderungen des Wissensmanagement im Innovationsmanagement, speziell bei KMU
SoftwareWerkzeuge zur Unter stützung des TechnologieRoadmapping
Untersuchungsgegenstand: Rolle der IKT für das Technologie-Roadmapping, Unterstützungspotenziale verfügbarer Software-Werkzeuge
Ergebnis: Vorstellung einer Software zur Prozess-, Datenbank- und Methodenunterstützung
Ergebnis: Software-Werk zeuge als wirksames Hilfsmittel für Technologie-Roadmapping Waldmann stetter, K., Hüsig, S., (2009)
InnovationsManagementSoftware
Theoriebasierte Diskussion; Beschreibung der Software vor dem theoretischen Hintergrund
Untersuchungsgegenstand: Erfassung des Produktangebots an Innovationsmanagement-Software im deutschsprachigen Raum; Fokus auf Funktionsumfänge, Nutzenaspekte, Eignung und Einführung im Unternehmen Ergebnis: Beschreibung und Analyse des im deutschsprachigen Raum verfüg baren Produktangebots, Funktionsübersicht mit Beurteilung, ob sich Produkt für Technologie-Roadmapping eignet
Datenbankgestützte Literaturrecherche; Klassifizierung in (1) Betriebliche Standardsoftware, (2) spezifische Roadmapping-Software, (3) ergänzende Software
Online-Umfrage bei Herstellern von Innovations management-Software, Kategorisierung nach innovationsprozessbezogenen Funktionsgruppen, Produktvergleich durch Nutzwertanalyse
Softwaregestütztes Technologie-Roadmapping79
VisionMapTM ist eines der ersten Software-Werkzeuge zum TechnologieRoadmapping auf dem Markt. Das Softwarehaus Quality Systems & Software (QSS) in den USA hat VisionMapTM 1992 in Zusammenarbeit mit Motorola Labs entwickelt. VisionMapTM ist schwerpunktmäßig auf den Bereich der Geschäftsplanung ausgerichtet. Es unterstützt folgende Hauptanwendungsfelder10: Verknüpfung zwischen Technologieplanung und Geschäftsplanung, Identifikation technologischer Einsatzmöglichkeiten, Beseitigung bzw. Verringerung von Redundanzen in der Planung, Identifikation technologischer Inkompatibilitäten, Identifikation geeigneter Kernkompetenzen sowie Aufzeigen von Alternativ-Szenarios. Die mit VisionMapTM-erstellten Roadmaps sind hypermedial aufbereitet. Einzelne Elemente sind durch Metainformation wie Budget und Planungsstatus unterlegt und via Mausklick verfügbar. Ferner sind Such- und Filtermechanismen implementiert, die spezifische Sichten auf die Roadmaps bieten. VisionMapTM verfügt darüber hinaus über Exportfunktionen, um Planungsdaten weiterzuverarbeiten bzw. die Roadmaps für Präsentationen mit speziellen Visualisierungswerkzeugen aufzubereiten. Vision StrategistTM hat in vielen Industrieunternehmen Verbreitung gefunden. Duckles und Coyle11 betrachten das Software-Werkzeug deshalb als „de facto standard for enterprise roadmapping“. Die Vorgängerversion des Software-Werkzeugs12 hat Sopheon 2007 überarbeitet und an die eigene Accolade Innovationsmanagement-Software-Lösung angepasst13. Der Accolade Vision StrategistTM ermöglicht es, Roadmapping aktiv und unternehmensweit einzusetzen. Roadmaps, die in einem Workshop auf Papier erstellt wurden, können elektronisch erfasst und aktualisiert werden. Neben der elektronischen Erfassung liegt der Schwerpunkt in der globalen, funktionsbereichsübergreifenden Kommunikation – auch mit Zulieferern – sowie in der Nutzung von Produkt- und Technologie-Roadmaps und ihrer Steuerung im Unternehmen: gemeinsam in verschiedenen Unternehmensbereichen, in Echtzeit und eingebunden in die Betriebsprozesse des Ideemanagement, der Produktplanung und des Innovationsmanagement. Die Bedienoberfläche bietet eine Vielzahl von Funktionalitäten und Einstellungsoptionen, darunter Anwendungsszenarien, zielgruppenspezifische Ansichten sowie hypermediale Metainformation in Form einer adaptiven Legende und eines fließenden Zeitstrahls. Querbezüge zwischen Roadmaps sind durch Relationships markiert, Markierungen verdeutlichen Meilensteine. Beim Vision Strategist lassen sich Roadmaps auf unterschiedlichen Aggregationsstufen betrachten. 10 Vgl.
QSS (2000). (2002), S. 2. 12 Vgl. Alignent (2005). 13 Vgl. Sopheon (2010). 11 Duckles / Coyle
80
Ralf Isenmann, Benjamin Teufel und Marion Weissenberger-Eibl
Einzelroadmaps können in umfassendere Roadmaps integriert und auf Konsistenz geprüft werden. Accept 36014 ist eine Software zum Produktmanagement mit Schwerpunkt in der Produktplanung. Dafür kommen Roadmaps zum Einsatz, da sie eine Brückenfunktion übernehmen zwischen Marktanforderungen einerseits und technologischer Kompetenz andererseits. Das Software-Werkzeug ist modular aufgebaut und lässt sich durch optionale Zusatzmodule erweitern. So können etwa Produktpläne auf differenzierte Marktbedingungen in Form von „what-if-Analysen“ angepasst werden. Unternehmensziele lassen sich für die Produkt-Portfolio-Planung konkretisieren. Entwicklungsaktivitäten können verwaltet und das Projektmanagement gesteuert werden. Und auch Hilfe bei der systematischen Erfassung und Verwaltung von Verbesserungsvorschlägen wird geboten, seien diese von internen Mitarbeitern im Innendienst, der Service-Abteilung oder von Kunden. Trisolver4.net15 bildet den Abschluss der Betrieblichen Standard-Software. Auch wenn es in puncto Leistungsspektrum und Funktionsumfang sicherlich weit hinter den anderen liegen mag und insofern eher ein Nischenprodukt repräsentiert, so ist der konzeptionelle Ansatz des Roadmapping als strategische Innovationsplanung dennoch bemerkenswert, vor allem, weil er auf TRIZ aufbaut16. Trisolver4.net ist eine webfähige Software zur Unterstützung von Produktkonzepten, Ideenmanagement und Innovationsplanung. Es hilft bei der Festlegung von Innovationsstrategien, erhöht die Objektivität bei der Bewertung von Ideen und Produktkonzepten, und es fördert die Teamarbeit und den Wissenstransfer in Innovationsprojekten. Trisolver4.net ist modular aufgebaut und unterstützt die strategische Innovationsplanung. Hierzu hat Trisolver4.net technische Entwicklungstrends implementiert und durch robuste Checklisten operationalisiert. Damit lassen sich sowohl der technischer Reifegrad von Produkten analysieren als auch das zukünftige Entwicklungspotenzial abschätzen. In den technischen Entwicklungstrends liegt auch der konzeptionelle Charme des Software-Werkzeugs. HypeIMT17 ist eine Software zur Unterstützung des Ideenmanagement, ausgelegt auf das Sammeln, Vergleichen und Bewerten von Innovationsideen in der Produktentwicklung. Auf dieses Basisprodukt setzen Tools für spezifische Zwecke auf, darunter für das Roadmapping sowie die Produktplanung. Das Hype-Roadmapping-Tool wurde in der Automobilindustrie zur Produkt- und Produktionsplanung erfolgreich eingesetzt. Hype nutzt Mi14 Vgl.
Accept (2006) und (2010). Trisolver (2005). 16 Vgl. Möhrle (2008). 17 Vgl. Hype (2006). 15 Vgl.
Softwaregestütztes Technologie-Roadmapping81
crosoft-Standardsoftware und dessen Dateiformate, um Roadmaps im MSExcel-Format zu erstellen. Für die Bearbeitung und Präsentation genügt ein MS-Internet Explorer. Bei HypeIMT geht es schwerpunktmäßig um die Visualisierung. So werden die Roadmaps oft als großes Poster im Format DIN A0 ausgedruckt und dann in Projektbüros ausgehängt. Die Darstellung z. B. bei veränderten Meilensteinen lässt sich über eine einfache Eingabemaske modifizieren. Die Roadmaps zur Langzeit-Produktplanung sind hypermedial aufgebaut. Zu jedem Produkt ist ein kurzer Produktsteckbrief hinterlegt. In diesem Steckbrief ist Metainformation mit wichtigen Eckdaten und Produktspezifikationen dargestellt. Eine spezifische Ausgestaltung des Technologie-Roadmapping bietet Hype in Form eines Technologiekalenders. Als Hilfsmittel für die Innovationsplanung macht der Terminkalender deutlich, zu welchem Zeitpunkt welche Technologie in welcher Geschäftseinheit mit welchen Eigenschaften verfügbar ist bzw. sein wird. Die terminliche Transparenz soll zur Effizienzsteigerung im gesamten Innovationsprozess beitragen. Mit Hilfe eines Web-Interface lassen sich die dazugehörigen Daten erfassen. Analog zur Langzeit-Produktplanung ist die hinterlegte Metainformation beim Technologiekalender in Technologie-Steckbriefen verfügbar. Sie wird über Eingabemasken erfasst. Roadmapping-Tool und Technologiekalender von Hype bieten eine Übersicht mit hinterlegten Produkt- und Technologie-Steckbriefen, die die Planung von Produkten, Technologien und Terminen inhaltlich und zeitlich unterstützt. Das Software-Werkzeug von Lee18 liegt als Prototyp vor. Es soll ein einfaches, kostengünstiges und robustes Werkzeug sein. Roadmaps sollen maßgeschneidert erstellt werden, abgestimmt auf die Bereiche: Vorausschau, Planung und Verwaltung. Um das Spannungsfeld zwischen Flexibilität der Aufgaben einerseits und Customizing der Darstellung andererseits zu bewältigen, basiert der Ansatz auf der Idee des Mass Customization aus dem Produktionsmanagement. Zum einen identifizieren sie die unterschiedliche Zwecke beim Roadmapping und bündeln diese in drei Grundformen: Vorausschau, Planung und Verwaltung. Zum anderen sammeln sie verschiedene Ausprägungsformen von Roadmaps und verdichten diese zu charakteristischen Typen mit spezifischen Schlüsselattributen. Auf dieser Basis fassen sie sodann einschlägige Darstellungsformen zusammen. Damit sind die konzeptionellen Voraussetzungen geschaffen, um ein Software-Werkzeug zu entwickeln. Abgestimmt auf Vorausschau, Planung und Verwaltung lassen sich Roadmaps erstellen, wobei die Darstellungsform aus standardisierten Formen ausgewählt werden kann. Die Systemarchitektur des webbasierten Roadmap-Tools besteht aus zwei Funktionsmodulen, die auf einer Datenbank für Technologien und Produkte aufsetzen: Mit Hilfe des Generation 18 Vgl.
Lee / Park (2005) und Lee et al. (2008).
82
Ralf Isenmann, Benjamin Teufel und Marion Weissenberger-Eibl
Module lassen sich die grundsätzlich möglichen Darstellungsformen von Roadmaps als Templates definieren. Das Application Module erstellt für einen spezifischen Aufgabenbereich und mit den konkreten Planungsdaten die Roadmaps auf Basis der zur Verfügung stehenden Templates. Zur Abrundung der Übersicht seien die beiden Software-Werkzeuge VxInsightTM und SpireTM 19 vorgestellt. Sie sind als Ergänzung gedacht und bieten sich für Spezialaufgaben zum Technologie-Roadmapping an, z. B. zur Visualisierung großer thematisch zusammengehöriger Datenbestände in so genannte Wissenslandschaften20. Die Software-Werkzeuge sind in der Lage, komplexe Zusammenhänge innerhalb großer Datenbestände zu identifizieren und anschließend als dreidimensionale Landschaften zu veranschaulichen. Werden die Veränderungen solcher Landschaften über die Zeit hinweg analysiert, so lassen sich Rückschlüsse auf ein damit repräsentiertes Wissensgebiet ziehen und Entwicklungstendenzen ableiten. Eine solche softwaregestützte Verdichtung und Veranschaulichung bietet sich an, um z. B. Kundentrends aufzuspüren, Patente auszuwerten und Dokumente zu analysieren und so insgesamt Input für das Technologie-Roadmapping zu liefern. Die acht hier vorgestellten Software-Werkzeuge bieten in Summe einen Einblick in die mannigfaltigen Lösungsansätze zur IKT-Unterstützung des Technologie-Roadmapping. Es sind zwar Anwendungsschwerpunkte in Innovationsmanagement und Produktplanung erkennbar, aber die konzeptionellen Grundlagen der Softwareentwicklung sowie der Leistungsumfang sind durchaus unterschiedlich.21 Gleichwohl ist insgesamt zu festzustellen, dass sich der Markt für Software-Werkzeuge dynamisch entwickelt. So lassen sich via Internet-Recherche weitere Software-Werkzeuge finden, darunter: Technology Roadmap Composer22, RoadMap GPS23, Highway Product Roadmap Management System24, Intrapro-Innovation25, TechMapTM 26 und Product Roadmap ToolkitTM27.
19 Vgl. 20 Vgl. 21 Vgl. 22 Vgl. 23 Vgl. 24 Vgl. 25 Vgl. 26 Vgl. 27 Vgl.
Pacific Northwest National Laboratory (2007). Boyack et al. (2002), Davidson et al. (2001) und Beck et al. (1999). auch die Klassifizierungen von Lee et al. (2008). Hassan et al. (2002). Roadmap Technologies (2007). Hartshorn (2007). XWS Cross Wide Solutions (2006). Fraunhofer IPA (2006). 280 Group (2007).
Softwaregestütztes Technologie-Roadmapping83
C. Anwendungsempfehlungen Die hier vorgestellten Software-Werkzeuge unterscheiden sich in ihrer grundlegenden Ausrichtung, ihrem Aufbau und dem jeweiligen Leistungsumfang erheblich. Insofern sind nicht alle Software-Werkzeuge für jeden Anwendungszweck für das Technologie-Roadmapping in gleicher Weise geeignet. Eine umfassende und leistungsfähige Voll-Unterstützung für das Technologie-Roadmapping bieten insbesondere Vision Strategist und das aktuelle Software-Werkzeug von Accept. Sie decken ein breites Spektrum an Anwendungen ab und eröffnen eine durchgängige und komfortable Prozessunterstützung. Eine solche Software-Lösung scheint vor allem für Großunternehmen mit mehreren, auch internationalen Standorten empfehlenswert. Doch nicht nur für Global Player dürften solche leistungsfähigen SoftwareWerkzeuge geeignet sein. Darüber hinaus bietet sich eine professionelle IKT-Assistenz für alle Unternehmen an, bei denen das Technologie-Roadmapping mittlerweile eine bedeutende Rolle spielt und in ausgebauter Weise über reine Workshop-Sequenzen hinaus betrieben werden soll, sei es für das Innovationsmanagement, die Produktplanung oder zur Koordination mit benachbarten Funktionsbereichen. Trisolver4.net nimmt eine gewisse Sonderstellung ein, nicht zuletzt durch die ausgeprägte Ausrichtung auf das Ideenmanagement und die konzeptionellen Grundlagen in TRIZ. Insofern mag sich Trisolver4.net gerade für solche Unternehmen anbieten, die ein TRIZ-basiertes Roadmapping favorisieren. Die Spezial-Software-Werkzeuge für das Technologie-Roadmapping setzen i. d. R. auf bestehenden Informationssystemen in Unternehmen auf. Insofern spielen dann bei der Auswahl auch verstärkt Aspekte der IKT-Kompatibilität eine Rolle. Das Roadmapping-Tool von Hype mit dem Technologiekalender hat eine starke Affinität zur Automobilbranche, was sich teilweise durch die Unternehmenshistorie erklären lässt. In Verbindung mit der Basissoftware HypeIMT mag es eine IKT-gestützte Hilfe insbesondere für die Unternehmen sein, die Ideenfindung, Technologie-Roadmapping und Innovationsmanagement in der Produktentwicklung unterstützen mögen. Das Roadmap-Tool von Lee und Park besticht durch den klaren methodischen Entwicklungshintergrund sowie die einfache Bedienung. Dieses Software-Werkzeug könnte sich für abgrenzbare Anwendungen zum Technologie-Roadmapping eignen, z. B. für kleine und mittlere Unternehmen. Als Anbindung und zum Input für das Technologie-Roadmapping sind zahlreiche ergänzende Software-Werkzeuge verfügbar. Eine eindrucksvolle Unterstützung können dabei ausgefeilte Softwareprogramme zur Visualisierung von Wissenslandschaften leisten. Neben der intuitiv-anschaulichen
84
Ralf Isenmann, Benjamin Teufel und Marion Weissenberger-Eibl
Darstellung eignen sich solche ergänzenden Software-Werkzeuge vor allem auch zur Marktbeobachtung und für Technologiefeldanalysen. Insofern leisten sie für die Informationssammlung, -analyse und Verdichtung großer Datenbestände wertvolle Dienste. Solche Erleichterungen für das Technologie-Roadmapping erscheinen zum einen wiederum für Großunternehmen hilfreich. Zum anderen ist deren Einsatz aber für viele Unternehmen in innovationsintensiven Branchen denkbar, z. B. in Wirtschaftszweigen mit aktiv-dynamischen Patentaktivitäten wie z. B. in der IKT-Branche und in der Chemischen Industrie.
D. Fazit Mit zunehmend komplexeren Anwendungen steigen die Anforderungen an das Technologie-Roadmapping. Hier kann ein konventionelles Vorgehen ohne IKT-Assistenz schnell an seine Grenzen stoßen. Ein softwaregestütztes Technologie-Roadmapping und der Einsatz von Software-Werkzeugen können eine Reihe wirkungsvoller Potenziale erschließen, zum einen bei der Organisation und der institutionellen Verankerung des Technologie-Roadmapping, zum anderen vor allem bei der Unterstützung entlang der Kernprozesse, einschließlich Erstellung, Visualisierung, Pflege und Aktualisierung der Technologie-Roadmaps sowie bei deren Fortschreibung, Auswertung und Weiterverarbeitung. Die Entwicklung zur IKT-Assistenz kann sich besonders dann weiter verstärken, wenn Roadmaps vermehrt als Kommunikationsinstrumente eingesetzt werden, sei es unternehmensintern oder -extern. „Third generation technology roadmapping heavily relies on communication. (…) this includes multimedia facilities (e. g. video-conferencing) but also face-to-face meetings; both are considered to be cost efficient“, so Bucher28 und „the roadmaps are supposed to be up to date and shared on the intranet as an interactive network of roadmaps“29. Da Costa et al.30 stützen diese Einschätzung und wagen einen Blick auf die weitere Entwicklung: „In the future, roadmaps should therefore be in multimedia format and accessible from the web. It is however important to remain realistic because elaborate displays do not compensate insufficient content.“ Nach einer Studie zum Stand des betrieblichen Technologie-Roadmapping in England setzten Unternehmen noch vor wenigen Jahren eine Vielzahl verschiedener Software-Werkzeuge ein, ohne eindeutig erkennbare Schwer28 Bucher
(2003), S. 250. (2003), S. 222). 30 Da Costa et al. (2005). 29 Bucher
Softwaregestütztes Technologie-Roadmapping85
punktbildung.31 Es handelte sich überwiegend um Standard-Werkzeuge der Projektplanung und Visualisierung, die kaum auf die spezifischen Anforderungen des Technologie-Roadmapping abgestimmt waren, darunter z. B.: Technologie-Bäume, strategische Landkarten, Projektpläne, Marktforschungsberichte und Branchenanalysen, Quality Function Deployment, Unternehmensvergleiche und Benchmarking-Studien, Kosten-Nutzen-Analysen, PERT-Netzpläne, Radar-Diagramme, Maßnahmenpläne, Besprechungsprotokolle, Interviews, Ergebnisse von Brainstorming-Sitzungen, Szenario-Analysen, Internet-Recherchen und Experten-Interviews. Darüber hinaus nutzten Unternehmen für das Technologie-Roadmapping gängige Arbeitsplatz-Software, wie sie für die Bürokommunikation typisch ist, z. B. die MicrosoftOffice-Anwendungen Word, Powerpoint und Excel sowie Projektmanagement-Software wie z. B. Microsoft Project32. Prima vista mag der Unterschied zwischen Technologie-Roadmappingund Projektmanagement-Software unklar sein. Neben funktionsspezifischen Besonderheiten unterscheiden sie sich allerdings vor allem in ihrer graphentheoretischen Basis. Anhand der hier ausgewählten Software-Werkzeuge wird das Spektrum deutlich, welche Assistenz moderne IKT für das Technologie-Roadmapping leisten können, je nach Unternehmensgröße, zugrunde gelegtem Zweck, Einsatzfeldern und Stellung des Technologie-Roadmapping in der Organisation. Mittlerweile ist eine Fülle von Software-Werkzeugen verfügbar. Mit der Übersicht ist kein ausführliches technisches Benchmarking oder gar ein „naming“, „shaming“ oder „blaming“ beabsichtigt. Software-Werkzeuge geben dem Technologie-Roadmapping eine nahezu physisch fassbare Gestalt und damit ein Gesicht. Den Beteiligten steht mit einem Software-Werkzeug sozusagen ein instrumenteller Anker für die eigenen Aktivitäten beim Technologie-Roadmapping zur Verfügung. Durch die gemeinsame Nutzung von Ressourcen via Intranet oder Internet verlieren geographische Entfernungen, verteilte Standorte und verschiedene Zeitzonen ihre zuweilen hemmende Wirkung für ein Technologie-Roadmapping. Software-Werkzeuge eröffnen die Möglichkeit, das Technologie-Roadmapping flexibel und differenziert zu institutionalisieren, von einer „closed shop procedure“ bis hin zur Öffnung der Beteiligten im Sinne eines quasi-öffentlichen Vorgehens. Ungeachtet der Unterstützungspotenziale können Software-Werkzeuge alleine keinen Erfolg für ein wirkungsvolles Technologie-Roadmapping ga31 Vgl.
Phaal / Farrukh (2000). Projektmanagement-Software siehe Meyer (2006) sowie die Produktliste bei: http: / / www-pm-software.info / produktliste.htm. 32 Zu
86
Ralf Isenmann, Benjamin Teufel und Marion Weissenberger-Eibl
rantieren. Die Einführung ist vielmehr als sozio-technische Systemgestaltung zu verstehen, stets begleitet durch Maßnahmen der Personal- und Organisationsentwicklung. In ihrer empirischen Studie haben Phaal und Farrukh33 eine Reihe von Erfolgsfaktoren zum Technologie-Roadmapping identifiziert: Vor allem eine klare Ausrichtung auf den Geschäftszweck, der Einbezug von geeigneten Beteiligten und Unternehmensbereichen, die Unterstützung der Geschäftsführung sowie die Absicht, einen wirksamen Unternehmensprozesse zu entwickeln, seien ausschlaggebend. Darüber hinaus komme es auf das richtige Timing und profunde Methodenkenntnis an. Allerdings, und hier kommen die Vorzüge von Software-Werkzeugen ins Spiel, lägen die erfolgskritischen Hindernisse oftmals darin, dass benötigte Planungsdaten für das Technologie-Roadmapping nicht bzw. nicht in geeigneter Form zur Verfügung ständen. Das erforderliche Wissen sei nicht verfügbar und die Initiative zum Roadmapping insgesamt überfrachtet. Die Vorgehensweise beim Roadmapping selbst sei unklar, und es mangele an geeigneten instrumentellen Hilfen. Zusammenfassend lässt sich festhalten: Software-Werkzeuge können ein wirksames und mächtiges Hilfsmittel für das Technologie-Roadmapping sein. Die Befürchtung, dass ein softwaregestütztes Technologie-Roadmapping etwa gar das Fachwissen der beteiligten Fach- und Führungskräfte, ihre Expertise und ihr kreatives Denken in Alternativen ersetzen könnten, dürfte kaum wahr werden. So stellt Bucher34 fest: „IT remains a supporting tool which facilitates several tasks, but does not re-place human thinking.“ Literaturverzeichnis 280 Group: Product Roadmap ToolkitTM. Product roadmap templates, tips, samples, examples & resources, in: http: / / www.280group.com / productroad maptemplates, [20.02.07]. Accept Corporation: Roadmap to market success, white paper. Fremont (CA) 2006. – Accept 360. Produkt Innovation Management Suite, Santa C lara (CA) 2010. Alignent Software: Vision Strategist, Carlsbad (CA) 2005. Baker, S. J. (2000), The software to secure your strategic advantage, in: Journal of Business Strategy, vol. 21, 2000, issue 5, pp. 33–37. Beck, D. F. / Boyack, K. W. / Bray, O. H. / Siemens, W. D. (1999), Landscapes, games and maps for technology planning, in: Chemtech, vol. 29, 1999, issue 6, pp. 8–16.
33 Vgl.
Phaal / Farrukh (2000), S. 15–17. (2003), S. 130.
34 Bucher
Softwaregestütztes Technologie-Roadmapping87
Boyack, K. W. / Wylie, B. N. / Davidson, G. S. (2002), Domain visualization using VxInsight for science and technology management, in: Journal of the Amercian Society for Information Science and Technology vol. 53, 2002, pp. 764–774. Bucher, P. E. (2003), Integrated technology roadmapping. Dissertation thesis. Swiss Federal Institute of Technology Zurich 2003. Clerke, D. (2006), An introduction to strategic roadmapping, in: Innovations in New Product Development and Marketing, http: / / www.frost.com / prod / servlet / mar ket-insight-print.pag?doc id=67138281, [01.09.06]. Da Costa, O. / Boden, M. / Friedewald, M. (2005), Science and technology roadmapping for policy intelligence. in: Second Prague workshop on futures studies methodology 2005, http: / / forera.jrc.es / documents / MicrosoftWordDaCostaSTRM LessonsPraguepaper2.pdf, [25.08.06]. Davidson, G. S. / Hendrickson, B. / Johnson, D. K. / Meyers, C. E. / Wylie, B. N. (2001), Knowledge mining with VxInsight, in: Journal of Intelligent Information Systems 2001, issue 11, pp. 259–285. Duckles, J. / Coyle, E. (2002), Purdue’s Center for Technology Roadmapping, Purdue University 2002, http: / / roadmap.ecn.purdue.edu / CTR / docments / CenterforTech nologyRoadmapping.pdf, [18.05.05]. Fraunhofer Institut Produktionstechnik und Automatisierung (IPA) (2006), TechMap. Java-basierte technology roadmap software, Stuttgart 2006. Grinnell, M. / Richey, J. / McQueen, E. (2002), Case Study: Innovation roadmapping using enterprise automation software 2002, http: / / roadmap.itap.purdue.edu / ctr / do cuments / MotorolaCaseStudy.pdf, [22.12.06]. Hartshorn Associates (2007), Highway product roadmap management system, http: / / www.hartshornassociates.com, [18.01.07]. Hasan, S. / Chishti, M. A. / Anwar, F. / Elamvazuthi, C. (2004), Technology roadmap composer, in: M2usic 2004. MMU International symposium on information and communications technologies. http: / / m2usic.mmu.edu.my / main / Proceeding2004 / Paper %20489.pdf, [19.12.06]. Hype Softwaretechnik (2006), HypeIMT. Software für das Innovationsmanagement in der Produktentwicklung, Bonn 2006. Isenmann, R. (2008), Software-Werkzeuge zur Unterstützung des TechnologieRoadmapping, in: Möhrle, M. G. / Isenmann, R. (Hrsg.), Technologie-Roadmapping – Zukunftsstrategien für Technologieunternehmen, Berlin 2008, S. 229–268. Lee, S. / Park, Y. (2005), Customization of technology roadmaps according to roadmapping purposes, in: Technological Forecasting & Societal Change, vol. 72, 2005, pp. 576–583. Lee, S. / Yoon, B. / Park, Y. (2008), Web-based supporting system for technology roadmap, in: International Journal of Technology Intelligence and Planning, vol. 4, pp. 165–183. Lupini, S. (2002), Roadmapping software survey report. University of Cambridge 2002, http: / / www.learningtrust.com / resources / whitepapers / surveycam bridgesoftware.htm [06.05.05].
88
Ralf Isenmann, Benjamin Teufel und Marion Weissenberger-Eibl
Meyer, M. M. (2007), Softwareunterstützung für das Projektmanagement, Dissertation Universität Bremen, Institut für Projektmanagement und Innovation (IPMI) 2007. Möhrle, M. G. (2008), TRIZ-basiertes Technologie-Roadmapping, in: Möhrle, M. G. / Isenmann, R. (Hrsg.), Technologie-Roadmapping – Zukunftsstrategien für Technologieunternehmen, Berlin 2008, S. 189–207. Pacific Northwest National Laboratory (2007), About In-SpireTM, in: http: / / in-spire. pnl.gov / about.html, [14.01.07]. Perl, E. / Vorbach, S. / Huemer, H. / Staltner, T. (2006), Software support for knowledge driven innovation management, in: Tochtermann, K. / Maurer, H. (Hrsg.), Proceedings of the 6th International conference on knowledge management, I-Know ’06, Graz 2006, S. 186–194. Petrick, I. J. / Echolas, A. E. (2004), Technology roadmapping in review, in: Technological Forecasting & Social Change, vol. 71, 2004, pp. 81–100. Phaal, R. / Farrukh, C. J. P. (2000), Technology planning survey, University of Cambridge: Centre for Technology Management 2000. Quality Systems & Software (QSS) (2000), VisionMap, Oxford (NJ), 2000. Richey, J. M. / Grinnell, M. (2004), Evolution of roadmapping at Motorola, in: Research Technology Management vol. 47, 2004, issue 2, pp. 37–41. Roadmap Technologies (2007), RoadMap global planning solution (GPS), in: http: / / www.roadmap-tech.com, [15.02.07]. Schluet, W. (2005), Softwareunterstützung im Innovationsprozess, Diplomarbeit, Universität Graz, Institut für Innovations- und Umweltmanagement, Graz 2005. Sopheon (2010), Accolade, Vision Strategist, Darmstadt 2010. Spath, D. (Hrsg.) / Ardilio, A. / Auernhammer, K. / Kohn, S. (2004), Marktstudie Innovationssysteme, Stuttgart 2004. Trisolver (2005), Roadmapping als strategische Innovationsplanung, Hannover 2005. Vorbach, S. / Perl, E. (2005), Software based support for innovation processes, in: Tochtermann, K. / Maurer, H. (Hrsg.), Proceedings of the 5th International conference on knowledge management, I-Know ’05, Graz 2005, S. 220–228. Waldmannstetter, K. / Hüsig, S. (2009), Innovations-Management-Software, Duisburg 2009. Willyard, C. H. / McClees, C. W. (1987), Motorola’s technology roadmapping process, in: Research Management, 1987, no. 5, pp. 13–19. XWS Cross Wide Solutions (2006), Pressemitteilung zu Intrapro innovation multi generation product planning (MGPP) bei Siemens VDO, http: / / www.xws. de / page759.aspx, [19.12.06].
Design Aspects of Idea Management Systems By Jan Buchmann and Meike Tilebein
A. Introduction One of the key challenges of continuous innovation is to develop “effective configurations of process – people – technologies – organisation, which allow for both operationally effective exploitation and strategically flexible exploration”.1 Using an appropriate idea management approach and an according IT tool is one way of building such a configuration.2 Different kinds of idea management systems have been present in a lot of companies since many decades.3 Due to the usual absence of dedicated R&D departments in service companies and the interference of service innovation and process innovation in the service industry, it seems to be even more reasonable to motivate a broad base of employees to participate in these companies’ innovation systems. This can be accomplished via an appropriate idea management (IM) approach. At least for service firms, the approach should not be limited to supporting incremental process improvements and consequently IM should manage continuous improvement ideas as well as ideas leading to more radical innovation like the development of new services. In the case of logistics companies an additional challenge is the involvement of low skilled blue-collar workers possessing a lower level of education, language skills and identification with their employing company. The percentage of these workers among all employees is particular high in these firms. In this paper we investigate design factors that are able to shape an effective idea management und through this an effective continuous innovation configuration.
1 Boer / Gertsen
(2003), p. 811. Dijk / van den Ende (2002). 3 Bhuiyan / Baghel (2005). 2 van
90
Jan Buchmann and Meike Tilebein
B. Theoretical Background In the following, we provide relevant theoretical foundations. We define the notion “idea management” and describe its relationship to continuous innovation as well as the role of motivation in these contexts. I. Idea Management as Supporting Concept of Continuous Innovation Idea management (IM) in our context refers to the management of the creation, collection, selection and implementation of ideas generated by individuals or self-formed ad-hoc teams in a company. Finding ways of making these ideas and information about their implementation available to the whole company is another essential component of idea management. In the literature the basic concept of IM is also referred to as “individual continuous improvement”4 or from a tool-perspective as “suggestion system”5. IM is also often mentioned in the contexts of “continuous improvement” or “high involvement in innovation”6. In this paper, IM should not be limited to the understanding of continuous improvement, which focuses mostly on incremental innovation and process improvements.7 Instead, it should be understood as the management of all ideas by individuals or ad-hoc teams that have the potential to create future value for a company, e. g. changed and new processes, products, market approaches, structures, management and leadership systems. With this understanding IM supports the concept of “continuous innovation” much closer, which Boer and Gertsen define as “the ongoing interaction between operations, incremental improvement, learning and radical innovation”8. Idea management systems (IMS), i. e. IT-tools to support the management of ideas, are able to facilitate knowledge management and information exchange as well.
4 Berger
(1997). Dijk / van den Ende (2002) and Fairbank / Williams (2001). 6 Bessant / Caffyn (1997) and Bhuiyan / Baghel (2005). 7 Bessant (2005), p. 488, and Bessant / Francis (1999), p. 1106. 8 Boer / Gertsen (2003), p. 806. 5 van
Design Aspects of Idea Management Systems
91
II. Motivation to Participate as a Core Component of Idea Management Accordant to the high involvement in innovation concept9, successful IM needs to motivate a high number of employees to actively participate. We define active participation primarily as handing in ideas to idea management though a broader definition might also include the selection and implementation processes of the handed in ideas. To stimulate employees’ participation, existing literature mostly refers to recognition systems (sometimes also called reward systems or incentive systems).10 Apart from motivating employees to participate in a currently established IMS via a recognition system and its current design, it is also desirable to develop a company’s continuous innovation capability through motivating employees to develop their attitude, dedication and skills towards a culture of continuous innovation. Bessant and Caffyn introduce five stages of continuous innovation (they call the concept continuous improvement in their context).11 The first stage contains no formal efforts or structure. During the next stages structure, goal orientation and empowerment of problem-solving units are added. At the fifth stage continuous innovation becomes a way of life in the company. To achieve this stage, employees need to deeply understand the concept of continuous innovation, which requires a high level of employee involvement respectively a successful employee motivation process at all previous stages. Classical motivational theories can be distinguished in content theories and process theories. Content theories explain the motives and needs of employees to perform certain actions.12 These theories strive to explain what motivates or de-motivates employees.13 In contrast, process theories explain, how motivation works as a dynamic process without explaining explicitly, which motives are pursuit.14 Both groups of motivational theories are relevant for our research. We derive from content theories, which kinds of recognition might be suitable for different employees based on their motives and needs. From process 9 Bessant / Caffyn
(1997). (1997), van Dijk / van den Ende (2002), and Kerrin / Oliver
10 Bessant / Caffyn
(2002). 11 Bessant / Caffyn (1997), p. 18. 12 Herzberg (1968), Alderfer (1972), and Maslow (1954). 13 Herzberg (1968). 14 Vroom (1964), Porter / Lawler (1968).
92
Jan Buchmann and Meike Tilebein
Figure 1: Modified Motivational Process Model on the Basis of Porter and Lawler (1968)
theories, in particular expectancy theory, we deduce design aspects of the idea management process and the environment it should be placed in. In the following, we refer to Herzberg’s theory15 to investigate the kinds of recognition that reinforce participation in IM. In this context we will concentrate mostly on aspects of intrinsic and extrinsic motivation. Additionally, we will use Porter’s and Lawler’s process theory16 to discuss the influence of IM design aspects on the motivational process.
15 Herzberg
(1968). (1968).
16 Porter / Lawler
Design Aspects of Idea Management Systems
93
C. Framework and Research Method To illustrate relationships between motivational factors and idea management design, we use a modified model of Porter’s and Lawler’s process model incorporating relevant aspects of content and process theories (figure 1). We define performance as the contribution of ideas to idea management in terms of quantity and quality. Employees perform actions, i. e. contribute ideas, in dependence of their perceived value of recognition and their perceived probability of receiving that recognition (“expected recognition”). After performing these actions, employees receive intrinsic and extrinsic recognition and evaluate this recognition in terms of adequacy. This includes the comparison of the action and the received recognition to other actions or similar actions performed by other employees (“received recognition”). The received recognition and its perceived adequateness lead to a certain degree of satisfaction. Satisfaction influences the perceived value of recognition motivating further actions. 17 18
Table 1 Idea Management Design Aspects Name
Description and effect on motivation
Motivational content Kind of recognition
Kind of material or immaterial recognition given to an employee for the contribution of his idea. Influences intrinsic and / or extrinsic recognition.
Possibility to share
Possibility of sharing ideas and their utility within the company. Influences intrinsic recognition (can be related to Herzberg’s intrinsic motivators “responsibility” or “achievement”)17.
Degree of participation in further evaluation and implementation
Degree of participation in further idea management steps like evaluation and implementation of ideas. Influences intrinsic recognition (can be related to Herzberg’s intrinsic motivators “work itself” or “achievement”)18. Continue on next page
17 Herzberg 18 Ebd.
(1968).
94
Jan Buchmann and Meike Tilebein
Table 1: Continued Name
Description and effect on motivation
Motivational process Degree of transparency
Degree of transparency of the evaluation of ideas defined as comprehensive, understandable and timely feedback. Influences the motivational process by facilitating perceiving value and probability of recognition.
Adequateness of recognition
Adequateness of recognition depending on performance and received recognition. Influences the motivational process by affecting satisfaction and by this to contribute more ideas and restart the process.
Possibility of high involvement
Possibility given to enable high involvement in idea management through culture, accessibility or communicated goal of an idea management system.
Degree of support by line executives
Degree of encouragement and support given to idea contributors by their line executives.
We assume that design aspects of IM (table 1) are able to influence “expected recognition” and “received recognition” as motivational factors as shown in figure 1. In this paper, we focus on how different design aspects of IM and an according recognition system should be shaped to motivate high employee participation in contributing ideas.
D. Case Description, Data Generation, and Sample Significance The data was generated in a logistics service company in the parcel services business with around 4,500 employees working in around 70 branches, distribution centres and office locations all over Germany. The company was formed 30 years ago out of several smaller logistics companies and operates with a high degree of de-centralisation. Surprisingly, due to this kind of formation and the de-centralisation, still many different cultures exist in the company. Branches almost act like autonomous small or medium sized companies. This we found out by conducting around 15 interviews with executives in different branches. The company employs a high share of “blue-collar” workers (49 %), who perform tasks like loading, unloading or sorting parcels. Wages for this kind
Design Aspects of Idea Management Systems
95
of work are relatively low, so that mostly workers with lower education and qualification, partly only foreign language skills and less identification with the company perform these tasks. “White-collar” employees work mostly in administrative areas and perform typical office work like sales, accounting and process management. A centralised IM (all ideas were sent to a responsible person in the corporate headquarter) had been in place several years with low success, i. e. low participation rate and low number of contributed ideas. To support the design of a new IM, employees were asked to evaluate the IM in place and state their wishes regarding the process and recognition system for a new IM. This survey was conducted via questionnaires. The questionnaire was put in the context of innovation and not the context of continuous improvement. It did not contain any terms of improvement. 639 of the 4,476 employees were selected in a way that respondents represented the shares of blue-collar and white-collar workers and the distribution of employees over regions and business units. Due to restrictions enforced by the workers council caused by small sample sizes in individual organizational units, the survey had to be completely anonymous. Therefore, it was not possible to create extensive descriptive data about the respondents. Available descriptive data includes a distinction between blue-collar employees and white-collar employees. This was a necessity to evaluate potential different demands among these employee groups. Table 2 Descriptive Data about Survey Respondents Sample information
Employment information
Employees
Employees asked
Employees responded
#
4,476
639
517
%
100 %
14,3 %
11,6 %
Whitecollar
Bluecollar
No answer
#
286
180
51
%
55,4 %
34,8 %
9,8 %
Though only one company was the object of our research, due to the historically grown different cultures existing in this one company and its de-centralised structure, results of this research should be considered more generally than a single empirical case study might suggest. The gathered data was analysed using methods of descriptive statistics and comparison of means.
96
Jan Buchmann and Meike Tilebein
E. Results The results are divided into three parts. At first, we describe IM-design aspects that influence the motivation to participate by its content perspective. Thereafter, we present design aspects, which influence this motivation by its process perspective according to the motivational model in figure 1. At last, we depict empirical results about reasons why employees did not participate in the already established idea management at the company under investigation. From these results we are able to derive further IM-design aspects that influence the motivation to contribute ideas to IM. I. Design Aspects Influencing Motivational Content Accolade and highlighting the achievement of contributing a good idea ranks among the highest ranked kinds of recognition. In the ranking of different kinds of recognition there seem to be only small differences between white-collar and blue-collar employees (table 3). Blue-collar employees rate accolade as intrinsic motivator higher compared to the other extrinsic motivators than white-collar employees. Also, a group journey as extrinsic motivator is much less attractive to blue-collar employees than to white-collar employees. Table 3 Design Aspects Influencing Motivational Content – Kind of Recognition Kind of recognition
All employees*
White-collar employees
Blue-collar employees
Percentage differences
Cash
358
208 (72 %)
120 (66 %)
6 %
Accolade & highlighting the achievement
312
182 (63 %)
108 (60 %)
3 %
Gift certificate
253
149 (52 %)
82 (45 %)
7 %
Journey**
168
122 (42 %)
41 (23 %)
19 %
Other
43
23 (8 %)
18 (10 %)
2 %
*: Includes employees who did not answer the white-collar – blue-collar question. **: The notion “Journey” describes not only a kind of recognition, but also a reward system that allows only the contributors of the few best ideas to participate in an expansive group trip. This recognition option was asked because the established idea management used this kind of recognition system.
Design Aspects of Idea Management Systems
97
Regarding the design aspect “commitment to share” there exists a significant difference between making contributed ideas available to the whole company and publishing individual ideas to all employees. Publishing ideas to all employees is the least agreed-on design aspect of IM by the respon dents of our survey. Table 4 Design Aspects Influencing Motivational Content – Further Aspects All employees
White-collar employees
Blue-collar employees
Absolute differences
Level of support that individual ideas should be made useable for the whole company
1.32
1.28
1.35
0.07
Level of support that all colleagues should be able to read individual ideas
1.72
1.69
1.70
0.01
Possibility to share
Participation in further evaluation and implementation Involvement in further process, if idea gets followed up
1.55
1.54
1.52
0.02
Information about further process, if idea gets followed up
1.31
1.25
1.38
0.13
Willingness to participate in the evaluation of ideas*
68 %
71 %
66 %
5 %
All values are scaled on a 4 point Likert-scale (agree – partly agree – partly disagree – disagree). *: “Willingness to participate in the evaluation of ideas” is scaled yes or no. The table shows the share of employees that answered yes.
98
Jan Buchmann and Meike Tilebein Table 5 Design Aspects Influencing the Motivational Process All employees
White-collar employees
Blue-collar employees
Absolute differences
Comprehensible and understandable evaluation of ideas
1.25
1.25
1.24
0.01
Timely feedback
1.40
1.37
1.42
0.05
1.52
1.56
1.39
0.17
1.47
1.24
0.23
Degree of transparency
Adequateness of recognition Dependence of level of recognition on level of value that idea creates for the company
Possibility of high involvement Level of support that all employees should be able to contribute ideas
1.39
All values are scaled on a 4 point Likert-scale (agree – partly agree – partly disagree – disagree). *: Scaled yes or no (coded 1 or 2)
There exist significant differences between blue- and white-collar employees concerning the participation in further idea management steps. Blue-collar employees seem to be less interested in being informed about the further proceedings of their contributed ideas than white-collar employees. Also, they are not willing to evaluate ideas contributed by their colleagues as much as their white-collar colleagues. II. Design Aspects Influencing the Motivational Process Of all investigated IM design aspects, a high degree of transparency stands out as the one aspect with the highest agreement rate among respondents. This is valid for white-collar employees as well as blue-collar employees with insignificant difference between these two groups. Differences exist in two other aspects though. Blue-collar workers agree much more on that the level of recognition should depend on the level of
Design Aspects of Idea Management Systems
99
the created use by a contributed idea. Also, Blue-collar workers agree much more to the statement that all employees should be able to contribute ideas than white-collar employees. III. Reasons for not Participating in the Established Idea Management We used the evaluation of the established centralised idea management system to receive further considerations about design aspects to motivate participation in IM. In particular, we examined the reasons why employees did not participate in the established IM (table 6). Line executives seem to play an important role for the participation or the non-participation in a formalised IM and for the motivational process. As can be seen in table 6, the most important reason for not contributing ideas to the established idea management system is that employees discussed and implemented their ideas directly with their line executives. White-collar employees have stated this at a significantly higher rate than blue-collar employees. Table 6 Reasons for not Participating in the Idea Management System All employees
White-collar employees
Blue-collar employees
Percentage differences
Evaluation and implementation of ideas directly in cooperation with line executive
33 %
37 %
24 %
13 %
No ideas
24 %
21 %
31 %
10 %
No time
22 %
25 %
11 %
14 %
Wrong kind of recognition*
16 %
15 %
16 %
1 %
No encouragement by line executive
13 %
12 %
17 %
5 %
No support by line executive
2 %
1 %
6 %
5 %
Percentage of respondents answering “yes”. *: Is based on the recognition “journey” also mentioned in table 3.
100
Jan Buchmann and Meike Tilebein
The item “no time” can be assigned to the influence of line executives as well. Line managers possess the authority to decide the time their employees can use to develop ideas. Another important reason for employees to refrain from participation in IM is a lack of ideas or creativity. According to Amabile creativity is often the result of intrinsic motivation.19 This relationship should be considered while designing IM.
F. Discussion of Results In the following we will discuss the results in respect to continuous innovation and continuous improvement theory. We differentiate between results classified as motivational content and as motivational process according to table 1. I. Motivational Content As described in the previous section, accolade is ranked among the first preferences of recognition types. According to Herzberg20 this kind of recognition belongs to the intrinsic motivators opposed to all kinds of material recognition like cash, gift certificates or a journey. Blue-collar employees rank accolade as high or even higher than other kinds of recognition compared to white-collar employees. Based on the fact that in the investigated company blue-collar employees tend to develop less identification with their work and the company they work for, we originally assumed that they would perceive material extrinsic recognition like cash higher in value as immaterial accolade. We conclude from these empirical results that material recognition should be used only at most as an incentive to raise short-term participation and awareness. Intrinsic recognition is equally or more important for continuously motivating white-collar as well as blue-collar employees. This supports existing research that recognition systems based on extrinsic recognition do not work effectively and companies should focus on increasing participation by intrinsically motivating their employees.21 It is not only important for a company that its employees share information and ideas, but letting them share information can also intrinsically motivate employees by influencing the motivational factors “work itself”, “rec19 Amabile
(1996). (1968). 21 Kohn (1993), Levine / Broderick / Burkart (1983), and Herzberg (1968). 20 Herzberg
Design Aspects of Idea Management Systems
101
ognition” and “responsibility”.22 Also, the possibility to share information and ideas across the whole company enables on the one hand a way to a more team-oriented continuous innovation approach23 and on the other hand the development of continuous innovation capability towards a learning organisation24. In the case of service companies with many branches, it is usually difficult to share and distribute information. IM design is able to facilitate sharing of information by providing for instance a “pool of ideas” that is accessible via an idea management system. In comparison to other design aspects, employees don’t value the possibility very high to participate in the further process of evaluating and implementing their ideas. This also leads to the conclusion that employees at least in the investigated company are separating idea contribution and idea implementation mentally, which is in accordance with Lindberg’s and Berger’s contribution on individual continuous improvement. They mention a “traditional split”25 between the generation of ideas and the responsibility to implement them. This highlights an area of conflict between continuous improvement and continuous innovation theories. Within continuous improvement employees or work groups improve their work environment or generate ideas goal-oriented in allowed improvement areas. This is in conflict with approaches that support more radical kinds of innovation.26 It cannot be assumed that employees handing in ideas, which impact exceeds continuous improvement, are able to decide about their implementation or are able implement them themselves. This seems to be anticipated by the respondents. Therefore, it seems to be necessary to implement other mechanisms to link idea generation to idea implementation as important part of continuously motivating employees to hand in more radical ideas as well. These mechanisms need to cure a lack of transparency (less influence on the decision about implementing the idea) and the weakened intrinsic motivation (no possibility to implement one’s own idea). II. Motivational Process Previously, we have seen that accolade is important for motivating employees to participate in idea management. Line executives are key employees to continuously give accolade and support to their staff. The key role of line executives is also supported by the result that employees did not 22 Herzberg
(1968).
23 Lindberg / Berger
(1997). (1997). 25 Lindberg / Berger (1997), p. 94. 26 Lindberg / Berger (1997) and Boer / Gertsen (2003). 24 Bessant / Caffyn
102
Jan Buchmann and Meike Tilebein
contribute ideas to the previously existing idea management, but discussed and implemented them directly with their line executives. Hence, line executives should be closely integrated in idea management and their leadership style should be supporting idea management (providing encouragement, support, feedback and recognition for contributing ideas). These findings support previous findings that line managers play a key role in “CIFirms”27. Additionally, the leadership of line executives is important to move from one continuous innovation stage to the next and develop continuous innovation as “a way of life”.28 If idea management is to be installed consistently company-wide, it is necessary to introduce and communicate a transparent system of evaluating ideas (see results in chapter 5.2). This transparent evaluation and recognition system is essential to enable employees to evaluate value and probability of receiving a recognition as well as judging, if a recognition is adequate compared to other ideas’ recognitions. Line managers alone cannot provide this transparency for a whole company and more radical ideas because their influence is limited to their teams or departments. Therefore, a transparent evaluation and recognition system should be considered an important design aspect of IM supporting continuous innovation. Regarding the adequateness of recognition we firstly examine the result that blue-collar employees prefer the idea that the level of recognition should depend on the generated value by the idea’s implementation much more than white-collar employees. Secondly, results indicate that blue-collar employees prefer a journey for the contributors of the best ideas as recognition much less than white-collar employees. Both facts can be interpreted that blue-collar employees are motivated by an idea management design that also supports the recognition of “smaller”, incremental continuous improvement ideas. The results mentioned above are also in accordance with the result that blue-collar employees support the idea that all employees should be able to contribute ideas much more than white collar-employees. Bessant and Francis argue that extrinsic recognition in proportion to the value of an idea tends to encourage employees to hand in ideas with a high perceived value to the company to receive high extrinsic recognitions.29 This is not in contradiction with our results because a possibility to get recognition for all kinds of ideas (improvement and more radical innovation) and therewith for all kinds of employees must be created in both cases. In relevant literature it is suggested that such a recognition mecha27 Lindberg / Berger
(1997), p. 96. (1997), p. 18. 29 Bessant / Francis (1999). 28 Bessant / Caffyn
Design Aspects of Idea Management Systems
103
nism should be supported by a second recognition mechanism that recognises participative behaviour itself.30 Such a system will also most likely lead to a corporate culture encouraging high participation with intrinsic motivation in the long run31 and foster exploitation (improvement) as well as exploration (more radical innovation).32
G. Management Implications Taking into consideration the empirical results and their discussion we are able to derive implications for the design of successful idea management approaches: Accolade as intrinsic recognition is at least as important as other material kinds of recognition. This should be considered when designing a recognition system for idea management. This is valid for blue-collar and white-collar employees in the same way. Line executives should be the key persons to encourage employees to contribute ideas to idea management, support them with their knowledge and skills and reward them with adequate recognition. Therefore, centralised idea management approaches (employees handing in ideas to a central department and receiving recognition from this department) should be avoided. Instead, line executives should be trained to actively fulfil this key role. It is central for the motivational process that employees are able to evaluate the value, the probability and the adequateness of an idea’s recognition. This influences the effort an employee puts in contributing ideas. Hence, a transparent evaluation and recognition system should be put in place. A transparent evaluation system could be designed around transparent evaluation scales and a transparent evaluation process. IM should provide a possibility to share ideas and information about successful implementations of ideas. This cannot be achieved by sticking to a purely de-centralised idea management where ideas are discussed and implemented with line executives only. Instead some kind of idea pool or best practise pool should be established. The idea pool should enable anonymous publishing. Implementing such an idea management can help to establish a structured continuous innovation approach supporting continuous improvement ideas 30 Fairbank / Williams
(2001). (1997). 32 Boer / Gertsen (2003). 31 Bessant / Caffyn
104
Jan Buchmann and Meike Tilebein
and more radical innovation ideas. By de-centralising idea management leadership tasks to line executives it will also build a solid foundation to anchor continuous innovation thinking at lower management levels of a company. In consequence this facilitates the development of a learning and innovative organisation.
H. Conclusion and Further Research We argued that it is essential to involve a high number of employees in innovation and improvement activities by motivating them to continuously participate. One way of supporting these activities is to design and operate an idea management, which supports improvement ideas (exploitation) as well as more radical innovation ideas (exploration). The design and implementation of an effective recognition system is an important challenge for introducing an idea management that supports continuous innovation. Additionally, as we confirmed in respect to theory, a particular challenge in motivating employees to hand in more radical innovation ideas is the separation between idea generation and idea implementation. This also highlights a challenge in continuous innovation theory. A de-centralised idea management approach combined with centrally standardised aspects like a corporate-wide transparent evaluation, implementation and recognition system and a platform to share ideas and information yields the best chance of continuously involving a high number of employees (white-collar and blue collar) to participate with improvement and innovation ideas. The recognition system should be designed to support the handing in of improvement as well as innovation ideas. Further research should be conducted in finding ways of linking idea generation and idea implementation of radical ideas closer together from an employee’s perspective. Also, the empirical research in this paper should be extended to a broader company base with different states of continuous innovation capability to investigate further motivational aspects.
Design Aspects of Idea Management Systems
105
References Alderfer, C. P. (1972), Existence, relatedness, and growth. Human needs in organizational settings, New York, 1972. Amabile, T. M. (1996), Creativity in context, 2nd ed., Boulder, 1996. Berger, A. (1997), Continuous improvement and kaizen: standardization and organizational designs, in: Integrated Manufacturing Systems, 8, 1997, 2, pp. 110– 117. Bessant, J. / Caffyn, S. (1997), High-involvement innovation through continuous improvement, in: Int. J. Technology Management, 14, 1997, 1, pp. 7–28. Bessant, J. / Francis, D. (1999), Developing strategic continuous improvement capability, in: Int. J. Operations & Production Management, 19, 1999, 11, pp. 1106– 1119. Bhuiyan, N. / Baghel, A. (2005), An overview of continuous improvement: from past to present, in: Management Decision, 43, 2005, 5, pp. 761–771. Boer, H. / Gertsen, F. (2003), From continuous improvement to continuous innovation: a (retro)(per)spective, in: Int. J. Technology Management, 26, 2003, 8, pp. 805–827. Fairbank, J. F. / Williams, S. D. (2001), Motivating creativity and enhancing innovation through employee suggestion system technology, in: Creativity and Innovation Management, 10, 2001, 2, pp. 68–74. Herzberg, F. (1968), One more time: how do you motivate employees?, in: Harvard Business Review, 46, 1968, 1, pp. 53–62. Kerrin, M. / Oliver, N. (2002), Collective and individual improvement activities: the role of reward systems, in: Personnel Review, 31, 2002, 3, pp. 320–337. Kohn, A. (1993), Why incentive plans cannot work, in: Harvard Business Review, 71, 1993, 5, pp. 54–63. Levine, F. M. / Broderick, J. E. / Burkart, M. (1983), Attribution and contrast: two explanations for the effect of external rewards on intrinsic motivation, in: British Journal of Psychology, 74, 1983, 4, pp. 461–466. Lindberg, P. / Berger, A. (1997), Continuous improvement: design, organisation and management, in: Int. J. Technology Management, 14, 1997, 1, pp. 86–101. Porter, L. W. / Lawler, E. E. (1968), Managerial Attitudes and Performance, Homewood, 1968. Tidd, J. / Bessant, J. / Pavitt, K. (2005), Managing Innovation, Chichester, 2005. van Dijk, C. / van den Ende, J. (2002), Suggestion systems: transferring employee creativity into practicable ideas, in: R&D Management, 32, 2002, 5, pp. 387–395. Vroom, V. H. (1964), Work and Motivation, New York, 1964.
Forum 2
Informations- und Kommunikationssysteme im Innovationsmanagement
Digitale Produktion Von Daniel Schilberg
A. Einleitung Die in Deutschland und anderen Hochlohnländern produzierende Industrie ist angesichts der steigenden technologischen Leistungsfähigkeit der aufstrebenden Niedriglohnländer (China, Indien, Brasilien, Mexiko etc.) einem erhöhten Wettbewerbsdruck ausgesetzt. Diese Situation wird als verstärkter Wettbewerb wahrgenommen, da der wirtschaftliche Impuls bis in die 1930er Jahre von Europa und Nordamerika ausging1 und das daraus resultierende wirtschaftliche Gefälle zwischen den Nationen bis ins 21. Jahrhundert reicht2. Eine Folge dieses Wettbewerbsdrucks ist die anhaltende Auslagerung der Güterproduktion zwecks Kostensenkung in diese Niedriglohnländer3. Soll dieser Trend wieder umgekehrt werden, müssen Konzepte entwickelt werden, die eine konkurrenzfähige Produktion in Hochlohnländern ermög lichen. Die dort produzierende Industrie sieht sich aber mit zwei Dilemmata konfrontiert. Das eine Dilemma besteht zwischen der Massenproduktion mit sehr eingeschränktem Produktspektrum (Scale)4 und einem sehr großen Variantenreichtum bei geringen Stückzahlen (Scope)5. Das andere Dilemma bildet das Spannungsfeld zwischen der Planungsorientierung (Pfeifer 1996) und der Wertorientierung6. Die Eckpunkte dieser beiden Dilemmata spannen das sogenannte Polylemma der Produktionstechnik auf (Abbildung 1). Um einen dauerhaften Wettbewerbsvorsprung gegenüber Niedriglohnländern zu sichern, muss die Forschung Technologien und Prinzipien entwickeln, die dieses Polylemma verringern oder gar auflösen, wobei die singuläre Betrachtung eines Eckpunktes nicht ausreichend ist7. 1 Chandler
(2004). et al. (2008). 3 Specht / Lutz (2005). 4 Silvestre et al. (1987). 5 Panzar / Willig (1981). 6 Weber et al. (2004). 7 Schuh et al. (2007). 2 Henning
110
Daniel Schilberg
Abbildung 1: Polylemma der Produktionstechnik
Der von der Deutschen Forschungsgemeinschaft (DFG) geförderte Exzellenzcluster „Integrative Produktionstechnik für Hochlohnländer“ der RWTH Aachen University beschäftigt sich unter anderem innerhalb des Kernforschungsfeldes „Virtuelle Produktionssysteme“ mit der Lösung dieses Polylemmas. Im Bereich der „Virtuellen Produktionssysteme“ wird die Kopplung von in der Produktionstechnik eingesetzten Simulationen zu einer Simula tionskette untersucht. Die zu koppelnden Simulationen umfassen u. a. FiniteElemente-Simulationen und numerische Modellsimulationen zur Bewertung und Optimierung von Prozessen8. Die in den Simulationen verwendeten Modelle haben i. d. R. eine hohe technische Reife erlangt und eine isolierte Weiterentwicklung dieser Simulationen entspricht eher einer kontinuier lichen Verbesserung als weiteren Innovationen, die aber zur Lösung des Polylemmas nötig sind. Ein höheres Potenzial der virtuellen Gestaltung liegt in der Verknüpfung der Simulationen zu Prozessketten mit einer ganzheit lichen Gestaltungsaussage und Aufwand-Nutzen-Abwägungen9. Ziel dieses Beitrages ist es, den Nutzen der digitalen Produktion mit Blick auf das Polylemma der Produktionstechnik darzustellen. In Bezug auf den internationalen Wettbewerb zielt die Digitale Produktion darauf ab, den Planungsaufwand der in Hochlohnländern produzierenden Industrie zu reduzieren. Für die Digitale Produktion sollen die zuvor erwähnten Simulationen 8 Spur 9 Ebd.
(1997).
Digitale Produktion111
in ein System integriert werden, um Herstellungsprozesse ganzheitlich vom Werkstoff bis hin zur Fabrik abzubilden.
B. Das Polylemma der Produktionstechnik und die Digitale Produktion Die Eckpunkte des Polylemmas der Produktionstechnik stellen Extremwerte der real existierenden Ausrichtungen innerhalb der Produktionstechnik dar. Das Polylemma betrachtet als Extreme zum einen eine rein wertorientierte Produktion ohne zentrale Planung und zum anderen eine planungs orientierte Produktion, bei der die Produktion zentral und detailliert vorab geplant wird. Des Weiteren existiert der Extrempunkt Scale, der die Massenproduktion, bei der es zu keiner Änderung des Produktionsprozesses kommt, betrachtet. Der mit Scope bezeichnete Extrempunkt schließlich repräsentiert eine Produktion, in der Produktionsschritte nur einmal zur Anwendung kommen10. Merkmale für eine wertorientierte Produktion sind zum Beispiel die Fokussierung der Produktion auf wertschöpfende Prozesse, die Minimierung des Aufwandes für Planung, Arbeitsvorbereitung, Handhabung, Transport und Lagerung und eine hohe Standardisierung der Arbeitsmethoden. Die planungsorientierte Produktion hingegen zeichnet sich durch einen hohen Planungsaufwand zur Optimierung wertschöpfender Prozesse, den hohen Einsatz von Simulations- und Modellierungswerkzeugen und das Management von Wissen und Information aus. Die Produktion im Bereich Scale ist durch eine hohe Anzahl herzustellender Produkte mit demselben Fertigungsprozess bei maximaler Taktrate, hoher Standardisierung und einer hohen Synchronisation der Prozesse geprägt. Die scopeorientierte Produktion ist gekennzeichnet durch wandlungsfähige Prozesse, einen begrenzten Durchsatz und eine begrenzte Synchronisation der Prozesse. I. Wert- oder Planungsorientierung? In produzierenden Industrieunternehmen werden planungs- und wertorien tierte Ansätze innerhalb der technischen und organisatorischen Durchführung der Produktion eingesetzt. Die möglichst genaue Vorhersage des Produktionssystems und sein Verhalten stehen im Fokus des planungsorientierten Ansatzes. Dieser soll die Identifizierung des optimalen Betriebspunktes der technischen Anlagen und der organisatorischen Strukturen begünstigen und damit die Entscheidungsfindung unterstützen, wobei der Handlungsrah10 Schuh
et al. (2007).
112
Daniel Schilberg
men durch die Gesamtheit der Geschäftsprozesse im Unternehmen gebildet wird. Um einen planungsorientierten Ansatz anzuwenden, müssen Strukturen und Verhaltensweisen des betrachteten Systems oder Teilsystems durch Modelle genügend genau beschrieben werden. Diese Modelle müssen entweder automatisiert oder von Menschen verarbeitet werden können. Die Planungsergebnisse hängen in ihrer Qualität in erster Linie von der Umsetzung des Models und der damit zusammenhängenden Beschreibung des Ausgangs- und des Zielzustands ab. Für die Modellbildung ist daher, bezogen auf das zu beschreibende Produktionssystem, Transparenz der Geschäfts- und Produktionsprozesse erforderlich. Denn nur wenn die Ergebnisse und der Entstehungsprozess der Planung nachvollziehbar und bewertbar sind, können die Ergebnisse im Entscheidungsprozess richtig eingeschätzt werden. Für die Modellentwicklung, -auswertung und -bewertung ist ein hoher Ressourceneinsatz notwendig, der bei einem planungsorientierten Ansatz eine Aufwand-Nutzen-Abschätzung erforderlich macht11. Das Product Lifecycle Management (PLM), das Advanced Planning and Scheduling (APS), die Produktionsplanung und -steuerung (PPS) und das Enterprise Resource Planning (ERP) gehören zu den in der industriellen Praxis eingesetzten Informationssystemen, mit deren Unterstützung ein planungsorientierter Ansatz verfolgt wird12. Die Planung von Fertigungsprozessen und Produkten wird durch diese Informationssysteme unterstützt, indem das Informationssystem über die verwendeten Modelle die erforderlichen produktbezogenen Informationen bereitstellt. Durch die Simulation von alternativen Fertigungsverfahren und Produktionsprozessen unter Verwendung geeigneter Computersysteme und Algorithmen kann, schneller als der Mensch in der Lage wäre, alle Alternativen zu prüfen, eine nahezu optimale Lösung für die Herstellung eines Produktes gefunden werden. Die zurzeit eingesetzten Softwaresysteme sind häufig nur auf die Anforderungen für die Abbildung eines bestimmten, klar definierten Prozesses oder Teilprozesses abgestimmt und daher auf ein Anwendungsgebiet beschränkt. Die Durchführung der zu planenden Prozesse ist hierbei eng mit der Planung vernetzt. Anpassungen an geänderte Rahmenbedingungen sind zeit- und kostenintensiv, da Interdependenzen zwischen Teilbereichen bei der Planung nicht berücksichtigt werden. Auch eine Übertragbarkeit auf andere Anwendungsfälle ist in der Regel nicht möglich. Des Weiteren unterliegen die Informationssysteme einem dauerhaften, kontinuierlichen Optimierungsprozess für maßgeschneiderte Lösungen, die eine kritische Betrachtung des Verhältnisses zwischen Aufwand und Nutzen erfordern. Bei 11 Pfeifer
(1996), Weber (2004). et al. (2009).
12 Gausemeier
Digitale Produktion113
einer Fokussierung auf die Optimierung von Teilschritten des Gesamtprozesses ist es nicht möglich, ein planerisches Gesamtoptimum für das gesamte Produktionssystem zu identifizieren, da die eingesetzten Systeme eine Abweichung von der optimalen Teillösung zugunsten einer optimalen Gesamtlösung nicht zulassen. Alternativ zu einem rein planungsorientierten Ansatz mit hohen Kosten und Risiken kann auch eine Fokussierung auf die wertschöpfenden Prozesse vorgenommen werden. Dementsprechend reduziert das Lean-Production-Konzept13 als Vertreter des wertorientierten Ansatzes planungsbezogene Aktivitäten so weit wie möglich und lagert diese dem wertschöpfenden Prozess nicht mehr vor, sondern integriert sie. Gestaltungsansätze werden bei diesem Konzept meist dezentral umgesetzt und mit Konzepten der Selbststeuerung verbunden. Im Fertigungsprozess erforder liche Planungsaufgaben werden von dem für den jeweiligen wertschöpfenden Prozess verantwortlichen Mitarbeiter vor Ort durchgeführt. Die Grenzen derartiger wertorientierter Systeme liegen in der beschränkten Fähigkeit von Produktionssystemen zur Selbstorganisation (z. B. im Rahmen von Gruppenarbeiten). Des Weiteren besteht das Risiko, dass bei der Fokussierung auf die Wertschöpfung gewisse Optimierungspotenziale, die durch eine erweiterte Planung erschlossen werden könnten, unerkannt bleiben. Unter Berücksichtigung der zuvor beschriebenen Ausgangssituation sollte das Ziel der produktionstechnischen Forschung die Vereinigung von planungs- und wertorientierten Ansätzen sein, um es zu ermöglichen, eine optimale Abstimmung dieser Ansätze zu finden. Dies würde es ermöglichen auf Basis des jeweiligen Produktionsprozesses auszubalancieren, wie hoch der Einsatz planerischer Aktivitäten sein muss, um eine hinreichende Qualität und Leistungsfähigkeit des wertschöpfenden Prozesses zu erzielen. Im Folgenden wird dargestellt, wie die Digitale Produktion dazu beitragen kann, den Aufwand für den Einsatz von Planungswerkzeugen bei hinreichend genauer Darstellung des Gesamtprozesses und der Teilprozesse zu verringern und eine Reduktion des Dilemmas zwischen Planungs- und Wertorientierung ermöglicht.
C. Verringerung des Dilemmas zwischen Wertund Planungsorientierung Zur Verringerung des Dilemmas zwischen Planungs- und Wertorientierung wird im Folgenden eine Kennzahl entwickelt. Zu diesem Zweck werden alle Aufwendungen für die Planung unter dem Planungsaufwand zusammengefasst. Ein beispielhaft betrachteter Herstellungsprozess unterteilt 13 Womack / Jones
(2004).
114
Daniel Schilberg
Abbildung 2: Produktentstehungsprozess nach Bischoff (2007)
sich in die Konzeptionsphase, die Produktplanung, Produktentwicklung sowie Prototyping umfasst, und die Produktionsphase, die sich in Prozesserprobung und -optimierung, Pilotserie, Vorserie, Nullserie, Produktionshochlauf und abgesicherte Produktion (Abbildung 2) unterteilen lässt14. Für die Betrachtung des Planungsaufwandes wird davon ausgegangen, dass die Ergebnisse der Planung sowohl bei der Planung ohne Einsatz der Werkzeuge der digitalen Produktion als auch bei der Planung mit Einsatz der Werkzeuge der digitalen Produktion die gleiche Qualität haben. Dies hat zur Folge, dass die Produktionsphase von Verringerungen des Aufwandes in der Konzeptionsphase entkoppelt15 und für die Entwicklung der ersten Kennzahl als konstant angenommen werden kann, so dass der Fokus der Betrachtung auf dem durch die Konzeptionsphase hervorgerufenen Aufwand liegt. Schon zu Beginn der Produktplanung entsteht durch die Analyse der Ist-Situation Aufwand. Bei der Analyse werden das Unternehmen, das Umfeld des Unternehmens und der Markt betrachtet. Hierbei müssen externe Impulse und die eigene Leistungsfähigkeit erkannt werden und die Markt- und Technologiesituation muss jeweils erfasst werden. Der Aufwand, der für die Durchführung der Situationsanalyse und die Erstellung der entsprechenden Dokumente entsteht, ist bei der Planungsdurchführung mit und ohne Einsatz der Werkzeuge der digitalen Produktion identisch. Nach der Auswahl von Produktideen findet die Produktdefinition und damit der Übergang von der 14 Bischoff 15 Ebd.
(2007).
Digitale Produktion115
Produktplanung in die Produktentwicklung statt16. Ab der Produktdefinition werden die Werkzeuge der digitalen Produktion in der Konzeptionsphase als Planungswerkzeug eingesetzt. Sobald die Produktdefinition durch Spezifizierungen der Funktionsweisen und Eigenschaften abgeschlossen ist, wird die Umsetzung geplant und es werden kurzfristige Entwicklungsziele vereinbart. Auf Basis der Spezifikationen und der vereinbarten Ziele entsteht das Lastenheft, auf dessen Basis das Pflichtenheft realisiert wird. Mit der Durchführung der Entwicklung und Konstruktion des Produkts schließt die Produktentwicklung ab und mündet in der Fertigung der Prototypen. Es ist zu erwarten, dass aus allen Teilen der Konzeptionsphase Rückführungen vorliegen. So haben Erkenntnisse aus der Produktentwicklung Auswirkungen auf die Produktplanung und Erfahrungen, die beim Prototypenbau gesammelt wurden, haben rückwirkenden Einfluss auf die Produktentwicklung und -planung. Nachdem nun im Groben die Konzeptionsphase skizziert wurde, wird im Folgenden beispielhaft die Konzeptionsphase für den Herstellungsprozess eines Getriebezahnrads ohne den Einsatz der Werkzeuge der digitalen Produktion betrachtet. Im Anschluss wird herausgestellt, an welchen Stellen des Planungsprozesses die Werkzeuge der digitalen Produktion eingesetzt werden können und welchen Effekt dieser Einsatz auf den Planungsaufwand hat. Die Produktplanung ist zu diesem Zeitpunkt bereits so weit fortgeschritten, dass festgestellt wurde, welches Produkt mit welchen Eigenschaften am Markt angeboten werden soll. Es ist jedoch noch nicht festgelegt worden, mit welchen Teilprozessschritten das Getriebezahnrad gefertigt werden soll oder mit welchem Material die geforderten Eigenschaften am günstigsten und im ausreichenden Umfang erreicht werden. Zur Erfüllung dieser Aufgaben werden Experten und Simulationen eingesetzt, die das Erreichen eines optimalen Ergebnisses gewährleisten sollen. Die simulationsgestützte Definition des Fertigungsprozesses durch die Experten umfasst drei Punkte, die rückwirkungsbehaftet sind. Der erste Punkt umfasst die Auswahl des Werkstoffes, der zweite die Festlegung des Produktionsablaufs und der dritte die Auswahl der Werkzeuge für den Produktionsablauf. Bei der Auswahl des Werkstoffes werden Simulationen auf Mikrostruktur ebene eingesetzt, um die Materialeigenschaften zu ermitteln. Hierbei wird durch die Experten nicht nur geprüft, ob der Werkstoff die Anforderungen an das Produkt erfüllt, sondern auch welchen Einfluss der gewählte Werkstoff bzgl. der Verarbeitbarkeit und der Rohstoffkosten auf den Fertigungsprozess hat. So hat die Verarbeitbarkeit beispielsweise einen direkten Einfluss auf die zur Bearbeitung des Werkstoffes auszuwählenden Werkzeuge. Nach der Auswahl des Werkstoffes ist dessen Betrachtung jedoch nicht 16 Schuh
et al. (2008).
116
Daniel Schilberg
Abbildung 3: Durchführung der Planung
abgeschlossen. Da jeder Verarbeitungsschritt die Werkstoffeigenschaften und damit die Produkteigenschaften verändert, müssen die Werkstoffeigenschaften nach jedem Wärmebehandlungs-, Umform- und Fügendenprozess erneut betrachtet werden, um sicherzustellen, dass die Produktanforderungen weiterhin erfüllt werden. Dies zwingt die Experten für den Werkstoff ihre Daten mit den Daten der jeweiligen Experten für die Fertigungsschritte nach jedem Fertigungsschritt abzugleichen. Des Weiteren müssen die Experten für die einzelnen Fertigungsschritte die Daten nach Durchführung der jeweiligen Simulation für die Folgesimulation manuell aufbereiten. Die Aufbereitung der Daten kann nur im Dialog der Simulationsexperten geschehen, da z. B. der Experte für die Umformsimulation nicht weiß, welche Daten der Experte für die Fügesimulation benötigt. Abbildung 3 zeigt den Ablauf und die benötigten Experten-Workshops (EWS), die zum Datenabgleich bei einer manuellen Kopplung der in dieser Planungsphase eingesetzten Simulationen benötigt werden. In einem ersten EWS wird der einzusetzende Werkstoff ausgewählt, dessen Eigenschaften mit einer Mikrostruktursimulation bestimmt werden. Die aus der Mikrostruktur ermittelten Ergebnisse werden in weiteren EWS an die Experten für die Fertigungsschritte übergeben, nach jeder Mikrostruktur- bzw. vor jeder Makrostruktursimulation sind weitere EWS notwendig. Nach der Auswahl des Werkstoffes wird die Prozesskette bestimmt, in der aus dem Werkstoff das Getriebezahnrad gefertigt wird. Diese gibt vor, welche Makrostruktursimulationen in welcher Reihenfolge und welche weiteren EWS durchgeführt werden müssen, um die In-
Digitale Produktion117
formationen zwischen den Makrostruktursimulationen zu übergeben. Dieser Ablauf mit allen EWS muss bei jeder Durchführung der Prozesskette auch bei der kleinsten Parametervariation erneut durchgeführt werden. Dies führt, z. B. bei der Bestimmung eines geeigneten Materials, zu einem sich immer wiederholenden iterativen Durchlaufen der Arbeitsschritte, das zwar mit der Zeit bei den Experten zu einem immer höheren Verständnis für die anderen Simulationen und die gesamte Prozesskette führt, den Bedarf nach EWS aber nicht senkt. Durch den Einsatz der Werkzeuge der digitalen Produktion ist im Vorfeld, d. h. bevor die Prozesskette definiert und das Material ausgewählt werden kann, eine signifikante zusätzliche Arbeit zu leisten. Die Simulationen müssen mit einer vollständigen Beschreibung der Parameter hinsichtlich Bedeutung, Bezeichnung und möglichem Wertebereich in die Simulationsplattform integriert werden. Dies entspricht vom Aufwand her für jede eingesetzte Simulation einem EWS aus der manuell gekoppelten Prozesskette. Nach der Integration aller benötigten Simulationen müssen EWS nur jeweils einmal für die gesamte Prozesskette durchgeführt werden, danach kann die gesamte Prozesskette auch bei Variation des Materials, einzelner oder mehrerer Parameter automatisiert und ohne Eingriffe der Experten in die Prozesskette durchgeführt werden. Der Planungsaufwand für diesen Teil der Konzeptphase lässt sich wie folgt beschreiben: Formel 1: Planungsaufwand (1)
Planungsaufwand = A nzahl EWS + Durchführung der Simulation + Werkstoff Auswahl + Auswahl Prozesskette
Formel 2: Kennzahl Planungsaufwand (KPA) (2)
KPA = 1 –
PAm PAo
PAm: Planungsaufwand mit Einsatz der Werkzeuge der digitalen Produktion, PAo: Planungsaufwand ohne Einsatz der Werkzeuge der digitalen Produktion
Mit dieser Kennzahl ist es möglich, den Beitrag der Digitalen Produktion zur Reduktion des Dilemmas zwischen Planungs- und Wertorientierung darzustellen. Das Ziel ist es, bei einem hohen Einsatz von Planungswerkzeugen das Produktionskonzept dem der Wertorientierung anzunähern. Dieses Ziel kann nur erreicht werden, wenn die Planungswerkzeuge im Planungs- und Herstellungsprozess mit geringem Aufwand eingesetzt werden können und damit der Anteil der Arbeitszeit, die für die Arbeitsvorbe-
118
Daniel Schilberg
Abbildung 4: Reduzierung des Planungsaufwandes
reitung zur Verfügung steht, bei gleichbleibender Qualität verringert werden kann. Die Kennzahl für den Planungsaufwand hat gezeigt, dass der Aufwand für die Durchführung der Planung gegenüber der bisherigen weitestgehend manuell gekoppelten Planung deutlich reduziert werden konnte. Abbildung 4 zeigt den Beitrag der Digitalen Produktion zur Reduzierung des Polylemmas qualitativ. Die Achsen stellen in dieser Abbildung qualitativ den anteiligen Aufwand dar, der erbracht werden muss, um einer Orientierung zu entsprechen. Die Planungsanteile in der Produktplanung werden durch den Einsatz der Digitalen Produktion nicht verringert, unter Umständen wird dieser sogar erhöht. Der Aufwand für den Einsatz der Planungswerkzeuge jedoch wird reduziert.
D. Zusammenfassung und Ausblick Die Digitale Produktion umfasst als Werkzeug die virtuelle Planung des Produkts durch CAD-Systeme, die virtuelle Modellierung der Maschinen, die das Produkt herstellen, die virtuelle Planung des Herstellungsprozesses, in dem die Maschinen genutzt werden, um das Produkt zu fertigen und die virtuelle Fabrikplanung, in der festgelegt wird, wie die Herstellung des Produktes räumlich und zeitlich unter Einsatz der Fertigungsanlagen, der Rohstoffe und weiteren Ressourcen aussehen soll17. Die Werkzeuge der 17 Pawellek
(2008).
Digitale Produktion119
Abbildung 5: Einordnungsschema von Herstellungsprozessen nach Domäne und Anzahl der Simulationen
digitalen Produktion sollten nun dahingehend erforscht und weiterentwickelt werden, dass sie in eine Anwendung integriert werden können, um die reale Fertigung eines Produkts vollständig computergestützt planen und simulieren zu können. Abbildung 5 bietet ein Schema zur Verortung des vorgestellten Fertigungsprozesses Getriebezahnrad in den Dimensionen Domäne und Anzahl der Simulationen (n). Die Domäne bezeichnet das Einsatzgebiet der im Planungsprozess eingesetzten Simulationen. Diese werden im Beispiel der Domäne der Materialverarbeitung zugeordnet. Mit dem Ziel der ganzheitlichen Realisierung muss die Digitale Produktion konsequent um weitere Domänen und Simulationen erweitert werden. Zu diesem Zweck müssen die Elemente der Digitalen Produktion um die syntaktischen und semantischen Besonderheiten der jeweiligen Wissensdomänen erweitert werden. Danksagung Die vorgestellten Arbeiten wurden von der Deutschen Forschungsgemeinschaft (DFG) im Rahmen des Exzellenzclusters „Integrative Produktionstechnik für Hochlohnländer“ gefördert.
120
Daniel Schilberg
Literaturverzeichnis Bischoff, R. (2007), Anlaufmanagement – Schnittstelle zwischen Projekt und Serie. Konstanz, Konstanzer Managementschriften. Chandler, A. D. (2004), Scale and Scope. The Dynamics of Industrial Capitalization. In: Belknap Press of Harvard University Press. Cambridge, Mass., London. Gausemeier, J. / Plass, C. / Wenzelmann, C. (2009), Zukunftsorientierte Unternehmensgestaltung – Strategien, Geschäftsprozesse und IT-Systeme für die Produktion von morgen. Carl Hanser Verlag, München. Henning, K. / Hees, F. / Leisten, I. (2008), Unternehmenskybernetik 2020 – betriebswirtschaftliche und technische Aspekte von Geschäftsprozessen. In: Unternehmenskybernetik 2020 – betriebswirtschaftliche und technische Aspekte von Geschäftsprozessen. Hrsg. v. Henning, Klaus; Michulitz, Christiane, Aachen. Panzar, J. / Willig, R. (1981), Economies of Scope. In: American Economic Review, Vol. 71, No. 2, Papers and Proceedings, pp. 268–27. Pawellek, G. (2008), Ganzheitliche Fabrikplanung: Grundlagen, Vorgehensweise, EDV-Unterstützung. Springer, Berlin. Pfeifer, T. (1996), Qualitätsmanagement: Strategien, Methoden, Techniken. Hanser, München / Wien. Schuh, G. / Klocke, F. / Brecher, C. / Schmidt, R. (2007), Excellence in Production, Aachen. Schuh, G. / Stölzle, W. / Straube, F. (2008), Anlaufmanagement in der Automobilindustrie erfolgreich umsetzen. Springer, Berlin / Heidelberg. Silvestre, J. (1987): Economies and Diseconomies of Scale. The New Palgrave: A Dictionary of Economics, v. 2, pp. 80–84, Landon / New York (USA). Specht, D. / Lutz, M. (2005): Outsourcing und Offshoring als strategische Handlungsalternativen. In: Tagungsband der Herbsttagung 2005 der Wissenschaftlichen Kommission Produktionswirtschaft im VHB. Spur, G. / Krause, F. L. (1997): Das virtuelle Produkt: Management der CAD-Technik. Hanser, München. Weber, J. / Bramsemann, U. / Heineke, C. / Hirsch, B. (2004): Wertorientierte Unternehmenssteuerung: Konzepte – Implementierung – Praxisstatements. Gabler, Wiesbaden. Womack, J. P. / Jones, D. T. (2004): Lean Thinking. Campus Verlag GmbH, Frankfurt am Main.
Ein ontologiebasiertes IuK-System zur innovationsbegleitenden Qualifikationsentwicklung im Unternehmen am Beispiel eines Entwicklungsund Prüflabors Von Anja Kreidler und Tobias Maschler
A. Einführung Ziel der in diesem Beitrag vorgestellten Arbeit1 war die Entwicklung und Umsetzung eines Systems zur Dokumentation und Recherche der Qualifikationen und Qualifizierungen in einem Unternehmen. Diese werden allgemein für das Unternehmen und konkret für einzelne Mitarbeiterinnen betrachtet, insbesondere entlang der Innovationsprozesse. Mit dem System werden zum Einen qualifizierende Veranstaltungen mit Teilnehmerinnen, Unterlagen usw. verwaltet. Zum Anderen können Nachweise erstellt werden, welche Mitarbeiterinnen über welche Qualifikationen verfügen bzw. zu einem bestimmten Zeitpunkt verfügt haben, und an welchen Veranstaltungen sie teilgenommen haben. Des Weiteren sollte das entwickelte System den Anforderungen der Normen DIN EN ISO 13485:2003 und DIN EN ISO 17025:2005 entsprechen. Das System wurde für die Prüflabore der DITF Denkendorf entwickelt, es sollte jedoch mit kleinen Änderungen auch auf andere Unternehmen übertragbar sein. Die Deutschen Institute für Textil- und Faserforschung Denkendorf (DITF) sind Deutschlands größtes Textilforschungszentrum. An den DITF wird anwendungsbezogene Forschung im textilen Bereich durchgeführt, unter anderem für Medizinprodukte und technische Textilien.
1 Durchgeführt als Studienarbeit am Zentrum für Management Research der DITF Denkendorf in Kooperation mit dem Zentralen Prüflabor und dem Prüflabor Technische Textilien der DITF Denkendorf. Betreuung: Tobias Maschler und Heiko Matheis.
122
Anja Kreidler und Tobias Maschler
I. Relevanz von innovationsbegleitendem Qualifikationsmanagement Im Kontext der Entwicklungs- und Prüflabore der DITF ist eine Innovation zum Beispiel die Einführung eines neuen Prüfverfahrens. Die benötigte Kompetenz zur Durchführung eines solchen Verfahrens oder auch für eine andere Tätigkeit kann über eine oder mehrere Qualifikationen beschrieben werden. Mitarbeiterinnen erwerben diese Qualifikationen beispielsweise durch die Teilnahme an Schulungen, durch selbstständige oder Einarbeitung durch Kolleginnen – also der Teilnahme an so genannten Qualifizierungen2. Weiter gilt es im Rahmen des Qualitätsmanagements, bestimmten regulativen Anforderungen wie hier denen der Normen DIN EN ISO 9001:2008 „Qualitätsmanagementsysteme – Anforderungen“ und DIN EN ISO 17025: 2005 „Allgemeine Anforderungen an die Kompetenz von Prüf- und Kalibrierlaboratorien“ zu genügen. Für ein Unternehmen ist es äußerst wichtig, ein gut dokumentiertes Qualifikationsmanagement einzusetzen und zu pflegen. Positive Auswirkungen sind unter anderem, dass einfach erkannt werden kann, welche Mitarbeiterinnen über welche Qualifikationen verfügen und welche Qualifikationen im Unternehmen nicht vorhanden sind, jedoch benötigt werden. Mit Hilfe des Qualifikationsmanagementsystems ist einfach ersichtlich, wer qualifiziert ist, bestimmte Tätigkeiten durchzuführen und wer eine Qualifizierung zu einem bestimmten Thema benötigt. Des Weiteren kann identifiziert werden, welche Lücken entstehen, wenn das Wissen einer bestimmten Mitarbeiterin wegfällt. Dadurch kann dem Risiko entgegengewirkt werden, dass eine Qualifikation mit einer Mitarbeiterin das Unternehmen verlässt und die restlichen Mitarbeiterinnen nicht befugt sind, die Tätigkeit dieser Mitarbeiterin durchzuführen. Die Qualifikationsentwicklung einer Mitarbeiterin kann beobachtet werden und es können geeignete Nachweise erbracht werden, welche Mitarbeiterin zu welchem Zeitpunkt über welche Qualifikationen verfügt und dadurch befugt ist, eine gewisse Arbeit durchzuführen. Zusätzlich ist ein Qualifikationsmanagementsystem erforderlich, wenn im Unternehmen Konformität mit bestimmten Normen gewünscht ist, wie zum Beispiel DIN EN ISO 13485:2003 oder DIN EN ISO 17025:2005. Deshalb ist ein gutes und ausreichend dokumentiertes Qualifikationsmanagement unerlässlich für Unternehmen, die Innovationen anstreben und vorantreiben wollen.
2 „Qualifizierung“ beinhaltet hier alles, was den (erfolgreichen) Erwerb einer Qualifikation darstellt, also Schulungen, selbständige Einarbeitung, Einweisung am Arbeitsplatz usw.
Ein ontologiebasiertes IuK-System123
II. Ontologien Der Aufbau des entwickelten Qualifikationsmanagementsystems kann mit Hilfe einer Ontologie beschrieben werden. Zunächst erfolgt eine kurze Einführung in das Konzept Ontologie3. Im Rahmen dieser Arbeit stellt eine Ontologie eine Menge von Konzeptklassen dar, die verschiedene Attribute haben und mittels Relationen verknüpft sein können. Instanzen sind konkrete Ausprägungen einer Klasse und haben für alle von der Klasse festgelegten Attribute Werte. Wenn die Klasse eine Relation zu einer anderen Klasse besitzt, kann eine Instanz Rela tionen zu einer oder mehreren Instanzen der anderen Klasse haben. Beispielsweise ist Martina Musterfrau eine Instanz der Klasse Mitarbeiterin und instanziiert alle dort festgelegten Attribute wie Name, Arbeitsbereich usw. mit den jeweiligen Werten. Zusätzlich sind in Ontologien so genannte Axiome möglich; dies macht den größten Unterschied zwischen relationalen Informationsrepräsentationen und Ontologien aus. Axiome sind Regeln, die Aussagen über die Zusammenhänge in der Ontologie treffen. Diese Ableitungsregeln können beispielsweise als eine Visualisierung von Zusammenhängen dargestellt werden, wie etwa als Qualifikationsmatrix. Hierbei werden die Mitarbeiterinnen in den Zeilen, die Qualifikationen in den Spalten und in eine Zelle jeweils der Ausprägungsgrad der vorhandenen Qualifikation eingetragen. Ausprägungsgrade können beispielsweise „in Einarbeitung“, „qualifiziert zur Mitarbeit“ oder auch „verantwortlich“ sein. So entsteht eine Übersicht, welche Mitarbeiterinnen welche Qualifikationen besitzen. Abbildung 1 zeigt an einem Beispiel die Zusammenhänge der einzelnen Bestandteile einer Ontologie. Die Klassen Mitarbeiterin und Qualifikation sind über die Relation verfügt über bzw. ist vorhanden bei miteinander verbunden, während eine Qualifikation für ein Prüfverfahren benötigt wird. Relationen sind immer doppelt gerichtet. Die Klasse Mitarbeiterin besitzt die Attribute Name, Arbeitsbereich und Status, die auch der Instanz Martina Musterfrau (hier gestrichelt umrandet dargestellt) vererbt werden und dabei mit konkreten Werten gefüllt werden. Modellierungen auf Basis von Ontologien bieten weitere Vorteile: Mit Hilfe von Ontologien lassen sich Zusammenhänge einfach darstellen und (automatisch) erschließen, Informationen müssen nicht redundant gepflegt werden. Wissensbasierte Systeme, die mit Hilfe von Ontologien als strukturdefinierendes Element modelliert werden, sind sehr flexibel und nach Bedarf einfach anpassbar. 3 Vgl.
Informatiklexikon.
124
Anja Kreidler und Tobias Maschler
Abbildung 1: Beispiel einer Ontologie
B. Vorgehensweise Als Vorgehensweise zur Entwicklung und Umsetzung des Qualifikationsmanagementsystems wurde das Wasserfallmodell4 gewählt. Da die Anordnung der Aktivitäten in diesem Modell frei wählbar ist, kann es einfach auf die jeweiligen Projekterfordernisse angepasst werden. Die kontinuierliche Bewertung und Verbesserung der entwickelten Teilergebnisse, wie etwa die Ontologie und natürlich die Umsetzung, erfordern jedoch ein iteratives Vorgehen. Dies kann durch Rückkopplungen von einer Aktivität in die vorherigen realisiert werden. Hier wird jedoch kein vollständiger Zyklus durchlaufen, an dessen Ende jeweils eine eigenständige Version des entwickelten Systems steht. Vielmehr sind die eingebauten Rückkopplungen als kontinuierlicher Verbesserungsprozess zu verstehen. Ein weit verbreitetes und bekanntes Prozessmodell ist das V-Modell5. Da es jedoch als Prozessmodell auch Anforderungen an die Qualitätssicherung, das Konfigurations- und Projektmanagement und das Berichtswesen festlegt, ist es für die Durchführung eines Ein-Personen-Projekts über kurze Zeit viel zu aufwändig und daher nicht geeignet. Aus diesem Grund wird hier nur die Anordnung der einzelnen Aktivitäten im Wasserfallmodell nach dem prinzipiellen Ablauf im V-Modell übernommen – also vom Allgemeinen zum Speziellen und wieder zum Allgemeinen. Im vorliegenden Fall 4 Vgl. 5 Vgl.
Ludewig / Lichter (2007), Seite 146 f. Ebd., Seite 178 f.
Ein ontologiebasiertes IuK-System125
Abbildung 2: Gewählte Vorgehensweise
gehen die Aktivitäten von der allgemeinen Analyse über die Entwicklung und das Testen des konkreten Systems hin zur generellen Bewertung der Zielerreichung. Abbildung 2 zeigt die gewählte Vorgehensweise für die Entwicklung des Qualifikationsmanagementsystems, die im Folgenden näher erläutert wird. Zunächst erfolgte die Analyse der Problemstellung. Hier wurde unter anderem geschaut, welche Anforderungen die für ein Prüflabor relevanten Normen, hier DIN EN ISO 13485:2003 und DIN EN ISO 17025:2005, an ein Qualifikationsmanagementsystem haben. Zusätzliche Anforderungen wurden vom Institut festgelegt. Darauf basierend wurden die Ziele festgelegt, die mit dem neuen System erreicht werden sollten. In der Ist-Analyse wurde betrachtet, wie die aktuellen Prozesse zur Erhaltung einer Qualifikation und die bisherigen Vorgehensweise zur Dokumentation der Qualifikationen durchgeführt werden. Aus den Anforderungen an das zu entwickelnde Qualifikationsmanagementsystem wurde dann die verwendete Ontologie entwickelt. Hierbei wurden zunächst die benötigten Klassen und ihre Attribute identifiziert. Zwischen den einzelnen Klassen konnten nun die Relationen festgelegt werden, welche die Zusammenhänge darstellen. Basierend auf der Analyse der Problemstellung und der entwickelten Ontologie konnten Soll-Abläufe erarbeitet werden. Diese beschreiben zum Einen die Vorgänge, die nötig sind, um im neuen System bestimmte Tätigkeiten durchzuführen, also z. B. Instanzen einer Klasse anlegen, Attribute und Status einer Instanz ändern, Relationen anlegen usw. Zum Anderen beschreiben sie die Abläufe, die nötig sind, damit eine Mitarbeiterin eine bestimmte Qualifikation erhält. Abbildung 3 zeigt einen stark vereinfachten
126
Anja Kreidler und Tobias Maschler
Abbildung 3: Beispiel eines Soll-Ablaufs
Ablauf, der dazu führt, dass eine Mitarbeiterin eine von ihr benötigte Qualifikation erhält. Die beiden Grundvoraussetzungen dafür sind einerseits, dass die Mitarbeiterin die Qualifikation benötigt und noch nicht darüber verfügt, andererseits, dass eine Qualifizierung zu der benötigen Qualifika tion geplant ist. Findet nun die Qualifizierung statt und nimmt die Mitarbeiterin erfolgreich daran teil, hat sie die benötigte Qualifikation erhalten. Die Ereignisse müssen jeweils im Qualifikationsmanagementsystem dokumentiert werden. Da am Zentrum für Management Research der DITF Denkendorf bereits ein ontologiebasiertes IuK-System vorhanden war, konnte dieses nun um die entwickelte Ontologie und die Soll-Abläufe erweitert werden. Die entwickelte Ontologie konnte einfach und mit nur kleinen Anpassungen integriert werden. Zusätzlich konnte das Basissystem mit geringem Entwicklungsaufwand um die benötigten und gewünschten Funktionen erweitert werden, die dort noch nicht vorhanden waren. Auch die bereits verwendeten Formblätter, die als Nachweise dienen, konnten einfach in das neue System übernommen werden. Durch die Integration in die alltäglichen Abläufe, sowie die Integration in die laufenden Innovationsprozesse, wurde das System nach der Fertigstellung am Institut eingeführt. Parallel dazu fand eine Schulung für die zukünftigen Anwenderinnen des Systems statt. Bei der Einführung und der Schulung traten noch einige Anmerkungen der Benutzerinnen auf, die im System geändert werden konnten, wie etwa eine kleine Überarbeitung der OntologieStruktur und der Formblätter sowie das Anpassen einiger Abläufe.
Ein ontologiebasiertes IuK-System127
C. Bewertung der Anforderungen und angestrebten Verbesserungen Die Erfüllung der Anforderungen, sowie der angestrebten Verbesserungen wurde zum Einen durch ausführliches Testen des Systems und zum Anderen durch Interviews mit den Anwenderinnen überprüft. Dabei wurde ein Teil der Benutzerinnen einige Zeit nach der Einführung des Systems individuell bei der Benutzung betreut, wobei auftretende Fragen und Probleme direkt behandelt werden konnten. Auch eine Befragung zu unterschiedlichen Aspekten des Systems konnte hierbei durchgeführt werden. Die dadurch entdeckten Probleme und Schwierigkeiten mit dem System konnten daraufhin behoben werden. Auch wurden weitere, durch die Anwendung aufgetretene, Anregungen und Wünsche der Benutzerinnen berücksichtigt. Die meisten der genannten Anforderungen konnten erfolgreich umgesetzt werden. Auch ist der Großteil der Benutzerinnen mit dem System zufrieden. Da anstatt verschiedener Datenbanken, Dateien, Aktenordner und Papier nur ein System zum Verwalten von Qualifikationen und zum Erstellen geeigneter Nachweise verwendet wird, konnte der Zugriffsaufwand erheblich gesenkt werden. Auch das einfache und einheitliche Pflegen der Informationen, sowie das schnelle, detailliertes Recherchieren und Suchen tragen dazu bei, Zeit beim Einfügen und Pflegen der Daten und beim Erstellen der Nach weise einzusparen. Dies wurde auch von den meisten der Benutzerinnen bestätigt. Dadurch, dass eine Übersicht über alle vorhandenen und benötigten Qualifikationen dargestellt werden kann, wird das Auffinden von geeigneten Ansprechpartnerinnen erheblich erleichtert. Dadurch kann besonders in frühen Innovationsphasen eine bessere Einschätzung des Risikos, z. B. durch feh lende Qualifikationen; Ausfall einer Mitarbeiterin und dadurch Ausfall einer Qualifikation im Unternehmen; usw. gewährleistet werden. Damit kann die Eintrittswahrscheinlichkeit von Durchführbarkeits-Gefährdungen der Arbeitsabläufe gesenkt und / oder das Schadensausmaß vermindert werden.
D. Ausblick Das entwickelte Qualifikationsmanagementsystem ist auf die Prozesslandschaft eines Entwicklungs- und Prüflabors ausgelegt. Die Systemkonfiguration kann jedoch mit geringem Aufwand sowohl auf ein ähnliches System übertragen, als auch für neue Gegebenheiten individuell angepasst und erweitert werden. Beispielsweise können weitere Attribute für bestimmte Klassen schnell und einfach hinzugefügt werden. Die entwickelten SollAbläufe und die Ontologie könnten jedoch auch in ein anderes passendes
128
Anja Kreidler und Tobias Maschler
System integriert werden. Wäre in einem anderen Unternehmen ein solches System bereits vorhanden, so würde der Einarbeitungsaufwand der Mitarbeiterinnen sinken. Das entwickelte System könnte nach „Umrüsten“ für ähnliche Prozessabläufe und Landschaften verwendet werden. Das verwendete Basissystem selbst ist beliebig erweiterbar. Somit bietet auch das Qualifikationsmanagementsystem Raum für weitere ergänzende Anwendungen. Denkbar wäre z. B. eine Unterteilung der Qualifikationen in ihre Ausprägung, was im aktuellen System noch nicht berücksichtigt wurde. So wäre zusätzlich ersichtlich, welche Mitarbeiterinnen beispielsweise bei Fragen zu bestimmten Themen bevorzugt herangezogen werden können. Vor allem für neu eingestellte Mitarbeiterinnen kann dies einen großen Vorteil bringen. Auch könnten weitere Qualifikationen hinzugefügt werden, die für eine Tätigkeit nicht unbedingt Voraussetzung, jedoch trotzdem wichtig sind, wie etwa Microsoft-Office- oder Statistik-Kenntnisse und Ähn liches. Werden diese nicht als „Qualifikationen“ bezeichnet sondern z. B. „weitere Kenntnisse“ genannt, so können sie von jeder Mitarbeiterin selbst verwaltet werden. Sucht nun eine Mitarbeiterin Rat zum Thema Statistik so kann sie recherchieren, welche ihrer Kolleginnen über diese Kenntnisse verfügen. Wenn nun eine Funktion besteht, allen diesen Personen eine E-Mail zu schicken, so kann die suchende Mitarbeiterin ihre Frage direkt an die geeigneten Ansprechpartnerinnen stellen. Für solche Fälle wäre auch eine Art Forum oder FAQ6 möglich. Diese FAQ könnten auch auf allgemeinere Dinge ausgeweitet werden, die besonders für Neulinge von Bedeutung sind – wie etwa was Versionsverwaltung ist und wie diese funktioniert. Mit diesen Vorschlägen kann ein unternehmensinternes Netzwerk entstehen, das die Mitarbeiterinnen sowohl zur Kommunikation mit Kolleginnen als auch zur Recherche zu Fachthemen verwenden können. Besteht die Möglichkeit, auch von außerhalb auf das System zuzugreifen, so können die Qualifikationen und Qualifizierungen auch für unternehmensexterne Projektpartnerinnen erweitert werden. Das entwickelte Qualifikationsmanagementsystem kann also als eigenständiges System verwendet, in ein anderes System integriert oder beliebig erweitert werden.
6 FAQ
(Frequently Asked Questions): häufig gestellte Fragen.
Ein ontologiebasiertes IuK-System129
Literaturverzeichnis DIN Deutsches Institut für Normung e. V.: DIN EN ISO 13485:2003, Qualitätsmanagementsysteme für Medizinprodukte. Deutsche Fassung, 2003. – DIN EN ISO 17025:2005 Allgemeine Anforderungen an die Kompetenz von Prüf- und Kalibrierlaboratorien. Deutsche und englische Fassung, 2005. Fischer, Thomas, Vorlesungsskript Wirtschaftskybernetik I und II. Universität Stuttgart, 2007 / 2008. – Vorlesungsskript Funktion des Managements. Universität Stuttgart, 2007 / 2008. Gesellschaft für Informatik: Online-Informatiklexikon der GI. http: / / www.gi-ev.de / no_cache / service / informatiklexikon / informatiklexikon-detailansicht / meldung / on tologien-57 / . Letzter Zugriff am 26.07.2010. Ludewig, Jochen / Lichter, Horst (2007), Software Engineering. dpunkt.verlag, Heidelberg, 2007.
Konzepte zur Gestaltung von Ontologien für individualisierte Produktionsprozesse – Ergebnisse von Fallstudien Von Tobias Maschler und Heiko Matheis
A. Einführung Produzierende kleine und mittelständische Unternehmen konzentrieren sich häufig auf Nischenmärkte: ihre Produkte heben sich von Standard- und Massenware durch den Innovationsgrad oder die Erfüllung spezieller Anforderungen ab. Diese Produkte erfordern entsprechend flexible und oftmals spezialisierte Produktionsmittel und fundiertes Prozesswissen. Die dazugehörigen Produktionsprozesse können in der Praxis zwar durch Anwendungssystem-Funktionen zur Effizienzüberwachung und Maschinenbelegungsplanung unterstützt werden. Eine Erfassung und Auswertung von Einstellparametern fehlt jedoch meist, da entsprechende Individuallösun gen hierfür aufgrund der spezialisierten – und damit von Standards abwei chenden – Produktionsmittel zu kostspielig sind. Ontologiebasierte1 Systeme bieten die nötige Flexibilität, um Einstellungen „individualisierter“ Produktionsprozesse zu erfassen und bereit zu stellen. Allerdings lassen sich entsprechende Informationen mit Standard-Attributtypen wie Zeichenketten und Zahlen oftmals nicht kontextnah genug abbilden, weiter ist für die betriebliche Praxis die Implementation von Konzepten zum Lenken von Wissen und Information erforderlich. Diese Mankos können die Gebrauchstauglichkeit von ontologiebasierten Systemen mindern. Dieser Beitrag stellt eine Reihe bewährter – und über die üblichen Standards hin aus gehenden – Konzepte wie Wertebereiche, Status, Klassifika tionsnummern oder etwa zusammengesetzte Bezeichnungen zur Gestaltung von Ontologien vor, die im Rahmen von Rollouts des „Recherchesystems für strukturierte Informationen“ des Zentrums für Management Research der DITF Denkendorf (DITF-MR) zum Unterstützen von individualisierten Pro1 Zur Definition und Verwendung des Begriffs Ontologien siehe beispielsweise Studer oder Gesellschaft für Informatik.
132
Tobias Maschler und Heiko Matheis
duktionsprozessen durch die Erfassung und (teil-)automatische Abschätzung von Einstellparametern entwickelt wurden2. Ausgehend von in Prozessanalysen identifizierten Gegebenheiten werden besondere Attributtypen und Konzepte beschrieben, praxisnahe Recherchemöglichkeiten erläutert und Einsatzmöglichkeiten aufgezeigt. Evaluierungskriterium hierbei war die direkte Abbildbarkeit von ablaufbegleitenden Informationsstrukturen und Tätigkeiten. Die aufgezeigten Attributtypen und Gestaltungskonzepte bieten für die betriebliche Praxis einen deutlichen Mehrwert beim Erfassen von und beim Recherchieren und Navigieren in produktionsprozessnahen Ontologien. Die Konzepte lassen sich durch ihre abstrakte Implementierung und durch eine anwendungsfallspezifische Konfiguration einfach auf andere Problemstellungen übertragen.
B. Paradigmata zum Erschließen von Informationen Das folgende Kapitel gibt einen Einblick in die Bedeutung des Auffindens von relevanten Informationen zum richtigen Zeitpunkt im Produktionsprozess und wie dies in den hier beschriebenen Fallstudien realisiert wurde. Die Grundlage für die Erschließung von Informationen im hier vorliegenden Beispiel bietet eine auf den entsprechenden Anwendungsfall abgestimmte Informationsstruktur aus Klassen und Objekten, die untereinander in Relation zueinander gesetzt werden können. Aus diesen einfachen strukturellen Vorgaben – zur Definition von Klassen und zu diesen gehörigen Attributen (vgl. Attribut-Typen S. 139) und zur Definition von Relationen zwischen diesen Klassen – lassen sich auch komplexe und auf die Bedürfnisse der Unternehmen angepasste Informationsstrukturen aufbauen. Durch die Vernetzung und Strukturierung der Informationen wird ein Mehrwert geschaffen, der aber erst durch geeignete Zugriffs- und Lenkmechanismen erschlossen werden kann. Zu den im „Recherchesystem für strukturierte Informationen“ verwendeten Mechanismen der Informationserschließung gehören die nachfolgend beschriebenen Paradigmen. I. Navigieren Das aufgrund der weiten Verbreitung des Internets – und der daraus resultierenden häufigen Nutzung von Web-Browsern – heutzutage am gebräuchlichste und am weitesten verbreitete Paradigma zur Informations 2 Siehe
Maschler und MODSIMTex.
Konzepte zur Gestaltung von Ontologien133
erschließung ist das Navigieren entlang vorgegebener einseitig gerichteter Pfade, den so genannten Hyperlinks. Üblicherweise wird dabei ein Textsegment mit einem Verweis auf ein Dokument oder einen speziellen Teil von diesem hinterlegt. Im Recherchesystem besteht die Möglichkeit, die Pfade auf verschiedene Art und Weise zu realisieren. Eine Möglichkeit ist die Definition von Beziehungen zwischen Informationen. Hierbei werden Instanzen einer vorgegebenen Relation zwischen zwei Informationsklassen gebildet, die die Informationen anhand ihrer semantischen Bedeutung in einen gemeinsamen Kontext setzen. Diese Art der Kontextualisierung nutzt die bei der Implementierung definierte Informationsstruktur und stellt eine bidirektionale Verknüpfung dar, wobei sich die spezifische Kontextualisierung des jeweiligen Verweisziels aus der Verweisrichtung ergibt. Eine zweite Möglichkeit für Navigationspfade, die das System bietet, ist das Anlegen von Hyperlinks, sowohl zu anderen systeminternen Informa tionen als auch zu externen Ressourcen und Anwendungen wie beispielsweise E-Mail oder Internet-Telefonie. Im Gegensatz zu der oben beschriebenen Navigation entlang von kontextualisierten Relationen zwischen Informa tionsobjekten bilden Hyperlinks lediglich unidirektionale Verbindungen ab. Im Recherchesystem werden den Benutzern alle Navigationspfade als Hyperlinks dargestellt, damit diese die Funktionalität intuitiv verstehen und somit ohne Einlernzeit nutzen können. II. Suchen und Finden Das zweite – weit verbreitete – Paradigma zum Erschließen von Informationen ist die Volltextsuche (hier zur Verbesserung der Bedienbarkeit „Suchen und Finden“ genannt). Die Erfahrung in den untersuchten Anwendungsfällen hat gezeigt, dass sich diese Art der Informationserschließung besonders eignet, um nach expliziten, aber auch impliziten „Identifizierern“ zu suchen, also eindeutige Bezeichnungen. Ein typisches Beispiel für solche eindeutigen Bezeichnungen sind Auftragsnummern in der Form A655878, die sich aus dem Kürzel „A“ und einer Nummer zusammen setzen und sich im System eindeutig wieder finden lassen. Eine weitere Möglichkeit zum Einsatz der Volltextsuche ist, direkte Fragen wie z. B. „Was tue ich, wenn verhältnismäßig viele Maschinenstillstände vom Typ … auftreten?“ zu stellen. Die Volltextsuche liefert dann diejenigen Informationen zurück, deren vom Suchalgorithmus indizierte TextfeldInhalte denen in der Frage am nächsten kommen. Die Schwierigkeit bei der Volltextsuche ist, dass der Anwender wissen muss, um welches Problem es sich handelt und er muss dieses auch a priori benennen können. Um mit
134
Tobias Maschler und Heiko Matheis
solchen Anfragen zufriedenstellende Ergebnisse zu erhalten, müssen die Identifizierer als solche eindeutig beschrieben und bekannt sein. Dies bedeutet beispielsweise, dass bei Informationen des Typs „Frequently Asked Questions“ (FAQ) zu einer Frage-Antwort-Kombination auch weitere ähn liche Fragen inklusive Synonyme für Schlüsselwörter mit abgelegt werden sollten. Dieser explizit vom FAQ-Pfleger durchzuführende Schritt wäre beim Einsatz einer semantikbasierten Suchmaschine nicht erforderlich; diese muss aber gegebenenfalls separat mit den nötigen Begrifflichkeiten und deren Kontext konfiguriert werden. III. Recherchieren Ein weiteres Paradigma zur Erschließung von Informationen bildet das so genannte Recherchieren. Hierbei handelt es sich um ein Verfahren zum Identifizieren von einzelnen, unbekannten Informationsobjekten aus einer vorliegenden Menge. Das erzielte Rechercheergebnis ist also eine Teilmenge, die anhand von vorgegebenen Kriterien für Attributwerte gebildet wird. Die Auswahl der für die Ergebnisfindung relevanten Attribute erlaubt es weiter, die identifizierten Informationsobjekte hinsichtlich ihrer Relevanz zur aktuellen Fragestellung zu bewerten und entsprechend zu sortieren. Ein Beispiel für eine solche Fragestellung aus einer Weberei: „Zeige mir alle abgeschlossenen Webaufträge, die für ein reines Baumwollgewebe und bei einer Mindest-Maschinen drehzahl von 500 U / min – wenn möglich – einen Nutzeffekt von mehr als 85 % erreicht haben und idealerweise eine Kettfadendichte zwischen 15 und 18 Fäden / cm haben.“ Abbildung 1 zeigt die schematische Darstellung der Ergebnismenge für diese Fragestellung. Dabei lassen sich Bedingungen, die zwingend erfüllt werden müssen, und solche, die einen Mehrwert für die Lösungsfindung liefern – also die Relevanz der gefundenen Lösungsmöglichkeiten erhöhen – unterscheiden. Für das obige Beispiel bedeutet das, dass die gesuchte Lösung auf jeden Fall ein abgeschlossener Webauftrag sein muss, bei dem das produzierte Gewebe aus 100 % Baumwolle besteht und die verwendete Maschine mit mindestens 500 U / min betrieben wurde. Alle Lösungen, die diese Anforderungen erfüllen, werden im Ergebnis angezeigt. Selbst verständlich sind hier auch verneinende Anforderungen wie z. B. „zeige alle nicht abgeschlossenen Webaufträge“ – also alle gerade laufenden oder sich in Vorbereitung befindlichen Wegaufträge – möglich. Zur Bestimmung der Relevanz der gefundenen Lösungen werden die weiteren Anforderungen herangezogen, die z. B. mit den Bezeichnungen „wenn möglich“ oder „am Besten“ beschrieben wurden. Jede gefundene Lösungsmöglichkeit, die eine oder mehrere dieser zusätzlichen Anforderungen erfüllt, steigt in der Hierarchie der gefundenen Lösungen entsprechend auf.
Konzepte zur Gestaltung von Ontologien135
Abbildung 1: Schematische Darstellung der Ergebnismenge einer Rechercheanfrage
Letztlich bleibt es aber auch hier dem Benutzer überlassen, aus dem Ergebnis die Schlussfolgerungen über die tatsächliche Relevanz der gelieferten Lösungen – zur aktuellen Fragestellung – selbst zu ziehen. Weiter ist im Recherchesystem ein Export von Rechercheergebnissen in eine Excel-Datei mit vordefinierten Auswertungen möglich. So können beispielsweise flexibel Kennzahlen ermittelt und zur Entscheidungsfindung aufbereitet werden. Zusammenfassend lässt sich das Recherchieren als Paradigma zur Erschließung von Informationen in der hier vorgestellten Form als Methode beschreiben, bei der über das Vorgeben eines Kontextes (also eine Informa tionsklasse mit Attributen) Instanzen einer Lösungsmenge zugeordnet, gleichzeitig auch auf Relevanz bewertet und entsprechend vorsortiert werden.
C. Paradigmata zum Lebenszyklus-Management von Instanzen Betriebswirtschaftlich relevante materielle und immaterielle Ressourcen haben einen in einzelne Phasen untergliederten Lebenszyklus. Dabei drückt der Status die jeweilige Lebenszyklus-Phase aus. Je nach Status haben unterschiedliche Mitarbeiter verschiedene Zugriffsberechtigungen auf eine Ressource. Typischerweise haben Mitarbeiter auf Informationen verschiede-
136
Tobias Maschler und Heiko Matheis
ne Sichten, die die Durchführung der jeweils zu erledigenden Aufgabe erleichtern. Dies können beispielsweise Formulare zum Ausfüllen sein, ebenso Auswertungen, etc. Work Flows wiederum formalisierte Abbildungen des Lebenszyklus von Ressourcen dar und damit einen gerichteten Graphen, wobei die Knoten den jeweiligen Status darstellen und Kanten mögliche Statusübergänge. Es ist ersichtlich, dass Mitarbeiter entsprechend ihrer Aufgaben – also der ihnen zugeordneten Rollen im Work Flow – verschiedene Berechtigungen auf die Informationen haben, ebenso stehen ihnen die jeweiligen erforderlichen (speziellen) Sichten auf die Informationen zur Verfügung. Die folgenden Abschnitte beschreiben relevante Aspekte zum Lebenszyklus-Management von Instanzen. I. Statusmanagement und Work Flow Status stellen die jeweiligen Lebenszyklus-Phasen einer Instanz dar. In der betrieblichen Praxis eignen sich als Bezeichnungen für die einzelnen Lebenszyklus-Phasen beispielsweise die Bezeichnungen der jeweiligen Abteilungen oder Warteschlangen-Namen, also z. B. „in Arbeitsvorbereitung“, „zum Rüsten anstehend“, „in Produktion“, etc. Es zeigte sich, dass es sinnvoll ist, vor dem eigentlichen Lebenszyklus noch einen Status „Vorlage“ zu setzen, der vorparametrierte Instanzen enthält, von denen dann zu ändernde Duplikate den Work Flow durchlaufen. Weiter ist es sinnvoll, veralteten Informationen den Status „archiviert“ zu geben. Dies könnte damit verbunden sein, Archiviertes generell nicht mehr für Recherchen bereit zu stellen. So kann zum einen den Anforderungen des Qualitätsmanagements zur Rückverfolgbarkeit genüge getan werden und zum anderen die Zahl der recherchierbaren Informationen auf ein sinnvolles Maß begrenzt werden. Status können in ontologiebasierten Anwendungssystemen letztlich als Instanzen einer gemeinsamen Klasse umgesetzt werden. Dabei sollte an diese Klasse ein auf sie selber zeigenden Relationstyp angegliedert sein, mit dem Folgestatus zugeordnet werden können. Entsprechend der obigen Erläuterungen bietet es sich an, folgende Attribute für diese Klasse zu definieren: „Ist Vorlage?“, „Ist recherchierbar?“, „Rollen mit Leserecht?“, „Rollen mit Änder-Recht?“, „Rollen mit Löschrecht?“, „Ist duplizierbar?“, „Ist Vorgabe-Status für neue Instanzen?“, etc. Es bietet sich weiter an, Instanzen, die eine bestimmte Verweildauer in einem Status überschreiten, mit einer Statusergänzung im Sinne einer Eskalation oder Wiedervorlage hervorzuheben. Ferner könnten alle Mitarbeiter regelmäßig über Statuswechsel von Instanzen informiert werden.
Konzepte zur Gestaltung von Ontologien137
II. Berechtigungskonzepte Berechtigungskonzepte schaffen die Möglichkeit, Informationen benutzerabhängig zu schützen oder für die Bearbeitung freizugeben. Hierbei lassen sich beispielsweise folgende allgemeine Berechtigungen für Instanzen unterscheiden: •• Anlegen, •• Recherchieren, •• Lese-Zugriff, •• Bearbeiten und Wechsel zu einem vordefinierten Folgestatus, •• Löschen, •• Ändern der Zugriffsrechte, •• Temporäres Beschränken bzw. Entsperren des Schreibzugriffs, •• Archivieren, •• Duplizieren. Die einfachste Form der Berechtigung ist die Leseberechtigung. Diese kann für jede Informationsklasse einzeln vergeben werden. Jedem Anwender stehen so nur die Informationen zur Verfügung, die er für seine Aufgaben wirklich benötigt. Dies kommt der Effizienz zugute und gewährleistet die Vertraulichkeit. Rechte zum Duplizieren, Anlegen, Ändern, temporärem Sperren des Schreibzugriffs ermöglichen es, dezidiert auf die jeweiligen Bearbeite-Erfordernisse im Work Flow einzugehen. Der Vorbehalt der Lösch- und Archivierrechte für entsprechend geschulte Benutzer dient der Konformität mit regulativen Anforderungen und Vorgaben. Für gewöhnlich hat jeder Anwendungssystem-Nutzer individuelle Aufgaben im Rahmen der durchzuführenden Work Flows. Weiter können diese Aufgaben aber für gewöhnlich nicht nur von einem Hauptverantwortlichen erledigt werden, sondern auch von dessen Stellvertretern. Es ist daher sinnvoll, eine rollenbasierte Pflege der Zugriffsrechte durchzuführen. Dabei erhält ein Benutzer über ihm zugeteilte Rollen die jeweiligen Zugriffsrechte. Es hat sich gezeigt, dass es sich für kleinere Anwendungen, wo jeweils nur eine Rolle Instanzen pflegt, nicht lohnt, die Rechteverwaltung und Modifikationen der (temporären) Zugriffsrechte auf Instanzebene durchzuführen. Dies ist aber dann erforderlich, wenn mehrere Benutzer Instanzen desselben Typs pflegen.
138
Tobias Maschler und Heiko Matheis
III. Sichten Im Zusammenspiel mit den zuvor genannten Paradigmen erlauben Sichten, Informationen kontext- und damit status-spezifisch aufzubereiten. Somit wird eine Möglichkeit geschaffen, Informationen, die beispielsweise für einzelne Prozessschritte nicht von Bedeutung sind, genau dann auszublenden oder besonders hervorzuheben, wenn sie für die erfolgreiche Bearbeitung einer Fragestellung nicht bzw. zwingend erforderlich sind. Unternehmen, die das Recherchesystem in komplexen Prozessen einsetzten, pflegen teilweise für eine Instanz über 100 Attribute – eine sich auf den jeweiligen Kontext konzentrierende Darstellung der Instanz ist daher aus Anwendersicht fast schon zwingend geboten. Mit vorgefertigten Sichten, wo Vorlagen mit den Werten der einzelnen Instanzen ausgefüllt werden, lässt sich auch ein Reporting – wie es von herkömmlichen Datenbanksystemen bekannt ist – realisieren. Die Erfahrung aus den beobachteten Anwendungsfällen zeigt, dass dadurch die Anwendungssystem-Akzeptanz in den Unternehmen erheblich gefördert wird, da einerseits wie zuvor beschrieben die Informationen kontextgerecht aufbereitet und andererseits bestehende Formulare ohne Probleme nachgebildet werden können. Dies reduziert die Umgewöhnungsphase auf ein Minimum. Folgende Arten von Sichten auf Instanzen haben sich bisher im Recherchesystem bewährt: •• Druckfertige Formulare, Checklisten, •• Kontextspezifische Eingabe-Masken, •• Reports (Aufstellungen, Auswertungen, Gegenüberstellungen, etc.), •• Work-Flow-Steuerungssichten für den Statuswechsel, •• Automatische Berechnungen, z. B. von Maschineneinstellungen, Entsprechend haben sich folgende klassenspezifische Sichten bewährt: •• Liste zur Verfügung stehender Vorlagen für Instanzen, •• Liste aller Instanzen mit Sortiermöglichkeiten, •• Ergebnisse der Volltextsuche, •• Recherche-Kriterien und Ergebnisse, •• Gespeicherte Recherchen, •• Alle Instanzen mit einem bestimmten Status.
Konzepte zur Gestaltung von Ontologien139
D. Allgemeine Ontologie-Gestaltung Eine generelle Abwägung beim Einsatz von Ontologien ist, die Ontolo gien entweder „flach“ – also mit vergleichsweise wenigen Klassen – oder hierarchisch orientiert zu gestalten. Flache Strukturen sind dann für eine Problemstellung geeigneter, wenn nur wenige allgemeine Klassen benötigt werden. Entsprechend liegt der Schwerpunkt auf zur Laufzeit in Form von in Attributwerten erfasstem Wissen. Hingegen liegt bei hierarchischen Ontologie-Strukturen das Augenmerk darauf, das Wissen möglichst Instanzunabhängig direkt in der Ontologie vorzuhalten. Kleine und mittlere produzierende Unternehmen konzentrieren sich vornehmlich auf die Kernaktivitäten Produktion und Entwicklung – die Weiterentwicklung der entsprechenden Ontologien ist dabei eine Unterstützungsaktivität, die vornehmlich an die EDV-Abteilung, das Qualitätsmanagement oder die Organisationsentwicklung angegliedert wird. Gefragt ist dabei eine sinnvolle, also möglichst allgemein gehaltene Ontologiegestaltung. So bietet es sich für die Erfassung von Prozesseinstellungen an, beispielsweise folgende – gegebenenfalls weiter untergliederte – Konzepte zu unterscheiden: •• Produktbeschreibungen, •• Produktionslose, •• Prozesseinstellungen, •• Vorproduktbeschreibungen, •• Rollen, •• Personen. Es ist dabei ersichtlich, dass den Relationen zwischen den Instanzen eine große Bedeutung zukommt, da so das Pflegen redundanter Informationen vermieden wird. Dementsprechend können dann auftretende Fragen durch einfaches Navigieren beantwortet werden.
E. Attribut-Typen In ontologiebasierten Informationssystemen sind im Allgemeinen folgende Attribut-Typen zum Beschreiben von Eigenschaften von Klassen üblich: Text, Zahlen, Zeitpunkte, Mengen und Binärobjekte. Die betriebliche Praxis verlangt darüber hinaus spezielle kontextspezifische Zusammenstellungen dieser Basis-Attributtypen. Dies sind beispielsweise Wertebereiche (z. B. der Temperaturbereich für eine chemische Reak-
140
Tobias Maschler und Heiko Matheis
tion), Zeitbereiche (z. B. der Produktionszeitraum eines Auftrags oder die Wartezeit bis zur Behebung eines Maschinenstillstands), Klassifikationsnummern (z. B. ein KFZ-Kennzeichen oder eine ISBN-Nummer) aber auch komplexere Typen wie Geokoordinaten, Dateien und Bilder sowie Messreihen und Diagramme. Kennzeichnend für diese aus Basis-Attributtypen abgeleiteten Attribute ist, dass sie aus mehreren einzelnen Werten bestehen, zwischen denen es spezielle Zusammenhänge gibt und die zusammen eine spezielle Aussage ergeben. Insbesondere beim Recherchieren können dann diese speziellen Zusammenhänge im Rahmen von Abfragen genutzt werden. So ließen sich mit einem speziellen Attribut Adresse mit Geokoordinate Recherchen wie „Finde alle Kunden, die wir in minimal 2 h per LKW erreichen“ durchführen. Bewährt hat sich in der betrieblichen Praxis weiter, dass ein Attribut mehrere Werte zugleich haben kann. So lassen sich nach Bedarf auch Alternativen pflegen, weiter können so Einstellungen für gleichartige Maschinensegmente einfach eingepflegt werden. Im Recherchesystem von DITF-MR werden Relationen letztlich als Attribut-Werte dargestellt: so ist es je nach Kontext sinnvoll, den Namen einer verknüpften Instanz oder auch Attributwerte bzw. eine Sicht anzuzeigen.
F. Zusammenfassung Obwohl Ontologien nicht primär zum Abbilden von Wissen über Produktionssysteme entwickelt wurden, eignen sie sich dafür – unter Berücksichtigung einiger Besonderheiten – hervorragend. Letztlich muss eine Ontologie für ein Produktionssystem die Wissenserfassung und -nutzung effizient gewährleisten. Somit muss die zugrunde liegende Meta-Ontologie zum einen Konzepte zur sachgerechten Modellierung des Anwendungsfalls – wie spezielle Attribute – bereithalten, zum anderen aber auch einen Rahmen für die Prozessintegration (wie hier in Form von Sichten und Work Flows) bereit stellen sowie eine effiziente Erschließung benötigten Wissens ermöglichen.
Konzepte zur Gestaltung von Ontologien141
Literaturverzeichnis Gesellschaft für Informatik (2010), Ontologien, Gesellschaft für Informatik e. V. Informatiklexikon, http: / / www.gi-ev.de / no_cache / service / informatiklexikon /in formatiklexikon-detailansicht / meldung / ontologien-57.html, Stand: 09.04.2010. Maschler, T. / Wolfrum, J. (2007), Erarbeitung eines adaptiven Systems zur erfahrungsbasierten optimalen Einstellung von Webmaschinen. Abschlussbericht zum Forschungsvorhaben AiF 14320 N, 2007, bei den DITF Denkendorf erhältlich. MODSIMTex (2008), Development of a rapid configuration system for textile production machinery based on the physical behaviour simulation of precision textile structures – Project Summary, 2008, http: / / www.modsimtex.eu / Studer, R. (2008), Ontologien, in: Kurbel K., Becker J., Gronau N., Sinz E. & Suhl L. (Hrsg.), Enzyklopädie der Wirtschaftsinformatik, Online-Lexikon, http: / / www. enzyklopaedie-der-wirtschaftsinformatik.de / wi-enzyklopaedie / lexikon / daten-wis sen / Wissensmanagement / Wissensmodellierung / Wissensreprasentation / Semanti sches-Netz / Ontologien / index.html / ?searchterm=Ontologie, Stand: 26.09.2008.
Forum 3
Innovation in Netzwerken
Förderung effektiver und effizienter Innovationen in Unternehmensnetzwerken durch Kreativität, Wissensverteilung und Vertrauen Von Bernd Schiemenz
A. Einführung Innovationen in Unternehmensnetzwerken (wie bspw. im Automobilsektor) sollen effektiv und effizient sein. D. h. es müssen die richtigen Innovationen (Aspekt der Effektivität) richtig (Aspekt der Effizienz) durchgeführt werden und das rekursiv über die verschiedenen Aggregationsebenen des Netzes. Das erfordert primär die Gewinnung neuer kreativer Ideen im Rahmen von Forschung, Entwicklung und betrieblichem Vorschlagswesen. Nötig ist aber auch eine intensive abwärts- und aufwärtsgerichtete sowie horizontale Kommunikation dieser Ideen und deren Durchsetzung über mehrere Netzwerkknoten bis hin zum Markt. Wenn möglich wird man diese auf eine vertragliche Basis stellen. Angesichts von Zustandsunschärfe, d. h. nur unpräziser Erfassbarkeit der aktuellen und Prognostizierbarkeit der zukünftigen Entscheidungsbedingungen, ist jedoch häufig ergänzend eine Vertrauensbasis erforderlich, die auf geeignete Weise geschaffen und erhalten sein will. Diese auf Teil-Ganzes-Beziehungen und Rückkopplungen abstellende kybernetisch-systemtheoretische Sicht des Problems wird im Folgenden weiter herausgearbeitet. Dazu werden zunächst Unternehmensnetzwerke charakterisiert, eine spezifische Systemsicht erläutert und beide in Beziehung gesetzt. Auch wird der Neuerungsprozess beschrieben. In Teil C. wird der rekursive Ansatz für Effizienz und Effektivität näher dargestellt und auf das Innovationsproblem in Unternehmensnetzwerken angewendet. Teil D. behandelt die Bedeutung von Kreativität und Verteilung des entstehenden Wissens für den Innovationsprozess. Und Teil E. untersucht detaillierter die Frage, wie und unter welchen Bedingungen man einerseits durch Verträge und andererseits durch Entwicklung von Vertrauen absichern kann, dass die gewonnenen und verteilten Inventionen nicht in die falschen Hände geraten bzw. missbraucht werden.
146
Bernd Schiemenz
B. Begriffsklärung I. Unternehmensnetzwerke Auf Unternehmensnetzwerke geht der Verfasser in einem früheren Tagungsband der Gesellschaft für Wirtschafts- und Sozialkybernetik ausführlicher ein.1 Er schließt sich dort weitgehend der folgenden Definition von Sydow an: „Unternehmensnetzwerke stellen eine besondere Organisationsform ökonomischer Aktivität zwischen Markt und Hierarchie dar, die sich durch komplex-reziproke, eher kooperative denn kompetitive und relativ stabile Beziehungen zwischen rechtlich selbständigen, wirtschaftlich jedoch zumeist abhängigen Unternehmungen auszeichnet.“2 „Zwischen Markt und Hierarchie“ wird dort jedoch interpretiert als „mit sowohl marktlichen als auch hie rarchischen Elementen“ und die angeführten Beziehungen werden als maßgeblich vertrauensgestützt gesehen. Denn aus unserer Sicht sind Netzwerke durch die drei Dimensionen Marktintensität, Hierarchieintensität und Vertrauensintensität charakterisiert. In den durch diese drei Dimensionen aufgespannten Raum lassen sich dann verschiedene Netzwerktypen einordnen. Bei hierarchisch-pyramidalen Netzwerken dominiert ein Netzwerkpartner. Dort ist demnach die Hierarchieintensität relativ groß, die Marktintensität eher klein, und auch die Vertrauensintensität kann geringer sein als bei polyzentrischen Netzwerken mit mehreren tendenziell gleich berechtigten Partnern. Dort ist auch die Hierarchieintensität geringer, die Marktintensität größer. Solche Netzwerkbeziehungen findet man intraorganisational, d. h. in die Organisation hineinschauend, zwischen den rechtlich selbständigen Unternehmungen eines Konzerns, insbesondere wenn dieser wettbewerblich geführt wird, etwa in einem großen Automobilkonzern. Ähnliche Phänomene entstehen aber auch über die verschiedenen Stufen einer Unternehmung hinweg, wenn diese im Sinne einer Unternehmung in der Unternehmung organisiert sind. Das kann bis hin zum einzelnen Mitarbeiter führen, der sich als Unternehmer seiner eigenen Arbeitskraft fühlt. Wir haben also eine intra-systemhierarchische Netzwerkstruktur im Sinne russischer Puppen, auch wenn die in der obigen Netzwerkdefinition geforderte Selbständigkeit nicht vorhanden ist. Die Problematik im Zusammenhang unseres Themas ergibt sich insbesondere. wenn Netzwerkpartner untereinander unterschiedlich intensiv verbunden sind und einander unterschiedlich intensiv vertrauen können. Denn in der Regel werden sie auch Kontakte zu anderen Unternehmungen außerhalb des Netzwerkes unterhalten, was die Netzwerkbeziehungen schwächen kann. 1 Schiemenz 2 Vgl.
(2005). Sydow / Windeler (1994), S. 11.
Förderung effektiver und effizienter Innovationen147
II. Systemsicht und Rekursion in Netzwerken In obiger Erläuterung von Netzwerkbeziehungen wird bereits die besondere Sicht des Verfassers auf Netzwerke als Systeme deutlich und zugleich eine spezifische Sicht auf „Systeme“. Auch bezüglich dieser spezifischen Sicht auf „Systeme“ kann auf frühere Publikationen verwiesen werden.3 Ein System wird als ein Konstrukt einer bestimmten Anschauung der Realität gesehen. Man sieht sie aus einer Menge von Elementen (Objekten, Systemen niedrigerer Ordnung, Subsystemen) mit Attributen und den zwischen diesen gegebenen Beziehungen (Relationen) bestehend. Zugleich ist das System Bestandteil eines umfassenderen Systems (System höherer Ordnung, Supersystem), mit dem es interagiert. Sowohl die Elemente als auch das umfassendere System können dabei wiederum als Systeme im definierten Sinne aufgefasst werden. Wir haben also Systeme in Systemen in … Es liegt Modellrekursion vor, wie bspw. auch in der Relation Unternehmung in der Unternehmung …, Produkte in Produkten … Projekte in Projekten … etc.
Abbildung 1: Zum Mehrebenen-Charakter von Netzwerken4
In Abbildung 1 ist dieser Grundgedanke auf Netzwerke übertragen. Sie soll darstellen, dass wir solche netzwerkartigen Beziehungen auf den verschiedenen Ebenen finden. Die Pfeile sollen darüber hinaus andeuten, dass es solche Beziehungen auch zwischen Gruppen von Individuen, Abteilungen, und (Teil)Betrieben einer Unternehmung mit solchen anderer Unternehmungen gibt. 3 Schiemenz
(1993). aus Roth, A.-K. (2010), S. 86.
4 Entnommen
148
Bernd Schiemenz
III. Neuerungsprozess5 Invention, Innovation und Diffusion sind die Elemente des Neuerungsprozesses, durch den neue Produkte (Produktinnovationen), Prozesse (Prozess innovationen) oder allgemein Ideen oder „Neuerungen“ entstehen und sich in der Gesellschaft verbreiten. Eine Invention stellt zunächst nur eine Idee bzw. eine Erfindung dar. Sie muss nicht marktrelevant bzw. am Markt durchsetzbar sein. Das galt z. B. für die Idee des Daidalos aus der Mythologie, aus Federn von Vögeln und dem Wachs von Kerzen Flügel für sich und seinen Sohn zu fertigen und damit mit diesem davon zu fliegen. Es dauerte bis ins zwanzigste Jahrhundert, bis ähnliche Ideen Marktreife erlangten. Innovation ist darüber hinaus (bzw. nur) die Durchsetzung einer Erfindung am Markt. Wie die Invention selbst kann diese radikaler oder inkrementeller Natur sein. Inwiefern eine Innovation als ersteres oder letzteres einzustufen ist, dürfte eine Frage der Betrachtungsebene sein. Für die Gesellschaft ist die Einführung des Automobils als Transportmittel eine radikale Innovation, der Übergang vom Otto- oder Dieselmotor auf den Elektromotor eher inkrementell. Für den Automobilproduzenten selbst erscheint letzteres dagegen als radikale Innovation, während die Änderungen der Batterien für ihn eher inkrementell, wenn auch bedeutsam sind. Für den Produzenten dieser Antriebsbatterien handelt es sich um radikale Innova tionen, deren laufende Verbesserung dagegen wird er als inkrementell einstufen. Diffusion kennzeichnet darüber hinaus die gesellschaftliche Verbreitung der Neuerung (durch breite Akzeptanz und Imitatoren).
C. Richtige Innovationen richtig betreiben I. Ein rekursiver Ansatz für Effizienz und Effektivität Die Begriffe Effizienz und Effektivität werden oft undifferenziert verwendet. Soweit unterschieden wird, wird häufig folgende griffige Charakterisierung verwendet: Effizienz erfordert, die Dinge richtig zu tun, Effektivität, die richtigen Dinge zu tun.6 Wie in den Wirtschaftswissenschaften so oft, denkt man dabei nur an zwei Ebenen: Die der richtigen Dinge (Effektivität) und die, diese richtig 5 Siehe 6 Bohr
Debus (2002). (1993), Sp. 855 f.
Förderung effektiver und effizienter Innovationen149
zu machen (Effizienz). Das Problem von Effizienz und Effektivität taucht aber in der Regel auf mehr als zwei Ebenen auf, etwa in folgendem Sinne: Wenn maximale gesellschaftliche Wohlfahrt das richtige Ding ist, dann ist es (unserer Ansicht) richtig, eine Soziale Marktwirtschaft einzuführen. Wenn deshalb letzteres das richtige Ding ist (und der entsprechende Ordnungsrahmen existiert), dann macht die Unternehmensleitung es richtig, nach Gewinn zu streben. Dies wieder vorausgesetzt wird für einen Premium-Anbieter von Automobilen eine Differenzierungsstrategie angebracht sein und davon ausgehend in (allerdings fernerer) Zukunft wohl die Konzentration auf energieeffiziente Elektrofahrzeuge. Generell kann man deshalb wohl sagen, dass Effektivität auf der (höheren) Ebene n – 1 Effizienz auf der (niedrigeren) Ebene n erfordert. II. Anwendung des Ansatzes auf Innovationsprozesse in Netzwerken In Abb. 2 ist vereinfacht ein Zuliefernetzwerk als Graph skizziert.7 Darin mögen die als Kreise („Knoten“) symbolisierten Tochterunternehmungen B1 und B2 ihre benötigten Motoren von der Automobilfirma B beziehen, was durch Striche („Kanten“) abgebildet ist. Diese wiederum bezieht Motorteile von den Zulieferern A und B. Zulieferer B bezieht seinerseits Motorteile, die in seine eigenen eingebaut werden von C. Aus Sicht von B1 und B2 haben wir ein in dieser Hinsicht dreistufiges Liefersystem. Im Allgemeinen ist die Stufenzahl noch wesentlich größer, bspw. schon, wenn man die von den Teilezulieferern verwendeten Materialien einbezöge. Die Zahl der Stufen errechnet sich dann als maximale Kantensumme zwischen dem Hersteller des Endproduktes (Stufe 0) und dem am weitesten entfernten Zulieferer. (Stufe N) Hätten wir kein Netz sondern eine reine Lieferkette könnten wir folgendes sagen: Inventionen auf Stufe n (z. B. neue Motorsteuerung), n = N … 1, sind richtig (effizient), wenn sie für Stufe n – 1 (z. B. Motorfertigung) attraktiv, also „das richtige Ding“ (effektiv) sind. Dann lassen sie sich auf Stufe n – 1 durchsetzen und werden auf dieser Stufe zu Innovationen. Die Diffusion und damit Langfristigkeit hängt von den weiteren (niedrigeren) Stufen ab. Eine leistungsfähige Motorsteuerung bringt dem Produzenten langfristig auch dann nichts, wenn sie für Motoren verwendet wird, die in Automobile eingebaut werden, die am Markt keine Abnahme finden. In Liefernetzwerken wächst die Komplexität um ein Vielfaches. Da kann, im Beispiel, die Motorsteuerung auch anderen Motorproduzenten angeboten 7 Zu
Graphen siehe z. B. Schiemenz / Schönert (2005), S. 68 ff.
150
Bernd Schiemenz
Abbildung 2: Ausschnitt aus einem Zuliefernetzwerk der Automobilindustrie
werden, die mit leistungsfähigeren Automobil-Endproduzenten zusammenarbeiten.
D. Inventionen durch Kreativität und Wissens(ver)teilung I. Kreativität, Kreativitätstechniken und die Bedeutung von Freiheit Seit den sechziger Jahren des vergangenen Jahrhunderts wurde verstärkt untersucht, wie neue Ideen entstehen. Man erkannte, dass sich dieser in einer Person oder einer Personengruppe vollziehende Prozess in mehreren Phasen abläuft. Nach Klärung eines zu lösenden Problems oder auch spontan erfolgt eine Auflösung gewohnter Vorstellungen, eine Verfremdung von bisher Selbstverständlichem. Die daraus entstehenden Daten werden anschließend neu in Relation gebracht, wodurch neue Vorstellungen entstehen. Bei diesen Prozessen spielen Assoziationen und Phantasie eine bedeutsame Rolle. Erst danach erfolgt eine rationale Prüfung auf Realisierbarkeit der Idee. Besondere Kreativität setzt bestimmte Personeneigenschaften voraus wie Neugier, Flexibilität, auch eine gewisse Unangepasstheit Es darf keine Furcht bestehen, sich zu blamieren. Und wie individuelle Ideen zustande kommen, wird sehr verschieden sein. Das kann beim Wandern, der Gartenarbeit, im Halbschlaf oder zu anderen Anlässen sein. Ein besonderes Beispiel ist Senator E. h. Prof. Dr. phil. h. c. Dr.-Ing. E. h. Artur Fischer. Er
Förderung effektiver und effizienter Innovationen151
machte über 1.000 Erfindungen und besitzt weltweit über 5.000 Schutzrechte. Beispiele sind der erste synchron arbeitende Blitz am Fotoapparat, das Baukastensystem Fischertechnik, ein aus Maisstärke hergestelltes Kreativspielzeug und natürlich der Fischerdübel. Von dem Erfinder werden folgende Aussagen zitiert: „Erfindungen kommen aus der Tiefe der Seele, das kann man nicht lernen“, „man muss als Erfinder einen Bezug zu einer schöpferischen Macht haben“, „Erfindungen sind auch immer Auftrag“8. In einer Rundfunksendung sagte er einmal, die besten Ideen kämen ihm unter der Dusche. Für weniger geniale Personen wurde allerdings eine Fülle von Techniken entwickelt, die die Kreativität fördern sollen. Geschka gliedert sie in Techniken der freien Assoziation, Techniken der strukturierten Assoziation, Konfigurationstechniken, Konfrontationstechniken und Imaginationstechniken. Sie vollziehen sich in den Phasen Problemklärung, Ideenfindung, Ideenauswahl und schließlich der Umsetzungsentscheidung.9 Insbesondere der individuelle, aber auch der Gruppenprozess lassen sich nur schwer straff organisieren. Deshalb muss den in Kreativitätsprozesse eingebundenen Personen ein erhebliches Maß an Freiheit zugestanden werden. II. Wissensverteilung und deren Bedeutung In Unternehmensnetzen stellt sich die Frage, wer über welche Inventionen in welchem Umfange informiert werden sollte. Das ist eine Frage der Wissensverteilung, einem der sechs Bausteine des Wissensmanagements.10 Wissensverteilung hat den Vorteil, dass man vom Wissen anderer, hier insbesondere der Netzwerkpartner, profitiert. Aber auch die anderen profitieren dann vom eigenen Wissen. Dabei ist es wichtig, um was für eine Art von Wissen es sich handelt. Eine gewisse Bedeutung hat hier der Unterschied zwischen explizitem und implizitem Wissen („tacit knowledge“). Letzteres liegt darin „… daß wir mehr wissen, als wir zu sagen wissen.“11 Der Erwerb solchen impliziten, nicht kodifizierbaren Wissens kann nur durch Interaktion von Personen bzw. durch Beobachtung des Verhaltens des Trägers des impliziten Wissens durch den potentiellen Erwerber geschehen. Hier ist die Gefahr, dass Wissen in unerwünschte Hände gerät, eher gering. Anders ist das bei explizitem Wissen, insbesondere dann, wenn es nach Explizierung auf externen Datenträgern festgehalten ist. 8 Siehe
http: / / www.heise.de / tr / artikel / Der-Herr-der-Duebel-280873.html. Geschka (2007). 10 Siehe Probst / Raub / Romhardt (2003), insbes. S. 32. 11 Polanyi (1985), S. 14. 9 Siehe
152
Bernd Schiemenz
Wichtig ist auch die Unterscheidung zwischen proprietärem und öffentlichem Wissen. Bei ersterem droht durch Verbreitung eine Wertminderung12, bspw. durch Verlust an Wettbewerbsfähigkeit. Öffentliches Wissen ist dagegen allgemein verbreitet und zugänglich. Besteht die Gefahr, dass proprietäres Wissen zu öffentlichem wird, ist es nach Möglichkeit durch Patente oder ähnliches zu schützen. Macht man das, wird es natürlich bekannt und es besteht die Gefahr fremder Inventionen, die diese Schutzmaßnahmen umgehen. Bei befreundeten Netzwerkpartnern können die Mitteilungen andererseits zu eigenen Inventionen führen, so dass bei gerechter Verteilung das gesamte Netzwerk und damit alle Netzwerkpartner profitieren können.
E. Verträge und Vertrauen im Innovationsprozess I. Vertragsarten Im Hinblick auf die Beziehungen zwischen Netzwerkpartnern ist im Innovationsprozess die Unterscheidung von MacNeil zwischen den drei Vertragstypen klassische Verträge, neoklassische Verträge und relationale Verträge13 von Bedeutung. Bei klassischen Verträgen können Leistung und Gegenleistung der Vertragspartner eindeutig spezifiziert werden. Sie fallen entweder zeitlich zusammen, wie etwa der Kauf auf einem Wochenmarkt, oder die Bedingungen ihrer Erfüllung sind zumindest eindeutig präzisierbar, wie etwa ein Leasinggeschäft. Die Vertragsbedingungen lassen sich vollständig formulieren. Wegen dieser Eindeutigkeit können eventuell auftretende Streitfälle durch Gerichte nach formalen Kriterien entschieden werden. Anders ist die Situation etwa bei Errichtung eines komplexen Werkes oder bei langfristigen Lieferbeziehungen. Während solcher Vertragsbeziehungen kann Unvorhersehbares eintreten. Beispielsweise kann es geschehen, dass man auf wenig tragfähigen Boden oder auf Absatzprobleme stößt, oder dass sich die Wünsche des Bauherren während der Errichtungsphase oder die des Abnehmers während der Lieferphase ändern. Der Vertrag muss deshalb zwangsläufig unvollständig bleiben. Im Streitfall wäre ein Gerichtsverfahren zu aufwändig und könnte die auf Langfristigkeit orientierten Beziehungen zerstören. Deshalb wird für den Streitfall i. d. R. die Schlichtung durch eine dritte Partei (Sachverständiger, Schiedsgericht) vorgesehen. Solche Verträge bezeichnet MacNeil als neoklassisch. 12 Willke, 13 Siehe
H. (2001), S. 67. hierzu und zum Folgenden MacNeil, Ian R. (1978).
Förderung effektiver und effizienter Innovationen153
Kooperationsverträge zwischen Unternehmungen bezüglich gemeinsamer Forschungs- und Entwicklungsmaßnahmen sind noch weniger präzisierbar, auch weil auf noch längere Dauer angelegt. Die künftigen Leistungen können im Moment des Vertragsabschlusses noch weniger vorausgesagt werden. Die Verträge können deshalb nur unvollständige Rahmenverträge sein, die im Zeitablauf ergänzt werden müssen. Im Streitfall können deshalb hier auch Schlichter wenig helfen. Nur die Partner selbst haben ausreichende Kenntnis von Sinn und Zweck der Beziehungen, so dass sie allfälligen Dissens selbst einvernehmlich auflösen müssen. Hier spielen dann auch gewachsenes Vertrauen und gegenseitige Abhängigkeit eine besondere Rolle. II. Vertrauensarten Bezüglich Vertrauen arbeitet Apelt drei Auffassungen heraus14: Vertrauen im Sinne von Zutrauen bzw. Zuversicht ist eine natürliche Einstellung, die man beim Hineinwachsen in Gesellschaft, Wirtschaft und Technik gewinnt. Man denkt nicht daran, dass das Gegenüber plötzlich einen Revolver ziehen könnte oder das zu kaufende Lebensmittel vergiftet sein könnte. Man denkt nicht an Alternativen wie persönliche Begegnungen zu vermeiden oder Nahrungsmittel selbst zu produzieren und reduziert so wesentlich die Komplexität des Lebens. Ähnlich erscheint eine zweite Sicht von Vertrauen im Sinne von Vertrautheit. Man kennt sein Umfeld und hat bei der Bewegung darin nur begrenzten Informations-Beschaffungsbedarf. Für Ökonomen hat eine dritte Auffassung von Vertrauen besondere Bedeutung erlangt. Den grundlegenden Beitrag dazu hat allerdings der Soziologe Coleman geliefert. Er betrachtet Vertrauen aus der Perspektive rationaler Wahlhandlungen, indem er davon ausgeht, dass sowohl der Vertrauensgeber als auch der Vertrauensnehmer zielgerichtet und zweckorientiert handeln, und vergleicht die Vertrauensvergabe mit dem Abschluss einer Wette.15 Ripperger konkretisiert letzteres wie folgt: „Vertrauen ist die freiwillige Erbringung einer riskanten Vorleistung unter Verzicht auf explizite vertragliche Sicherungs- und Kontrollmaßnahmen gegen opportunistisches Verhalten in der Erwartung, daß der Vertrauensnehmer motiviert ist, freiwillig auf opportunistisches Verhalten zu verzichten.“16 Im Hinblick speziell auf Organisationen ist die Unterscheidung Luhmanns zwischen persönlichem Vertrauen und Organisationsvertrauen bedeutsam. 14 Vgl.
hierzu Apelt (1999). Coleman, James S. (1990), S. 96 ff. 16 Ripperger, Tanja (1998), S. 45. 15 Siehe
154
Bernd Schiemenz
Unter persönlichem Vertrauen versteht er „die generalisierte Erwartung, daß der andere seine Freiheit, das unheimliche Potential seiner Handlungsmöglichkeiten, im Sinne seiner Persönlichkeit handhaben wird – oder genauer, im Sinne der Persönlichkeit, die er als die seine dargestellt und sozial sichtbar gemacht hat.“17 Dagegen bezieht sich das Vertrauen bei Systemvertrauen „nicht mehr auf die Identität bekannter Personen, sondern auf die Identität sozialer Systeme, die in bestimmten Grenzen durch Formalisierung von Verhaltenserwartungen garantiert ist. Man … hat eine globale Vorstellung von den sozialen Systemen … und man vertraut … in den Fortbestand dieser Systeme, ohne sie in ihren komplizierten Bedingtheiten ganz zu durchschauen und ohne sie maßgebend beeinflussen zu können.“18 III. Bedeutung von Vertrauen im Innovationsprozess in Netzwerken Bezüglich der Bedeutung von Vertrauen können wir uns Nooteboom anschließen, der schreibt: „Trust can have extrinsic value, as basis for achiev ing social or economic goals. It can also have intrinsic value, as a dimension of relations that is valued for itself, as part of a broader notion of well-being or the quality of life. … Extrinsic value is instrumental, which entails calculation, and suggests a focus on self-interest, while instrinsic value can be non-rational, unreflective and other-directed.“19 Im wirtschaftlichen Kontext dürfte dem extrinsischen Aspekt, also Vertrauen als Mittel zum Zweck, besondere Bedeutung zukommen. Zentraler Vorteil einer solchen rationalen Vertrauensbildung ist die Vermeidung von Gefangenendilemmata. Das soll an folgendem kleinen Beispiel verdeutlicht werden: Die Unternehmungen A und B haben gegenseitig auch für den anderen nützliche Ideen ausgetauscht, die aber auch für jeweils Dritte von Wert sind. Geben beide die Ideen nicht weiter, habe jede einen Zusatzgewinn von 3 Mio. €, geben beide sie beliebig weiter nur von 1 Mio. €. Gibt nur eine ihr Wissen preis, hat sie einen Zusatzgewinn von 5 Mio. €, die andere aber einen Zusatzverlust von 1 Mio. €. Können sie einander nicht vertrauen, d. h. hier sich auf die Geheimhaltung durch den anderen verlassen, werden sie ihr Wissen jeweils weitergeben (defektieren) und nur 1 Mio. € erhalten Gehen die Partner aber davon aus, dass sie gemeinsam öfter in eine ähnliche Situation gelangen, werden sie eher zur Kooperation bereit sein, also nicht defektieren. Luhmann spricht hier vom „Gesetz des 17 Luhmann,
Niklas (1989), S. 40. Niklas (1995), S. 73. 19 Nooteboom, Bart (2006), hier S. 252 f. 18 Luhmann,
Förderung effektiver und effizienter Innovationen155
Wiedersehens“20, Axelrod vom „Schatten der Zukunft“.21 Soweit Netzwerke aus der Sicht der Netzwerkspartner für längere Dauer gebildet sind, was der Regelfall ist, ist diese Situation gegeben und wird dadurch opportunistisches Verhalten vermieden oder zumindest eingegrenzt. In dem Beispiel bezieht sich das Vertrauensphänomen nur auf eine Ebene. Im Allgemeinen wird es ein Mehr-Ebenen-Problem etwa folgender Art sein: Bei Zur-Verfügung-Stellung einer Invention mittels einer Lizenz vertraut die vergebende Unternehmung darauf, dass die Lizenz nehmende Unternehmung die lizenzierte Invention in der vertraglich vereinbarten Weise nutzt. Handelt es sich um eine nicht patentierte Invention, vertraut die Lizenz vergebende Unternehmung darauf, dass die Mitarbeiter der Lizenz nehmenden Unternehmung das Wissen nicht missbrauchen, es etwa an „Unbefugte“ weitergeben. Verhalten sich diese Mitarbeiter vertrauensunwürdig, so vertraut die Lizenz vergebende Unternehmung darauf, dass die Lizenz nehmende Unternehmung ihre Mitarbeiter zur Rechenschaft zieht und die evtl. vereinbarte Vertragsstrafe zahlt. Tut sie dies nicht, so vertraut die vergebende Unternehmung darauf, dass Institutionen, wie bspw. (Schieds)Gerichte, ihr zu ihrem Recht verhelfen. Eine analoge Mehrebenenbetrachtung kann man ähnlich auch aus Sicht der Lizenz nehmenden Unternehmung anstellen. Es reicht also oft nicht allein das Vertrauen in den Geschäftspartner. Fällt diese erste „Vertrauensbastion“ ist es hilfreich, über vertrauenswürdige Regressebenen zu verfügen, was leider im internationalen Innovations-Kontext nicht immer gegeben ist Die Bedeutung von Vertrauen wird in der wirtschaftswissenschaflichen Diskussion zunehmend erkannt. Vertrauen wird als „Ware“, als „Kapitalanlage“, als „soziales Kapital“ oder schlicht als „Vertrauenskapital“, als „Kitt“, als ein „bemerkenswert effizientes „Schmiermittel“ für ökonomische Austauschprozesse“ oder „als das „Schmiermittel“ unserer Gesellschaft und als der wichtigste Wettbewerbsvorteil von Nationen und Unternehmen“ bezeichnet. Vertrauen wird teilweise auch als Ressource definiert. Für die netzwerkbezogene Zusammenarbeit werden in der Literatur die folgenden Vorteile genannt: Verbesserung des Informations- und Kommunikationsflusses zwischen den Partnern (z. B. Verringerung von Informationsfilterung und Vergrößerung der Bereitschaft zu zeitgerechter und wahrheitsgemäßer Informationsweitergabe), Schaffung von Anreizen zur Verantwortungsübernahme sowie zur Freisetzung von Kreativität, Erleichterung von Planung, Steuerung und Kontrolle unternehmungsübergreifender Strategien, Förderung interorganisationaler Lernprozesse, Erleichterung der Konfliktlösung 20 Luhmann, 21 Axelrod,
Niklas (1989), S. 39. Robert (1995), S. 11, 232.
156
Bernd Schiemenz
im Unternehmungsnetzwerk sowie Verringerung der Transaktionskosten der arbeitsteiligen Leistungserstellung im Unternehmungsnetzwerk.22 IV. Rationale Entwicklung von Vertrauen Es mag Situationen geben, wo Personen ein Gefühl dafür entwickelt haben, dass sie einer bestimmten anderen Person von Anbeginn an vertrauen können. Eine solche „implizite (tacit) Fähigkeit“23 ist jedoch schwer kommunizierbar und (deshalb) erwerbbar. Im Allgemeinen wird sich Vertrauen als Ergebnis eines längeren Prozesses, der auch rational geplant werden kann, entwickeln. Dazu gibt es zahlreiche Möglichkeiten.24 Lorenz empfiehlt hierfür die von ihm so genannte ‚Step-by-step‘ rule. Sie „prescribes that the firms should start by making small commitments to each other and then progressively increase their commitments depending on the quality of their exchange“.25 Zu einer rationalen Bildung und Erhaltung von Vertrauen verhilft oft auch die „Tit for Tat-Strategie“. In der Hoffnung, dass auch der andere bereit ist, seine Inventionen bereitzustellen, gibt man eigenes Wissen preis. Danach kopiert man die jeweils vorhergehende Verhaltensweise des anderen. Diese Strategie ist freundlich, weil zunächst kooperativ, sie vergilt positives wie negatives Verhalten und vergibt Letzteres nach Sinneswandel des Anderen.26 Sie ist auch auf höheren Systemebenen möglich. Subsystem A1 des Systems A gibt dem Subsystem B1 des Systems B Wissen preis, wenn zu erwarten ist, dass B2 sein Wissen an A2 weitergibt. Das erfordert allerdings bereits intensive Kommunikation innerhalb von A und B und zwischen den Leitungen von A und B. Eine weitere Möglichkeit ist die Herstellung von Zielkomplementarität zwischen den Partnern.27 Komplementarität zwischen zwei Zielen liegt dann vor, wenn Maßnahmen zur Erreichung des einen Zieles zugleich die Erreichung des anderen Zieles fördern.28 Ist bspw. Unternehmung A am Gewinn von Unternehmung B beteiligt, ist es für diese weniger schlimm, wenn B auch Ideen von A verwendet, ohne dass sie diese direkt entgilt. 22 In enger Anlehnung an Roth, Anne-Kathrin (2010), S. 232 f., mit zahlreichen Quellennachweisen. 23 In Anlehnung an „tacit knowledge“, vgl. Fußnote 11. 24 Vgl. zum Folgenden auch Wildemann (1997). 25 Lorenz, Edward (1999), S. 309. 26 Vgl. Axelrod, Robert (1995). 27 Siehe auch Walter, Sascha G. / Müller, Dirk / Walter, Achim (2010). 28 Vgl. Schiemenz / Seiwert (1979).
Förderung effektiver und effizienter Innovationen157
Zur Vertrauensförderung und -erhaltung trägt auch die Kontrolle von Vertrauen bei. Deren Ziel besteht in der Rechtfertigung des Vertrauens und der Minimierung des Vertrauensrisikos. Ihre Teilfunktionen sind: Prämissenkontrolle, aufgabenorietierte Verhaltenskontrolle, Ergebniskontrolle und allgemeine Verhaltenskontrolle.29 Literaturverzeichnis Apelt, Maja (1999), Vertrauen in der Zwischenbetrieblichen Kommunikation, Wiesbaden 1999. Axelrod, Robert (1995), Die Evolution der Kooperation, 3. Aufl., München / Wien 1995. Bohr, Kurt (1993), Effizienz und Effektivität, in: Wittmann, Waldemar et al. (Hrsg.), Handwörterbuch der Betriebswirtschaft, 5. Aufl., Stuttgart 1993, Sp. 855–869. Coleman, James S. (1990), Foundations of Social Theory, Cambridge / Massachusetts / London 1990. Debus, Christian (2002), Routine und Innovation, Marburg 2002. Geschka, Horst (2007), Kreativitätstechniken, in: R. Köhler, H.-U. Küpper, A. Pfingsten (Hrsg.): Handwörterbuch der Betriebswirtschaft, 6. Aufl. 2007, Sp. 992–1005. Lorenz, Edward (1999), Trust, Contract and Economic Cooperation, in: Cambridge Journal of Economics 1999, S. 301–315. Luhmann, Niklas (1989), Vertrauen – Ein Mechanismus der Reduktion sozialer Komplexität, 3. Aufl., Stuttgart 1989. – (1995), Funktionen und Folgen formaler Organisation: Mit einem Epilog 1994, 4. Aufl., Berlin 1995 MacNeil, Ian R. (1978), Contracts: Adjustment of Long-Term Economic Relations under Classical, Neoclassical, and Relational Contract Law, in: Northwestern University Law Review, 72. Jg. (1978), Nr. 6, S. 854–905. Nooteboom, Bart (2006), Forms, sources and processes of trust, in: Bachmann, Reinhard / Zaheer, Akbar (Hrsg.): Handbook of Trust Research, Cheltenham / Northampton (MA) 2006, S. 247–263. Polanyi, Michael (1985), Implizites Wissen (die Originalausgabe erschien unter dem Titel: The Tacit Dimension, New York 1966, aus dem Amerikanischen übersetzt von Horst Brühmann), Frankfurt am Main 1985. Probst, Gilbert / Raub, Steffen / Romhardt, Kai (2003), Wissen managen, 4. Aufl., Wiesbaden 2003. Ripperger, Tanja (1998), Ökonomik des Vertrauens: Analyse eines Organisationsprinzips, Tübingen 1998. 29 Siehe
Sjurts, Insa (1998), S. 289 f.
158
Bernd Schiemenz
Roth, Anne-Kathrin (2010), Wissensverteilung in Netzwerken kleiner und mittlerer industrieller Unternehmungen, Marburger wirtschaftswissenschaftliche Disserta tion, Marburg 2010. Schiemenz, B. / Seiwert, L. (1979), Ziele und Zielbeziehungen in der Unternehmung, in: Zeitschrift für Betriebswirtschaft, 49. Jg. (1979), S. 581–603. Schiemenz, Bernd (1993), Systemtheorie, betriebswirtschaftliche, in: Handwörterbuch der Betriebswirtschaft, 5. Aufl., Teilband 3, Stuttgart 1993, Sp. 4127–4140. – (2005), Wissensverteilung und Vertrauen in produktionsorientierten Netzwerken, in: Kahle, E., Wilms, F., Effektivität und Effizienz durch Netzwerke, Berlin 2005, S. 205–225. Schiemenz, Bernd / Schönert, Olaf (2005), Entscheidung und Produktion, 3. überarbeitete Auflage, München / Wien 2005. Sjurts, Insa (1998), Kontrolle ist gut, ist Vertrauen besser?: Ökonomische Analysen zur Selbstorganisation als Leitidee neuer Organisationskonzepte, in: DBW, 58. Jg. (1998), Nr. 3, S. 283–298. Sydow, Jörg / Windeler, A. (1994), Über Netzwerke, virtuelle Integration und Interorganisationsbeziehungen, in: Sydow, Jörg, Windeler, A. (Hrsg.), Management interorganisationaler Beziehungen – Vertrauen, Kontrolle und Informationstechnik, Opladen 1994, S. 1–21. Walter, Sascha G. / Müller, Dirk / Walter, Achim (2010), Dysfunktionen in F&E-Koopetitionen: Präventivmaßnahmen und Kooperationserfolg, in: Zeitschrift für betriebswirtschaftliche Forschung, 62. Jg. (2010), S. 134–159. Wildemann, Horst (1997), Koordination von Unternehmensnetzwerken, in: Zeitschrift für Betriebswirtschaft, 67. Jg. (1997), S. 417–439 Willke, Helmut (2001), Systemisches Wissensmanagement, 2. Aufl. Stuttgart 2001.
Risikomanagement als integraler Bestandteil stufenübergreifender Innovationsprozesse: Einsatzmöglichkeiten der FMEA Von Frank Drews
A. Einführung In vielen Branchen gibt es einen anhaltenden Trend hin zu einer höheren Produktkomplexität, zunehmender Produktindividualisierung sowie kürzeren Innovations- und Produktlebenszyklen1. Dieser steigenden Komplexität können kmU begegnen, in dem sie sich auf ihre Kernkompetenzen konzentrieren und enger mit anderen Unternehmen kooperieren. Der Innovationsprozess, besonders im Bereich der Produktentwicklung, findet daher zunehmend in kollaborativen Unternehmens-Netzwerken statt. Die Ursache-Wirkungs-Ketten im Bereich des produktorientierten Risikomanagements beschränken sich nicht auf einzelne Unternehmen, sondern umfassen die gesamte Wertschöpfungskette2. Das Risikomanagement – und damit der Einsatz von Risiko management-Methoden – ist daher auch stufenübergreifend auszurichten. Die Fokussierung auf Geschäftsprozesse ist eines der Kernkonzepte der heutigen Management-Praxis. „Um eine kontinuierliche Verbesserung […] zu gewährleisten, müssen die Prozesse zuvor identifiziert und geprüft werden […]“.3 Dies gilt auch für das Risikomanagement, wobei die spezielle Herausforderung darin liegt, dass die Geschäftsprozesse im Bereich der Produkt- und Prozessentwicklung nicht mehr auf ein Unternehmen beschränkt sind, sondern unternehmensübergreifend ausgerichtet sind.4 Dieser Artikel beschreibt eine Vorgehensweise zum Aufbau von Risiko management-Strukturen für stufenübergreifendes Risikomanagement, ins Besondere durch den Einsatz der Risikomanagement-Methode FMEA (Fehlermöglichkeits- und Einfluss Analyse). Dazu werden, nach einer kurzen Einführung zu den Grundlagen des Risikomanagements im Allgemeinen und der FMEA im Speziellen, zwei Klassifikationssysteme zur Identifizie1 Vgl.
Smith (1991) und De Toni (2003). Dahmen (2002). 3 Rothlauf (2004), S. 303. 4 Vgl. Barrios / Kenntof (2008). 2 Vgl.
160
Frank Drews
rung der unternehmensspezifischen Anforderung hinsichtlich stufenüber greifender Risiken beschrieben. Anschließend wird die Adaption der FMEA für den stufenübergreifenden Einsatz anhand eines Beispiels verdeutlicht. Der Artikel schließt mit einer Zusammenfassung und gibt einen Ausblick auf die Unterstützung von Innovationsmethoden für stufenübergreifendes Risikomanagement durch Informations- und Kommunikations-Technologie.
B. Grundlagen Risikomanagement wird nach der ISO 31000, als Führungsaufgabe5 verstanden und betrifft nicht nur die strategischen Prozesse, sondern nach dem Top-Down-Ansatz das gesamte Unternehmen und damit auch die operativen Prozesse, zu denen auch die Produktentwicklung und die Produktion zu rechnen sind6. In Abbildung 1 wird der Themenbereich dieses Artikels gegenüber anderen Risikomanagementbereichen abgegrenzt. Die hervorgehoben Risiken sind Gegenstand dieses Artikels. Dieser Artikel konzentriert sich auf die operativen Risiken, die internen Ursachen liegen hier hauptsächlich im Bereich der Produkt- und Prozessentwicklung. Der Risikomanagement-Prozess lässt sich nach ISO 31000 ist in Abbildung 2 dargestellt. Dabei können sämtliche Prozessschritte, insbesondere die Risikobeurteilung, also die Risikoidentifikation, die Risikoanalyse und die Risikobewertung durch die Anwendung der Risikomanagementmethode FMEA (Fehlermöglichkeits- und Einfluss Analyse) unterstützt werden. Die FMEA ist die bekannteste Methode zur präventiven Qualitätssicherung und Fehlererkennung für Produkte und Produktionsprozesse7. In vielen Branchen, wie der Luft- und Raumfahrtindustrie und der Automobilindustrie, ist der Einsatz dieser Methode mittlerweile Standard8. Die FMEA wird hauptsächlich im Innovationsprozess hauptsächlich bei der Produkt- und Prozessentwicklung eingesetzt. 5 Vgl.
Brühwiler (2008). ISO 31000:2009 Seite V: „Risk management can be applied to an entire organization, at its many areas and levels, at any time, as well as to specific functions, projects and activities“. 7 Oft werden auch erweiterte Methoden wie die DRBFM (Design Review Based on Failure Mode) eingesetzt, vgl. Schorn et al. (2005). 8 Dies spiegelt sich auch darin, dass neben branchenunabhängigen Normen (DIN EN 60812) auch Industrieverbände entsprechende Standards herausgegeben haben, siehe AIAG (2008) und VDA (2006). 6 Vgl.
Risikomanagement als stufenübergreifende Innovationsprozesse161
Abbildung 1: Abgrenzung der Risikomanagementbereiche9
Abbildung 2: Risikomanagement-Prozess nach ISO 3100010
Für bestimmte Branchen und bestimmte Netzwerkkonstellationen haben sich ausgefeilte Vorgehensweisen für stufenübergreifendes Risikomanagement durchgesetzt und sind bereits Bestandteil von Branchenstandards, 9 Vgl.
Grote (2003), S. 33. S. VII, Abbildung 1.
10 ISO 31000
162
Frank Drews
beispielsweise im Bereich Automobilbau. Dort hat man es mit einer ausgeprägten Top-Down-Struktur des Netzwerkes zu tun, die Großunternehmen am Ende der Wertschöpfungskette (OEM und Systemlieferant) koordinierenden ihre Zulieferketten und geben bestimmte Abläufe und Verfahrensweisen vor11. „Die Reifegradabsicherung für Neuteile“ des VDA12 beschreibt solch ein Vorgehen im Detail. Der Einsatz der FMEA bei den verschiedenen Partnern der Wertschöpfungskette ist integraler Bestandteil dieses Vorgehens. Die Situation in dynamischen Netzwerken, in denen es oft keinen zentralen, koordinierenden Partner gibt, bietet dagegen hinsichtlich der Organisation der Risikomanagementaktivitäten weiter konzeptionelle Herausforderungen. Bei der organisatorischen Einbettung der Risikomanagementstrukturen unterliegen kmU außerdem anderen Randbedingungen als Großunternehmen, welche für jeden Bereich auf Spezialisten zurückgreifen können. Auch die Risikomanagement-Methoden, wie die FMEA, wurden ursprünglich nicht für den stufenübergreifenden Einsatz konzipiert, und müssen entsprechend der spezifischen Anforderungen adaptiert werden. In den folgenden beiden Abschnitten werden zwei entwickelte Klassifikationssysteme beschrieben, mit denen die Anforderungen an das stufenübergreifende Risikomanagement für unterschiedliche Netzwerkkonstellationen ermittelt werden. Anschließend wird der Einsatz der FMEA für stufenübergreifendes Risikomanagement anhand eines Beispiels beschrieben. I. Klassifkationssystem: Webbasierter Risikomanagement-Assistent Im Rahmen des Forschungsvorhabens „Gestaltung branchenübergreifender Risikomanagementsysteme für kmU am Beispiel der Filterbranche“13 wurde der „webbasierte Risikomanagement-Assistent“ als frei verfügbares Software-Werkzeug entwickelt. Nach dem entwickelten „Vorgehensmodell zum Aufbau von Risikomanagement-Strukturen im Unternehmen“14 werden diese im Zuge einzelner Detailprojekte Schritt für Schritt im Unternehmen aufgebaut, dies ist schematisch in Abbildung 3 dargestellt. 11 Vgl.
VDA-QMC (2009-I). VDA-QMC (2009-II). 13 Mehr Informationen zu dem Forschungsvorhaben stehen unter DITF-MR (2010). 14 Dieses Modell wurde aus einem Konzept von Goeken (2004) abgeleitet. 12 Vgl.
Risikomanagement als stufenübergreifende Innovationsprozesse163
Abbildung 3: Vorgehensmodell zum Aufbau von Risikomanagementstrukturen, schematische Darstellung
Detailprojekte können beispielweise den Aufbau von RisikomanagementStrukturen in folgenden Bereichen zum Inhalt haben: •• Rückverfolgbarkeit, stufenübergreifende Rückrufe, Aufbau einer entsprechenden Kennzeichnung, •• Überwachung von Produkten im Markt, Produktüberwachung und Garantieleistungen als Dienstleistungen15. In Abbildung 4 werden die einzelnen Elemente des Vorgehensmodells stichpunktartig erläutert. Entscheidend ist es zunächst, den individuellen Risikomanagementbedarf des Unternehmens zu identifizieren, um geeignete Detailprojekte auszuwählen. Um diesen Prozess zu unterstützen, wurde der Analyseassistent entwickelt. Dieser basiert auf einem zweistufigen Klassifikationssystem. Eine Self-Assessment-Checkliste bildet die Ausgangsbasis für die Analysemethodik, um die Unternehmen bei der Identifikation relevanter Risikomanagement-Kompetenzen für das stufenübergreifende Risikomanagement in drei Risikomanagement-Schwerpunktbereichen zu unterstützten. Die 20 Multiple-Choice-Fragen betreffen sowohl das Unternehmen selbst, als auch die Partner in dem Wertschöpfungsnetzwerk. Ein Ausschnitt aus dieser Checkliste ist in Abbildung 5 dargestellt. 15 Vgl.
Weber (2005).
164
Frank Drews
Abbildung 4: Vorgehensmodell zur Einführung von Risikomanagementstrukturen, stichpunktartige Erläuterungen
Abbildung 5: Ausschnitt aus der Self-Assessment-Checkliste, Screenshot
Die drei Schwerpunktbereiche werden in Tabelle 1 charakterisiert. Zu jedem Schwerpunktbereich wurden bis zu sieben relevante Risikomanagement-Kompetenzen identifiziert. Die drei nachfolgend aufgeführten Kompetenzen dienen als Beispiele für den Schwerpunktbereich „Serienproduktion“: •• Stufenübergreifende FMEA, •• Stufenübergreifendes Änderungsmanagement, •• Stufenübergreifende Optimierung der Prüfungen.
Risikomanagement als stufenübergreifende Innovationsprozesse165 Tabelle 1 1. Klassifikationssystem, 3 Risikomanagement-Schwerpunktbereiche 1. Schwerpunkt bereich: Serienproduktion
2. Schwerpunkt bereich: Kleinaufträge und Sonder anfertigungen
3. Schwerpunkt bereich: Großprojekte
Charakteristische Merkmale
Langfristige Kooperation, Serienproduktion mit großen Stückzahlen
Produktentwicklung für individuelle Kundenanforderungen bei kleinen Stückzahlen
Großprojektgeschäft, individuelle Gewährleistungsvereinbarungen, mittlere Stückzahlen
Operative Haupt risiken
Produkthaftung durch Fehlfunktion, große Hebelwirkung (Herstellungskosten zu Fehlerkosten), Rückruf, Produk tionsausfallrisiken
Produkthaftung durch Fehlfunktion oder Kontamination, Gesundheitsrisiken, große Bandbreite an Risiken, Emerging Risks
Gewährleistungsrisiken durch Funktionsausfall (unsachgemäßer Gebrauch / Gewährleistungsbetrug), Umweltrisiken
Besonders relevante Geschäftsprozesse
Produkt- und Prozessentwicklung, Qualitätssicherung / statistische Prozesskontrolle, Änderungsmanagement, Rückverfolgbarkeit
Vertrieb und Beratung, Bewertung der Projektrisiken, Zweckbestimmung und Anforderungen für die Produkte festlegen
Vertragsgestaltung, Lebenszyklus orientierte Produktentwicklung, Überwachung der Produkte im Markt
Neben der Zuordnung zu den Schwerpunktbereichen wird auch der Risikomanagementbedarf für jede einzelne Risikomanagement-Kompetenz ermittelt. Die Kompetenzen sollen hier nicht vollständig aufgelistet werden.16 Anschließend wird der ermittelte Risikomanagementbedarf dem Ist-Zustand für jeden Risikomanagement-Kompetenz gegenüber gestellt. So können die Risikomanagement-Kompetenzen bestimmt werden, die prioritär ausgebaut werden sollen. Der webbasierte Risikomanagement-Assistent unterstützt das Unternehmen bei der Planung und Umsetzung geeigneter Projekte zum Aufbau von Risikomanagement-Strukturen. Für jede Risikomanagement-Kompetenz sind Good-Practice-Beispiele abrufbar, in denen der Einsatz von Methoden und Werkzeugen für stufenübergreifendes Risikomanagement beschrieben wird. Der Methodenassistent des webbasierten 16 Eine
vollständige Auflistung bietet DITF-MR (2010).
166
Frank Drews
Risikomanagement-Assistenten stellt vorkonfigurierte Werkzeuge zur Unterstützung der Risikomanagement-Aktivitäten zur Verfügung. Eine der Methoden, die für verschiedene Netzwerkkonstellationen angepasst wurde, ist die FMEA. Aus Tabelle 2 geht hervor, welche Good-Practice-Beispiele und Werkzeuge für den Einsatz der FMEA erstellt wurden. Die Werkzeuge sind funktionsfähige Software-Werkzeuge, die als Programm auf Basis von MSExcel oder als webbasierte Applikationen bereit gestellt werden. Weitere Methoden (Fehlerbaumanalyse, Risikodiagramm, Gefahrenliste, Antizipierende Fehlererkennung, Hazard and Operability Study), die durch den Methodenassistenten unterstützt werden, werden hier nicht näher betrachtet. Tabelle 2 Webbasierter Risikomanagement-Assistent, Einsatz der FMEA Verfügbare Werkzeuge
Good-Practice-Beispiele
• FMEA-Vorlage (kollaborativ, webbasiert) • FMEA-Vorlage (kollaborativ, webbasiert mit Maßnahmenständen) • FMEA-Vorlage agiles Risikomanagement • Präsentation FMEA Einführung
• FMEA und „agiles Risikomanagement“ • FMEA – Änderungsmanagement • Wareneingangsprüfungen stufenübergreifend optimieren • Bewertungskriterien bei einer FMEA
II. Klassifikationssystem: Einsatz der FMEA bei kmU in der Rolle von Zulieferern für die Serienproduktion Speziell für den Einsatz der FMEA im Bereich der Serienproduktion wurde ein Klassifikationssystem entwickelt, um den Einsatz der FMEA an der Konstellation der Lieferkette auszurichten. Dabei wurde eine Wertschöpfungskette aus dem Bereich Automobilbau analysiert. Der Fokus der Untersuchung lag nicht auf der Kollaboration zwischen den Großunternehmen am Ende der Wertschöpfungskette, sondern auf Zulieferunternehmen in Position Tier-3 und Tier‑4. In der Tabelle 3 wird bei der Klassifizierung wiederholt auf den Branchenstandard der VDA „Reifegradabsicherung für Neuteile“17 verwiesen, in der die Kollaboration in automobilen Wertschöpfungsketten während der Produktentwicklung detailliert beschrieben wird. Die deutsche Automobilin17 VDA-QMC
(2009-II), VDA: Verband der Automobilindustrie e. V.
Risikomanagement als stufenübergreifende Innovationsprozesse167
dustrie als eine der größten Industriezweige in Deutschland mit einer langen Tradition übernimmt mit den von seinem Verband ausgearbeiteten Vorgehensweisen oft eine Vorreiterrolle auch für andere Industriezweige. Deswegen wurden einige Kriterien für die Klassifizierung übernommen. Tabelle 3 1. Klassifikationssystem, Eigenschaften mit Merkmalsausprägungen18
19
Eigenschaft
Ausprägungen
Position in der Wertschöpfungskette
OEM, Tier-1 – Tier-n
Rolle im Produktentwicklungsprozess des Endproduktes Verantwortung für verschiedene Phasen (RG0-RG7), siehe „Reifegradabsicherung für Neuteile“19
RG02 (Verantwortlich für Unterlieferanten) RG03 (Produktentwicklung) RG04 (Prozessentwicklung)
Verfahren, die vom Kunden vorgegeben werden
Runder Tisch19 Prozess-FMEA Produkt-FMEA Prüfplanung
ABC-Klassifizierung des Unternehmens durch den Kunden19
Risikoklasse „A“ (hoch) Risikoklasse „B“ (mittel) Risikoklasse „C“ (niedrig)
ABC-Klassifizierung des Lieferanten durch das Unternehmen19
Risikoklasse „A“ (hoch) Risikoklasse „B“ (mittel) Risikoklasse „C“ (niedrig)
Anhand bestimmter Merkmalskombinationen lassen sich verschiedene Typen charakterisieren, die hinsichtlich des stufenübergreifenden Risikomanagements spezifische Anforderungen stellen. Die Tabelle 4 zeigt die identifizierten Typen. Die charakteristischen Anforderungen an den Risikomanagementprozess für die beschriebenen Typen wurden ermittelt und hinsichtlich des Einsatzes der FMEA-Methode und der FMEA-Werkzeuge Empfehlungen ausgear beitet. Harahap enthält eine detaillierte Beschreibung aller aufgeführten Typen, daher wird hier auf eine erneute Beschreibung verzichtet.
18 Vgl. 19 Vgl.
Harahap (2010), S. 40. VDA-QMC (2009-II) und VDA-QMC (2009-I).
168
Frank Drews
Position in der Wertschöpfungs kette
Verfahren, die vom Kunden vorgegeben werden
ABC-Klassifikation des Unternehmens durch den Kunden
ABC-Klassifikation des Lieferanten durch das Unternehmen
Typische eigene Zulieferer
A1
Tier-3
Keine Durch das Integration Unternehmen / vom Kunden vorgegeben
–
B, C
B
A2
A2
Tier-3
Keine Durch das Integration Unternehmen
–
B, C
B
–
A3
Tier-2
Keine Durch das Integration Unternehmen
–
C
B
A1, A2
B1
Tier-2
RG2, RG4 Durch das Unternehmen / vom Kunden vorgegeben
ProzessFMEA, ProduktFMEA, Prüfplanung
A, B
A, B, C
A1, A2, A3
B1a
Tier-3
RG3
ProzessFMEA, ProduktFMEA, Prüfplanung
B
A
A1, A2, A3
B2
Tier-2
RG2, Vom Kunden RG3, RG4 vorgegeben
ProzessFMEA, ProduktFMEA, Prüfplanung
A, B
A, B, C
A1, A2, A3, B1
20 Vgl.
Rolle im Produktentwicklungs prozess des Endproduktes
Typ
Verantwortung für die Lieferantenauswahl
Tabelle 4 Klassifikationssystem 1, Typen mit Merkmalsausprägungen20
Durch das Unternehmen / vom Kunden vorgegeben
Harahap (2010), S. 41.
Risikomanagement als stufenübergreifende Innovationsprozesse169
C. Beispiel: Lieferant von Standardprodukten für eine Serienproduktion In diesem Abschnitt werden die Anforderungen an die FMEA für eine ganz spezifische Netzwerkkonstellation beispielhaft beschrieben. Das Beispiel dient dabei weniger zur Illustration der Klassifikationen, sondern soll vielmehr den stufenübergreifenden Einsatz der FMEA verdeutlichen. Daher entspricht die in diesem Beispiel beschriebene Netzwerkkonstellation nicht eins zu eins einem der in den Klassifikationssystemen definierten Typen. Nach dem 2. Klassifikationssystem handelt es sich bei dem liefernden Unternehmen um den Typ A2 oder A3. Nach dem 1. Klassifikationssystem lässt sich das Beispiel dem Schwerpunktbereich „Serienproduktion“ zuordnen. Der stufenübergreifende Einsatz der FMEA in Bereichen, in denen der Lieferant kaum in die Produktentwicklung des Kunden einbezogen wird, bzw. nur Standardprodukte geliefert werden, ist nicht üblich. Die Art und Weise, in der die FMEA konzipiert ist, ist nicht geeignet diese Bereiche abzudecken. In diesem Abschnitt werden Möglichkeiten zur Adaption der Methode zur effektiven Nutzung in diesem Bereich vorgestellt. Oft ist es nicht notwendig, dass die Zulieferer genau wissen, in welches Endprodukt ihr Zulieferteil verbaut wird, bzw. welches Produkt aus den von Ihnen gelieferten Materialien gefertigt wird. Dies gilt besonders für Zulieferer am Anfang der Wertschöpfungskette. Dort sind die einzelnen Auftragsgrößen niedrig und es werden zunehmend Standardprodukte gefertigt, die nicht speziell für einen Kunden oder ein Endprodukt entwickelt wurden (z. B. Schrauben, Granulate, Bleche etc.). Dabei ist es durchaus möglich, dass eine kundenspezifische Variante gefertigt wird. Da hier keine gemeinsame Produktentwicklung stattfindet, sondern die Produktentwicklungen der Unternehmen zeitlich entkoppelt ablaufen, ist es nicht möglich Risikomanagementmethoden so anzuwenden, wie es bei stark gekoppelten stufenübergreifenden Entwicklungsprozesse üblich ist. Eine Adaption an die spezifischen Anforderungen dieser Netzwerkkonstellation ist notwendig. Die Entkopplung der Produktentwicklungen der Partner, welche auf der Standardisierung der Produkte basiert, bietet grundsätzlich viele Vorteile und macht eine kosteneffektive arbeitsteilige Produktion in vielen Bereichen erst möglich. Trotzdem können die zugelieferten Bauteile natürlich ursächlich für Fehler im Endprodukt verantwortlich sein. Dabei lassen sich 3 Typen von Ursachen unterscheiden:21 1. Das Zulieferteil ist prinzipiell nicht für den Einsatz geeignet (Entwicklungsfehler bei der Auswahl des Produktes durch den Kunden, Informa21 Vgl.
Schmitt (2010) Qualitätsmanagement. Strategien, Methoden, Techniken.
170
Frank Drews
tionsfehler bezüglich der Produkteigenschaften beim Lieferanten oder Entwicklungsfehler des Lieferanten). 2. Ein Produktionsfehler beim Lieferanten führt zu einer begrenzten Anzahl fehlerhafter Produkte. 3. Eine Variation in den Produkteigenschaften (die innerhalb der Spezifikation liegt, oder nicht spezifiziert wurde) ist ursächlich für Fehler im Produktionsprozess beim Kunden, bzw. im Endprodukt Welche Möglichkeiten bietet der Einsatz der FMEA nun zur Kontrolle der genannten Risiken? Im Folgenden Abschnitt soll der 2. Fall näher betrachtet werden. Für diesen Bereich wurde eine adaptierte FMEA entwickelt, die genau auf den stufenübergreifenden Einsatz in dieser Netzwerkkonstellation ausgelegt ist. Diese „Spezifikations-FMEA“ soll hier skizziert werden. Dazu werden besonders die Unterschiede im Vergleich zu der herkömmlichen FMEA erläutert: Spezifikations-FMEA Der Name Spezifikations-FMEA wurde gewählt, da es sich bei dieser Netzwerkkonstellation anbietet, Abweichungen von den Spezifikationen als Fehler zu definieren. Die herkömmliche FMEA basiert auf einer 3-stufigen Risikoanalyse. Betrachtet werden immer Fehler, Ursachen und Folgen. Die Folgen sind dabei definiert als „Auswirkungen auf den Kunden“. In der Tabelle 5 ist der Unterschied einer herkömmlichen FMEA zu einer Spezifikations-FMEA dargestellt. Dabei wird grundsätzlich davon ausgegangen, dass die FMEA von dem Hersteller des Standardproduktes ohne Beteiligung des Kunden erstellt wird und die Ergebnisse dem Kunden kommuniziert werden. Dabei sind die Spalten einer gewöhnlichen FMEA abgebildet und diejenigen schwarz markiert, die bei einer Spezifikations-FMEA nicht oder anders verwendet werden. Dabei lassen sich zwei Fälle unterscheiden: •• Die Spalten sind für den Kunden uninteressant oder •• können vom Lieferanten nicht ermittelt werden, wie im Folgenden näher erläutert wird: Da der Hersteller eines Standardproduktes keine Informationen darüber hat, in welchem Bereich sein Produkt eingesetzt wird, ist eine Analyse der Folgen für ihn nicht möglich, bzw. nicht mit vertretbarem Aufwand durchführbar. Daher ist auch eine Bewertung der Bedeutung, die bei der FMEA als „Bedeutung der Fehlerfolge aus Sicht des Kunden“ definiert ist, durch
Risikomanagement als stufenübergreifende Innovationsprozesse171
RPZ (Risikoprioritätszahl, RPZ=B*A*E)
Planung neuer Maßnahmen zur Risikobewältigung
X2
E (Bewertung der Entdeck barkeit)
X2
Bestehende EntdeckungsMaßnahmen
X2
A (Bewertung der Auftretenswahrscheinlichkeit)
Bestehende Vermeidungsmaßnahmen
X1
Ursachen
B (Bewertung der Bedeutung)
X1
Fehler
Folgen
Tabelle 5 Markierung der geänderten Spalten für eine Spezifikations-FMEA, Grundlage ist eine FMEA-Tabelle nach VDA
X1
X2
1
Diese Spalten fallen weg, bzw. können vom Kunden in einer eigenen FMEA ergänzt werden
2
Diese Spalten werden ermittelt, aber dem Kunden nicht bzw. nur selektiv kommuniziert.
den Lieferanten nicht möglich. Die Bearbeitung der anderen Spalten der FMEA, also die Identifikation der Fehler und Ursachen sowie die Bewertung der Auftretenswahrscheinlichkeit und der Entdeckbarkeit können von dem Hersteller des Zulieferteils einfach durchgeführt werden. Das entsprechende Wissen über die Produktionsprozesse und Fehlermöglichkeit liegt alleine bei diesem Unternehmen. Die Spezifikations-FMEA bietet nun die Möglichkeit, die für den Kunden relevanten Informationen effektiv in der Supply-Chain zu kommunizieren. Dabei ist für den Kunden relevant •• welche Fehler auftreten können, •• wie sich diese genau darstellen und •• wie hoch die Auftretenswahrscheinlichkeit ist. Genaue Informationen zu den Ursachen sind einerseits oft vertraulich und andererseits für den Kunden uninteressant, deswegen sollten diese Informationen bei Standardprodukten nicht pauschal weiter gegeben werden. Für den Kunden sind vor allem die Informationen relevant, die für die eigene Wareneingangsprüfungen und Risikoabschätzungen benötigt werden. Je nach Ursache des Fehlers im Produktionsprozess beim Lieferanten können unterschiedliche Mengen betroffen sein. Ist die Ursache beispielsweise ein fehlerhafter Werkzeugwechsel an einer Maschine, dann sind alle Stücke
172
Frank Drews
dieser Charge betroffen und es ist vollkommen ausreichend nur ein Stück zu prüfen, um diesen Fehler auszuschließen. Andere Fehler (Anfahrprozesse oder normalverteilt variierende Merkmale) betreffen vielleicht nur einzelne Stücke. Durch die genaue Kenntnis der möglichen Fehlerursachen (bzw. der betroffenen Mengen und Art des Fehlers) lassen sich die Prüfungen beim Kunden optimal auf die Fehlerursachen abstimmten. Die Spezifikations-FMEA bietet die Möglichkeit die etablierte FMEA Methode mit einigen Änderungen für das stufenübergreifende Risikomanagement in dieser Netzwerkkonstellation einzusetzen.
D. Zusammenfassung und Ausblick Die Produktentwicklung in Netzwerken erfordert neue Konzepte und angepasste Methoden um Risikomanagement stufenübergreifend auszurichten. Dabei lassen sich keine allgemeinen Empfehlungen abgeben, sondern unterschiedliche Netzwerkkonstellationen und Rollenverteilungen in dem unternehmensübergreifenden Innovationsprozess stellen spezifische Anforderungen an den Aufbau von Risikomanagementstrukturen bei den Netzwerkpartnern. Dazu wurden in diesem Artikel Klassifikationssysteme vorgestellt um die Netzwerkkonstellation unter dem Blickwinkel des Risikomanagements zu analysieren. Für bestimmte Konstellationen stehen bereits geeignete Risikomanagementkonzepte und -Methoden zur Verfügung, für andere müssen bestehende Methoden und Werkzeuge angepasst werden. Dies wurde in diesem Artikel anhand der FMEA beispielhaft für eine Netzwerkkonstella tion gezeigt. Die Unterstützung des kollaborativen Einsatzes von Methoden wird in Zukunft immer wichtiger werden. Webbasierte Software und SaaS22-Konzepte finden immer mehr Akzeptanz und bieten hier einfache Möglichkeiten zur unternehmensübergreifenden IuK-Unterstützung bei der Produktentwicklung.23
22 SaaS Software as a Service, Saugatuck beschreibt die Vorteile von SaaS für kleine und mittlere Unternehmen. 23 Der Beitrag von Lau in diesem Tagungsband geht näher auf die Implementierung von Methoden auf einer Kollaborationsplattform ein und verdeutlicht dies anhand des Beispiels der FMEA. Vgl. Lau (2007).
Risikomanagement als stufenübergreifende Innovationsprozesse173
Literaturverzeichnis AIAG (2008): Potential Failure Mode and Effects Analysis (FMEA), 4th Edition, Juni 2008. Barrios, L. / Kenntof, J. (2008), The Business Analysis Process of New Product Development, a study of small and medium size enterprises. Brühwiler, B. (2003), Risikomanagement als Führungsaufgabe – Methoden, Prozesse der Risikobewältigung für Unternehmen, Organisationen, Produkte und Projekte, Bern 2003. Camarhinha-Matos, L. M. / Afsarmanesh, H. (2004), The Emerging Discipline of Collaborative Networks, in: Camarinha-Matos, L. M. (Hrsg.), Virtual Enterprises and Collaborative Networks, IFIP 18th World Computer Congress, TC5 / WG5.5 – 5th Working Conference on Virtual Enterprises, Boston 2004. Dahmen, J. (2002), Prozeßorientiertes Risikomanagement zur Handhabung von Produktrisiken, Aachen, 2002. ISBN 3832208356. De Toni (2003), A. / Nassimbeni, G., Small and Medium District Enterprises and the New Product Development Challenge, International Journal of Operations & Production Management, Vol. 23, 6. Ausgabe, Seiten 678–697. DIN EN 60812:2006-11: Analysetechniken für die Funktionsfähigkeit von Systemen – Verfahren für die Fehlzustandsart- und -auswirkungsanalyse (FMEA), November 2006. DITF-MR (2010): IGF-Forschungsvorhaben „Gestaltung branchenübergreifender Risikomanagementsysteme für kmU am Beispiel der Filterbranche“, „webbasierte Risikomanagement-Assistent“ (AiF-Vorhaben Nr.: 15597 N / 1), Projektlaufzeit 01.05.2008–30.04.2010, Forschungsstelle: Zentrum für Management Research der Deutschen Institute für Textil- und Faserforschung (DITF-MR), URL: www. risikomanager.org. Goeken, M. (2004), Referenzmodellbasierte Einführung von Führungsinformationssystemen – Grundlagen, Anforderungen, Methode, Wirtschaftsinformatik Ausgabe Nr.: 4 / 2004. Grote, D. (2003), Risikomanagement in der Automotive Industrie, Vortrag crash.test 13.05-14.05.2003, URL: http: / / www.tuev-sued.de / uploads / images / 11349868199 10636547174 / Grote.pdf, zugegriffen am 23.08.2010. Harahap, R. I. (2010), Einsatz der FMEA in der unternehmensübergreifenden Produktentwicklung – Risikomanagement in der Lieferkette aus der Perspektive von KmU, Diplomarbeit an der Hochschule Darmstadt betreut durch das DITF-MR, Januar 2010. Lau, A. (2007), Kooperatives und kollaboratives Risikomanagement für kleine und mittlere Unternehmen, Diplomarbeit, Universität Stuttgart, 2007. Saugatuck-Studie (2010): Software as a Service (SaaS) für Unternehmenslösungen: So profitieren kleine und mittelständische Unternehmen in Business-Management – Planungssoftware – Unternehmensanwendungen – White Papers bei ZDNet.de URL: http: / / www.zdnet.de / saugatuck_studie_software_as_a_service__
174
Frank Drews
saas__fuer_unternehmensloesungen_so_profitieren_kleine_und_mittelstaendi sche_unternehmen_download-39002355-88070458-1.htm besucht am 23.08.2010. Schmitt, R. / Pfeifer, T. (2010), Qualitätsmanagement: Strategien, Methoden, Techniken, ISBN 978-3446412774. Schorn, M. / Kapust, A. (2005) DRBFM-die Toyata Methode, VDI-Z 147 Nr. 7 / 8 2005, S. 67–69. Smith, P. G. / Reinertsen, D. (1991), Developing Products in Half the Time. New York, 1991. VDA (2006), Sicherung der Qualität vor Serieneinsatz – Produkt- und ProzessFMEA, 2. Auflage 2006 (Loseblattsammlung). VDA-QMC (2009-I), Qualitätsmanagement in der Automobilindustrie Band 2, Sicherung der Qualität von Lieferungen. – (2009-II), Reifegradabsicherung für Neuteile 2. Auflage – D. Weber, R. (2005), Leistungsbündel als Angebotsform für konsumentengerichtete Technologiegüter – Konzept. Wirkung und Ziele, Dissertation.
Der Exzellenzcluster „Integrative Produktionstechnik für Hochlohnländer“ an der RWTH Aachen – Management und Controlling von Interdisziplinarität Von Florian Welter, Claudia Jooß, Anja Richert und Sabina Jeschke
A. Einleitung Im Rahmen der bundesweiten Exzellenzinitiative wurde im Jahr 2006 der Exzellenzcluster Integrative Produktionstechnik für Hochlohnländer an der Rheinisch-Westfälischen Technischen Hochschule (RWTH) Aachen gegründet. Die übergeordnete Zielsetzung des Exzellenzclusters liegt dabei in der Steigerung der Wettbewerbsfähigkeit von Hochlohnländern und ihrer produzierenden Unternehmen. Um diese Zielsetzung zu erfüllen, werden integrative Ansätze für eine zukunftsfähige Produktionstechnik wie auch neue Methoden der interdisziplinären Arbeitsorganisation erforscht. Langfristig wird auf diese Weise angestrebt, das Polylemma der Produktionstechnik zu lösen, das aus den zwei Dichotomien scale vs. scope, und Planungsorientierung vs. Wertorientierung besteht. Die bundesweit neuartige institutionalisierte Form von interdisziplinärer Forschung in einem Exzellenzcluster benötigt dabei eine kontinuierliche Steuerung, um alle Akteure und Teilprojekte auf das übergeordnete Ziel hin auszurichten. Untersuchungsgegenstand des vorliegenden Beitrags sind die Rahmenbedingungen, die die Zusammenarbeit in einem hochkomplexen, heterogenen Forschungs- und Entwicklungsnetzwerk prägen, die Herausforderungen hinsichtlich des Managements des Exzellenzclusters und der Mehrwert den ein Exzellenzcluster im Vergleich zu konventionellen Forschungsverbünden implizieren kann. Diesbezüglich wird herausgestellt wie mithilfe der „Cross Sectional Processes“, u. a. in Form von Strategieworkshops auf der Führungsebene, der Ausrichtung von Mitarbeiterkolloquien, der Durchführung von Balanced-Scorecard-Evaluationen sowie Equal-Opportunities- und Diversity-Management-Maßnahmen eine fortlaufende Selbstreflexion der Arbeit im Exzellenzcluster erreicht werden kann. Nach der Einführung in die Konzeption des Exzellenzclusters Integrative Produktionstechnik für Hochlohnländer und der Cross Sectional Processes
176
Florian Welter, Claudia Jooß, Anja Richert und Sabina Jeschke
wird der Beitrag auf Ergebnisse des Balanced-Scorecard-Ansatzes eingehen, mit dem die Performance des Netzwerks jährlich gemessen und reflektiert wird, um gegebenenfalls steuernd eingreifen zu können.
B. Hintergrund und übergeordnete Zielstellung des Exzellenzclusters Aufgrund des wachsenden globalen Wettbewerbsdrucks, der in erster Linie seitens der aufstrebenden asiatischen Schwellen- und Industrieländer mit ihren relativ niedrigen Löhnen ausgeübt wird, gerät die produzierende Industrie der Hochlohnländer1 zunehmend unter Zugzwang. Dabei ist sowohl im Hinblick auf Outsourcing einzelner Produktionszweige als auch im Hinblick auf Verlagerungen kompletter Produktions- und F&E-Aktivitäten in die Niedriglohnländer dringender Handlungsbedarf für die Hochlohnländer geboten2. Die Tatsache, dass allein in Deutschland, nach einer Untersuchung des Deutschen Industrie- und Handelskammertags (DIHK) im Jahr 2005, bereits 23 % der Unternehmen eine Produktionsverlagerung planten, unterstreicht den Ernst der Situation3. Unter diesen Voraussetzungen nimmt die Erzielung von Produkt- wie auch von Prozessinnovationen zur Aufrechterhaltung und Erlangung von Wettbewerbsvorteilen produzierender Unternehmen in Hochlohnländern eine immer wichtigere Rolle ein, da der Innovationsdruck aus Niedriglohnländern steigt. Während den vergangenen Jahren hat sich in Wissenschaft und Wirtschaft die Erkenntnis durchgesetzt, dass Innovationen in erster Linie aus interdisziplinären Kooperationen zwischen fachlich heterogenen Partnern aus Wissenschaft und Wirtschaft resultieren. Diese Tatsache hat zu einer verbreiteten Implementierung von Clusterkonzepten und Netzwerken ähnlichen Typs beigetragen. So verfolgt auch „der Exzellenzcluster ‚Integrative Produktionstechnik für Hochlohnländer‘ an der RWTH Aachen (…) das Ziel, ausgehend von neuen Konzepten für die Produk tionstechnik dem Abwanderungstrend wertschöpfender Produktionsprozesse entgegenzuwirken, so dass westliche Hochlohnländer wieder eine aktive Wettbewerbsrolle einnehmen. Auf den Stärken dieser Produktionsstandorte aufbauend, werden Ansätze verschiedener Wissenschaftsdisziplinen in ein ganzheitliches Konzept integriert, das neuen globalen Wettbewerbsstrukturen gerecht wird und zur Stärkung der Innovationskraft und Wettbewerbsfähigkeit der Hochlohnländer beitragen soll“4. 1 Unter den Hochlohnländern, die in der produzierenden Industrie als weltweit führend einzustufen sind, befinden sich in erster Linie die etablierten westlichen Industriestaaten Nordamerikas und Europas sowie Japan. 2 Vgl. Brecher et al. (2008), S. 15 f. 3 Vgl. ebd. S. 16. 4 Ebd. S. 17.
Exzellenzcluster „Integrative Produktionstechnik für Hochlohnländer“177
Abbildung 1: Das Polylemma der Produktionstechnik (Exzellenzcluster „Integrative Produktionstechnik für Hochlohnländer“ 2007: 12)
Mit der Bewilligung des betrachteten Exzellenzclusters im Jahr 2006 wurden für diese Zielstellung Fördermittel in Höhe von rund 39 Mio. € seitens der Deutschen Forschungsgemeinschaft (DFG) und des Wissenschaftsrats (WR) zur Verfügung gestellt, die für die erste fünfjährige Förderperiode genutzt werden (vgl. Exzellenzcluster „Integrative Produktionstechnik für Hochlohnländer“ 2007: 8)5. Die übergeordnete clusterweite Vision stellt die Auflösung des Polylemmas der Produktionstechnik dar (vgl. Abbildung 1), welches aus den zwei Dichotomien scale vs. scope und Planungsorientierung vs. Wertorientierung besteht. Ziel ist, die zukünftige Produktionstechnik der Hochlohnländer auf der einen Seite in die Lage zu versetzen, sowohl Vorteile der Massenproduktion durch die Erzielung von Skaleneffekten (economies of scale) zu realisieren als auch Vorteile kundenindividueller Produktion (economies of scope) nutzen zu können6. Da Niedriglohnländer ihre derzeitigen Produktionsvorteile derzeit noch mehrheitlich durch die Fokussierung auf Massenproduktion erzielen, besteht für Hochlohnländer das strategische Interesse, durch eine Positionierung zwischen scale und scope Wettbewerbsvorteile zu erzielen. Auf der anderen Seite sind Hochlohnländer jedoch auch gefordert, sich mit der Dichotomie aus Planungsorientierung und Wertorientierung auseinandersetzen. Niedriglohnländer erzielen gegenwärtig Kostenvorteile durch den 5 Deutschlandweit werden in der ersten Förderperiode (2006 / 2007 bis 2012) insgesamt 37 Exzellenzcluster gefördert. 6 Vgl. ebd. S. 17 f.
178
Florian Welter, Claudia Jooß, Anja Richert und Sabina Jeschke
Einsatz einfacher, robuster wertstromorientierter Prozessketten. Damit stehen sie im Gegensatz zu den Hochlohnländern, die verbreitet eine kontinuierliche Prozessoptimierung mittels kapitalintensiver Planungsinstrumente verfolgen7. Die Erzielung qualitativ hochwertiger Ergebnisse bei einer gleichzeitigen Reduktion des Planungsaufwands stellt somit für die Hochlohnländer die zukünftige Herausforderung dar, um sich gegenüber den Niedriglohnländern besser zu positionieren8. I. Akteure im interdisziplinären Netzwerk des Exzellenzclusters Die Akteure, welche auf die übergeordnete Zielstellung des heterogenen Netzwerks hinarbeiten, lassen sich in verschiedene Gruppen einteilen, die mehrheitlich einen wissenschaftlichen Hintergrund besitzen, teilweise jedoch auch durch einen wirtschaftlichen Hintergrund charakterisiert sind. Die größte Akteursgruppe wird dabei von den wissenschaftlich ausgerichteten Vertretern, in Form von Hochschulinstituten, Lehrstühlen, An-Instituten, Institutionen der Fraunhofer Gesellschaft und sonstigen F&E-Einrichtungen gestellt. 19 Lehrstühle mit dem fachlichen Schwerpunkt der Produktionstechnik und der Werkstoffwissenschaften wie auch 7 An-Institute der RWTH Aachen bilden die wissenschaftliche Basis des Exzellenzclusters9. Weitere wissenschaftlich ausgerichtete Akteure, darunter hochschulnahe Kompetenzzentren und Foren, die ihren Sitz in Aachen haben, treten zudem als Kooperationspartner im Netzwerk auf. Auch internationale Forschungspartner nehmen am Exzellenzcluster teil (Kooperationspartner sind beispielsweise das Fraunhofer Center for Laser Technology (CLT) aus Plymouth / USA, das Fraunhofer Center for Manufacturing Innovation (CMI) aus Boston / USA, das Cranfield Innovative Manufacturing Research Centre (IMRC) aus Cran/ Vereinigtes Königreich, die University of Leoben, Department of field Metallurgy aus Leoben, Österreich). Im Gegensatz zu diesen internationalen Forschungspartnern unterscheiden sich weitere Kooperationspartner sowohl durch ihre Anzahl als auch durch ihre geographische Konzentration: Alle der gegenwärtig 17 Industriepartner, die bis auf wenige mittlere Unternehmen durchweg Großunternehmen bzw. Konzerne aus dem Bereich der Produktionstechnik und der Werkstoffwissenschaften darstellen, weisen dabei ihren Unternehmenssitz in Deutschland auf. Daraus folgt, dass – im Vergleich zu den wissenschaftlich ausgerichteten Akteuren – die räumliche Distanz der Industriepartner zur Sprecherhochschule des Exzellenzclusters, 7 Vgl.
ebd. S. 18. ebd. S. 23. 9 Vgl. RWTH (2006). 8 Vgl.
Exzellenzcluster „Integrative Produktionstechnik für Hochlohnländer“179
der RWTH Aachen, mehrheitlich relativ groß ist10. Im Hinblick auf die Beschäftigtenzahlen der wirtschaftlich orientierten Akteure liegt der arithmetische Mittelwert bei 73.194 Beschäftigten, der Median liegt bei 22.570 Beschäftigten. Die Differenz ist durch das Auftreten mehrerer Konzerne unter den Projektpartnern zu begründen, die mit ihren hohen Beschäftigtenzahlen den Mittelwert deutlich erhöhen. Die Spannweite der Beschäftigtenzahlen reicht von 125 Mitarbeitern bis über 400.000 Mitarbeiter, was die Heterogenität dieser Akteursgruppe hervorhebt. Die enge Verbundenheit des Exzellenzclusters Integrative Produktionstechnik für Hochlohnländer mit der Wirtschaft wird dadurch unterstrichen, dass seitens der Geschäftsführung das Ziel verfolgt wird, die wissenschaftlichen Erkenntnisse der einzelnen Teilprojekte im Exzellenzcluster in Zusammenarbeit mit Industrieunternehmen auf einen konkreten industriellen Anwendungsfall zu überführen (so genannte Business- & Technology-Cases). Zusätzlich zur Einbindung von industriellen Partnern in bi- und multilaterale Teilrojekte des Exzellenzclusters nehmen auch Vertreter der Wirtschaft, durch ihre Teilnahme am Advisory Board, eine beratende Funktion ein11. Anhand der „Definition relevanter Themen aus der Industrie, [der] Beratung der Leitung des Exzellenzclusters hinsichtlich der inhaltlichen Ausgestaltung des Exzellenzclusters [und der] Bewertung der Forschungsarbeiten im Exzellenzcluster aus Sicht der produzierenden Industrie“12
werden auf diese Weise 19 beratende Akteure aus der Wirtschaft in das interdisziplinäre Netzwerk integriert, um Inhalte und Ziele des Exzellenzclusters zu hinterfragen. II. Cross Sectional Processes im Aachen House of Integrative Production Um den integrativen Ansatz des Exzellenzclusters zu verdeutlichen, wurde die in Abbildung 2 dargestellte Organisationsstruktur des Aachen House of Integrative Production entwickelt. Dieses bildet die Aufgaben und Verknüpfungen der sechs sogenannten Integrative Cluster Domains (ICDs) ab. Durch diese Struktur wird verdeutlicht, dass die vier Säulen Individualisier10 Hierbei bleibt zu erwähnen, dass die am Exzellenzcluster beteiligten 19 Lehrstühle nicht in einem gemeinsamen Gebäude verortet sind, sondern sich über das Gebiet der Wissenschaftsstadt Aachen erstrecken. 11 Exzellenz cluster „Integrative Produktionstechnik für Hochlohnländer“ (2007), S. 62 f. 12 Ebd. S. 63.
180
Florian Welter, Claudia Jooß, Anja Richert und Sabina Jeschke
Abbildung 2: Aachen House of Integrative Production (Nach: Exzellenzcluster „Integrative Produktionstechnik für Hochlohnländer“ 2007: 27)
te Produktion (ICD A), Virtuelle Produktionssysteme (ICD B), Hybride Produktionssysteme (ICD C) und Selbstoptimierende Produktionssysteme (ICD D) von zwei weiteren Säulen, den Querschnittsbereichen Technology Roadmaps (ICD E) und Cross Sectional Processes (ICD F) umfasst werden. Hierdurch wird hervorgehoben, dass die beiden letztgenannten ICDs explizit eine ICD-übergreifende Funktion einnehmen und der Geschäftsführung des Exzellenzclusters unmittelbar unterstellt sind13. Als eine übergeordnete ICD des Aachen House of Integrative Production zählt insbesondere die effektive Vernetzung der wissenschaftlichen Prozesse des Exzellenz clusters zu den Aufgaben der Cross Sectional Processes (ICD F). Die Vernetzung erfolgt dabei durch die Implementierung feldgetesteter Maßnahmen, die vom ZLW / IMA der RWTH Aachen in Vorgängerprojekten vergleichbarer Größe und Komplexität entwickelt und an die Anforderungen des Exzellenzclusters adaptiert wurden. Das hieraus resultierende Maßnahmenset zum Management von Querschnittsaufgaben in interdisziplinären Kooperationsverbünden (vgl. Tabelle 1) bietet die Möglichkeit, maßgeschneiderte Cross Sectional Maßnahmen (organisatorischer wie auch informationstechnischer Art) in unterschiedlichen Phasen der Netzwerkentwicklung anzuwenden und hierdurch die Quervernetzung zu unterstützen. Beispielhafte Maßnahmen stellen diesbezüglich die Durchführung und Or13 Für eine ausführliche Erläuterung aller einzelnen ICDs, die nicht Bestandteil dieses Beitrags sein soll, sei beispielhaft auf das Werk von Schuh et al. (2007) sowie die offizielle Homepage des Exzellenzclusters Integrative Produktionstechnik für Hochlohnländer verwiesen (http: / / www.production-research.de).
Exzellenzcluster „Integrative Produktionstechnik für Hochlohnländer“181 Tabelle 1 Maßnahmenset der Cross Sectional Processes14
ganisation von Strategieworkshops auf der Führungsebene und Kolloquien auf Ebene der wissenschaftlichen Mitarbeiter dar, welche u. a. zur Erhöhung der Transparenz von Forschungsinhalten wie auch zur Steigerung der Kooperationsqualität beitragen. Darüber hinaus fallen Weiterbildungsangebote zur Förderung des wissenschaftlichen Nachwuchses in den Aufgabenbereich der Cross Sectional Processes, sowie Maßnahmen des Gender und Diversity-Managements. Ebenfalls nimmt die Implementierung eines clusterspezifischen Balanced-Scorecard-Ansatzes eine wichtige Rolle ein, der zum Controlling des gesamten Exzellenzclusters eingesetzt wird. Zur Koordination und Regulation der Quervernetzungsaufgaben bedarf es konkreter Praktiken des Managements im Sinne von (wiederkehrenden) Handlungen, mit denen Strukturen aktualisiert und reproduziert werden15. Diesbezüglich werden Praktiken und Maßnahmen im Rahmen der Cross Sectional Processes nach einem Induktiv-Deduktiv-Ansatz über die gesamte Projektlaufzeit weiterentwickelt (vgl. Abbildung 3). Dabei wechseln sich Anwendungs-, Untersuchungs- und Gestaltungsphasen iterativ ab. Auf diese Weise werden bereits eingesetzte Maßnahmen an aktuelle Bedarfe des Exzellenzclusters angepasst. Infolge der iterativen Vorgehensweise wurde u. a. die scorecardbasierte Performancemessung nach der ersten clusterweiten Implementierung in einem Workshop mit der Geschäftsführung des Exzellenzclusters reflektiert und überarbeitet. 14 Vgl. 15 Vgl.
Kap. C. Ortmann / Sydow / Windeler (1997); Sauer (2005); Windeler (2002).
182
Florian Welter, Claudia Jooß, Anja Richert und Sabina Jeschke
Abbildung 3: Der Induktiv-Deduktiv-Ansatz von ICD F (ZLW / IMA der RWTH Aachen 2008)
C. Management und Controlling als wichtige Aufgabenbereiche im Exzellenzcluster Damit die heterogenen Akteure gemeinsam die übergeordnete Zielsetzung erreichen können, die mit der Erzielung von Innovationen zur Steigerung der Wettbewerbsfähigkeit von Hochlohnländern beschrieben werden kann, ist ein Management der Quervernetzungsaufgaben notwendig, das die Kooperation der Akteure koordiniert und steuert. Die grundlegenden Herausforderungen, die bezüglich der Zusammenarbeit in einem heterogenen Netzwerk auftreten und die notwendigen Mittel, um Synergieeffekte im Exzellenzcluster nutzbar zu machen, werden im Folgenden beschrieben. Dadurch, dass der Exzellenzcluster einen Zusammenschluss von interdisziplinären, heterogenen Akteuren in einem forschungsbasierten Netzwerk darstellt, ergeben sich für viele Akteure deutliche Unterschiede zu ihrer gewohnten Organisationskultur bzw. ihrem parallel existierenden Geschäftsalltag außerhalb des Exzellenzclusters. Diesbezüglich beschreibt auch Ahrens (2004), dass „mit dem Netzwerkbegriff (…) deutlich gemacht [wird], dass die Handlungskoordination nach einem Modus erfolgt, der sich von den alternativen Formen Markt und Hierarchie deutlich unterscheidet. Das heißt, die Koordination und Steuerung
Exzellenzcluster „Integrative Produktionstechnik für Hochlohnländer“183 von Netzwerken erfolgt nicht über Preise oder Anweisungen, sondern in erster Linie über vertrauensvolle Kooperation und Aushandlung“16.
So liegt die Annahme nahe, dass es für einen Lehrstuhl leichter ist, sich in die Struktur des Exzellenzclusters einzuordnen und mittel- bis langfristige Forschungsprojekte durchzuführen, wohingegen für einen Industriepartner eher kurzfristig erzielbare Produkt- und Prozessinnovationen von Inte resse sind. Diese Annahme lässt sich ebenfalls durch den klassischen tradeoff zwischen exploration und exploitation von Produkten bzw. Wissen beschreiben, durch den Netzwerke grundsätzlich charakterisiert werden17. Eine weitere grundlegende Herausforderung der unterschiedlichen organisatorischen Hintergründe der Akteure stellt z. B. die Herausbildung einer Netzwerk- bzw. Clusterkultur – in Form gemeinsamer Regeln, Konventionen und Routinen – dar, die sich erst mit der Zeit entwickeln kann18. Unumstritten ist jedoch die Tatsache, dass die Zusammensetzung heterogener Akteure zur Generierung von neuem Wissen förderlich ist, weil „Netzwerke (…) das Potenzial zur Generierung, Prüfung und Integration von sehr unterschiedlichen Wissensbeständen in spezifischen und sich schnell ändernden Entscheidungssituationen [bergen]“19.
Allerdings findet der Prozess des Wissensaustauschs und der Wissensproduktion in einem Netzwerk nicht ohne steuernde und koordinierende Maßnahmen statt, was Sauer (2005) wie folgt beschreibt: „Der Ansatz, heterogene Partner in Forschungsnetzwerken zusammenzubringen, verspricht – aufgrund der Unterschiedlichkeit bzw. Komplementärkompetenzen der beteiligten Partnerorganisationen – einerseits hohes Innovationspotenzial sowie weitere Vorteile, wie z. B. die Verringerung von Konkurrenz, da unterschiedliche Märkte und Kunden angesprochen werden. Andererseits birgt dieser Ansatz Risiken, wie z. B. Kommunikations- und Anschlussprobleme aufgrund unterschiedlicher (Fach-)Sprachen und Arbeitskulturen“.
Demnach ist insbesondere das Management von Cross Sectional Processes in einem Exzellenzcluster wichtig, um Rahmenbedingungen zu schaffen, durch welche sich erfolgreiche Kooperationen der Akteure entwickeln können, die schließlich auch in Innovationen münden. So müssen Partner mit teilweise unterschiedlichen Interessen auf eine gemeinsame Linie gebracht, Kommunikationsprobleme zwischen denselben gelöst und Vertrauen als sozialer Kitt im Netzwerk aufgebaut werden20. Dass jedoch Vertrauen nicht 16 Ahrens
(2004), S. 2. Amin / Cohendet (2004), S. 58 und Sydow (2006), S. 63. 18 Vgl. Schmette et al. (2003), S. 70 und Sauer (2005), S. 1. 19 Sauer (2005), S. 1. 20 Vgl. Oertel / Hees (2004); Petzolt et al. (2004), S. 32; Sauer (2005), S. 1. 17 Vgl.
184
Florian Welter, Claudia Jooß, Anja Richert und Sabina Jeschke
Abbildung 4: Der Balanced-Scorecard-Ansatz im Exzellenzcluster Integrative Produktionstechnik für Hochlohnländer
erzwingbar ist und zusätzlich Risikoaversion, insbesondere seitens industrieller Partner, ein Problem beim Wissensaustausch in einem Exzellenzcluster darstellen kann, muss seitens des Managements von Quervernetzungsaufgaben beachtet werden21. Folglich bedarf es nicht nur passender Maßnahmen zur Quervernetzung der Akteure, sondern auch eines Instruments, dass die Leistung des gesamten Netzwerks misst und Ergebnisse an die Management ebene zurückführt. An welchen Stellen die wissenschaftliche Vernetzung des Exzellenzclusters weiteren Entwicklungsbedarf aufweist und inwiefern die Cluster-Performance mit einem Controlling-Instrument wie dem BalancedScorecard-Ansatz gesteigert werden kann, ist Schwerpunkt der folgenden Abschnitte22. Die von Kaplan und Norton im Jahr 1992 entwickelte Balanced Scorecard stellt ein „Performance-Mess-System“ dar23, das ursprünglich als Kommunikations-, Informations- und Lernsystem innerhalb von Unternehmen konzipiert wurde. Der durch die ICD F aufgegriffene und modifizierte Balanced-Scorecard-Ansatz überträgt die aus dem Unternehmenscontrolling stammende Theorie auf das Controlling des Exzellenzclusters. Analog zum klassischen Ansatz nach Kaplan und Norton beinhaltet auch der clusterspezifische Balanced-Scorecard-Ansatz vier Perspektiven (Finanzielle Perspek21 Vgl.
Kern (1996), S. 206. Welter et al. (2010). 23 Kaplan / Norton (1992), S. 79. 22 Vgl.
Exzellenzcluster „Integrative Produktionstechnik für Hochlohnländer“185
tive, Interne Perspektive / Forschungskooperationen, Lern- und Entwicklungsperspektive, Output / Kundenperspektive), doch wurden diese hinsichtlich der Eigenschaften eines heterogenen, wissensintensiven Netzwerks wie folgt modifiziert (vgl. Abbildung 4). Die vier Perspektiven bilden dabei einen Rahmen, durch den die übergeordnete Vision des Exzellenzclusters in strategische (Teil-)Ziele aufgeschlüsselt wird, welche allen Akteuren im Exzellenzcluster Orientierung in der täglichen Arbeit des Forschungsnetzwerks bietet. Inwieweit z. B. Teilziele erreicht werden, wissenschaftlicher Output generiert wird oder wie hoch die Zufriedenheit unter den Clusterakteuren hinsichtlich der Kooperationsqualität im Exzellenzcluster ist, wird in regelmäßigem Iterationen untersucht und an die Geschäftsführung zurückgeführt. Zu diesem Zweck wird als Hauptbestandteil der clusterspezifischen Balanced-Scorecard jährlich eine elektronische Befragung durchgeführt, die alle Mitarbeiter des Exzellenzclusters adressiert. Der standardisierte Online-Fragebogen deckt dabei die vier Perspektiven der clusterspezifischen Balanced-Scorecard ab. Die Struktur des Fragebogens ermöglicht sowohl die Generierung von vergleichbaren Kennzahlen, die mittels deskriptiver Statistik ausgewertet werden, als auch die Erfassung von qualitativen Aussagen der Befragten. Durch die ersten drei elektronischen Befragungen in den Jahren 2008 (Teilnehmerzahl: n = 113), 2009 (n = 121) und 2010 (n = 116), die sich an verschiedene Hierarchieebenen des Exzellenzclusters richtete (u. a. an die Professoren, die Geschäftsführung und die wissenschaftlichen Mitarbeiter), wurde eine Datenzeitreihe generiert, die den jeweiligen Status-quo der Netzwerkentwicklung in den einzelnen Jahren abbildet. Die Aufteilung der Fragebögen zwischen den verschiedenen Teilnehmerebenen ermöglicht dabei, Unterschiede und Gemeinsamkeiten hinsichtlich einzelner Aspekte zu untersuchen. Einige Fragen werden bewusst nur auf ausgewählten Hierarchieebenen gestellt wie z. B. die Beurteilung der effizienten Verwendung von finanziellen Mitteln im Exzellenzcluster auf Ebene der Professoren und Geschäftsführung. Die Antworten werden sowohl in aggregierter Form zur Beurteilung der Entwicklung des gesamten Exzellenzclusters genutzt, als auch in aufgeschlüsselter Form zur Reflektion einzelner Antworten auf den Hierarchieebenen herangezogen. Die Daten der drei Balanced-Scorecard-basierten Befragungen verdeut lichen, dass sich die Antworten in aggregierter Form auf einer möglichen Skala (in Anlehnung an ein Schulnotensystem von 1 = positiv bis 5 = negativ) weitestgehend zwischen den Werten 2 und 3 bewegen. Ausgewählte Ergebnisse und Entwicklungen und daraus resultierende Handlungsempfehlungen, die von den Cross Sectional Processes mit der Geschäftsführung des Exzellenzclusters erarbeitet wurden, werden diesbezüglich in den nachfolgenden Abschnitten vorgestellt.
186
Florian Welter, Claudia Jooß, Anja Richert und Sabina Jeschke
Als ein Resultat der Datenzeitreihe (2008 bis 2010) kann festgehalten werden, dass Nutzen und Qualität der wissenschaftlichen Kooperationen im Exzellenzcluster besser bewertet werden als zu Beginn der Projektlaufzeit. Ebenso wird der clusterweite Informationsfluss über Fortschritte in den einzelnen Teilprojekten als besser durch die Befragten eingeschätzt. Diese Bewertungen unterstreichen die Tatsache, dass das gegenseitige Kennenlernen der Clusterakteure untereinander sowie die damit verbundene gesteigerte Transparenz über Arbeitsinhalte und zunehmende Vertrauensbildung im Netzwerk eingesetzt hat. Unterstützende Maßnahmen der Organisationsentwicklung und des Wissensmanagements, die diese Prozesse beschleunigen, sind aus diesem Grund insbesondere während der Initiierung eines Exzellenzclusters wichtig. Organisatorisch ist diesbezüglich die vermehrte Durchführung thematischer Arbeitstreffen zu nennen (z. B. in Form einzelner Teilprojekttreffen wie auch in Form clusterweiter Versammlungen), die eine gezielte face-to-face-Kommunikation unter den Mitarbeitern fördert. Eine steigende Anzahl dieser formalen Treffen kann seit Beginn des Exzellenzclusters festgestellt werden, wobei diese zum Teil durch das Clustermanagement angestoßen wurden. In einem nächsten Schritt wird zusätzlich die Initiierung von informelleren themenspezifischen Arbeitsgruppen (Communities of Practice) angestrebt. Hierfür bedarf es auch geeigneter Tools zur Kooperationsunterstützung, die den Clusterakteuren beispielsweise den Austausch von Daten ermöglichen. Für diese Zwecke wurde ein cluster interner BSCW-Server aufgesetzt, der künftig durch weitere, stärker interaktivere, Tools ergänzt wird. Vor diesem Hintergrund wird derzeit die zusätzliche Implementierung einer semantisch gestützten Wissenslandkarte für das Jahr 2010 geprüft. Im Hinblick auf clusterspezifische Weiterbildungsangebote wurde aufgrund von Ergebnissen und Vorschlägen seitens der Teilnehmenden der ersten Befragungen ein entsprechendes Programm durch die Cross Sectional Processes und die Geschäftsführung aufgesetzt. So fanden im Jahr 2009 Seminare wie z. B. Clusterspezifisches Projektmanagement für Führungskräfte oder Forschungsmethodik und wissenschaftliches Arbeiten in technik orientierten Handlungssystemen statt, um die Ausbildung der wissenschaftlichen Mitarbeiter zu verbreitern und ihre Projektmanagementfertigkeiten zu schulen. Darüber hinaus wurde im Jahr 2009 mit der Einführung der Vortragsreihe „I did it my way – Karrierewege von der Hochschule in die Industrie“ den Clusterakteuren die Möglichkeit geboten, sich anhand von Vorträgen externer Referenten über verschiedene Karrieremöglichkeiten zu informieren und mit Vertretern – insbesondere aus der Industrie – persönlich ins Gespräch zu kommen. Auf diese Weise wurde zugleich die Außenwirksamkeit des Exzellenzclusters gestärkt. Dass bereits jetzt Vorteile für die Forschungs- und Entwicklungsarbeit im Exzellenzcluster durch den regel-
Exzellenzcluster „Integrative Produktionstechnik für Hochlohnländer“187
mäßigen Austausch zwischen Forschungs- und Industriepartnern existieren, wird von zunehmend mehr Clusterakteuren bestätigt. Darüber hinaus stimmt die Mehrheit der Befragten der Aussage zu, dass durch die Synergien im Exzellenzcluster mehr Forschungsoutput entsteht als in 80 gewöhnlichen Einzelprojekten. Es kann daher angenommen werden, dass die in Deutschland neuartige Organisationsstruktur eines Exzellenzclusters eine vorteilhafte Struktur für die Produktion neuen Wissens durch die Kombination verschiedener, interdisziplinärer Fachdisziplinen bildet24. Erste Ergebnisse des gesamten Exzellenzclusters – insbesondere Forschungsoutput in Form von Publikationen und Präsentationen – werden des Weiteren von den Befragten mit Blick auf die dreijährige Datenzeitreihe vermehrt als sehr gut eingestuft. Um die Öffentlichkeitsarbeit weiter zu stärken, wurde u. a. neben der Einführung von öffentlichen Newslettern auch die Initiierung von Gruppen und Foren in Social Networks wie auch die Ausrichtung einer Konferenz zur Thematik des Exzellenzclusters geplant.
D. Zusammenfassung und Ausblick Die Akteure des im Rahmen der bundesweiten Exzellenzinitiative gegründeten Exzellenzclusters Integrative Produktionstechnik für Hochlohnländer haben sich zum Ziel gesetzt, den Hochlohnländern insbesondere durch die Entwicklung innovativer Produktions- und Werkstofftechnik sowie neuer Formen der Arbeitsorganisation einen Wettbewerbsvorteil gegenüber den Niedriglohnländern zu verschaffen. Der integrative Ansatz stellt dabei durch die interdisziplinären Kooperationen eine große Herausforderung an das Management dar und bietet gleichzeitig die Chance zur Erzielung von Innovationen. Aus diesem Grund wird das Clustermanagement des heterogenen Forschungsnetzwerks durch die Maßnahmen der Cross Sectional Processes unterstützt, um die wissenschaftliche Quervernetzung auszubauen. Durch die Auswertung der ersten drei Balanced-Scorecard-basierten Befragungen wurde dem Clustermanagement die Möglichkeit geboten, einzelne Teilaspekte des Exzellenzclusters auf verschiedenen Hierarchieebenen bewerten zu lassen und durch steuernde Eingriffe die strategische Ausrichtung des Netzwerks zu fokussieren. Auf diese Weise wurden Maßnahmen eingeleitet und Fortschritte für die Überführung des Exzellenzclusters von einer instabilen Initiierungsphase in stabilere, produktivere Netzwerkentwicklungsphasen erzielt. Wissenschaftlich stellt sich insbesondere die Frage nach der Übertragbarkeit des Ansatzes auf andere Forschungs- und Ent24 Vgl.
Sauer (2005), S. 1.
188
Florian Welter, Claudia Jooß, Anja Richert und Sabina Jeschke
wicklungsverbünde. In einem weiteren Teilprojekt von ICD F wird aus diesem Grund untersucht wie diesbezüglich ein Anwendungsmodell zum Management von Cross Sectional Process entwickelt werden kann, welches sich auf vergleichbare, hochkomplexe, wissenschaftliche Forschungskooperationen und Clustervorhaben insbesondere unterschiedlicher Fach- und Organisationskulturen übertragen lässt25. Wir danken der Deutschen Forschungsgemeinschaft DFG, die die vorgestellten Arbeiten im Rahmen des Exzellenzclusters „Integrative Produktionstechnik für Hochlohnländer“ fördert. Literaturverzeichnis Ahrens, D. (2004), Netzwerke: Von der Konfrontation zur Kooperation, in: Das Netzwerk-Kompendium – Theorie und Praxis des Netzwerkmanagements, in: Oertel, R.; Hees, F. (Hrsg.), Aachen 2004, 1–8. Amin, A. / Cohendet, P. (2004), Architectures of knowledge. Firms, capabilities, and communities, New York 2004. Brecher, C. / Hirt, G. / Klocke, F. / Schapp, L. / Schmitt, R. / Schuh, G. / Schulz, W. (2008), Integrative Produktionstechnik für Hochlohnländer, in: Brecher, C. / Klocke, F. / Schmitt, R. / Schuh, G. (Hrsg.), Wettbewerbsfaktor Produktionstechnik – Aachener Perspektiven. AWK Aachener Werkzeugmaschinen-Kolloquium, Aachen 2008, S. 15–40. Exzellenzcluster „Integrative Produktionstechnik für Hochlohnländer“ (2007), Exzellenzcluster „Integrative Produktionstechnik für Hochlohnländer“ – Ausführliche Zusammenfassung. Präsentation vom 14. November 2007. Online im Internet: URL: http: / / www.production-research.de [Stand: 02.09.2008]. Gleich, R. (1997), Performance Measurement, in: Die Betriebswirtschaft, Band 57, Heft 1: 115. Jansen, C. (2003), Scorecard für die Wissensmanagement-Performance in heterogenen Unternehmensnetzwerken. Fortschritt-Bericht VDI Reihe: 8, in: Meß-, Steuerungs- und Regelungstechnik, Band Nr. 1024. Jooß, C. / Welter, F. / Richert, A. / Jeschke, S. (2011), Fostering Innovative Ability in Germany – the Role of Interdisciplinary Research Networks, in: Jeschke, S. / Isenhardt, I. / Hees, F. / Trantow, S. (Hrsg.), Enabling Innovation: Innovative Ability – German and International Views. Springer, Berlin / Heidelberg (i. D.). Kaplan, R. S. / Norton, D. P. (1992), The Balanced Scorecard Measures That Drive Performance, in: Harvard Business Review, Jan–Feb: 71–79. Kern, H. (1996), Das vertrackte Problem der Sicherheit. Innovationen im Spannungsfeld zwischen Ressourcenmobilisierung und Risikoaversion, in: Fricke, W. (Hrsg.), Jahrbuch Arbeit und Technik 1996, S. 196–208. 25 Vgl.
Jooß et al. (2011).
Exzellenzcluster „Integrative Produktionstechnik für Hochlohnländer“189
Oertel, R. / Hees, F. (2004), Das Netzwerkkompendium – Theorie und Praxis des Netzwerkmanagements. Ortmann, G. / Sydow, J. / Windeler A. (1997), Organisation als reflexive Strukturation, in: Ortmann, G. / Sydow, J. / Türk, K. (Hrsg.), Theorien der Organisation. 2. Auflage, 1997, S. 315–355. Petzolt, S. / Franssen, M. / Tischer, U. (2004), Ethik in Netzwerken, in: Oertel, R.; Hees, F. (Hrsg.), Das Netzwerk-Kompendium – Theorie und Praxis des Netzwerkmanagements, S. 25–38. RWTH – Rheinisch-Westfälische Technische Hochschule Aachen (2006), Proposal for the Establishment and Funding of the Cluster of Excellence „Integrative Production Technology for High-Wage Countries“. Förderantrag zur Bewilligung clusters „Integrative Produktionstechnologie für Hochlohnländer“ des Exzellenz durch die Deutsche Forschungsgemeinschaft und den Wissenschaftsrat. Sauer, J. (2005), Förderung von Innovationen in heterogenen Forschungsnetzwerken und Evaluation am Beispiel des BMBF-Leitprojektes SENEKA, in: Aachener Reihe Mensch und Technik, Band 55. Schmette, M. / Geiger, E. / Franssen, M. (2003), Phasenmodell für Netzwerke, in: Henning, K. / Isenhardt, I. / Oertel, R. (Hrsg.), Wissen – Innovation – Netzwerke. Wege zur Zukunftsfähigkeit, Berlin: Springer Verlag, S. 65–71. Schuh, G. / Klocke, F. / Brecher, C. / Schmitt, R. (2007), Excellence in Production – Festschrift für Univ.-Prof. Dr.-Ing. Dipl.-Wirt. Ing. Dr. techn. h. c. Dr. oec. h. c. Walter Eversheim, in: Schuh, G. / Klocke, F. / Brecher, C. / Schmitt, R. (Hrsg.), Aachen 2007. Sydow, J. (2006): Netzwerkberatung – Aufgaben, Ansätze, Instrumente, in: Sydow, J. / Manning, S. (Hrsg.), Netzwerke beraten, Wiesbaden 2006, S. 57–84. Welter, F. / Vossen, R. / Richert, A. / Isenhardt, I. (2010), Network Management for Clusters of Excellence: A Balanced-Scorecard Approach as a Performance Measurement Tool, in: The Business Review, Cambridge. Volume 15, Number 1, Summer 2010, pp. 171–178. Windeler, A. (2002), Unternehmungsnetzwerke. Konstitution und Strukturation. Westdeutscher Verlag: Wiesbaden 2002.
Open Innovation als Zukunftsstrategie für kleine und mittelständische Unternehmen Von Thilo Münstermann, Jessica Koch, Raphaela Bruch und Ingrid Isenhardt Große Unternehmen wie IBM und Lego gelten als erfolgreiche Vorreiter in der aktiven Einbindung von Kunden und externen Ressourcen in die Wertschöpfung des Unternehmens. Open Innovation wird als Erfolgsstrategie der Zukunft gefeiert und von der sich verändernden Unternehmensumwelt gefordert. Doch ist längst nicht klar, welche Chancen und Risiken sich daraus für kleine und mittelständische Unternehmen (KMU) ergeben. Eine Betrachtung der Dimensionen Mensch, Organisation und Technik (MOT) zeigt deutlich, dass enorme Veränderungen auf den Ebenen Technik und Mensch stattgefunden haben und noch stattfinden werden, die KMU zu einer Organisations- und Strategieanpassung zwingen. Daher ist es das Ziel dieses Beitrags, typische Merkmale von KMU systematisch nach den MOTEbenen untergliedert aufzuzeigen und erste Hinweise zu geben, wo die Chancen und Risiken dieser Entwicklung liegen können.
A. Wer macht eigentlich Open Innovation? Häufig wird gemutmaßt, dass Open Innovation – das derzeitige Schlagwort im Kontext von moderner Innovationsfähigkeit und neuen Unternehmensstrategien – im Wesentlichen eine Strategie für die großen Konzerne sei. Oder Open Innovation wird mit nutzergenerierten Inhalten à la Wikipedia gleichgesetzt und die Anwendungsmöglichkeiten ausschließlich im Internet gesehen (wie bei Flickr, YouTube, MySpace, Facebook und Co.). Tabscott & Williams (2006) zeigen hingegen eine große Bandbreite von Entwicklungen auf, die mit dem Phänomen Open Innovation zusammenhängen. Sie reichen von Open Source Initiativen über die Beteiligung von Nutzern an Produktentwicklungen bis hin zu kooperierenden Unternehmensnetzwerken mit offen gelegten Standards. IBM beispielsweise geht mit großen Schritten voraus: Bereits vor Jahren hat IBM die Entwicklung eines eigenen Serverbetriebssystems eingestellt und begonnen, jährlich Millionen Dollar in die Weiterentwicklung des freien
192 Thilo Münstermann, Jessica Koch, Raphaela Bruch und Ingrid Isenhardt
Open Source Betriebssystems Linux zu investieren1. Dabei handelt es sich um eine Software, für die IBM nicht die Rechte besitzt und die jedem Mitbewerber zu Verfügung steht. IBM hat erkannt, dass in der heutigen Zeit eine eigene Serversoftware kein Alleinstellungsmerkmal mehr darstellt und eine Beteiligung an einer weltweiten Entwicklergemeinschaft effizienter ist. Darüber hinaus versucht IBM die besten Programmierer weltweit über jährliche Wettbewerbe und große Events zu entdecken und für sich zu gewinnen. Lego war zunächst überrascht, als Ende der 90er Jahre ihre erste Generation der programmierbaren Mindstorms Roboter häufiger von Erwachsenen als von Kindern genutzt wurden, der Quellcode des Betriebssystems innerhalb weniger Wochen geknackt war und im Internet veröffentlicht wurde. Statt sich mit Unterlassungsklagen und vermehrter technischer Absicherung gegen die Entwicklung zu wehren, hat Lego die aktiven Mindstorms-User als Innovationsquelle gesehen. Schließlich übertrafen die von diesen Nutzern umgesetzten Funktionen das von Lego beabsichtigte Potenzial um Längen. Für die nächste Generation der Roboter wurden die kreativsten und besten Nutzer aktiv ins Entwicklungsteam integriert2. Weitere große Namen wie BMW oder Novartis werden häufig für ihre modernen und offenen Innovationsansätze gelobt. Doch im Zusammenhang mit Open Innovation stellen sich die folgenden Fragen: Haben KMU mit einem viel kleineren Nutzerkreis und weniger öffentlicher Aufmerksamkeit die gleichen Chancen? Gibt es für Nischenprodukte oder Einzelteile von Zulieferern auch sog. Lead-User3 und wie können diese identifiziert werden? Ein Blick in die Praxis lässt erkennen, dass auch bei KMU beachtenswerte Erfolgsbeispiele für die aktive Einbeziehung von Nutzern oder Partnern in den Wertschöpfungsprozess existieren: Die Firma Threadless vertreibt T-Shirts und hat dabei fast alle wertschöpfenden und risikobehafteten Tätigkeiten an die Kunden ausgelagert. Über ein Webinterface gestalten die Kunden die T-Shirts selbst, verbessern und bewerten sich gegenseitig. Threadless stellt seinen Usern die Infrastruktur zur Verfügung und übernimmt die tatsächliche Herstellung. „Die Kunden übernehmen die Werbung, stellen die Models und Photographen für die Katalogphotos und werben neue Kunden“4. In Deutschland verfolgt die Firma Spreadshirt das gleiche Geschäftsmodell erfolgreich. 1 Vgl.
Tabscott/Williams (2006). Willhardt (2007). 3 Als Lead-User werden solche Kunden und Nutzer bezeichnet, die Grenzen existierender Produkte ausloten, diese weiterentwickeln und so häufig eigene Prototypen kreieren (vgl. Tapscott / Williams (2006), S. 128). 4 Reichwald / Piller (2008). 2 Vgl.
Zukunftsstrategie für kleine und mittelständische Unternehmen193
Der Automobilzulieferer Webasto stellt Dachsysteme, Standheizungen und Klimaanlagen her und hat damit traditionell wenig Kontakt zu den Endkunden (den Autofahrern). Viel bedeutender ist hingegen der Kontakt zu den Automobilkonzernen. In Zeiten zunehmenden Marktdrucks ging Webasto aktiv auf die Endkunden zu. Das Unternehmen identifizierte Lead-User aus den eingehenden Kundenanfragen und lud diese zu „Innovationswochenenden“ ein. Pro Wochenende konnten im Rahmen von Workshops mehr als 100 neue Ideen entwickelt werden5, von denen Webasto heute profitiert. Darüber hinaus betreiben viele KMU längst unbewusst Open Innovation. Die Beteiligung von KMU in öffentlich geförderten Forschungsprojekten, wie beispielsweise die der Arbeitsgemeinschaft industrieller Forschungsvereinigungen (AiF), stellt eine aktive Einbeziehung von Forschern in die Innovationsprozesse von KMU dar. Davon können die Unternehmen profitieren, müssen sich für die Teilnahme an den Projekten aber immer ein Stück weit öffnen und auch die wissenschaftliche Veröffentlichung von Projekt ergebnisse zulassen. Doch die Erfahrung zeigt, dass diese Form der Wissensoffenlegung vor allem Vorteile für die Unternehmen mit sich bringt. Genauso ist die seit Jahren forcierte Bildung von Clustern seitens Industrie und Politik wie auch der Wissenschaft nichts anderes als eine Aktivität auf dem Weg zu gemeinsamen, kooperativen Innovationsprozessen mehrerer Unternehmen. Open Innovation ist demzufolge gar nicht neu. Piller merkt an, dass „ein Grossteil der funktionalen Neuheiten auf Entwicklungen fortschrittlicher Nutzer zurückgeht. Dies gilt bereits seit den Anfängen der Industrialisierung […]“6. Es stellt sich also die spannende Frage, was genau neu ist und ob wirklich die Notwendigkeit neuer Strategien auf nahezu alle Firmen, insbesondere KMU zukommt. Oder geht es einfach nur um „eine moderne Version des Vorschlagwesens“7, die durch ein paar neue Internettechnologien unterstützt wird? Zur Beantwortung dieser Fragen muss systematisch analysiert werden, wo die tatsächlichen Neuerungen liegen und wie diese mit den typischen Merkmalen von KMU zusammenhängen. Einen ersten Näherungsschritt bietet daher der folgende Abschnitt dieses Beitrags, welcher sich mit der systematischen Betrachtung der drei Dimensionen Mensch, Organisation und Technik beschäftigt.
5 Vgl.
Lohmann / Depner (2010). (2007). 7 Willhardt (2007). 6 Piller
194 Thilo Münstermann, Jessica Koch, Raphaela Bruch und Ingrid Isenhardt
B. Open Innovation unter Berücksichtigung der Ebenen Mensch, Organisation und Technik Das Thema Innovation wird mittlerweile ganzheitlich unter Einbezug der drei wichtigen Ebenen Mensch, Organisation und Technik betrachtet. Bei Open Innovation hingegen liegt der Fokus der derzeitigen Diskussion noch auf der Technik während der Mensch als bedeutender Akteur sowie die hinter dem Innovationsprozess stehende Organisation häufig nur am Rande betrachtet werden. Dabei ist für KMU, insbesondere für die Öffnung ihrer Innovationsprozesse, die ganzheitliche Betrachtung von Mensch, Organisation und Technik von besonderer Bedeutung. Die Veränderungen der jüngeren Vergangenheit im Bereich der Technik liegen auf der Hand und haben die Diskussion um Open Innovation maßgeblich geprägt8. So haben die kontinuierliche Optimierung von Computern sowie die Öffnung des Internets für den privaten Gebrauch (wichtig sind hierbei auch die Zurverfügungstellung von Breitbandanschlüssen und die Einführung von kostengünstigen Flatrates) zu einer vernetzten digitalen Welt geführt, die von der neuen Generation akzeptiert und genutzt wird. Web 2.0 Technologien wie Wikis, Blogs, Tagging oder Content-Management-Systeme haben maßgeblich dazu beigetragen, Nutzer an der Entstehung und Weiterentwicklung von Software- und Internetangeboten zu beteiligen. Kunden oder Nutzer treten folglich nicht mehr nur als Konsumenten auf, sondern gleichzeitig als Produzenten, wofür Toffler bereits Ende der achtziger Jahre den Begriff des Prosumers geprägt hat9. Bekanntestes Beispiel hierfür ist Wikipedia. Die Nutzer dieser Onlineenzyklopädie können sowohl Wissen konsumieren als auch schaffen, indem sie selbst einen Eintrag verfassen und somit ihr Wissen für andere zur Verfügung stellen. Bei genauer Betrachtung lassen sich noch weitere aktuelle Veränderungen in der Dimension Mensch ausmachen. Schon in jungen Jahren ist es für die Menschen heutzutage selbstverständlich, sich in virtuellen Welten zu bewegen und sich schnell auf Neuerungen im Bereich der Technik einzulassen. Diese „neue“ Generation zeichnet sich dadurch aus, dass sie auf digitalem Wege ständig miteinander vernetzt ist und kommuniziert. Des Weiteren spielen Fantasie und spielerisches Lernen eine wichtige Rolle. Wichtigste Eigenschaft im Zusammenhang mit Open Innovation ist jedoch der Drang, sich aktiv an allem, was um sie herum geschieht, zu beteiligen und dies auch umzusetzen sowie das erlangte Wissen zu teilen. Veen10 bezeichnet diese heranwachsen8 Vgl.
Reichwald / Piller (2008); Howe (2006); von Hippel (2005). Toffler (1987). 10 Vgl. Veen (2006). 9 Vgl.
Zukunftsstrategie für kleine und mittelständische Unternehmen195
Abbildung 1: Homo Zappiens vs. Homo Sapiens (Veen, 2006)
de und nun erstmals den Arbeitsmarkt erreichende Generation als „Homo Zappiens“ und konstatiert ihre grundlegend anderen Denk-, Lern- und Verhaltensmuster. Abbildung 1 stellt diese den Eigenschaften des „alten“ Homo Sapiens gegenüber. Bei der Betrachtung der Ebene Mensch wird so schnell deutlich, dass hier ein Wandel stattgefunden hat und weiterhin stattfindet, auf den sich die Unternehmen, insbesondere bei der Öffnung ihrer Innovationsprozesse, einlassen sollten, um Open Innovation für sich erfolgreich einsetzen zu können. Bei der näheren Betrachtung dieser Gegebenheiten kommt die Frage auf, ob mit der neuen Generation von Mitarbeitern „Closed Innovation“ nicht sogar so gut wie unmöglich wird, da diese Art des Innovationsmanagements den grundlegenden Herangehensweisen der neuen Generationen wie etwa dem „Homo Zappiens“ widerspricht. Auf den ebenen Mensch und Technik stehen den Unternehmen folglich nicht nur die externen Ressourcen zur Verfügung, um Open Innovation einsetzen zu können sondern die bereits erfolgten Veränderungen erzeugen Druck, die Ebene Organisation den neuen Gegebenheiten anzupassen (vgl. Abbildung 2). Hier sei noch einmal betont, dass für ein erfolgreiches offenes Innova tionsmanagement alle drei Ebenen von großer Bedeutung sind. Mensch, Organisation und Technik unterliegen aus unternehmenskybernetischer Sicht einer gegenseitigen Abhängigkeit. Wenn in einer der drei Ebenen eine Veränderung oder ein Soll-Ist-Ungleichgewicht vorliegt, hat dies Einfluss auf die beiden übrigen Ebenen. Die Veränderung eines der Elemente bewirkt in der Regel keine grundlegende Entwicklung der Innovationsfähig-
196 Thilo Münstermann, Jessica Koch, Raphaela Bruch und Ingrid Isenhardt
Abbildung 2: Aktuelle Trends in den Dimensionen Mensch, Organisation und Technik
keit. Das Zusammenspiel der drei Ebenen sowie die Rückführungen untereinander sind der Schlüssel zu einer erfolgreichen Innovationsstrategie. Zurzeit fehlen den Unternehmen, insbesondere den KMU, Strategien zur Vorbereitung ihrer Mitarbeiter auf offene Innovationsprozesse sowie für deren Umsetzung. Ein Grund hierfür ist die Ressourcenknappheit der KMU. So fehlt es beispielsweise an Kapital und Arbeitskräften, um sich näher mit Open Innovation zu beschäftigen und eine geeignete Strategie zu entwickeln bzw. die Unternehmensorganisation anzupassen11. Ein weiterer Grund kann sein, dass die Veränderung, die mit einer neuen Generation Mensch, dem Homo Zappiens12, den Unternehmen bevorsteht, von der „Führungskräften der alten Generation“ noch nicht wahrgenommen wird. Dabei ist zu bedenken, dass es gerade für KMU zukünftig zwingend notwendig sein wird, den Open Innovation-Gedanken aufzunehmen und zu vertiefen, um gegenüber anderen Unternehmen wettbewerbsfähig zu bleiben. Der folgende Abschnitt zeigt daher die speziellen Merkmale von KMU auf und leitet daraus erste Ideen für die Einordnung dieser in ihre Stärken, Schwächen, Chancen und Risiken in Bezug auf die Öffnung des Innova tionsprozesses ab.
11 Vgl. Meyer (2006); Mugler (1998); Pichler / Pleitner / Schmidt (2000); Lindermann et al. (2010). 12 An anderen Stellen auch unter den Stichworten Generation N oder Netgeneration angesprochen.
Zukunftsstrategie für kleine und mittelständische Unternehmen197
C. Merkmale kleiner und mittelständischer Unternehmen Angesichts des Gedankens, dass die Verwendung von Open Innovation immer unumgänglicher wird, aber auch nicht zwingend neu für KMU ist, bedarf es einer genauen Betrachtung der Merkmale von KMU. Es können Erkenntnisse erlangt werden, ob z. B. Organisationsstrukturen kompatibel mit der Strategie sind und ob es Möglichkeiten gibt Open Innovation effizient zu nutzen. Um die Potenziale zur Öffnung des Innovationsprozesses zu identifizieren, werden zunächst die wesentlichen Eigenschaften, die ein KMU von einem Großunternehmen abgrenzen, erhoben. Zunächst können zur Abgrenzung verschiedene Definitionen anhand quantitativer Maßstäbe herangezogen werden13. Laut Europäischer Kommission setzt sich die Größenklasse der KMU aus Unternehmen zusammen „[…] die weniger als 250 Personen beschäftigen und die entweder einen Jahresumsatz von höchstens 50 Mio. EUR erzielen oder deren Jahresbilanzsumme sich auf höchsten 43 Mio. EUR beläuft.“ (Europäische Kommission 2006). Mittels quantitativer Kriterien kann eine erste Orientierung zur Differenzierung zwischen KMU und Großunternehmen stattfinden. Die Messung ökonomischer Zahlengrößen ist zwar relativ genau durchführbar, lässt jedoch keinen Einblick in das Wesen und die Eigenschaften von KMU zu. Durch die Identifikation von qualitativen Merkmalen können die charakteristischen Faktoren unter Annahme des M-O-T-Gedankens deutlicher dargestellt werden. Denn gerade die organisatorischen und sozialen Faktoren spielen die entscheidende Rolle für die Ermittlung der Potenziale zur Durchführung von Open Innovation. Die in der Literatur, unter anderem von Pichler / Pleitner / Schmidt (2000), Pfohl (2006), Mugler (1998; 2008), IfM Bonn (2010), Gelshorn / Michallik / Staehle (1991), Siemers (1997), Lindermann et al. (2009) häufig dargelegten qualitativen Merkmale14 werden im Folgenden dargestellt15: Bevor einige Merkmale herausgegriffen und im Hinblick auf das (offene) Innovationsmanagement näher betrachtet werden, sei betont, dass es sich bei den in der Tabelle aufgelisteten Merkmalen um Extremformulierungen handelt, die in der Realität selten so vollständig in einem KMU zusammenkommen. 13 Vgl.
HGB; Europäische Kommission, IfM Bonn, etc. werden jene Faktoren, die keinen Bezug auf das Innovationsmanagement haben. 15 Es muss beachtet werden, dass die aufgeführten Faktoren nicht für alle KMU zutreffen, da z. B. die Unterscheidung nach Branche und Standort nicht einbezogen wird. Des Weiteren können einige Merkmale als Kontingenzfaktoren identifiziert werden. 14 Ausgegrenzt
198 Thilo Münstermann, Jessica Koch, Raphaela Bruch und Ingrid Isenhardt Tabelle 1 Merkmale von KMU Merkmale von KMU Mensch • Unternehmer: In der Person des Unternehmers ist zugleich die Funktion des Eigentümers und Leiters des Unternehmens vereint (Einheit von Eigentum, Leitung, Entscheidung, Risiko und Kontrolle); Unternehmenskultur wird von Unternehmer bestimmt; Innovationsbereitschaft hängt von der Persönlichkeit des Unternehmers ab; Hingabe an Unternehmen; starke emotionale Bindung; patriarchalische Führung; geringe Bedeutung strategischer Planung; mangelnde betriebswirtschaftliche Kenntnis • Mitarbeiter: Mangel an Personal; wenig funktionsspezifische Mitarbeiter hinsichtlich betriebswirtschaftlicher Aufgaben; Fachwissen liegt in einem Bereich; Mitarbeiterzufriedenheit; hohe Motivation; Flexibilität der Mitarbeiter; Netz von persönlichen Kontakten zu Kunden, Lieferanten und relevanter Öffentlichkeit Organisation Hohe Flexibilität bezüglich der Unternehmensorganisation; traditionelle Organisationsformen (Linienorganisation); kaum Aufgabendelegation; geringer Formalisierungsgrad; flache Hierarchie; geringe Arbeitsteilung; enger und informeller Kontakt zwischen der Unternehmensleitung und den Mitarbeitern; kurze und überschaubare Informationswege; hohe Partizipation und wechselseitige Abstimmung der Mitarbeiter (Sozialcharakter des Unternehmens) Technik Knappe Ressourcenausstattung; keine dauerhafte institutionalisierte F&E-Abteilung; intuitiv ausgerichtete F&E; wenig Verwendung von Web 2.0; beschränkter Einsatz von Informations- und Kommunikationstechnologie (IKT) Sonstige • Leistung: Individuelle, differenzierte Erbringung; keine Ausnutzung von „economies of scale“ (keine Massenproduktion) • Situation: Zeitmangel; schwieriger Zugang zu Kapital; meist nur regionale Tätigkeit; Abhängigkeit von größeren Firmen, die meist als Abnehmer fungieren; schwieriger Schutz von „intellectual property“; geringer Markteinfluss; Unternehmen wird stark von unsicheren externen Einflüssen tangiert; • Innovation: Überproportionale Belastung durch Fixkosten der Innovationen; relativ kurzer Zeitraum zwischen Erfindung und wirtschaftlicher Nutzung; geringe Diversifikation des Risikos; interne Innovationsfinanzierung
Zukunftsstrategie für kleine und mittelständische Unternehmen199
Die individuelle, differenzierte Leistungserbringung sowie der enge persönliche Kontakt zu den Kunden geben bereits erste Hinweise, dass Open Innovation in einigen KMU (häufig unbewusst) vollzogen wird. Der Mangel an Ressourcen, insbesondere an Kapital, zwingt die Unternehmen in vielen Fällen zur Kooperation mit externen Wissensträgern. Da in KMU vorherrschend kurzfristig-intuitiv angelegte F&E Abteilungen vorhanden sind, prädestiniert dies KMU für die Integration eines offenen und kooperativen Innovationsprozesses16. Die Nutzung von externen Wissenspotenzialen, in Form von Technologie- und Wissenstransfer bedeutet für KMU eine Möglichkeit, dem Nachteil der knappen Ressourcen bezüglich Personal und Kapital entgegenzuwirken17. Das Wissen kann nicht nur zur Identifikation von Bedürfnis- und Lösungsinformationen und zur Erweiterung der eigenen F&E genutzt werden, sondern auch um die marktbezogenen und technologischen Unsicherheiten zu erkennen. Jedoch steht dem gegenüber, dass Techniken des Wissenserwerbs, wie Informations- und Kommunikationstechnologien häufig lediglich zur Unterstützung des Tagesgeschäfts genutzt werden18. Dem Menschen innerhalb des Unternehmens wird eine besondere Bedeutung beigemessen. Die zentrale Stellung des Unternehmers kann sich sowohl positiv als auch negativ auf das Potenzial von Open Innovation in KMU auswirken. Auf der einen Seite zeichnet sich die Einheit von Eigentum, Entscheidung, Leitung und Kontrolle bei gleichzeitigen kurzen Informations wegen, durch eine schnelle Reaktionsfähigkeit bezüglich Umweltveränderungen und einer potenziellen Flexibilität in der Unternehmensorganisation aus19. Auf der anderen Seite wirkt sich die alleinige Entscheidungsbefugnis bei fehlerhaften Beschlüssen, beispielsweise bezüglich einer Abwehrhaltung gegen externes Wissen (NIH20-Syndrom) oder falscher Innovationausrichtung, auf den gesamten Erfolg des Unternehmens aus21. Weiterhin steht die mit der Nutzung von Web 2.0 verbundene Selbstorganisation im Widerspruch zu dem vorherrschenden patriarchalem Führungsstil des Unternehmers und der daraus folgenden mangelnden Partizipation der Mitarbeiter22. Die Implementierung einer Open Innovation-Strategie bedeutet gerade für traditionell geführte Unternehmen einen erheblichen Wandel. So muss der 16 Vgl.
Gassmann / Enkel (2005). Meyer, 2006; Mugler (1998); Pichler / Pleitner / Schmidt (2000); Lindermann et al. (2010). 18 Lindermann et al. (2009). 19 Vgl. Daschmann (1994). 20 NIH = Not Invented Here. 21 Vgl. Meyer (2006). 22 Vgl. Lindermann et al. (2009). 17 Vgl.
200 Thilo Münstermann, Jessica Koch, Raphaela Bruch und Ingrid Isenhardt
Unternehmer, welcher womöglich Jahre erfolgreich mit einer internen Produktentwicklung war, bereit sein, das externe Wissen anzunehmen. Er muss sich dem Wandel des Menschen außerhalb seiner Unternehmensgrenzen bewusst werden, sowie den Glauben ablegen, dass neue Technologien, wie Web 2.0 keinen zukünftigen Einfluss auf ihr Unternehmen haben werden23. Weiterhin sollte der Unternehmer einen gewissen Mut zum Risiko haben, um eine Open Innovation-Strategie zu implementieren. Nicht nur aufgrund der mangelnden Risikodiversifikation, sondern auch aufgrund des schwierigen Schutzes von „interlectual property“, kann sich Angst vor der Öffnung des Innovationsprozesses beim Unternehmer verbreiten24. Dennoch muss dieses Risiko gegenüber dem Risiko der Diskontinuitäten in Technologie und Bedürfnissen und dem daraus folgenden Versäumnis abgewogen werden. Voraussetzung hierfür ist, dass KMU explizit definieren müssen, wo sie sich öffnen können und wo es weiterhin gilt, Wissen zu bewahren, um Alleinstellungsmerkmale zu erhalten. Ein weiterer Faktor auf der menschlichen Ebene ist das Wissenspotenzial. Der zentrale Unternehmer gründet oder agiert mit seinem Unternehmen häufig in dem Fachgebiet, in welchem er seine Ausbildung genossen hat. Auch das Wissen der Mitarbeiter liegt vorwiegend in einem speziellen Bereich. Dies impliziert, dass in KMU meist ein ausreichendes Potenzial an Wissen zur Erfindung neuer Technologien vorliegt. Doch mangelt es KMU aufgrund der starken Technikorientierung an Kapazitäten in Bezug auf Herstellungsverfahren, Marketing und Strategie, um eine Innovation effizient in den Markt einzuführen25. Dies wirft einen neuen Aspekt der Open Innovation-Strategie auf. KMU haben scheinbar das Potenzial im F&E Bereich und arbeiten auch in vielen Fällen bereits mit Kunden zusammen, jedoch fehlt es an einer Zusammenarbeit in der Kommerzialisierungsphase26. Der Organisation wird bei Innovationsprojekten ebenfalls eine besondere Aufmerksamkeit gewidmet, da sie eine entscheidende Kraft für die Innovationstätigkeit von Unternehmen repräsentiert27. Aufgrund der offenen und persönlichen Kommunikation innerhalb der KMU kann der Aufwand des Abstimmungsbedarfes zwischen den verschiedenen Bereichen des Unternehmens reduziert und effizienter gestaltet werden28. Durch die Flexibilität der Organisation können die durch die Implementierung einer Open InnovationStrategie hervorgerufenen strukturellen Veränderungen des Unternehmens 23 Vgl. 24 Vgl. 25 Vgl. 26 Vgl. 27 Vgl. 28 Vgl.
Lindermann et al. (2009). Rothwell / Dodgson (1991); Gassmann / Widenmeyer (2010). Lee (2010); Noteboom (1994). Lee (2010). Siemers (1997). Mugler (1998).
Zukunftsstrategie für kleine und mittelständische Unternehmen201
mit geringen Kosten bewältigt werden. Im Hinblick auf die Verwendung und Integration von externem Wissen wird ein gut organisierter Innova tionsprozess meist unumgänglich29. „Mit dem Einsatz von Web 2.0 stehen Unternehmen vor einem fundamentalen Wandel in Richtung selbstorganisatorischer und partizipativer Strukturen“30. Faktoren, wie der Mangel an Zeit, verlangen, dass bei der Suche mit modernen Kommunikationsmitteln eine strukturierte Vorgehensweise angewandt wird. Es muss eine Balance zwischen Innovation und täglichen Aufgaben gefunden werden31. So impliziert dies auch wiederum einen Wandel auf der menschlichen Ebene. Mitarbeiter müssen in Richtung der neuen Informationssuche ausgebildet werden. Es sind zunehmend neue Rollen mit speziellen Aufgabenbereichen für Open Innovation zu vergeben. Eine Kernaufgabe für die Mitarbeiter liegt darin, die Kooperationspartner zu erkennen, effizient das Angebot externen Wissens zu nutzen und wichtiges Wissen von belanglosem zu separieren32. Demzufolge steht dem Mangel an Personal und Zeit die Anforderung, neue Aufgaben neben den operativen Tätigkeiten zu bewältigen, gegenüber.
D. Zusammenfassung und Ausblick Beispiele wie Threadless und Webasto zeigen, dass bereits einige KMU durch die Implementierung einer Open Innovation-Strategie einen erheb lichen Wettbewerbsvorteil erlangen. Um eine Open Innovation-Strategie einzuführen, müssen sich KMU über den Wandel innerhalb der Dimensionen Mensch, Organisation und Technik bewusst werden und ihre Potenziale identifizieren, erfolgreich auf den Wandel reagieren zu können. Der M-O-T Ansatz verdeutlicht, dass den Entwicklungen in den Dimensionen Mensch und Technik und dem Zusammenspiel der drei Faktoren eine hohe Aufmerksamkeit gewidmet werden muss. Es ist unumgänglich, dass moderne Technik neue Möglichkeiten der Zusammenarbeit über Unternehmensgrenzen hinweg ermöglicht und dass eine Generation auf den Arbeitsmarkt drängt, die in Bezug auf Kommunikation, Kooperation und Informationsverarbeitung neue Wege beschreitet. Die Merkmale von KMU geben insbesondere Hinweise auf interne Stärken und Schwächen zur erfolgreichen Durchführung einer Open InnovationStrategie. Die wichtigsten sind hier noch einmal zusammengefasst: Die Separierung von wichtigem und unwichtigem Wissen sowie zu teilendem und zu „versteckendem“ Wissen muss als Aufgabe erkannt und in der Un29 Van
de Vrande et al. (2009). et al. (2009). 31 Van de Vrande et al. (2009). 32 Gassmann / Widenmayer (2010). 30 Lindermann
202 Thilo Münstermann, Jessica Koch, Raphaela Bruch und Ingrid Isenhardt
ternehmensstruktur als neue Kernaufgabe abgebildet werden. In der Umsetzung von Innovationen sind KMU aufgrund ihrer spezifischen Struktur und Kultur häufig schneller und kostengünstiger. KMU sollten ihre Netzwerke (Kunden und wissenschaftliche Partner) in der Kommerzialisierungsphase besser nutzen. Daher wird das Institut für Unternehmenskybernetik in Zusammenarbeit mit dem Lehrstuhl für Technologie- und Innovationsmanagement der RWTH Aachen University im Rahmen des AiF-Forschungsprojekts „Invoice“ auf Basis der zuvor aufgeführten Merkmale eine SWOT-Analyse durchführen, welche die Unternehmenssituation in Bezug auf Open Innovation auf anschauliche Weise darlegt. Mittels der SWOT-Analyse können die potenziellen Treiber einer Open Innovation-Strategie erfasst und die zuvor angeschnittenen potenziellen Chancen und Risiken weiter ausgeführt werden. Literaturverzeichnis Daschmann, Hans-Achim (1994), Erfolgsfaktoren mittelständischer Unternehmen – ein Beitrag zur Erfolgsfaktorenforschung, Schäffer-Poeschel Verlag, Stuttgart 1994. Europäische Kommission (2006), Die neue KMU Definition- Benutzerhandbuch und Begriffserklärung, Europäische Gemeinschaften 2006. Gassmann, Oliver / Enkel, Ellen (2005), Open Innovation Forschung – Forschungsfragen und erste Erkenntnisse, in: Weissenberger-Eibl, Marion (Hrsg.): Gestaltung von Innovationssystemen, Cactus Group Verlag, Kassel 2005. Gassmann, Oliver / Widenmeyer, Bastian (2010), Open Innovation: Vom Schlagwort zum praktischen Tool, in: Technische Rundschau, Nr. 2, 2010, S. 56–57. Gelshorn, Thomas / Michallik, Stefan / Staehle, Wolfgang H. (1991), Die Innovationsorientierung mittelständiger Unternehmen, in: Brockhoff, Klaus / Domsch, Michael (Hrsg.): Management von Forschung, Entwicklung und Innovation, Band 8, C. E. Poeschel Verlag, Stuttgart 1991. Hippel, E. von (2005), Democratizing Innovation, Cambridge. Howe, J. (2006), The Rise of Crowdsourcing, Wired No. 14. Juni 2006. Lee, Sungjoo / Park, Gwangman / Yoon, Byungun / Park, Jinwoo (2010), Open innovation in SMEs-An intermediated network model, in: Research Policy, Nr. 39, 2010, 290–300. Lindermann, Nadine / Valcárel, Sylvia / Abram, Isabelle / Blinn, Nadine / Fäcks, Katrin / Jung, Rüdiger / Kortzfleisch, Harald F. O. von / Nüttgens, Markus (2009), Netzwerken 2.0 in KMUs – Kleine und mittlere Unternehmen im Zentrum Web 2.0 basierter Kooperation, Arbeitsbericht aus dem Projekt KMU 2.0, Nr. 1 / 2009.
Zukunftsstrategie für kleine und mittelständische Unternehmen203
Lindermann, Nadine / Valcárel, Sylvia / Kortzfleisch, Harald F. O. von (2010), Ein Stufenmodell für kollaborative offene Innovationsprozesse in Netzwerken kleiner und mittlerer Unternehmen mit Web 2.0, Arbeitsbericht aus dem Projekt KMU 2.0, Nr. 3 / 2010. Lohmann, Carsten / Depner, Heiner (2010), Open Innovation – Kundenwissen für / / www.rkw-kompetenzzentrum. neue Produkte nutzen. Im Internet unter http: de / publikationen [zuletzt abgerufen: 29.06.2010]. Meyer, Jörn-Axel (2006), Innovationsmanagement, in: Pfohl, Hans-Christian (Hrsg.): Betriebswirtschaftslehre der Mittel- und Kleinbetriebe – Größenspezifische Probleme und Möglichkeiten zu ihrer Lösung, 4. völlig neu bearbeitete Auflage, Erich Schmidt Verlag, Berlin 2006. Mugler, Josef (1998), Betriebswirtschaftslehre der Klein- und Mittelbetriebe, Band 1, 3. überarbeitete Auflage, Springer-Verlag, Wien 1998. – (2008), Grundlagen der BWL der Klein- und Mittelbetriebe, 2. überarbeitete erweiterte Auflage, Facultas Verlag, Wien 2008. Noteboom, Bart (1994), Innovation and Diffusion in Small firms- Theory and Evidence, in: Small Business Economics, Vol. 6, 1994, S. 327–347. Pfohl, Hans-Christian (2006), Abgrenzung der Klein- und Mittelbetriebe von Großbetrieben, in: Pfohl, Hans-Christian (Hrsg.): Betriebswirtschaftslehre der Mittelund Kleinbetriebe-Größenspezifische Probleme und Möglichkeiten zu ihrer Lösung, 4. völlig neu bearbeitete Auflage, Erich Schmidt Verlag, Berlin 2006. Pichler, J. Hanns / Pleitner, Hans Jobst / Schmidt, Karl-Heinz (2000), Management in KMU-Die Führung von Klein-und Mittelunternehmen, 3. Auflage, Verlag Haupt, Bern / Stuttgart / Wien 2000. Piller, Frank (2007), Jeder Mensch hat ein paar Produkte, um die er sich besonders kümmert. GDI Impuls, Wissensmagazin für Wirtschaft, Gesellschaft, Handel. Herbst 2007, S. 82–83. Reichwald, Ralf / Piller, Frank (2008), Interaktive Wertschöpfung: Open Innovation, Individualisierung und neue Formen der Arbeitsteilung. 2. Auflage. Gabler, Wiesbaden. Rothwell, Roy / Dodgson, Mark (1991), External linkages and innovation in small and medium-sized enterprises, in: R&D Management, Vol. 21, Nr. 2, 1991, S. 125–137. Siemers, Sven H. A. (1997), Innovationsprozeß im Mittelstand – Teamorientierte Arbeitsformen zur Förderung von Innovationen, Gabler Verlag, Wiesbaden 1997. Tapscott, Don / Williams, Anthony D. (2006), Wikinomics – How Mass Collaboration Changes Everything. Penguin Books, London. – (2007), Innovation wird zu einer offenen und kollektiven Anstrengung, in: GDI Impuls, Wissensmagazin für Wirtschaft, Gesellschaft, Handel. Herbst 2007, S. 66–73. Toffler, A. (1987), Die dritte Welle: Zukunftschancen – Perspektiven für die Gesellschaft des 21. Jahrhunderts, 1. Aufl., München 1987.
204 Thilo Münstermann, Jessica Koch, Raphaela Bruch und Ingrid Isenhardt Van de Vrande, Vareska / de Jong, Jeroen / Vanhaverbeke, Wim / de Rochemont, Maurice (2009), Open innovation in SMEs – Trends, motives and management challenges, in: Technovation, Vol. 29, Nr. 6–7, 2009, S. 423–437. Veen, Wim (2006), Homo Zappiens: Growing Up in a Digital Age, Network Educ Pr Ltd, 2006. Willhardt, Rahel (2007), Open Innovation ist auf dem Weg zu einem Marken-Muss, in: GDI Impuls, Wissensmagazin für Wirtschaft, Gesellschaft, Handel. Herbst 2007, S. 74–81.
Innovationen in Ideen-Netzwerken Von Christian Mieke
A. Einführung Unternehmen lagern vielfach nicht wertschöpfende Unternehmensbereiche aus. Dies soll primär zur Kostenvariabilisierung oder gar -senkung führen. Eintretende Sekundäreffekte wie Beschneidung des Innovationspotenzials werden oftmals nicht hinreichend berücksichtigt. Dies stellt gerade im Bereich der Gestaltung des technologischen Produktionspotenzials ein Problem dar. Ideen-Netzwerke bilden eine organisatorische Variante der Nutzung von unternehmensexternem Wissen zur Ingangsetzung technologischer Verbesserungen bei den Betriebsmitteln.
B. Innovationsbereiche Viele Unternehmen definierten und implementierten ein Innovationsmanagement zur Förderung ihrer Innovationsaktivitäten. Innovationsmanagement umfasst dabei die strategisch ausgerichtete Planung und Organisation sowie die operativ angelegte Steuerung und Kontrolle von Innovationsprozessen in Unternehmen1, mit dem Ziel der Generierung nachhaltiger Wettbewerbsvorteile. Dabei sollten Produkt-, Prozess- und soziale Innovationen Berücksichtigung finden2. Viele Unternehmen konzentrieren ihre Innova tionsprozesse einseitig auf Produktinnovation. Untersuchungen zeigen jedoch, dass fertigungstechnologische Innovationen und Prozessinnovationen nachhaltigere Differenzierungswirkungen als Produktneuerungen entfalten3. Es stellt sich die Frage, wer fertigungstechnologische Innovationen hervorbringen kann. F&E-Abteilungen generieren Produktinnovationen. Produktionsbereiche besitzen lediglich Anwenderkenntnisse der technischen Anlagen. Nicht wertschöpfende Unternehmensfunktionen wie die Instandhaltung haben tiefgreifende Kenntnisse bezüglich der inneren Struktur der technische Artefakte. Diese Kenntnisse resultieren aus der Ausübung der 1 Vgl.
Pleschak / Sabisch (1996), S. 44. Corsten / Gössinger / Schneider (2006), S. 14. 3 Vgl. Winz / Quint (1997), S. 12 und Kuhn / Hellingrath (2002), S. 90. 2 Vgl.
206
Christian Mieke
instandhaltungsspezifischen Tätigkeiten, insbesondere der Maßnahmen zur Erhaltung und Wiederherstellung der Funktionstüchtigkeit von Betriebsmitteln4. Die innovationsorientierte Modifikation von Betriebsmitteln, welche produktionswirtschaftliche Zielsetzungen adressiert, wie die Erhöhung des Durchsatzes im Betrieb der Anlage, die Verringerung der Handhabungskomplexität im Umgang mit dem Betriebsmittel und einer einhergehenden Senkung der Prozesskosten, ist bislang nicht Gegenstand von Instandhaltungsaktivitäten. Dieser Mangel spitzt sich weiter zu, wenn auf Grund von OutsourcingMaßnahmen5 kein interner Instandhaltungsbereich existiert. Denn externe Instandhaltungsdienstleister verfolgen eigene Interessen, die nicht produk tionswirtschaftliche Verbesserungen beim Auftraggeber sondern Erfüllung der in Verträgen niedergelegten Instandhaltungsaufgaben vorsehen, unter der Randbedingung ihr künftiges Auftragspotenzial nicht zu beschneiden. Es ist in diesem Falle davon auszugehen, dass im Unternehmen keine Kompetenzen zur Modifikation und innovativen Veränderung technischer Bestandteile eines Produktionsmittels mit dem Ziel der Verbesserung produktionswirtschaftlicher Zielgrößen vorliegen. Wird vom Re-Insourcing der ausgelagerten Bereiche6 abgesehen, stellen Ideennetzwerke eine Organisationsform dar, die es ermöglicht unternehmensexternes Know-how für interne Innovationsvorgänge zu nutzen.
C. Netzwerkformen im Innovationsbereich Kooperative Ansätze im Innovationsbereich finden sich in verschiedenen Feldern. Insbesondere im Bereich der Produktinnovationen existieren zahlreiche Beispiele7. In jüngerer Vergangenheit werden insbesondere die Erscheinungsformen Living Labs und Open Innovation als weit reichende Formen der Integration externer Akteure in Innovationsprozesse diskutiert8. Produktbezogene Innovationsnetzwerke bündeln in der Regel Akteure mit unterschiedlichen Kernkompetenzen, um ein gemeinsames Innovationsziel zu erreichen. Die Partner sind insbesondere im Falle der gemeinsamen Erstellung komplexer Leistungen formell häufig gleichberechtigt. Innerhalb des Netzwerkes bestehen vielfältige Verbindungen zwischen den Akteuren. Für produktionstechnologisch orientierte, auf taktische Innovationen zielen4 Vgl.
Hoitsch (1993), S. 102. Bloß (1995), S. 133; Homann / Kalaitzis (2004), S. 115. 6 Vgl. dazu Specht / Mieke (2005), S. 413. 7 Vgl. Staiger / Dilk (2008), S. 62 f. und Kinkel / Som (2007), S. 575 ff. 8 Vgl. etwa Gassmann / Enkel (2006), S. 132 ff.; Reichwald / Piller (2006), S. 95 ff.; Walcher (2007). 5 Vgl.
Innovationen in Ideen-Netzwerken207
de Ideennetzwerke empfiehlt sich eine andere Netzwerkstruktur. Hier wird ein starker Partner, ein fokales Unternehmen, im Zentrum des Netzwerkes stehen. Er ist als Anlageneigner und -nutzer der Bedarfsträger und vielfach auch Initiator der Kooperation. An ihn binden sich die einzelnen etwa auf bestimmte Betriebsmittel spezialisierten Dienstleister. Die Struktur dürfte deshalb eher sternförmig ausfallen. Weisen Innovationsobjekte – hier technische Anlagen – eine enge technische oder funktionelle Kopplung auf oder nutzen verschiedene Dienstleister sehr unterschiedliche Vorgehensweisen im Innovationsprozess, ist es für den Auftraggeber rational, den Vernetzungsgrad der anderen Partner untereinander zu erhöhen, beispielsweise um Lernprozesse bei weniger effektiv oder effizient agierenden Dienstleistern zu initiieren. Derartige Lernprozesse können als institutionalisierter, gewünschter, eventuell vergüteter Wissens transferprozess in Gang gebracht werden. Der Auftraggeber hätte ohne weiteres Zutun eine Arena des Lernens für einzelne Partner geschaffen und profitiert ohne zusätzliche Kosten von diesen Professionalisierungseffekten der Partner.
D. Partnerwahl Die Wahl der Partner beeinflusst wesentlich Qualität und Quantität produktionstechnologischer Innovationen. Die Auswahl konkreter Partner orientiert sich an deren Fähigkeiten und deren Kompatibilität mit dem Auftraggeber und dessen Betriebsmittelbestand. Die Beurteilung der Dienstleister kann nicht an Hand weniger und leicht quantifizierbarer Kriterien erfolgen. Wäre lediglich eine genau spezifizierte Leistung zu beschaffen, würde der Einsatz von Bewertungsansätzen und Kriterienlisten aus dem Beschaffungswesen9 die Auswahlentscheidung unterstützen. Meist werden in diesem Bereich Preise, terminliche Zusagen und Kapazitäten zur Erbringung der Leistungen verglichen. Gelegentlich werden Referenzen in die Entscheidung einbezogen. Im Falle des produktionstechnologischen Innovationswesens werden Partner zur Erbringung von Leistungen gesucht, die a priori durch den Auftraggeber in Ermangelung von etwaigen Daten sowie insbesondere fehlendem betriebsmittelbezogenen technologischen Wissen nicht beschreibbar sind, sondern im Wesentlichen später durch den Auftragnehmer selbst zu definieren sein werden. Ferner ist das Innovieren in Bezug auf produktionswirtschaftliche Zielgrößen etwa Erhöhung der Produktivität des Produktionssystems als Aufgabe bei Dienstleistern im Instandhaltungssegment nicht etabliert. Diese beiden Charakteristika erschweren die Selektionsentscheidung für Auftraggeber. Erleichternd wirkt gegebenenfalls, dass Koope9 Vgl.
Arnold (1997), S. 75 ff.
208
Christian Mieke
Abbildung 1: Grobablauf Innovations- / Kooperations-Audit
rationen in neuen Feldern in der Unternehmenspraxis zu 70 % aus bestehenden Geschäfts- oder persönlichen Beziehungen hervorgehen10. Dies ist möglicherweise auf das vorhandene transaktive Wissen – also die Kenntnis über Strukturen, Fähigkeiten, Verhalten des Partners – zurückzuführen, welches Kooperationen in ihrer Effizienz beeinflusst11. Die Kooperationspartner müssen dennoch einer Bewertung der Innovationsfähigkeit und -bereitschaft unterzogen werden. Als methodisches Hilfsmittel wird das Innovations- und Kooperations-Audit vorgeschlagen12. Der Grobablauf ist in Abbildung 1 dargestellt. In einem ersten Schritt ist der Bedarf für externe Unterstützung im Bereich produktionstechnologischer Innovationen zu ermitteln13. Dabei werden interne Innovationserfordernisse etwa aus PLAN / IST-Abweichungen produktionswirtschaftlicher Zielgrößen sowie die interne Innovationsfähigkeit aus kompetenz- und kapazitätsorientierter Perspektive zu berücksichtigen 10 Vgl.
Lehmann / Scarpelli / Schnidrig (2006), S. 13. Busch (2008), S. 68, 71. 12 Vgl. Mieke (2009), S. 152 ff. 13 Zu Nachteilen externer Partner vgl. etwa Dombrowski / Quack (2007), S. 568. 11 Vgl.
Innovationen in Ideen-Netzwerken209
Abbildung 2: Kriterien innerhalb des Innovations- / Kooperations-Audits
sein. Ferner sind aus internen und externen Daten Dienstleister zu extrahieren, die etwa auf Grund ihrer fachlichen Ausrichtung als potenzielle Innovationspartner eingestuft werden können. Im eigentlichen Auditierungsvorgang werden zuerst der ermittelte Unterstützungsbedarf sowie die Gesamtheit der vorselektierten potenziellen Innovationspartner abgeglichen. Dann wird die Auditierung als Bewertungsverfahren durchgeführt. Das Audit bewertet multikriteriell die Eignung der Dienstleister. Es kann insbesondere hinsichtlich Bewertungskriterien und Ausgestaltung des Vorgehens angepasst werden. Die Abbildung 2 listet einige Kriterien auf. Die inhaltlichen Kriterien zielen primär auf eine Prüfung ab, ob der Dienstleister fachlich in der Lage ist, Innovationen zu generieren. Kann er beispielsweise nicht auf Daten zu Betriebsmitteln zugreifen oder Analyseund Bewertungsinstrumente anwenden, wird er keine Schwachstellen im Betriebsmittelbestand aufdecken können und somit auch keine Innovationsschwerpunkte und -objekte bestimmen können. Die prozessualen Kriterien adressieren das kapazitätsseitige Vermögen und die Bereitschaft zur Abwicklung von Innovationsprojekten. Die technische Infrastruktur des Dienstleisters muss dazu geeignet sein, etwaige Innovationsideen zu kreieren, zu gestalten, zu testen und implementierungsreif auszuarbeiten. Dazu werden etwa leistungsfähige Rechner mit dazugehörigen Konstruktions- und Simulationswerkzeugen sowie Versuchs- und Teststände benötigt.
210
Christian Mieke
Abbildung 3: Detaillierung Ebene 1 – Auditdurchführung
Die Ermittlung der Erfüllungsgrade für die verschiedenen Kriterien dürfte in Abhängigkeit der potenziellen Partnerunternehmen sowie der Krite rienart variieren. Abbildung 3 zeigt zwei wesentliche Handlungsstränge. Einige Aspekte lassen sich sehr effizient als schriftliche Abfrage erfassen. Dazu zählen etwa die Verfügbarkeit von Softwarepaketen oder Test- und Versuchsständen. Andere vornehmlich weiche Faktoren wie Analyse-, Innovations- und Projektmanagementfähigkeiten sind durch Abfrage nicht erfassbar. Zur Prüfung dieser Kriterien erscheinen „Vor-Ort-Audits“ als geeignetes Vorgehen. Der Zuschnitt der Begutachtung wird in Abhängigkeit der Kriteriengewichtung des künftigen Auftraggebers variieren. Die Gesamtbewertung der Dienstleister dient als Eingangsgröße für den Entscheidungsprozess, welche externen Akteure als Partner in das Innova tionswesen eingebunden werden sollen. Neben der innovationsorientierten Eignung findet ein Abgleich der Passfähigkeit der organisatorischen und kulturellen Ausrichtung der Dienstleister und des beauftragenden Unternehmens statt. In Abhängigkeit der inhaltlichen Ausrichtung sowie der verfügbaren Fähigkeiten der Partner sind weitere spezifische Kompetenzen zu entwickeln. Welche Kompetenzen, bei welchen Dienstleistern, in welchem Ausmaße zu fördern sind und wann diese verfügbar sein sollen, ist Aufgabe einer im Ideennetzwerk abgestimmten Kompetenzplanung.
Innovationen in Ideen-Netzwerken211
E. Kompetenzplanung Für die Kompetenzplanung muss ein systematisches Vorgehen gewährleistet werden, welches die benötigten Kompetenzen erfasst, ordnet und derartig transparent darstellt, dass eine fristgerechte Realisierung der Planungen gefördert wird14. In Abbildung 4 wird ein auf diese Anforderungen ausgerichtetes Vorgehen aufgezeigt.
Abbildung 4: Kompetenzplanungsprozess für Ideennetzwerke
Eine Analyse der vorhandenen Betriebsmittel zeigt eine Abgrenzung der zu beherrschenden Technologiefelder. Die Innovationsziele geben Aufschluss über das Änderungsausmaß und die dazu notwendigen Fähigkeiten. Die Struktur der notwendigen Kompetenzen und ihre Verteilung unter den Partnern im Ideennetzwerk kann durch die Verwendung von Klassendiagrammen – siehe Abbildung 5 – sehr anschaulich gezeigt werden. Durch das Kompetenzklassendiagramm wurden die zu schaffenden Kompetenzen einzelnen Partnern zugewiesen. Die nächste Planungsstufe muss festlegen, in welchem Umfang der Kompetenzaufbau zu erfolgen hat. Dieser Bewertungs- und Entscheidungsvorgang kann durch die Dimensionen Kompetenzstärke und -wert umfassende Kompetenzportfolios Unterstützung erfahren. Das Kompetenz-Roadmapping ist eine Methode, welche die Kompetenzplanung insbesondere bezüglich ihrer zeitlichen Konzeption unterstützt. Kompetenz-Roadmaps stellen die geplante Entwicklung der Gesamtheit oder ausgewählter Teile der organisationalen Kompetenzen und deren Abhängigkeiten untereinander dar15. In den Roadmaps werden die Zeitpunkte der Verfügbarkeit eines Objektes visualisiert. Die zeitliche Einordnung der Kompetenzverfügbarkeit in der Kompetenz-Roadmap bedingt demnach, 14 Zu Schwierigkeiten bei reaktiven, nicht aktiv gesteuerten und nicht auf Innovationsvorhaben ausgerichteten Maßnahmen vgl. Zülch / Rottinger (2004), S. 59. 15 Vgl. Specht / Mieke (2004), S. 53.
212
Christian Mieke
Abbildung 5: Kompetenzklassendiagramm
dass Innovationsziele so spezifiziert werden, dass ein Startzeitpunkt der Projektbearbeitung ableitbar ist, zu welchem die Kompetenzen verfügbar sein müssen.
F. Erfolgsermittlung / -zurechnung Die Erfolgsmessung der Innovationsaktivitäten ist für alle Akteure im Ideennetzwerk – sowohl für den Auftraggeber als auch für die Auftragnehmer – von hoher Bedeutung16. Der Auftraggeber erhält durch die Kenntnis von Art und Höhe der innovationsbasierten Effekte die Möglichkeit, die Sinnhaftigkeit des Modells „Innovationen durch externe Akteure“ zu bewerten, die Leistungsfähigkeit einzelner Dienstleister einzuschätzen sowie maßnahmenbezogen ZIEL / IST-Vergleiche vorzunehmen. Die Informationen helfen dem Auftraggeber bei der Ausgestaltung der Kooperation hinsichtlich 16 Ein entsprechendes Reporting ist vielfach nicht implementiert vgl. Weimer / Seuring (2008), S. 28 f.
Innovationen in Ideen-Netzwerken213
Abbildung 6: Möglichkeiten der Ansiedlung der Erfolgsmessung
der Partnerwahl, des Setzens von Anreizen, der Ausgestaltung der Kompetenzplanung und Lieferantenförderung / -entwicklung sowie je nach Vergütungsmodell bei der Festlegung der Entgelthöhe. Der Auftragnehmer kann durch die Erfolgsmessung bestimmen, ob die gewählte Organisationsform für die Innovationsprozesse systemadäquat ist, ob die erhaltene Vergütung dem erzielten Ergebnis entspricht und ob die Verhandlung anderer Kondi tionen mit dem Auftraggeber Erfolg versprechend erscheint17. Diese Nutzenpotenziale sind nur aktivierbar, wenn die Erfolgsmessung mittels geeigneter Messgrößen, mit korrekter Periodenzuordnung und entsprechender Wirkungsabschätzung erfolgt. In der Kooperation kommt darüber hinaus der Thematik der organisationalen Ansiedlung der Erfolgsmessung sowie dem Umfang der Informationsweitergabe erhebliche Bedeutung zu. Die Charakteristika der sich aus der Kombination der beiden genannten Dimensionen ergebenen Möglichkeiten zur Ausführung der Erfolgsmessung zeigt Abbildung 6. Die Erfolgsmessung und insbesondere -zuordnung soll Nutzeffekt und Urheberschaft der Innovation zeigen. Dies ist schwer ermittelbar, wenn Ansätze gemeinsam entwickelt oder bei der Klärung von Anforderungen erste Ideen ausgetauscht werden. So könnte der Auftraggeber der Meinung sein, dass die ursächliche Idee für eine Innovation gar nicht vom Dienstleister stammt, sondern im gemeinsamen Austausch kooperativ entwickelt wurde beziehungsweise sogar durch ihn selbst beigestellt wurde. Dies wür17 Vgl.
erste Ansätze zu Messsystemen etwa Lange / Schneider (2007), S. 831, 833.
214
Christian Mieke
de nur die Zuordnung eines Teils des Innovationserfolgs auf den Dienstleister rechtfertigen. Allerdings besteht in diesem Feld die Gefahr der Wahrnehmungsverzerrung. Vermeintliche Ideengeber könnten den Wert ihrer eigenen Idee als auch den Anteil ihrer „Teil-Idee“ an der Gesamtlösung überschätzen und den Aufbereitungsaufwand der Idee zu einer systemkonformen, einsetzbaren Innovation unterschätzen. Dies betrifft nicht die Messung der Höhe des Effektes der Innovation aber der Messung des Beitrags zur Innovation durch den Dienstleister. Möglichkeiten zur Zuweisung der Erfolge auf die einzelnen Akteure bestehen in der indirekten, indikatorenbezogenen Zurechnung. So gibt der geleistete zeitliche Aufwand zur Generierung und Qualifikation einer Innovationsidee Hinweise auf den Eintrag an Voraussetzungen zur Entstehung einer nutzenstiftenden Lösung. Allerdings haftet dieser Lösung der Nachteil an, dass Aufwand auch generiert werden kann, ohne dass ein nennenswerter Nutzen entsteht. Auf Grund der Schwächen einer Zurechnung von Innovationsergebnissen zu erbrachten zeitlichen Aufwendungen kann auch ein phasenbezogenes Modell zur Anwendung gebracht werden. In einem derartigen Ansatz könnten die verschiedenen Innovationsphasen – Ideengenerierung; -akzeptierung; -realisierung18 – mit verschiedenen Wertigkeiten versehen werden. Dies würde – in Abhängigkeit der Gewichtung der einzelnen Phasen – ein anderes Ergebnis bei der Zuweisung von Innovationserfolgen erzeugen. Beispielsweise könnte der Phase der Ideengenerierung ein größeres Gewicht zugeschrieben werden als der Phase der Ideenrealisierung. Das Vorgehen bedingt die Aufgliederung in Phasen sowie deren Gewichtung. Eine „objektive“ und als allgemeingültig „gerecht“ empfundene Wertung kann es wiederum nicht geben. Es ist nicht absolut ermittelbar, welchen Wert die Artikulation einer unausgereiften Innovationsidee aufweist, die später in ihrem qualifizierten Zustand hohe Erfolge erzielt. Die Gewichtungen sind zwischen den Akteuren im Zuge der Vertragsgestaltung auszuhandeln. Dabei ist zu beachten, dass ihre Definition die Erfolgszuschreibung, damit gelegentlich auch die Honorarhöhe beeinflusst und dadurch Anreizwirkungen entfaltet. Ein einseitig auf Grund von Marktmacht des Auftraggebers durchgesetztes für den Dienstleister ungünstig ausgerichtetes System kann zu negativen Anreizwirkungen führen und somit das gesamte System des externen Innovierens scheitern lassen. Unabhängig vom Zurechnungsmodell ist zu berücksichtigen, dass Erfolge erst mit Zeitversatz zum Zeitpunkt der Ideengenerierung als auch zum Zeit18 Vgl.
Thom (1980), S. 53 ff.
Innovationen in Ideen-Netzwerken215
punkt der Ideenumsetzung eintreten werden. Dies müssen Messsysteme berücksichtigen. Immer wieder werden erfolgsabhängige Entlohnungsmodelle als besonders anreizerzeugend eingestuft. Vorausgesetzt die erforderlichen Randbedingungen wie die Möglichkeit der Messung des Erfolgsausmaßes sowie die zeitliche und verursachergerechte Zuordenbarkeit der Erfolge sind zu gewährleisten, ergeben sich auch hier verschiedene Honorierungsvarianten. Grundsätzliche Formen der Erfolgshonorierung sind etwa Anerkennung der Leistungen, Förderung der Reputation, Gewährung des Status’ eines Vorzugslieferanten, finanzielle Entlohnung. Die Anerkennung der Leistung zielt auf den Mechanismus, dass es für Akteure an sich einen Nutzen hat, wenn sie wahrnehmen, dass andere Akteure ihre Leistungen erkennen und diese würdigen. Daraus resultierende Effekte sind beispielsweise die gesteigerte Nachfrage nach der Problemlösungskompetenz des Dienstleisters auf Grund seiner bekannten, herausragenden Stellung in einem Fachgebiet. Während die Anerkennung der Leistung auf bilateraler Ebene zwischen Auftraggeber und Dienstleister erfolgt, kann durch Steigerung der Reputation des Dienstleisters durch Aktivitäten des Auftraggebers gegenüber Dritten ebenfalls eine Honorierungswirkung erreicht werden19. So kann der Auftraggeber beispielsweise auf Kongressen oder gegenüber anderen Unternehmen die Leistungen des Dienstleisters herausstellen. Gesteigerte Reputation wirkt vielfach wie ein „Türöffner“. Sie ermöglicht es dem mit hoher Reputation versehenen Akteur, deckungsbeitragshöhere Aufträge mit vergleichsweise geringem Aufwand zu akquirieren. Die Gewährung eines speziellen Status des Dienstleisters durch den Auftraggeber wirkt insofern honorierend, als dass der Dienstleister durch seine herausgehobene Stellung verstärkt weitere Aufträge vom Auftraggeber erhält. Gelegentlich definieren Unternehmen, dass bestimmte Aufträge nur an Vorzugslieferanten vergeben werden dürfen. Die Auftraggeber wollen damit ihre Such- und Anbahnungskosten sowie insbesondere ihre Risiken hinsichtlich Schlechtleistung bei Rückgriff auf unbekannte Lieferanten reduzieren. Für die Dienstleister wirkt diese Verfahrensweise wie eine Wettbewerbsreduktion in ihrem Umfeld. Vielfach werden sie dann in der Lage sein, höhere Preise für ihre Leistungen anzubringen. Die finanzielle Entlohnung zielt auf die direkte Honorierung der erbrachten Leistung in Relation zu deren Verbesserungseffekt. Sie setzt nicht auf in Höhe und zeitlichem Eintritt wenig vorher bestimmbare Sekundäreffekte 19 Zum hohen Wert von Reputation bei der Akquisition von Aufträgen für komplexe Dienstleistungen Glückler / Armbrüster (2003), S. 278 f.
216
Christian Mieke
aus nichtfinanziellen Honorierungsansätzen, sondern honoriert direkt monetär20. Bei dieser Form muss besonders berücksichtigt werden, dass Innovationswirkungen zeitlich versetzt eintreten und verschiedene Veränderungen simultan Wirkungen entfalten können. Einige der diskutierten Entlohnungsformen sind nur wenig formalisierbar und auch risikoreich. So wird die Gewährung von Anerkennung wohl kaum als Honorierungsform Eingang in Verträge finden. Sie ist wenig greifbar, nicht einklagbar und in ihrer Ausgestaltung sehr offen. Ähnlich verhält es sich mit der Stärkung der Reputation. Die Gewährung spezieller Status sowie die finanzielle Entlohnung sind vergleichsweise gut verankerbar. Gerade in längerfristigen verstetigten Beziehungen können wenig formalisierte Honorierungsformen als Zusatzhonorierung eine bedeutende Stellung erlangen. Dienstleister, die neu in einem derartigen Handlungsfeld aktiv sind, werden zwar auf zusätzliche Entlohnung durch Anerkennung und Reputa tionserhöhung hoffen, müssen jedoch in der Regel auf die formelleren Formen bestehen, um ihr Risiko zu begrenzen und über eine finanzielle Planungsbasis zu verfügen.
G. Fazit Ideennetzwerke bilden eine Möglichkeit die Innovationskraft von Unternehmen zu stärken. Dies trifft insbesondere für Unternehmen zu, die verschiedene Bereiche, welche als Innovationsquellen fungieren könnten, ausgelagert haben. Allerdings entfalten Ideennetzwerke ihren Nutzen nur, wenn sie so angelegt sind, dass innovationsfähige und -willige Partner zusammengeführt werden, mit einer gemeinsamen Kompetenzplanung auf die durchzuführenden Aufgaben hin entwickelt werden und das System der Erfolgsermittlung den Initiiatoren von Verbesserungen diese Erfolge zuweist und daraus resultierende Honorierungsformen den Akteuren Anreize zu weiterem innovationsorientierten Handeln geben. Der vorliegende Beitrag bietet Gestaltungshinweise. Dennoch erscheint weitere wissenschaftliche Ausgestaltung etwa in Abhängigkeit von Netzwerkgröße, Branchenzugehörigkeit und Innovationsgegenstand erforderlich.
20 Zu
Grenzen des Einsatzes Homburg / Stebel (2008), S. 298.
Innovationen in Ideen-Netzwerken217
Literaturverzeichnis Arnold, U. (1997), Beschaffungsmanagement. 2. Auflage, Stuttgart 1997. Bloß, C. (1995), Organisation der Instandhaltung. Wiesbaden 1995. Busch, M. W. (2008), Wissen, was die anderen wissen – Transaktives Wissen als Basis erfolgreicher Zusammenarbeit in Teams. In: OrganisationsEntwicklung – Zeitschrift für Unternehmensentwicklung und Change Management. 2008, Heft 1, S. 68–76. Corsten, H. / Gössinger, R. / Schneider, H. (2006), Grundlagen des Innovationsmanagements. München 2006. Dombrowski, U. / Quack, S. (2007), Erfolgreiche Restrukturierungsprojekte durch Mitarbeiterpartizipation. In: ZWF – Zeitschrift für wirtschaftlichen Fabrikbetrieb. 2007, Heft 9, S. 568–571. Gassmann, O. / Enkel, E. (2006), Open Innovation – Die Öffnung des Innovationsprozesses erhöht das Innovationspotential. In: ZfO – Zeitschrift Führung + Organisation. 2006, Heft 3, S. 132–138. Glückler, J. / Armbrüster, T. (2003), Bridging Uncertainty in Management Consulting – The Mechanisms of Trust and Networked Reputation. In: Organization Studies. 2003, Heft 2, S. 269–297. Hoitsch, H.-J. (1993), Produktionswirtschaft – Grundlagen einer industriellen Betriebswirtschaftslehre. 2. Auflage, München 1993. Homann, R. / Kalaitzis, D. (2004), Zielorientiertes Outsourcing von Instandhaltungsleistungen. In: Kalaitzis, D. (Hrsg.): Instandhaltungs-Controlling – Führungs- und Steuerungssystem erfolgreicher Instandhaltung. 3. Auflage, Köln 2004, S. 103– 128. Homburg, C. / Stebel, P. (2008), Optimale Anreizverträge bei professionellen Dienstleistungen – Professionelle Dienstleistungen; Double Moral Hazard; Anreizvertrag. In: DBW – Die Betriebswirtschaft. 2008, Heft 3, S. 297–322. Kinkel, S. / Som, O. (2007), Wie deutsche Maschinenbauer ihren Innovationserfolg sichern. In: ZWF – Zeitschrift für wirtschaftlichen Fabrikbetrieb. 2007, Heft 9, S. 572–578. Kuhn, A. / Hellingrath, B. (2002), Supply Chain Management – Optimierte Zusammenarbeit in der Wertschöpfungskette. Berlin u. a. 2002. Lange, I. / Schneider, O. (2007), Entwicklung eines Leistungsmesssystems für industrielle Dienstleistungen. In: ZWF – Zeitschrift für wirtschaftlichen Fabrikbetrieb. 2007, Heft 12, S. 830–834. Lehmann, U. P. / Scarpelli, P. A. / Schnidrig, P. C. (2006), Kooperationen – Zauberformel für nachhaltiges Wachstum. In: io new management – Zeitschrift für Unternehmenswissenschaften und Führungspraxis. 2006, Heft 12, S. 13–15. Mieke, C. (2009), Innovationen aus Instandhaltungsbereichen – Ein Beitrag zur taktischen Produktionspotenzialgestaltung. Berlin 2009.
218
Christian Mieke
Pleschak, F. / Sabisch, H. (1996), Innovationsmanagement. Stuttgart 1996. Reichwald, R. / Piller, F. (2006), Interaktive Wertschöpfung – Open Innovation, Individualisierung und neue Formen der Arbeitsteilung. Wiesbaden 2006. Specht, D. / Mieke, C. (2004), Kompetenz-Roadmapping – Eine Methode zur Initiierung grenzüberschreitender Netzwerke junger Technologieunternehmen. In: Dieterle, W. K. M. / Winckler, E. M. (Hrsg.): Konferenz für polnisch-deutsche Wirtschafts- und Wissenschaftskooperationen (Tagungsband) – 1. Gorzów / Wildauer Berater- und Unternehmertage. Berlin 2004, S. 52–64. – (2005), Re-Insourcing von Instandhaltungsbereichen – Zur Stärkung der betrieblichen Innovationsfähigkeit. In: ZWF – Zeitschrift für wirtschaftlichen Fabrikbetrieb. 2005, Heft 7–8, S. 412–415. Staiger, T. J. / Dilk, C. (2008), Innovieren über Grenzen hinweg – Kooperationen und Netzwerke im Innovationsbereich gewinnen an Bedeutung: drei Beispiele aus der Praxis. In: Innovationsmanager – Magazin für Innovationskultur. 2008, Heft 1, S. 62–63. Thom, N. (1980): Grundlagen des betrieblichen Innovationsmanagements. 2. Auflage, Königstein i.T. 1980. Walcher, D. (2007), Der Ideenwettbewerb als Methode der aktiven Kundenintegration – Theorie, empirische Analyse und Implikationen für den Innovationsprozess. Wiesbaden 2007. Weimer, G. / Seuring, S. (2008), Informationsbedarfe beim Outsourcing – Eine empirische Analyse von Informationsbedarfen zur Steuerung des Outsourcing-Dienstleisters. In: ZfO – Zeitschrift Führung + Organisation. 2008, Heft 1, S. 24–31. Winz, G. / Quint, M. (1997), Prozesskettenmanagement – Leitfaden für die Praxis. Aus Schriftenreihe: Spektrum 2000, Kuhn, A. (Hrsg.). Dortmund 1997. Zülch, G. / Rottinger, S. (2004), Personalentwicklungsplanung auf Basis des Technologiekalenderkonzeptes. In: Industrie Management – Zeitschrift für industrielle Geschäftsprozesse. 2004, Heft 2, S. 58–61.
Innovationen in Netzwerken – Wissensentstehung und -verteilung in Wissensnetzwerken Von Ronald Billen
A. Problemstellung und Relevanz Für Unternehmen sind Innovationen die wichtigsten Treiber zur Steigerung des Unternehmenswertes. Entgegen allgemeiner Auffassung entstehen sie nicht im Forschungslaboratorium oder in der Entwicklungsabteilung. Dort entstehen Ideen, nicht Innovationen. Innovationen müssen kompromisslos seitens des Marktes definiert werden. Aufgrund dessen vollziehen sich Innovationen und Innovationsprozesse heute in flexiblen, multidisziplinären Subsystemen, den Netzwerken. Gerade dieser Netzwerkgedanke ist in den letzten Jahren im Zuge innovativer IuK-Technologien verstärkt ins öffentliche Bewusstsein gedrungen. Diese Technologien sind es, die eine zeitlich und räumlich entkoppelte Kooperation erst ermöglichen oder begünstigen. Der Netzwerkgedanke fordert einen gesellschaftlichen Paradigmenwechsel im Allgemeinen und in Wirtschaftsunternehmen im Besonderen hinsichtlich neuer Formen der Zusammenarbeit und Kommunikation.
B. Ziel des Beitrags Untersuchungsgegenstand sind Innovations- und Informationsprozesse für die Innovationsentstehung in Subsystemen. Besondere Berücksichtigung gilt dabei den Rahmenbedingungen für eine wissensfreundliche Umgebung als Voraussetzung für Wissensentwicklung und Wissensaustausch. Daraus erfolgt die Ableitung von Handlungsempfehlungen für Netzwerkbildung und Kommunikation.
C. Ergebnisse Ebenso wie Innovationen das Überlebenselixier der Unternehmen sind, so sind die Netzwerke, in denen sich der Innovationsprozess vollzieht, unverzichtbare Subsysteme zwischen Organisationen. Maßgeblich für Entwicklung und Erhalt der Innovationsfähigkeit sind Organisationales Lernen,
220
Ronald Billen
Vertrauen in den Kooperationspartner und ungehemmter Wissensfluss. Grundlegende Problematik von Netzwerken wie bei allen komplexen, sozia len Systemen ist die Erkenntnis, dass ein komplexes System nicht vollständig beherrschbar ist. Voraussetzung wäre umfassendes Wissen, was es aber laut systemischer Theorie nicht gib. Möglich ist nur so genannte „Soft Control“, d. h. das System kann nur in gewisser Art unter Kontrolle gebracht werden, in dem eine Beeinflussung in die gewünschte Richtung erfolgt anstatt eine vollständigen Kontrolle anzustreben. Dies ist zugleich die Grundlage für die wichtigste Erkenntnis und Gesetzmäßigkeit der Kybernetik sozio-technischer Systeme: Ashby’s „Gesetz von der erforderlichen Varietät“. Dieses besagt, dass zunehmende Komplexität eines Systems, ausgedrückt in der (subjektiven) Maßgröße Varietät, ein gleichermaßen steigendes Problemlösungspotential erfordert oder, anders gesagt, nur durch ein ebenso komplexes System unter Kontrolle gebracht werden kann. I. Innovation – zu Beginn ein Zitat „Ein vernünftiger Mensch passt sich seiner Umwelt an. Ein Unvernünftiger besteht darauf, dass sich die Welt nach ihm zu richten hat.“
George Bernard Shaw
Somit ist der Ursprung der Innovation die Unvernunft oder vielmehr die Unzufriedenheit mit bestehenden Verhältnissen.
Eine maßgebliche strategische Zielsetzung in vielen Großkonzernen wie auch in kleinen und mittleren Unternehmen betrifft die Steigerung des Unternehmenswertes. Ausgehend von Einführung und Verbreitung des Shareholder Value-Ansatzes gewinnt die wertorientierte Unternehmensführung als Maßnahme zur Erreichung besserer Finanzierungsmöglichkeiten ständig an Bedeutung. Dies stellt die Unternehmensleitung vor die Herausforderung, erfolgskritische Werttreiber in ihrer Organisation zu identifizieren und damit Anhaltspunkte für wesentliche Wertsteigerungspotentiale zu gewinnen. Nach dem bedeutendsten Werttreiber in ihren Unternehmen befragt, nennt laut einer aktuellen Studie der Fachhochschule Bonn-Sieg die Mehrzahl der Beteiligten „Innovation“ als wichtigsten Ansatzpunkt zum Wachstum des Unternehmenswertes. Innovationen bezeichnen Neuerungen, die sich als Produkt, Verfahren oder Dienstleistung auf dem Markt behaupten. Sie sind im Ergebnis qualitativ neuartig und unterscheiden sich deutlich gegenüber dem vorherigen Zustand. Ihre Neuartigkeit besteht darin, dass Zweck und Mittel in einer vorher nicht bekannten Weise kombiniert werden. Gleichzeitig werden die an erfolgreiche Innovationen gestellten Anforderungen immer komplexer.
Innovationen in Netzwerken221
Überragende Produktqualität zu gewährleisten genügt im globalen Wettbewerb nicht mehr. Unternehmen müssen auch ihre Prozesse gezielt optimieren und ihre Wertschöpfung steigern. Hier zeigt sich der Prozesscharakter der Innovation: Es geht nicht um das Kreieren von Ideen, sondern um die Umsetzung. Dementsprechend erfordert Innovation einen Bezugsrahmen. Dieser definiert, für welche Ebene, d. h. für Individuum, Organisation oder Sozialbereich, sie eine Neuerung darstellt und worin diese besteht. Bezogen auf die Stufen des Innovationsprozesses und die unterschiedlichen, in Wechselwirkung stehenden Innovationsbereiche muss Innovation als komplexes System mit verschiedenen Systemkomponenten und -funktionen verstanden werden. Für Erhalt oder Entwicklung von Innovationsfähigkeit muss deutlich werden, wo dafür Ansatzpunkte im System zu finden sind und wie dieses zu beeinflussen ist. Die Netzwerkforschung betont, dass Innovationsprozesse nicht in starren, linearen Organisationen entstehen. Vielmehr sind es von Vertrauen und gemeinsamen Leitbildern geprägte, netzwerkartige Strukturen, die ein innovationsfreundliches Klima mit freiem Wissensaustausch kennzeichnet und die „Organisationales Lernen“ fördern. Heutzutage kooperieren Akteure mit unterschiedlichen Erfahrungen, Wissen, Beziehungen und personalen Kompetenzen bei der Entwicklung und Einführung von Neuerungen. Oft können Innovationen nur durch solche Netzwerke aus Unternehmen, Kunden, Hochschulen und anderen Akteuren entstehen. In diesen Wissens- und Kompetenznetzwerken, die als Subsysteme alle Beteiligten vernetzen, wird vorhandenes Wissen verlinkt und somit neues Wissen generiert. Es sind die neuen Kombinationen von bislang unverbundenen Wissensbereichen, die Innovationen entstehen lassen. Da Netzwerke als soziale Systeme auf meist komplexen (Kommunikations)Beziehungen beruhen, spielt Netzwerkmanagement eine ebenso wichtige Rolle für Kooperation und Koordination wie eine wissensfreundliche Umgebung für einen effizienten Wissenstransfer. Hinsichtlich der Rolle von Information und Informationsübertragung wird das Netzwerkmanagement mit den Besonderheiten der Information als Innovationsgut konfrontiert. Bewältigt wird die Komplexität, die Innovation, Innovationsnetzwerk und Kommunikation kennzeichnet, durch eine systemische, zirkuläre Denkweise, wie sie von der Kybernetik vertreten wird. Demgemäß sind komplexe Probleme nicht lösbar, wenn statt dem gesamten System nur ein Element, sei es Person, Abteilung oder Produkt, fokussiert wird. Ebenso fordert die Kybernetik die Abkehr von einer linear-kausalen Ursache-Wirkungs-Sichtweise, zielorientiertes Denken in Auswirkungen und statt Ursachenforschung die Überlegung, welche Muster von Kommunikationen, Beziehungen und Handlungen zusammen mit anderen Mustern ein bestimmtes Ergebnis er zielen.
222
Ronald Billen
II. … und warum spricht alle Welt von Netzwerken? Weil wir in einer Welt von Beziehungen leben! 1. Kooperation In einem Kooperationsnetzwerk finden informelle, grenzüberschreitende Kontakte und Interaktionen außerhalb etablierter Institutionen zwischen zahlreichen verschiedenen Akteuren statt. Voraussetzungen für ein vertrauensbasiertes, stabiles, flexibles Kooperationsnetzwerk sind ein gewisser Handlungsdruck und dass sich die Interessen der Akteure nicht grundsätzlich widersprechen. Netzwerke können Verbindungen herstellen und Problemlösungen bieten, wo formale Strukturen Grenzen ziehen und Innovationsprozesse lähmen. Der Netzwerkansatz kann somit allgemein als „ergebnisoffene Hintergrundstrategie“ definiert werden. Er bildet den Handlungsrahmen, um viele Akteure und Strategien in das Gesamtkonzept einzubinden mit dem Ziel, neue Wege und Potenziale für die Problemlösung zu entwickeln. Die Kooperation ist ein Zusammenschluss von mindestens zwei selbständigen Unternehmen mit dem Zweck, gemeinsame Ziele zu verfolgen. Da die Ziele meist nur einen Teilbereich der Unternehmung betreffen, sind sie als Ergänzung zur selbständig geführten unternehmerischen Tätigkeit zu verstehen.1 Dabei gelten folgende Kriterien: •• gemeinsame Zielsetzungen, •• freiwillige Zusammenarbeit wirtschaftlich und rechtlich selbständiger Partner, •• gegenseitiger Nutzen durch Austausch von Leistungsreserven, •• längerfristige Zusammenarbeit, •• Funktionen werden aus autonomen Entscheidungsbereichen ausgegliedert, •• außerhalb des Kooperationsbereiches marktwirtschaftlich konkurrenzierendes Verhalten.2 Für Unternehmen ergeben sich aus dem Engagement in kooperativen Netzwerken folgende Vorteile: •• Verteilung des finanziellen Risikos, •• Entwicklung marktfähiger neuer Technologien und Produkte, 1 Vgl. 2 Vgl.
Wallner (1999), S. 8. ebd.
Innovationen in Netzwerken223
•• Erschließung neuer Märkte, •• Zuwachs an Fachwissen bei der Projektdurchführung. In einer Kooperation als Beziehung zwischen Unternehmen sind besondere Kriterien zu erfüllen. Durch folgende Eigenschaften unterscheidet sie sich von einer Marktbeziehung, einer Fusion oder einer Konkurrenzbeziehung: •• Die Kooperationspartner handeln nicht allein im Eigeninteresse, sondern verfolgen auch die Ziele der jeweiligen Partner. •• Die Einordnung in die Kooperation ist freiwillig. •• Handlungen sind von keinem Partner voll kontrollierbar; es gibt keine Sanktionsmöglichkeiten, um einander zu bestimmten Handlungen zu zwingen. •• Alle Partner müssen ihren Beitrag zum Gelingen der Zusammenarbeit leisten.3 2. Netzwerk und Networking Neue Formen der Interaktion mit Netzwerkpartnern bieten neue Möglichkeiten der Wissensgenerierung: •• Kommunikation als Basis des Wissensaustauschs, •• Entwicklung von Fähigkeiten und Aufbau von Expertenwissen. Durch die Zusammenarbeit kommt es zu folgenden positiven Effekten: Zuwachs an Erfahrung und Fachwissen ➝ höherer Kompetenz als Kooperationspartner ➝ verbesserter Positionierung innerhalb eines Netzwerkes ➝ erhöhter Informationsfluss z. B. über neue, interessante Koopera tionsprojekte ➝ mehr Erfolg und Wachstum für das Unternehmen Der Netzwerkbegriff ist seit Jahren nachhaltig gleichermaßen in Gesellschaft und Wirtschaft gefestigt.4 Wo vorher Märkte und Unternehmungen Gegenstand wirtschaftwissenschaftlicher Untersuchungen standen, so richtet sich heute die Aufmerksamkeit verstärkt auf Netzwerke und ihre Bedeutung zur Generierung und Stabilisierung kompetenzbasierter Wettbewerbsvorteile.5 Dabei erhält der Begriff seine Bedeutung aus verschiedenen Bereichen, so zum Beispiel aus der Organisationsforschung. Die Forschung erkannte, dass neben formellen Unternehmenshierarchien eine weitere Ebene perso3 Vgl.
ebd. Wallner (1999), S. 7. 5 Vgl. Duschek (2004), S. 1. 4 Vgl.
224
Ronald Billen
nenbezogener Beziehungen besteht, auf der wichtige Entscheidungen getroffen werden – das Netzwerk.6 Die Bedeutung von Netzwerken zur Kompetenzentwicklung – unabdingbare Voraussetzung für Innovationen – ist unbestritten. Genauso unabstreitbar ist auch das Verständnis des Netzwerk-Begriffes, der sich, da in so unterschiedlichen Disziplinen wie Soziologie, Politologie, Pädagogik, Betriebswirtschaftslehre usw. verankert, einer eindeutigen, klar abgegrenzten Definition entzieht. So zahlreich sind die unterschiedlichen Netzwerkdefinitionen zwischenzeitlich geworden, dass Erläuterungen zu diesem Begriff kontextbezogen erfolgen sollten. Unter „Netzwerk“ wird hier ein Kooperationsverbund aus mehreren Partnern verstanden, die •• in loser Form gekoppelt sind, •• autonom bleiben, •• im Netzwerk durch Akteure vertreten werden und •• durch die zielorientierte, strategisch angelegte Kooperation eine „Winwin-Situation“ wahrnehmen. Beispiel für eine im betrieblichen Bereich verbreitete „Win-win-Situation“ wäre ein im Netzwerk vermutetes Problemlösepotenzial für Probleme, die ein Partner alleine nicht lösen kann.7 Charakterisiert wird ein Netzwerk durch folgende Eigenschaften: •• spontane Organisation bzw. Reorganisation, •• Betonung der persönlichen Kontakte, d. h. es ist eine lebendig, auf vielfältige Kommunikation untereinander beruhende Gemeinschaft, •• die zentrale Koordination wird auf ein Mindestmaß reduziert.8 Besondere Unterstützung erlangt der Netzwerkbegriff durch die zunehmende Bedeutung neuer Wissenschaften. Wichtige Impulsgeber sind dabei die Theorien der Selbstorganisation, der komplexen Systeme und der Kybernetik. Ein Netzwerk als eine Vereinigung formal selbständiger Partnern bewegt sich zwischen den Polen „Markt“ als dem Ort konkurrierender, unabhängiger Wettbewerber und „Hierarchie“ als Beziehung zwischen Strukturelementen eines Unternehmens. Entscheidend für Entstehung und Erhalt sind gemeinsame Ziele der Netzwerkpartner sowie allgemein akzeptierte Grundregeln der Zusammenarbeit, insbesondere gegenseitiges Vertrauen.9 6 Vgl.
Wallner (1999), S. 7. Megerle (2005), S. 11. 8 Vgl. Wallner (1999), S. 7. 9 Vgl. Borkenhagen / Mertin (2005), S. 3. 7 Vgl.
Innovationen in Netzwerken225
Unter „Networking“ versteht man die Fähigkeit, Beziehungen aufzubauen und diese zu nutzen oder, mit anderen Worten, ein Netzwerk für einen bestimmten Zweck zu errichten. Dabei spielt Networking eine zweifache Rolle beim Aufbau von Unternehmenskooperationen: 1. Es schafft Kontakte, 2. es bereitet jene Beziehungen vor, die zur Kooperationsbildung notwendig sind.10 In diesem Zusammenhang sind das Wissensnetzwerk und die Wissenskooperation von besonderer Bedeutung für die Innovationsentstehung und der ihr zugrunde liegenden Wissens(ver)teilung. Networking ist nicht nur Aktivität; es ist auch eine Philosophie, die aus zahlreichen neuen Entwicklungen von Gesellschaft, Wirtschaft und Wissenschaft hervorgeht. Modernes Denken, speziell in der Organisationslehre, der Systemforschung und Kybernetik, basiert auf dem Grundsatz der Selbst organisation bzw. Selbststeuerung (Autopoiese). Ein System oder Netzwerk ist nicht lediglich die Summe seiner Einzelteile. So, wie ein Auto als technisches System mehr ist als die Summe seiner Einzelteile, so gilt die Regel der Übersummation insbesondere auch in sozialen Systemen. Dies bedeutet, dass sich im Netzwerk Eigenschaften herausbilden können, die nicht in den einzelnen Teilnehmern, oder kybernetisch gesprochen, den Systemelementen, zu finden sind. Jedes Mitglied eines Netzwerkes ist gleich wichtig und trägt mit seinen Erfahrungen, seinem Wissen und Können zum Verhalten des Gesamtsystems bei. Somit folgt die Entwicklung eines Netzwerkes und langfristig die einer Kooperation nicht mathematischen Regeln: Das Netzwerk und dessen Erfolg wird von vielen Faktoren beeinflusst. Daher ist bis zu einem gewissen Maße eine strategische Planung unabdingbar. Letztlich bleibt aber eine Unsicherheit in der Entwicklung eines Netzwerkes, bei der sich möglicherweise viele Überraschungen ergeben können, und oft können diese sehr vorteilhaft sein. So kann das Netzwerk oder die Kooperation beispielsweise eine weit über den Erwartungen liegende positive Entwicklung einnehmen.11 Netzwerkarbeit als zyklischer Prozess ist vergleichbar mit einem Regelkreis. Sie erfordert ständiges Beobachten von Inputs und Outputs, analysieren und notwendige Reaktionen bzw. Aktionen, um gemeinsame Ziele, die manchmal auch modifiziert werden müssen, gerecht zu werden.12
10 Vgl.
Wallner (1999), S. 8. ebd. (1999), S. 10–11. 12 Vgl. Borkenhagen / Mertin (2005), S. 3. 11 Vgl.
226
Ronald Billen
3. Wissenskooperation – Wissenskultivierung im Netzwerk „Die Wissenskooperation ist … der Prozess der ‚partizipativen‘ Kultivierung von Wissen in einer freiwilligen, informellen sozialen Gruppe Im Gegensatz zum klassischen Wissensmanagement werden bei der Wissenskooperation das intellektuelle und das soziale Kapital der Menschen als ge koppeltes System berücksichtigt und gefördert. Social Software Tools, wie Blogs und Wikis dienen als Instrumente zur Entwicklung dieser neuen Wissenskultur.“13 Aufgrund der wachsenden Komplexität und Dynamik von Märkten und Technologien verstärken sich die Trends zur Dezentralisierung der Unternehmensorganisation und somit zur Dezentralisierung der Kompetenzen. Während bisher die technische Realisierung von Wissensmanagement-Tools im Vordergrund stand, so soll nun primär die Einbettung von Wissensmanagement in dezentralisierte, verteilte Organisationen und die Nutzung der Chancen, die durch die sozialen und offenen Formen des Umgangs mit Wissen entstehen, angestrebt werden. Wie können aber die typischen Wissensmanagement-Aufgaben in einer dezentralisierten, durch Weak Ties (schwache Bindungen) charakterisierten Struktur umsetzen? Wie können in verteilten Organisationen individuelle Fähigkeiten weitergegeben, einzelne Problemlösungen verallgemeinert, die Kompetenzverteilung transparent gemacht und die verteilten Kompetenzen wiederum integriert werden? Der Ansatz zur Bewältigung dieser Aufgaben heißt „Wissenskooperation“ und befasst sich im Gegensatz zum Wissensmanagement neben dem intellektuellen Kapital gleichermaßen mit dem sozialen Kapital. Voraussetzung für das reibungslose Funktionieren einer Wissenskooperation sind die Wechselwirkungen der Prozesse der •• Wissensbewirtschaftung bzw. -pflege (Stewarding) mit den Teilprozessen Wissenserwerb, Wissensentwicklung, Wissensaustausch, Wissensbewahrung und Wissenstransparenz (Explizierung),14 •• Wissensnutzung bzw. -anwendung, •• Sozialisierung von Wissen (Austausch impliziten Wissens unter Indivi duen, wobei Werte und Normen eines Individuums durch Vorleben auf ein anderes übertragen werden.15 Die Wissenskooperation beschreibt hier den Prozess der „partizipativen Wissenskultivierung in einer freiwilligen, informellen sozialen Gruppe“,16 13 Vgl.
Bernhard / Bettoni (2007), S. 102, 104. Billen (2006), S. 18, Abbildung 2. 15 Vgl. Bernhard / Bettoni (2007), S. 104. 16 Vgl. ebd., S. 105. 14 Vgl.
Innovationen in Netzwerken227
wie sie für ein Netzwerk charakteristisch ist. Das klassische Wissensmanagement ist in diesem Modell demnach nur ein Teilprozess, der erst durch den Sozialisierungsprozess der Wissenskooperation zur Entfaltung gebracht wird, wobei als Instrumente der Vernetzung und Kommunikation bzw. Wissens(ver)teilung Social Software Tools dienen.17 III. Innovation bedeutet … … wissen, was der Markt will. Es bedeutet im Einzelnen: •• Trends erforschen, Nischen sehen, •• Chancen wahrnehmen, Risiken abwägen, •• Ideen entwickeln, Wissen umsetzen, •• Flexibilität beweisen, Schnelligkeit zeigen. Strategisch Innovieren heißt folgende Fragen zu beantworten: •• Welche Ideen sollen umgesetzt werden? •• Wie werden aus Ideen Innovationen? •• Welche Maßnahmen sollten eingeleitet werden? •• Welche Aufgaben, Zeitpläne und Verantwortlichkeiten sind dazu erforderlich? Dabei wird der Innovationserfolg von vier wesentlichen Faktoren bestimmt: •• Mitarbeiter zu Mitunternehmern machen, •• keine Einzelkämpferkultur pflegen; Kooperation ist gefragt, •• Innovation ist Sache der Unternehmensführung, •• Marktbewusstsein stärken. IV. Innovationsvorteil durch Kooperation im Netzwerk „Sources of innovation do not reside exclusively inside firms; instead, they are commonly found in the interstices between firms, universities, research laboratories, suppliers, and costumers.“ Walter W. Powell, Stanford University
Innovation ist ein konstruktiver Lernprozess, Innovationsnetzwerke sind überschaubare Inseln des Planens und Lernens. Sie bieten Problemlösungen, die anderen organisatorischen Strukturen überlegen sind. Schlüssel zum 17 Vgl.
ebd.
228
Ronald Billen
Innovationserfolg sind netzwerkfähige Menschen. Dabei ergeben sich für den betrieblichen Innovationsprozess als Kooperationsmöglichkeiten die Zusammenarbeit bei •• Entwicklung, •• Produktion bzw. Leistungserstellung, •• Markteinführung. „Je besser ein Unternehmen vernetzt ist, desto schneller und erfolgreicher kann es Innovationen umsetzen und sich auf dem Markt behaupten“, so der Tenor von Professor Hans-Jörg Bullinger, Präsident der Fraunhofer-Gesellschaft. Dabei verweist er auf zwei Studien, die belegen, dass, je besser ein Unternehmen vernetzt ist, desto schneller und erfolgreicher es Innovationen umsetzen und sich auf dem Markt behaupten kann. Dabei besteht seiner Meinung nach ein enger Zusammenhang zwischen Vernetzung und Steigerung von Innovationen und verweist auf die Fraunhofer-Studie über die Innovationsfähigkeit produzierender deutscher kleiner und mittlerer Unternehmen (Inno-KMU). In dieser wurden 151 Unternehmen zu 28 Erfolgsfaktoren für Innovationsfähigkeit befragt worden. Danach erzielen 80 % der KMU mit weniger als 500 Mitarbeitern ihre hohe Innovationskraft durch Einbindung ihrer Kunden in den Innovationsprozess. Großunternehmen pflegen zu 95 Prozent Kontakte zu Netzwerken wie Verbänden, Hochschulen und Gremien. Ähnliche Ergebnisse liefert das Improve-Benchmarking der EU, bei dem unter Leitung der Fraunhofer-Gesellschaft mit 1.600 KMU die größte Benchmarking-Datenbank für Innovationsmanagement aufgebaut worden ist.18 Kooperation ist ein maßgebliches Instrument im betrieblichen Innova tionsprozess. Dabei wird unter Innovation die „konkrete Umsetzung einer kreativen Idee“ verstanden. Aus Unternehmenssicht muss eine Innovation nicht eine echte Marktneuheit sein. Es genügt, wenn die betriebliche Veränderung aus der Perspektive des Unternehmens neu ist. Dennoch erzeugt jede tief greifende Veränderung in einem Betrieb, in seiner Organisation der dessen Produktion Widerstände. Diese Innovationswiderstände treten hauptsächlich in den Phasen der Entwicklung, der Produktion oder Leistungserstellung sowie der Markteinführung auf. Es sind insbesondere diese Innovationsprobleme, die sich gegen eine Veränderung im Betriebsablauf stellen. Insbesondere KMU können durch Kooperation Innovationsprobleme verringern und eine gemeinschaftliche Lösung erarbeiten. Somit wird die Erhöhung des Innovationspotentials eines Unternehmens zu einem der gewichtigen Argumente, die für eine Kooperation sprechen.19 18 Vgl. 19 Vgl.
u. a. Schulzki-Haddouti (2008). Wallner (1999), S. 6–7.
Innovationen in Netzwerken229
V. Wissen, Kompetenz, Kommunikation – Grundlagen der Innovation Wissen ist Ressource und erfolgskritischer Faktor in Organisationen. Der strategische Umgang mit seinen Ressourcen bestimmt den Unternehmenserfolg. Dies gilt sowohl für die materiellen wie für die immateriellen Ressourcen intellektuelles Kapital, Human-, Struktur- und Beziehungskapital. Innovationsentstehung in Netzwerken basiert auf Wissen, Kompetenz und der Kommunikation von Wissen. Dieses Wissen, Ressource und erfolgskritischer Faktor in Unternehmen, ist auf den vier Ebenen Individuum, Gruppe, Unternehmen sowie den Interaktionen der Unternehmen vorhanden. Durch Wissens(ver)teilung wird individuelles Wissen durch Interaktion von explizitem und implizitem Wissen angereichert. Wichtigste Voraussetzung für ein funktionierendes (d. h. produktives) Netzwerk ist daher der Aufbau einer möglichst reibungsarmen Kommunikationsbasis. Dazu zählt persönliche wie auch technische Kommunikation unter Zuhilfenahme der bereits erwähnten Social Software Tools.20 Dabei sollte jedes Netzwerk nach seinem Bedarf eigene Kommunikationsregeln aufstellen. Diese sollten beispielsweise regelmäßige Treffen mit möglichst verbindlicher Teilnahme beinhalten und somit zur Verbesserung der Netzwerkkultur beitragen („Institutionalisierung der Kommunikation“).21 Die Begriffe Wissen und Kompetenz stehen in enger Beziehung zuein ander, wobei Wissen die theoretische Grundlage bildet. So betrachtet, ist Wissen die Basis der Effektivität („die richtigen Dinge tun“). Die erforderliche Handlungskompetenz ergibt sich aus ständiger praktischer Übung unter Zugrundelegen des Wissens und bezeichnet Effizienz („die Dinge richtig tun“). So, wie Wissen und Kompetenz interdependent sind, so verhält es sich auch mit Kompetenz und Innovation. Kompetenz ist einerseits Basis der Unternehmensentwicklung, andererseits Anpassungsreserve an Veränderungen. Kompetenzentwicklung wird damit zum zentralen Bestandteil von Innovationsprozessen, die gleichsam den inhaltlichen Orientierungs- und Handlungsrahmen für Kompetenzentwicklung darstellen.22
20 Vgl.
Wallner (1999), S. 12. ebd., S. 13. 22 Vgl. Staudt / Kriegesmann (2001), S. 3. 21 Vgl.
230
Ronald Billen
VI. Innovationskommunikation – der „Missing Link“ Innovationen gelten als Garanten für Wachstum und Wettbewerbsfähigkeit. Sie müssen aber nicht nur entwickelt, sondern auch kommuniziert werden. Professionelle Innovationskommunikation ist daher entscheidend für den Markterfolg neuer Produkte, Prozesse, Technologien und Ideen. Innovationen entstehen wesentlich in den Köpfen der Menschen und müssen unter den Bedingungen der Mediengesellschaft und offener Entwicklungsprozesse mit strategischen Frames unterlegt und in allen Entstehungsphasen kommunikativ begleitet werden. Unternehmenskommunikation, Marketing und PR müssen an diesem Punkt mehr leisten als nur am Ende des Innovationsprozesses fertige Ideen zu vermitteln. Doch trotz zahlreicher Innovationsoffensiven für neue Produkte, Prozesse und Technologien verfehlen die meisten Anstrengungen das gewünschte Ergebnis. Dabei gehen nach Berechnungen des Beratungsunternehmens A. T. Kearney bundesweit 40 Milliarden Euro jährlich verloren. Häufig liegt die Ursache in mangelnder Professionalität der Innovationskommunikation.23 Aber gerade diese ist der „Missing Link“ zwischen Idee und Markterfolg, der zur Profilierung im Wettbewerb dient und in den nächsten Jahren deutlich an Bedeutung gewinnen wird. Daher soll Innovationskommunikation zweierlei bewirken. Sie soll •• systematisch geplante, evaluierte und durchgeführte Kommunikation von Neuerungen betreiben, um Vertrauen in die Innovation zu entwickeln, •• dahinter stehende Akteure als Innovatoren positionieren. Literaturverzeichnis Balling, R. (1998), Kooperation: strategische Allianzen, Netzwerke, Joint Ventures und andere Organisationsformen zwischenbetrieblicher Zusammenarbeit in Theo rie und Praxis, Europäische Hochschulschriften: Reihe 5, Volks- und Betriebswirtschaft, Frankfurt, Peter Lang. Bernhard, W. / Bettoni, M. (2007), Wissensnetzwerke. Offene Zusammenarbeit im virtuellen Raum http: / / www.ifel.ch / … / bergamin_medien_bildungswesen_05_ bernhard.pdf abgerufen am 27.07.2010. Bettoni, M. (2005), Wissenskooperation – die Zukunft des Wissensmanagements, in: Lernende Organisation, Zeitschrift für systemisches Management und Organisation, No. 25, Mai / Juni 2005, Verlag interrelationales Management, Zielorientierte Entwicklung von Menschen, Teams und Unternehmen GmbH, Wien URL: http: / / www.weknow.ch / marco / A2005 / LO / Bettoni_2005_Wissenskooperation_ lo25.pdf abgerufen am 26.07.2010. 23 Vgl.
Zerfaß (2006), S. 18.
Innovationen in Netzwerken231
Billen, R. (2006), Wissensaustausch und Wissensprozesse in Communities, in: Lembke, G. / Müller, M. / Schneidewind, U. (Hrsg.): Wissensnetzwerke, Wiesbaden: LearnAct! Verlagsgesellschaft mbH, S. 13–55. Boden, G. / Fröstl, K. (1996), Kooperation, Schriftenreihe des Wirtschaftsförde rungsinstituts (WIFI 229). Borkenhagen, P. / Mertin, K.-D. (2005), Netzwerk – Instrument zur Kompetenzentwicklung in KMU. Erfahrungen aus der wissenschaftlichen Begleitung, in: QUEM-BULLETIN, Jg. 2005, Heft 1, Hrsg.: Arbeitsgemeinschaft Betriebliche Weiterbildungsforschung e. V. URL: http: / / www.abwf.de / content / main / publik / bulletin / 2005 / B-01-05.pdf abgerufen am 06.09.2008. Boucke, B. / Deutsch, O. (1997), Unternehmensnetzwerke bilden und betreiben, gdiImpuls, 4 / 97. Duschek, S. / Rometsch, M. (2004), Netzwerktypologien im Anwendungsbereich Kompetenzentwicklung, in: QUEM-BULLETIN, Jg. 2004, Heft 3, Hrsg.: Arbeitsgemeinschaft Betriebliche Weiterbildungsforschung e. V. URL: http: / / www.abwf. de / content / main / publik / bulletin / 2004 / B-03-04.pdf abgerufen am 27.07.2010. Fischer, B. / Huber, F. (2004), Innovationserfolg durch vertikale Vernetzung URL: http: / / www.kreativ-sein.de / d / d / dlartikel_files / Innovationsnetzwerke.pdf abgerufen am 05.09.2008. Granovetter, M. (1982), The Strength of Weak Ties. A Network Theory Revisited, in: Marsden, P. V. / Lin, N. (Hrsg.): Social Structure and Network Analysis. Beverly Hills: Sage. Kriegesmann, B. / Staudt, E. (2001), Kompetenzentwicklung und Innovation, in: QUEM-BULLETIN, Jg. 2001, Heft 6, Hrsg.: Arbeitsgemeinschaft Betriebliche Weiterbildungsforschung e. V. URL: http: / / www.abwf.de / content / main / publik / bulletin / 2001 / B-6-01.pdf abgerufen am 27.07.2010. Lembke, G. (2005), Wissenskooperation in Wissensgemeinschaften. Förderung des Wissensaustausches in: Organisationen, Wiesbaden: LearnAct! Verlagsgesellschaft mbH, 2. Auflage. 2005. ISBN: 978-3938627006. Megerle, A. (2005), Der Umgang mit Wissen – Anforderungen in der Wissensgesellschaft, in: QUEM-BULLETIN, Jg. 2005, Heft 4, Hrsg.: Arbeitsgemeinschaft Betriebliche Weiterbildungsforschung e. V. / Projekt Qualifikations-EntwicklungsManagement URL: http: / / www.abwf.de / content / main / publik / bulletin / 2005 / B-0405.pdf abgerufen am 27.07.2010. Schulzki-Haddouti, Ch. (2008), Studien bewerten Vernetzung für Innovationsfähigkeit von Unternehmen URL: http: / / blog.kooptech.de / 2008 / 04 / studien-bewertenvernetzung-fuer-innovationsfaehigkeit-von-unter-nehmen / abgerufen am 27.07. 2010. Voos, S. / Klages, T. / Dusch, A. (o. J.), Innovation in Netzwerken. URL: http: / / www. soziologie.rwth-aachen.de / pages / institut / personal / pointner / organisation_netzwer ke / 291106.pdf abgerufen am 05.09.2008. Wallner, H. P. (1999), Netzwerke und Kooperationen. Ein Informations- und Arbeitsheft für UnternehmerInnen URL: http: / / www.stenum.at / produkte / netzwerke. pdf abgerufen am 05.09.2008.
232
Ronald Billen
Wurche, S. (1994), Strategische Kooperationen für mittelständische Unternehmen – Entscheidungshilfen zur Auswahl und Gestaltung zwischenbetrieblicher Kooperationen, Ergebnisse eines durch die Stiftung Industrieforschung geförderten Forschungsvorhabens, Band 7, Deutscher Wirtschaftsdienst, Köln. Zerfaß, A. (2006), Der Missing Link zum Erfolg. Innovationskommunikation: Neue Ideen öffentlich und verständlich machen, in: rkw-magazin.de, Nr. 1, März 2006 URL: http: / / www.innovationskommunikation.de / fileadmin / _innovate / downloads / RKW-Magazin_0106.pdf abgerufen am 15.07.2008.
Innovation durch Kooperation: Dynamische Betrachtung des interorganisationalen Wissenstransfers in strategischen Netzwerken Von Björn Hobus und Marcus Lorenz
A. Einführung Die unternehmensübergreifende Integration und Kombination von Informationen bzw. Wissen bildet die Grundlage für erfolgreiche Innovationen. Radikale Innovationen können entstehen, wenn unterschiedliche Wissensbestände zusammengeführt und verbunden werden. Hierzu ist – v. a. in technologie- und wettbewerbsintensiven Branchen – ein effektiver und kreativer Wissenstransfer zwischen Unternehmen erforderlich, der häufig im Rahmen von lern- und innovationsorientierten Kooperationen stattfindet. Dieses Thema wird in der Management-Literatur ausführlich behandelt. Seine Relevanz spiegelt sich auch in der starken Zunahme von „Lernallianzen“ in der Praxis wider, die jedoch häufig ihre Ziele verfehlen. Wissen über Organisationsgrenzen hinweg zu transferieren erweist sich als schwierig. Wissenstransferbarrieren können nur in einem längerfristigen Prozess durch Kontext-Transfer und Sammeln von partnerspezifischer Kooperationserfahrung gesenkt werden.1 Eine effektive Kopplung der Wissensbasen ist aber mit dem Risiko verbunden, in einem asymmetrischen „learning race“ erfolgskritisches Wissen an den sich möglicherweise opportunistisch ver haltenden Kooperationspartner zu verlieren (interorganizational learning dilemma).2 Zum anderen sinken durch erfolgreiche Transferprozesse Kreativität und Innovationsleistung, wenn sich die Wissensbasen der Partner angeglichen haben und eine gegenseitige „Befruchtung“ nicht mehr möglich ist. Der größte Teil der wissensorientierten Kooperationsliteratur untersucht Lernprozesse in isolierten, dyadischen Beziehungen. Sehr häufig werden aber auch strategische Netzwerke mit interorganisationalem Lernen in Verbindung gebracht: Es wird davon ausgegangen, dass diese besonders gut 1 Vgl. 2 Vgl.
Müller-Stewens / Osterloh (1996). Larsson et al. (1998).
234
Björn Hobus und Marcus Lorenz
geeignet seien, interorganisationalen Wissenstransfer und Innovation zu fördern, jedoch ohne den Zusammenhang theoretisch zu fundieren.3 Die theoretischen Arbeiten zum Thema Netzwerke beschäftigen sich vorwiegend mit der Struktur (Zentralität, Bindungsintensität) sowie mit Aufbau und Koordinationswirkung von Vertrauen. Eine Übertragung der lernorientierten und dynamischen Kooperationskonzepte auf Netzwerke hat bisher kaum stattgefunden. Ziel dieses Beitrags ist es, die beschriebene Forschungslücke zu schließen. Es soll eine theoretisch fundierte Erklärung geliefert werden, warum strategische Netzwerke besonders geeignet sind für effektiven interorganisationalen Wissenstransfer sowie Innovation.
B. Interorganisationaler Wissenstransfer und Lernstrategien in Kooperationen I. Idealtypische Lernstrategien Die Gründe, aus denen Unternehmen Kooperationen eingehen, sind vielfältig. Neben der Erzielung von Zeit- oder Kostenvorteilen sowie der Teilung unternehmerischer Risiken spielen immer häufiger Lernziele eine wesentliche Rolle. Hauptmotiv ist dabei der Zugriff auf externe Wissensressourcen. Damit eine Kooperation erfolgreich ist, müssen die Lernziele der Partner zumindest teilweise übereinstimmen. Da die Kooperateure jedoch oft direkte Wettbewerber sind, scheitern viele strategische Allianzen aufgrund mangelnder Zielkompatibilität. Unter Berücksichtigung der Coopetiton-Problematik strategischer Partnerschaften können für Wissensallianzen drei idealtypische Lernstrategien unterschieden werden: unilaterales, äquilaterales und relationales Lernen.4 Eine unilaterale Lernstrategie wird ein Unternehmen vor allem dann verfolgen, wenn notwendige Ressourcen nicht im Unternehmen vorhanden sind und diese zeitnah benötigt werden. Im Vergleich zur Akquisition und unternehmensinternen Entwicklung bieten Kooperationen die Möglichkeit, schnell und kostengünstig Zugriff auf die benötigten Ressourcen zu erhalten und diese für die eigenen Zwecke nutzbar zu machen.5 Gleichzeitig versucht das Unternehmen, dem Partner möglichst wenig vom eigenen Wissen preiszugeben.6 Ein solches Vorgehen führt zwar kurzfristig zu einer positi3 Vgl.
z. B. Powell et al. (1996). zum Folgenden von der Oelsnitz / Tiberius (2007), S. 128 ff. 5 Vgl. Khanna et al. (1998), S. 195. 6 Vgl. Hamel (1991). 4 Vgl.
Interorganisationaler Wissenstransfer in strategischen Netzwerken235
ven Wissensbilanz, langfristig sind jedoch erhebliche Reputationsverluste zu vermuten. Darüber hinaus ist es den Kooperationspartnern nicht möglich, das für den Transfer komplexer Wissensbestände notwendige Kontextwissen aufzubauen.7 Äquilaterales Lernen dagegen ist durch eine relativ hohe Transparenz der Kooperateure gekennzeichnet. Diese Lernstrategie ermöglicht beiden Unternehmen in etwa gleichem Maße wechselseitig voneinander zu lernen, um vorhandene Kompetenzdefizite auszugleichen. Während unilaterales und äquilaterales Lernen auf den Transfer bereits existierenden Wissens abzielen, soll durch relationales Lernen neues Wissen generiert werden. Es bildet die Grundlage für die Innovation durch Kooperation. Gelernt wird dabei nicht mehr auf Unternehmensebene. Vielmehr findet Lernen durch unternehmensübergreifende Kombination komplementärer Ressourcen auf der Netzwerkebene statt.8 Die Verknüpfung spezifischer Wissensbestände setzt – neben gemeinsamen Zielen und einem hohen Maß an Vertrauen – ein gewisses Grundverständnis für die Ressourcen der Partner sowie interorganisationale Routinen und kompatible Unternehmensstrukturen voraus. Damit relationales Lernen stattfinden kann, müssen zunächst Angleichungsprozesse der mentalen Modelle zwischen den Kooperationspartnern stattgefunden haben, d. h. um miteinander lernen zu können, muss zunächst voneinander gelernt werden. Lernen im Netzwerkverbund setzt somit immer äquilaterales Lernen voraus, denn nur so kann Wissen zwischen den einzelnen Netzwerkpartnern diffundieren. Führte der Wissensaustausch nicht zu opportunistischem Verhalten, kann durch eine auf Vertrauen basierende Netzwerkkultur ein einzigartiger, nur schwer imitierbarer Wettbewerbsvorteil gegenüber Unternehmen außerhalb des Netzwerks entstehen.9 Eine solche Entwicklung, in der die Netzwerkteilnehmer aufgrund von positiven Erfahrungen von einer unilateralen über eine äquilaterale zur relationalen Lernstrategie übergehen, wird im Folgenden als adduktiver Lernstrategiewechsel bezeichnet.10 Basis einer solchen Annäherung und Kooperationsvertiefung sind effektive Wissenstransferprozesse, die sich ausgehend von einer einseitigen Wissensakquisition über die gemeinsame Wissensintegration bis hin zur Wissensgenerierung (Innovation als Ergebnis aus der Kombination wechselseitig transferierten Wissens) steigern. 7 Vgl.
Müller-Stewens / Osterloh (1996), S. 18. von der Oelsnitz / Tiberius (2007), S. 135 f. 9 Vgl. Dyer / Singh (1998). 10 Denkbar ist auch eine negative Lernspirale, verursacht durch opportunistisches Verhalten der Kooperateure. Die Folge wäre ein abduktiver Lernstrategiewechsel von relationalem zu äquilateralem bis hin zu unilateralem Lernen. Vgl. hierzu ausführlich von der Oelsnitz / Tiberius (2007), S. 143 ff. 8 Vgl.
236
Björn Hobus und Marcus Lorenz
II. Effektivität des interorganisationalen Wissenstransfers Durch interorganisationale Wissenstransferprozesse wird Wissen von einem Unternehmen (Quelle) zu einem anderen (Empfänger) übertragen. Als Maß für die Wirksamkeit und die Zielerreichung des Wissenstransfers wird die Effektivität verwendet. Als effektiv kann ein Wissenstransferprozess bezeichnet werden, wenn das Wissen zum Empfänger geflossen ist, dort integriert worden ist und tatsächlich angewendet wird. Wathne et al. beurteilen die Effektivität des Wissenstransfers danach, ob vom Empfängerunternehmen Wissen erworben worden ist, das ihm ermöglicht hat, (1) neue Einsichten zu entwickeln, (2) neue Wege zur Erfüllung bestehender Aufgaben zu erkennen und (3) neue Aufgaben auszuführen.11 Heppner schlägt als Ergebnisvariablen zur Beurteilung der Effektivität des Wissenstransfers die folgenden vier Kriterien vor: kognitive Integration, Transferzeit, Transferkreativität und künftige Kooperationsbereitschaft.12 Zur kognitiven Integration ist die erfolgreiche Überwindung von Transferbarrieren erforderlich. Diese resultieren aus den kognitiven Differenzen zwischen den Wissensbasen der kooperierenden Unternehmen. Verstärkt werden die Barrieren durch unterschiedliche strukturelle, kulturelle und strategische Kontextbedingungen. Über gelungene Wissenstransferprozesse erfolgt eine Angleichung der Wissensbasen durch den Abbau von kognitiven Differenzen. Als zweites Kriterium zur Beurteilung der Effektivität wird die Transferzeit herangezogen. Aufgrund der hohen Bedeutung der Zeit als Wettbewerbsfaktor spielt das „Timing“ beim Wissenstransfer eine wichtige Rolle. Transfergelegenheiten müssen rechtzeitig erkannt und hinreichend schnell genutzt werden. Die Transferkreativität erfasst die Generierung neuen Wissens durch interorganisationales (relationales) Lernen im Rahmen des Transferprozesses. Hieraus können Prozess- oder Produktinnovationen entstehen, die einzelne Unternehmen isoliert nicht zu entwickeln vermögen. Das neu geschaffene Wissen beruht auf der spezifischen, sozial eingebetteten und komplexen Interaktion bzw. Kombination von Wissensbestandteilen der Transferpartner, die extern kaum oder gar nicht nachvollzogen werden kann. Deshalb ist es besonders gut vor Imitation geschützt.13 Soll der Wissenstransfer nicht auf ein einmaliges Projekt beschränkt bleiben, sondern längerfristig angelegt werden, muss die künftige Kooperations11 Vgl.
Wathne et al. (1996), S. 68. zum Folgenden Heppner (1997), S. 256 f., 264 ff. 13 Vgl. Reed / DeFillippi (1990), S. 90 ff. 12 Vgl.
Interorganisationaler Wissenstransfer in strategischen Netzwerken237
bereitschaft des Transferpartners berücksichtigt werden. Der Wissenstransfer darf daher keine negativen Konsequenzen auf das Verhältnis zwischen den Kooperationspartnern haben, die weitere Transferprojekte bzw. einen dauerhaften Transfer in der Zukunft verhindern könnten. Dies bedeutet, dass opportunistisches Verhalten und unfreiwilliger Wissenstransfer vermieden werden müssen. Inwieweit der interorganisationale Wissenstransfer tatsächlich effektiv abläuft und die angestrebten Ergebnisse erreicht werden, hängt von mehreren Einflussfaktoren ab. Diese können je nach Ausprägung als Transferbarrieren wirken oder aber den Transferprozess erleichtern. Die vier Haupteinflussfaktoren sind: Kooperationserfahrung, Motivation zum Wissenstransfer, relative Absorptionsfähigkeit sowie Transparenz und Offenheit der Transferpartner.14 Der erste Einflussfaktor ist die Kooperationserfahrung. Je mehr Erfahrungen ein Unternehmen im Umgang mit Kooperationsprojekten gesammelt hat, umso besser werden seine Fähigkeiten zum Management von Kooperationen. Je unproblematischer diese insgesamt verlaufen, desto effektiver können Wissenstransferprozesse im Rahmen der Zusammenarbeit durchgeführt werden.15 Die Motivation zum Wissenstransfer ist der zweite Einflussfaktor. Um einen effektiven Wissenstransfer zu erreichen, muss bei den Partnerunternehmen eine hinreichend stark ausgeprägte Motivation vorliegen. Ohne die strategische Absicht („strategic intent“), im Rahmen der Kooperation vom Partnerunternehmen konkretes Wissen zu erwerben und bestimmte Fähigkeiten zu lernen, kann kein effektiver, sondern nur zufälliger und fragmentarischer Wissenstransfer stattfinden. Hamel et al. bringen die Notwendigkeit einer ausgeprägten Lernbereitschaft und -intention auf den Punkt: „to learn, one must want to learn“16. Andererseits muss beim Partnerunternehmen auch eine hinreichende Motivation zur Wissensabgabe vorliegen. Der dritte wichtige Einflussfaktor ist die relative Absorptionsfähigkeit der Transferpartner.17 Cohen / Levinthal definieren die absorptive capacity eines Unternehmens als „ability to recognize the value of new information, assimilate it, and apply it to commercial ends“18. Eine hohe Absorptionsfähig14 Vgl. Hamel (1991), S. 89 ff., Simonin (1991), S. 70–94, Wathne et al. (1996), S. 60 ff., Larsson et al. (1998), S. 288 ff. 15 Vgl. Wathne et al. (1996), S. 66. 16 Hamel et al. (1989), S. 138. 17 Hamel spricht von „receptivity“, durch die die „capacity to learn“ bestimmt wird, vgl. Hamel (1991), S. 96. 18 Cohen / Levinthal (1990), S. 128.
238
Björn Hobus und Marcus Lorenz
keit, d. h. Aufnahmefähigkeit für Wissen wirkt sich positiv auf die Effektivität von Wissenstransferprozessen aus. Lane / Lubatkin haben das Konzept erweitert: Sie gehen davon aus, dass die Absorptionsfähigkeit nicht nur vom aufnehmenden Unternehmen bestimmt wird, sondern auch von charakteristischen Eigenschaften des abgebenden Unternehmens abhängt. Die Absorptionsfähigkeit kann immer nur relativ zu einem konkreten Wissenstransferpartner eingeschätzt werden. Lane / Lubatkin sprechen daher von relativer Absorptionsfähigkeit. Diese hängt davon ab, wie ähnlich sich die Transferpartner in Bezug auf die kognitiven, strukturellen, kulturellen und strategischen Kontextbedingungen sind.19 Schließlich beeinflussen auch Transparenz und Offenheit der Transferpartner die Effektivität des interorganisationalen Wissenstransfers. Hiermit ist zum einen die „Durchschaubarkeit“ von Routinen und sonstigem Wissen gemeint (Transparenz) und zum anderen die Bereitschaft, das eigene Wissen dem Transferpartner gegenüber transparent zu machen und ihm so den Zugang zu diesem zu erleichtern (Offenheit).20 Sofern möglich kann dies durch Artikulierung bzw. Kodifizierung von Wissen erfolgen. Im Falle von implizitem Wissen hingegen kann dies nur durch Schaffung möglichst vielfältiger, reichhaltiger und direkter Interaktionsmöglichkeiten erreicht werden.21 III. Dynamisches Modell des interorganisationalen Wissenstransfers Die Effektivität des interorganisationalen Wissenstransfers ist jedoch keine feste Größe, sondern befindet sich in einem kontinuierlichen Veränderungsprozess. Kooperationserfahrung und gemeinsames Kontextwissen müssen durch langfristige Lernprozesse aufgebaut werden, entwickeln sich ständig weiter und passen sich Veränderungen an (z. B. Eintritt eines neuen Netzwerkpartners). Das Modell zur Beschreibung der Effektivität des interorganisationalen Wissenstransfers muss somit in einem zweiten Schritt „dynamisiert“ werden. Vorgeschlagen wird eine Erweiterung um die folgenden lernrelevanten Aspekte: combinative capabilities, inter-firm routines, experience accumulation und alliance learning process (vgl. Abbildung 1). Innovationen entstehen nicht voraussetzungsfrei, sondern sind geprägt von unternehmerischen Entscheidungen in der Vergangenheit. Erst durch die Kombination der vorhandenen Ressourcen entstehen neue Anwendungsmög19 Vgl.
Lane / Lubatkin (1998), S. 462 ff. verwendet umgekehrt die „partner protectiveness“ als Einflussfaktor (vgl. Simonin (1991), S. 71, 79 f.). 21 Vgl. Hamel (1991), S. 93 ff., Wathne et al. (1996), S. 60 ff., Larsson et al. (1998), S. 291. 20 Simonin
Interorganisationaler Wissenstransfer in strategischen Netzwerken239
Abbildung 1: Dynamisches Modell des interorganisationalen Wissenstransfers
lichkeiten. Entscheidend für die Generierung und Nutzung neuen Wissens ist die Fähigkeit, vorhandene Ressourcen − interne und / oder externe − neu miteinander zu kombinieren. Kogut / Zander haben hierfür den Begriff combinative capabilities geprägt.22 Bei der Neukombination der Ressourcen von Kooperationspartnern wird jedoch nicht nur Faktenwissen transferiert (z. B. über Technologien oder Produkteigenschaften), sondern es werden ebenso Erfahrungshintergründe und Lernkontexte ausgetauscht. Durch wiederkehrende Aktivitäten bilden sich langfristig partnerspezifische Routinen (interfirm routines) heraus.23 Diese beschreiben, wie die Partnerunternehmen miteinander lernen. Die Kooperationspartner lernen etwa, wie gemeinsame Ziele formuliert und überprüft werden, wie bei Konflikten zu verfahren ist oder wer die entscheidenden Wissensträger in den Partnerunternehmen sind. Durch die tiefgreifende Kommunikation werden höhere Lernniveaus erlangt. Auf dieses Kontextwissen können die Partner in späteren Kooperationen zurückgreifen. Folglich können durch combinative capabilities und interfirm routines schneller Kooperationserfolge erzielt werden – sofern die Erfahrungen aus vergangenen Kooperationen systematisch aufgearbeitet wurden. Durch das Sammeln von Erfahrungen (experience accumulation) werden Lernmechanismen in Gang gesetzt, wodurch sich letztlich Routinen im Sinne bewähr22 Vgl. 23 Vgl.
Kogut / Zander (1992), S. 391. Mason / Leek (2008), S. 778.
240
Björn Hobus und Marcus Lorenz
ter Handlungen herausbilden.24 Die Fähigkeit, Kooperationen erfolgreich zu managen, ist damit größtenteils abhängig von den Erfahrungen aus vergangenen Kooperationen.25 Zur Institutionalisierung von Kooperationsroutinen schlagen Kale / Singh einen vierstufigen Wissensmanagementprozess (alliance learning process) mit den nacheinander ablaufenden Schritten Wissensartikulation, Wissenskodifikation, Wissensteilung und Wissensinternalisierung vor.26 Die Artikulation von Wissen dient der Offenlegung von Kooperations-Know-how, welches in den Köpfen der Allianzmanager gespeichert ist. In einem zweiten Schritt wird dieses Wissen durch die Erstellung von Kooperationsrichtlinien, Handbüchern oder Best Practices kodifiziert, um es einem größeren Nutzerkreis zur Verfügung zu stellen. Wissensteilung ist ein weiterer elementarer Bestandteil des Wissensmanagementprozesses, da sich nur durch den konstruktiven Austausch der Mitarbeiter untereinander (z. B. durch Workshops oder Kooperations-kommitees) ein gemeinsames Kooperationsverständnis herausbilden kann. In einem letzten Schritt muss dieses Wissen durch Routinen im täglichen Workflow internalisiert werden, um letztlich ein Teil der organisatorischen Wissensbasis zu werden. Die beschriebenen dynamischen Prozesse können unter geeigneten Bedingungen in selbstverstärkenden Lernzyklen zu einer kontinuierlichen Verbesserung der Effektivität des Wissenstransfers führen. Dies unterstützt langfristig eine adduktive Entwicklung weg von unilateralem, hin zu äquilateralem und relationalem Lernen. Inwieweit die Bedingungen in strategischen Netzwerken geeignet sind, die letztgenannten, innovationsfördernden Lernformen zu ermöglichen, wird im nächsten Abschnitt näher beleuchtet.
C. Innovation durch interorganisationalen Wissenstransfer in strategischen Netzwerken I. Strategische Netzwerke Strategische Netzwerke sind eine spezielle, multilaterale Form der Unternehmenskooperation.27 In einem strategischen Netzwerk schließt sich eine Gruppe von Unternehmen (und ggf. auch anderen Organisationen) unter der Führung eines zentralen Unternehmens (hub firm oder strategic center) zusammen, um langfristig gemeinsame Ziele zu verfolgen.28 Zwischen den 24 Vgl.
Zollo / Winter (2002), S. 341. Anand / Khanna (2000). 26 Vgl. zum Folgenden Kale / Singh (2007), S. 984 ff. 27 Vgl. Balling (1998), S. 12 f., 26. 28 Vgl. Sydow (1992), S. 80 ff. und Lorenzoni / Baden-Fuller (1995), S. 146 ff. 25 Vgl.
Interorganisationaler Wissenstransfer in strategischen Netzwerken241
Netzwerkteilnehmern (nicht notwendigerweise zwischen allen) bestehen Interorganisationsbeziehungen.29 Diese können von unterschiedlicher Art und Intensität sein (z. B. Zulieferbeziehungen, Subcontracting, Joint Ventures oder strategische Allianzen).30 Sydow charakterisiert die Interorganisationsbeziehungen als „komplex-reziproke, eher kooperative denn kompetitive und relativ stabile Beziehungen zwischen rechtlich selbständigen, wirtschaftlich jedoch zumeist abhängigen Unternehmen“31. Zwischen den Netzwerkunternehmen besteht eine hohe strategische Interdependenz, da sie aufgrund der stark ausgeprägten Arbeitsteilung und Spezialisierung im Netzwerk bestimmte Erfolgspotentiale nur gemeinsam aufbauen und erschließen können. Hierzu sind sie auf Ressourcen, Fähigkeiten und Wissen der Partner angewiesen.32 Grundlage für die wechselseitige Unterstützung und das gemeinsame Verfolgen von Zielen ist die Reziprozität der Interorganisationsbeziehungen.33 Gegenseitige Austauschprozesse von Ressourcen, Fähigkeiten und Wissen basieren in Netzwerken nicht auf einem strengen Äquivalenzprinzip (quid pro quo), dessen Einhaltung durch Verträge abgesichert werden kann, sondern auf dem vertrauensbasierten Reziprozitätsprinzip. Dieses besagt, dass sich „die Beiträge der beteiligten Parteien nicht in jedem einzelnen Austauschvorgang, sondern erst im Laufe der Austauschbeziehung ausgleichen müssen“34. Dies setzt bei den Partnern die Bereitschaft voraus, Vorleistungen zu erbringen und das Risiko in Kauf zu nehmen, dass die in der Zukunft liegende Gegenleistung für sie keinen entsprechenden Nutzen bringt oder überhaupt nicht erfolgt. Daher spielt der Aufbau von interorganisationalem Vertrauen eine wichtige Rolle.35 Ein weiteres charakteristisches Merkmal der Interorganisationsbeziehungen ist die relativ hohe Stabilität. Sie sind langfristig angelegt, d. h. sie werden im Gegensatz zu Marktbeziehungen und isolierten Kooperationsbeziehungen nicht nach Abschluss des Kooperationsprojekts vollständig aufgelöst, sondern latent gepflegt und weiterentwickelt, so dass bei Bedarf eine schnelle Reaktivierung möglich ist. Andererseits können die Interorganisa tionsbeziehungen aber auch schnell beendet und neue aufgebaut werden, ohne dass größere Störungen des gesamten Netzwerkes auftreten, da die
29 Vgl.
Sydow (1992), S. 60 und Jarillo (1993), S. 7. Sydow (1992), S. 61 ff. 31 Sydow (1992), S. 93 f. 32 Vgl. Gulati (1995), S. 621. 33 Vgl. Oliver (1990), S. 244. 34 Semmlinger (1993), S. 334. Vgl. auch Sydow (1992), S. 95. 35 Vgl. Semmlinger (1993), S. 335 und Gulati (1995), S. 91 f. 30 Vgl.
242
Björn Hobus und Marcus Lorenz
Kopplungsintensität zwischen den Netzwerkunternehmen relativ gering ist (lose Kopplung).36 Insgesamt gesehen kombinieren die Interorganisationsbeziehungen in strategischen Netzwerken in einzigartiger Weise Stabilitäts- und Flexibilitätspotentiale: unter Bewahrung der notwendigen zwischenbetrieblichen Kommunikations- und Durchsetzungsmöglichkeiten (Handlungsfähigkeit) werden der strategische Spielraum, die Innovationskraft und die Wettbewerbsfähigkeit der am Netzwerk beteiligten Unternehmen erhöht.37 Die Grundlage hierfür bildet der interorganisationale Wissenstransfer innerhalb des Netzwerkes, dessen Effektivität und Innovationswirkung im Folgenden mit Hilfe des in Abschnitt B. entwickelten dynamischen Modells analysiert und beurteilt werden soll.
II. Effektivität und Innovationswirkung des interorganisationalen Wissenstransfers in strategischen Netzwerken 1. Analyse der Einflussfaktoren a) Kooperationserfahrung Nach Doz sind die Anfangsbedingungen einer Kooperation nicht ausschlaggebend für deren Erfolg. Vielmehr werden im Verlauf der Zusammenarbeit Lernzyklen durchlaufen, die zu einer Verbesserung der Kooperationsbedingungen führen.38 In strategischen Netzwerken kann sich über kumulative Lernprozesse (alliance learning process, experience accumulation) die angesammelte partner- bzw. netzwerkspezifische Kooperationserfahrung zum einen durch die Entwicklung von inter-firm routines und combinative capabilities direkt auf die Effektivität des Wissenstransfers auswirken.39 Zum anderen besteht ein indirekter Einfluss durch positive Veränderungen der anderen Einflussfaktoren (vgl. Abbildung 1). Hat ein Unternehmen innerhalb eines Netzwerks positive Lernerfahrungen gesammelt, erhöht dies sowohl die Motivation für weitere Partnerschaften als auch seine Offenheit gegenüber anderen Netzwerkteilnehmern. Darüber hinaus wird durch (partielle) Angleichung der Wissensbasen (kognitive Integration) die Anschlussfähigkeit des Wissens erhöht. Damit entwickelt 36 Vgl.
Sydow (1992), S. 116 ff. ebd. (1992), S. 118. 38 Vgl. Doz (1996), S. 64 ff. 39 Vgl. Kapitel B. III. 37 Vgl.
Interorganisationaler Wissenstransfer in strategischen Netzwerken243
sich in selbstverstärkenden Zyklen bei allen Netzwerkpartnern ein zunehmendes Maß an gemeinsamer Kooperationserfahrung und Kontextwissen, das sich positiv auf die übrigen Einflussfaktoren des Wissenstransfers auswirkt − sowohl bei Kooperationen mit demselben Partner als auch mit anderen Netzwerkakteuren. Haben beispielsweise Unternehmen A und B sowie Unternehmen B und C in der Vergangenheit miteinander kooperiert, so verfügen auch Unternehmen A und C über die netzwerkspezifischen Routinen, auf die bei einer möglichen Kooperation zurückgegriffen werden kann. b) Motivation zum Wissenstransfer Aufgrund der hohen strategischen Interdependenz zwischen den Netzwerkpartnern ist die Motivation zum Wissenstransfer in strategischen Netzwerken besonders hoch. Da ihre Erfolgspotentiale eng aneinander gekoppelt sind, liegt es im Interesse der einzelnen Unternehmen, ihr Wissen mit den anderen zu teilen und zu „potenzieren“. Ob der Schwerpunkt stärker auf einer einseitigen, eigennützigen Lernmotivation (unilaterales Lernen) oder aber auf einer am gesamten Netzwerknutzen orientierten Motivation zum wechselseitigen Wissenstransfer (äquilaterales und relationales Lernen) liegt, hängt von der Art und dem Ausmaß der strategischen Interdependenz ab. Je stärker ein Unternehmen in das Netzwerk eingebunden ist und je höher das Verhältnis von netzwerkintegrierten zu netzwerkunabhängigen Geschäftsaktivitäten des Unternehmens ist, umso höher ist seine Motivation zum wechselseitigen Wissenstransfer.40 Auch die Stabilität und Reziprozität der Interorganisationsbeziehungen erhöhen die Motivation zum Wissenstransfer in strategischen Netzwerken. Die Gefahr der Übervorteilung wird deutlich reduziert, da opportunistisches Verhalten mit einem potentiell existenzbedrohenden Netzwerkausschluss geahndet werden kann. Zudem wird die Zahl der Möglichkeiten zum Austausch von Wissen durch die Anwendung der Reziprozitätsnorm stark erhöht. Hierdurch werden auch Projekte mit zeitlich versetztem oder indirektem Ausgleich der Austauschverhältnisse durchführbar, die außerhalb von Netzwerken nicht zustande kommen können. Die hohe Motivation zum wechselseitigen Austausch sorgt dafür, dass viele Möglichkeiten auch wahrgenommen werden.41
40 Vgl. 41 Vgl.
Khanna et al. (1998), S. 195 ff. Larsson et al. (1998), S. 290.
244
Björn Hobus und Marcus Lorenz
c) Relative Absorptionsfähigkeit Aufgrund der stabilen Interorganisationsbeziehungen innerhalb eines strategischen Netzwerks können die kumulierten Kooperations- und Wissens transferprozesse im Laufe der Zusammenarbeit zu einer Angleichung der kognitiven, strukturellen, kulturellen und strategischen Kontextbedingungen führen. Hierdurch wird die relative Absorptionsfähigkeit der Netzwerkunternehmen immer weiter erhöht. Zum einen werden sich die Wissensbasen der Partner ähnlicher. Dies steigert die Aufnahmefähigkeit, denn je mehr Wissen ein Unternehmen in der Vergangenheit erworben hat, das mit dem zu absorbierenden Wissen verwandt ist, umso einfacher und schneller kann die Aufnahme des neuen Wissens erfolgen (Pfadabhängigkeit). Die (partielle) Strukturgleichheit der Wissensbasen gewährleistet die Anschlussfähigkeit des Wissens, insbesondere im Falle impliziten Wissens, da bereits geeignetes, ähnliches Kontextwissen vorhanden ist. Auch das Aufspüren und Bewerten strategisch relevanten Wissens bei Kooperationspartnern wird hierdurch erleichtert.42 Analog können sich durch die wiederholte, enge Zusammenarbeit auch die Organisationsstrukturen annähern (isomorphic pull). Die Schaffung paralleler Strukturen sowie ähnlicher Wissensverarbeitungssysteme bei den Netzwerkpartnern verbessert die relative Absorptionsfähigkeit.43 Gleiches gilt für die Organisationskulturen: Kulturelle Differenzen − von Sprachunterschieden bis zu inkompatiblen Grundwerten − stellen gravierende Transferbarrieren dar, die durch langfristige Akkulturationsprozesse und die Entwicklung einer Netzwerkkultur reduziert werden.44 Schließlich beeinflusst auch die dominante Logik als strategischer Vorstellungs- und Bezugsrahmen die Absorptionsfähigkeit. Sie wirkt als Informations- bzw. Wissensfilter und bestimmt, welche Wissenstransferoptionen ein Unternehmen erkennen und umsetzen kann. Innerhalb eines strategischen Netzwerkes bildet sich − insbesondere bei aktiver Führung durch die hub firm − im Laufe der Zeit eine gemeinsame dominante Logik heraus, wodurch wiederum die relative Absorptionsfähigkeit steigt.45
42 Vgl. Cohen / Levinthal (1990), S. 128 ff., 135 ff., Mowery et al. (1996), S. 81, Prange (1996), S. 172 ff. und Lane / Lubatkin (1998), S. 461, 464. 43 Vgl. Aadne et al. (1996), S. 21, Prange (1996), S. 181 und Lane / Lubatkin (1998), S. 464 f. 44 Vgl. Heppner (1997), S. 225 ff. 45 Vgl. Bettis / Prahalad (1995), S. 7 f. und Lane / Lubatkin (1998), S. 466.
Interorganisationaler Wissenstransfer in strategischen Netzwerken245
d) Transparenz und Offenheit Über den längeren Kooperationszeitraum hinweg können Netzwerkunternehmen kontinuierlich ihre Kommunikationsfähigkeit erhöhen. Verbesserte Artikulation bzw. Kodifikation von Wissen steigert die Transparenz des Partners bzw. seines Wissens.46 Weiterhin bieten Netzwerke aufgrund der sozialen Einbettung der Unternehmen vielfältige Möglichkeiten zur direkten Interaktion, die bei „arm’s length transactions“ über Märkte nicht und bei kurzfristigen Kooperationsprojekten nicht in entsprechender Intensität genutzt werden können. Dies erlaubt einen reichhaltigen Austausch zwischen den Netzwerpartnern, der die Transparenz steigert.47 Die explizit angestrebte Dauerhaftigkeit und Stabilität der Interorganisationsbeziehungen trägt zur Bildung interorganisationalen Vertrauens bei, da hierdurch deutlich gemacht wird, dass die Kooperationsbeziehung als wertvoll angesehen wird. Damit ist die Wahrscheinlichkeit opportunistischen Verhaltens gering. Insbesondere in einer Situation mit hoher strategischer Interdependenz fungiert der gute Ruf als vertrauenswürdiger, verlässlicher und fairer Partner als „Pfand“ bzw. „Geisel“ im Kooperationsprozess („interchanging hostages“). Aus dem sich entwickelnden Vertrauen resultiert schließlich die für den Wissenstransfer erforderliche Offenheit der Netzwerkpartner.48 Nach der Einflussfaktorenanalyse werden im Folgenden Effektivität und Innovationswirkung des interorganisationalen Wissenstransfers in strategischen Netzwerken mit Hilfe der Beurteilungskriterien aus Kapitel B. II. eingeschätzt. 2. Beurteilung von Effektivität und Innovationswirkung Als erstes Beurteilungskriterium wird die kognitive Integration herangezogen. Diese gelingt umso besser, je geringer die Transferbarrieren sind, die zwischen den Kooperationspartnern bestehen. In strategischen Netzwerken sind diese deutlich geringer als bei dyadischen Beziehungen, da die fortschreitende Angleichung der kognitiven, strukturellen, kulturellen und strategischen Prozesse wie oben beschrieben zu einer hohen relativen Absorptionsfähigkeit der Netzwerkpartner führt. Die hohe Transparenz und Offenheit der Netzwerkpartner führen zu einer geringen Höhe der Transferbarrieren, die durch den impliziten Charakter des zu transferierenden Wissens 46 Vgl.
Larsson et al. (1998), S. 296. Aadne et al. (1996) und S. 15, Wathne et al. (1996), S. 61 f. 48 Vgl. Jarillo (1993), S. 135 f. und Larsson et al. (1998), S. 295. 47 Vgl.
246
Björn Hobus und Marcus Lorenz
entstehen können. Da die Netzwerkpartner über eine gute partnerspezifische Kommunikationsfähigkeit verfügen und über direkte und persönliche Interaktionsprozesse miteinander verbunden sind, ist eine erfolgreiche kognitive Integration möglich. Das zweite Kriterium ist die Transferzeit. Im Vergleich zu isolierten Allianzen können sich die Partner von vornherein besser aufeinander einstellen – auch wenn zwischen einzelnen Netzwerkpartnern in der Vergangenheit noch keine direkte Interaktion stattgefunden hat. Diese gemeinsame Basis muss für isolierte Allianzen jeweils erst neu aufgebaut werden. Daher ist die Geschwindigkeit des Wissenstransfers in strategischen Netzwerken deutlich höher. Hohe Motivation, hohe Transparenz und Offenheit sowie hohe relative Absorptionsfähigkeit tragen ebenfalls zur Schnelligkeit des Transfers bei. Insbesondere die Ähnlichkeit der Wissensbasen wirkt sich positiv aus. Da bereits Kontextwissen als accumulated asset stock im Sinne von Dierickx / Cool vorhanden ist, treten bei der Wissensintegration keine time compression diseconomies auf.49 Auch die Transferkreativität, die die Grundlage für gemeinsame Innovationen bildet, ist im strategischen Netzwerk in Vergleich zu einzelnen dyadischen Beziehungen höher. Neues Wissen wird hauptsächlich durch die Kombination bestehenden Wissens geschaffen (combinative capabilities)50, und es gilt: „The more mutually transferred knowledge, the more opportunities to generate new knowledge through combining different pieces of existing knowledge“51. Aufgrund der hohen strategischen Interdependenz liegt es im Interesse aller Netzwerkpartner, ihr Wissen mit den anderen zu teilen und hierdurch zu potenzieren. Die Transferkreativität nimmt zwar durch die Angleichung der Wissensbasen auch innerhalb eines Netzwerks mit der Zeit ab. Es steht aber eine Vielzahl von potentiellen Transferpartnern zur Verfügung. Und durch den Eintritt neuer Unternehmen gelangt regelmäßig neues Wissen in das Netzwerk, wodurch auch langfristig der Zugang zu neuen Wissensimpulsen sichergestellt ist.52 Das letzte Kriterium ist die künftige Kooperationsbereitschaft der Transferpartner. Diese bleibt nur erhalten, wenn opportunistisches Verhalten und unfreiwilliger Wissenstransfer vermieden werden können. Hohe relative Absorptionsfähigkeit und große Transparenz bzw. Offenheit begünstigen aber in starkem Maße auch den unfreiwilligen Wissenstransfer. Aufgrund des „Drohpotentials“ eines Netzwerkausschlusses sowie des ausgeprägten 49 Vgl.
Dierickx / Cool (1989), S. 1507. Kogut / Zander (1992), S. 391. 51 Larsson et al. (1998), S. 290. 52 Vgl. Heppner (1997), S. 266 und Larsson et al. (1998), S. 290. 50 Vgl.
Interorganisationaler Wissenstransfer in strategischen Netzwerken247
interorganisationalen Vertrauens können sich Netzwerkunternehmen aber weitgehend darauf verlassen, dass Partner transferiertes Wissen nicht eigennützig einsetzen, so dass grundsätzlich die künftige Kooperationsbereitschaft gesichert ist. Wird das Vertrauen während der Kooperation nicht enttäuscht, können sich die Voraussetzungen für einen effektiven Wissenstransfer über die Akkumulation von Kooperationserfahrung und die Anreicherung des gemeinsamen Kontextwissens kontinuierlich weiter verbessern. Hierbei entstehen und verfeinern sich die netzwerkspezifischen inter-firm routines. Diese kumulativen Lernzyklen treiben die adduktive Entwicklung der Partnerschaftsverhältnisse im Netzwerk weiter voran, wodurch das relationale Lernen gefördert wird.53 Hieraus resultiert letztlich eine hohe Innovationswirkung des interorganisationalen Wissenstransfers in strategischen Netzwerken.
D. Fazit Im Ergebnis zeigt sich, dass strategische Netzwerke deutliche Vorteile bieten für Wissenstransfer, Wissenskombination und Innovation. Denn – im Gegensatz zu isolierten Allianzen – kann hier Kooperationserfahrung auf neue Netzwerkpartner, mit denen noch nicht zusammengearbeitet wurde, übertragen werden. In sich verstärkenden Lernzyklen entsteht eine Basis gemeinsamer netzwerkspezifischer Kooperationserfahrung sowie eine Netzwerkkultur, die die Effektivität neuer Wissenstransferprojekte positiv beeinflussen. Hierbei spielen Prozesse der langfristigen kognitiven, strukturellen und kulturellen Kontextangleichung, sowie die Ausbildung von effektivitätssteigernden inter-firm routines eine wichtige Rolle. Durch die Vielfalt zur Verfügung stehender „kontextähnlicher“ Wissenstransferpartner bieten strategische Netzwerke die Möglichkeit, mit zunehmender kumulierter Kooperationserfahrung die Effektivität des Wissenstransfers zu erhöhen, ohne gleichzeitig – wie bei wiederholten isolierten Allianzen – durch eine zu starke Angleichung der Wissensbasen zwischen den Kooperationspartnern Transferkreativität und Innovationsleistung zu reduzieren. Der netzwerkinterne Aufbau von Vertrauen und die starke strategische Interdependenz senken zudem die Gefahr, dass der oder die Partner gemeinsame Innovationsergebnisse opportunistisch zu eigenen Zwecken nutzen. Daher können strategische Netzwerke als ein Ansatz zur Lösung des interorganisational learning dilemma und somit als besonders innovationsfördernde unternehmensübergreifende Organisationsform betrachtet werden.
53 Vgl.
von der Oelsnitz / Tiberius (2007), S. 143 ff.
248
Björn Hobus und Marcus Lorenz
Literaturverzeichnis Aadne, J. H. / Krogh, G. von / Roos, J. (1996), Representationism: The Traditional Approach to Cooperative Strategies, in: Krogh, G. von / Roos, J. (Hrsg.), Managing Knowledge. Perspectives on Cooperation and Competition, London 1996, S. 9–31. Anand, B. N. / Khanna, T. (2000), Do Firms Learn to Create Value? The Case of Alliances, in: Strategic Management Journal, 21, 2000, 3, S. 295–315. Balling, R. (1998), Kooperation: Strategische Allianzen, Netzwerke, Joint Ventures und andere Organisationsformen zwischenbetrieblicher Zusammenarbeit in Theorie und Praxis, 2. Aufl., Frankfurt am Main 1998. Bettis, R. A. / Prahalad, C. K. (1995), The Dominant Logic: Retrospective and Extension, in: Strategic Management Journal, 16, 1995, 1, S. 5–14. Cohen, W. M. / Levinthal, D. A. (1990), Absorptive Capacity: A New Perspective on Learning and Innovation, in: Administrative Science Quarterly, 35, 1990, 1, S. 128–152. Dierickx, I. / Cool, K. (1989), Asset Stock Accumulation and Sustainability of Competitive Advantage, in: Management Science, 35, 1989, 12, S. 1504–1511. Doz, Y. L. (1996), The Evolution of Cooperation in Strategic Alliances: Initial Conditions or Learning Process?, in: Strategic Management Journal, 17, 1996, Summer Special Issue, S. 55–83. Dyer, J. H. / Singh, H. (1998), The Relational View: Cooperative Strategy and Sources of Interorganizational Competitive Advantage, in: Academy of Management Review, 23, 1998, 4, S. 660–679. Gulati, R. (1995), Social Structure and Alliance Formation Patterns: A Longitudinal Analysis, in: Administrative Science Quarterly, 40, 1995, 4, S. 619–652. Hamel, G. (1991), Competition for Competence and Inter-partner Learning within International Strategic Alliances, in: Strategic Management Journal, 12, 1991, 1, S. 83–103. Hamel, G. / Doz, Y. / Prahalad, C. K. (1989), Collaborate with Your Competitors − and Win, in: Harvard Business Review, 67, 1989, 1, S. 133–139. Heppner, K. (1997), Organisation des Wissenstransfers: Grundlagen, Barrieren, Instrumente, Diss., Wiesbaden 1997. Jarillo, J. C. (1993), Strategic Networks. Creating the Borderless Organization, Oxford 1993. Kale, P. / Singh, H. (2007), Building Firm Capabilities through Learning: The Role of the Alliance Learning Process in Alliance Capability and Firm-Level Alliance Success, in: Strategic Management Journal, 28, 2007, 10, S. 981–1000. Khanna, T. / Gulati, R. / Nohria, N. (1998), The Dynamics of Learning Alliances: Competition, Cooperation, and Relative Scope, in: Strategic Management Journal, 19, 1998, 3, S. 193–210.
Interorganisationaler Wissenstransfer in strategischen Netzwerken249
Kogut, B. / Zander, U. (1992), Knowledge of the Firm, Combinative Capabilities and the Replication of Technology, in: Organization Science, 3, 1992, 3, S. 383–397. Lane, P. / Lubatkin, M. (1998), Relative Absorptive Capacity and Interorganizational Learning, in: Strategic Management Journal, 19, 1998, 5, S. 461–477. Larsson, R. / Bengtsson, L. / Kenrikson, K. / Sparks, J. (1998), The Interorganizational Learning Dilemma: Collective Knowledge Development in Strategic Alliances, in: Organization Science, 9, 1998, 3, S. 285–305. Lorenzoni, G. / Baden-Fuller, C. (1995), Creating a Strategic Center to Manage a Web of Partners, in: California Management Review, 37, 1995, 3, S. 146–163. Mason, K. J. / Leek, S. (2008), Learning to Build a Supply Network: An Exploration of Dynamic Business Models, in: Journal of Management Studies, 45, 2008, 4, S. 774–799. Mowery, D. C. / Oxley, J. E. / Silverman, B. S. (1996), Strategic Alliances and Interfirm Knowledge Transfer, in: Strategic Management Journal, 17, 1996, Winter Special Issue, S. 77–91. Müller-Stewens, G. / Osterloh, M. (1996), Kooperationsinvestitionen besser nutzen: Interorganisationales Lernen als Know-how-Transfer oder Kontext-Transfer, in: Zeitschrift Führung + Organisation, 65, 1996, 1, S. 19–24. Oelsnitz, D. von der / Tiberius, V. A. (2007), Zur Dynamisierung interorganisationaler Lernstrategien − Pfade zwischen Kooperation und Konkurrenz, in: Schreyögg, G. / Sydow, J. (Hrsg.): Kooperation und Konkurrenz, Managementforschung 17, Wiesbaden 2007, S. 121–159. Oliver, C. (1990), Determinants of Interorganizational Relationships: Integration and Future Directions, in: Academy of Management Review, 15, 1990, 2, S. 241–265. Powell, W. W. / Koput, K. W. / Smith-Doerr, L. (1996), Interorganizational Collaboration and the Locus of Innovation: Networks of Learning in Biotechnology, in: Administrative Science Quarterly, 41, 1996, 1, S. 116–145. Prange, C. (1996), Interorganisationales Lernen: Lernen in, von und zwischen Organisationen, in: Schreyögg, G. / Conrad, P. (Hrsg.), Managementforschung 6, Wiesbaden 1996, S. 163–189. Reed, R. / DeFillippi, R. (1990), Causal Ambiguity, Barriers to Imitation, and Sustainable Competitive Advantage, in: Academy of Management Review, 15, 1990, 1, S. 88–102. Semmlinger, K. (1993), Effizienz und Autonomie in Zulieferungsnetzwerken − Zum strategischen Gehalt von Kooperationen, in: Staehle, W. / Sydow, J. (Hrsg.), Managementforschung 3, Wiesbaden 1993, S. 309–35. Simonin, B. (1991), Transfer of Knowledge in International Strategic Alliances: A Structural Approach, Diss, Ann Arbor, Mich. 1991. Sydow, J. (1992), Strategische Netzwerke: Evolution und Organisation, Wiesbaden 1992.
250
Björn Hobus und Marcus Lorenz
Wathne, K. / Roos, J. / Krogh, G. von (1996), Towards a Theory of Knowledge Transfer in Cooperative Context, in: Krogh, G. von / Roos, J. (Hrsg.), Managing Knowledge. Perspectives on Cooperation and Competition, London 1996, S. 55–81. Zollo, M. / Winter, S. G. (2002), Deliberate Learning and the Evolution of Dynamic Capabilities, in: Organization Science, 13, 2002, 3, S. 339–351.
Forum 4
Smart Networks
Konzeption, Methodik und Technologie kollaborativer Innovationsprozesse in Wertschöpfungsnetzwerken Von Thomas Fischer und Sven-Volker Rehm
A. Einleitung Innovation und Wissen sind nicht nur innerbetrieblich sehr eng miteinander verknüpft. Vielmehr machen die Komplexität und der Qualitätsanspruch heutiger Innovationsprozesse zumeist die Zusammenarbeit und das Wissensmanagement mehrerer kompetenter Partner erforderlich. So tragen etwa Kunden und Lieferanten Impulse und Ideen bei. Dienstleister und Forschungseinrichtungen sowie Maschinen-Lieferanten bringen ihre Erfahrung ein. Dabei ist ohne die Nutzung der heute verfügbaren Informations- und Kommunikationstechnologien eine Unternehmens- und Sektor-übergreifende Kollaboration – insbesondere zum Engineering von High Tech-Produkten – nicht effektiv und effizient möglich. Entsprechend erfordert das Management solcher vernetzter Wertschöpfungsgemeinschaften neben neuen – teilweise virtuellen – Organisationsstrukturen auch neue Konzepte und Methoden des Informations- und Wissensmanagements auf der Basis neuer Technologien. Für diese Form der – häufig industriesektorübergreifenden – Zusammenarbeit bietet sich das Konzept der „Smart Networks“ an.1 Der Beitrag zeigt geeignete Ansätze für kollaborative Innovationsprozesse in Wertschöpfungsnetzwerken auf und skizziert am Beispiel konkreter Innovationspartnerschaften die praktische Umsetzung der zugehörigen Elemente.
B. Vernetzung als Erfolgsfaktor Mittelständische Unternehmen gehören oftmals weniger zu den forschungs- und entwicklungsintensiven Unternehmen als vielmehr zu den Nutzern bzw. den „Folgern“ innovativer Technologien.2 Damit wird jedoch 1 Filos / Banahan 2 OECD
(2001). (2010), S. 24 f.
254
Thomas Fischer und Sven-Volker Rehm
die Rolle dieser Unternehmen in einer Kette hoher Wertschöpfung bzw. ihr spezifischer Beitrag zu hochwertigen Produkten nicht mehr angemessen wahrgenommen. Dabei kommt gerade der Anwendungsforschung und -erprobung neuer Methoden und Technologien für die Entwicklung und Vermarktung hochinnovativer Produkte besondere Bedeutung zu. Hierzu müssen sich die Wertschöpfungspartner, also auch die beteiligten mittelständischen Unternehmen, in Netzwerke integrieren, die quer durch Industriesektoren eine Entwicklungspartnerschaft mit dem Ziel einer mehrstufigen Wertschöpfung sogenannter wissensintensiver Produkte, ggf. ergänzt um hochwertige Dienstleistungen, darstellen. Die Vernetzung von Unternehmen als Organisationsform arbeitsteiliger industrieller Wertschöpfung ist keineswegs ein neues Phänomen. Strategische Netzwerke sind vielmehr längst etabliert, ihre Rolle, ihre Funktion und ihr Management sind intensiv erforscht und beherrscht.3 Ganz anders verhält es sich mit sich dynamisch bildenden Netzwerken, die aufgrund zunehmender Komplexität von Produkten und Prozessen, signifikant verkürzten Entwicklungszeiten und global differenzierten Markterfordernissen entstehen. Die Entwicklung hochkomplexer und wissensintensiver Produkte hoher Wertschöpfung erfordert zunehmend die projektbezogene, enge Zusammenarbeit mit Lieferanten und Kunden ebenso wie mit Innovationsdienstleistern, etwa Forschungseinrichtungen oder Universitäten, sowie mit Informationsdienstleistern, etwa Marketingexperten oder Marktforschungsinstituten. Ein solches Innovationsnetzwerk ist prinzipiell sektorübergreifend, überregional und häufig auch international angelegt und geht deshalb zumeist auch über die Grenzen herkömmlicher Cluster hinweg. Neue Cluster entstehen, die sich nicht mehr an einer Branche und ihrer Industriegeschichte, sondern vielmehr an den Eigenschaften neuer Materialien, an neuen Verarbeitungsprozessen und an neuen Anwendungsfeldern orientieren. Die dazu notwendige Zusammenarbeit ist durch drei Aspekte besonders geprägt: durch die Organisationsform der Vernetzung, durch die Gestaltung und die Intensität des Informations- und Wissensaustausches und schließlich durch die Leistungsfähigkeit der eingesetzten Informations- und Kommunikationstechnik (IuK-Technik). Sind diese drei Aspekte der Vernetzung nach dem heutigen Stand des Wissens und der Technik ausgestaltet, so kann man von „Smart Networks“ sprechen, wie sie im folgenden Abschnitt C. als Konzept virtueller Organisation für Wertschöpfungsgemeinschaften skizziert werden. 3 Sydow
(2006).
Konzeption, Methodik und Technologie255
Eine besondere Rolle spielen dabei so genannte Kompetenz- und Wissensdienstleistungen, die von Partnern entlang der Wertschöpfungskette erbracht werden, so etwa im Hinblick auf die optimale Verarbeitbarkeit von Rohstoffen und Vorprodukten, auf den effizienten und effektiven Einsatz von Produktionsanlagen und deren Wartung oder hinsichtlich der erforderlichen Eigenschaften der Zielprodukte bzw. der Anforderungen der Zielmärkte. Ergänzendes und tiefer gehendes Wissen, etwa Forschungsergebnisse über spezifische Materialeigenschaften und deren Erzeugung, Kompetenzdienstleistungen der beteiligten Anlagenbauer oder Kenntnisse über Vermarktungskanäle oder Logistikpfade, wird in solchen Netzwerken hoher Wertschöpfung systematisch in Anspruch genommen. Wenn ein kollaborativer Innovationsprozess modernen Organisationsstrukturen entspricht – wenn also etwa sogenannte virtuelle Teams gebildet werden – und wenn bei intensivem Wissensaustausch gleichzeitig die Bedürfnisse nach ausreichendem Schutz des geistigen Eigentums der Entwicklungspartner mittels moderner Informationstechnik erfüllt sind, so spricht man von „Smart Innovation Networks“. Sie bilden gegenwärtig den Gegenstand umfangreicher angewandter Forschung, bei der es darum geht, die potenziellen Vorteile und die Nachteile bzw. die Erwartungen und die Befürchtungen, die mit einer solchen „Hyper-Verlinkung“ verbunden sind, gemeinsam mit Industriepartnern und Forschungsdienstleistern anhand konkreter Innovationsprozesse systematisch zu erkunden. Für die Funktionsfähigkeit solcher komplexer Innovationsprozesse muss eine angemessene Wissens-Struktur bzw. Wissens-Infrastruktur bereitgestellt werden, die in Abschnitt D. erläutert wird. Aus der – etwa im von der Europäischen Kommission geförderten Integrierten Forschungsprojekt AVALON4 mit 30 Partnern aus der EU – gewonnenen Erfahrung über das Innovationsmanagement in Netzwerken wurde ein Management-Konzept entwickelt, das vornehmlich auf die Beherrschung und Nutzung verteilten Wissens im Rahmen einer kooperativen Produktentwicklung zielt. Dienstleistungsorientiertes Wissensmanagement in Netzwerken erweist sich dabei sowohl hinsichtlich des erforderlichen Domänenwissens als auch des Methodenwissens als eines der herausragenden Managementthemen unserer Zeit. Abschnitt E. gibt hierzu einige Hinweise auf Ergebnisse, die im oben genannten Projekt erarbeitet wurden.
4 AVALON
(2010).
256
Thomas Fischer und Sven-Volker Rehm
C. Smart Networks als Konzept virtueller Organisationen Die Bildung virtueller Strukturen, etwa virtueller Teams5, deren Mitglieder unterschiedlichen Institutionen angehören und die – temporär oder auf Dauer – gemeinsam eine Aufgabe erfüllen, ist kein wirklich neues Organisationsmodell.6 Arbeitsteilung über Unternehmensgrenzen hinweg stellt vielmehr ein vielfach bewährtes Konzept der Bündelung unterschiedlicher und zumeist komplementärer Kompetenzen zur Wertschöpfung dar. Mit zunehmender Komplexität der zu erbringenden Leistung und gleichzeitig rasant schrumpfender Zykluszeit derselben verlagert sich der Schwerpunkt heute zunehmend vom bewährten Modell strategischer Netzwerke7 zu dem eher „flüchtigen“ Konzept der „Dynamisch Interagierenden Unternehmen“, deren Leistungsgegenstand einem ebenso raschen Wandel unterworfen ist wie die Anzahl und die Zusammensetzung der interagierenden Wertschöpfungspartner. Gleichzeitig wachsen die Ansprüche an die Intensität der Vernetzung hinsichtlich der organisatorischen Regelungen ebenso wie vor allem auch hinsichtlich des Wissensaustauschs der Beteiligten und der Effizienz und Zuverlässigkeit der eingesetzten Technologien. Diese Intensität wird durch den Begriff des „Hyperlinking“ charakterisiert8, der für die drei genannten Dimensionen Organisation, Wissen sowie Informations- und Kommunikationstechnologie eine neue Qualität einfordert. Abbildung 1 soll diese Dimensionen symbolisieren und gleichzeitig deutlich machen, dass zu diesem Konzept der Smart Networks auch neue Methoden beitragen, die sich der jeweils leistungsfähigsten Technologie bedienen. Eine ausführliche Darstellung der Elemente und Perspektiven von Smart Networks erfolgt im Beitrag von Weiß.9
5 Scholz
(2001). (1986). 7 Sydow (1992). 8 Filos / Banahan (2001). 9 Der Beitrag „Modellierung von Smart Networks“ von Michael Weiß ist ebenfalls Teil dieses Tagungsbands. 6 Mowshowitz
Konzeption, Methodik und Technologie257
Abbildung 1: Konstituierende Elemente von Smart Networks
D. Wissensstruktur für Innovationsprozesse Ein Innovationsvorhaben, an dem mehrere Akteure unterschiedlicher Unternehmen und Dienstleister beteiligt sind, wird – vor allem in den ersten Phasen der Ideenfindung und Bewertung bis hin zum Prototyping – nicht als ein streng strukturierter Prozess, im Sinne eines Workflow, ablaufen. Trotzdem, oder gerade deshalb, kommt es darauf an, in jeder Phase der Entwicklung nicht nur die anzugehenden Aufgaben sondern auch die Partner zu kennen, die zu deren Erfüllung beitragen können bzw. sollen. Dieses Wissen schließt die Kenntnis geeigneter Methoden des Innovationsmanagements, der daran beteiligten Akteure und des geeigneten Zeitpunkts ihres Einsatzes mit ein. Dieser Zeitpunkt kann je nach Betrachtungsebene (auf / Management, Individuum) durch die Netzwerkebene, Unternehmensebene Innovationsphase, den Innovationsprozess (als Geschäftsprozess) respektive die individuelle Aufgabe bestimmt werden. Abbildung 4 skizziert nachfolgend die diesbezüglichen Zusammenhänge zwischen den Aufgaben (im Bild: Innovationsprozess), den Akteuren und den Methoden. Die informationstechnische Erfassung des durch diese Elemente referenzierten Wissens ermöglicht den Aufbau eines Knowledge Repository. Mit dessen Hilfe lassen sich gezielt zentrale im Innovationsprozess auftretende Fragestellungen beantworten (Abbildung 2).
258
Thomas Fischer und Sven-Volker Rehm Innova tions prozess
Wie verläuft der Innovationsprozess? (Was muss ich tun, und wann?)
Akteur
Innova tions methode
Welche Akteure sind involviert? (Wer kann eine Aufgabe wahrnehmen?) Welche Innovationsmethoden gibt es? (Wie kann die Aufgabe bearbeitet werden?)
Welcher Teil des Prozesses kann durch welche Methode unterstützt werden? (Wie kann ich eine Aufgabe ausführen?)
Welcher Teil des Prozesses erfordert die Beiträge welcher Akteure? (Was muss mit wem zusammen getan werden?)
Welche Akteure muss ich bei Anwendung einer Methode involvieren? (Mit wem muss wie interagiert werden?)
Abbildung 2: Fragestellungen im Innovationsprozess10
Ausgangspunkt des Knowledge Repository ist der Innovations-Referenzprozess, der in tabellarischer Zusammenstellung in Abbildung 3 angegeben ist. Neben den fünf Phasen des Innovationszyklus (I)–(V) sind in jeder Phase die einzelnen Module M1–M15 nach den Managementaktivitäten Planung, Veranlassung bzw. Ausführung und Kontrolle angeordnet, wodurch sich eine Folge von ineinandergreifenden Management-Regelkreisen ergibt. Dabei können sowohl einzelne Module als auch vollständige Phasen wiederholt durchgeführt bzw. durchlaufen werden. Daraus resultiert vor allem in den frühen Phasen des Innovationsprozesses das oben bereits angesprochene erforderliche Maß an Flexibilität hinsichtlich der Reihenfolge der Aktivi täten. Die Struktur des Network Innovation Knowledge Repository in Abbildung 4 soll die Interdependenz der Phasen (im Bild: Innovationsprozess), Akteure und Methoden symbolisieren und zeigt an, dass es zu jedem ent10 Rehm
et al. (2010).
Konzeption, Methodik und Technologie259
Abbildung 3: Innovations-Referenzprozess als tabellarische Darstellung in Phasen (I)–(V) und Modulen M1–M15 nach Managementaktivitäten Planning, Execution, Control (Originaldarstellung aus dem AVALON-Projekt)
sprechenden Wissensfeld (Prozess, Akteur und Methoden sowie den diese verbindenden Fragen) zugehörige Repositories gibt. Den Zusammenhang zwischen Akteuren und Methoden beispielsweise beschreibt das zugehörige Innovation Execution Scheme (IES); ähnliche Schemata sind für die o. a. Zusammenhänge im Repository eingerichtet. Ein Beispiel für eine in diesem Repository hinterlegte Innovationsme thode sowie deren Umsetzung in eine Anwendungssoftware auf einer Kollaborationsplattform, die von konkreten Akteuren benutzt wird, beschreibt Lau.11
11 Der Beitrag „Methoden für die kollaborative Innovation in Smart Networks“ von Armin Lau ist ebenfalls Teil dieses Tagungsbands.
260
Thomas Fischer und Sven-Volker Rehm
Abbildung 4: Network Innovation Knowledge Repository (Originaldarstellung aus dem AVALON-Projekt)
E. AVALON – Smart Networks in Aktion AVALON war ein Gemeinschaftsforschungsprojekt innerhalb des Schwerpunktes „Nanotechnologien und wissensbasierte mehrfunktionale Materialien und Prozesse (NMP)“ des 6. Forschungsrahmenprogrammes der Europäischen Kommission. Ziel des Projektes, bestehend aus einem Konsortium von 30 europäischen Partnern, war die industriesektorenübergreifende Entwicklung neuer hybrider textiler Strukturen, bei der die Entwicklung multifunktionaler Shape Memory Alloys (auf makroskopischer Ebene formerinnernde und superelastische Nickel-Titanium-Kompositmaterialien), entsprechende Verfahrenstechniken sowie Methoden für Design, Simulation und Netzwerkmanagement integriert werden.12 Von 2005–2009 sind die entstehenden textilen Strukturen als neuartige, leistungsfähige Produkte für „smarte“ Bekleidungssysteme und für textilverstärkte Materialien in tech nischen Anwendungen entwickelt, erprobt und hergestellt worden und werden seither angeboten. Neben zahlreichen Produktinnovationen, unter anderem bei medizinischer Kompressionskleidung, Motorradhelmen, Steuerungselementen für Helikopter, u. a. sind auch zahl12 AVALON
(2010).
Konzeption, Methodik und Technologie261
reiche Dienstleistungsinnovationen entstanden, die man als wissensintensive Dienstleistungen charakterisieren kann. Dadurch war es möglich, neue Marktperspektiven für die Textilwirtschaft aufzuzeigen und vielversprechende nicht-textile Technologien und Verfahren für KMU dieser Industrien zu erschließen. AVALON ging für die dazu notwendige Transformation von KMU neue Wege, indem die beteiligten Firmen pro-aktive, wissensgetriebene Netzwerkpartnerschaften zur kooperativen Entwicklung, Produktion, Vermarktung, Marketing und Recycling eingegangen sind. Dies wurde auf der Basis integrierter Dienstleistungen und virtueller Organisationsformen erreicht. Eine Hauptaufgabe des Projekts bestand in der Entwicklung einer systematischen und leistungsfähigen Wissensbasis, die sowohl die Leistungsziele der etablierten Netzwerke nach außen als auch die im Innovationsprozess erarbeiteten (Zwischen-) Ergebnisse nach innen zu dokumentieren geeignet ist. Die prinzipielle Struktur des Projekts als ein integrierter Ansatz für die Zusammenarbeit von kleinen und mittleren Unternehmen in verschiedenen Wertschöpfungspfaden bzw. -netzwerken von der Entwicklung des geeigneten Materials bis hin zur Konstruktion neuer Produkte zeigt Abbildung 5, ebenso der zugehörigen Technologie- und Wissensdienstleister sowie der geeigneten Forschungseinrichtungen. Dabei zeigten sich sehr bald das Bedürfnis nach einem sorgsamen Umgang mit dem jeweils individuell von Projektpartnern erworbenen Wissen, dem erforderlichen Schutz desselben vor nicht autorisierter Nutzung sowie insbesondere auch das Erfordernis des sachgemäßen Austauschs dieser Wissensgüter im kollaborativen Innovationsprozess. Konzeptionell wurde die Integration des Wissens durch einen ontologiebasierten Ansatz in einer hierfür entwickelten Konzeptwelt erreicht, wie in dem Beitrag von Hirsch näher erläutert wird.13 Technisch wurde eine dreistufige IuK-Infrastruktur etabliert (siehe Abbildung 6), die insbesondere im internen Bereich einen sorgsamen und sicheren Umgang mit dem erworbenen und auszutauschenden Wissen ermöglichte. Solche Projektergebnisse (insbesondere der spezifischen, eher grundlagenorientierten Forschung), die allen Projektpartnern verfügbar sein sollten, wurden in einem Wiki zusammengestellt, das ständig ergänzt und aktualisiert wurde. Die Kommunikation mit der „Öffentlichkeit“ erfolgte über eine projektbezogene Website. Durch diese Aufteilung in Bereiche unterschiedlicher Zugangsberechtigung konnten die Bedürfnisse nach Wissensaustausch einerseits und Wissensbewahrung bzw. Schutz des geistigen Eigentums andererseits wirksam erfüllt werden. 13 Der Beitrag „Ontologie-basierte Integration von verteilten Wissensbasen in Innovationsnetzwerken“ von Manuel Hirsch ist ebenfalls Teil dieses Tagungsbands.
262
Thomas Fischer und Sven-Volker Rehm
Abbildung 5: Integrationsansatz in AVALON (Originaldarstellung aus dem Projekt)
Abbildung 6: Bereiche und Bestandteile einer IuK-Infrastruktur für kollaborative Innovation in Netzwerken14 14 Rehm
et al. (2010).
Konzeption, Methodik und Technologie263
F. Perspektiven für Kollaboration in Innovationsnetzwerken Die – häufig spontane und situationsbezogene – gemeinsame Entwicklung von Produkten und Dienstleistungen, von technischen Prozessen oder auch von neuen Geschäftsmodellen, bei der die Kompetenz mehrerer Akteure zusammengeführt werden muss, wird in der nahen Zukunft ein etabliertes Modell der (industriellen) Wertschöpfung sein. Ein kritischer Erfolgsfaktor dieser Organisationsform besteht allerdings in der Fähigkeit der Akteure, für dieses Managementkonzept geeignete Methoden und Technologien zu erproben bzw. zu etablieren. Das Wissen über die Anwendbarkeit dieser Methoden und über den Leistungsumfang der Technologien stellt gegenwärtig den eigentlichen Engpassfaktor dar. Diesen Engpass zu erweitern trachten gegenwärtig zahlreiche wissenschaftlich angelegte und gleichzeitig auch anwendungsorientierte Forschungsprojekte. Der vorliegende Beitrag sollte die generelle Aufgabenstellung deutlich machen, indem anhand der Konzeption der Smart Networks die Rolle von Methoden und Technologien in Hinblick auf kollaborative Innovationsprozesse skizziert wurde. Weitergehende Erläuterungen des theoretisch fundierten und praktisch erprobten Konzeptes Dynamisch Interagierender Unternehmen hinsichtlich der Organisationsform und ihrer Modellierung, der Integration komplementärer Wissensdomänen sowie der Verwendung geeigneter Methoden liefern die Beiträge von Weiß, Hirsch und Lau in diesem Tagungsband. Diese, als auch die Autoren dieses Beitrages, sind an mehreren Projekten der industriellen Gemeinschaftsforschung im europäischen Forschungsraum federführend beteiligt und werden über deren Ergebnisse zu gegebener Zeit berichten. Literaturverzeichnis AVALON SME-IP (NMP2-T-2005-515813-2), http: / / www.avalon-eu.org (Zugriff am 03.08.2010). Filos, E. / Banahan, E. P. (2001), Towards the smart organization: An emerging organizational paradigm and the contribution of the European RTD programs. Journal of Intelligent Manufacturing, 12, S. 101–119. Lau, A. / Fischer, T. / Rehm, S.-V. / Hirsch, M. (2009), Collaborative Innovation in Smart Networks – a Methods Perspective. In: Thoben, K. / Pawar, K. / Katzy, B. / Bierwolf, R. (Hrsg.), Collaborative Innovation: Emerging Technologies, Environments and Communities. Proceedings of the 15th International Conference on Concurrent Enterprising (ICE2009). Leiden, The Netherlands. http: / / www.iceproceedings.org / .
264
Thomas Fischer und Sven-Volker Rehm
Mowshowitz, A. (1986), Social Dimensions of Office Automation. In: Yovitz, M. (Hrsg.): Advances in Computers, Vol. 25, 1986, S. 335–404. OECD (2010), SMEs, Entrepreneurship and Innovation. OECD Studies on SMEs and Entrepreneurship. Paris: OECD Publishing. Rehm, S.-V. / Lau, A. / Hirsch, M. (2010), eCollaboration zur Entwicklung textiler Produkt- und Dienstleistungsinnovationen. HMD – Praxis der Wirtschaftsinformatik, 273, S. 46–56. Scholz, C. (2001), Virtuelle Teams mit darwiportunistischer Tendenz: Der DorothyEffekt. OrganisationsEntwicklung, 20(4), S. 20–29. Sydow, J. (1992), Strategische Netzwerke: Evolution und Organisation. Wiesbaden: Gabler. – (2006), Management von Netzwerkorganisationen – Zum Stand der Forschung. In: Sydow, J. (Hrsg.), Management von Netzwerkorganisationen. Wiesbaden: Gabler, S. 387–472.
Modellierung von ‚Smart Networks‘ Von Michael Weiß
A. Smart Networks Die Märkte des digitalen Zeitalters zeichnen sich durch ständige Veränderungen und schwer vorhersagbares Verhalten aus. Ergänzende Dienstleistungen und kontextspezifische Informationen tragen immer mehr zum Mehrwert eines Produktes bei. Um erfolgreich in diesen umkämpften Märkten zu operieren und die Informationsanforderungen der Kunden zu erfüllen, müssen die Unternehmen agil und flexibel sein. Dies bedeutet, sie müssen in der Lage sein, sowohl neue Chancen in sich ändernden Märkten wahrzunehmen und zu nutzen1, also auch größere Investitionen zu tätigen. Dabei sollten sie sich aber auf ihre eigentlichen Geschäftstätigkeiten konzentrieren können. Netzwerke ermöglichen es Unternehmen, diese neuen Marktanforderungen zu erfüllen. Das ‚Smart Networks‘ Konzept beschreibt einen Netzwerkansatz, der materielle und immaterielle Güter gleichwertig behandelt2. In ‚Smart Networks‘ sind die Unternehmen wissensorientiert, miteinander vernetzt, in der Lage ihre Organisationsform und ihre Abläufe dynamisch anzupassen, lernfähig und beweglich genug neue Chancen zu erzeugen und zu nutzen um ihre Wettbewerbsfähigkeit, ihre Flexibilität und ihre Möglichkeiten zu verbessern. Die drei Perspektiven der Zusammenarbeit in Netzwerken, wie in Abbildung 1 angedeutet, sowie immaterielle Ressourcen und Arbeitsteilung sind die zentralen Elemente des Konzepts. Die Organisationsperspektive beinhaltet dabei den Übergang von tiefen Hierarchien hin zu flachen Hierarchien mit funktionsübergreifenden Team. Unternehmenshierarchien erlauben auf der einen Seite die Maximierung von Effizienz und bieten Stabilität. Auf der anderen Seite ermöglichen Netzwerke von unternehmensübergreifende Teams dagegen Flexibilität und Effektivität. Unternehmen in ‚Smart Networks‘ sind eine effiziente Kombination beider Aspekte. Der Erfolg interorganisationaler Teams hängt stark vom 1
Vgl. Filos (2006), S. 4. Das Smart Network Modell basiert auf dem Konzept der ‚Smart Organisation‘ (vgl. Filos / Banahan (2001)), betont aber die Netzwerkperspektive. 2
266
Michael Weiß
Abbildung 1: Die drei Perspektiven der Zusammenarbeit in ‚Smart Networks‘
Informations- und Wissensaustausch ab, welche eng mit der IT-Perspektive und der Wissensperspektive verbunden sind. Die Wissensperspektive beschreibt die Möglichkeiten von Individuen und Teams sich dynamisch mit anderen zu vernetzen um Informationen und Wissen zu teilen3. Netzwerkknoten in ‚Smart Networks‘ benötigen die organisationale Fähigkeit neues Wissen zu bilden, dieses entsprechend zu bewahren und es auch zu nutzen. Wissensmanagement ist deswegen eine essentielle Kompetenz für die Netzwerkknoten. ‚Smart Networks‘ sind offene Systeme mit kontinuierlichen und dynamischen Wissensaustauschprozessen innerhalb des Netzwerks und zu externen Partnern. Um diesen offenen Austausch zu ermöglichen ist Grundvertrauen und entsprechende Loyalität zwischen allen Partnern notwendig. Dies ist auch für die IT-Perspektive sehr wichtig. Die IT-Perspektive befasst sich mit den Strukturen, die notwendig sind um Kollaborationen einzugehen und unterstützt die zentrale Eigenschaft der ‚Smart Networks‘ virtuelle Organisationsformen anzunehmen. IT-Systeme müssen dazu Informationsaustausch und Kommunikation in und zwischen verteilten Teams erlauben. Diese Offenheit birgt aber auch Gefahren. Die Sicherheit und Integrität von Kommunikations- und Informationssystemen muss auch in offenen Systemen sichergestellt werden. Vertrauen in die verwendete Technologie, z. B. in die verwendete Sicherheitstechnik, ist dabei genauso wichtig wie das Vertrauen in die Partner. 3
Vgl. Filos / Banahan (2000), S. 11.
Modellierung von ‚Smart Networks‘267
B. Smart Networks Modellierungsmethode Was ist der Zweck von Modellierung? Mulligan und Wainwright identifizierten die folgenden Aspekte eines Modells4: Es kann •• als Forschungshilfsmittel, •• als Werkzeug für die Gewinnung von Einsichten, •• als Werkzeug zur Simulation und Vorhersage, •• als Vermittler innerhalb und zwischen Forschungsdisziplinen, •• als Forschungsprodukt und schließlich •• als Medium für die Kommunikation von Forschungsergebnissen konzipiert und eingesetzt werden. Diese Aufzählung ist bei weitem nicht vollständig. Modellierung vor allem auch dazu verwendet um komplexe Systeme handhabbar zu machen, dabei hilft sie das System und sein Verhalten zu verstehen5. Ziel der ‚Smart Networks‘ Modellierungsmethode ist es eine gemeinsame Basis für die Diskussion von Abläufen und Strukturen in Netzwerken von ‚Smart Organisations‘ zu bieten. Dies wird durch eine gemeinsame Sprache, eine ähnliche Denkweise und ein Grundverständnis von Beziehungen und Aktivitäten im Netzwerk und in den beteiligten Organisationen ermöglicht. Für die Entwicklung der ‚Smart Networks‘ Modellierungsmethode wurde ein Ansatz verwendet, der auf dem Prozessmodell und den Prinzipien der ‚Grundsätze ordnungsmäßiger Modellierung‘ basiert6. Das Prozessmodell beschreibt ein fünf-stufiges systematisches Vorgehen bei der Entwicklung eines Modells. Es beginnt mit der Definition des Modellierungszwecks und geht bis zur Realisierung und Analyse des Modells7. Da es zuerst erforderlich war ein Metamodell zu entwickeln, wird das in Abbildung 2 skizzierte Vorgehen auch hierfür genutzt. Es entsteht dadurch eine modellgestützte Beschreibung der Modellierungsmethode.
Abbildung 2: Prozessschritte für die Entwicklung der ‚Smart Networks‘ Modellierungsmethode 4 5 6 7
Vgl. Vgl. Vgl. Vgl.
Mulligan / Wainwright (2004). Holt (2004). Becker / Rosemann / Schütte (1995). Becker (1998), S. 7–11.
268
Michael Weiß
I. Definition des Modellierungszwecks Der erste Schritt bei der Entwicklung des Metamodells für die ‚Smart Networks‘ Modellierungsmethode ist die Beschreibung des Modellierungs zwecks. Dies beinhaltet unter anderem die Randbedingungen, die für diese Modellierungsmethode gelten sollen. Die nachfolgenden Bedingungen wurden dabei identifiziert. Problemstellung: Die Modellierung soll die Beschreibung von ‚Smart Organisations‘ und ‚Smart Networks‘ ermöglichen. Sie umfasst die Gestaltung, die Implementierung und den Betrieb solcher Organisationsformen. Organisationale Strukturen spielen dabei eine ebenso große Rolle wie die Informations- und Kommunikationstechnologie oder Wissen. Andere Aspekte, wie rechtliche Rahmenbedingungen oder Finanzierungsmodelle, werden von der Modellierungsmethode nicht unterstützt. Neben dieser allgemeinen Problemstellung sollen aber auch die folgenden vier Aufgaben durch die Modellierung unterstützt werden: •• Analyse von ‚Smart Networks‘ •• Entwurf von geeigneten Netzwerkstrukturen für ‚Smart Networks‘ •• Koordination von ‚Smart Networks‘ •• Entwicklung geeigneter Kollaborationssysteme für diese Netzwerke Zielgruppe: Die oben genannten Fragestellungen werden üblicherweise von Führungspersonal, Stabsabteilungen oder auch Unternehmensberatern vorbereitet. Systemgrenze: Jede Organisation bildet kontinuierlich neue Beziehungen aus (z. B. neuer Kunde oder neuer Lieferant) und beendet Beziehungen (z. B. Kunde wechselt zu Konkurrenten). Dies führt zu komplexen und sich häufig ändernden Netzwerkstrukturen. Das Konzept der ‚Smart Networks‘ hat die dafür notwendige Flexibilität. Modellierungssprache: Die Eigenschaften der Modellierungssprache können direkt von obigen Rahmenbedingungen abgeleitet werden. Die Aufgabenstellung beeinflusst die genaue Repräsentation des Modells. Dies beginnt bei der Benennung der Objekte und geht bis hin zu den Attributen der einzelnen Modellbausteine. Für die oben genannte Zielgruppe wird eine Modellierungssprache benötigt, die sowohl eine grafische Darstellung – für eine Interpretation durch den Menschen – als auch eine maschinenlesbare Darstellung – für eine Weiterverarbeitung durch Maschinen – besitzt.
Modellierung von ‚Smart Networks‘269
II. Erstellung des Modellierungsrahmens Der Modellierungsrahmen der ‚Smart Networks‘ Modellierungsmethode besteht aus drei Grundmodelltypen, die den Kontext eines ‚Smart Networks‘ sowie dessen Aufbau- und Ablaufstrukturen beschreiben. Zusätzlich beschreiben Sichten die drei wichtigen Perspektiven (Organisation, Wissen sowie Informations- und Kommunikationstechnologie) der ‚Smart Organisation‘. Abbildung 3 beschreibt die Struktur des Modellierungsrahmens mit allen Modelltypen und Sichten. Der erste Modelltyp ‚Smart Networks‘ Kontext beschreibt die verschiedenen Geschäftstätigkeiten im Netzwerk, die zugehörigen Beziehungen und das Umfeld in das diese eingebettet sind sowie die individuellen Ziele der Geschäftstätigkeiten. Der Modelltyp Aufbaustruktur beschreibt die Topologie des Netzwerks in den drei Perspektiven. Dafür gibt es unter anderem Modellbausteine zum Erstellen von Organigrammen, Wissensklassen oder zur Beschreibung der IT-Architektur. Der Modelltyp Ablaufstrukturen schließlich beschreibt die Prozessabläufe in ‚Smart Networks‘ und den zugehörigen Organisationen. Damit werden dynamische Aspekte im Netzwerk, insbesondere Informationsflüsse oder auch Wissenstransformationen, beschrieben.
Abbildung 3: Modellierungsrahmen für die ‚Smart Networks‘ Modellierungsmethode
270
Michael Weiß
III. Entwicklung der Modellierungsstrukturen Der dritte Schritt bei der Gestaltung einer Modellierungsmethode ist die Entwicklung der Modellierungsstrukturen. Der Modellierungsrahmen gemäß Abbildung 3 mit seinen Modelltypen und Sichten beschreibt sieben verschiedene, von einander abhängige Modellierungsthemen. Für jeden Themenblock wurden die Objekte und ihre Relationen identifiziert. Das erste Thema, welches den Kontext der Geschäftstätigkeiten beschreibt, wurde oben schon skizziert. Die organisationalen Fragestellungen der Ablaufstruktur erlauben die Beschreibung von Prozessen, organisatorischen Verantwortlichkeiten sowie der dafür benötigten technischen Ressourcen. Die Prozessbeschreibungen geben die Grundstrukturen eines Workflows vor, beschreiben ihn aber nicht vollständig. Die organisationalen Fragestellungen der Aufbaustruktur ermöglichen die Identifikation der Hierarchien (z. B. Personen, Abteilungen oder Unternehmen) bzw. Heterarchien (z. B. Gruppen oder Teams) in den Organisationen des Netzwerks. Die wissensorientierten Fragestellungen der Ablaufstrukturen erlauben die Bestimmung der Wissensobjekte, der Wissenstransformationsprozesse, der Wissensquellen und -träger sowie deren Entstehung als auch deren Nutzung im Rahmen der beschriebenen Geschäftstätigkeiten. Die wissensorientierten Fragestellungen der Aufbaustruktur ermöglichen dagegen die konkrete Beschreibung der Wissensobjekte sowie deren Potential in der notwendigen Detaillierung. Auch die Methoden zum Schutz der wertvollen Ressource Wissen können entsprechend abgebildet werden. Informations- und Kommunikationsabläufe ermöglichen die Beschreibung des Informationsbedarfs sowie der Anwendungssysteme, die diesen Bedarf decken. Die identifizierten Informationsobjekte können direkt zu Aktivitäten aus den Organisationsablaufstrukturen in Beziehung gesetzt werden. Die Aufbaustrukturen der Informations- und Kommunikationssysteme beschreiben Informationsstrukturen und den Datenaustausch zwischen den beteiligten Systemen. IV. Konsolidierung und Fertigstellung Der vierte Schritt ist die Konsolidierung und Fertigstellung des Mo dellierungskonzepts. Die ‚Smart Networks‘ Modellierungsmethode wurde im Rahmen der europäischen Forschungsprojekte ‚Leapfrog‘8 und ‚Ava8 Für weiterführende Informationen über das europäische Forschungsprojekt ‚Leapfrog‘ siehe http: / / www.leapfrog-eu.org.
Modellierung von ‚Smart Networks‘271
lon‘9 ausgearbeitet. Die beteiligten Forschungs- und Industriepartner der netzwerkintensiven Textil- und Bekleidungsindustrie haben eine sehr aktive Rolle bei der Konsolidierung der Modellierungsmethode gespielt. Der Entwicklungsprozess folgte dabei einem Spiralmodell10, der die Schritte 2 bis 5 des Prozessmodells der ‚Grundsätze ordnungsmäßiger Modellierung‘ umfasst. Das Spiralmodell wurde drei Mal durchlaufen und beinhaltete in jedem Zyklus einen Konsolidierungsworkshop mit allen Projektpartnern von ‚Leapfrog‘ sowie individuelle Tests mit industriellen Partnern beider Forschungsprojekte. Die Rückmeldungen fielen, je nach Hintergrundwissen und Bedürfnis des Partners, sehr unterschiedlich aus. Industriepartner verlangten oft nach einer noch detaillierteren Modellierung, mit denen sie Spezialfälle abbilden können. Forschungspartner verglichen die Modellierungsmethode gerne mit anderen Modellierungsmethoden und verlangten oft Funktionalitäten, die von diesen angeboten werden. Die Rückmeldungen wurden gründlich analysiert und im nächsten Entwicklungszyklus berücksichtigt. Dabei wurde darauf geachtet, dass die geforderten Funktionalitäten nicht dem Modellierungszweck entgegen stehen. V. Implementierung und Bewertung Eine Modellierungsmethode muss ergänzt werden um geeignete Anwendungssoftware. Der letzte Schritt ist mithin die Implementierung der Modellierungsmethode in einer solchen Anwendungssoftware, die alle notwendigen Modellierungsregeln unterstützt sowie deren Bewertung. Für die Unterstützung der hier skizzierten Modellierungsmethode wurde die ‚Generic Modeling Environment‘ (GME)11 der Vanderbilt University verwendet. GME ist als Anwendungssoftware prädestiniert zur Gestaltung domänenspezifischer Modellierungsumgebungen. Die Konfiguration erfolgt über eine Metamodellierungssprache (MetaGME), die an die Sprache ‚Meta Object Facility‘ (MOF)12 angelehnt ist. Sie basiert auf einer UML Klassendiagrammnotation und verwendet die ‚Object Constraint Language‘ (OCL)13 um Modellierungseinschränkungen zu beschreiben. MetaGME erlaubt es domänenspezifische Modellierungssprachen mit einer Reihe von Modellen zu beschreiben. Diese Modelle können nun in eine GME-Konfiguration übersetzt werden. Mit Hilfe dieser Konfiguration ist GME nun in der Lage, 9 Für weiterführende Informationen über das europäische Forschungsprojekt ‚Avalon‘ siehe http: / / www.avalon-eu.org. 10 Vgl. Boehm (1998), S. 64. 11 Vgl. Ledeczi (2001). 12 Vgl. Object Management Group (2006a). 13 Vgl. Object Management Group (2006b).
272
Michael Weiß
Abbildung 4: Bildschirmausschnitt des GME ‚Smart Networks‘ Metamodells
die in den Modellen beschriebenen Modellierungsregeln vollständig zu unterstützen. GME beherrscht nun eine neue Modellierungssprache. GME unterstützt zwei verschiedene Arten von Modellierungsregeln. Der erste Satz Modellierungsregeln, sogenannte ‚Build-time‘ Regeln, beschreibt Regeln, die ohne die Kontextinformationen von Modellierungsobjektinstanzen ausgewertet werden können (z. B. das Objekt ‚Person‘ kann mit dem Objekt ‚Abteilung‘ verbunden werden oder das Modell ‚Ablaufdiagramm‘ kann Objekte des Typs ‚Aktivitäten‘ enthalten). Diese Modellierungsregeln werden mit Hilfe der oben genannten UML Klassendiagrammnotation erstellt (siehe auch Abbildung 4). Der zweite Satz Modellierungsregeln, sogenannte ‚Run-time‘ Regeln, beschreibt Regeln, die Kontextinformationen von Objektinstanzen benötigen (z. B. die Benennung einer Objektinstanz muss einer bestimmten Konvention folgen oder eine Instanz des Objekts ‚Person‘ kann nur ein Mal mit einer bestimmten Instanz des Objekts ‚Abteilung‘ verbunden werden). Diese Modellierungsregeln werden mit Hilfe der Regelsprache OCL festgelegt. Ein dritter Satz Modellierungsregeln kommt bei der Umsetzung der ‚Smart Networks‘ Modellierungsmethode zum Einsatz. Diese sogenannten ‚Style Guides‘ schränken die Modellierungsfreiheiten weiter ein14. Sie werden benötigt, wenn Teile oder das ganze Modell automatisch verarbeitet 14
Style Guides werden von GME allerdings nicht unterstützt.
Modellierung von ‚Smart Networks‘273
werden sollen (z. B. Transformation zur BPEL), zur Realisierung von Corporate Identity Regeln oder zur Erhöhung der Lesbarkeit von Modellen. Die Kriterien für die Bewertung der ‚Smart Networks‘ Modellierungsmethode orientieren sich dabei an den sechs Grundsätzen ordnungsmäßiger Modellierung15: Grundsatz der Richtigkeit: Dieser Grundsatz verlangt, dass die wesent lichen Merkmale der realen Objekte abbilden kann. Dies bedeutet für die ‚Smart Networks‘ Modellierungsmethode, dass die Kernelemente (Kollaboration, immaterielle Ressourcen, sowie organisationales ‚Hyperlinking‘, IT ‚Hyperlinking‘ und ‚Hyperlinking‘ von Wissen) des ‚Smart Networks‘ Konzepts abgebildet werden können. Die entwickelte Modellierungsmethode erfüllt diesen Grundsatz. Grundsatz der Relevanz: Ein Modell ist nie eine vollständige Beschreibung eines Objektes in der realen Welt. Der Modellierungszweck legt deswegen fest, welche Eigenschaften eines realen Objekts in der Modellierung beschrieben werden müssen und welche nicht. In der konkreten Anwendung wurden viele Anfragen bezüglich neuer Funktionalitäten und Modellbausteine gestellt. Diese widersprachen oft dem Grundsatz der Relevanz und den nachfolgenden Grundsatz der Wirtschaftlichkeit, da die erwünschte Detaillierung entweder dem Modellierungszweck nicht gerecht werden oder der Aufwand zum Ermitteln der benötigten Informationen in keinem Verhältnis zum erwarteten Nutzen stand. Grundsatz der Wirtschaftlichkeit: Neben dem Grundsatz der Relevanz hat dieser Grundsatz die stärkste Auswirkung auf die Modellierungsmethode. Dieser verlangt, dass eine Balance zwischen dem Detaillierungsgrad und dem Aufwand für die Informationsbeschaffung für diesen gefunden werden muss. So wurde zum Beispiel oft eine detailliertere Beschreibung der Informations- und Wissensobjekte gewünscht, was allerdings mit einem zu großen Aufwand bei der Beschaffung der Daten verbunden wäre. Grundsatz der Klarheit: Dieser Grundsatz umfasst Aspekte wie Lesbarkeit oder Konsistenz der Repräsentation von Modellen. Die Umsetzung der ‚Smart Networks‘ Modellierungsmethode berücksichtigt diesen Grundsatz zum Beispiel durch Verwendung verschiedener Farben für die verschiedenen Sichten, durch Stilregeln für die Modellierung oder durch Verwendung eindeutiger Symbole, die eine Verwechslung unmöglich machen. Grundsatz der Vergleichbarkeit: Dieser Grundsatz verlangt, dass es möglich sein muss, die Modellierungsmethode mit anderen Modellierungsmethoden zu vergleichen, die für eine gleiche oder ähnliche Fragestellung 15
Vgl. Becker (1998), S. 4–7.
274
Michael Weiß
entwickelt wurden. Dieser Grundsatz konnte nur zum Teil beachtet werden, da es keine vergleichbare Modellierungsmethode für das Konzepte der ‚Smart Networks‘ gibt. Einzelne Aspekte der Modellierungsmethode basieren auf anderen Modellierungsmethoden. Dies gilt etwa für die Wissensmodellierung nach dem Ansatz von Nonaka und Konno16 oder die Prozessmodellierung mittels der Ereignis-Prozess-Ketten17. Grundsatz des systematischen Aufbaus: Der letzte Grundsatz fordert, dass die Modellierungsmethode systematisch entworfen wird. Diesem Grundsatz wurde durch die Verwendung des Prozessmodells von Becker18 Rechnung getragen.
C. Erfahrungen mit der Smart Networks Modellierungsmethode Die Modellierungsmethode wurde hauptsächlich im Rahmen des europäischen Forschungsprojekts ‚Leapfrog‘ entwickelt, wurde aber auch zu Testzwecken in anderen europäischen Forschungsprojekten wie ‚Avalon‘ und ,Open Garments‘ eingesetzt. In den Projekten wurden hochinnovative Netzwerke vom ‚Made-to-Measure‘ Produzenten modischer Artikel bis hin zu Netzwerken für Herstellung technischer Textilien, die mit neuen Materialien arbeiten, modelliert. Dadurch wurden die unterschiedlichsten Geschäftsmodelle beschrieben. Drei interessante Modelle werden nachfolgend kurz beschrieben. Das erste Modell beschreibt die ‚Qualitätspartnerschaft‘, ein neues Kollaborationsmodell, welches durch geänderte Abläufe Redundanzen in der Produktionskette reduziert. Das zweite Modell beschreibt einen typischen Produktentwicklungsprozess für Bekleidung. Es wurde auch genutzt um die Transformation nach BPEL zu demonstrieren. Das letzte Modell beschreibt ein Netzwerk für die Produktion von Motorradhelmen in deren faserbasierten Konstruktionen sogenannte ‚Shape Memory Alloys‘ (SMA) integriert wurden. Das entstehende Modell wurde dazu benutzt, um die ‚Total Cost of Ownership‘ des zu entwickelnden Produktes zu bestimmen. I. Referenzmodell ‚Qualitätspartnerschaft‘ Die Produktanlaufphase in der Textil- und Bekleidungsindustrie wird durch zwei konkurrierende Entwicklungen gekennzeichnet. Immer mehr 16 17 18
Vgl. Nonaka / Konno (1998). Vgl. Hoffmann / Kirsch / Scheer (1993). Vgl. Becker (1998), S. 7–11.
Modellierung von ‚Smart Networks‘275
Abbildung 5: Organisationsperspektive (Ablaufdiagramm) für Direktanlieferung Weben
Produkte sollen in immer kürzeren Zeitabständen zu immer günstigeren Preisen entwickelt werden, was oft nur durch die globale Beschaffung von Zwischenprodukten realisiert werden kann. Dies hat oft einen Qualitätsverlust zur Folge. Eine andere Entwicklung ist die Steigerung der Qualitätsanforderungen von Kundenseite, was im Widerspruch zur ersten Entwicklung steht. Eine erfolgreiche Produktanlaufphase ist für die Textil- und Bekleidungs industrie wichtig für die Produktion qualitativ hochwertiger Produkte. Die wichtigsten Vorbedingungen und Abläufe bei einem neuen Bekleidungsstück werden in dem nachfolgenden Referenzmodell ‚Qualitätspartnerschaft‘ beschrieben. Das Referenzmodell, welches im Rahmen des Projektes ‚Leapfrog‘ entwickelt wurde, besteht aus den drei Prozessen Direktanlieferung Weben, Direktanlieferung Veredelung und Direktanlieferung Bekleidungsproduktion. Der ‚Smart Networks‘ Kontext beschreibt die Abhängigkeiten dieser Prozesse sowie das übergeordnete Ziel der ‚Qualitätspartnerschaft‘ die Markteinführung eines Produktes zu beschleunigen. Die Prozesse sind deswegen alle auf die Bedürfnisse des Bekleidungsproduzenten ausgerichtet. Für jeden Teilprozess existiert ein eigenes Ablaufdiagramm mit den drei Perspektiven der ‚Smart Networks‘. Das Aufbaudiagramm beschreibt dagegen die strukturellen Gegebenheiten aller Teilprozesse mit allen drei Perspektiven. Nachfolgend wird kurz ein Ausschnitt aus dem ersten Teilprozess der ‚Qualitätspartnerschaft‘ erläutert. Abbildung 5 zeigt eine Möglichkeit für eine weltweite Direktanlieferung auf, die ohne redundante Qualitätstests vom Vorlieferanten zum Beklei-
276
Michael Weiß
dungshersteller erfolgt. Qualitätsproben nach dem Zufallsprinzip sind aber jederzeit möglich. Im Modell stehen drei Startereignisse als gemeinsam notwendige Vorbedingungen einer Direktanlieferung. Dies sind: •• die Existenz angeglichener Testverfahren für vergleichbare Ergebnisse müssen existierten, •• der Zulieferer muss für den Nachweis von vergleichbaren und zuverlässigen Prüfergebnissen erfolgreich an mehreren Ringversuchen teilnehmen sowie •• eine Zertifizierung des Lieferanten durch den Bekleidungshersteller für den Nachweis der Vertrauenswürdigkeit muss erfolgt sein. II. Referenzmodell ‚Bekleidungsentwicklung‘ Die Produktentwicklung (Kollektionsentwicklung) ist eine der wichtigsten Prozesse der Bekleidungsindustrie. Sie besteht aus einer Mischung von strukturierten Abläufen und ad-hoc Schritten. Auch sind viele verschiedene Akteure (sowohl interne als auch externe) in diesen Prozess involviert. Aus diesem Grund ist die Gestaltung dieses Prozesses eine zentrale Aufgabe auf dem Weg zum ‚Smart Network‘. Das Referenzmodell ‚Bekleidungsentwicklung‘ basiert auf dem sechsstufigen Entwicklungsprozess von May-Plumle und Little19. Dieses Modell wurde erweitert und angepasst, um die zentralen Ideen der ‚Smart Networks‘ zu integrieren. Dazu war es notwendig viele fehlenden Informationen bezüglich Organisationsabläufe, Wissensdomänen oder beteiligten Softwaresystemen zu identifizieren und zu beschaffen. Die sechs Phasen der Kollektionsentwicklung sowie ihre Ziele werden in Abbildung 6 beschrieben. Für jede einzelne Phase gibt es einen Modellsatz, der sich aus je einem Aufbau- und Ablaufdiagramm mit den drei Perspektiven der ‚Smart Networks‘ zusammensetzt. Dieses Referenzmodell wurde dazu verwendet die automatische Weiterverarbeitung von Modellen zu erproben. Als Beispiel wurde die automatische Konvertierung von Modellen zu einem ‚Business Process Execution Language‘ (BPEL) Workflow ausgewählt. Dazu wurde bei der Modellierung ein ‚Style Guide‘ für BPEL entwickelt und verwendet. Dies war notwendig, um die automatische Verarbeitung zu vereinfachen und Mehrdeutigkeiten zu beseitigen. Das Modell wurde mit Hilfe einer automatischen Transformation in einem BPEL Workflow überführt. 19
Vgl. May-Plumle / Little (1998), S. 354.
Modellierung von ‚Smart Networks‘277
Abbildung 6: ‚Smart Networks‘ Kontext für das Referenzmodell ‚Bekleidungsentwicklung‘
III. Innovationsnetzwerk ‚SMA Motorradhelm‘ Mit Hilfe der Modellierung des Innovationsnetzwerkes ‚SMA Motorradhelm‘ und dem Ansatz der ‚Total Cost of Ownership‘ (TCO) wurden die Kosten des zu entwickelnden Produktes unter Berücksichtigung der Transaktionskosten in ‚Smart Networks‘ ermittelt. Als erstes wurde das komplette Netzwerk mit allen für die TCO relevanten Objekten modelliert. Das Innovationsnetzwerk bestand aus drei Hauptakteuren, die direkt mit SMA-Komponenten gearbeitet haben, sowie aus Servicedienstleistern, die Material- und Prozesswissen beisteuerten. Für die anschließende Analyse wurden jedem Modellbaustein Kosten zugeordnet. Die ‚Smart Networks‘ Modellierungsmethode konnte erfolgreich genutzt werden um alle erforderlichen Elemente für eine TCO-Analyse darzustellen20. Die Modellierungsmethode umfasste alle notwendigen Bausteine um ein ‚Smart Network‘ zu beschreiben und half dabei die Kosten für den Betrieb dieses Netzwerkes zu identifizieren. Ein Problem bei der Durchführung der TCO-Analyse war die Zuweisung von Kosten zu einzelnen Modellierungsobjekten. Es war daher oft erforderlich mit Schätzwerten zu arbeiten.
D. Ergebnis und Ausblick Im Rahmen der hier vorgestellten Arbeit wurde ein Modellierungswerkzeug für das Kollaborationskonzept ‚Smart Networks‘ entwickelt, welches sowohl die notwendigen Transformationen der Unternehmen im Hinblick auf eine erfolgreiche Netzwerkpartnerschaft beschreiben kann als auch die 20
Vgl. Stampp (2008).
278
Michael Weiß
elektronische Verarbeitung der Modelle für eine modellgestützte Konfiguration von Kollaborationsplattformen oder eine automatische Netzwerkanalyse ermöglicht. Die systematische Entwicklung dieser Modellierung wurde erläutert sowie drei ausgewählte Anwendungsfälle vorgestellt. Die Modellierungsmethode muss regelmäßig überprüft und gegebenenfalls ergänzt werden um sich geänderten Anforderungen und neuen Möglichkeiten (z. B. neue Kommunikationstechnologien) anzupassen. Der Idee der ‚Model-driven Architecture21‘ folgend werden weitere komplementäre Modellierungssprachen entwickelt, um die systematische Umsetzung dieser strategischen Modellierung in ein reales ‚Smart Network‘ zu unterstützen. Literaturverzeichnis Becker, J. (1998), Die Grundsätze ordnungsmäßiger Modellierung und ihre Einbettung in ein Vorgehensmodell zur Erstellung betrieblicher Informationsmodelle, Stand 20. Juli 2010, URL: http: / / www.wi-inf.uni-duisburg-essen.de / MobisPortal / pages / rundbrief / pdf / Beck98.pdf, 1998. Becker, J. / Rosemann, M. / Schütte, R. (1995), Grundsätze ordnungsmäßiger Modellierung, in: Wirtschaftsinformatik, Vol. 37(5), Friedrich Vieweg & Sohn Verlagsgesellschaft mbH, 1995, S. 435–445. Boehm, B. (1998), A Spiral Model of Software Development and Enhancement, in: Computer. Vol. 21(5), IEEE, 1998, S. 61–72. Filos, E. (2006), Smart Organizations in the Digital Age, in: Mezgár, I. (Hrsg.), Integration of Information and Communication Technologies in Smart Organizations, Idea Group Publishing, Hershey, 2006, S. 1–38. Filos, E. / Banahan, E. (2000), Will the organisation disappear? The challenges of the new economy and future perspectives, in: Camarinha-Matos, L. / Afsarmanesh, H. / Rabelo, R. (Hrsg.), IFIP Conference Proceedings; Vol. 184. Kluwer, Deventer, 2000, S. 3–20. – (2001), Towards the smart organization: An emerging organizational paradigm and the contribution of the European RTD programs, in: Journal of Intelligent Manufacturing, Vol. 12(2), Springer Netherlands, 2001, S. 101–119. Hoffmann, W. / Kirsch, J. / Scheer, A.-W. (1993), Modellierung mit ereignisgesteuerten Prozessketten, in: Forschungsberichte des Instituts für Wirtschaftsinformatik, Vol. 101, Universität des Saarlandes, 1993. Holt, J. (2004), UML for Systems Engineering: watching the wheels, Second Edition, The Institution of Engineering and Technology, London, 2004. Ledeczi, A. et. al. (2001), The Generic Modeling Environment, Stand 20. Juli 2010, URL: http: / / w3.isis.vanderbilt.edu / publications / archive / Ledeczi_A_5_17_2001_ The_Generi.pdf, 2001. 21
Vgl. Object Management Group (2010).
Modellierung von ‚Smart Networks‘279
May-Plumle, T. / Little, T. J. (1998), No-interval coherently phased product development model for apparel, in: International Journal of Clothing, Science and Technology, Vol. 19 No. 5, MCB University Press, 1998, S. 342–364. Mulligan, M. / Wainwright, J. (2004), Modelling and Model Building, in: Mulligan, M. / Wainwright, J. (Hrsg.), Environmental Modelling – Finding Simplicity in Complexity, John Wiley and Sons, 2004, S. 5–74. Nonaka, I. / Konno, N. (1998), The concept of ‚Ba‘: Building a Foundation for Knowledge Creation, in: California Management Review, Vol 40(3), University of California, Berkeley; 1998, S. 40–55. Object Management Group (2006a), Meta Object Facility (MOF) Core Specification Version 2.0. Stand 20. Juli 2010, URL: http: / / www.omg.org / spec / MOF / 2.0 / , Object Management Group, 2006. – (2006b), Object Constraint Language Version 2.0. Stand 20. Juli 2010, URL: http: / / www.omg.org / mda / executive_overview.htm, Object Management Group, 2006. – (2010), The Architecture of Choice for a Changing World. Stand 21. Juli 2010, URL: http: / / www.omg.org / docs / formal / 06-05-01.pdf, Object Management Group, 2010. Stampp, M. (2008), Total Cost of Ownership in vernetzten Strukturen, Diplomarbeit, Universität Stuttgart, 2008.
Modellgestützte Anwendungsentwicklung von Methoden zur kollaborativen Innovation in Smart Networks Von Armin Lau
A. Einführung Nur durch innovative Produkte und Prozesse kann sich ein Unternehmen in der aktuellen Unternehmenslandschaft von Konkurrenten abheben und somit seine Marktposition festigen und stärken. Innovation benötigt problemspezifisches Wissen, welches einem einzelnen Unternehmen aber gerade für Innovationen, die auf neue Marktsegmente oder gar neue Industriesektoren abzielen, oft nur in unzureichendem Maße zur Verfügung steht. Dadurch erhält die Vernetzung von Unternehmen mit dem Ziel der gemeinsamen Innovation erhebliche Bedeutung in Forschung und Industrie. Um das entsprechende Wissen zusammenzutragen und weiterzuentwickeln bietet sich der Zusammenschluss von Unternehmen zu Netzwerken an. Durch den Einsatz neuer Technologien ist sogar eine neue Dimension der Zusammenarbeit erreichbar. So ermöglichen sie ein gemeinsames, unternehmensübergreifendes Arbeiten an bestimmten Aktivitäten, also Kollaboration, das über den regelmäßigen Austausch von Informationen (Kommunikation) und das Hinarbeiten auf gemeinsame Ziele (Koordination) hinausgeht.1 Eine Organisationsform, die sich für diese Art der intensiven Zusammenarbeit zum Zwecke der Innovation besonders eignet ist das Smart Network. Sie weist eine Ausrichtung der Zusammenarbeit nicht nur auf organisatorische Aspekte, sondern auch auf Aspekte des Wissensaustausches und der Unterstützung durch Informations- und Kommunikationstechnologien auf und bietet somit eine hervorragende Infrastruktur für gemeinsame Innova tionstätigkeiten.2 1 Vgl.
Serrano / Fischer (2007). stellten Filos und Banahan die Idee der „Smart Organization“ vor (Filos / Banahan (2001)). Sie beschreibt die Fähigkeit eines Unternehmens zur dynamischen Vernetzung hinsichtlich der Organisation, des Wissens und der Informations- und Kommunikationstechnologien. Das „Smart Network“ legt den Schwer2 Erstmals
282
Armin Lau
Für ein systematisches Herangehen an diese Innovationsaufgaben ist der Einsatz von Methoden unerlässlich. Bei ihrer Anwendung greifen die Methoden auf weiteres problemspezifisches Wissen zurück und binden es systematisch in die Lösung der Innovationsaufgabe ein. Durch Beteiligung mehrerer Unternehmen an der Ausführung der Methode können zusätzliche Blickwinkel auf die Aufgabe gewonnen und in die Lösung integriert werden. Jedoch sind bisher in der Forschung nur wenige Methoden auf ihre Tauglichkeit für den kollaborativen Einsatz geprüft worden. Dieser Artikel beschreibt nun einen praxisorientierten Ansatz, wie Wissen über Methoden des Innovationsmanagements für den Einsatz in Smart Networks nutzbar gemacht werden kann. Dazu werden nach einer kurzen Einführung in die Konzepte des Smart Networks und der kollaborativen Innovation die Anforderungen für den Einsatz von Methoden des Innovationsmanagements in solchen Netzwerken hergeleitet. Um die Methoden nun durch geeignete Informations- und Kommunikationstechnologien unterstützen zu können, ist die Modellierung des Ablaufs der Methode die entscheidende Ausgangsbasis. Durch die konsequente Abarbeitung des Ansatzes der modellgestützten Anwendungsentwicklung ist es möglich, eine Anwendung auf einer Kollaborationsplattform bereitzustellen, die den Einsatz einer ausgewählten Methode unterstützt. Die Anforderungen für den Einsatz in einem Smart Network werden dabei genauso berücksichtigt wie die Potentiale, die sich durch diese spezielle Organisationsform ergeben. Dies wird an einem Beispiel aus dem Forschungsprojekt AVALON3 anhand der Methode FMEA (Fehlermöglichkeiten- und Einflussanalyse) demonstriert. Der Artikel schließt mit einer kurzen Zusammenfassung und einem Resümee der in der Praxis gesammelten Erfahrung. Darüber hinaus wird ein Ausblick auf mögliche Anknüpfungspunkte in Wissenschaft und Praxis gewährt.
B. Kollaborative Innovation in Smart Networks Viele Organisationsformen die sich in den letzten Dekaden entwickelt haben zeichnen sich durch eine gewisse Rigidität bezüglich ihrer Struktur aus. Diese verleiht dem Netzwerk Stabilität und erleichtert die Koordination der Arbeit, es nimmt allerdings auch die nötige Flexibilität, um schnell auf sich ändernde Rahmenbedingungen reagieren zu können. Dies ist gerade für das Thema Innovation problematisch. Ändern sich zum Beispiel die Kundenanforderungen oder die zur Verfügung stehenden Technologien, so sind punkt auf die topographische Netzwerkperspektive, insbesondere auf die dynamische Vernetzung mehrerer Organisationseinheiten. 3 Mehr Informationen zum EU-Projekt AVALON: siehe AVALON (2009).
Methoden zur kollaborativen Innovation in Smart Networks283
für die Entwicklung eines neuen Produkts unter Umständen zusätzliches Wissen oder gar ein neuer Netzwerkpartner nötig. Aus dieser Motivation heraus konzentriert sich die Forschung in den vergangenen Jahren zunehmend auf neuartige, flexible Organisationsformen. Neben Konstrukten wie Extended Enterprise, Virtual Organization oder Dynamically Networked Enterprise,4 die alle die Nutzung neuer Technologien für die Kollaboration in das Zentrum der Aufmerksamkeit rücken, entstanden auch die Konzepte der Smart Organization und des Smart Networks. Grundlage dieser beiden Organisationsformen ist die Ausrichtung der Zusammenarbeit nicht nur auf die Ebenen der Organisation und der Informations- und Kommunikationstechnologien, sondern im gleichen Maße auf einen bewussten Umgang mit Wissen über Problem und Methodik als essentielle Ressource für die Kollaboration.5 Damit ist eine exzellente Basis für die Zusammenarbeit im Bereich des Innovationsmanagements geschaffen. Für eine Umsetzung in der Praxis sind jedoch klare Konzepte, Methoden und Technologien notwendig, um gemeinsame Aktivitäten zu planen, durchzuführen und zu kontrollieren. Beschäftigt man sich mit der Thematik der kollaborativen Innovation stellen sich einige Grundfragen, die es zu klären gilt:6 •• Wie sieht der Prozess aus, entlang dessen man sich bewegt? •• Welche Akteure können involviert werden? •• Welche Methoden stehen zur Unterstützung zur Verfügung? •• Welche Teile des Prozess kann ich mit welchen Methoden unterstützen? •• Welche Teile des Prozess erfordern die Beteiligung welcher Akteure? •• Welche Akteure sollten bei der Durchführung einer Methode involviert werden? Offensichtlich drehen sich die Kernfragen zum Thema kollaborative Innovation um drei wesentliche Elemente und deren Verbindung zueinander: der Innovationsprozess, die Akteure und die Methoden (vgl. Abbildung 1). Der kollaborative Innovationsprozess ist dem unternehmensinternen Innovationsprozess sehr ähnlich.7 Man arbeitet sich vom Ausgangspunkt einer Innovationsidee über Konzept und erste Realisierung hin zu einem markt4 Camarinha-Matos / Afsarmanesh (2004) enthält eine gute Übersicht über verschiedene Ausprägungen kollaborativer Netzwerke. 5 Vgl. Filos / Banahan (2001), Filos (2006). 6 Vgl. Lau et al. (2009). 7 Darstellungen des unternehmensinternen Innovationsprozess finden sich z. B. in Verworn / Herstatt (2000) oder Cooper (2008).
284
Armin Lau
Abbildung 1: Dreieck Prozess – Akteure – Methoden
reifen Produkt oder Prozess. Durch die Beteiligung mehrerer voneinander unabhängiger Akteure, und aufgrund der Tatsache dass sich hinter einem großen Entwicklungsprojekt in der Regel mehrere Teilprojekte abspielen, ist es allerdings extrem wichtig, in diesem Prozess Raum für Rückkopplungen und Iterationen zu lassen. Von einem klassischen Verständnis des Innovationsprozess als lineare Abfolge von Aktivitäten muss also zugunsten eines modularen Ablaufmodells Abstand genommen werden. Sowohl interne als auch externe Akteure können zu diesem Innovationsprozess beitragen. Dafür muss als erstes ein Verständnis dafür geschaffen werden, welche Unternehmen welche Rollen im Netzwerk einnehmen können, um anschließend bestimmen zu können, welcher Akteur welche Aktivitäten durchführen kann.8 Um diese Frage beantworten zu können ist umfangreiches topografisch-organisatorisches Wissen über das Netzwerk erforderlich, also Wissen über die Netzwerkstruktur und die Kompetenzen der einzelnen Partner.9 Im Folgenden soll allerdings der Schwerpunkt auf die Anwendung von Methoden des Innovationsmanagements gelegt werden. Methoden sind in der Lage, die vielfältigen, im Rahmen des Innovationsprozess anfallenden Aufgaben zu unterstützen. Für einen kollaborativen Einsatz muss allerdings 8 Vgl.
Bellantuono et al. (2006). (2007) beschreibt den Beitrag des topografisch-organisatorischen Wissens zum wissensorientierten Management dynamisch vernetzter Unternehmen. 9 Rehm
Methoden zur kollaborativen Innovation in Smart Networks285
zuvor festgelegt werden, in welcher Phase die einzelnen Methoden eingesetzt werden können und welche Akteure in die Bearbeitung involviert werden müssen bzw. welche Akteure die Bearbeitung besonders voran bringen können.
C. Kollaborative Anwendung von Methoden des Innovationsmanagements in Smart Networks In den letzten Jahrzehnten wurden zahlreiche Methoden entwickelt, die im Rahmen des Innovationsmanagements zum Einsatz kommen können.10 Die Einsatzmöglichkeiten der Methoden wurden umfassend erforscht und in nahezu allen Fällen auch sehr erfolgreich in Unternehmen angewandt. Für den unternehmensübergreifenden Einsatz der Methoden sind allerdings einige zusätzliche Faktoren zu berücksichtigen, die im Folgenden kurz dargelegt werden. Gegebenenfalls ist sogar eine Anpassung der Methode in Aufbauoder Ablauforganisation notwendig. Im Rahmen kollaborativer Innovationstätigkeiten über Unternehmensgrenzen hinweg werden Aufgaben häufig von Teams bearbeitet werden, deren Mitglieder an verschiedenen Standorten arbeiten. Dies erschwert persönliche Treffen des Teams, und schränkt somit die Möglichkeiten für gemeinsame Workshops (z. B. Brainstorming-Sitzungen) ein. Trotzdem muss ein Weg gefunden werden, das problemspezifische Wissen, dass sonst in solchen Treffen entsteht auf anderem Wege zu generieren und zu verteilen. Betrachtet man hierzu die Wissensspirale von Nonaka und Takeuchi,11 so ist offensichtlich, dass der Prozess der Wissensschaffung nur über Internalisierung, Kombination und Externalisierung funktionieren kann. Diese drei Wissenstransformationsprozesse lassen sich mit Informations- und Kommunikationstechnologien unterstützen. Teammitglieder gehören unterschiedlichen Unternehmen, und damit auch unterschiedlichen Hierarchien an. Um die Zusammenarbeit in den, für die kollaborative Innovation so wichtigen, heterarchischen Teams zu erleichtern, ist eine klare Rollenverteilung notwendig. Entsprechend der jeweiligen Kompetenzen eines Teammitglieds wird ihm eine Rolle in der Innovationstätigkeit zugeteilt, die klar definiert, welche Rechte und Pflichten für ihn mit einer bestimmten Aufgabe einhergehen. Dies erfordert es eventuell, den Ablauf der Methode in klar zuordenbare Teilschritte zu zerlegen oder bestimmten Aufgaben, deren Bearbeiter ursprünglich offen war, eindeutig einzelnen Rollen zuzuteilen. 10 Eine Übersicht über eine Vielzahl von Methoden des Innovationsmanagements bietet Lindemann (2006). 11 Vgl. Nonaka / Takeuchi (1997), S. 84 ff.
286
Armin Lau
Viele Methoden des Innovationsmanagements, vor allem Methoden, die die frühen Phasen des Innovationsprozesses (das vielzitierte „fuzzy frontend of innovation“12) unterstützen, haben keine klar vorgegebene Ablaufstruktur. Meist geht es bei diesen Methoden darum, die Entwicklung von Ideen zu fördern, weswegen auf die Vorgabe von möglicherweise einschränkenden Rahmenbedingungen verzichtet wird. Für die angesprochenen Teams, die nicht nur an verschiedenen Orten an dem Problem arbeiten, sondern auch noch verschiedene Terminologien verwenden und unterschiedliche Blickwinkel auf das Innovationsprojekt einnehmen, ist es jedoch sehr schwierig, ohne strukturelle Vorgaben zielführend zu arbeiten. Ein klarer Ablauf einer Methode hilft, die zu leistenden Wissensbeiträge zu ordnen und zum richtigen Zeitpunkt einzubeziehen. Dazu muss gegebenenfalls ein solcher Ablauf erst definiert werden, wenn er in der ursprünglichen Methodenbeschreibung bewusst offen gehalten wurde. Ein wichtiger Aspekt der kollaborativen Innovation ist das notwendige Vertrauen, das zwischen den Partnern vorhanden sein muss. Es ist die entscheidende Grundlage für einen effizienten Wissensaustausch von dem alle Partner profitieren können. Dies ist insbesondere auch für die gemeinsame Anwendung von Methoden von Bedeutung. Vertrauen kann durch regelnde Verträge und Vertraulichkeitserklärungen gestärkt werden. Vorteil des hier vorgestellten Ansatzes ist es jedoch, dass durch die klare Beschreibung des Ablaufs der Methode, sowie durch die im Voraus identifizierten Wissensbeiträge klar herausgestellt wird, welches problemspezifische Wissen eingebracht wird, welches ausgetauscht wird, und welche Art von Wissen zu guter Letzt entstehen wird. Die Erfahrungen in der Praxis zeigen, dass durch diese Transparenz der Aufbau einer gemeinsamen Vertrauensbasis wesentlich erleichtert wird. Um einem Smart Network von Nutzen zu sein, ist es unerlässlich, dass die (evtl. an all diese Bedingungen angepassten) Methoden in die Informations- und Kommunikationssysteme des Netzwerks integriert werden. Dabei gilt es, die genannten Themen nicht nur bei der Implementierung einer Anwendung zu berücksichtigen. Auch bei der Wahl einer geeigneten Kollaborationsplattform müssen diese Aspekte bereits mit einbezogen werden. Dafür eignet sich der Ansatz der modellgetriebenen Architektur, der ausgehend von einem Geschäftsprozessmodell der Methode über die Zwischenschritte eines plattformunabhängigen und eines plattformabhängigen Modells der Anwendung zu einer implementierten Anwendung auf einer Kollaborationsplattform führt.13 Eine leicht abgewandelte Form des Ansatzes wird im 12 Vgl. 13 Vgl.
Smith / Reinertsen (1991). Miller / Mukerji (2003).
Methoden zur kollaborativen Innovation in Smart Networks287
folgenden Kapitel vorgestellt und im anschließenden Kapitel durch ein Praxisbeispiel erläutert.
D. Implementierung von Methoden des Innovationsmanagements auf einer Kollaborationsplattform Der Ansatz der modellgetriebenen Architektur eignet sich sehr gut um die Umsetzung einer Methode des Innovationsmanagements in eine kollaborative Anwendung zu unterstützen. Allerdings müssen, wie bereits oben erwähnt, spezielle Rahmenbedingungen berücksichtigt werden. Aus diesem Grund wird im Rahmen der modellgestützten Anwendungsentwicklung (engl.: Model-driven Application Development (MAD)) zwar ein ähnlicher Ansatz verfolgt, man fasst den vierstufigen Ablauf allerdings nicht als linear auf, sondern bevorzugt eine modulare Darstellung die ganz bewusst Iterationen, Rückschritte und Querverweise zwischen den einzelnen Modulen zulässt. Die vier Module der modellgestützten Anwendungsentwicklung sind (siehe auch Abbildung 2): Plattformunabhängige Modellierung (1) Geschäftsprozessmodell – Prozessperspektive (2) Geschäftsprozessmodell – Anwendungsperspektive Plattformabhängige Modellierung (3) Anwendungsmodell (4) Systemkonfigurationsmodell Im ersten Modul, der (1) Prozessperspektive der Geschäftsprozessmodellierung, wird der zu unterstützende Geschäftsprozess genau analysiert. Dazu gehört die Identifikation der aufeinander folgenden Aktivitäten, die zugehörigen Verantwortlichen und ggf. die benötigten Ressourcen. Bezogen auf eine Methode des Innovationsmanagements bedeutet das, dass hier der genaue Ablauf der Methode beschrieben und visualisiert wird. Das zweite Modul nutzt die Ergebnisse von (1) und bereichert sie um die Vision einer zukünftigen Anwendung (2). Für die identifizierten Abläufe werden also die Aktivitäten besonders hervorgehoben, die durch die zu entwickelnde Anwendung unterstützt werden sollen. Damit einher geht natürlich die Identifikation von möglichen Rollen die bei der Implementierung der Anwendung entsprechend berücksichtigt werden müssen. Unter Umständen kann es in diesem Schritt auch nötig sein, den Prozess umzugestalten, um das Potential einer solchen Anwendung vollständig ausnutzen zu kön-
288
Armin Lau
Abbildung 2: Schema der Modellgestützten Anwendungsentwicklung
nen. In diesem Fall ist das entstehende Ablaufmodell noch einmal unter den Gesichtspunkten von Modul (1) zu betrachten. Während sich die ersten beiden Module unabhängig von der Entwicklungsplattform bearbeiten lassen, auf der die Anwendung später entstehen soll, so ist in Modul (3) ein plattformspezifisches Anwendungsmodell zu erstellen. Das Ziel dieses Modellierungsschritts ist es also, Services und Funktionalitäten der Anwendung, sowie deren Interaktion untereinander und mit dem Benutzer, so zu beschreiben, dass sie später auf der gewählten Entwicklungsplattform implementiert werden können. Die Implementierung erfolgt in Modul (4). Das zu erstellende Systemkonfigurationsmodell ist dabei nicht zwangsläufig Software-Code. Vielmehr ist es genauso möglich, in dem Modell die Konfiguration und Verknüpfung vordefinierter Komponenten darzustellen, welche dann von der Entwicklungsplattform zu einer lauffähigen Anwendung interpretiert werden. Der vorgestellte modulare Ansatz zur Anwendungsentwicklung ist speziell für die Entwicklung kollaborativer Anwendungen gut geeignet. So kann in den Modellen berücksichtigt werden, dass die für eine Anwendung nötigen Informationen in verteilten Informations- und Kommunikationssystemen bereits zur Verfügung stehen und nur an bestimmten Punkten in die Anwendung integriert werden müssen. Ebenso lässt sich die Modellierung verwenden, um Verbindungen zu bereits existierenden Informations- und Kommunikationssystemen zu berücksichtigen.
Methoden zur kollaborativen Innovation in Smart Networks289
E. Praxisbeispiel: Implementierung einer Fehlermöglichkeitenund Einflussanalyse (FMEA) Das Ziel des europäischen Forschungsprojekts AVALON war es, aus einem Ausgangsmaterial (ein Draht aus Formgedächtnislegierung) durch textile Verarbeitungsschritte Produkte für diverse Industriesektoren zu entwickeln. Dazu verbanden sich 30 Projektpartner aus 10 Ländern zu mehreren Smart Networks, in denen jeweils aus einer Produktidee ein Prototyp entstand. Um diese Innovationstätigkeiten zu unterstützen befasste sich ein zweiter Forschungsschwerpunkt von AVALON mit der konzeptuellen, methodischen und technologischen Unterstützung dieser Innovationsprozesse.14 Die Partner der Smart Networks sind über ganz Europa verteilt, weswegen auf einer Kollaborationsplattform die Möglichkeit geschaffen wurde, systematisch bestimmte Teile ihrer kollaborativen Innovationstätigkeiten zu unterstützen, ohne dass dafür ein persönliches Treffen notwendig ist. In einem der Smart Networks, das ein Medizinprodukt unter der Verwendung von Formgedächtnis-Textilien entwickelte, wurde der Bedarf einer Risikoabschätzung (auch im Hinblick auf eine später notwendige Zertifizierung des Produkts) in einer frühen Phase des Projekts erkannt. Um auch das produktspezifische Wissen von Zulieferern und Dienstleistern in die Risikoabschätzung einfließen lassen zu können, wurde die Fehlermöglichkeitenund Einflussanalyse (FMEA) als Anwendung auf der Kollaborationsplattform bereitgestellt. Im Folgenden wird dargestellt, wie der oben präsentierte Ansatz der modellgestützten Anwendungsentwicklung auf die Methode der FMEA angewandt wurde. Die FMEA ist eine sehr bekannte und seit vielen Jahren in Innovationsund Risikomanagement angewandte Methode. Sie unterstützt die systematische Identifikation, Priorisierung und Reduzierung von Produkt- und Prozessrisiken.15 Obwohl die FMEA häufig auf bereits existierende Produkte und Prozesse angewandt wird, eignet sie sich auch sehr gut für die frühen Phasen des Innovationsprozesses, um zum Beispiel ein Produktkonzept zu evaluieren.16 Da sich die FMEA nicht nur mit den Risiken beschäftigt, sondern auch mit den möglichen zugrunde liegenden Ursachen und den potentiellen Folgen, kann die Methode sehr vom Wissen von Zulieferern und Kunden
14 Vgl.
AVALON (2009). US Department of Defense (1980). 16 Vgl. Dahmen (2002). 15 Vgl.
290
Armin Lau
profitieren. Ein unternehmensübergreifender Einsatz der Methode bietet sich daher an.17 Für die Umsetzung der Methode auf der Kollaborationsplattform des Projekts wurde nun gemäß des Ansatzes der modellgestützten Anwendungsentwicklung zuerst unabhängig von der gewählten Plattform die Methode analysiert. Ein Geschäftsprozessmodell (Modul (1)) wurde erstellt, das den Ablauf der Methode repräsentiert und die Verantwortlichkeiten für die jeweiligen Arbeitsschritte hervorhebt (siehe Abbildung 3). Die Verantwortlichkeiten wurden über Rollen formuliert, um eine Zuordnung losgelöst von (unternehmensinternen) Hierarchien zu ermöglichen. Ebenfalls Gegenstand dieses Modellierungsschritts war die Analyse des notwendigen Informations- und Wissensaustauschs, da die zu bildende Anwendung diesen Austausch und die erwartete Neubildung von produktspezifischem Wissen unterstützen soll. Dazu wurden auch die Wissenstransformationen18 berücksichtigt. Um dies alles in einem Modell abbilden zu können, kam die am DITF entwickelte Modellierung Smart Network Modelling19 zum Einsatz. Im zweiten Modul der modellgestützten Anwendungsentwicklung steht die Identifikation von Services und Funktionalitäten der zukünftigen Anwendung im Vordergrund. Das erstellte Modell wurde demnach um eine Anwendungsperspektive erweitert (2). Ein Neugestalten des Ablaufs der Methode war bei der FMEA nicht notwendig. Mit dem dritten Schritt, der eigentlichen Anwendungsmodellierung (3), beginnt der plattformspezifische Teil der modellgestützten Anwendungsentwicklung. Um dies zu ermöglichen, wurde eigens für die in AVALON verwendete Kollaborationsplattform eine entsprechende Modellierungssprache entwickelt. Diese entstand unter Nutzung der Generic Modeling Environment (GME) der University of Vanderbilt,20 die auch als Modellierungsoberfläche für das Anwendungsmodell der FMEA diente. Die in AVALON verwendete Kollaborationsplattform ermöglichte die Implementierung von Anwendung durch eine entsprechende Konfiguration und Verknüpfung von vorbereiteten Bausteinen (4). Ein Teil der so entwickelten Anwendung ist in Abbildung 4 zu sehen. 17 Vgl.
Lau (2007), S. 48 ff. Nonaka / Takeuchi (1997), S. 74 ff. 19 Das Konzept Smart Network Modelling wird in Weiß (2009) näher erläutert. Auch der von Weiß in diesem Tagungsband veröffentlichte Beitrag „Modellierung von Smart Networks“ geht auf diese Modellierung ein. 20 Vgl. University of Vanderbilt (2008). 18 Vgl.
Abbildung 3: Ausschnitt aus dem Geschäftsprozessmodell der FMEA inkl. Wissenstransformationen
Methoden zur kollaborativen Innovation in Smart Networks291
292
Armin Lau
Abbildung 4: Ausschnitte aus der fertigen FMEA-Anwendung
F. Zusammenfassung und Ausblick Die vorgestellten Konzepte und Methoden wurden im Rahmen des EUProjekts AVALON erforscht, erprobt und umgesetzt. Der Weg von einer Methode des Innovationsmanagements über ihre Anpassung an die Gegebenheiten in einem Smart Network bis hin zur Umsetzung der Methode auf der projektinterne Kollaborationsplattform wurde in der Praxis vollständig erfolgreich beschritten, wodurch eine systematische methodische und technologische Unterstützung des Smart Networks im Bereich des Innovationsmanagements ermöglicht wurde. Weitere Forschung in diesem Bereich wird sich damit beschäftigen, inwiefern auch andere Methoden mit dem Ansatz der modellgestützten Anwendungsentwicklung umgesetzt werden können, und in wie weit auch andere Entwicklungsplattformen mit diesem Ansatz adressiert werden können. Die Transformationen zwischen den einzelnen Modellen wurden bisher manuell ausgeführt. Eine halbautomatische Transformation ist für die weitere Anwendung in der Praxis angedacht. Auch eine Erweiterung des vorgestellten Ansatzes um semantische Services gilt es zu erforschen.21 21 Auf das Thema der semantischen Unterstützung von Innovationsaktivitäten geht auch der Tagungsband-Beitrag „Ontologie-basierte Integration von verteilten Wissensbasen in Innovationsnetzwerken“ von Hirsch ein.
Methoden zur kollaborativen Innovation in Smart Networks293
Literaturverzeichnis AVALON (2009), Multifunctional textile structures driving new production and organizational paradigms by textile SME interoperation Across high-added-VALue sectOrs for knowledge-based product / service creatioN (AVALON). Integrated Project for SMEs, European Commission Community Research 6th Framework Programme, Priority 3 NMP (NMP2-T-2005-515813-2). URL: http: / / www.avalon-eu.org, zugegriffen am 20.07.2010. Bellantuono, N. / Pontrandolfo, P. / Scozzi, B. (2006), Knowledge networks within supply chain to foster innovation. in: Proceedings of the 14th International Working Seminar on Production Economics. Innsbruck, Österreich, 20.–24.02.2006. Camarhinha-Matos, L. M. / Afsarmanesh, H. (2004), The Emerging Discipline of Collaborative Networks, in: Camarinha-Matos, L. M. (Hrsg.), Virtual Enterprises and Collaborative Networks, IFIP 18th World Computer Congress, TC5 / WG5.5 – 5th Working Conference on Virtual Enterprises, Boston, 2004. Cooper, R. (2008), Perspective: The Stage-Gate Idea-to-Launch Process – Update, What’s New and NexGen Systems. Journal of Product Innovation Management, 25, 2008, S. 213–232. Dahmen, J. (2002), Prozeßorientiertes Risikomanagement zur Handhabung von Produktrisiken, Aachen, 2002. Filos, E. (2006), Smart Organizations in the Digital Age, in: Mezgár, I. (Hrsg.): Integration of Information and Communication Technologies in Smart Organizations. Hershey, 2006, S. 1–38. Filos, E. / Banahan, E. (2001), Will the Organisation Disappear? The Challenges of the New Economy and Future Perspectives, in: Camarinha-Matos, L. M. / Afsar/ Rabelo, R. (Hrsg.): E-Business & Virtual Enterprises. Dordrecht, manesh, H. 2001, S. 2–30. Lau, A. (2007), Kooperatives und kollaboratives Risikomanagement für kleine und mittlere Unternehmen. Diplomarbeit, Universität Stuttgart, 2007. Lau, A. / Fischer, T. / Rehm, S.-V. / Hirsch, M. (2009), Collaborative Innovation in Smart Networks – a Methods Perspective, in: Thoben, K.-D. / Pawar K. S. / Katzy, B. / Bierwolf R. (Hrsg.), Proceedings of the 15th International Conference on Concurrent Enterprising (ICE 2009): Collaborative Innovation: Emerging Technologies, Environments and Communities. Leiden, Niederlande, 22.–24.06.2009. Lindemann, U. (2006), Methodische Entwicklung technischer Produkte. Methoden flexibel und situationsgerecht anwenden. Berlin, Heidelberg, New York, 2006. Miller, J. / Mukerji, J. (Hrsg.) (2003), MDA Guide Version 1.0.1, URL: http: / / www. omg.org / cgi-bin / doc?omg / 03-06-01.pdf, zugegriffen am: 15.07.2010. Nonaka, I. / Takeuchi, H. (1997), Die Organisation des Wissens: wie japanische Unternehmen eine brachliegende Ressource nutzbar machen, Frankfurt / Main, 1997. Rehm, S.-V. (2007), Architektur vernetzter Wertschöpfungsgemeinschaften der Textilwirtschaft. Dissertation, Universität Stuttgart, Onlinepublikation. URL: http: / / elib.uni-stuttgart.de / opus / volltexte / 2007 / 3197 / , zugegriffen am 21.07.2010.
294
Armin Lau
Serrano, V. / Fischer, T. (2007), Collaborative Innovation in Ubiquitous Systems. in: Journal of Intelligent Manufacturing, 18, 2007, S. 599–615. Smith, P. G. / Reinertsen, D. (1991), Developing Products in Half the Time. New York, 1991. University of Vanderbilt (2008), GME: Generic Modeling Environment. URL: http: / / www.isis.vanderbilt.edu / projects / gme / , zugegriffen am 28.07.2010. US Department of Defense (1980), MIL-STD-1629A: Procedures for Performing a Failure Mode, Effects and Criticality Analysis. URL: http: / / www.goes-r.gov / procurement / ground_documents / Reference%20Documents / MIL-STD-1629A.pdf, zugegriffen am 30.06.2010. Verworn, B. / Herstatt, C. (2000), Modelle des Innovationsprozesses. Arbeitspapier Nr. 6, TU Harburg, 2000. URL: http: / / www.tu‑harburg.de / tim / downloads / arbeitspapiere / Arbeitspapier_6.pdf, zugegriffen am 21.07.2010. Weiß, M. (2009), Modelling Textile Networks, in: Walter, L. / Kartsounis, G.-A. / Carosio, S. (Hrsg.), Transforming Clothing Production into a Demand-Driven, Knowledge-Based, High-Tech Industry. The Leapfrog Paradigm, London, 2009, S. 166–175.
Integration von Wissen in Innovationsnetzwerken mithilfe eines ontologiebasierten Entscheidungsunterstützungssystems Von Manuel Hirsch
A. Kollaboration in Smart Networks Da zur erfolgreichen Platzierung eines Produktes am Markt zunehmend Neuerungen aus diversen Wissensbereichen nötig sind, rücken in den letzten Jahrzehnten vermehrt Netzwerkstrukturen in den Fokus der ökonomischen Praxis.1 Begreift man (Innovations-)Netzwerke als dynamisches System von Akteuren, die über lose Kopplungen2 miteinander in Beziehung stehen und sich der Herstellung komplexer, innovativer Produkte und Dienstleistungen zum gemeinsamen Ziel gesetzt haben, so leitet sich daraus meist der Wunsch nach geeigneten Konzepten, Methoden und Technologien3 zur Beherrschung der sich ergebenden Komplexität des Gesamtsystems ab.4 Dabei gilt es, das im Netzwerk vorhandene Wissen gezielt zu erfassen, sodann zu verteilen, nutzbar zu machen bzw. weiter zu entwickeln, implizite Abhängigkeiten transparent zu machen, adäquate Kommunikationswege zu etablieren, Abstimmungsprozesse zu kanalisieren und Entscheidungsfindungsprozesse flexibel zu unterstützen.5 Die daraus für den innovativen Mittelstand ableitbaren organisatorischen, technologischen und prozeduralen Anforderungen werden bis heute kaum durch geeignete Informationssysteme unterstützt. Auch wenn die Idee der Kollaboration von kleinen und mittleren Unternehmen (kmU) in Netzwerken durchaus verbreitet scheint, fehlt es bislang an überzeugenden Strategien zur Unterstützung kollaborativer Innovation.6 1 Vgl.
Sydow (2006). Ramos (2008). 3 Vgl. Fischer (1999). 4 Eine Übersicht über die Rolle von Konzepten, Methoden und Technologien im Innovationsprozess geben Thomas Fischer und Sven-V. Rehm in diesem Tagungsband. 5 Vgl. Probst / Raub / Romhardt (2006). 6 Vgl. Camarinha-Matos / Afsarmanesh / Ollus (2006). 2 Vgl.
296
Manuel Hirsch
Abbildung 1: Die Idee der Smart Networks (in Anlehnung an Filos und Banahan 2000)
Der vorliegende Beitrag reflektiert daher die praktische Relevanz eines Ontologie-basierten Integrationsansatzes zur Unterstützung von Innovationsnetzwerken, der im Rahmen des europäischen Forschungsprojektes AVALON7 viel versprechende Resultate liefern konnte. Bei dem im Projekt verfolgten Ansatz wird allgemeingültiges (Experten-)Wissen aus der Domäne „Kollaborative Innovation“ mit Hilfe von attribuierten Konzepten, Relationen und speziellen Regel in Form einer Ontologie8 abgelegt und anschließend mit dem sich im Netzwerk evolutionär weiterentwickelnden, konkreten Wissen (in Form expliziter Informationsobjekte) assoziiert. Die dadurch vollzogene semantische Erschließung der Wissensbasis des kmUKonsortiums erlaubt es dann, Aussagen über den aktuellen Stand des Netzwerks zu treffen (Ist-Zustand) und diesen mit Erkenntnissen aus den Bereichen Wissens- und Innovationsmanagement (Soll-Zustand) zu vergleichen. Auf dieser Grundlage ist es möglich, mit so genannten Smart Integration Services, automatisch generierte Empfehlungen für die weitere Entwicklung des Innovationsnetzwerks zu geben. Als Erfolgsfaktor eines innovativen Akteurs in Netzwerken gilt nach Filos & Banahan die Ausrichtung auf die angemessene Teilung von Wissen, die dynamische Abstimmung der jeweiligen Organisationsstrukturen sowie die flexible Integration der verwendeten Informations- und Kommunikations7 http: / / www.avalon-eu.org. 8 Der informationstheoretische Begriff Ontologie (griechisch: „Seins Lehre“) beschreibt nach Gruber „eine explizite, formale Spezifikation einer gemeinsamen Konzeptualisierung“ (Gruber, 1993), also eine wohl dokumentierte und innerhalb einer Gruppe abgestimmte, zweckmäßige Sicht auf ein gewisses Themenfeld (Fen sel, 2000), die sowohl von Menschen als auch von Computern interpretiert werden kann (Pinto / Tempich / Staab, 2009).
Ontologie-basierte Integration von Wissen in Innovationsnetzwerken297
technologie (IKT) (siehe Abbildung 1).9 In ähnlicher Weise gilt es, das gesamte Netzwerk gemäß dieser drei konstituierenden Elemente erfolgreicher Kollaboration zu orientieren. Der hier vorgestellte Ansatz zeigt ausgehend von der Idee der Smart Networks, dass basierend auf geeigneten Wissensmodellen (u. a. einer Ontologie) adäquate Informations- und Kommunikationstechnologie (IKT) zur Unterstützung kollaborativer Aktivitäten in Netzwerken erstellt, vor allem aber auch wirkungsvolle Analyse- und Entscheidungs-Mechanismen zur Koordination des Netzwerks abgeleitet werden können.
B. Unterstützung von Smart Networks durch Informationsund Kommunikationssysteme Neben der Ausrichtung auf eine angemessene Teilung von Wissen und der dynamischen Abstimmung von Organisationsstrukturen profitieren Innovationsnetzwerke vor allem vom Einsatz aktueller Kommunikations- und Informationstechnologie mit Serviceorientierung.10 Erforderte der herkömmliche Einsatz von neuartiger IKT meist tiefe Eingriffe in unternehmensinterne IT-Systeme und Kommunikationsprozesse, erlaubt die Serviceorientierung eine weitgehend störungsfreie ad-hoc Ergänzung vorhandener ITStrukturen.11 Die Serviceorientierung erweist sich vor allem im dynamischen Umfeld von Innovationsnetzwerken als besonders vorteilhaft, da es ihre grundsätzliche Flexibilität erlaubt, auf jedwede Veränderung im Netzwerk – sei es, dass ein Partner das Netzwerk verlässt, sich Zuständigkeiten ändern, Abläufe abgewandelt werden oder neue Wissensdomänen erschlossen werden müssen – adäquat zu reagieren. Entsprechende Services werden zu diesem Zweck in Service-Repositories vorgehalten12 und den Mitgliedern des Innovationsnetzwerks bei Bedarf zur Verfügung gestellt. Dabei bestimmt jeder einzelne Akteur, welche Funktionalitäten er nutzen möchte, welche unternehmenseigenen Systeme er ggf. integrieren möchte bzw. mit welchen Partnern er in einem Netzwerkteilbereich intensiver zusammenarbeiten möchte. Der vorliegende Beitrag sieht unternehmensinterne IKT durch zwei weitere Komponenten ergänzt: Durch Kollaborationsdienste13, zur Unterstützung von überorganisatorischer Zusammenarbeit in Innovationsnetzwerken, 9 Vgl.
Filos / Banahan (2000). Demirkan (2008). 11 Vgl. Heutschi (2007). 12 Vgl. Rehm (2009). 13 Ansätze zur IT- und Methoden-gestützten Kollaboration in Innovations netz werken finden sich im Beitrag von Armin Lau in diesem Tagungsband. 10 Vgl.
298
Manuel Hirsch
sowie durch (Wissens-)Integrationsdienste, die dabei helfen, dass Gesamtsystem Innovationsnetzwerk zu koordinieren, und die dem einzelnen Akteur Anhaltspunkte liefern, im Netzwerk zu navigieren. Als Grundlage sowohl für die Ausgestaltung und Komposition von Kollaborationsdiensten als auch für den Einsatz von Integrationsdiensten gilt dabei die umfassende wissensorientierte Modellierung14 des Innovationsnetzwerks mit Blick auf organisatorische Gegebenheiten, angestrebte Material- und Informationsflüsse, prozedurale Kompetenzen im Netzwerk, sonstige operativen Abhängigkeiten und strategische Notwendigkeiten. Weiß schreibt daher der Smart Network Modellierung eine sehr grundlegende Bedeutung zu, indem er diese sowohl als Ausgangspunkt für die Definition von Kollaborationsdiensten (Smart Collaboration Services) als auch von Wissensintegrationsdiensten (Smart Integration Services) identifiziert. Ausgehend von den oben ausgeführten Überlegungen fokussieren die folgenden Abschnitte auf die modellgestützte Definition einer geeigneten Innovationsontologie, die die konzeptionelle Ausgangsbasis der weiter unten spezifizierten Wissensintegrationsdienste darstellen wird. I. Modellierung von Smart Networks Um Smart Networks umfassend zu modellieren, gilt es, nicht nur die beteiligten Akteure im Netzwerk sowie deren Abhängigkeiten nebst Material- und Informationsflüssen abzubilden, sondern vielmehr sämtliche Wissensfelder15 abzudecken. Darunter zählen neben organisatorisch-topografischen und prozeduralen auch operationales Wissen und Wissen über Innovations- und Koordinations- Methoden. So finden sich in den Smart Network Modellen folgende Aspekte repräsentiert: •• Organisatorisch-topografisches Wissen –– Grenzen des Netzwerks, –– Akteure im Netzwerk, –– Beziehungen der Akteure untereinander. •• Prozedurales Wissen –– Wissen über Geschäfts-, Produktions-, Transformations-, Entwicklungsund Testprozesse, –– Wissen über Materialien, Ressourcen und Kompetenzen. 14 Details zur Modellierung von Wissen in Innovationsnetzwerken gibt Michael Weiss in diesem Tagungsband. 15 Vgl. Rehm (2007).
Ontologie-basierte Integration von Wissen in Innovationsnetzwerken299
Abbildung 2: Beispiel eines Smart Network Modells
•• Operationales Wissen –– Indikatoren für den Zustand des Netzwerks, –– Ressourcensituation, –– Aktivitätsindex. •• Wissen über Innovations- und Koordinationsmethoden –– Formalisierte Innovationsprozesse, –– Regelwerke, –– Verantwortlichkeiten, –– Strategien & Ziele. Als Beispiel eines Modells zur Fassung organisatorisch-topografischen Wissens ist in Abbildung 2 – mit Hilfe des Modellierungstool GME16 – die organisatorische Perspektive einer Smart Networks Modellierung auf ein Teilprojekt des Projekts AVALON dargestellt. Neben Akteuren finden sich auch deren Kompetenzen und Zwischenprodukte im Entwicklungsprozess eines innovativen Motorradhelms mit integrierten Formgedächtnislegierungen schematisch aufgezeigt, die dem untenstehenden Modell hinterlegt sind. So trägt Partner „Saes Getter“ als „Produktionsteam Draht“ den von Partner eXtreme zur Produktion von Gewebe benötigten Draht bei, während AGV – von zahlreichen Partnern unterstützt – schließlich den Prototypen Helm zusammensetzt. 16 Generic
Modeling Environment (GME), http: / / www.isis.vanderbilt.edu.
300
Manuel Hirsch
II. Entwicklung einer geeigneten Innovationsontologie Sämtliche im vorgelagerten Modellierungsschritt erhobenen Daten und Modelle werden im Rahmen der Ontologieentwicklung zu einer vereinheitlichten Innovationssemantik verdichtet. Die verwendete Methodik zur Entwicklung der dazu nötigen Innovationsontologie folgt dem Phasenplan der METHODOLOGY17. Dieser umfasst im Wesentlichen drei Aufgabenschwerpunkte: (1) ein allgemeines Projektmanagement, (2) die eigentliche Ontologieentwicklung sowie (3) diverse unterstützende Aktivitäten (z. B. die Akquise von Wissen über die zu erfassende Domäne bzw. die kontinuierliche Evaluierung von Ontologieprototypen). Ähnlich der evolutionären Entwicklung biologischer Organismen durchlaufen Ontologien dabei eine Reihe irreversibler Entwicklungsstufen, von ihrer Spezifikation über Konzeptualisierung, Formalisierung sowie Implementierung bis zur lebenslangen Wartung. Über all diesen Entwicklungsstufen gilt es, eine übergeordnete Zweckmäßigkeit zu bewahren und die AVALON Ontologie für den wohl umrissenen Anwendungsfall der Innovation in Smart Networks zu formulieren. Um diesen Handlungsrahmen der Ontologieentwicklung zu liefern, empfehlen Grüninger und Fox die strikte Orientierung an so genannten Competency Questions18. Competency Questions konkretisieren die Anforderungen an die zu erstellende Ontologie, indem sie explizite Fragen innerhalb einer gewissen Domäne repräsentieren, die von der jeweiligen Ontologie beantwortet werden sollen. Im Projekt AVALON konnten diese Competency Questions auf Basis der über diverse Medien in der zentralen Koordinationsstelle eingegangenen Anfragen abgeleitet werden. Beispiele für Compentecy Questions im Bereich kollaborativer Innovation sind demnach: •• „Welche Informationen sind nötig, um eine Idee als ‚gut‘ oder ‚schlecht‘ einstufen zu können?“ •• „In welchem Status befindet sich das Innovationsnetzwerk?“ •• „Was soll als nächstes unternommen werden?“ –– „Welche Partner sollten zusammenarbeiten?“ –– „Welche Methode des Innovationsmanagements sollte angewendet werden?“ –– „Welcher Test sollte mit dem Portotypen durchgeführt werden?“ •• „Welche Materialien und Komponenten welcher Partner wurden zur Herstellung des Prototyps verwendet?“ 17 Vgl. 18 Vgl.
Fernández / Gómez-Pérez / Juristo (2005). Grüninger / Fox (1995).
Ontologie-basierte Integration von Wissen in Innovationsnetzwerken301
Die vorliegende Untersuchung fokussiert im Folgenden auf die für die eigentliche Ontologieentwicklung entscheidenden Arbeitsschritte der METH ONTOLOGY. So werden zunächst die zentralen Konzepte der vorliegenden Wissensdomäne analysiert und gesammelt (Wissensakquise), um diese dann zueinander in Beziehung setzten zu können (Konzeptualisierung). Im Anschluss findet durch Detaillierung und Attribuierung eine Verfeinerung der Konzeptbeschreibung statt, bevor die maßgeblichen Rahmenbedingungen und Gesetzmäßigkeiten in Form eines umfassenden Regelwerks ergänzt werden können (Formalisierung). Zur Vorbereitung der abschließenden Entwicklung von Integrationsdiensten werden dann generische Abfragen auf konkret assoziierte Datenbestände formuliert (Implementierung). 1. Grundlegende Konzepte der Innovation in Netzwerken Als Ergebnis der Netzwerkmodellierung lassen sich im ersten Schritt der Ontologiebildung grundlegende Konzepte der Domäne „Innovation in Netzwerken“ identifizieren. Auch hier ist es zweckmäßig, der Kategorisierung der Wissensfelder zu folgen und die zu erstellende Ontologie in vier Module zu gliedern. Konzepte aus dem organisatorischen-topologischen Wissenfeld sind demnach Akteure, Partner, Wertschöpfungsstufen, Kompetenzen und beispielsweise Projekt. Aus dem Bereich des prozeduralen Wissens erschließen sich die Konzepte Transformations-, Produktions-, Test- und Entwicklungs-Prozess, während operationales Wissen in Form der Konzepte Material, Ressource und Ideen gefasst werden können. Konzepte wie Methode des Innovationsmanagements oder Innovationsmodul im Innovationsprozess gehören schwerpunktmäßig dem Wissensfeld über Innovations- und Koordinationsmethoden an. Abbildung 3 fasst diese Konzepte bereits ungeachtet deren wissenstheoretischen Herkunft in eine Skizze der AVALON Innovationsontologie zusammen. 2. Relationen zwischen den Innovationskonzepten Um Abhängigkeiten, Bezüge und Beziehungen ausdrücken zu können, lassen sich in Ontologien Relationen zwischen den Konzepten formulieren. Ausgehend von den jeweiligen Netzwerkmodellen, Material- und Prozessmodellen, sowie der entsprechenden Managementmodelle aus dem Bereich Innovationsmanagement und Wissensmanagement, finden sich die unabhängig voneinander untersuchten Konzeptwelten sodann nicht mehr isoliert nebeneinander, sondern konsolidiert, faktisch integriert in einer einheitlichen Ausdruckform – der Ontologie – wieder. In Abbildung 3 finden sich daher
302
Manuel Hirsch Projekt umfasst
Innovationsmodul
Idee zieltAuf
hatPartner Prozess
empfiehlt
stellt her
Produkt
trägtBeiZu nutzt
Akteur
kennt
hatInput istOutputVon besteht aus
Methode Material
Abbildung 3: Auszug aus der entwickelten Innovationsontologie
zwischen den einzelnen Konzepten auch gerichtete Relationen19. Um beispielsweise ausdrücken zu können, dass ein gewisser Partner eine gewisse Methode des Innovationsmanagements kennt, ist in der Konzeptwelt der Ontologie eine gerichtete Relation kennt zwischen den Instanzen der Konzepte Partner und Methode zu ermöglichen. Eine Relation umfasst dabei stets ein Quell- und Zielkonzept, eine Angabe über den Typ der Relation sowie der Kardinalität der Quell- und Zielinstanzen. Relationen werden dabei als Attribut des Quell-Konzepts gespeichert. Darüber hinaus gilt es allerdings noch weitere Attribute der Konzepte zu spezifizieren. 3. Attribuierung der Konzeptwelt Neben der groben Fassung der Konzepte der Domäne „kollaborative Innovation“ sowie deren Relationen untereinander, gilt es die jeweiligen Attribute der Konzepte zu definieren und zu systematisieren. Maßgeblich hierbei sind vor allem zwei Aspekte, zum Einen, ob und ggf. wie Instanzen der jeweiligen Konzepte bereits in Datenspeichern vorliegen, zum Anderen, 19 Laut Gruber sind „Relations […] formally defined as any subset of a product of n sets.“ (Gruber, 1993). Damit sind Relationen keineswegs auf maximal zwei beteiligte Konzepte begrenzt, sondern vielmehr n-stellig. Gemäß Ehrig findet sich diese Definition auch in der Umgangssprache wieder, da viele Beziehungen mehr als nur zwei Beteiligte haben. So kann man z. B. die Relation „Familie“ auffassen, als Menge von 3-Tupeln: Vater, Mutter, Menge der Kinder: Menschheit × Menschheit × P(Menschheit) (Ehrig, 2001).
Ontologie-basierte Integration von Wissen in Innovationsnetzwerken303
welche Attribute zur Verarbeitung und Auswertung innerhalb der Ontologie benötigt werden. Besonders hervorzuheben sind dabei die Konzepte Material, Prozess und Ressource. Instanzen dieser Konzepte finden sich bereits explizit in der AVALON Kollaborations- und Innovationsplattform dokumentiert. Allerdings sind alle drei Konzepte unter dem generischen Konstrukt Subject abgelegt und mit unterschiedlichsten Attributen bestückt. Abhängig davon, ob ein Material beispielweise vom Typ „Formgedächtnislegierung“ oder „textile Fläche“ ist, finden sich daher entweder „Durchmesser und Länge“ oder „Länge, Breite und Dicke“ verzeichnet. Für die vorgesehenen Auswertung mit der AVALON Innovationsontologie sind diese Details allerdings unerheblich; diese werden lediglich als informativer Anhang, nicht aber als identifizierender Header verwendet und verwaltet. So ist es von Seiten der Ontologie nicht nötig, die Flexibilität der Kollaborationsund Innovationsplattform hinsichtlich der Konzeptattribute abzubilden, sondern vielmehr ausschließlich die vom System vergebene eindeutige ID jedes Subject aufzunehmen. So gestaltet sich die Fassung der Konzepte Material, Ressource, Prozess sowie sämtlicher digital bereits vorgehaltener Konzepte als Tupel aus ID, Relationen und ggf. ergänzende Datenattribute aus der jeweiligen Datenbankstruktur. 4. Regelbasis der AVALON Innovationsontologie Als elementarer Bestandteil einer leistungsfähigen Ontologie bildet die Regelbasis das implizite Wissen der Experten einer Domäne in Form von z. B. Wenn-Dann-Bedingungen ab. Ausgehend von u. a. Abhängigkeitsmatrizen, Vorgehensanweisungen, Prozessbeschreibungen und der impliziten Kompetenz der Bereichsexperten, können Regeln in Abhängigkeit von der gewählten Beschreibungslogik der Ontologie in beliebig formaler Weise verfasst und in expliziter Form erfasst werden. Dieser Explizierungsschritt gilt als entscheidender Beitrag zur umfassenden Beschreibung einer Wissensdomäne im Zuge der Ontologieentwicklung. Die so gefundenen Gesetzmäßigkeiten haben axiomatischen Charakter und damit universelle Gültigkeit innerhalb der gesamten Wissensbasis.20 Die Verwendung der Ontologie in Verbindung mit einem sogenannten Reasoner21 zur Auswertung der Wissensbasis mit Hilfe der Mechanismen regelbasierten Schließens, erlaubt es das sich stets weiterentwickelnde (dynamische) Faktenwissen mit einem wohl spezifizierten (quasi statischen) Regelwerk zu kombinieren. Generische Axiome werden so auf sehr konkrete Wissensfragmente angewendet und erlauben so, ‚neue‘ Erkenntnisse über 20 Vgl. 21 Z. B.
Holford u. a. (2010). OntoBroker, Ontoprise GmbH, http: / / www.ontoprise.de.
304
Manuel Hirsch
die Wissensdomäne zu erschließen. Wichtig ist hierbei festzustellen, dass durch den Einsatz einer Ontologie kein grundsätzlich neues Wissen geschaffen werden kann, wohl aber neue explizite Aussagen über vormals implizites Wissens der Wissensbasis formuliert werden können. Im Projekt AVALON wurde die Regelbasis mit Hilfe umfangreicher Experteninterviews und der Abstraktion gängiger Prinzipien des Innovationsmanagements erstellt. So konnten Regeln z. B. dafür eingesetzt werden, das relative Moment bei der Identifizierung von Kunden und Zuliefern eines Akteurs im Netzwerk, in semantischen Beziehungen zwischen Projektpartnern auszuprägen. Der Kunde des einen, mag der Zulieferer des anderen Partner sein – mit Hilfe von Regeln lassen sich konsistente Aussagen über die Gesamtsituation im Netzwerk formulieren und zudem Schlüsse ziehen, wie z. B. Konkurrenzsituationen vermieden werden können. Die Formulierung der Regeln erfolgte dabei im Editor OntoStudio der Ontoprise GmbH22 mit Hilfe eines grafischen Modellierungstools. Konzepte, Attribute, Regeln und auch Instanzen der Ontologie werden darin mit konfigurierbaren Funktionsblöcken und Operatoren zu allgemeinen Aussagen über die gesamte Wissensbasis zusammengeführt. Ist die Input-Bedingung der Regel erfüllt, können Attributwerte der jeweiligen Instanzen gesetzt oder Beziehungen zwischen beteiligten Instanzen ausgeprägt werden. Auf diese Weise ermöglicht es die Ontologie, implizites Wissen innerhalb der Wissensbasis durch konkrete und durchsuchbare Attributwerte bzw. auswertbare Beziehungen zwischen Informationsobjekten explizit zu machen. 5. Evaluierung der Ontologie Zur Evaluierung einer Ontologie stehen diverse, mehr oder weniger formale Ansätze zur Verfügung. Der bekannteste Mechanismus wird durch die Methode OntoClean beschrieben23. OntoClean ist eine der ersten – noch immer in Gebrauch befindlichen – Methode zur formalen Analyse von Ontologien, auf Basis der domänenunabhängigen Evaluierung von Konzeptrelationen und -hierarchien. Darüber hinaus konnte im Rahmen des AVALON Projekts ein weniger formaler Ansatz zur ad-hoc Evaluierung einer noch in Entwicklung befindlichen Ontologie skizziert werden. Dabei werden in einer speziellen Analyse-Ontologie Konzepte, Beziehungen zwischen Konzepten sowie deren Verwendung im Regelwerk der Ontologie analysiert und grafisch ausgewertet. Auf diese Weise steht dem Wissensingenieur jederzeit eben das Übersichtswissen über die gesamte Ontologie zur Verfügung, wel22 Z. B. 23 Vgl.
OntoStudio, Ontoprise GmbH, http: / / www.ontoprise.de. Guarino / Welty (2002).
Ontologie-basierte Integration von Wissen in Innovationsnetzwerken305
ches dezidierte Ontologieentwicklungstools in ihren Detailansichten oft vermissen lassen. Zudem prüfen Mechanismen der Analyse-Ontologie die entwickelte Ontologie auf Plausibilität, Vollständigkeit, logischen Zirkelschlüssen und Sackgassen. Aus Projektmanagementsicht gilt es darüber hinaus natürlich auch sicherzustellen, dass die entwickelte Ontologie derart gestaltet ist, dass sie die zuvor aufgestellten Competency Questions wirklich beantworten hilft. Dazu werden die im Rahmen der Serviceentwicklung aufgestellten Abfragen mit Testdaten bestückt und ihr Wertebereich ausgewertet. III. Implementierung von Wissensintegrationsdiensten zur Unterstützung von Smart Networks In den vorangegangenen Abschnitten wurde beschrieben, wie zunächst Faktenwissen der Wissensbasis mit Konzepten und Attributen einer Ontologie assoziiert und anschließend mit Hilfe regelbasierten Schließens innerhalb der jeweiligen Wissensdomäne integriert werden kann. Um den Akteuren in Innovationsnetzwerken diese Funktion der Ontologie unmittelbar zugänglich machen zu können und schließlich Antworten auf die oben bereits ausgeführten Competency Question der Partner geben zu können, müssen diese Fragen zunächst innerhalb der Ontologie modelliert und dann als WebServices nach außen frei gegeben werden. Dazu bieten Ontologieentwicklungstools die Möglichkeit so genannte Queries (Abfragen) zu formulieren. Diese Abfragen stellen vorkonfigurierte Suchanfragen über die Ontologie und der mit ihr assoziierten Instanzen (z. B. in Datenbanken) dar und bieten frei belegbare Input-Variablen. Diese Variablen erlauben den Suchradius innerhalb der Ontologie festzulegen und z. B.: auf einzelne Informationsobjekte und deren Attribute bzw. Relationen zu anderen Objekte zu fokussieren. Der Output einer Abfrage ist dagegen nur indirekt via z. B. durch Regeln getriggerte Beziehungen zwischen den verwendeten Konzepten geregelt. So liefern Ontologie-basierte Suchen stets vom jeweiligen Zustand der Wissensbasis abhängige Ergebnisse. Der Zustand einer Wissensbasis unterscheidet sich dabei von deren bloßen Inhalt dadurch, dass durch Anwendung der Regeln zu jedem Augenblick zusätzlich kontextspezifische Abhängigkeiten zwischen den Inhalten Berücksichtigung finden. Die so auf Basis der Competency Questions vorkonfigurierten Queries können z. B. durch die Mechanismen des OntoStudio Tools der Ontoprise GmbH in WSDL-konforme Web-Sevices24 transformiert und innerhalb eines 24 Web-Service sind gekapselte IT-Funktionalitäten, die über das Internet zur Verfügung gestellt werden (Studer / Grimm / Abecker, 2007).
306
Manuel Hirsch
Application Server25 zum Einsatz kommen. Im Rahmen des AVALON Projekts wurde zudem eine spezielle Interface-Komponente entwickelt, die sämtliche Services gemäß deren Input- und Output-Konzepte orchestriert. So hilft die AVALON Benutzerschnittstelle dabei, die gesamte Wissensbasis des Netzwerks zu erschließen, indem es erlaubt, Ergebnisse einer web-service basierten Anfrage an die Ontologie als Input für entsprechend weiterführende Serviceanfragen zu benutzen.
C. Diskussion des ontologie-basierten Integrationsansatzes am Beispiel des EU Projekts AVALON Der vorliegende Beitrag skizziert, wie im Rahmen des Projekts AVALON Ontologien eingesetzt wurden, um das Wissen in verschiedenen Netzwerk aus jeweils fünf bis zehn industriellen Partnern semantisch zu integrieren. Die dabei entstandene Innovationsontologie stellt ein prototypisches Wissensmodell zur generischen Beschreibung von innovationsbezogenen Aktivitäten in industriellen Netzwerken. Ziel dieser Ontologieentwicklung ist es, spezielle Dienste zur Wissensintegration abzuleiten, die einerseits den Partnern dabei helfen, die gemeinsame Wissensbasis des Netzwerks zu navigieren und die andererseits ein integrierendes Hilfsmittel zur Koordination des Netzwerks darstellen. So wurden zunächst netzwerkartige Organisationsstrukturen modelliert, anschließend die dabei identifizierten wissensintensiven Prozesse analysiert und mit Hilfe der Ontologie integriert, um schließlich die im Netzwerk vorhandene IKT durch geeignete Smart Integration Services zu ergänzen. Auf diese Weise wurden den jeweiligen Kommunikations- und Kollaborationstools effiziente Analyse- und Koordinationsmechanismen zur gemeinschaftlichen Beherrschung des Innovationsnetzwerks zur Seite gestellt. Die hier vorgestellten Dienste sind Gegenstand laufender weiterer Forschungsaktivitäten, liefern aber bereits die grundsätzlich benötigte Funktionalität. So erlauben die entwickelten Wissensintegrationsdienste, Partnern in Innovationsnetzwerken durch eine zentrale Schnittstelle Zugriff auf das gesamte (explizierte) Wissen im Netzwerk zu gewähren. Sie helfen, den Kontext jedes Partners im Netzwerk zu erschließen, indem sie spezielle Competency Questions beantworten helfen, z. B. „In welchem Status befindet sich die von mir eingebrachte Idee im Innovationsnetzwerk?“. Darüber hinaus helfen die Dienste auch bei der zukünftigen Gestaltung des Netzwerks, indem sie auf eine zweite Gruppe an Fragestellungen Antwort geben 25 Ein
Application Server stellt die Services-Reasoner-Verbindung sicher.
Ontologie-basierte Integration von Wissen in Innovationsnetzwerken307
wie z. B. „Welche Methode sollte in nächsten Schritt zur Anwendung kommen?“. Entscheidendes Alleinstellungsmerkmal des Ontologie-basierten Ansatzes zur Service-orientierten Unterstützung von Innovationsnetzwerken liegt dabei beispielsweise in der Möglichkeit, das Themenfeld Innovation mit Hilfe einer expliziten Ontologie beschreiben zu können, die durch ihren rein semantische Erschließung der Domäne garantiert, das Innovationsproblems auf unterschiedlichsten Ebenen adressieren zu können – sei es auf u. a. strategischer, funktionaler, wirtschaftlicher, informationstechnologischer, prozeduraler, oder managementtheoretischer Ebene. Darüber hinaus erlauben es die von Ontologie-Tools bereitgestellten Mechanismen regelbasierten Schließens, dass de-facto allgemeingültige (statische) Aussagen DomänenOntologie auf sich stetig weiterentwickelnde (evolutionäre) Informationsobjekte angewendet werden können und so dabei helfen, auch implizite Inhalte zu konkretisieren und zur Auswertung der Wissensbasis heranziehen zu können. Durch die Realisierung dieser Funktionalitäten in Form von WebServices wird zudem sichergestellt, dass sie nicht nur einfach wiederverwendet werden können, sondern sich zudem vergleichsweise leicht in bestehende Infrastrukturen integrieren lassen und folglich neben den Nutzern des AVALON Interface potentiell auch direkt anderen IT-Systemen zugänglich gemacht werden können. Momentan fokussiert die AVALON Ontologie stark auf die strukturelle Fassung von innovationsbezogenen Aktivitäten und weniger auf den klassischen Kernbereich der Ontologien, wie der inhaltlichen Harmonisierung einer Wissensdomäne beispielsweise durch die Identifikation von Synonymen und Mehrdeutigkeiten. Zukünftige Entwicklungen werden dieses zusätzliche Potential sicherlich zu aktivieren wissen. Spannend bleiben auch die unter dem Schlagwort Analyse-Ontologie angedeuteten Ansätze zur Fassung einer neuen Methode zur kontinuierlichen Evaluierung einer Ontologie noch während ihrer Entwicklungsphase. Die bislang spezifizierten Anforderungen an ein darauf fußendes Instrument überragen deutlich die derzeitige Funktionalität gängiger Open Source- und proprietärer Ontologieentwicklungstools. Mit dem vorgestellten Ansatz wurde ein erster Schritt zur semantischen Darstellung und Erfassung von ad-hoc Aktivitäten und auch systematischen Abläufen in Innovationsprozessen gegangen. Innovationsaktivitäten können nun zusammen mit sich ständig verändernden Wissensstrukturen und -inhalten in einer Innovationsontologie gebündelt werden. In Form von Smart Integration Services kann diese Ontologie als Analyse- und Entscheidungsmechanismus zur Unterstützung der Koordination von Innovationsnetzwerken genutzt werden.
308
Manuel Hirsch
Danksagungen Teile der hier vorgestellten Arbeit entstanden im Rahmen des vom Zentrum für Management Research der DITF Denkendorf koordinierten Gemeinschaftsforschungsprojekt AVALON – Multifunctional textile structures driving new production and organizational para-digms by textile SME interoperation Across high-addedVALue sectOrs for knowledge-based product / service creatioN, gefördert im Schwerpunkt „Nanotechnologien und wissensbasierte mehrfunktionale Materialien und Prozesse (NMP)“ des 6. Forschungsrahmenprogrammes der Europäischen Kommission.
Literaturverzeichnis Camarinha-Matos, Luis M. / Afsarmanesh, Hamideh / Ollus, Martin (Hrsg.) (2006), Network-Centric Collaboration and Supporting Frameworks: IFIP Tc 5 WG 5.5. 1. Aufl. Seventh Ifip Working Conference on Virtual Enterprises, September 25–27, 2006. Springer-Verlag GmbH, 2006. http: / / amazon.de / o / ASIN / 0387382 666 / . Demirkan, Haluk (2008), „Service-oriented technology and management: Perspectives on research and practice for the coming decade.“ Electronic Commerce Research and Applications 7, no. 4 (2008): 356–376. Ehrig, Hartmut (2001), Mathematisch-strukturelle Grundlagen der Informatik; 71 Tabellen. 2. Aufl. Springer-Lehrbuch. Berlin [u. a.]: Springer, 2001. Fensel, D. (2000), Ontologies: Silver Bullet for Knowledge Management and Electronic Commerce, 2000. citeseer.ist.psu.edu / 413498.html. Fernández, Mariano / Gómez-Pérez, Asunicón / Juristo, Natalia (2005), „METHONTOLOGY: From Ontological Art Towards Ontological Engineering“, 2005. Filos, E. / Banahan, E. (2000), „Will the Organisation Disappear? The Challenges of the New Economy and Future Perspective.“ In E-Business & Virtual Enterprises, 3–20. Dordrecht: Kluwer, 2000. Fischer, Thomas (1999), „The Management of Innovation – A Success Factor for any Textile Company.“ ITMF Annual Conference Report 1999 – Innovation and Creativity – Mobilising the Textile Market Potential (1999): 43–47. Gruber, T. R. (1993), „Toward Principles for the Design of Ontologies Used for Knowledge Sharing,“ 1993. http: / / www.ksl.stanford.edu. – (1993), „A Translation Approach to Portable Ontology Specifications.“ In A comparative study of ontological engineering tools, 199–220. Banff, 1993. http: / / www.ksl.stanford.edu. Grüninger, Michael / Fox, M. (1995), „Methodology for the Design and Evaluation of Ontologies.“ In IJCAI’95, Workshop on Basic Ontological Issues in Knowledge Sharing, April 13, 1995, 1995. citeseer.ist.psu.edu / grninger95methodology. html.
Ontologie-basierte Integration von Wissen in Innovationsnetzwerken309
Guarino, N. / Welty, C. (2002), „Evaluating ontological decisions with OntoClean.“ Communications of the ACM 45, no. 2 (2002): 65. Heutschi, Roger (2007), Serviceorientierte Architektur : Architekturmodell und Umsetzung in der Praxis. Sankt Gallen: Univ., Diss., 2007. Holford, M. E. / Khurana, E. / Cheung, K. H. / Gerstein, M. (2010), „Using semantic web rules to reason on an ontology of pseudogenes.“ Bioinformatics 26, no. 12 (2010): i71. Pinto, H. S. / Tempich, C. / Staab, S. (2009), „Ontology Engineering and Evolution in a Distributed World Using DILIGENT.“ Handbook on Ontologies (2009): 153– 176. Probst, G. J. B. / Raub, S. / Romhardt, K. (2006), Wissen managen. Gabler, 2006. Ramos, Andreas (2008), „Albert-Laszlo Barabasi’s Science of Networks,“ 2008. http: / / www.andreas.com / faq-barabasi.html. Rehm, S. V. (2007), „Architektur vernetzter Wertschöpfungsgemeinschaften der Textilwirtschaft.“ Methodische Grundlage zu Modellierung und Koordination für wissensorientiertes Management. Stuttgart: http: / / elib.uni-stuttgart. de / opus / volltexte / 2007 / 3197 (2007). Rehm, Sven-Volker (2009), „Architectural Design for Service Supported Collaborative Work in Extended Enterprises.“ In Association for Information Systems Proceedings 2009, 2009. http: / / aisel.aisnet.org / amcis2009 / 471. Studer, Rudi / Grimm, Stephan / Abecker, Andreas (2007), Hrsg. Semantic Web Services: Concepts, Technologies, and Applications. 1. Aufl. Berlin: Springer, 2007. http: / / amazon.de / o / ASIN / 3540708936 / . Sydow, Jörg (2006), „Management von Netzwerkorganisationen.“ Betriebswirtschaftlicher Verlag Dr. Th. Gabler / GWV Fachverlage GmbH, Wiesbaden, 2006. http: / / dx.doi.org / 10.1007 / 978-3-8349-9127-0.
Forum 5
Gestaltung von Innovationsteams
Agile Prozessgestaltung und Erfolgsfaktoren im Produktionsanlauf als komplexer Prozess Von Esther Borowski und Klaus Henning
A. Einführung Zahlreiche Produkte sowie tägliche Innovationen und Technologien haben insbesondere in der jüngsten Vergangenheit zu einer immensen Steigerung der Angebots- und Variantenvielfalt geführt. Mit diesem Trend gehen eine Verkürzung der Entwicklungszeit und eine beschleunigte Markteinführung einher. Das Resultat dieser Produktoffensiven ist eine steigende Anzahl von Produktanläufen mit exponentiell steigenden Variantenverhältnissen, die es in Unternehmen und Arbeitsprozesse zu integrieren gilt1. Die Beherrschung von Produktionsanläufen unter diesen veränderten Umweltbedingungen bereitet Probleme, wie beispielsweise eine erhöhte Prozesskomplexität, Prozessparallelisierung und -integration sowie eine Zunahme von Schnitt stellen2. Die Fähigkeit, komplexe Produkte im vorgegebenen Qualitäts-, Zeit- und Kostenrahmen einzuführen, wird zukünftig zu einem entscheidenden Faktor der Wettbewerbsfähigkeit3. Hauptaufgabe ist dabei nicht mehr die Aneinanderreihung der Entwicklungs- und Planungsschritte, sondern vielmehr die Beherrschung der Komplexität des Anlaufmanagements, das unzählige parallele Einzelschritte unterschiedlichster Disziplinen und Partner zusammenführen muss4. Nach einer Einführung in die Thematik des Produktionsanlaufs und seiner Schlüsselposition im Produktionsprozeß wird insbesondere die Komplexität im Produktionsanlauf adressiert. Hierbei werden die Komplexitätstreiber beleuchtet und diese im Hinblick auf das Anlaufmanagement als komplexer Prozess reflektiert. Im Anschluss wird zunächst Agilität, als Fähigkeit mit zunehmender Komplexität umgehen zu können, vorgestellt und anhand eines Praxisbeispiels Erfolgsfaktoren zum Management komplexer Projekte aufgezeigt. Die Anwendung einer Kombination der Prinzipien 1 Vgl.
Harjes (2004), S. 2. Wildemann (2007). 3 Vgl. Nyhuis / Nickel / Tullius (2008). 4 Vgl. Schuh / Stölzle / Straube (2008). 2 Vgl.
314
Esther Borowski und Klaus Henning
der agilen Prozessgestaltung und der Erfolgsfaktoren und somit Gestaltung des Managements des Produktionsanlaufs wird in einem weiteren Anwendungsbeispiel aus der Praxis vorgestellt.
B. Anlauf – Schlüsselstelle im Produktentstehungsprozess Der Anlauf lässt sich innerhalb der Phase der Produktentstehung als entscheidende Schlüsselstelle identifizieren. Das primäre Ziel der Serienanlaufphase besteht darin, ein neues Produkt aus den Laborbedingungen der Entwicklung sukzessive in ein stabil produzierbares Serienprodukt zu transferieren5. Dabei wird der Produktionsprozess so gesteigert, dass er sich von einer Einzelfertigung zur Serienproduktion entwickelt6. Beendet wird der Anlauf durch Erreichen der Kammlinie, die als eine vom Unternehmen festgelegte Outputhöhe definiert werden kann. Die Autoren Risse7, Kuhn8, Housein9, Winkler10 und Voigt11 teilen diese Sichtweise des Anlaufs und verwenden ähnliche bzw. identische Definitionen. Der Anlauf beinhaltet die Phasen Vorserie, Nullserie und Produktionshochlauf. Die Phase vor dem Anlauf wird als Serienentwicklung bezeichnet, die nach dem Anlauf als Serienproduktion.12 Das Management des Anlaufs wird von Kuhn folgendermaßen definiert: „Das Anlaufmanagement eines Serienproduktes umfasst alle Tätigkeiten und Maßnahmen zur Planung, Steuerung und Durchführung des Anlaufes, ab der Freigabe der Vorserie bis zum Erreichen der geplanten Produktionsmenge mit den dazugehörigen Produktionssystemen unter Einbeziehung vor- und nachgelagerter Prozesse im Sinne einer messbaren Eignung der Produktund Prozessreife“13 (vgl. Abb. 1). Diese allgemeine Definition beschreibt die Problematik des Anlaufmanagements. Es wird von „allen Tätigkeiten“ gesprochen ohne explizit eine zeitliche Komponente zu nennen. Aber besonders die Festlegung des Beginns des Anlaufmanagements sowie seine Tätigkeiten sind besonders diskutierte Punkte. 5 Vgl. Clark / Fujimoto (1991), Pisano (1991), vgl. Fitzek (2005), vgl. Bischoff (2007). 6 Vgl. Terwiesch / Bohn / Chea (2001). 7 Vgl. Risse (2003). 8 Vgl. Kuhn / Wiendahl / Eversheim / Schuh (2002). 9 Vgl. Housein / Wiesinger (2002). 10 Vgl. Winkler / Slamanig (2008). 11 Vgl. Voigt / Thiell (2005). 12 Vgl. Schuh / Stölzle / Straube (2008). 13 Vgl. Kuhn / Wiendahl / Eversheim / Schuh (2002).
Agile Prozessgestaltung und Erfolgsfaktoren315
Quelle: In Anlehnung an Bischoff 2007, Risse 2003, Fitzek 2006, Wagenheim 1998.
Abbildung 1: Anlaufmanagement im Produktenstehungsprozess
Romberg bezieht die zeitliche Dimension in seiner Definition mit ein. Er beschreibt das Anlaufmanagement als einen interdisziplinären Geschäftsprozess, der alle Vorgänge von der Planung bis zur Serienfertigung umfasst14. Aus diesen zwei Definitionen wird ersichtlich, dass der Beginn des Anlaufmanagements nicht eindeutig definiert ist und die Autoren den zeitlichen Umfang des Anlaufmanagements unterschiedlich festlegen. Jedoch steht in allen Betrachtungen und Berichten aus der industriellen Praxis die Fokussierung auf der Begegnung der Komplexität des Anlaufmanagements, das unzählige parallele Einzelschritte unterschiedlichster Disziplinen und Partner zusammenführen muss, im Vordergrund15.
C. Komplexität im Anlauf Selbst in wissenschaftlicher Literatur ist heutzutage der Begriff der „Komplexität“ bzw. die Feststellung ein „Sachverhalt sei komplex“ zur modischen Einleitung der Arbeiten geworden. Leider werden diese Sachverhalte häufig nicht unter Einbezug ihrer vollen Komplexität untersucht, 14 Vgl. 15 Vgl.
Romberg / Haas (2005). Schuh / Stölzle / Straube (2008).
316
Esther Borowski und Klaus Henning
häufig wird die Komplexität zur Rechtfertigung des Gebrauchs reduktionistischer Forschungsstrategien genutzt. Eine gewisse Ohnmacht gegenüber dem Phänomen „Komplexität“ zeigt sich durch den Gebrauch des Begriffes in einem umgangssprachlichen Sinne von kompliziert, undurchschaubar oder unverständlich, dessen Gebrauch prinzipiell richtig ist. Betrachtet man die „Komplexität“ als wissenschaftliches Problem, kann man sich ihr von einer analytisch-reduktionistischen Seite nähern, oder den nachfolgend gewählten systemisch-interaktionistischen Ansatz nutzen. Unter Komplexität wird die Eigenschaft von Systemen in einer gegebenen Zeitspanne eine große Anzahl von verschiedenen Zuständen annehmen zu können verstanden. Dieser Charakter erschwert die geistige Erfassung und Beherrschung durch den Menschen. Daraus ergeben sich vielfältige, wenig voraussagbare, ungewisse Verhaltensmöglichkeiten16. Zur Quantifizierung der Komplexität bietet sich an die Maßeinheit Varietät zu nutzen. Varietät ist die Anzahl möglicher Zustände eines Systems. Die Zunahme der Varietät ist durch die Globalisierung und die verbesserten Informationstechnologien deutlich angestiegen. Dem gegenüber steht die Abnahme der Halbwertzeit von Wissen. Die Varietät im Umfeld von Organisationen hat heute deutlich gegenüber der Vergangenheit zugenommen. Hinzu kommt, dass in Zukunft mit einer Verstärkung dieses Prozesses zu rechnen ist. Eng verbunden mit dem Begriff Komplexität ist der Begriff Dynamik. Die Dynamik betrachtet nicht die Anzahl der verschiedenen Zustände eines Systems, sondern die Zeit, die benötigt wird, von einem Zustand in einen an deren zu wechseln. Diese Eigendynamik zeichnet sich dadurch aus, dass sich die Elemente und deren Beziehungen zueinander im Zeitablauf ändern17. Durch die bereits beschriebenen äußeren Umstände, beispielsweise der zunehmenden Globalisierung haben die Veränderungsgeschwindigkeiten von Zuständen deutlich zugenommen. Diese Entwicklung fordert eine entsprechende Lerngeschwindigkeit in Organisationen, sowie ein verbessertes Imaginationsvermögen. Der Anteil an unscharfem Wissen steigt dramatisch und damit auch die Notwendigkeit der Fertigkeiten, mit diesem so genannten Fuzzy-Wissen umzugehen. Wenn wir nun davon ausgehen, dass die Stärke von Komplexität und Dynamik das Umfeld von Organisationen prägen, ist der Bedarf an organisationaler Intelligenz besonders hoch, wenn Dynamik und Komplexität hoch sind. Es ergibt sich das Phänomen der Zeitschere, bei steigender Komplexität nimmt der Bedarf an Entscheidungs- und Handlungszeit zu, jedoch die 16 Vgl. 17 Vgl.
Bleicher (2001). Kreuser (2007).
Agile Prozessgestaltung und Erfolgsfaktoren317
Quelle: Henning 1999.
Abbildung 2: Darstellung von Dynaxity
verfügbare Entscheidungs- und Handlungszeit nimmt bei steigender Dynamik ab. Rieckmann (1992) umschreibt die sich gegenseitig intensivierenden Wechselwirkungen von wachsender Dynamik und zunehmender Komplexität bei steigender Macht / Ohnmacht / Risiko-Relation auch als „Dynaxity“18. Die so genannte Dynaxity, ein Kunstwort, dass sich aus den Begriffen „dynamics“ (Dynamik) und „complexity“ (Komplexität) zusammensetzt, wird in der Abbildung 2 grafisch dargestellt19. Vor diesem Hintergrund ergibt sich folgende Kernfrage für das Management solcher komplex-dynamischen Zusammenhänge: „Wie kann die Handlungsfähigkeit […] von Individuen, Institutionen, Organisationen und Unternehmen unter wechselnden Zielen, turbulenter werdenden Umfeldbedingungen, bei wachsender Komplexität, prinzipiell unvollständigen Informationen sowie schrumpfenden Planungshorizonten noch sichergestellt werden?“20. Die Komplexität im Produktionsanlauf ist neben der Komplexität der Umwelt und somit des Produktes zum Einen auf die Vielzahl interdependenter Gestaltungsobjekte (wie Technologien, Produkt, Prozesse, Produk tionssystem, Personal, Logistikkette) und Disziplinen (insbesondere Produktentwicklung, Produktion, Logistik, Einkauf) und zum Anderen auf die 18 Vgl.
Rieckmann (2000). ebd. (2000). 20 Vgl. Isenhardt / Henning (1998). 19 Vgl.
318
Esther Borowski und Klaus Henning
Quelle: Wangenheim 1998.
Abbildung 3: Integrationsbedarfe im Produktionsanlauf
dynamischen Zustandsveränderungen der Gestaltungsobjekte und Disziplinen zurück zu führen. Die Gestaltungsobjekte werden während des Produktionsanlaufs erstmalig in Beziehung gesetzt und versetzt, so dass sich daraus resultierende Wechselwirkung erst im Anlauf zeigen. Diese durch eine Vielzahl von Schnittstellen geprägte organisatorische Komplexität ist charakteristisches Merkmal der Anlaufphase. Zur Vermeidung und Reduzierung der hieraus entstehenden Ineffizienzen in der Anlaufphase besteht die Herausforderung aus organisatorischer Perspektive, diese Vielzahl von Schnittstellen in den Teilprozessen des Anlaufes zu definieren, zu analysieren und zielorientiert zu gestalten. Zur Bewältigung dieses komplexen Prozesses „Produktanlauf“ müssen zahlreiche Schnittstellen integriert werden. Die aufgezeigten Schnittstellen (vgl. Abb. 3) lassen sich grundsätzlich in produktbezogene und organisatorische Schnittstellen unterscheiden. Es kann ein enger Zusammenhang zwischen den organisatorischen und technischen Schnittstellen identifiziert werden, da durch die gemeinsame arbeitsteilige Entwicklung eines neuen Produkts und der dazugehörigen
Agile Prozessgestaltung und Erfolgsfaktoren319
Prozesse sich der Harmonisierungsbedarf an einer bestimmten organisatorischen Schnittstelle zumeist auch auf eine produktbezogene Schnittstelle bezieht21. Obwohl der Harmonisierungsbedarf bereits in der Phase der Entwicklung besteht, zeigt sich eine Vernachlässigung erst während des Produktionsanlaufs bei der Integration der einzelnen produktbezogenen Einheiten bzw. der Integration der Ergebnisse der in den einzelnen Organisationseinheiten bearbeiteten Entwicklungsaufgaben22. Beim Übergang von der Entwicklung zum Produktionsanlauf und somit einer Überlappung der einzelnen Phasen im Prozess ist eine Abstimmung zu den Meilensteinen nicht mehr ausreichend, es wird eine kontinuierliche Abstimmung nötig23. Ergebnisse der Arbeiten von Lawrence und Lorsch konnten die Problematik der Schnittstellen zwischen den Unternehmensfunktionen in Entwicklung und Serienanlauf aufzeigen. Die Funktionen arbeiten hier in einem von umfangreichen und häufigen Situationsänderungen geprägten Umfeld zusammen. Beide Funktionsbereiche Entwicklung und Produktion, deren enge Zusammenarbeit insbesondere im Produktionsanlauf notwendig ist, werden bereits von Lawrence und Lorsch als Referenzbeispiel für eine hohe Divergenz zwischen Organisationseinheiten angeführt. Ähnlich divergierende Einheiten können in den am Produktionsanlauf beteiligten Geschäftsfeldern identifiziert werden. Der Arbeitskreis „Integrationsmanagement für neue Produkte“ der Schmalenbach-Gesellschaft konnte einen wesentlichen Integrationsbedarf an den Schnittstellen zwischen Entwicklungspartnern ausmachen. Diese Schnittstellen entstehen durch die Fremdvergabe von Entwicklungsumfängen an Zulieferer bzw. durch die gemeinsame Durchführung von Teilprojekten mit Entwicklungspartnern24. Die zunehmende Verkürzung der Entwicklungszeiten und der steigende Wettbewerbsdruck in vielen Branchen zwingen zu einer Rationalisierung der Produkt- und Prozessentwicklung. Eine Auswirkung ist die Bemühung nicht sämtliche Produkt- und Prozessmerkmale völlig neu zu erschaffen. Durch das Ausnutzen von Gemeinsamkeiten zwischen Produktgenerationen und Produkten innerhalb einer Produktfamilie sowie durch die Konzentra tion auf innovative und differenzierende Aspekte soll dem Zeit- und Kostendruck in der Produkt- und Prozessentwicklung begegnet werden25. 21 Vgl.
Jahn (1991). Vincent (1989). 23 Vgl. Smith / Reinertsen (1991). 24 Vgl. Reiß (1992). 25 Vgl. Liesgang (1992). 22 Vgl.
320
Esther Borowski und Klaus Henning
Zur Integration auf den zuvor beschriebenen Feldern ist hoch qualifiziertes Personal erforderlich, welches in der dafür notwendigen Anzahl aber selten verfügbar ist. Zur Bewältigung dieses Dilemmas werden oft weitere personelle Ressourcen in die Produktionsanlaufaktivitäten involviert, wodurch die Anzahl an Schnittstellen und demzufolge auch an Reibungsverlusten wiederum zunimmt26. Vor allem dem Charakter der Interdisziplinarität kommt im Hinblick auf die Komplexität hohe Bedeutung zu, da sich das Projektteam im Anlaufprozess aus einer Vielzahl von Personen aus unterschiedlichen Abteilungen und Bereichen des Unternehmens (wie Entwicklung, Produktion, Logistik usw.) zusammensetzt. Hinzu kommen viele Beteiligte anderer Unternehmen, wie Zulieferer, Ausrüster und externe Planer oder Berater. Entscheidend für einen reibungslosen Ablauf sind somit oft die Beziehungsstrukturen der Mitarbeiter untereinander27. Diese müssen in komplexen Strukturen des Produktionsanlaufs eng zusammenarbeiten, haben jedoch häufig unterschiedliche Zielsetzungen, aufgrund ihrer unterschiedlichen Abteilungs-, Bereichs-, Werks- sowie Unternehmenszugehörigkeit. Das „Denken in alten Strukturen“ ist weiterhin sehr ausgeprägt, so dass die eigentlich primäre Zielsetzung eines schnellen, wirtschaftlichen und qualitativ hochwertigen Anlaufes von den individuellen Zielen einzelner Bereiche oder Abteilungen, beziehungsweise die persönliche Zielen einzelner Mitarbeiter, in den Hintergrund gedrängt werden. Weiter verstärkt wird diese Problematik, dadurch das Personen unterschiedlicher Berufsgruppen grundsätzlich unterschiedlichen Denkmustern unterliegen. Das wirkt sich direkt auf die zwischenmenschliche Kommunikation im Projektteam aus. Eine einheitliche gemeinsame Sprache ist nicht vorhanden und kann als Hemmnis für eine adäquate Wissensweitergabe gesehen werden. Weitere Probleme sind in der unterschiedlichen Motivation, Erfahrung und Kompetenz der Teammitglieder, deren Auswirkungen besonders stark unter hohem Zeit- und Erfolgsdruck während des Anlaufs, zu finden. Insbesondere sind in vielen Unternehmen, Teammitglieder im Anlauf gezwungen, die Aufgaben des Anlaufes neben ihrem Tagesgeschäft zu erfüllen. Die parallele Bearbeitung mehrerer, teilweise konkurrierender Aufgaben stellt den Regelfall dar. Die dadurch resultierte Überforderung ruft zwangsläufig bei den Mitarbeitern Frustration hervor, die wiederum zu sinkender Motivation führt. Hieraus folgen die Problematik, dass notwendige Entscheidungen nicht rechtzeitig getroffen werden, so dass zeitliche Verzögerungen folgen sowie die Wahrscheinlichkeit von Fehlentscheidungen28. 26 Vgl.
Schuh / Kampker / Franzkoch (2005). Housein / Lin / Wiesinger (2002). 28 Vgl. ebd. 27 Vgl.
Agile Prozessgestaltung und Erfolgsfaktoren321
Trotz dieser Hemmnisse und Herausforderungen, die die Interdisziplinarität im Produktionsanlauf mit sich bringt, lässt sich gerade eine interdisziplinäre Zusammenarbeit als Erfolgsfaktor in Innovationsprojekten identifizieren.
D. Interdisziplinarität als Gestaltungselement im Produktionsanlauf Durch die Ausdifferenzierung unterschiedlicher Wissenschaftsströme und ihre Definition als eigenständigen, sich abgrenzenden Bereich entstanden historisch einzelne wissenschaftliche Disziplinen. Diese bilden sich um einzelne Gegenstandsbereiche und Problemstellungen und spezialisieren sich auf bestimmte theorierelevante Eigenschaften der Realität29. Die Identität einer Disziplin resultiert neben den gemeinsamen Forschungsgegenständen und -zwecken aus einem relativ homogenen Kommunikationszusammenhang von Forscher / -innen, einem Korpus an Wissen, Forschungsproblemen, einem Satz von Methoden, Vorgehensweisen und Problemlösungen und einer spezifischen Karrierestruktur30. In diesem Sinne lässt sich von Disziplinen als „Subkulturen“ sprechen und ihre Fachsprache, Methoden und Theorien als Ausdruck einer disziplinenspezifischen Strukturierung der Realität und damit verbunden einer disziplinenspezifischen Weltsicht identifizieren. Somit ergeben sich unterschiedliche Wahrnehmungsperspektiven und dementsprechend eine spezifische Reduktion der Komplexität. Der Begriff der Interdisziplinarität wird in der Literatur sehr heterogen verwendet, es ist daher in diesem Kontext sinnvoll eine offene Umschreibung des Begriffs zu verwenden. Interdisziplinarität wird hier in Anlehnung an Defilia, Di Guilio und Scheuermann als integrationsorientiertes Zusammenwirken von Personen aus mindestens zwei Disziplinen mit Blick auf gemeinsame Ziele und Ergebnisse verstanden31. Dies meint eine Zusammenarbeit in einem Team aus Personen aus anderen Disziplinen im Hinblick auf gemeinsam festgelegte Ziele unter dem Anspruch auf Konsens, Synthese und Diffusion32. Die interdisziplinäre Bearbeitung von Projekten ermöglicht, komplexe Probleme umfassend zu betrachten, erschließt neue Perspektiven und schafft eine Erhöhung des Mehrwerts jeder Disziplin zum Output. Gerade im Bereich des Innovations- und Anlaufmanagements zeigt sich, dass effiziente Teamarbeit als entscheidender Faktor im Produktentwick29 Vgl.
Stichweh (1994). Defila / Di Giulio (1998). 31 Vgl. Defila / Di Giulio / Scheuermann (2006). 32 Vgl. Defila / Di Giulio (1998). 30 Vgl.
322
Esther Borowski und Klaus Henning
lungsprozess gilt33 und einen notwendigen Beitrag zur erfolgreichen Implementierung von Projekten mit hohem Innovationsgrad liefert. Gerade bei Entwicklungsprojekten und ihrem Anlauf sowie der damit verbundenen technischen Neuartigkeit und Komplexität ist Zusammenarbeit im Team in Bezug auf die Bündelung der unterschiedlichen Kompetenzen entscheidend34. Also hat insbesondere die erfolgreiche Zusammenarbeit von interdisziplinären Teams einen wesentlichen Einfluss auf das Ergebnis eines innovativen Produktentwicklungsprozess. Insbesondere erfolgreiche Teams in der Produktentwicklung bestehen aus Personen unterschiedlicher Fachrichtungen und mit unterschiedlichem Hintergrund35, 36. In der Produktentwicklung lässt sich die interdisziplinäre Zusammensetzung bewusst als Instrument einsetzten, um organisationale Schnittstellen zu überbrücken, da diese Teams die interdisziplinäre Kommunikation und Kooperation stärken37. Grundlegend ist in diesem Zusammenhang die Schaffung von Vertrauen und gegenseitige Unterstützung, welches insbesondere durch informelle soziale Systeme (Kontaktmöglichkeiten) positiv beeinflusst wird. Die Entwicklung informeller interdisziplinärer Netzwerke reduziert die Barrieren der Zusammenarbeit, erleichtert den Informationsfluss und beschleunigt Entscheidungen. Jedoch birgt die interdisziplinäre Zusammenarbeit neben den bereits vorgestellten Risiken, personenbezogene Barrieren, die sich aus den unterschiedlichen Denkwelten (Fachrichtungen), unterschiedlicher Sprache und verschiedenen Persönlichkeiten ergibt.
E. Agile Prozessgestaltung und Erfolgsfaktoren in komplexen Prozessen Um der Komplexität im Produktionsanlauf bedingt durch interdependente Gestaltungsobjekte und Disziplinen, der damit verbundenen Interdisziplinarität, zu begegnen und umzugehen, lässt sich der systemische Denkansatz zu Hilfe nehmen. Dies heißt u. a. die Prozesse nach dem Subsidaritätsprinzip so dezentral wie möglich und so zentral wie nötig zu organisieren, aber auch den Umgang mit Unsicherheit zu erlernen und mit Widersprüchen leben können und zugleich Konkurrenz und Kooperationen zu managen38. Eine weitere wichtige Eigenschaft beim systemischen Denken und Handeln 33 Vgl. 34 Vgl. 35 Vgl. 36 Vgl. 37 Vgl. 38 Vgl.
Johne / Snelson (1990). Hoegl (2003). Pinto / Pinto (1990). Song / Parry (1997). Ernst (2002). Henning (1993).
Agile Prozessgestaltung und Erfolgsfaktoren323
ist die „Reduktionsweisheit“. Dies meint in komplexen Zusammenhängen genau diejenigen kritischen Zentralursachen sowie Hebelpunkte zu finden39. In diesem Zusammenhang zeigt Henning Agilität als Fähigkeit mit zunehmender Komplexität umgehen zu können auf und formuliert in Anlehnung an das agile Manifest der Softwareentwicklung aus dem Jahre 200140 nachfolgende Werteabwägung des agilen Manifest der Prozessgestaltung41: „Uns sind Individuen und Interaktionen wichtiger als Prozesse und Werkzeuge. Uns sind lauffähige Prozesse wichtiger als umfangreiche Dokumentation. Uns ist die Zusammenarbeit mit dem Kunden wichtiger als Vertragsverhandlungen. Uns ist es wichtiger auf Änderungen reagieren zu können, als einen Plan zu verfolgen. Daher messen wir, obwohl die jeweils zweiten Dinge ihren Wert besitzen, den jeweils erstgenannten Dingen höheren Wert zu42“.
Insgesamt rückt das agile Manifest der Prozessgestaltung den Menschen und seine Interaktionen mit dem Fokus auf laufende Prozesse in den Mittelpunkt. Zur Konkretisierung dieser Werte und zur Abbildung eines agilen Prozesses lassen sich folgende zwölf Prinzipien formulieren: •• Höchste Priorität haben die Bedürfnisse des Kunden. •• Nutze unbeständige Anforderungen und Änderungen zu Gunsten des Wettbewerbsvorteils des Kunden. •• Häufige Auslieferungen helfen, die Komplexität zu reduzieren. •• Zusammenarbeit von Kunden und Produzenten ist unerlässlich. •• Schaffe Vertrauen, damit die Mitarbeiter motiviert arbeiten können. •• Direkte Kommunikation ist oft besser als indirekte. •• Funktionierende Prozesse sind der Maßstab des Erfolgs. •• Sorge für ein endlos beständiges Tempo. •• Strebe nach exzellenter Qualität. •• Suche nach Einfachheit. •• Fördere sich selbst organisierende Teams. •• Regelmäßige Selbstreflexion ist ein „Muß“. 39 Vgl.
Rieckmann (2000). Agile Manifest der Softwareentwicklung 2001 abrufbar unter: www.agile maifesto.org. 41 Vgl. Henning (2008). 42 Vgl. ebd. 40 Vgl.
324
Esther Borowski und Klaus Henning
Diese Prinzipien wurden in einem außerordentlich schwierigen IT-Projekt zur Einführung des LKW-Mautsystems „Toll Collect“ in Deutschland angewandt43. Dabei stand das Projekt während seiner Laufzeit mehrfach vor dem Scheitern. Zur Identifikation des Problems wurden im Projekt typische Projektrisiken überprüft und es zeigte sich, dass die Technologien keine besondere Risiken bargen, da nur auf bewährte Technologien zurückgegriffen wurde. Die Architektur konnte ebenfalls nicht als risikoreich klassifiziert werden, da hauptsächlich sauber definierte und stabile asynchrone Schnittstellen die Teilsysteme verbinden sollten. Ein mittleres Projektrisiko konnte bei der Anzahl der Lieferanten und Standorte definiert werden, da acht Lieferanten an fünfzehn Standorten zusammenarbeiten mussten. Hingegen bestand ein hohes Projektrisiko in der Komplexität der Aufgabe aufgrund der hohen Performance-, Last- und Sicherungsanforderungen sowie ein sehr hohes Risiko im unrealistischen vorgegebenen Zeitplan, der keinen Raum für unvorhersehbare Probleme vorsah44. Der fest vorgegebene Zeitplan sowie detaillierte und gesetzlich per Vertrag definierte Anforderungen führten dazu, dass das Projekt vom ersten Tag an als extrem kritisch einzustufen war. Nachfolgend aufgeführte Erfolgsfaktoren sind ex-post als die wesentlichen identifiziert worden45. 1. Sich der Komplexität und Schwierigkeit der Situation immer wieder uneingeschränkt bewusst werden. 2. Allen Ballast über Bord werfen. 3. Technik bauen, die „gut genug“ ist. 4. Die internen Prozesse durch straffes Prozessmanagement optimieren. 5. Kooperation und Kommunikation ständig verbessern. 6. Ein Kern-Team aufbauen, das weiß, wovon es redet und sich 100 % auf den Erfolg konzentriert. 7. Vertrauen und Zuversicht (wieder) aufbauen. 8. Arbeiten, arbeiten und noch mal arbeiten. Vergleicht man diese aus der Praxis abgeleiteten Erfolgsfaktoren mit den agilen Prinzipien, so zeigt sich, dass ein Teil dieser Prinzipien als Grundlage zum Management komplexer Prozesse auch im Praxisprojekt bewährt haben Allerdings gibt es auch Aspekte, die nicht mit den praktischen Erfahrungen übereinstimmen. So ist z. B. der agile Maßstab „Exzellente Qualität“ offensichtlich bei wachsender Komplexität nicht durchzuhalten. „Gut ge43 Vgl.
Kutscha / Henning (2008). ebd. 45 Vgl. ebd. 44 Vgl.
Agile Prozessgestaltung und Erfolgsfaktoren325
nug“ anstelle „exzellent“ kennzeichnet dabei den Fokus „notwendige Qualität“ zu erzeugen und nicht die Beste46.
F. Agile Prozessgestaltung und Erfolgsfaktoren im Produktionsanlauf Die Anwendung der zuvor vorgestellten Erfolgsfaktoren auf das Management des Produktionsanlaufs ist je nach Anwendungsfall unterschiedlich und zeigt eine differenzierte Ausgestaltung der einzelnen Prinzipien und Ausrichtung auf die Erfolgsfaktoren auf. Im Rahmen eines weiteren Praxisbeispiels zum Produktionsanlauf eines mechatronischen Produktes wird die Ausgestaltung der formulierten Prinzipien aufgezeigt. Identifizierte Komplexitätstreiber in diesem Produktionsanlauf waren die interdisziplinäre Aufstellung des Projektteams mit Mitgliedern aus den Bereichen Usability, IT, Mechanik, Hardware sowie eine Netzwerkorganisation bei der sich die Entwicklungsleistung der Software auf zahlreiche Zulieferer aufteilte. Sowohl das agile Manifest der Prozessgestaltung und die abgeleiteten Prinzipien als auch die Erfolgsfaktoren für komplexe Projekte wurden dabei angewandt. Des Weiteren stand die Erarbeitung eines gemeinsamen Prozessverständnisses im Vordergrund, welches unter anderem während der komplexen Workshopreihen erarbeitet wurde. Die in Abbildung 4 dargestellten Reviews wurden im Projektverlauf mit unterschiedlichen Teilnehmerzahlen aus verschiedenen Hierarchieebenen durchgeführt, dies folgt dem Prinzip der regelmäßigen Selbstreflexion und dem Erfolgsfaktor „Sich der Lage immer wieder bewusst werden“. Die im Rahmen der Academy durchgeführten Veranstaltungen führten zu einer kontinuierlichen Weiterbildung der Teilnehmer und der Erarbeitung einer gemeinsamen Wissensbasis, die im vorherrschenden interdisziplinären Kontext wie bereits eingangs erläutert, von besonderer Bedeutung für die produktive Zusammenarbeit ist. Die mehrtägigen Workshops in der sog. Ramp Up Phase (Produktionsanlauf), in diesem Fall Übergang vom zweiten Meilenstein zum Serienstart, sind inhaltlich getriebene, iterativ gestaltete Prozesse, die parallel von kontinuierlichen Meetings und Statusberichten begleitet wurden. Hierbei stand die Selbstorganisation der Teams und Förderung der Kommunikation im Vordergrund. Dieses Workshopkonzept, das moderierte, aufeinander aufbauende, mehrtägige Treffen vorsieht, wurde ebenfalls im Rahmen des Dokumentenmanagements zur Prozessunterstützung und somit zur Optimierung der internen Prozesse (Erfolgsfaktor 4) eingesetzt. 46 Vgl.
Hering / Triemel / Blank (2005).
326
Esther Borowski und Klaus Henning
Quelle: OSTO® Systemberatung 2010.
Abbildung 4: Beispiel für Gestaltung des Begleitungsprozesses im Produktionsanlauf
G. Zusammenfassung und Ausblick Eine agile Vorgehensweise, die sich nicht nur auf den Softwareentwicklungsprozess bezieht, sondern ebenso auf das Management des Produktionsanlaufs, kann in einem zeitkritischen komplexen Entwicklungsprojekt erfolgreich angewendet werden. Dabei bedeutet dies für alle Akteure die Grundwerte und -prinzipien des agilen Manifestes praxisnah umzusetzen und die gesamte Managementstruktur nach dem Dynaxityprinzip für turbulente Prozesse mit hoher Struktur- und Prozesskomplexität sowie einer Orientierung an den Erfolgsfaktoren für komplexe Prozesse ausgelegt werden. Beide Vorgehensweisen stammen aus unterschiedlichen Akteursgruppen in Wissenschaft und Praxis. Das Fallbeispiel zeigt, dass sie sich erfolgreich miteinander verknüpfen lassen. Turbulenztaugliches Systemisches Management und Agile Softwareentwicklung können so zu einem Gesamtvorgehensmodell zusammengeführt werden, das zum Management des Produktionsanlaufs eingesetzt werden kann.
Agile Prozessgestaltung und Erfolgsfaktoren327
Literaturverzeichnis Bischoff, S. (2007), Anlaufmanagement. Schnittstelle zwischen Projekt und Serie. In: Konstanzer Managementschriften, hg. Sascha Götte. Band 2. Konstanz: Junge Medien 2007. Bleicher, K. (2001), Das Konzept integriertes Management vol. 6. Auflage. Frankfurt / New York, 2001. Clark, K. B. / Fujimoto, T. (1991), Product Development Performance. Strategy, Organization and Management in the World Auto Industry. Boston. Defila, R. / Di Giulio, A. (1998), Interdisziplinarität und Disziplinarität. In: Olbertz, J.-H. (Hrsg.): Zwischen den Fächern – über den Dingen? Universalisierung versus Spezialisierung akademischer Bildung. Opladen. Defila, R. / Di Giulio, A. / Scheuermann, M. (2005), Handbuch für die Gestaltung inter- und transdisziplinärer Projekte vdf Hochschulverlag AG and der ETH Zürich 2006 Forschungsverbundmanagement Fitzek. Ernst, H. (2002), Success Factors of New Product Development: A Review of the Empirical Literature, in: International Journal of Management Reviews, Vol. 4, No. 1, S. 1–40. Fitzek, D. (2006), Anlaufmanagement in Netzwerken – Grundlagen, Erfolgsfaktoren und Gestaltungsempfehlungen für die Automobilindustrie. Haupt, Bern. Hanssen, R. / Kern, W. (1992), Integrationsmanagement für neue Produkte, zfbfSonderheft Nr. 30, Düsseldorf / Frankfurt. Henning, K. (2008), Agile Manifest der Prozessgestaltung. Vortrag auf dem wissenschaftlichen Kolloquium des ZLW / IMA der RWTH Aachen. – (1999), Vortrag auf der Jahrestagung des Institutes für Unternehmenskybernetik: „Moderne Arbeitszeiten – Flexibilisierung ohne Ende?“ 02.12.99. – (1993), Spuren im Chaos. Christliche Orientierungspunkte in einer komplexen Welt. Henning, K. / Hees, F. / Backhaus, W. (2006), Wissen teilen oder Wissen verstecken – Strategische Erfolgsfaktoren im Wissenswettbewerb. In: Ingenieurwissen effektiv managen. VDI Berichte Nr. 1964. Hrsg. v. VDI Wissensforum IWB GmbH: Düsseldorf: VDI Verlag GmbH, S. 189–214. Hering, E. / Triemel, J. / Blank, H. P. (2005), Qualitätsmanagement für Ingenieure. 4. Auflage. Springer Berlin. Hoegl, M. et al. (2003), „When Teamwork Really Matters: Task Innovativness as a Moderator of the Teamwork-Performance Relationship in Software Development Projects.“ Journal of Engineering and Technology Management. Housein, G. / Lin, B. / Wiesinger, G. (2002), „Forschung, Fabrikorganisation, Management. Der Mitarbeiter im Fokus des Produktionsanlaufes. Management von Wissen, Qualifikation und Beziehungen als Garant für einen schnellen Produk tionsanlauf,“ Ibid. Vol. 92, S. 513.
328
Esther Borowski und Klaus Henning
Housein, G. / Wiesinger, G. (2002), „Schneller Produktionsanlauf von Serienprodukten. Wettbewerbsvorteile durch ein anforderungsgerechteres Anlaufmanangement,“ wt Werkstatttechnik online, vol. 92. Isenhardt, I. / Henning, K. (1998), „Lernen trotz Chaos- Komplexität kreativ nutzen,“ Quem Report: Lernen im Chaos. Lernen für das Chaos, S. 75–90. Jahn, S. (1991), Entwicklungsengineering: zeitorientierte Produktkonzeption und integrierte Prozesse. In: Bullinger (Hrsg.), 3. F&E-Management-Forum. München S. 157–172. Johne, A. F. / Snelson, P. A. (1990), „Successful Product Innovation in UK and US Firms.“ European Journal of Marketing, S. 24. Kreuser, K. (2007), Kleines Hintergrundwissen zu Komplexität. SakraTeam. Kuhn, A. / Wiendahl, H. P. / Eversheim, W. / Schuh, G. (2002), Fast Ramp Up – Schneller Produktionsanlauf von Serienprodukten. Dortmund: Verlag Praxiswissen. Kutscha, S. / Henning, K. (2008), Misssion Impossible – Erfolgsfaktoren im Projekt Toll Collect. In: Unternehmenskybernetik 2020 – betriebswirtschaftliche und technische Aspekte von Geschäftsprozessen. Hrsg. v. Henning, K. / Michulitz, C. Liesgang, D. G. (1992), Produkt- und generationsübergreifende Integration. In: / Kern, W. (1992), Integrationsmanagement für neue Produkte. Hanssen, R. S. 93–101, 1992. Nyhuis, P. / Nickel, R. / Tullius, K. (2008), Globales Varianten Produktionssystem. Globalisierung mit System. PZH Produktionstechnisches Zentrum GmbH, Garbsen. OSTO® Systemberatung (2010): Spezifikationsmanagement. Aachen. Abrufbar unter: http: / / www.osto.de / fileadmin / Bilder / Publikationen / Produktblaetter / Spezifika tionsprozesse.pdf. Pinto, M. B. / Pinto, J. K. (1990), Project Team Communication and cross-functional Cooperation in New Program development. The Journal of Product Innovation Management, S. 7. Reiß, M. (1992), Unternehmensübergreifende Integration. In: Hanssen, R. / Kern, W. (1992), Integrationsmanagement für neue Produkte. S. 119–147. Rieckmann, H. (2000), Managen und Führen am Rande des 3 Jahrtausends. Frankfurt am Main: Peter Lang. Risse, J. (2003), „Time-to. Market- Management in der Automobilindustrie, Ein Gestaltungsrahmen für ein logistikorientitiertes Anlaufmanagement,“ in Schriftenreihe Logistik der Kühne-Stiftung. Vol. 1 Aufl. Bern u. a.: Haupt. Romberg, A. / Haas, M. (2005), Der Anlaufmanager. Effizient arbeiten mit Führungssystem und Workflow; von der Produktidee bis zur Serie vol. 1. Aufl. Stuttgart: LOG, 2005. Schelle, H. (1996), Entwicklungsstand und Perspektiven des Projektmanagements, in: VDI (1996), S. 449–469.
Agile Prozessgestaltung und Erfolgsfaktoren329
Schuh, G. / Kampker, A. / Franzkoch, B. (2005), „Anlaufmanagement Kosten senken – Anlaufzeit verkürzen – Qualität sichern,“ wt Werkstattstechnik online, vol. 95, S. 405–409. Schuh, G. / Stölzle, W. / Straube, F. (2008), Grundlagen des Anlaufmanagements: Entwicklungen und Trends, Definitionen und Begriffe, Integriertes Anlaufmanagement. Smith, P. G. / Reinertsen, D. G. (1991), Developing products in half the time, New York. Song, X. M. / Parry, M. E. (1997), „Teamwork Barriers in Japanese High Technology Firms: The Sociocultural Differences between R&D and Marketing Managers.“ The Journal of Product Innovation Management, S. 14. Stichweh, R. (1994), Differenzierung der Wissenschaft. In: Stichweh, R. (Hrsg.): Wissenschaft, Universität, Professionen. Soziologische Analysen. Frankfurt am Main. Terwiesch, C. / Bohn, R. E. / Chea, K. S. (2001), „International Product Transfer and Production Ramp-Up: A Case Study from the Data Storage Industry,“ R&D Management, vol. 31. Vincent, G. (1989), Managing new product development, London. Voigt, K. I. / Thiell, M. (2005): „Fast-Ramp-up Handlungs- und Forschungsfeld für Innovations- und Produktionsmanagement,“ in Synchronisation von Produktentwicklung und Produktionsprozess. Produktreife – Produktneuanläufe – Produk tionsanlauf. Vol. 1. Aufl., H. Wildemann, Ed. München: TCW. Wangenheim, S. v. (1998), Planung und Steuerung des Serienanlaufs komplexer Produkte – Dargestellt am Beispiel der Automobilindustrie. Dissertation. Peter Lang, Frankfurt am Main. Wildemann, H. (2007), Anlaufmanagement, Leitfaden zur Verkürzung der Hochlaufzeit und Optimierung der Anlaufphase von Produkten, 5. Aufl., München. Winkler, H. / Slamanig, M. (2008), „Konzeption eines aktivitätsorientierten Instruments zur Anlaufkostenplanung,“ Zeitschrift für Planungs- und Unternehmenssteuerung, vol. 19.
Fluktuation in Teams – Mitgliederwechsel erfolgreich bewältigen Von Michael W. Busch
A. Gründe für Fluktuation in Teams Der Einfluss von Umweltveränderungen spiegelt sich nicht nur auf Unternehmens-, sondern auch auf der Teamebene wider. Insbesondere Projektteams müssen sich an Veränderungen ihrer Umwelt anpassen (z. B. geänderte Kunden- bzw. Auftraggeberwünsche, technologische Neuerungen, überraschendes Verhalten von Konkurrenten). Eine Möglichkeit, hierauf zu reagieren, ist die personelle Anpassung der Teamzusammensetzung. Bezogen auf die unmittelbaren Rahmenbedingungen eines Teams kann eine solche Anpassung sowohl durch externe als auch durch interne Veränderungen veranlasst werden. Teamexterne Auslöser sind bspw. eine veränderte Zielstellung, Ressourcenverknappungen oder -aufstockungen sowie Kündigungen, Versetzungen oder Pensionierungen einzelner Teammitglieder. Auch eine strategische Neuausrichtung des Unternehmens kann dazu führen, dass die Geschäftsleitung im Rahmen der Projektportfolio-Steuerung zu einer Neubewertung gelangt. Zu den teaminternen Auslösern gehören Austritte von Teammitgliedern wegen Erfüllung der ihnen zugewiesenen (Teil‑)Aufgaben oder ein entstehender Vertretungsbedarf (z. B. durch Mutterschaft, Krankheit oder Arbeitsunfähigkeit). Zusammen genommen bildet Fluktuation in bestehenden Teams, d. h. eine durch Mitgliederwechsel – ob in Form von Neuzugängen oder Austritten – bewirkte Veränderung der Personalstruktur, in der Praxis eher die Regel denn die Ausnahme.1 Neben den aufgeführten formalen Fluktuationsgründen gibt es auch zahlreiche inhaltliche bzw. motivationale Gründe, die für eine Veränderung der Teamzusammensetzung im Verlauf der Teamarbeit sprechen. Im negativen 1 Die Reduktion auf dauerhafte Ein- und Austritte stellt eine Vereinfachung dar. Im Alltag finden sich auch „schwächere“ Formen der Fluktuation, etwa durch die nur zeitweise Hinzuziehung externer Akteure. Es ist also genauer zu klären, wie stark einzelne Mitarbeiter in ein Team tatsächlich eingebunden sind. Handelt es sich um Kernmitglieder oder lediglich um periphere Mitglieder? Fluktuation in einem weiteren Sinne wird auch als Teamfluidität bezeichnet (vgl. Dineen / Noe (2003), S. 6).
332
Michael W. Busch
Sinne sind dies unüberbrückbare sachliche oder persönliche Differenzen zwischen Teammitgliedern, signifikante individuelle Kompetenz- bzw. Leistungsdefizite sowie die fehlende Bereitschaft einzelner Teammitglieder, sich in das Team einzuordnen. Trotz vorliegender Leistungen kann ihr Austritt daher geboten erscheinen. Auch anhaltendes deviantes Verhalten (z. B. Trittbrettfahrertum, Unpünktlichkeit, mangelnde Hilfsbereitschaft, Hang zum Lästern und Schlechtreden von allem) sollten die Teamführung dazu veranlassen, sich von dem betreffenden Teammitglied zu trennen, um einer Vergiftung des Teamklimas entgegenzuwirken. Im positiven Sinne ist die belebende Wirkung von Neuzugängen hervorzuheben. Ein veränderter Persönlichkeits- und Fähigkeitsmix kann erhebliche Auswirkungen auf die Innovationskraft eines Teams haben. So bringen Neuzugänge „frischen Wind“ und neue Ideen in das Team; sie hinterfragen konventionelle Handlungsweisen und Gewohnheiten auf ihre Sinnhaftigkeit und schlagen Alternativen vor. Dadurch gelangt das Team im Idealfall zu kreativeren Lösungen. Fluktuationen sind somit in den größeren Zusammenhang der Teamentwicklung zu rücken. Die mit personellen Veränderungen einhergehende Gruppendynamik löst wechselseitige Lern- und Reflexionsprozesse aus und verhindert, dass das Team „einrostet“ oder immer wieder denselben Gedankengängen verfällt (‚groupthink‘). Denn auch wenn es den meisten Teams gelingt, die Verhaltensbarriere zu durchbrechen, d. h. zu einer funktionsfähigen Einheit zu verschmelzen (= Übergang von der Gruppe zum Team), scheitern doch nicht wenige Teams am Ende an der Leistungsbarriere (= Übergang vom Team zum Hochleistungsteam), d. h. ihre erbrachte Leistung erreicht allenfalls Durchschnittsniveau oder bleibt in altbekannten Standardlösungen stecken. Geschlossenes Auftreten allein reicht eben nicht aus.2 Im Zentrum der nachfolgenden Erörterung steht jedoch nicht die Frage, wie sich die (Änderung der) Teamzusammensetzung auf den anschließenden Teamerfolg bzw. den Innovationsgehalt der erbrachten Lösungen auswirkt. Dies sollte lediglich im Hinterkopf bewahrt werden. Vielmehr wird der gestaltungsorientierten Frage nachgegangen, wie es Teams gelingt, Mitgliederwechsel mit dem Ziel der Erhaltung bzw. Steigerung der eigenen Arbeitsfähigkeit möglichst reibungslos zu bewältigen, d. h. einerseits den potenziellen Wissens- und Erfahrungsverlust durch das Ausscheiden von Mitgliedern mit Hilfe von Maßnahmen zur rechtzeitigen Sicherung und Weitergabe ihrer Kenntnisse so gering wie möglich zu halten, und andererseits neue Mitglieder durch Sozialisationsmaßnahmen rasch zu integrieren und Kompetenzlücken zu schließen.3 Als theoretisches Erklärungsgerüst dient dabei der so2 Vgl. Rickards / Moger
(2000), S. 277 ff. werden also nur diejenigen Fälle beleuchtet, in denen einzelne Teammitglieder ersetzt, d. h. ihre Aufgabe noch nicht abgeschlossen ist, oder gänzlich neu ge3 Es
Fluktuation in Teams333
ziokognitive Ansatz, demzufolge Teammitglieder geteilte Vorstellungen bzw. kollektive Wissensstrukturen – sog. Shared Mental Models – über grundlegende Aspekte der Teamwirklichkeit aufzubauen haben, um erfolgreich zu kooperieren. Diese mentalen Modelle betreffen grundlegende Übereinstimmungen über das Teamdesign, die Teamprozesse und die Teamkultur. Abschließend werden offene Forschungsfragen angesprochen, die künftig noch eingehender geprüft werden sollten.
B. Der soziokognitive Ansatz als Erklärungsmodell Dem soziokognitiven Ansatz zufolge muss ein Team – über die individuellen Fähigkeiten hinaus – gemeinsame mentale Schemata entwickeln, um zu einer funktionsfähigen Einheit zu werden. Diese Shared Mental Models repräsentieren und konstituieren die je spezifische Teamwirklichkeit.4 Sie machen aus einem Team von Experten ein Expertenteam, aus einer losen Ansammlung von Personen eine geschlossen auftretende Einheit. Jedes Team entwickelt dadurch mit der Zeit eine höchst spezifische „Lebenswelt“ mit je eigenen Verständigungscodes, die zumeist nicht verschriftlicht sind und den Status der Selbstverständlichkeit angenommen haben; sie entscheiden letztendlich darüber, welches Verhalten als (un)angemessen wahrgenommen bzw. gewertet wird (‚logic of appropriateness5‘). In gewisser Weise stellen Shared Mental Models als mentale Programme den kollektiven „Habitus“ (Pierre Bourdieu) eines Teams dar, über den sich eine InnenAußen-Differenz bildet (Ingroup vs. Outgroup). Es sind gerade diese aus gemeinsamen Erfahrungen und Erlebnissen hervorgegangenen „feinen Unterschiede“, die es Neuzugängen oft erschweren, voll integriert und akzeptiert zu werden. Je länger nämlich die Dauer der Zusammenarbeit eines Teams ist, desto feinmaschiger und in der Folge auch undurchdringlicher wird der teamgeschichtliche Erfahrungsschatz für Außenstehende. schaffene Teampositionen besetzt werden müssen. Formal bedeutet dies, dass die entstandene Kompetenzlücke durch das verbleibende Team nicht eigenständig geschlossen werden kann oder soll. 4 Die grundlegenden Beiträge hierzu haben Cannon-Bowers / Salas / Converse (1993) und Klimoski / Mohammed (1994) geliefert. 5 „To act appropriately is (…) based on mutual, and often tacit understandings of what is true, reasonable, natural, right, and good.“ Erwartungen in Teams über angemessenes Verhalten schränken die individuelle Wahl ein. Das ist sozusagen der Preis, den der Einzelne zu zahlen hat, damit das Team funktionsfähig wird. Den Gegensatz zur ‚logic of appropriateness‘ bildet die rein individualistische ‚logic of consequentiality‘ „treating possible rules and interpretations as alternatives in a rational choice problem (…) (a) what are my alternatives (b) What are my values? (c) What are the consequences of my alternatives for my values? (d) Choose the alternative that has the best expected consequences“, March / Olsen (2009), S. 479 f.
334
Michael W. Busch
Abbildung 1: Teamrelevantes Wissen
Um Fluktuationen effektiv zu bewältigen, müssen sowohl aufgabenrelevantes Individualwissen als auch kooperationsrelevantes Teamwissen in Form von Shared Mental Models berücksichtigt werden. Die kollektive Wissensbasis des Teams beinhaltet beides und geht damit über die Summe individuellen Mitgliederwissens hinaus (Abbildung 1). Die Teamforschung hat deswegen schon früh zwischen Taskwork und Teamwork unterschieden. So reicht es etwa für ein Orchester oder eine Fußballmannschaft nicht aus, „nur“ virtuose Spieler zu besitzen. Erst wenn diese sich eingestimmt bzw. aufeinander eingespielt, d. h. gemeinsame mentale Modelle entwickelt haben, sind sie in der Lage, sich effizient abzustimmen und somit zu einem unverwechselbaren Klangkörper bzw. zu einer schlagkräftigen Einheit zu werden. Neben individueller Fähigkeit ist also stets auch Teamfähigkeit gefragt. So sah Robert W. Taylor – einer der kreativen Treiber des legendären Xerox Palo Alto Research Center (PARC) – „die größte Chance für das Gelingen eines genialen Teams in der Rekrutierung von möglichst teamfähigen Leuten. Er war sogar bereit, gelegentlich ein aufmüpfiges Genie zu opfern, wenn es dem Team als Ganzem zugute kam – immerhin ging es darum, sich gegenseitig zu befruchten.“6 Umgekehrt macht natürlich auch das noch so perfekte Zusammenspiel aus einer „Gurkentruppe“ keine „Siegermannschaft“. Taskwork ist also die notwendige, Teamwork die hinreichende Bedingungen für den Teamerfolg. Taskwork betrifft das aufgabenrelevante Individualwissen, das sich aus den positionsspezifischen Anforderungen ergibt. Es handelt sich um rollenbezogene Fähig- und Fertigkeiten, die zu einer erfolgreichen Bewältigung von Teilaufgaben innerhalb des Teams erforderlich sind. Einerseits sind dies vorab definierbare, objektive Erwartungsbündel, andererseits betrifft dies personengebundenes Erfahrungswissen, das sich arbeitsbegleitend aus den Besonderheiten der Aufgabe im alltäglichen Handlungsvollzug herausgebil6 Bennis / Biederman
(1998), S. 81.
Fluktuation in Teams335
Abbildung 2: Shared Mental Models in Teams
det hat (z. B. besondere technische Kniffe, individuelle Herangehensweisen, Umgang mit Zeit und typischen Problemen, Best Practices im Sinne von effizienten Verhaltensmustern und Prozessabfolgen). Gerade diese Erfahrungen enthalten oft wertvolle „Nuggets“, die an Nachfolger weitergegeben werden sollten. Teamwork betrifft das kooperationsrelevante Teamwissen. Shared Mental Models können sich dabei auf ganz unterschiedliche Aspekte des Zusammenwirkens beziehen. Die inhaltlichen Bezugsobjekte reichen von den Teamkollegen über das Informationsverarbeitungsverhalten bis hin zu geteilten Arbeitswerten. Je nach Relevanz des Bezugsobjektes kann der Grad der erforderlichen Übereinstimmung variieren. Hier soll vereinfachend zwischen Teamdesign, Teamprozessen und Teamkultur unterschieden werden. Während das Teamdesign den strukturellen Rahmen absteckt, in dem sich das Team bewegt, betreffen Teamprozesse sämtliche Mitgliederaktivitäten, die der Erreichung des gemeinsamen Ziels dienen. Die Teamkultur schließlich betrifft die Art und Weise, wie miteinander umgegangen wird (z. B. Offenheit, Leistungsdruck, Förmlichkeit). Abbildung 2 fasst die wichtigsten Komponenten zusammen. Die Klärung grundlegender Inhalte von Shared Mental Models ist notwendig, um auch für Außenstehende bzw. potenzielle Neuzugänge das Ge-
336
Michael W. Busch
flecht des Zusammenwirkens durchschaubar zu machen (Teamdiagnose). Der Quellcode des Kooperierens wird dadurch offengelegt. Aus der Kenntnis mentaler Modelle lassen sich wichtige W-Fragen ableiten, die an das Team gerichtet werden können: Wer kann was? Wer ist für welche Aufgaben verantwortlich? Wie werden Konflikte gelöst, Entscheidungen getroffen, Schnittstellenprobleme angegangen? Wie wird gelernt? Wie regelmäßig und strukturiert wird Feedback gegeben? Welche Kommunikationsformen dominieren? Was für eine Arbeitskultur herrscht? Welche Leistungserwartungen werden an den Einzelnen gestellt? Als besonders bedeutsam für den Erfolg innovativer Projektarbeit hat die Forschung das Konzept des transaktiven Wissens erkannt. Dies ist Wissen über das Wissen der anderen. Indem Mitglieder präzise Vorstellungen darüber entwickeln, wer was im Team weiß und kann, lassen sich Informationen punktgenauer zuweisen und nachfragen.7 Dies fördert die kollektive Lösungsfindung. Außerdem wird dadurch schneller deutlich, wann auf externe Quellen bei der Beschaffung von Informationen zurückgegriffen werden muss. Die Durchlässigkeit der Teamgrenze spielt für den Erfolg von Innovationen eine immer wichtigere Rolle. Einerseits muss es Teams intern gelingen, so viel wie nur möglich von- und miteinander zu lernen (‚close communication‘), andererseits müssen Teams in der Lage sein, ebenso effizient mit ihrer Umwelt in Kontakt zu treten, um Informationen aus den unterschiedlichsten Quellen (z. B. Kunden, Experten) für die eigene Arbeit nutzbar zu machen (‚boundary spanning‘).8 Dies setzt voraus, dass das Team ein effizientes Informationsverarbeitungssystem entwickelt. Teammitglieder müssen wissen, wie Informationen aufgenommen, gespeichert und je nach Bedarf wieder zur Verfügung gestellt werden. Ein solches kollektives Regelsystem äußert sich darin, dass Einigkeit über grundlegende Fragen des Informationsaustauschs herrscht9: •• Welche Kommunikationskanäle sollen für bestimmte Probleme gewählt werden (z. B. E-Mail, Telefonat, Einzel- oder Gruppengespräch)? •• Wie systematisch und regelmäßig sind Informationen weiterzugeben bzw. Arbeitsfortschritte gegenseitig abzugleichen? •• Wer ist in welchen Gebieten für Außenkontakte verantwortlich? •• Wer speichert und aktualisiert bestimmte Informationen? Bleiben solche Fragen unbeantwortet, findet zwar auch ein Informationsaustausch statt, jedoch ist dieser sehr viel anfälliger für Prozessverluste: 7 Vgl.
Wegner (1987); von der Oelsnitz / Busch (2008a), S. 370 ff. Ancona / Bresman / Caldwell (2009); Drach-Zahavy / Somech (2010). 9 Vgl. Busch (2008), S. 100 f. 8 Vgl.
Fluktuation in Teams337
Aufgaben bleiben unbearbeitet, weil sich keiner dafür zuständig fühlt; wichtige Informationen werden nicht gesichtet und gelangen nicht in die Gruppendiskussion; es tritt Doppelarbeit auf, weil Aufgaben nicht konkret zugewiesen worden sind; oder Teammitglieder werden unbewusst bei wichtigen Entscheidungen übergangen, da keiner darauf achtet, wer informiert werden muss.10 Diese Dysfunktionen treten noch deutlicher in standortverteilter Zusammenarbeit durch zeitverzögertes Feedback und bei internationaler Zusammensetzung durch kulturelle Differenzen in Erscheinung. Allein dieser kurze Abriss über Kooperationszusammenhänge in Teams lässt erahnen, dass sowohl der Eintritt als auch der Austritt von Teammitgliedern als ein vielschichtiges Problem anzusehen ist. Beide Fälle stellen sozusagen „Störungen“ des Arbeitsablaufs dar, die zu Produktivitätseinbußen und Konflikten führen können. Damit Mitgliederwechsel für beide Seiten zu keinem Sprung ins kalte Wasser werden, sollten Ein- und Austritte systematisch vorbereitet und durch entsprechende Maßnahmen begleitet werden. Fluktuationen sind mit anderen Worten als wichtige Aufgabe des (Team-)Managements zu begreifen.
C. Bewältigung von Fluktuation Verlässt ein Mitglied das Team, so besteht die grundlegende Herausforderung in der Sicherung und – bei Fortbestehen der Aufgabe – in der Weitergabe des Wissens durch Externalisierungsmaßnahmen, d. h. sein Wissen kann – soweit möglich – entweder auf materiellen Datenträgern dokumentiert oder auf Personen (z. B. auf den Nachfolger oder das gesamte Team) transferiert werden. Der Schwerpunkt liegt auf aufgabenbezogenen Kenntnissen und Erfahrungen (Taskwork). Bei Neuzugängen besteht die grundlegende Herausforderung in der Vermittlung von Wissen durch Sozialisationsmaßnahmen. Das zu vermittelnde Wissen betrifft sowohl Taskwork als auch Teamwork (Abbildung 3). Da auch Neuzugänge eigene mentale Modelle in das Team „importieren“, verläuft der Wissenstransfer nicht nur in eine Richtung.11 Statt Sozialisierung sollte daher besser von einer wechselseitigen Assimilierung des Wissens gesprochen werden. Denn sowohl vom Team als auch vom neuen Mitglied gehen Signale aus (z. B. Verhaltensweisen, Kommentare, Gefühlsregungen), die eine beidseitige Anpassung bestehender mentaler Modelle zur Folge haben können. Traditionell dürfte zwar die Teamseite dominieren, doch je nach hierarchischem Status, Expertise oder persönlicher Ausstrahlung wird auch das neue Teammitglied Einfluss auf das Team ausüben. Beim Austausch der Teamführung kann durch diese gar 10 Vgl. 11 Vgl.
Bierhals (2008), S. 103. Anderson / Thomas (1996), S. 428; Tschan / Semmer (2001), S. 227.
338
Michael W. Busch
eine gänzlich neue mentale „Programmierung“ des Teams erfolgen oder zumindest angestrebt werden (‚transformational leadership‘). Die Verfahren zur Sicherung bzw. Weitergabe von Wissen lassen sich durch verschiedene Kriterien klassifizieren: •• Einbindung des Nachfolgers, von passiver Aufnahme (z. B. Lesen eines Projektberichts) bis hin zu aktivem, auf wechselseitigem Feedback beruhendem Lernen reichend (z. B. ganztägige Begleitung des Vorgängers mit anschließender gemeinsamer Auswertung des Geschehens)12; •• Übermittlungsform, d. h. werden informations-, demonstrations- oder praxisorientierte Instrumente bei der Weitergabe des Wissens gewählt?13 Wissen kann z. B. über Vorträge präsentiert, am Arbeitsplatz vorgeführt oder durch angeleitete Übernahme der künftigen Aufgabe direkt erfahrbar gemacht werden; •• Bevorzugung kodifizierter oder personalisierter Verfahren, d. h. wird Wissen auf materiellem oder personellem Wege gespeichert bzw. vermittelt?14 Explizites Wissen kann über Datenbanken, Wikis oder Projekttagebücher erfasst werden. Implizites Wissen, das auf Erfahrungen gründet und stark kontextgebunden ist, kann nur über den direkten persönlichen Austausch oder detailgenaue Schilderungen übertragen werden (z. B. Story Telling, intensive Beobachtung); •• Push- oder Pull-Prinzip, d. h. wird die Weitergabe bzw. die Aufnahme des Wissens von außen gesteuert (Bringschuld des Teams oder eines damit beauftragten Moderators [‚knowledge coach‘]) oder ist sie vom Betreffenden selbst zu erbringen (Holschuld); anders gesagt: muss er sich selber um die Einarbeitung kümmern oder kümmern sich andere um ihn? Eine außengesteuerte Maßnahme ist die systematische Einarbeitung, eine Mischform die zeitweise Einrichtung einer Lernpartnerschaft (Mentoring), eine selbstgesteuerte Form ist das eigenständige Erfragen und Nachhaken bei Unklarheiten (‚feedback-seeking‘); •• erfolgt der Wissenstransfer während oder außerhalb der Arbeit(szeit)? Ein arbeitsintegriertes bzw. -begleitendes Verfahren zur Offenlegung von Wissen stellt die Think-Aloud-Methode dar oder die Instruktion eines (neuen) Teammitglieds in Phasen geringerer Arbeitsbeanspruchung15; ein außer12 Vgl.
Leonard / Swap (2004), S. 92. Salas / Cannon-Bowers (1997), S. 266 ff. 14 Vgl. Trojan (2006), S. 78 f., der Kodifizierung als Knowledge EngineeringAnsatz (= Erfassung von explizitem Wissen) und Personalisierung als organischdiskursiven Ansatz (= Erfassung von implizitem Wissen) bezeichnet. 15 „Under low load situations, the leader creates experiences that instruct the team to develop shared knowledge of the team and its task“, Kozlowski et al. (1996), S. 260. 13 Vgl.
Fluktuation in Teams339
halb der Arbeit angesiedeltes Verfahren ist die Durchführung eines Workshops oder eines Outdoor-Trainings; •• wird eher auf formellen oder informellen Austausch und Erfahrungstransfer gesetzt? Eine formelle Form wäre etwa der Einsatz eines standardisierten Einarbeitungsprogramms, zu den informellen Gelegenheiten zählen etwa das Mittagessen, Pausengespräche oder gemeinsame Aktivitäten in der Freizeit. I. Externalisierung von Wissen bei Teamaustritten Die in der Literatur erörterten Modelle zur Explizierung laufen allesamt darauf hinaus, dass Wissen und Erfahrungen des ausscheidenden Mitglieds durch unterschiedliche Techniken beobachtet, erfragt oder in formalen Konzepten abgebildet werden (‚knowledge elicitation‘). In einer umfassenden Analyse unterteilte die amerikanische Psychologin Nancy J. Cooke wissensbezogene Erhebungsverfahren in drei „Familien“: (1) Beobachtungen, Interviews und Aufgabenanalysen; (2) Prozess- bzw. Ablaufanalysen; (3) Modellierung von Wissensdomänen.16 Nachfolgend werden nur die in der Managementliteratur am häufigsten diskutierten Maßnahmen dargestellt (Abbildung 3).17
Abbildung 3: Ausgewählte Maßnahmen zur Externalisierung und Sozialisierung von Wissen
16 Zur Schilderung einzelner Techniken innerhalb der Familien vgl. Cooke (1994), S. 805 ff., 814 ff., 821 ff. sowie in knapper Form Blickensderfer et al. (2000), S. 438 f. 17 So nennt etwa DeLong (2004), S. 101 ff. storytelling, mentoring / coaching, after-action reviews und communities of practice als besonders geeignete Formen zum Transfer von implizitem Wissen. Humpl (2004), S. 177 ff. nennt das Projekttagebuch (Learning Log), After Action Review, Projektrevision und Projekt-Debriefing, Frage- und Interviewtechnik, Mikroartikel, Story Telling, Case Based Reasoning Systeme und Answer Gardens (≈ FAQs).
340
Michael W. Busch
Beim sog. narrativen Ansatz wird Wissen in Form von Erzählungen, die auf Projekterfahrungen gründen, in mündlicher oder schriftlich aufbereiteter Form an Mitarbeiter weitergegeben. Im Zentrum des sog. Story Telling stehen also Ereignisse der Vergangenheit. Besonders wichtig sind dabei Ereignisse, die bei den Beteiligten starke Emotionen hervorgerufen haben. Solche Critical Incidents betreffen signifikante Misserfolge (Konflikteskalationen, typische Aufgabenschwierigkeiten) oder Erfolge (frühzeitige Erreichung von Meilensteinen, Best Practice-Identifikation). Durch Interviews lassen sich wichtige Aussagen eines ausscheidenden Teammitglieds extrahieren, thematisch ordnen und in einem Erfahrungsdokument (‚learning history‘) zusammenfassen.18 Dieses besteht in der Regel aus mehreren kommentierten, interessant aufbereiteten und zum Nachdenken anregenden Kurzgeschichten bzw. komprimierten Fallstudien, die zur Grundlage für Diskussionen zwischen Abgänger und Nachfolger werden können. Der Soziologe Helmut Willke spricht von MikroArtikeln. Diese weisen folgende Grundform auf: (1) Thema – Problem – Headline; (2) Geschichte – story line – Kontext; (3) Einsichten – Lessons Learned; (4) Folgerungen; (5) Anschlussfragen. Entscheidend ist die Anschlussfähigkeit des Erzählten an eigene Erfahrungen: „Verstehbar ist für Leser eine Geschichte dann, wenn sie mit ihren eigenen Erfahrungen an den Erfahrungskontext der erzählten Geschichte anknüpfen können.“19 Das Verfassen einer anregenden Geschichte ist gleichwohl alles andere als einfach, weshalb häufig Journalisten zu Rate gezogen werden. Außerdem ist zu bedenken, dass viele Erlebnisse mit der Zeit verblassen oder sich verzerren. Die bereits parallel zur Arbeit erfolgte Dokumentation von Erfahrungen in Web 2.0-Tools (z. B. Wikis, Weblogs) kann als wichtige Erinnerungsstütze dienen. Daneben können diese Dokumentationsformen vor dem Ausscheiden eines Teammitglieds auch gezielt eingesetzt werden, um systematisch aufgabenbezogene Erfahrungen festzuhalten. Während Story Telling vergangenheitsorientiert ist, zielen Shadowing und Think-Aloud-Methode auf den arbeitsbegleitenden Wissenstransfer. Der Übergang zu sog. Lernpartnerschaften ist teilweise fließend. Beim Shadow ing (der Reifenhersteller Michelin spricht von Doublage) spielt der Nach18 Vgl.
Porschen (2008), S. 164; Kleiner / Roth (1997), S. 176. (2007), S. 86. Morris / Oldroyd (2009), S. 16 f. sprechen von Smart Lessons, die die Weltbank zur Reflexion von Erfahrungen einsetzt. Wie auch immer gestaltet, müssen Geschichten drei Anforderungskriterien genügen: „true to the data“, d. h. faktenorientiert; „true to the story“, d. h. Aufmerksamkeit erzeugend und „true to the audience“, d. h. für den Leser bzw. Zuhörer muss ein konkreter Nutzen erkennbar sein. 19 Willke
Fluktuation in Teams341
folger die Rolle des „Mäuschens“, das die Arbeit des Vorgängers genau beobachtet, ihn sozusagen wie ein Schatten verfolgt (z. B. bei einem Kundengespräch). Lernen erfolgt hier am Modell. Anschließende Feedbackgespräche reflektieren die Beobachtungen und festigen die gewonnenen Erkenntnisse. Bei der Think-Aloud-Methode wird der Vorgänger aufgefordert, während eines Arbeitsschrittes laut zu denken (z. B. bei einer Internetrecherche oder der Lösung eines technischen Problems). Der zuhörende Nachfolger erhält dadurch wertvolle Einblicke, die im Anschluss durch Fragen vertieft werden können.20 Der generelle Vorteil einer längeren Begleitung besteht darin, dass der beobachtete Experte Realsituationen ausgesetzt ist, die implizite Tiefenkennntnisse (‚deep smarts‘) in ihm anregen, welche bei einer direkten Befragung oft gar nicht ans Licht gekommen wären: „the individual possessing it will not always realize what she knows until a particular challenge calls her knowledge forth.“21 Für den Lernenden wird auf diese Weise die kontextuelle Anwendung von Wissen unmittelbar ersichtlich. Das (Leaving) Expert Debriefing schließlich kann als umfassendster und systematischster Ansatz zur Sicherung von Wissen angesehen werden. Aufgrund des hohen Aufwands sollte er auf Teamebene allerdings nur dann zum Einsatz kommen, wenn der betreffende Mitarbeiter zugleich das Unternehmen verlässt und das Team eine Aufgabe von hoher strategischer Bedeutung verfolgt. In der Praxis kommen Expert Debriefings bereits bei Siemens, der Schaeffler Gruppe oder dem Henkel-Konzern zum Einsatz.22 Die Grundlage bilden in der Regel strukturierte Interviews mit dem Mitarbeiter. Teilweise finden auch 360°-Gespräche statt, in die Kooperationspartner der ausscheidenden Person mit eingebunden werden. Um Erfolge durch Debriefings zu erzielen, sind Inhalt und Ablauf im Vorfeld präzise zu planen. Die Umsetzung geschieht dann im Rahmen eines Workshops. Auch im Debriefingprozess können Firmenwikis sinnvoll integriert werden. Oft bilden sie gar – verbunden mit Visualisierungstechniken (z. B. Kompetenzportfolios, Mindmaps) – den Dreh- und Angelpunkt. Während Debriefings primär den Zweck der Offenlegung bzw. Bewahrung individuellen Wissens erfüllen, können sie doch auch als Instrumente des kollektiven Erfahrungstransfers begriffen werden. Im Idealfall setzen sie einen kontinuierlichen Lern- und Reflexionsprozess im Unternehmen in Gang. Schließlich treten über die Bewusstmachung relevanter Wissensdomänen, Netz werkbeziehungen und Best Practices auch unternehmerische 20 Vgl.
zusammenfassend von der Oelsnitz / Busch (2008b), S. 261 ff. (2004), S. 95. 22 Vgl. Trojan (2006), S. 153 ff.; Hofer-Alfeis (2008); Dückert / Hartmann (2009). 21 Leonard / Swap
342
Michael W. Busch
Kompetenzstärken und ‑schwächen zu Tage. Zudem können dadurch Synergiepotenziale besser identifiziert werden. Im Lichte des demographischen Wandels dürfte die allgemeine Bedeutung von Expert Debriefings in Zukunft noch zunehmen.23 II. Sozialisierung von Wissen bei Teameintritten Die Sozialisierung bezieht sich auf aufgaben- und teambezogenes Wissen. Beim aufgabenbezogenen Wissen kann auf die aus Externalisierungsverfahren gewonnenen Erkenntnisse zurückgegriffen werden, sofern die Teamposition fortbesteht. Häufig werden jedoch Neuzugänge erforderlich, um die im Verlauf der Teamarbeit aufgetretenen Kompetenzlücken zu schließen. Oder eine veränderte Kompetenzverteilung erscheint geboten, um die allgemeine Arbeitsbelastung im Team zu reduzieren. Im letztgenannten Fall kann die aufgabenbezogene Sozialisation durch das Team geleistet werden. Nachfolgend werden nicht die gruppendynamischen Effekte von Mitgliederwechseln betrachtet, sondern ganz konkrete Sozialisationstechniken. Das Verständnis von Sozialisation hat sich im Verlauf der Zeit merkbar verändert, von der ‚coercive integration era‘ in den 60ern über die ‚people-processing era‘ der 70er, die ‚interactive assimilation era‘ der 80er bis hin zur ‚proactive information acquisition era‘ der frühen 90er Jahre.24 Sozialisation erscheint heute nicht mehr als Zwangsmaßnahme (‚role-taking‘), sondern als wechselseitiger Beeinflussungs- und Lernprozess, in dem die Eigeninitiative und Kreativität des Einzelnen eine bedeutsame Rolle spielt (‚role-making‘). Auch Teammitglieder sind demnach nicht mehr passive Objekte, sondern aktive Subjekte innerhalb der Sozialisationsbeziehung. Dies gilt auch für klassische Einarbeitungsprogramme. Die Einarbeitung erfolgt über Einführungsgespräche, Vorstellung der Kollegen und über die Zuweisung eines Lernpartners. Der Mentor dient als Rollenmodell, indem er Einstellungen, Werthaltungen und Verhaltensmuster des Teams vorlebt und erörtert. Außerdem leistet er psychosoziale Unterstützung und trägt damit zur Persönlichkeitsentwicklung des neuen Teammitglieds bei.25 Als typische Stolpersteine in der Anfangsphase gelten eine Über- bzw. Unterforderung in quantitativer oder qualitativer Hinsicht, eine unklare Aufgabenbeschreibung, fehlendes oder unklares Feedback durch die Teamführung sowie eine verschwommene Aufgabenzuweisung bzw. Kompetenzverteilung im Team.26 23 Vgl.
Streb / Voelpel / Leibold (2008), S. 1 f., 5. Anderson / Thomas (1996), S. 26 ff.; zur Sozialisation auf Teamebene vgl. grundlegend Moreland / Levine (1982). 25 Vgl. Sonntag / Stegmaier (2007), S. 78 ff. 26 Vgl. Verfürth (2008), S. 143 f. 24 Vgl.
Fluktuation in Teams343
Durch die Einbindung von Teammitgliedern in Expertengemeinschaften wird gewährleistet, dass auftauchende fachliche Probleme, für die der Mentor oder das Team keine Antworten parat haben, dennoch rasch gelöst werden können. Eine Community of Practice kann formal als eine Gemeinschaft von Personen definiert werden, „die aufgrund eines gemeinsamen Interesses oder Aufgabengebietes über formale Organisationsgrenzen hinweg miteinander interagieren (virtuell und / oder face-to-face) mit dem Ziel, Wissen in einem für das Unternehmen relevanten Themengebiet gemeinsam zu entwickeln, zu (ver‑)teilen, anzuwenden und zu bewahren.“27 Ursprünglich bei Xerox durch Mitarbeiter etabliert, die Kopiergeräte warteten, und Lösungen in Handbüchern nicht fanden oder nachschlagen wollten und deswegen direkt bei Kollegen nachfragten, ist die Bedeutung von Communities of Practice als Möglichkeit zur Entwicklung und Diffusion von Problemlösungen auf Unternehmensseite schnell erkannt worden. Auch im Laienbereich finden sie sich heute in Form von unzähligen Internetforen, in denen Probleme aller Art thematisiert und anhand von persönlichen Erfahrungsberichten ausgetauscht werden (≈ virtuelles Story Telling). Die Lösung wird in Gemeinschaftsarbeit erbracht. Zudem werden Forumsteilnehmer dafür sensibilisiert, dass ein und dasselbe Problem auf höchst unterschiedliche Art und Weise gelöst werden kann.28 Während Communities of Practice themenfokussiert sind, d. h. einen engen Problemkreis betreffen, fördert die Installation von Kompetenzkarten und ‑anfragesystemen das Auffinden unternehmensweit gestreuten Expertenwissens. Das Wissen über das Wissen anderer wird damit über die Grenzen des Teams ausgedehnt. Mitarbeiter können über Außenkontakte Informationen finden, von denen sie zuvor nicht wussten, dass es sie überhaupt gibt. Die Offenheit für Ideen und Anregungen von außen wird zunehmend als zentraler Baustein innovativer Teamarbeit erkannt.29 Außerdem wird da27 Zboralski
(2007), S. 30. Lösungshinweise von Außenstehenden sind für Mitarbeiter im Unternehmen allerdings verwirrend, wenn nicht gar handlungslähmend. Geiger (2009), S. 235 ff. konnte diese Widersprüche in einer Studie über einen internationalen Baukonzern, der eine intranet-basierte Plattform zum Erfahrungsaustausch eingerichtet hatte, nachweisen. Voneinander abweichende Handlungsempfehlungen, Probleme bei der Trennung zwischen Fakten und kontextspezifischen Gegebenheiten, fehlende Prüfkriterien und ein insgesamt mangelndes Vertrauen in die Kompetenz der unbekannten Kollegen erschwerten die effektive Nutzung der virtuellen Expertenplattform. 29 Ancona / Bresman / Caldwell (2009), S. 218 unterteilen die Boundary-SpanningAktivitäten eines Teams in drei Bereiche: Scouting: Entwicklung eines eindeutigen Umweltverständnisses; Ambassadorship: Streben nach Unterstützung bei Entscheidungsträgern; Task Coordination: Abstimmung mit denjenigen Gruppen und Personen, die Beiträge für das eigene Projekt leisten können. 28 Widersprüchliche
344
Michael W. Busch
durch verhindert, dass Teams nach einer Lösung suchen, die an anderer Stelle bereits längst existiert. Ein Beispiel für ein unternehmensweites System zum interaktiven Austausch von Wissen und Erfahrungen bildet das von Siemens genutzte ShareNet. Neben einer Wissensplattform, die Erfahrungen laufender und abgeschlossener Projekte dokumentiert, existiert eine Plattform, in die dringende Anfragen gestellt werden können. Eine weitere Plattform soll den direkten Wissensaustausch anregen. Hier finden sich aktuelle Nachrichten bestimmter Fachgebiete, themenspezifische Diskussionsforen und Live Chat Rooms.30 So wichtig die technischen Möglichkeiten zur Aktivierung fehlenden Wissens sind, bleibt doch der direkte persönliche Kontakt unentbehrlich, um innerhalb seines Aufgabengebietes im Team Tritt zu fassen. Aufgaben-, personen- und prozessbezogene Feedbacks aus der Umgebung sind essentiell für den eigenen Arbeitsfortschritt. Allerdings treten sie nur selten im Überfluss auf. Das neue Teammitglied muss daher selbst aktiv werden und hartnäckig nach Feedback streben, die Kollegen löchern und Informationen immer wieder erfragen. Es muss sich trauen, die Kollegen anzusprechen, was eine gewisse Eloquenz und Offenheit voraussetzt. Hierbei spielt auch die Art der Fragen und die Bereitschaft, selbst Wissen preiszugeben, eine Rolle: „Wer intelligente Fragen stellt, erhält intelligente Antworten (…) Wer viel weitergibt, bekommt viel zurück.“31 „Nackte“ Fragen alleine genügen nicht. Sie müssen in die richtige Form gegossen werden. Das Erlernen der sokratischen Methode des reflexionsanregenden Fragens fehlt allerdings auf den meisten Lehrplänen. Abschließend soll ein kurzer Blick auf Maßnahmen zum Transfer von Wissen über die Zusammenarbeit in Teams gegeben werden. Um Wissen übereinander aufzubauen empfiehlt die Forschung den Einsatz von Cross Training. Dabei wird Wissen über Kollegen über Instruktion (,positional clarification‘), Vorführung (‚positional modeling‘) und Selbsterfahrung (‚positional rotation‘) vermittelt.32 Das Teammitglied soll dadurch ein Gespür für die Arbeit und die Zusammenhänge im Team erlangen. In Reflexionsworkshops kann eine Sensibilisierung für kooperationsrelevantes Wissen erfolgen. So wird bei Iwis – einem Hersteller von Präzisionsketten für die Automobilindustrie – in Workshops Wissen aus einem Handbuch über Teamarbeit im Unternehmen sowie die Abläufe und Organisation der Arbeit vermittelt bzw. mit Leben gefüllt (allgemeine Bedeutung, Organisation und Auditierung von Teamarbeit; Rollenverständnis und Aufgaben; Kom30 Vgl. 31 Sven
ausführlich Voelpel / Dous / Davenport (2005). Voelpel im Interview mit der Zeitschrift Personalführung (12 / 2009,
S. 43). 32 Vgl. ausführlich Busch (2008), S. 121 ff., zum After Action Review S. 143 ff.
Fluktuation in Teams345
petenzentwicklung; KVP; Zielvereinbarungen; Vergütung; Regelkommunikation; Gruppentafel; Arbeitsplatzgestaltung).33 In verdichteter Form kann dies jeweils an neue Teammitglieder weitergegeben werden. Teamentwicklungsmaßnahmen (z. B. Outdoor-Trainings) tragen ebenfalls zu einer wechselseitigen Sensibilisierung für Stärken und Schwächen der Teamkollegen bei. Alltägliche Handlungsmuster und tiefverwurzelte Gewohnheiten, d. h. individuelle und geteilte mentale Modelle treten dabei auf spielerischem Weg an den Tag. Schließlich regen strukturierte Gruppenfeedbacks die Kenntnis und Reflexion der Zusammenarbeit im Team an. In einem After Action Review werden bspw. immer wieder vier Fragen geklärt: Was wollten wir erreichen? Was haben wir tatsächlich erreicht? Warum haben wir es (nicht) erreicht? Was können wir besser machen? Bei regelmäßiger Durchführung wächst der Neue dadurch arbeits- und lebensnah in die „Team-DNA“ hinein.
D. Fazit Erfahrungen im Umgang mit Mitgliederwechseln in Teams sind künftig noch stärker in ein Projektwissensmanagement zu integrieren, das ein professionelles Lernen in und zwischen Projekten sowie über Projekte ermöglicht.34 Hierzu muss jedoch Zeit zur Verfügung stehen. Gerade die Zeitknappheit lässt es zumeist nicht zu, dass Teammitglieder systematisch eingearbeitet bzw. bei ihrem Ausscheiden auf ihr Wissen hin „abgeklopft“ werden. Es dominiert der „Sieh-zu-wo-du-bleibst“-Ansatz. Der Neue soll sich doch bitte am eigenen Zopf aus dem Sumpf ziehen und darin seine Stärke beweisen. Zudem besteht in der Praxis ein Hang zur Personalisierung von Wissen. Leute wollen keinem Dokumentationszwang unterworfen werden. Die mangelhafte Praxis spricht jedoch nicht gegen das Vorbringen einer guten Theorie. Die hier vorgestellten Instrumente bieten durchaus Ansatzpunkte für eine einfache Umsetzung im Alltag.
33 Vgl. 34 Vgl.
Neininger / Kauffeld (2009), S. 241 ff. Gleich et al. (2008), S. 50 f.
346
Michael W. Busch
Literaturverzeichnis Ancona, Deborah / Bresman, Henrik / Caldwell, David (2009), Six steps to leading high-performing x-teams, in: Organizational Dynamics, 38, 2009, 3, S. 217‑224. Anderson, Neil / Thomas, Helena D. C. (1996), Work group socialization, in: West, Michael A. (Hrsg.): Handbook of work group psychology, Chichester u. a., 1996, S. 423–450. Bennis, Warren / Biederman, Patricia Ward (1998), Geniale Teams, Frankfurt / New York, 1998. Bierhals, Reimer (2008), Führung mit geteilten mentalen Modellen, in: Buerschaper, Cornelius / Starke, Susanne (Hrsg.): Führung und Teamarbeit in kritischen Situationen, Frankfurt, 2008, S. 86–109. Blickensderfer, Elizabeth et al. (2000), Analyzing knowledge requirements in team tasks, in: Schraagen, Jan M. / Chipman, Susan F. / Shalin, Valerie L. (Hrsg.): Cognitive task analysis, Mahwah / London, 2000, S. 431–447. Busch, Michael W. (2008), Kompetenzsteuerung in Arbeits- und Innovationsteams, Wiesbaden, 2008. Cannon-Bowers, Janis A. / Salas, Eduardo / Converse, Sharolyn (1993), Shared mental models in expert team decision making, in: Castellan Jr., N. John (Hrsg.): Individual and group decision making, Hillsdale u. a., 1993, S. 221–246. Cooke, Nancy J. (1994), Varieties of knowledge elicitation techniques, in: Interna tional Journal of Human-Computer Studies, 41, 1994, 6, S. 801–849. DeLong, David W. (2004), Lost knowledge, Oxford u. a., 2004. Dineen, Brian R. / Noe, Raymond A. (2003), The impact of team fluidity and its implications for human resource management research and practice, in: Research in personnel and human resources management, 22, 2003, S. 1–37. Drach-Zahavy, Anat / Somech, Anit (2010), From an intrateam to an interteam perspective of effectiveness: The role of interdependence and boundary activities, in: Small Group Research, 41, 2010, 2, S. 143–174. Dückert, Simon / Hartmann, Karin (2009), Wissenstransfer und organisationales Lernen mit Expert Debriefing und Wikis, in: Personalführung, 42, 2009, 12, S. 20–29. Geiger, Daniel (2009), Wissenstransfer in internationalen Unternehmen, in: Zeitschrift Führung + Organisation, 78, 2009, 4, S. 233–239. Gleich, Ronald et al. (2008), Status quo und Gestaltungsfaktoren im Projektwissensmanagement, in: Projektmanagement aktuell, 19, 2008, 5, S. 49–58. Hofer-Alfeis, Josef (2008), Knowledge management solutions for the leaving expert issue, in: Journal of Knowledge Management, 12, 2008, 4, S. 44–54. Humpl, Bernd (2004), Transfer von Erfahrungen, Wiesbaden, 2004. Kleiner, Art / Roth, George (1997), How to make experience your company’s best teacher, in: Harvard Business Review, 75, 1997, 5, S. 172–177.
Fluktuation in Teams347
Klimoski, Richard / Mohammed, Susan (1994), Team mental model: Construct or metaphor?, in: Journal of Management, 20, 1994, 2, S. 403–437. Kozlowski, Steve W. J. et al. (1996), A dynamic theory of leadership and team effectiveness, in: Research in personnel and human resources Management, 14, 1996, S. 253–305. Leonard, Dorothy / Swap, Walter (2004), Deep smarts, in: Harvard Business Review, 82, 2004, 9, S. 88–97. March, James G. / Olsen, Johan P. (2009), The logic of appropriateness, in: Goodin, Robert E. (Hrsg.): The Oxford handbook of political science, Oxford u. a., 2009, S. 478–497. Moreland, Richard L. / Levine, John M. (1982), Socialization in small groups: Temporal changes in individual-group relations, in: Advances in Experimental Social Psychology, 15, S. 137–192. Morris, Shad / Oldroyd, James B. (2009), Wie Projekte weiterleben, in: Harvard Business Manager, 31, 2009, 6, S. 16–17. Neininger, Alexandra / Kauffeld, Simone (2009), Reflexion als Schlüssel zur Weiterentwicklung von Gruppenarbeit, in: Kauffeld, Simone / Grote, Sven / Frieling, Ekkehart (Hrsg.): Handbuch Kompetenzentwicklung, Stuttgart, 2009, S. 233–255. Oelsnitz, Dietrich von der / Busch, Michael W. (2008a), Die Bedeutung transaktiver Gedächtnissysteme für die Informationsproduktion in Teams, in: Zeitschrift für Betriebswirtschaft, 78, 2008a, 4, S. 367–396. – Die Think-Aloud-Methode, in: Die Betriebswirtschaft, 68, 2008b, 2, S. 260‑265. Porschen, Stephanie (2008), Austausch impliziten Erfahrungswissens, Wiesbaden, 2008. Rickards, Tudor / Moger, Susan (2000), Creative leadership processes in project team development: An alternative to Tuckman’s stage model, in: British Journal of Management, 11, 2000, 4, S. 273–283. Salas, Eduardo / Cannon-Bowers, Janis A. (1997), Methods, tools, and strategies for team training, in: Quiñones, Miguel A. / Ehrenstein, Addie (Hrsg.): Training for a rapidly changing workplace, Washington, 1997, S. 249–279. Sonntag, Karlheinz / Stegmaier, Ralf (2007), Arbeitsorientiertes Lernen, Stuttgart, 2007. Streb, Christoph K. / Voelpel, Sven C. / Leibold, Marius (2008), Managing the aging workforce: Status quo and implications for the advancement of theory and practice, in: European Management Journal, 26, 2008, 1, S. 1–10. Trojan, Jörg (2006), Strategien zur Bewahrung von Wissen, Wiesbaden, 2006. Tschan, Franziska / Semmer, Norbert (2001), Wenn alle dasselbe denken: Geteilte Mentale Modelle und Leistung in der Teamarbeit, in: Fisch, Rudolf / Beck, Dieter / Englich, Birte (Hrsg.): Projektgruppen in Organisationen, Göttingen, 2001, S. 217–235.
348
Michael W. Busch
Verfürth, Claus (2008), Einarbeitung, Integration und Anlernen neuer Mitarbeiter, in: Bröckermann, Reiner / Müller-Vorbrüggen, Michael (Hrsg.): Handbuch Personalentwicklung, 2. Aufl., Stuttgart, 2008, S. 131–150. Voelpel, Sven C. / Dous, Malte / Davenport, Thomas H. (2005), Five steps to creating a global knowledge-sharing system: Siemens Share-Net, in: Academy of Management Executive, 19, 2005, 2, S. 9–23. Wegner, Daniel M. (1987), Transactive memory, A contemporary analysis of the group mind, in: Mullen, Brian / Goethals, George R. (Hrsg.): Theories of group behavior, New York u. a., 1987, S. 185–208. Willke, Helmut (2007), Einführung in das systemische Wissensmanagement, 2. Aufl., Heidelberg, 2007. Zboralski, Katja (2007), Wissensmanagement durch Communities of Practice, Wiesbaden, 2007.
Dialog als Kunst, gemeinsam zu denken Von Falko E. P. Wilms
A. Einführung Anknüpfend an elementaren Elementen des Dialogs wird ein vom traditionellen Vorgehen abweichendes Workshopdesign gezeigt, mit dem bedeutsame Dialogfertigkeiten eingeübt werden können. Das Erkunden und Fixieren von grundlegenden Annahmen eigener und fremder Denkprozesse im Dialog führt zu einem besseren Verstehen und zu tragfähigeren Ergebnissen, das gilt auch beim Einsatz modernster Management-Cockpits.
B. Theorie sozialer Systeme Das Wort Information kommt von lat. Informare, was „bilden“, „eine Form geben“ bedeutet. George Spencer Brown zeigte mit seinen Gesetzen der Form (laws of form)1, dass jede Benennung auf einer zuvor getätigten motivgeleiteten Unterscheidung eines Beobachters basiert. Eine Form umfasst: •• Eine Unterscheidung (distinction), die Inneres und Äußeres trennt und verbindet und vom Beobachter nicht beobachtbar / benennbar ist. •• Ein eingeschlossenes Inneres (marked space), das vom Beobachter beobachtbar / benennbar ist. •• Ein ausgeschlossenes Äußeres (unmarked space), das vom Beobachter nicht beobachtbar / benennbar ist. •• Einen Raum (Kontext), in dem der Beobachter (s)eine Unterscheidung verwendet. Schon Ashby2 sah den Unterschied als das Grundkonzept der Kybernetik; hieran anknüpfend sieht Spencer Brown eine Beobachtung als eine Operation von anfänglichem Unterscheiden und späterem Benennen des Unter1 Vgl.
Spencer Brown, G. (1969), Laws of Form, London, Allen & Unwin. Ashby, R. W. (1956), An Introduction to Cybernetics, London, Chapman & Hall Ltd., S. 9. 2 Vgl.
350
Falko E. P. Wilms
schiedenen an.3 Benennungen können demnach nur auf eine Einheit Bezug nehmen, wenn ihr die Operation einer Unterscheidung zugrunde liegt, die die benannte Einheit definiert.4 Die Operation des Beobachtens ist somit immer an den Beobachter gebunden, der (s)eine Unterscheidung verwendet. Daher verweist eine Beobachtung (und ihre versprachlichte Beschreibung) grundsätzlich weitaus mehr auf den Beobachter als auf das Beobachtete. Aus Sicht der Theorie sozialer Systeme ist der Beobachter immer an die eigenen Mittel seines Beobachtens, Beschreibens und Verstehens gebunden, daher liegt in der Beobachtung letztlich immer eine Referenz der Beobachtung auf den Beobachter vor, also eine Selbstreferenz. Die Logik der Beobachtung und ihrer Beschreibung kann also nicht die Logik des beobachteten Objektes sein, sondern die Logik des Beobachters.5 Die Systemtheorie Luhmann’scher Prägung geht also bezüglich des Begriffs „Information“ von einem selbstreferentiellen Beobachter aus, der seine inneren Zustände aufgrund eigener innerer Zustände verändert6, daher wird Information immer als ein systeminternes Ereignis angesehen.7 Soziale Systeme werden durch Erwartungsstrukturen von Beobachtern zusammengehalten und Information entsteht in einem sozialen System, wenn etwas Unerwartetes zu bedeutsamen Veränderungen der internen Erwartungen von Beobachtern führt.8 Es kommt dann zu veränderten Unterscheidungen und zu anderen Relationen bei der Beobachtung durch den Beobachter. Schon Ashby9 hatte postuliert, dass das Gedächtnis erst durch das Benutzen interner Relationierungen (von Relationen) fruchtbar wird. Es ergibt sich somit: Das Besprechen von Beobachtungen eigener / fremder Denkprozesse mit den dabei verwendeten Operationen und Relationen verweist die Sprechenden und die Hörenden jeweils auf sich selbst bzw. auf ihre gewohnten Denkprozesse. Resultate von Denkprozessen können vereinfachend als Wissen verstanden werden, das in weiten Teilen implizit und 3 Vgl.
Spencer Brown, G. (1969): Laws of Form, London: Allen & Unwin. Maturana, H. R. / Varela, F. J. (1984), Der Baum der Erkenntnis. Die biologischen Wurzeln des menschlichen Erkennens, München, Goldmann, S. 46. 5 Vgl. Willke, H. (1996), Systemtheorie I, Grundlagen, 5. Aufl., Stuttgart, Lucius & Lucius, S. 167 f. 6 Vgl. Baraldi, C. / Corsi, G. / Esposito, E. (1997), GLU, Glossar zu Niklas Luhmanns Theorie sozialer Systeme, Frankfurt am Main, Surkamp, S. 76 f. 7 Vgl. Luhmann, N. (1992), Kommunikation mit Zettelkästen. Ein Erfahrungsbericht, in: Kieserling, A. (Hrsg.), Universität als Milieu, Bielefeld, Haux, S. 53–61. 8 Vgl. Bateson, G. (1972), Steps to an ecology of mind, New York: Ballantine, S. 381. 9 Vgl. Ashby, W. R. (1967), The Place of the Brain in the Natural World, in: Currents in Modern Biology 1 (1967), S. 95–104. 4 Vgl.
Dialog als Kunst, gemeinsam zu denken351
kaum bewusst zugänglich ist10 und das zu großen Teilen nicht durch eigene Erfahrungen, Anschauungen oder Überlegung aufgebaut wird, sondern durch ein kaum hinterfragtes Übernehmen von anderen Menschen („testimony“).11 Nach Luhmann12 wird Wissen aufgebaut, indem ein Beobachter verschiedene Sachverhalte generalisiert und bestätigende Erfahrungen seine (kognitiven) Strukturen bekräftigen. Insofern wird Information auf das Auftreten von erwarteten Folgen bezogen: Der Unterschied zwischen dem Erwarteten und dem Beobachtetem bildet das Maß der Information, wobei die Erwartungen stets kontextabhängig sind.13 Lernen wird somit aus Sicht der Theorie sozialer Systeme verstanden als Kombination von sicheren und unsicheren generalisierten kognitiven Erwartungen; aufkommende Unsicherheit wird kompensiert durch die Referenz auf die Strukturen eines Systems. Bezieht man diese Strukturen auf Wissenschaft als funktionales Subsystem der Gesellschaft, dann wird auf Theorien oder Methoden referiert; bezieht man sich hingegen auf ein soziales System, dann rücken die Regeln der Kommunikation in den Blick. Das (oftmals durch „testimony“ generierte) implizite Wissen hält ein soziales System zusammen und unterscheidet es von anderen Systemen. Durch anschlussfähige Kommunikationen werden Systeme strukturell aneinander gekoppelt und wirksame Grenzen zwischen unterschiedlichen Systemen überschritten.14
C. Der Dialog Die ethymologische Wurzeln des Wortes Dialog sind vielfältig, weisen jedoch in eine bestimmte Richtung des Denkens: altgr. dia: (hin-)durch; altgr. logos: Mitteilung, Sinn, Bedeutung, Zurechnung; aber auch sammeln, legen sowie altgr. dialégesthai: unterhalten, unterreden; altgr. dialogein: einander zurechnen. Es geht also darum, dass in einem Kommunikationsprozess die Beteiligten durcheinander hindurch bestimmte Mitteilungen, Bedeutung und Sinnzuschreibungen sammeln, zurechtlegen und wechselsei-
10 Vgl.
Polanyi, M. (1966), The tacit dimension, Garden City: Doubleday. Goldman, A. (1999), Knowledge in a Social World, Oxford etc.: Oxford University Press, Kap. 4: „Testimony“. 12 Vgl. Luhmann, N. (1984), Soziale Systeme, Frankfurt a. M.: Surkamp, S. 447 ff. 13 Vgl. Bateson, G. (1969), Ökologie des Geistes. Anthropologische, psychologische, biologische und epistemologische Perspektiven; Frankfurt am Main, Suhrkamp, S. 353. 14 Vgl. Luhmann, N. (1990), Die Wissenschaft der Gesellschaft, Frankfurt am Main, Suhrkamp, S. 163. 11 Vgl.
352
Falko E. P. Wilms
tig zurechnen; es geht darum miteinander zu reden und das Beredete einander zuzurechnen bzw. sich das Gesagte zurechnen zu lassen. Es wird eine grundlegende Nähe zu den ethymologischen Wurzeln des Wortes System deutlich, das herrührt von altgr. systánai: zusammenstellen; altgr. histánai: stellen, aufstellen; altgr. systéma: das Zusammengestellte. Es geht darum, dass die Beteiligten ihre Gedankengänge zusammenstellen, damit das dadurch Zusammengestellte allen zugänglich werde. Wird dies mit sprachlichen Mitteln (systemtheoretisch: im Medium der Sprache) vollzogen, ergeben sich vielfältige Querverbindungen zu den Wurzeln des Dialogs. I. Die amerikanische Idee Was heute im deutschsprachigen Raum als Dialog verstanden wird, begann mit den Ideen von David Bohm15 über den Dialog. Bohm sah im Dialog eine Gesprächsform kleiner Gruppen zum tieferen Verstehen eines Sachzusammenhangs, die zu einem intensiveren Umgang miteinander führt und eigene Standpunkte / Haltungen erkennbar macht. Beim „Dialog Project“ am MIT unter der Leitung von William Isaacs16 wurden einige dieser Ideen aufgenommen und der Dialog von / in Gruppen als Möglichkeit zur Schaffung „Lernender Organisationen“ begriffen. Isaacs versteht Dialog als eine Form des direkten Gesprächs in Gruppen mit folgenden elementaren Bausteinen: •• Zuhören als das auf sich wirken lassen des Gehörten aus einem inneren Schweigen heraus. •• Respektieren als das Verzichten auf jede Form von Abwehr, Schuldzuweisung, Abwertung oder Kritik. •• Suspendieren als Erkennen und Beobachten eigener Gedanken, Emotionen und Meinungen, ohne in eine Fixierung zu verfallen. •• Artikulieren als das Finden der eigenen, authentischen Sprache und des Aussprechens der eigenen Wahrheit. Bei Isaacs spielt der Dialogbegleiter (= Fasciliator) eine tragende Rolle, der bei Bohm allerdings nicht vorkommt.
15 Vgl. 16 Vgl.
Bohm, D. (2002), Der Dialog, 4. Aufl., Stuttgart, Klett-Cotta. Isaacs, W. (2002), Dialog als Kunst, gemeinsam zu denken, Köln, Ehp.
Dialog als Kunst, gemeinsam zu denken353
II. Das deutschsprachige Pendent Hartkemeyer / Hartkemeyer versuchten zusammen mit Doherty17 (der Mitglied des „Dialog Project“ am MIT war), diesen Ansatz in der deutschsprachigen Literatur zu platzieren und dabei 10 dialogische Kernfähigkeiten zu postulieren.18 Anfangs sehen sie Dialog als eine lehr- und lernbare Art der Kommunikation von / in Gruppen, die ein gemeinsames Verständnis ermöglicht. Im Nachfolgebuch propagieren Hartkemeyer / Hartkemeyer den Dialog zur Verdeutlichung des Denkens über die „Realität“ und des gemeinsamen Lernens, wobei die Ausbildung zum Dialogbegleiter eine bedeutende Rolle spielt und diesbezügliche Ausbildungswege entwickelt wurden. Als Vorläufer des Dialogs sehen sie – neben David Bohm – zwar auch den jüdischen Religionsphilosoph Martin Buber19, aber alle entfalteten Textpassagen zu oder über Buber bleiben ohne tragfähige Querverweise zu den Ideen von Bohm. Dies kann auch nicht anders sein, denn die Gedanken des jüdischen Religionsphilosophen Buber können nicht zu den apersonalen Ideen von Krishnamurti passen, an denen sich David Bohm orientierte. Während Buber auf die Begegnung des Menschen mit seinem Gegenüber (d. h. letztendlich gegenüber dem mosaischen Gott) abstellte, ging es Bohm um das gemeinsame Denken von / in Gruppen mit Blick auf gemeinsame Lernwege, Isaacs wiederum ging es um einen Weg zur Lernenden Organisation. III. Die griechische Wurzel Die im deutschsprachigen Raum oft übersehene Quelle des Dialogs ist Sokrates. Seine Idee des Dialogs wird uns von Platon übermittelt. Ihm geht es um das direkte Gespräch, um das Wissen des Gesprächspartners an die Oberfläche zu holen (Mäeutik).20 Dieser Ansatz sieht in der dialogischen Gesprächsführung in kleinen und kleinsten Gruppen die Quelle der Förderung des eigenverantwortlichen, selbstbestimmten Denkens des Ein17 Vgl. Hartkemeyer, M. / Hartkemeyer, J. F. / Dhority, L. F. (1998), Miteinander denken. Das Geheimnis des Dialogs, Stuttgart, Klett Cotta, S. 78 ff. 18 Vgl. Hartkemeyer, J. F. / Hartkemeyer, M. (2005), Die Kunst des Dialogs, Kreative Kommunikation entdecken, Erfahrungen – Anregungen – Übungen, Stuttgart: Klett Cotta. 19 Vgl. Buber, M. (2006), Das dialogische Prinzip, 10. Aufl., Gütersloh, Güters loher Verlagshaus. 20 Vgl. Platon (1986), Apologie des Sokrates; dt. und hrsg. von Manfred Fuhrmann, Ditzingen. Reclam; Platon (1997): Laches, dt. von Peter Gardeya, Würzburg, Königshausen & Neumann.
354
Falko E. P. Wilms
zelnen. Diese Kernidee des sokratischen Dialogs ist über Nelson21, Heckmann22 und Horster23 in die Didaktik24 eingeführt und von Stavemann25 zu dem in der Beratung genutzten sokratischen Gespräch weiterentwickelt worden. IV. Gemeinsamkeiten und Unterschiede Zwischen einem sokratischen Gespräch und einem Dialog gemäß Bohm / Isaacs sind mehrere Gemeinsamkeiten zu erkennen. So ordnen sich die Beteiligten zu einem Sitzkreis ohne sonstige Möbel, damit jeder Beteiligte jeden anderen direkt sehen kann. Es wird langsam gesprochen und respektvoll zugehört. Die Teilnehmer versuchen, alle Beteiligten (auch sich selbst) an eigenen Denkprozessen teilhaben zu lassen, um Denkergebnisse nachvollziehbar zu gestalten. Auf diesem Wege wird es möglich zu erkennen, auf welche impliziten Annahmen das eigene Denken beruht, das u. a. auch die innere Haltung begründet. Jeder Beteiligte ist gehalten, die eigenen Annahmen aufzuspüren und zu suspendieren, um seinen Standpunkt, sein Interesse und seine Meinung in der Schwebe zu halten, anstatt sie zu fixieren, zu verteidigen und durchzusetzen. Die Kernelemente einer sokratischen Gesprächsführung mit dem Ziel der Selbsterkenntnis und Eigenverantwortlichkeit des Einzelnen unterscheiden sich von den Eckpunkten eines Dialoges im Sinne von Bohm / Isaacs, die eher auf das gemeinsame Denken und auf das voneinander Lernen ab stellen. In einem sokratischen Gespräch wird zunächst eine erste Definition des untersuchten Begriffs versucht, der Versuch konkretisiert und ein enger Alltagsbezug hergestellt; es folgen weitere (beispielhafte) Konkretisierungen und eine Disputation des bisher Erreichten. Eine aktive Suche nach einem tragbaren Commitment bzw. einem brauchbarem Modell und eine Formulierung des nun erarbeiteten (Zwischen-)Resultates beenden das Gespräch. 21 Vgl.
Nelson, L. (1929), Die Sokratische Methode, Göttingen, Öffentliches Le-
ben. 22 Vgl. Heckmann, G. (1993), Das Sokratische Gespräch. Erfahrungen in philosophischen Hochschulseminaren, Frankfurt a. M., dipa-Verlag. 23 Vgl. Horster, D. (1994), Das Sokratische Gespräch in Theorie und Praxis, Opladen, Leske + Budrich. 24 Vgl. Raupach-Strey, G. (2002), Sokratische Didaktik, Münster u. a., Lit-Verlag. 25 Vgl. Stavemann, H. H. (2007), Sokratische Gesprächsführung in Therapie und Beratung, Weinheim, Beltz.
Dialog als Kunst, gemeinsam zu denken355
Mit Hilfe der so genannten regressiven Abstraktion26 werden die verwendeten Begriffe (z. B. gute Teamleitung) untersucht, indem zunächst eine Sammlung von nötigen Eigenschaften erfolgt, wobei die Nennungen nach Möglichkeit in „Voraussetzungen“ und „Folgen“ rubriziert, Doppelnennungen eliminiert und ähnliche Nennungen zu Oberbegriffen zusammengefasst werden. Danach werden weitere konkrete Eigenschaften hinzugefügt, „notwendige“ von „hinreichenden“ Eigenschaften unterschieden und die „hinreichenden“ Eigenschaften entfernt. Abschließend werden die wesentlichen Merkmale des untersuchten Begriffs markiert. In einem Dialog gemäß Bohm / Isaacs hingegen wird eine Thematik angerissen und dann ohne vorgegebene Gesprächsstruktur unter Anwendung der benannten fundamentalen Bausteine entfaltet; hierbei wird auf die Dienste eines Dialogbegleiters zurück gegriffen und ein Gesprächsraum (= Container) gestaltet. Zur Verlangsamung des Gespräches wird ein Redestein / Redestab eingesetzt: Nur die Person, die den Stein / Stab in Händen hält, darf sprechen oder schweigen und alle anderen sind gehalten, voller Respekt daran teilzuhaben.
D. Unser Ansatz Wir verstehen den Dialog von Sokrates her als eine Form des direkten Gesprächs in kleinen Gruppen, als einen örtlich / zeitlich geschützten Raum für gefährliche Fragen. Es geht uns um das Aufspüren von eigenen und fremden Denkprozessen um zu erkennen, worauf eigene / fremde Aussagen beruhen. Damit wird jeder Beteiligte gleichermaßen verantwortlich für eine gemeinsame Wirklichkeit, die jetzt und hier gestaltet wird. Wir verstehen Dialog als Kunst, gemeinsam zu denken und dabei voneinander und durch einander zu lernen, die eigene Selbsterkenntnis zu erweitern und das eigenverantwortliche Handeln zu fördern. So verstanden ist der Dialog ein Übungsfeld des persönlichen Gesprächs, mit dem das Verständnis füreinander vertieft und das gegenseitige Vertrauen ineinander gefördert wird. Der Dialog ist daher eine tragende Verbindung zwischen der Unternehmensstrategie, dem konkreten Entscheidungsverhalten der Führungskräfte, der Innovationskraft von (Projekt)Teams und der gelebten Unternehmenskultur. Damit ist der Dialog eine weittragende Interventionsmöglichkeit für die Bewältigung innovativer Teamaufgaben. Wir haben mit einer vier Tage umfassenden Lernarchitektur gute Erfahrungen gemacht, die insbesondere aufgrund der Gruppenteilung, dem 26 Vgl. Horster, D. (1994), Das Sokratische Gespräch in Theorie und Praxis, Opladen, Leske + Budrich, S. 66–81; Stavemann, H. H. (2007), Sokratische Gesprächsführung in Therapie und Beratung, Weinheim, Beltz, S. 49–51.
356
Falko E. P. Wilms
Schreibverbot und dem abschließenden Chart-Marktplatz stark von dem von Hartkemeyer / Hartkemeyer27 im deutschsprachigen Raum geprägten DialogVerständnis abweicht. Am ersten Vormittag werden im Plenum einige grundlegende administrative Hinweise gegeben (Zeitplan, Pausen, Arbeitsphasen), gefolgt von einer kurzen(!) allgemeinen Einführung in die Gesprächsform Dialog. Anschließend wird eine Teilung der Großgruppe in zwei Kleingruppen vorgenommen. Nach einer Pause arbeiten zwei von jeweils einem Moderator begleiteten Kleingruppen parallel zueinander in getrennten Gruppenräumen. Jede Kleingruppe sitzt in einem Sitzkreis ohne Tische, in dessen Mitte sich auf dem Boden eine von einem farbigen Tuch umkreiste große brennende Kerze befindet. Daneben liegt ein schön geformter, ungefähr handgroßer Stein. Beide Gruppen bekommen denselben Input in Form eines kurzen Textes über das zu behandelnde Thema, der verteilt und anfangs laut vorgelesen wird. Dann wird mit einem Kreisdialog begonnen: Ein Redestein wird herumgereicht und jeder Teilnehmende, der diesen Stein in den Händen hält, hat das uneingeschränkte Rederecht und bekommt von allen die ungeteilte Aufmerksamkeit. Nachdem der Stein zu seinem Ausgangspunkt zurückgekehrt ist, wird er in die Mitte des Sitzkreises neben die brennende Kerze gelegt und jeder Beteiligte, der etwas beitragen möchte, holt sich zunächst den Redestein aus der Mitte und setzt sich, bevor er zu reden anfängt und schließt sein Sprechen damit ab, dass er den Stein wieder zurücklegt. In dieser Form wird eine gute Stunde lang miteinander gedacht und geredet. Anschließend wird in einer etwas moderierten Form darüber nachgedacht, wie die Kleingruppe den Inhalt und den Prozess des Erlebten der anderen Gruppe nur anhand des direkten Gesprächs mitteilen kann. Nach einer genügend langen Mittagspause (erfahrungsgemäß mind. 90 min.) kommen beide Kleingruppen und die Moderatoren im Plenum zusammen und versuchen, sich gegenseitig das am Vormittag Erlebte mitzuteilen. Hier wechseln sich Mitteilungen, Fragen, Denkpausen, Zusammen27 Vgl. Hartkemeyer, M. / Hartkemeyer, J. F. (2008), Das Dialogprojekt im Iran. Ein universales Prinzip der menschlichen Kommunikation, in: Profile – Zeitschrift für Veränderung, Lernen, Dialog, Heft Nr. 15 / 2008, S. 71–82; dies. (2007): Zwischen vermeintlicher Gewissheit und unvermeidlicher Ungewissheit. Nichtwissen im Dialog, in: Zeuch, A. (Hrsg.) (2007), Management von Nichtwissen in Unternehmen, Heidelberg, Carl Auer Verlag, S. 177–197; Susanne, E. (2008), Dialog als kreativer Denkraum in modernen Organisationen, in: Aufsichtsrat aktuell, Heft 1 / 2008, S. 24–26.
Dialog als Kunst, gemeinsam zu denken357
fassungen und das Erkunden fremder Gedanken ab. Eine Diskussion wird absichtlich vermieden und von den Moderatoren unterbunden. Danach wird in den Kleingruppen wieder mit einem Kreisdialog begonnen und oft festgestellt, dass der Redestein nicht mehr nötig ist, weil die Art des Gespräches von jedem Teilnehmenden mit einem stark erhöhten Maß an Achtsamkeit geführt wird. Nun wird an dem im Plenum Erlebten angeschlossen und das Gespräch weitergeführt, wobei die Moderatoren sich weitestgehend zurück halten. Nach einer guten Stunde wird die Kleingruppe aufgefordert: „Organisieren Sie sich so, dass Sie morgen das hier Besprochene der anderen Kleingruppe möglichst gut mitteilen können und nutzen Sie dazu ein Chart, das Sie aber nicht mitnehmen können.“ Hierbei wird wieder etwas stärker moderiert vorgegangen und häufig werden mehr Visualisierungen als Verbalisierungen notiert. Am Ende des ersten gemeinsam erlebten Tages greift unter den Teilnehmern erfahrungsgemäß eine starke, den Einzelnen sehr bewegende Konfu sion um sich. Es fallen viele Äußerungen wie “Ich weiß gar nicht, worum es hier geht. Die Ziele sind zu wenig konkret. Das Thema ist mir nicht klar. Mir fehlt es an Strukturen. Ich kann keinerlei Problemlösung erkennen“ oder „Es werden zu wenig Führungsimpulse seitens der Moderatoren gegeben.“ Diese Konfusion ist geradezu zwangsläufig, denn die Teilnehmenden erleben deutlich, dass lieb gewordene Vorstellungen, Denkprozesse und (Über) Lebensmuster nicht mehr greifen. Dieses Erleben führt bei den Teilnehmenden oftmals zu deutlichen Emotionen und zu resignativen Zuständen; in dieser Phase benötigt es eines eindeutigen Appells der Moderatoren zum Durch- bzw. Aushalten dieses Zustandes als notwendige Voraussetzung eines nachhaltig wirksamen Lernprozesses, der durch das Hinterfragen der eigenen (Denk)Gewohnheiten gewonnen wird. Unser Appell an die Teilnehmer lautet ungefähr so: „Es reift etwas in Ihnen heran, was noch nicht greifbar ist und daher bitten wir Sie, haben Sie den Mut, den angefangenen Weg weiterzugehen und vertrauen Sie darauf, dass dieses Weitergehen Ihnen eine nachhaltige Entfaltung schenken wird. (Lassen Sie den Dingen ihren Lauf, ohne sie beherrschen zu wollen). Entscheiden Sie sich gegen das Gewohnte und bleiben Sie dran.“ Die Wirkung dieses einladenden Appells entscheidet über den Wert (nicht Preis!) des Lernarrangements. Nur wenn sich die Teilnehmenden dazu durchringen, den Wirkungen ihrer eigenen Gewohnheiten nachzuspüren, werden in der Folgezeit nachhaltige, plötzlich eintretende Lernerlebnisse möglich, die innere Haltung wird geformt!
358
Falko E. P. Wilms
Der zweite Tag beginnt damit, dass sich die Teilnehmer in den Kleingruppenräumen treffen und ca. 15 min. auf ihr erstelltes Chart schauen, um sich auf das Plenum einzustimmen. Dann wird im gemeinsamen Plenum die Kerze entzündet und der Redestein erneut bemüht. Nach einem kurzen Blitzlicht über den gestrigen Tag in Form eines Kreisdialogs sprechen die Teilnehmer über das, was sie auf dem Chart notiert haben. Wieder wechseln sich Mitteilungen, Fragen, Denkpausen, Zusammenfassungen und die Erkundung fremder Gedanken ab. Wieder wird jedweder Versuch einer beginnenden Diskussion von den Moderatoren im Keim erstickt. Die Teilnehmenden erkennen oft weitaus mehr Unterschiede als Gemeinsamkeiten in ihren Gesprächen. Auch wird oft erkannt, dass in der Kleingruppe eine bereits eingeübte Form des Dialogs möglich ist, während im Plenum noch ein deutlicher Übungsbedarf erkannt wird. Nach einer Pause wird in der Kleingruppe an das im Plenum Besprochene angeknüpft und das begonnene Gespräch anhand der Inspirationen aus der Großgruppe weitergeführt. Hier wird oft erkannt, dass der Einzelne seine Fähigkeit zum Führen eines Dialogs deutlich erweitern konnte. Nach einer guten Stunde des direkten Gesprächs wird dann wieder in stärker moderierter Form bedacht, wie das nun geführte Gespräch bezüglich Inhalt und den Prozess der anderen Gruppe mündlich mitgeteilt werden kann. Nach der Mittagspause werden im Plenum bedeutsame Gedanken ausgetauscht. Hier zeigen sich deutliche Fortschritte der Fähigkeit, fremde Gedanken zu erkunden und das Gespräch mit erhöhter Achtsamkeit zu führen. Anschließend wird in der Kleingruppe das dialogische Gespräch eine gute Stunde lang weitergeführt und abschließend in etwas moderierter Form anhand eines Charts erarbeitet, was von dem nun Besprochenen der anderen Kleingruppe mitzuteilen ist. Auf diesem zweiten Chart wird oft weniger ausformuliert und mehr visualisiert. Am Ende des zweiten Tages ist die Konfusion nicht mehr so stark zu spüren wie am Abend zuvor. Die Teilnehmer erleben die Unbrauchbarkeit gewohnter Vorstellungen und (Über)Lebensmuster weniger als Bedrohung, eher als Ausgangspunkt einer Erkundung der Möglichkeit, durch den Dialog zu neuen Erkenntnissen zu gelangen. Der dritte Tag verläuft wie der zweite, beginnend mit dem Anschauen des gestern erstellten Charts in der Kleingruppe und endet mit dem Erstellen eines neuen Charts, um das als bedeutsam Erlebte morgen den anderen mitteilen zu können. Am dritten Tag wird erkannt, dass die in der Kleingruppe geübte Form des Dialogs auch in der Großgruppe durchführbar ist und dass ein gemeinsames Verständnis für die behandelte Thematik entwickelt worden ist.
Dialog als Kunst, gemeinsam zu denken359
Der vierte Tag beginnt mit einem Kreisdialog im Plenum, um Bedeutsames zu besprechen. Dann fordern die Moderatoren das Plenum zu einer zusammenfassenden Betrachtung auf. Anschließend wird in der Kleingruppe ein kurzes abschließendes Gespräch mit dem Ziel durchgeführt, alle drei erarbeiteten Charts zu einem Abschluss-Chart zusammen zu führen. In diesem Chart wird dann oft wieder etwas mehr Sprache verwendet, aber auch stark visualisiert. Nach dem Mittag wird dann im Plenum ein Marktplatz mit allen erstellten Charts durchgeführt: Zunächst erkunden die Teilnehmer für sich und in Ruhe die einzelnen Charts der anderen Gruppe und es entstehen erste Gespräche. Dann stellt eine Kleingruppe die von der anderen Gruppe erstellten Charts vor und holt Feedback über die Qualität des eigenen Verständnisses ein. Gleiches erfolgt dann umgekehrt. Abschließend erfolgt die letzte Dialog-Sitzung, in der eine zusammenfassende Schau der bearbeiteten Sachverhalte und des mitgestalteten Prozesses angestrebt wird. Hier erfolgt ein letzter Transfer dieser Art der Gesprächsführung mit dem Fokus der behandelten Thematik, beispielsweise: Was kann ich mitnehmen bezüglich einer guten Veränderung meiner Art, mit Kunden, Mitarbeitern, Lieferanten oder Partnern so umzugehen, dass ich damit nachhaltig für das Unternehmen förderliche Wirkungen erziele?
E. Fazit Der große Kybernetiker Stefford Beer hat den grundlegenden Aufbau funktionstüchtiger Unternehmen in seinem Viable System Model28 aufgezeigt und dessen konkreten Einsatz in der Praxis in den Cybersyn Projekt detailliert dargestellt29. Der heutige Stand dieses Gesamtkonzeptes liegt in Form des operations room30 vor, das für das Management von Unternehmen (verstanden als komplexe Systeme in dynamischen Umwelten) konzipiert wurde als Entscheidungsunterstützung im Rahmen der Unternehmensführung. Das Konzept besteht insbesondere aus einem Management-Cockpit31 mit Real-Time-Simulationen von Kenngrößen und einem Memory-System, aus dem u. a. die Aufgaben, Kompetenzen, Verantwortlichkeiten, Gremien28 Vgl.
Beer, St. (1959), Cybernetics and Management, New York, John Wiley. Beer, St. (1975), Platform for Change Platform for Change, A Message from Stafford Beer, New York, John Wiley, Reprinted with corrections 1978. 30 Vgl. Hetztler, S. (2008), „Brain supporting environments“ für Entscheide in Komplexen Systemen, Diss.-Nr. 3459 der HSG, Schesslitz, S. 289 ff.; Hetzler, S. (2005), Operations Room. Die Organisation der Zukunft, Malik MZSG-Schriftenreihe OnlineBlatt 08 / 2005; Hetzler, S. (2005), Operations Room. Die Architektur richtiger Entscheidungen, Malik MZSG-Schriftenreihe Online-Blatt 02 / 2005. 31 Vgl. Daum, J. H. (2006), Management Cockpit War Room, in: Controlling, Heft 6, Juni 2006, S. 311–318. 29 Vgl.
360
Falko E. P. Wilms
beteiligungen, Informationszugänge und die Projekte, Methoden, Werkzeuge von jedem Mitarbeiter ebenso verfügbar sind, wie eine Datenbank der getroffenen Entscheidungen mit den dabei zugrunde gelegten Annahmen und Erwartungen sowie der Status aktuell noch laufender Projekte. Bei all der technischen Unterstützung der Kommunikation und der Informationsverarbeitung des Leitungsteams basiert die Qualität dieser Entscheidungsvorbereitung und die Akzeptanz der daraus resultierenden Ergebnisse auf nachvollziehbare, durch Versprachlichung einander zugänglich gemachter Denkprozesse der Beteiligten und genau hier kommt der Dialog ins Spiel. Literaturverzeichnis Albert, H. (1991 (zuerst 1968)), Traktat über kritische Vernunft, 5., verb. u. erw. Aufl., Stuttgart, UTB. Ashby, R. W. (1956), An Introduction to Cybernetics, London, Chapman & Hall Ltd. Ashby, W. R. (1967), The Place of the Brain in the Natural World, in: Currents in Modern Biology 1 (1967), S. 95–104. Baraldi, C. / Corsi, G. / Esposito, E. (1997), GLU, Glossar zu Niklas Luhmanns Theorie sozialer Systeme, Frankfurt am Main, Suhrkamp. Bateson, G. (1969), Ökologie des Geistes. Anthropologische, psychologische, biologische und epistemologische Perspektiven, Frankfurt am Main, Suhrkamp. – (1972), Steps to an ecology of mind, New York, Ballantine. Beer, St. (1959), Cybernetics and Management, John Wiley, New York. – (1975), Platform for Change Platform for Change, A Message from Stafford Beer, New York, John Wiley, Reprinted with corrections 1978. Bohm, D. (2002), Der Dialog, 4. Aufl., Stuttgart: Klett-Cotta. Buber, M. (2006), Das dialogische Prinzip, 10. Aufl., Gütersloh, Gütersloher Verlagshaus. Calori, R. (1992), Markets and Managers, in: Calori, R. / Lawrence, E. (Eds.), The Business of Europe – Managing Chance, London, Sage Publications. Daum, J. H. (2006), Management Cockpit War Room, in: Controlling, Heft 6, Juni 2006, S. 311–318. Goldman, A. (1999), Knowledge in a Social World, Oxford etc., Oxford University Press. Hartkemeyer, M. / Hartkemeyer, J. F. (2008), Das Dialogprojekt im Iran. Ein universales Prinzip der menschlichen Kommunikation, in: Profile – Zeitschrift für Veränderung, Lernen, Dialog, Heft Nr. 15 / 2008, S. 71–82.
Dialog als Kunst, gemeinsam zu denken361
– (2007), Zwischen vermeintlicher Gewissheit und unvermeidlicher Ungewissheit. Nichtwissen im Dialog, in: Zeuch, A. (Hrsg.) (2007), Management von Nichtwissen in Unternehmen, Heidelberg, Carl Auer Verlag, S. 177–197. – (2005), Die Kunst des Dialogs, Kreative Kommunikation entdecken, Erfahrungen – Anregungen – Übungen, Stuttgart, Klett Cotta. Hartkemeyer, M. / Hartkemeyer, J. F. / Dhority, L. F. (1998), Miteinander denken. Das Geheimnis des Dialogs, Stuttgart, Klett Cotta. Heckmann, G. (1993), Das Sokratische Gespräch. Erfahrungen in philosophischen Hochschulseminaren, Frankfurt a. M., dipa-Verlag. Hetzler, S. (2008), „Brain supporting environments“ für Entscheide in Komplexen Systemen, Diss.-Nr. 3459 der HSG, Schesslitz. – (2005), Operations Room. Die Organisation der Zukunft, Malik MZSG-Schriftenreihe OnlineBlatt 08 / 2005. – (2005), Operations Room, Die Architektur richtiger Entscheidungen, Malik MZSG-Schriftenreihe Online-Blatt 02 / 2005. Horster, D. (1994), Das Sokratische Gespräch in Theorie und Praxis, Opladen, Leske + Budrich. Isaacs, W. (2002), Dialog als Kunst, gemeinsam zu denken, Köln, Ehp. Johnson-Laird, P. N. (1988), The computer and the mind, Cambridge, Harvard University Press. Luhmann, N. (1990), Die Wissenschaft der Gesellschaft, Frankfurt am Main, Suhrkamp. – (1992), Kommunikation mit Zettelkästen, Ein Erfahrungsbericht, in: Kieserling, A. (Hrsg.), Universität als Milieu, Bielefeld, Haux, S. 53–61. – (1984), Soziale Systeme, Frankfurt a. M., Suhrkamp. Maturana, H. R. / Varela, F. J. (1984), Der Baum der Erkenntnis. Die biologischen Wurzeln des menschlichen Erkennens, München, Goldmann. Nelson, L. (1929), Die Sokratische Methode, Göttingen: Öffentliches Leben 1929. Norman, D. A. (1983), Some Observations in Mental Models, in: Gentner, D. / Stevens, A. L. (Eds.) (1983), Mental Models, N. J., Hilsdale, pp. 7–14. Platon (1986), Apologie des Sokrates; dt. und hrsg. von Manfred Fuhrmann, Ditzingen, Reclam. – (1997), Laches, dt. von Peter Gardeya, Würzburg, Königshausen & Neumann. Polanyi, M. (1966), The tacit dimension, Garden City, Doubleday. Raupach-Strey, G. (2002), Sokratische Didaktik, Münster u. a., Lit-Verlag. Spencer Brown, G. (1969), Laws of Form, London, Allen & Unwin. Stavemann, H. H. (2007), Sokratische Gesprächsführung in Therapie und Beratung, Weinheim: Beltz.
362
Falko E. P. Wilms
Susanne, E. (2008), Dialog als kreativer Denkraum in modernen Organisationen, in: Aufsichtsrat aktuell, Heft 1 / 2008, S. 24–26. Taylor, J. R. / Lerner, L. (1996), Making Sense of Sensemaking, in: Studies in Cultures, Organizations and Societies, Vol. 2.2, S. 259 ff. Weick, K. E. (1995), Sensemaking in Organizations, London, Sage Publications Ltd. Willke, H. (1996), Systemtheorie I, Grundlagen, 5. Aufl., Stuttgart, Lucius & Lucius.
Forum 6
Modellierung und Simulation für Innovationsprozesse
Cooperation and Egoism in a World with Innovation – a Game Theoretic Analysis By Andreas Thümmel
A. Introduction Game Theory gives an approach for finding best strategies (better: best strategic behavior) for management decisions1. Behavior means also a general behavior like moral or culture. This is important for a decision under uncertainty and cooperation or competition against the other players in the market. i. e. in the social-economic network. The game is mainly defined by the rules for the game, by (reasonable) strategies in the different game situations, the dynamic and the information. Target is to find a general best behavior in the sense of a basic philosophy, how to deal in conflicts with the different partners and competitors during time. This works by a replacement of weaker strategy through stronger ones in time, and gives also hints for a general weak behavior. The Word coopetition2 gives an idea of the situations, where one has to provide goods or services (technology, knowhow) in a cooperative market, but also has to keep his own interests to be strong in the related environment, i. e. just wants to survive economically. In particular, in such difficult decision situations like we have in our modern highly interactive industry networks, which are influenced by the coopetition between customers and suppliers all over the production phases, the question arises whether there is a general basic strategy which is superior (dominant) to all other strategies in time in particular market related and innovation driven situations.
1 See 2 See
Axelrod (1984). Nalebuff / Brandenburger (1996).
366
Andreas Thümmel
B. The Game Approach The approach to study elementary behavior in time is the evolutionary game theory3. The technique to do such simulations is agent based simulation4. Therefore a set of agents, a population in a closed artificial (simplified) world, were defined. All agents has implemented (like a genome) a basic behavior, the so called arche types or generic types5. These agents are connected to each other in a network; they are doing their business with each other, following mainly their implemented rules of behavior. Because of the results of these one-to-one deals, a life strength number was recalculated. If the strength number of an agent goes under a specific limit, the agent dies (dying process for bankruptcy of the agent firms) … and can be substituted by another agent (birth process). The game and the related processes also have some stochastic elements inside. The generic behavior of a new agent given by a birth process is random. Especially at the beginning of the game the world must be populated with agents; this is done by a multiple birth process with random agent population density. The agents businesses are randomly done with one of the direct agent neighbours6. This means, the relations of the firms to each other is given geometrically in the defined network. Indirectly all agents are connected via bridging agents. The agents also can make interaction failures randomly. This means, they behave wrong with a certain probability compared to their generic behavior. Also a mutation is allowed randomly. This means, an agent can change his arche type and can behave in a different way as it was given at the agents birth. For such a behavior change also a probability is defined. Quite another additional effect is defined for the agents, a memory. This means, an agent can “remember” the result of an interaction with an agent of a specific generic behavior type.
3 See
Csanyi / Kampis (1991). Bonabeau (2002). 5 See Axelrod (1984). 6 See Grams (2007). 4 See
Cooperation and Egoism in a World with Innovation367
I. The Basic Game: Prisoners Dilemma The basic game for any one-to-one interaction between the agents is the so called Prisoners Dilemma7. The game in extensive form is:
Figure 1: Prisoner’s Dilemma
The dominant strategy (Nash equilibrium) of this game is to defect. With this setup one can ask, how cooperation can be and exist in such a (economic) world … At first one can see, that if everyone is defecting, only the third best result can be reached during the interactions. The result “0” is compared with the possible results “2” and “4” really poor. And by a coordinated change of the decision (behavior) the result “2” can lead to a better result for both actors. So it seems to be better to cooperate … but the crux is: both players have to do so. If one defects and the other one cooperates, the defector gets the best result for the game, and the cooperator has a loss. The idea to analyse this problem is to repeat this game and to define a set of (realistic, useful) behaviors, which makes also a kind of learning possible. For learning the results of the single one-to-one games were stored in the agents memory. The behavior of such a learning agent now is dependent of his experience in time for the business. So every learning agent can make specific decisions to the partners in every interaction, and the behavior then perhaps is changing in time. Another question now is: are the leaning strategies better then the “naïve” (say pigheaded …) strategies? Is learning by doing (the buiseness) meaningful? Or may it be better also to forget and to decide just based on the current situation (information)? 7 See
Axelrod (1984).
368
Andreas Thümmel
II. The Evolutionary Game Setup and Realization To program the simulations for these experiments the commercial tool AnyLogic8 was used. It is Java based and therefore very flexible and easy to program for the prescribed needs. There are set up different arche types for these two dimensions of cooperation / coopetition and the innovation level, resp. Cooperation / Competition: •• Tit-for-Tat: an optimistic and reactive strategy; the general first behavior to a dealing partner is cooperation, unless this partner was defecting. Then the T-f-T agent defects all future deals, unless the partner cooperates, and so on. •• Always Defecting: this agent type is generally choosing the defecting strategy. •• Always Cooperation: the opposite of the Always Defecting strategy. •• Pawlow: the behavior will be calculated based on the experience in dealing with the interacting agents in time. For this arche type a memory of specific length is given. The choosen interaction behavior will be given based on a valuation of the interaction results in the past time of the game. •• Random: the interaction behavior is chosen randomly. Innovation: •• None Innovative: this behavior is a strategy just for producing the products with a minimal innovation, just copying and licensing. This is the minimum risk and minimum amount strategy respect to innovation. •• Less Innovative: doing just the most important needs for the product development; the necessary innovation should be done by partners. Strategy for less risk and medium cooperation. •• Medium Innovative: development of products is driven by a higher amount; also transfer to other product lines, particularly support for partners is done. Strategy medium risk and cooperative. •• High Innovative: This agent wants to be a leader in innovation on any related fields for the agent related products. Highly cooperative but also high risks (and chances). 8 www.AnyLogic.com.
Cooperation and Egoism in a World with Innovation369
The innovation degrees given here are defined additionally to the agent interaction behavior and are given at agents birth randomly by unique probability. So the game then is played in two phases: •• At first the basic behavior of the agents decides about the result of the interaction. •• Secondly, the interaction result will be shifted by the innovation success, and then manipulates the life strength value of the agents.
C. Results The simulation runs need a huge number of iterations (rounds). Often just after a while one clearly dominant strategy takes the lead. But also often the race between the strategies shows the early (immediate …) loosers of the game. I. Documentation of the Simulation Runs The next graphics gives one typical development of the strategies during a simulation:
Figure 2: Simulation Runs
370
Andreas Thümmel
This picture shows the typically development for the agent types during one simulation run. At first all types are equally spreaded in the world. Then, the black regions show a heavily dying, and after a while the dominant strategy T-f-T and less given Spite have populated almost the whole world. This world then is stable, i. e. the disturbances by mutation and decision failures do not producing instabilities or a shift to other strategies. This end state then is in some sense a harmonic side by side … The results of the simulation runs has been also analyzed by a statistical tool (Minitab9). The following graphic gives a time series plot for the quantification of the strategy distribution of ten runs:
Figure 3: Strategy Prevailance in Simulation Runs
As seen in this example for ten runs the black dotted lines are the T-f-T strategy for medium innovation. The red line represents agent type Spite. One can see the domination, which is in almost all time sections given and permanently growing up to a certain time step.
9 www.minitab.com.
Cooperation and Egoism in a World with Innovation371
II. Summary and Interpreting the Results The main results can be given as follows: •• Always successful: Tit for Tat and medium innovative. The capturing of the world is after some rounds more than 70 % in more than 90 % of all runs. This depends not on the appropriate parameters for randomness. •• Sometimes successful, or at the beginning strongly successful with a going down in time, resp., was type Spite and Pawlow in combination to medium and less innovative. But the less innovation strategy has no long range success (just at the beginning of the game the population in some cases was stable up to a point, where the more successful strategies T-f-T are hitting them (by evolutionary progress). •• The success of the Tit for Tat and Spite was given by building blocks of same or friendly acting agents. So they build a frontier with a stronger background of friendly supporters, say, where they can earn profit to compensate losses given by unfriendly agents on front or to conquer the weak agent type regions. •• Never successful: types cooperation and always defecting, in any combination for the innovation, and the innovation strategies none innovation and high innovation were never successful and were eliminated often very quick from the game.
D. Interpretation and Outlook The results show, that the strategy Tit-for-Tat in combination with a moderate innovation strategy, based on coopetition (by respecting the cooperation, but also having a sound egoism) and common steps forward are dominant strategies in a innovation driven economic world. Innovation is important, but it only works in a similar environment, which is also friendly. Other strategies will be captured by the better strategies, for the game this is only a question of time. Therefore some results from (static) game theory, which recommends high innovation action and also defecting (non-cooperation) as, say, shelter mechanisms for the Know How and for the expensive and riskiness innovative development investments, can be wrong. The recommended behavior based on the given game results here is to “give and take as you behave to me”. The simulations also show, that a defecting and sheltering behavior are only be successful in a short or medium time frame. Another remarkable result is: the learning behavior is just in short or medium time frames able to survive. For long term relations these strategies
372
Andreas Thümmel
were dominated by the coopetitive and current time decision making behaviors. This gives also a direct a bridge to Bellman’s optimality principle in economy. The dominant behavior may answer defecting by defect, and is friendly to the cooperating types. This is independent of any further culture, this result is just business driven. This perhaps gives hints for the business behavior also for far away markets in a globalized world, esp. China, the Far East and other foreign cultural social economic networks. At least the behavior of non-profit organizations and their role in a economic world has to be discussed. How should such “firms” like Universities behave in interactions with industry partners, when they are “programmed to loose” by just being cooperative and friendly to “the – economic – world”? Who is paying this losses and who is earning the profits in such games, and what is the behavior in the future, when Universities should be profitable? References Axelrod, R. (1984), The Evolution of Cooperation, Basic Books (NY). Bonabeau, E. (2002), Agent-Based modeling: Methods and techniques for simulating human system, PNAS Colloquium. Csanyi, V. / Kampis, G. (1991), Evolutionary Systems and Society: a general Theory, Duke Univ. Press. Grams, T. (2007), Evolution kooperativen Verhaltens, Working-Paper. Nalebuff, B. / Brandenburger, A. (1996), Coopetition, Doubleday Books (NY). Tushman, M. L. / Anderson, P. (2004), Managing Strategic Innovation and Change, Oxford Univ. Press.
Produktdiffusion in „the Long Tail“ Von Andreas Größler Zusammenfassung Ziel des Beitrags ist, den Long-Tail-Effekt zu beschreiben und zu klären, welche Auswirkungen er auf die Diffusion von Produkten hat. Die Ausführungen basieren größtenteils auf einem illustrativen System-Dynamics-Modell, welches die relevanten Zusammenhänge darstellt und prototypische Verhaltensuntersuchungen ermöglicht. Als ein Ergebnis lässt sich festhalten, dass die Produktdiffusion in „the long tail“ im Wesentlichen auf effektiven Kommunikations- und Selektionstechniken beruht. Ohne die entsprechenden organisatorischen und technischen Voraussetzungen lässt sich der Long-Tail-Effekt von Unternehmen daher nicht ausnutzen. Die vorliegende initiale Studie soll insbesondere durch empirische Parametrisierung des Simulationsmodells fortgeführt werden.
A. Problemstellung und Relevanz Produkte, die über klassische Absatzkanäle vertrieben werden, erreichen in der Regel nur lokale Märkte und sind oft charakterisiert durch relativ hohe Distributions- und Lagerkosten. Werden diese jedoch über das Internet vertrieben und durch spezialisierte Dienstleister direkt zum Endkunden geliefert, erweitert sich der Verbreitungsraum (und damit die Anzahl der potenziellen Kunden), während gleichzeitig die Distributions- und Lagerkosten geringer werden (oder – wenn digitale Produkte betrachtet werden – gar null sind). Mithilfe intelligenter Such- und Bewertungsmechanismen werden Kunden in die Lage versetzt, Produkte zu finden, die auch spezielle Anforderungen und Wünsche erfüllen. Dieses „the Long Tail“ genannte Phänomen1 erlaubt Unternehmen auch kleinste Nischenmärkte zu bedienen; im Gegensatz dazu konnten zuvor nur Produkte mit relativ großer Zielgruppe profitabel produziert und vertrieben werden. Nehmen wir beispielsweise an, jemand hätte ein gesteigertes Interesse an mittelalterlichen Benediktinerklöstern in Frankreich. Bis vor ca. 15 Jahren wäre dieses Interesse ziemlich isoliert und unerfüllt geblieben: es war schwierig, Literatur zu beschaffen, Gleichgesinnte zu treffen, Bezüge zu 1 Siehe
Anderson, 2006.
374
Andreas Größler
anderen Sachgebieten herzustellen. Am Beispiel der Literaturbeschaffung sieht man den Unterschied zu heute: gibt man ein paar Stichwörter bei einem Internet-Versandbuchhändler ein, erhält man immerhin z. B. sechs Treffer für entsprechende Bücher bei Amazon, die − versandkostenfrei − angeboten werden. Bücher über mittelalterliche Benediktinerklöster in Frankreich sind typische „Long Tail“-Produkte: sie haben nur eine kleine potenzielle Leserschaft, können wegen einer ungünstigen Aufwands- / Ertragsrelation nicht mit klassischen Mitteln beworben werden, werden oft lange Zeit gar nicht nachgefragt, und erzielen nur eine geographisch weit verstreute Nachfrage. Im Allgemeinen wird „the Long Tail“ folgendermaßen definiert: Die Verfügbarkeit (quasi) unbegrenzter Produktauswahl aufgrund von fehlenden oder nur marginalen Lager- und Distributionskosten.2 Besondere Relevanz hat das Phänomen für digitale oder digitalisierbare Produkte. Die nahezu unbegrenzte Produktauswahl zeigt sich beispielsweise darin, dass ein klassischer (durchaus großer) Buchladen ca. 10.000 Bücher vorrätig hat; Amazon aber beispielsweise Zugriff auf 1,5 Mio. Bücher bietet. Die Lagerung der Produkte findet auf der „grünen Wiese“, d. h. nicht in teuren Innenstadtlagen statt. Spezialisierte Logistikdienstleister ermöglichen geringe Versandkosten von diesen Distributions- und Lagerzentren zu den Kunden. Abbildung 1 zeigt den Long-Tail-Effekt nochmals graphisch. Auf der XAchse ist die Breite des Angebots wiedergegeben. Die Y-Achse zeigt die Verkäufe pro Produkt. Im Long-Tail-Markt können nun zwar eventuell nicht so hohe Umsatzraten für die „Hits“ genannten umsatzstärksten Produkte erzielt werden, dafür sind die Umsätze bei den Nischenprodukten höher und es können auch generell mehr solcher Nischenprodukte angeboten werden. Die bekannte 80 / 20 Regel wird durch den „Long Tail“ also außer Kraft gesetzt, dass mit 20 % des Produktangebots 80 % des Umsatzes generiert werden. Beim „Long Tail“ handelt sich auch insofern um einen dynamischen Effekt, dass Beschleunigung abgebaut wird: Produkte müssen ihre Entstehungskosten nicht mehr in kurzer Zeit amortisieren, sondern haben dafür mehr Zeit, da Sie länger angeboten werden können. In gleicher Weise fallen oftmals weniger Marketingkosten fallen an, die amortisiert werden müssen, da bei Nicht-Hits kein oder nur „Guerilla-Marketing“ stattfindet. Der Beitrag hat zum Ziel, Faktoren und Verhaltensmuster zu identifizieren und zu beschreiben, die die Diffusion von Produkten in klassischer Weise von der des „Long Tail“ unterscheidet. Darüber hinaus sollen erfolg2 Siehe
ebd.
Produktdiffusion in „the Long Tail“375
Abbildung 1: Schematische Darstellung des Long-Tail-Effekts
reiche Strategien für Unternehmen in Long-Tail-Märkten aus den Analysen abgeleitet werden. Im folgenden Abschnitt wird dazu die methodische Grundlage des Beitrags in Form eines illustrativen System-Dynamics-Modells vorgestellt. Der daran anschließende Abschnitt präsentiert und erläutert die Ergebnisse der Modellierung und Simulation. Im letzten Teil werden die Erkenntnisse diskutiert und mögliche weitere Forschung dargestellt.
B. Methodisches Vorgehen Als methodische Grundlage verwendet die Studie ein illustratives Simulationsmodell auf Basis von System Dynamics.3 Dieses wird in seiner Struktur beschrieben, wobei es dadurch möglich wird, Zusammenhänge zwischen verhaltensbestimmenden Faktoren zu erkennen und zu spezifizieren. Mittels des formalen Modells werden dann Simulationsexperimente durchgeführt, die die Auswirkungen von Diffusionsprozessen mit „Long Tail“-Charakteristika im Vergleich zur klassischen Diffusion erkennen lassen. Außerdem werden Ansatzpunkte für eine empirische Kalibrierung des Modells und dessen Evaluation vorgestellt. Strukturell ähnelt das Modell in seiner rechten Hälfte einer systemdynamischen Repräsentation des so genannten Bass-Modells zur Diffusion von 3 Vgl.
Forrester, 1961; Sterman, 2000.
376
Andreas Größler
Abbildung 2: Stock-Flow-Diagramm eines illustrativen System-Dynamics-Modells
Produkten4, wie sie bspw. auch von Milling und Maier verwendet wurde5. Die Diffusion eines Produktes findet im Wesentlichen aufgrund von Kommunikation statt. Es unterscheidet zwei grundsätzliche Typen von Kunden: Innovatoren und Imitatoren. Innovatoren kaufen ein Produkt, weil sie an Neuigkeiten interessiert sind und eventuell durch Werbung in ihrer Entscheidung beeinflusst wurden; ihre Kaufentscheidung hängt in keiner Weise vom Verhalten von und dem Kontakt zu anderen Kunden ab (externe Kommunikation, Massenkommunikation). Bei Imitatoren ist dagegen die Entscheidung, ein Produkt zu kaufen, vom Verhalten anderer Kunden abhängig (interne Kommunikation, persönliche Kommunikation). Eine Erweiterung dieses Modells und für „Long Tail“-Betrachtung entscheidend ist insbesondere die linke Hälfte des Diagramms in Abbildung 2. Dieser Teil des System-Dynamics-Modells repräsentiert den Sachverhalt, dass grundsätzlich Interessierte zunächst über das Vorhandensein eines Produktangebots informiert sein müssen, um zu potenziellen Käufern des Angebots zu werden. Strukturell hängt dieser Übergang von uninformierten zu potenziellen Kunden von den Produktcharakteristika, der Information durch die Anbieter, der Möglichkeit zur Selbst-Information und von bereits vorhandenen Käufern ab, die über das Produkt kommunizieren. 4 Siehe 5 Vgl.
Bass, 1969. Milling, 1996; Maier, 1998.
Produktdiffusion in „the Long Tail“377
C. Ergebnisse Für eine exemplarische Parametrisierung ergibt sich zunächst ein wenig spektakuläres Verhalten (siehe Abbildung 3): für Nicht-Hits finden sich scheinbar wenige Käufer; für Hits dagegen erfolgt eine weitgehende Diffusion in der gesamten potenziellen Kundengruppe. Bei den Hits ergeben sich für konventionelle Märkte leichte Vorteile, da Kunden ihr Interesse stärker in Richtung auf verfügbare Produkte, d. h. auf Hits ausrichten (mangels Informationen über Alternativen). Tabelle 1 Anzahl tatsächlicher Käufer zum Ende der Simulation für die vier Szenarien Szenario
Anzahl tatsächliche Käufer
Hit OldEconomy
849.829
Hit NewEconomy
841.764
Differenz in % 0,9
Non-Hit OldEconomy
313 861
Non-Hit NewEconomy
3.007
Lässt man sich durch die Skalierung der Graphen nicht täuschen, ergibt sich aber ein anderes Bild. Für Hits unterscheidet sich die Diffusion in der Tat kaum, sehr wohl aber für Nicht-Hits. Betrachtet man beispielsweise die Anzahl der tatsächlichen Käufer am Ende des Simulationszeitraums, ergeben sich die in Tabelle 1 dargestellten Werte (ausgehend von einem Startwert für die Gesamtpopulation von 1 Mio. Personen). Es ist zu erkennen, dass sich die Simulationsergebnisse bei den Hits nur geringfügig (um 0,9 %) unterscheiden. Der leicht größere Wert für das OldEconomy-Szenario ergibt sich aus dem Sachverhalt, dass in diesem Marktumfeld davon auszugehen ist, dass mehr Personen an den Hits interessiert sind (insbesondere zu Beginn des Simulationszeitraums), da sie eventuelle anderweitige Interessen mangels Angebot nicht verfolgen können. Für Non-Hits ergibt sich ein grundlegender Unterschied zwischen den beiden Marktformen (OldEconomy und NewEconomy in den Simulationsszenarien). Während in einem OldEconomy-Szenario nur etwa 300 Stück des Produkts verkauft wurden, sind es im NewEconomy genannten Szenario mehr als 3000, d. h. es findet beinahe eine Verzehnfachung der Nachfrage
378
Andreas Größler
Abbildung 3: Simulationsergebnisse für die drei Stocks des Modells (angegeben für jeweils vier Szenarien)
statt. Nicht-Hits werden dadurch für die Anbieter profitabel. Zusätzlich muss für Long-Tail-Märkte davon ausgegangen werden, dass Produkte quasi unendlich lange gelagert und damit angeboten werden können, so dass über eine langen Zeitraum jede Nachfrage nach den Nischenprodukten gedeckt werden kann.
Produktdiffusion in „the Long Tail“379
D. Diskussion Produktdiffusion lässt sich als dreistufiger Prozess darstellen: noch nicht erreichte Personen, potenzielle Kunden, tatsächliche Kunden. Da bei der Diffusion in Long-Tail-Märkten quasi keine zeitlichen und kostenbezogenen Restriktionen anfallen, kann davon ausgegangen werden, dass alle potenziellen Kunden früher oder später zu tatsächlichen Kunden werden (dieser Vorgang basiert dann auf den vom Bass-Modell bekannten Effekten der Innovation und der Imitation)6. Ob aus noch nicht erreichten Personen potenzielle Kunden werden, hängt dagegen insbesondere von den drei folgenden technologie-basierten Kommunikationsmechanismen ab: •• Information durch die Unternehmen (beispielsweise durch Webseiten, EMails, vorteilhaftes Ranking in Suchmaschinen): solcherart Information von Herstellern gab es natürlich schon immer (in Form klassischer Werbung); das Internet erlaubt aber neue, zielgerichtete Adressierung von Interessen der Kunden. •• Information durch andere (potenzielle) Kunden (z. B. in Foren, Blogs, Chatrooms): insofern basiert der ökonomische Long-Tail-Effekt auf einem sozialen, kulturellen Phänomen: ich tausche mich mit Gleichgesinnten über geographische Grenzen hinweg aus. •• Selbständig gesuchte Information (etwa durch Besuch von Empfehlungsseiten, Suchmaschinen): der Long-Tail-Effekt beruht daher auch auf der Produktion von Informationen durch den Konsumenten, der dadurch zum „Prosumer“ wird7. Der Long-Tail-Effekt ist also ohne das Internet nicht denkbar, da nur das Internet die entsprechende Infrastruktur bereitstellt, um die vielfältig notwendigen Kommunikations- und Informationsakte zu gewährleisten. Nicht zu vernachlässigen sind aufgrund der scheinbar unbegrenzten Datenfülle jedoch Vorkehrungen, um zwischen den vielfältigen Produktalternativen zu einer angemessenen Entscheidung zu kommen. Andernfalls werden Kunden Kaufentscheidungen vermeiden, aufschieben oder doch zumindest bereuen, was die Wiederkaufwahrscheinlichkeit vermindert. Dieser als „Paradox of Choice“ bezeichnete Effekt besagt, dass Menschen mit großer Auswahl (bzgl. Produkten, Freizeitgestaltung, Partnerwahl) oftmals nicht zufriedener sind.8 Auswahlmöglichkeiten sollten also in sinnvoller Weise strukturiert werden, um die kognitive Leistungsfähigkeit des Menschen nicht zu überfordern. 6 Vgl.
Bass, 1969. Toffler, 1980. 8 Vgl. Schwartz, 2004. 7 Vgl.
380
Andreas Größler
Literaturverzeichnis Anderson, C. (2006), The Long Tail: Why the Future of Business Is Selling Less of More. B&T. Bass, F. M. (1969), A New Product Growth Model for Consumer Durables. Management Science 15(5), 215–227. Forrester, J. W. (1961), Industrial Dynamics. MIT Press. Maier, F. H. (1998), New Product Diffusion Models for Decision Support in Innovation Management, in: System Dynamics Review, Vol. 14, S. 285–308. Milling, P. (1996), Modeling Innovation Processes for Decision Support and Management Simulation, in: System Dynamics Review, Vol. 12, S. 211–234. Schwartz, B. (2004), The Paradox of Choice: Why More Is Less. B&T. Sterman, J. D. (2000), Business Dynamics. McGraw-Hill. Toffler, A. (1980), The Third Wave. Bantam.
Die Bedeutung der Aufmerksamkeit des Managements auf Stakeholder für eine innovative Ausrichtung von Unternehmen Von Nicole Zimmermann und Peter Milling
A. Notwendigkeit der Berücksichtigung der Aufmerksamkeit des Managements Theorien des Wandels von Organisationen und des strategischen Managements gehen im Allgemeinen davon aus, dass Entscheidungsträger entsprechend ihren Überzeugungen Wandel hin zu einer innovativeren Ausrichtung von Unternehmen veranlassen und steuern.1 Entscheider evaluieren eine Situation zunächst. Im Anschluss an die Bewertung einer Situation wählen ihre Ziele, bevor sie im letzten Schritt ihre Strategie wählen und Aktionen planen.2 March argumentiert jedoch, dass Theorien des menschlichen Entscheidens besser als Theorien der Aufmerksamkeit des Managements beschrieben werden. Entscheidungstheorien zeigen auf, wie Entscheidungsträger ihre knappe Aufmerksamkeit verteilen.3 Aufmerksamkeit kann dabei als das Ausmaß des Bewusstseins von etwas oder als Orientierung hin zu etwas verstanden werden. Die wenigsten Ansätze berücksichtigen, dass Überzeugungen und Handlungen des Managements oft dadurch beeinflusst werden, welchen Gruppen (Stakeholdern) das Management Aufmerksamkeit schenkt. Seltene Ansätze, welche Aufmerksamkeit auf Gruppen einschließen, betrachten oft nicht, wie sich die Aufmerksamkeitsverteilung wiederum auf Wandel der Unternehmung auswirkt. Dies soll im vorliegenden Beitrag geleistet werden. Der Schwerpunkt liegt demnach auf Entscheidungen des Managements und auf der Analyse der Einflüsse auf dessen Entscheidungsfindung. Dieser Beitrag soll aufzeigen, wie sich die Aufmerksamkeit des Managements auf Stakeholder entwickelt. Hierzu werden zunächst zwei bedeutende 1 Vgl. Carpenter / Geletkanycz / Sanders (2004); Finkelstein / Hambrick / Cannella Jr. (2008); Hambrick / Mason (1984); Naranjo-Gil / Hartmann / Maas (2008). 2 Vgl. Chandler (1962), S. 8 und 383; Child (1972), S. 1–6, 13–16, und 19; Child (1997), S. 48; Greenwood / Hinings (1996), S. 1048. 3 s. March (1994), S. 10.
382
Nicole Zimmermann und Peter Milling
Ansätze der Aufmerksamkeit von Entscheidern vorgestellt, bevor auf das methodische Vorgehen in diesem Beitrag näher eingegangen wird. Im Anschluss wird eine Fallstudie der New York Stock Exchange vorgestellt. Die Aufmerksamkeitsverteilung des Managements auf bedeutende Stakeholder wird analysiert und strukturdynamische Überlegungen davon abgeleitet.
B. Angelegenheiten und Interessengruppen im Fokus der Aufmerksamkeit Die aufmerksamkeitsbasierte Perspektive von Unternehmen hat seit Ende der 1990er Jahre große Bedeutung erlangt. Sie bezieht sich in vielen Bereichen auf die verhaltenswissenschaftliche Organisationstheorie und im Besonderen auf Arbeiten von Herbert Simon.4 Letzterer diskutierte schon um 1950 die Relevanz der Aufmerksamkeit des Managements. Begrenzte Rationalität liegt seiner Meinung nach den Entscheidungen von Individuen und Organisationen zugrunde. Individuen entscheiden anhand ihres mentalen Modells, also auch anhand dessen, wie sie eine Situation wahrnehmen.5 Nach Simon sind Organisationen komplexe Netzwerke von Aufmerksamkeitsprozessen.6 Die Allokation von Aufmerksamkeit ist für Entscheidungen in Unternehmen demnach zentral. Sie ist stark mit begrenzter Rationalität sowie dem Fortschreiben von Routinen verbunden. Laut Ocasio ist die aufmerksamkeitsbasierte Sichtweise in der Lage zu erklären, wie sich Organisationen an sich wandelnde Umwelten anpassen. Das Ausbleiben von Anpassungen sieht er im Ausbleiben der Aufmerksamkeit auf relevante Angelegenheiten begründet. Durch selektive Verteilung begrenzter Aufmerksamkeit wird nur ein Ausschnitt der Umwelt wahrgenommen. Zusätzlich hat die Umwelt einen Einfluss darauf, worauf sich Entscheidungsträger fokussieren. Dabei stellen vergangene Entscheidungen auch ein Element des derzeitigen Entscheidungskontexts dar.7 Weitere Untersuchungen konzentrieren sich vor allem darauf, wie Aufmerksamkeit durch Routinen und begrenzte Rationalität geprägt werden kann. Bezüglich der Wirkung von Routinen auf die Innovationskraft sind die Meinungen geteilt; Feldman hebt innovative Routinen hervor, die als Quelle von Flexibilität gelten; auch laut March erhöhen Erfolge nachfolgende innovative Aktivität.8 Lange Zeitabschnitte, in denen sich ein Unterneh4 Vgl.
Ocasio (1997); Simon (1949). March / Simon (1958), S. 150–151. 6 Vgl. Simon (1949), S. 220–222. 7 Vgl. Ocasio (1997), S. 190–191, 193, 199 und 204. 8 Vgl. Feldman / Pentland (2003); Feldman (2000); March (1994), S. 33–35. 5 Vgl.
Bedeutung der Aufmerksamkeit des Managements auf Stakeholder383
men wenig wandelt, lassen es allerdings auch erstarren und machen es reaktionsträge. Dieser sich selbst verstärkende Mechanismus wird durch entsprechende Rekrutierung, Sozialisierung, Training und Führungsverhalten unterstützt.9 Studien belegen, dass längere Phasen des Erfolgs zu strategischer Trägheit sowie Unaufmerksamkeit führen, während schlechte Leistungen das Vertrauen in bestehende Strategien mindern und häufig eine Neuausrichtung an veränderten Umweltbedingungen nach sich ziehen.10 Es gibt keine eindeutige Antwort darauf, ob innovative und erfolgreiche Organisationen ihren Erfolg weiterführen können, da positive sowie negative Rückwirkungen durch den Erfolg in Gang gesetzt werden. Eindeutig ist indessen, dass der Aufmerksamkeit eine wichtige Rolle zukommt, da eine Tendenz besteht, die Aufmerksamkeit aufgrund vergangener Erfolge routinemäßig wieder ähnlich zu verteilen. Die Autoren der aufmerksamkeitsbasierten Perspektive – Simon, Ocasio und andere – stellen das Unvermögen von Entscheidern in den Vordergrund, sich adäquat an die Umwelt anzupassen, da sie durch ihre begrenzte Rationalität ihre Aufmerksamkeit auf verschiedene Angelegenheiten nicht adäquat verteilen können. Aufmerksamkeit bezieht sich auf präferierte Angelegenheiten und oft nicht auf diejenigen Probleme in der Unternehmensumwelt, welche anzeigen, dass Veränderungen innerhalb der Organisation dringend nötig sind. Ebenso konzentriert sich die Aufmerksamkeit von Entscheidungsträgern laut der aufmerksamkeitsorientierten Perspektive auf Probleme und mögliche Lösungen. Es wird nicht betrachtet, dass sich die Umwelt von Entscheidern auch als Interessengruppen darstellen könnte, sowie sich die Aufmerksamkeit dann nicht mehr nur auf Angelegenheiten, sondern auf die unterschiedlichen Gruppen (Stakeholder) verteilt. Aufmerksamkeit auf Gruppen findet in einem Teilbereich der StakeholderTheorie größere Betrachtung. Diese Theorie befasst sich damit, wie Interessengruppen Unternehmen beeinflussen und von diesen beeinflusst werden. Der Stakeholder-Ansatz kann wertvolle Einsichten über die Entwicklung der Aufmerksamkeit von Entscheidern liefern. Mitchell, Agle und Wood fügen diesem Ansatz einen weiteren Blickwinkel zu, indem sie ihn durch eine deskriptive Theorie der Salienz von Interessengruppen erweitern, um die Bedingungen zu erklären, wann Manager bestimmte Stakeholder als wichtig erachten.11 Es wird die Aufmerksamkeit des Managements auf Interessengruppen sowie auf deren Ziele betrachtet. Wie Abbildung 1 zeigt, gehen Mitchell et al. davon aus, dass die Salienz von Interessengruppen von drei 9 Vgl. Tushman / Romanelli (1985), S. 192; bezugnehmend auf Argyris / Schön (1978). 10 Vgl. Audia / Locke / Smith (2000), S. 849 und Miller (1994), S. 338–345. 11 Vgl. Mitchell / Agle / Wood (1997), S. 853.
384
Nicole Zimmermann und Peter Milling
Abbildung 1: Stakeholder-Theorie nach Mitchell, Agle und Wood
Aspekten abhängt: erstens der wahrgenommenen Stärke der Stakeholder, zweitens der wahrgenommenen Dringlichkeit, mit der sie für ihr Ziel kämpfen, und drittens ihrer wahrgenommenen Legitimität in der Gesellschaft. Agle, Mitchell und Sonnenfeld testen die Theorie der Stakeholder-Attribute und -salienz empirisch. Sie finden Unterstützung für ihre Hypothesen, dass Stärke, Dringlichkeit und Legitimität die Salienz fördern. Laut der Studie von Agle et al. ist Dringlichkeit der stärkste Indikator.12 Andere Studien basieren auf demselben Bezugssystem zur Stakeholder-Salienz und testeten es ebenfalls.13 Eine von ihnen bestätigt Dringlichkeit als das einflussreichste Attribut.14 Drei weitere Studien zeigen, dass ‚Power‘, also Stärke der bedeutendste Indikator für Salienz bzw. Aufmerksamkeit ist.15 In einem weiteren Forschungsprojekt konnte der positive Effekt von ‚Power‘ bestätigt werden, aber die Resultate bezüglich Legitimität und Dringlichkeit waren situationsabhängig bzw. insignifikant.16 Demnach lässt sich bisher empirisch kein eindeutiges Beeinflussungs-Gerüst nachweisen. Die unterschiedlichen und vor allem auch gegensätzlichen Ergebnisse deuten auf Dynamiken innerhalb der Faktoren hin. Demnach mag sowohl die Stärke der Einflussfaktoren als auch die Aufmerksamkeit des Managements über die Zeit nicht konstant sein. Bezüglich der Implementierung hat sich in der Literatur ethischer Initiativen oder sozialer Verantwortung gezeigt, dass diese Initiativen implementiert werden, wenn der äußere Stakeholder-Druck groß ist und die Kernkompetenz des Unternehmens betrifft. Außerdem wird die Implementierung 12 Vgl.
Agle / Mitchell / Sonnenfeld (1999), S. 520. Agle / Mitchell / Sonnenfeld (2000), S. 47; Knox / Gruar (2007), S. 127; Magness (2008), S. 187–190; Winn (2001), S. 159–160. 14 Vgl. Fernández Gago / Nieto Antolín (2004), S. 71. 15 Vgl. Harvey / Schaefer (2001), S. 253; Parent / Deephouse (2007), S. 9, 13 und 17; Ryan / Schneider (2003), S. 416. 16 Vgl. Eesley / Lenox (2006), S. 777. 13 Z. B.
Bedeutung der Aufmerksamkeit des Managements auf Stakeholder385
wahrscheinlicher, wenn ein Nichthandeln eine Schädigung des Rufs eines Unternehmens oder Marktanteilsverluste nach sich ziehen würde.17 Somit existieren mit der aufmerksamkeitsbasierten Perspektive und dem Stakeholder-Ansatz zwei unterschiedliche Theoriegerüste von denen das erstere eher Management-Attribute und das zweite die Attribute der Stakeholder zum Gegenstand hat (siehe Tabelle 1). Die aufmerksamkeitsbasierte Perspektive betrachtet begrenzte Rationalität und Routinen als Bestimmungsgrößen von Aufmerksamkeit und versucht, Aussagen über die Frage von Anpassung und Trägheit zu generieren. Der Stakeholder-Ansatz betrachtet die Beeinflussung von Entscheidungen durch Interessengruppenattribute. Auch hier wird davon ausgegangen, dass bestimmte Attribute die Implementierung von Forderungen begünstigen.
Tabelle 1 Bestimmungsgrößen und Folgen von Management- und StakeholderAttributen bezüglich der Aufmerksamkeit des Managements Management-Attribute
Stakeholder-Attribute
Bestimmungsgrößen
Begrenzte Rationalität Routinen
Stärke Dringlichkeit Legitimität
Folgen
Aufmerksamkeit
Salienz Aufmerksamkeit
Trägheit und Wandel
Implementierung von Forderungen der Stakeholder
Aufgrund der noch ausstehenden Erforschung der Dynamik der Entscheidungen des Management-Teams soll im Folgenden eine Fallstudie näher betrachtet werden. Der dynamische Prozess der Aufmerksamkeitsverschiebung wird dabei von besonderem Interesse sein.
17 Vgl.
Roberts (2003), S. 163.
386
Nicole Zimmermann und Peter Milling
C. Dynamische Betrachtung der Aufmerksamkeitsverschiebung mittels System Dynamics Die Wirkungsmechanismen in Bezug auf die Aufmerksamkeit des Managements werden am Beispiel einer Fallstudie aufgeschlüsselt. Dies generiert ein tiefgehendes Verständnis der Dynamik, die sich an einer bestimmten Umgebung abspielt. Auch wenn es sich um ein einzelnes Beispiel handelt, kommen Erkenntnisgewinne dadurch zustande, dass sich die Forschung auf die reale Umgebung bezieht und das Phänomen nicht wie im Experiment vom Kontext getrennt ist.18 Außerdem wird mit den Wechselbeziehungen der Aufmerksamkeit des Managements auf Stakeholder und den Auswirkung auf Wandel von Unternehmen ein häufig wiederkehrender Fall analysiert.19 Konkret handelt es sich um den Wandel der New York Stock Exchange (NYSE) von einer Parkett- zur elektronischen Börse und um die Bedeutung der Aufmerksamkeit auf Parketthändler und Kunden für diesen Wandel. Die Untersuchung soll mit Hilfe der System-Dynamics-Modellierung geschehen. Der Ansatz berücksichtigt die Systemkomplexität und schließt kognitive Aspekte des Managements mit ein, die aufzeigen, wie z. B. Entscheider zu pfadabhängigem Verhalten verleitet werden. Feedbackbeziehungen stellen einen weiteren Stützpfeiler dieser Modellierungsmethode dar.20 Die Beziehung von Struktur und Verhalten zeigt auf, wie Reaktionen erzeugt werden können, insbesondere wie die Aufmerksamkeit selbst beeinflusst wird und wiederum dann das Wandlungsverhalten von Organisationen beeinflusst.
D. Aufmerksamkeit des Managements der New York Stock Exchange Traditionell fand der Wettbewerb um Handelsaufträge zwischen Börsen auf Basis des angebotenen Preises statt. Es wurde angenommen, dass das Verhandeln der Parketthändler und die Auftragszusammenführung durch einen Spezialisten den besten Preis generieren. In den 1970er Jahren entstand jedoch schon die erste vollelektronische Börse und in den 1990er 18 s.
Eisenhardt (1989), S. 534 und Eisenhardt / Graebner (2007), S. 25. vergleichbare Beispiele siehe z. B. Cho / Hambrick (2006); D’Aveni / MacMillan (1990); Schein (2003); Sullivan (2010); Tripsas (2009). 20 Forrester fasst die Grundprinzipien der System-Dynamics-Modellierung zusammen. Vgl. Forrester (1961), S. 67–72. Zur Bedeutung von Feedback in SystemDynamics erweist sich vor allem Richardson als umfangreiche Quelle. Vgl. Richardson (1999), S. 296–317. 19 Für
Bedeutung der Aufmerksamkeit des Managements auf Stakeholder387
Jahren ersetzte elektronischer Handel zunehmend den traditionell manuellen Handel. Abbildung 2 vergleicht den traditionellen mit dem elektronischen Handelsmechanismus, bei welchem der Computer Parketthändler und die Angebot und Nachfrage zusammenführenden Spezialisten ersetzt.
Abbildung 2: Traditioneller und elektronischer Handelsmechanismus
Die automatische Ausführung des Handels beinhaltet einige Nachteile bezüglich der Preisqualität und Volatilität der Aktien, da der Spezialist nicht mehr mit seinem eigenen Kapital unterstützend in den Handelsprozess eingreift. Sie bedeutet allerdings auch eine große Zunahme der Geschwindigkeit der Auftragszusammenführung. Gerade große institutionelle Kunden der Börsen wie Banken, Versicherungen und Fonds maßen der Handelsgeschwindigkeit immer größere Bedeutung bei und platzieren ihre Großrechner inzwischen in die direkte Nachbarschaft der Computer der elektronischen Börsen, um Geschwindigkeitsgewinne im Mikrosekundenbereich zu erzielen.21 Wie Abbildung 3 zu entnehmen ist, führt dieses erhöhte Ausmaß elektronischen Handels im Markt zu Anpassungsdruck an der NYSE, an den diese sich in einem zielsuchenden Prozess anpasst.
Abbildung 3: Anpassungsdruck
Während man im Wertpapiermarkt davon ausging, dass Börsen sich anpassten, glaubten viele, dass die traditionsreiche und träge NYSE dies nicht schaffen und folglich untergehen würde.22 Während sie zwischen 1970 und 21 Vgl.
Martin (2007), S. 42; Strobl (2010), S. 29. Clemons / Weber (1997), S. 1695; Feldman (2000), S. 95; Picot / Bortenlänger / Röhrl (1997), S. 113–115; Schmid (1993), S. 470; Stoll (2006), S. 154 und 173. 22 Vgl.
388
Nicole Zimmermann und Peter Milling
2005 kaum elektronischen Handel einführte, begann sie jedoch ab 2006 einen Hybriden Markt zu implementieren, mit dem radikal auf größtenteils elektronischen Handel umgestellt wurde. Schon 2008 geschah die Auftragszusammenführung zu über 90 Prozent durch einen Computer. Die Gründe für die Verzögerung dieser Anpassung an den Markt sieht die NYSE in einer gewissen Selbstgefälligkeit und der daraus resultierenden Aufmerksamkeit auf Parkettfirmen anstatt auf Kunden. „A few years ago, the NYSE, owned by NYSE Euronext, was considered a dinosaur in the increasingly electronic exchange universe, hobbled by its slow-moving, human-run system and outdated infrastructure.“23 „Part of being very successful for a very long time and having a large market share [is that] the New York Stock Exchange did become complacent. We have to be receptive to change. We have to give our customers what they’re looking for.“24 Now, NYSE executives „… are trying to transform what was traditionally an inward-looking, exchange floor-dominated culture into an outward-looking, customer-focused culture. Instead of running the organization for the benefit of specialists, for example, Niederauer and Leibowitz say they are trying to satisfy the people that deliver the order flow … .“25
Der Erfolg und die Tatsache, dass dementsprechend wenig Notwendigkeit für Veränderungen bestand, etablierte diese Selbstgefälligkeit, die sich einerseits in Trägheit und andererseits in einer Voreingenommenheit bezüglich der Aufmerksamkeit ausdrückt. Diese Kausalbeziehungen sind im Trägheitsund-Routinen-Loop der Abbildung 4 dargestellt. Ein über lange Zeit konstant niedriges Ausmaß an elektronischem Handel ließ Trägheit wachsen und schuf einen sich selbst verstärkenden Prozess der Nichtbeachtung von Kunden. Durch Einbußen im Marktanteil, vor allem aber durch eine wachsende Aufmerksamkeit auf Kunden veränderte sich die NYSE. Für diese Veränderung war der Aufmerksamkeits-Anpassungs-Loop maßgeblich; er wurde lange durch die selbstverstärkenden Prozesse von Erfolg, Trägheit, und Routinen behindert. Es zeigt sich in Abbildung 5 dass die Aufmerksamkeit (Linie 2) lange auf Spezialisten und Parkettfirmen gerichtet ist, während Trägheit (Linie 1) das Unternehmen dominiert. Sobald sich die Aufmerksamkeit ab dem Jahr 2005 mehr auf Kunden richtet, beginnt die NYSE Für den erwarteten Untergang der NYSE vgl. Naidu / Rozeff (1994), S. 24; Welles (1990), S. 74. 23 Pellecchia (2010). 24 Aussage von John Thain, CEO, zitiert in Ewing (2005). 25 Chapman / Mehta / Scotti (2007), S. 48.
Bedeutung der Aufmerksamkeit des Managements auf Stakeholder389
Abbildung 4: Aufmerksamkeit
Abbildung 5: Modellverhalten
ebenfalls, ihre Strategie radikal zu wandeln (Linie 3). Die Aufmerksamkeitsverschiebung hin zu Kunden führt zu einer radikalen Wahrnehmung ihrer Wünsche für elektronischen Handel. Für die Radikalität der Veränderung ist der selbstverstärkende Charakter des Trägheits-und-Routinen-Loops verantwortlich. Er generiert pfadabhängiges Verhalten. Während er Wandel lange Zeit verhindert, erzeugt er auch die rasche Umorientierung der Aufmerksamkeit hin zu Kunden.
E. Diskussion In der Fallstudie der NYSE konnte der dynamische Prozess der Entwicklung der Aufmerksamkeit des Management-Teams auf zwei Interessengruppen beobachtet werden. Hierdurch verdeutlicht die Studie beispielhaft die Bedeutung der Aufmerksamkeit auf Stakeholder für den Wandel von Unternehmen. Es zeigt sich, welche Mechanismen die Entscheidung des Manage-
390
Nicole Zimmermann und Peter Milling
ments beeinflussen. Das Beispiel stellt dar, wie vernetzt Bestimmungsgrößen und Folgen der Aufmerksamkeit des Management-Teams auf Gruppen sind. Durch die Fallstudie wurden sowohl Managementfaktoren, wie Trägheit und Routinen, als auch Stakeholderfaktoren, wie deren ausgeübter Druck, zusammengeführt. Sie beeinflussen die Aufmerksamkeit, welche dann wiederum einen Einfluss auf Wandel und Nichtwandel von Unternehmen hat. Es zeigt sich, dass die Faktoren durch selbstverstärkende und zielsuchende Prozesse verbunden sind. Selbstverstärkende Mechanismen erklären das Verharren in Routinen, aber auch radikalen Wandel. Bestimmungsfaktoren von Aufmerksamkeit und deren Folgen wirken dynamisch. Da sie nicht konstant bleiben, erfordert dies ihre Betrachtung über einen längeren Zeithorizont. Aufmerksamkeit hat sich als bedeutendes Element der begrenzten Rationalität von Entscheidern erwiesen. Sie ist ein wichtiger Einflussfaktor auf Entscheidungen in Unternehmen. Die Debatte der Organisationstheorie der Bestimmung und Bedeutung von Trägheit und Anpassung kann um die Einbeziehung von Aufmerksamkeit angereichert werden, die zwischen den verschiedenen Perspektiven vermitteln kann.26 Der Vorteil der hier vorgestellten Sichtweise ist, dass sie die unterschiedlichen Reaktionen ‚Trägheit‘ sowie ‚Wandel‘ als Antwort auf sich verändernde Umweltbedingungen erklären kann, und gleichzeitig die Beeinflussung durch Interessengruppen berücksichtigt. Literaturverzeichnis Agle, Bradley R. / Mitchell, Ronald K. / Sonnenfeld, Jeffrey A. (1999), Who Matters to CEOs? An Investigation of Stakeholder Attributes and Salience, Corporate Performance, and CEO Values, in: Academy of Management Journal, 42, 5, S. 507– 525. – (2000), A Report on Stakeholder Attibutes and Salience, Corporate Performance, and CEO Values, in: Logsdon, Jeanne M. / Wood, Donna J. / Benson, Lee E. (Hg.) (1997 / 1998): Research in Stakeholder Theory, 1997–1998: The Sloan Foundation Minigrant Project, Toronto, S. 39–53. Argyris, Chris / Schön, Donald A. (1978), Organizational Learning: A Theory of Action Perspective, Reading, Mass. [u. a.]. Audia, Pino G. / Locke, Edwin A. / Smith, Ken G. (2000), The Paradox of Success: An Archival and a Laboratory Study of Strategic Persistence Following Radical Environmental Change, in: Academy of Management Journal, 43, 5, S. 837–853.
26 Vgl.
Ocasio (1997), S. 202.
Bedeutung der Aufmerksamkeit des Managements auf Stakeholder391
Carpenter, Mason A. / Geletkanycz, Marta A. / Sanders, W. Gerard (2004), Upper Echelons Research Revisited: Antecedents, Elements, and Consequences of Top Management Team Composition, in: Journal of Management, 30, 6, S. 749–778. Chandler, Alfred D. Jr. (1962), Strategy and Structure: Chapters in the History of the Industrial Enterprise, Cambridge, MA. Chapman, Peter / Mehta, Nina / Scotti, Michael (2007), Men At Work, in: Traders Magazine, 20, 274, herausgegeben Nov. 2007, S. 44–75. Child, John (1972), Organizational structure, environment and performance: The role of strategic choice, in: Sociology, 6, S. 1–22. – (1997), Strategic Choice in the Analysis of Action, Structure, Organizations and Environment: Retrospect and Prospect, in: Organization Studies, 18, 1, S. 43–76. Cho, Theresa S. / Hambrick, Donald C. (2006), Attention as the Mediator Between Top Management Team Characteristics and Strategic Change: The Case of Airline Deregulation, in: Organization Science, 17, 4, S. 453–469. Clemons, Eric K. / Weber, Bruce W. (1997), Information Technology and ScreenBased Securities Trading: Pricing the Stock and Pricing the Trade, in: Management Science, 43, 12, S. 1693–1708. D’Aveni, Richard A. / MacMillan, Ian C. (1990), Crisis and the Content of Managerial Communications: A Study of the Focus of Attention of Top Managers in Surviving and Failing Firms, in: Administrative Science Quarterly, 35, 4, S. 634–657. Eesley, Charles / Lenox, Michael J. (2006), Firm responses to secondary stakeholder action, in: Strategic Management Journal, 27, 8, S. 765–781. Eisenhardt, Kathleen M. (1989), Building Theories from Case Study Research, in: The Academy of Management Review, 14, 4, S. 532–550. Eisenhardt, Kathleen M. / Graebner, Melissa E. (2007), Theory Bulding from Cases: Opportunities and Challenges, in: Academy of Management Journal, 50, 1, S. 25–32. Ewing, Jack (2005), When CEOs Talk to Each Other, Business Week Online, herausgegeben am 31. Jan. 2005, eingesehen am 2. Apr. 2008: http: / / www.businessweek.com / bwdaily / dnflash / jan2005 / nf20050131_5572.htm. Feldman, Martha S. (2000), Organizational Routines as a Source of Continuous Change, in: Organization Science, 11, 6, S. 611–629. Feldman, Martha S. / Pentland, Brian T. (2003), Reconceptualizing Organizational Routines as a Source of Flexibility and Change, in: Administrative Science Quarterly, 48, 1, S. 94–118. Feldman, Stuart (2000), Electronic Marketplaces, in: IEEE Internet Computing, 4, 4, S. 93–95. Fernández Gago, Roberto / Nieto Antolín, Mariano (2004), Stakeholder salience in corporate environmental strategy, in: Corporate Governance, 4, 3, S. 65–76.
392
Nicole Zimmermann und Peter Milling
Finkelstein, Sydney / Hambrick, Donald C. / Cannella Jr., Albert A. (2008), Strategic Leadership: Theory and Research on Executives, Top Management Teams, and Boards, New York [et al.]. Forrester, Jay W. (1961), Industrial Dynamics, Cambridge, MA. Greenwood, Royston / Hinings, C. R. (1996), Understanding Radical Organizational Change: Bringing Together the Old and the New Institutionalism, in: Academy of Management Review, 21, 4, S. 1022–1054. Hambrick, Donald C. / Mason, Phyllis A. (1984), Upper Echelons: The Organization as a Reflection of Its Top Managers, in: The Academy of Management Review, 9, 2, S. 193–206. Harvey, Brian / Schaefer, Anja (2001), Managing Relationships with Environmental Stakeholders: A Study of U.K. Water and Electricity Utilities, in: Journal of Business Ethics, 30, 3, S. 243–260. Knox, Simon / Gruar, Colin (2007), The Application of Stakeholder Theory to Relationship Marketing Strategy Development in a Non-profit Organization, in: Journal of Business Ethics, 75, 2, S. 115–135. Magness, Vanessa (2008), Who are the Stakeholders Now? An Empirical Examination of the Mitchell, Agle, and Wood Theory of Stakeholder Salience, in: Journal of Business Ethics, 83, 2, S. 177–192. March, James G., with the assistance of Chip Heath (1994), A Primer on Decision Making: How Decisions Happen, New York, NY [et al.]. March, James G. / Simon, Herbert A. (1958), Organizations, New York [et al.]. Martin, Richard (2007), Business At Light Speed, in: InformationWeek, 1135, herausgegeben am 23. Apr. 2007, S. 42–47. Miller, Danny (1994), What Happens After Success: The Perils of Excellence, in: Journal of Management Studies, 31, 3, S. 325–358. Mitchell, Ronald K. / Agle, Bradley R. / Wood, Donna J. (1997), Toward a Theory of Stakeholder Identification and Salience: Defining the Principle of Who and What Really Counts, in: The Academy of Management Review, 22, 4, S. 853–886. Naidu, G. N. / Rozeff, Michael S. (1994), Volume, volatility, liquidity and efficiency of the Singapore Stock Exchange before and after automation, in: Pacific-Basin Finance Journal, 2, 1, S. 23–42. Naranjo-Gil, David / Hartmann, Frank / Maas, Victor S. (2008), Top Management Team Heterogeneity, Strategic Change and Operational Performance, in: British Journal of Management, 19, 3, S. 222–234. Ocasio, William (1997), Towards an Attention-based View of the Firm, in: Strategic Management Journal, 18, Summer Special Issue, S. 187–206. Parent, Milena M. / Deephouse, David L. (2007), A Case Study of Stakeholder Identification and Prioritization by Managers, in: Journal of Business Ethics, 75, 1, S. 1–23.
Bedeutung der Aufmerksamkeit des Managements auf Stakeholder393
Pellecchia, Ray (2010), Faster, Faster: High Tech Hits the NYSE Floor (29. März 2010), in: NYSE Euronext Inc.: Exchanges: Blogging About NYSE Euronext Markets, [Weblog], eingesehen am 19. Mai 2010: http: / / exchanges.nyse.com / archives / 2010 / 03 / high_tech.php. Picot, Arnold / Bortenlänger, Christine / Röhrl, Heiner (1997), Organization of Electronic Markets: Contributions from the New Institutional Economics, in: The Information Society, 13, 1, S. 107–123. Richardson, George P. (1999), Feedback Thought in Social Science and Systems Theory, 2 Ausg., Waltham, MA. Roberts, Sarah (2003), Supply Chain Specific? Understanding the Patchy Success of Ethical Sourcing Initiatives, in: Journal of Business Ethics, 44, 2 / 3, S. 159–170. Ryan, Lori Verstegen / Schneider, Marguerite (2003), Institutional Investor Power and Heterogeneity: Implications for Agency and Stakeholder Theories, in: Business Society, 42, 4, S. 398–429. Schein, Edgar H. / DeLisi, Peter / Kampas, Paul J. / Sonduck, Michael M. (2003), DEC is Dead, Long Live DEC: The Lasting Legacy of Digital Equipment Corporation, San Francisco, CA. Schmid, Beat F. (1993), Elektronische Märkte, in: Wirtschaftsinformatik, 35, S. 465– 480. Simon, Herbert A. (1949), Administrative Behavior: A Study of Decision-making Processes in Administrative Organizations, Chicago. Stoll, Hans R. (2006), Electronic Trading in Stock Markets, in: Journal of Economic Perspectives, 20, 1, S. 153–174. Strobl, Thomas (2010), Das Herzkammerflimmern der Börse, in: Frankfurter Allgemeine Zeitung, herausgegeben 18. Mai 2010, S. 29. Sullivan, Bilian Ni (2010), Competition and Beyond: Problems and Attention Allocation in the Organizational Rulemaking Process, in: Organization Science, 21, 2, S. 432–450. Tripsas, Mary (2009), Technology, Identity, and Inertia through the Lens of ‚The Digital Photography Company‘, in: Organization Science, 20, 2, S. 441–460. Tushman, Michael L. / Romanelli, Elaine (1985), Organizational Evolution: A Metamorphosis Model of Convergence and Reorientation, in: Cummings, Larry L. and Barry M. Staw (Hg.): Research in Organizational Behavior, Vol. 7, Greenwich, CT, S. 171–222. Welles, Chris (1990), Is it time to make the Big Board a black box?, in: Business Week, 3144, herausgegeben am 5. Feb. 1990, S. 74. Winn, Monika I. (2001), Building Stakeholder Theory with a Decision Modeling Methodology, in: Business & Society, 40, 2, S. 133–166.
Systemdynamische Überlegungen zum Portfoliomanagement – dargestellt am Beispiel eines europäischen Automobilherstellers Von Florian Kapmeier
A. Herausforderungen an das Portfoliomanagement Zunehmender Wettbewerb, hohe Aufwendungen für Forschung und Entwicklung, kürzer werdende Produkteinführungszeiten und Produktlebenszyklen sowie vielfältige Verknüpfungen innerhalb und zwischen Entwicklungsprogrammen sind kritische Faktoren des Managements von Produktinnovationen.1 Die Vielfalt der Einflussfaktoren erfordert in Abhängigkeit von jeweiligen Produktbesonderheiten und geschäftsfeldbezogenen und unternehmensindividuellen Rahmenbedingungen eine strukturierte Einführung von Neuprodukten.2 Die Koordination kann von einem Portfoliomanagement übernommen werden. Unter Portfoliomanagement ist ein dynamischer Entscheidungsprozess zu verstehen, bei dem Programme für die Entwicklung von Produkten kontinuierlich bewertet, ausgewählt und priorisiert werden. Neue Produkte können eingeführt und laufende Entwicklungsprogramme eingestellt, abgebrochen und umpriorisiert werden.3 Das Management eines Produktentwicklungsportfolios umfasst strategische und operative Aufgaben.4 Die strategische Komponente des Portfoliomanagements betrifft den Aspekt der Platzierung von Neuprodukten im Markt gegenüber Produkten der Wettbewerber. Ein Beispiel hierfür ist das Initiieren vielversprechender Neuproduktentwicklungen mit dem Ziel, Marktanteile in einem bestimmten Marktsegment aus- oder aufzubauen. Auf der operativen Seite müssen laufende Produktentwicklungsprogramme gesteuert werden. Eine typische Fragestellung hierzu könnte lauten, wie be-
1 Vgl.
Milling (2002), S. 80. Amelingmeyer (2009), S. 3. Zum Thema der Neuproduktentwicklung vgl. Ehrlenspiel (2003), Verworn (2005) und in einer Zusammenfassung Hypko / Tilebein (2008), S. 37 ff. 3 Vgl. Cooper / Edgett / Kleinschmidt (2001), S. 3. 4 Vgl. Cooper / Edgett / Kleinschmidt (1999), S. 334 f. 2 Vgl.
396
Florian Kapmeier
grenzte Ressourcen, die von mehreren Programmen genutzt werden müssen, zwischen diesen aufgeteilt werden können.5 Dem Portfoliomanagement stehen verschiedene Werkzeuge zur Verfügung, wie beispielsweise Product and Technology Roadmaps zur Ausrichtung von Portfolios, finanzwirtschaftliche Modelle wie die Net-Present-Value-Methode, der Expected Commercial Value oder die Optionspreistheorie zur Berechnung und Maximierung von Portfoliowerten, Scoring Modelle, die auch nicht-finanzielle Kennzahlen zum Steuern des Portfolios berücksichtigen oder Bubble Diagramme zur Visualisierung von Portfolios.6 Das Management eines Portfolios mehrerer parallel oder sequentiell laufender Entwicklungsprogramme kann als eine besondere Herausforderung für die Entscheidungsträger interpretiert werden, da schon das Steuern einzelner Produktentwicklungsprogramme als anspruchsvoll gilt: Verzögerungen und Kostenüberschreitungen sind dabei eher die Regel als die Aus nahme. Das liegt u. a. daran, dass Entwicklungsprogramme als klassische Beispiele für dynamische, komplexe Systeme verstanden werden können, für die Akkumulationen, Zeitverzögerungen, Rückkopplungsprozesse und Nichtlinearitäten charakteristisch sind.7 Da diese Merkmale zusammen wirken, sind sie in ihren dynamischen Ausprägungen für Entscheidungsträger schwer nachvollziehbar.8 Die Zusammenhänge werden komplexer und ihre dynamischen Ausprägungen für die Entscheider schwieriger nachzuvollziehen, wenn sie ein ganzes Portfolio von Programmen steuern. Dieser Prozess ist durch unsichere und sich ändernde Informationen, sich neu ergebende Gelegenheiten, mehrdimensionale Zielfunktionen, strategische Überlegungen, Abhängigkeiten zwischen Programmen und eine Vielzahl involvierter Entscheidungsträger aus unterschiedlichen Unternehmensbereichen charakterisiert.9 Die oben genannten Werkzeuge des Portfoliomanagements können zwar wertvolle Hinweise zur Steuerung von Entwicklungsprogrammportfolios liefern, vernachlässigen aber den dynamischen, vernetzten Charakter von Entwicklungsprogrammen. Analyseansätze, die diese Charakteristika nicht berück5 Vgl.
Cooper / Edgett / Kleinschmidt (1999), S. 335. Cooper / Edgett / Kleinschmidt (2001), S. 29 ff., Cooper / Edgett / Kleinschmidt (1999), S. 335 f. und Geßner (2009), S. 26 ff. 7 Vgl. Sterman (2009), S. 2. Andere Industrien, in denen typischerweise komplexe Projekte bearbeitet werden, ist die Bau-, Rüstungs-, Energie-, Luft- und Raumfahrtindustrie oder auch die Software-Entwicklung. 8 Vgl. Booth Sweeney / Sterman (2000), Sterman (2002), Sterman / BoothSweeney (2002), Kapmeier (2004), Sterman / Booth Sweeney (2007) für Studien zum schwierigen Verständnis einfacher dynamischer Zusammenhänge. 9 Vgl. Cooper / Edgett / Kleinschmidt (2001), S. 3. 6 Vgl.
Systemdynamische Überlegungen zum Portfoliomanagement397
sichtigen, schlagen als Werkzeug zur Beurteilung von Strategien oder zur Erlangung eines tiefergehenden Verständnisses von Entwicklungsprogrammen fehl.10 Das aus Rückkopplung, Akkumulation und Verzögerung erwachsende nichtlineare Verhalten lässt sich zumeist nicht durch analytische Rechenverfahren erfassen und analysieren. Simulation bietet in der Regel die einzige Möglichkeit, diese Systeme und das aus ihrer Struktur erwachsende Verhalten zu analysieren.11 Mit der Methode System Dynamics12 können die genannten Forderungen zur Steuerung einzelner komplexe Programme und auch Programmportfolios mit mehr Sicherheit angegangen werden. Mit dem vorliegenden Beitrag soll aufgezeigt werden, wie ein SystemDynamics-basiertes Simulationsmodell zur Entscheidungsunterstützung im Portfoliomanagement herangezogen werden kann. Dabei wird zunächst die System-Dynamics-Methode als passender Ansatz zur Steuerung einzelner Programme und von Entwicklungsportfolios dargestellt. Dann wird anhand eines Fallbeispiels dargelegt, welchen Mehrwert der systemdynamische Ansatz dem Portfoliomanagement bietet.
B. System Dynamics zur Steuerung von Programmen und Programmportfolios Für die Entscheidungsunterstützung einzelner komplexer Programme haben sich System-Dynamics-Modelle seit langer Zeit bewährt: Sie bieten Unternehmensführern wertvolle Einblicke in die Ursachen für das Fehlschlagen umfangreicher Entwicklungsprogramme.13 Die Analyse und Steuerung komplexer Entwicklungsprojekte mit System Dynamics, wie sie Pugh-Roberts Associates für Kunden erstmalig kommerziell durchführt hat, 10 Vgl.
Milling (1991), S. 80. Salge (2009), S. 8 und Cohen / Cyert (1961), S. 118. 12 Die Methode System Dynamics wurde von Jay W. Forrester am Massachusetts Institute of Technology in den 1950er Jahren entwickelt. Die Methode betrachtet Rückkopplungsbeziehungen als elementare Bestandteile sozioökonomischer Systeme, berücksichtigt nichtlineare Verknüpfungen sowie Zeitverzögerungen zwischen Ursache und Wirkung und nutzt Computersimulation zur Entscheidungsunterstützung. Vgl. Forrester (1961) und Sterman (2000). 13 Vgl Roberts (1964), Cooper (1980), Abdel-Hamid (1988), Sterman (1992), Homer et al. (1993), Ford / Sterman (1998), Black / Repenning (2001), Repenning (2001), Repenning / Goncalves / Black (2001), Ford / Sterman (2003), Rahmandad (2005), Lyneis / Ford (2007), Cooper / Lee (2009) und Kapmeier (2010). Cooper / Lee beschreiben die System-Dynamics-basierte Analyse und Prognose von Entwicklungen von Bauprojekten. Die Arbeit wurde bei der International Conference of the System Dynamics Society im Jahr 2009 mit dem System Dynamics Applications Award ausgezeichnet. 11 Vgl.
398
Florian Kapmeier
ist Black und Repenning14 zufolge eines der bedeutendesten Anwendungsgebiete der Methode. Die Arbeiten auf diesem Gebiet werden seit der Übernahme von Pugh Roberts Associates durch PA Consulting Group (PA) erfolreich für Unternehmen unterschiedlicher Branchen fortgeführt. Seit den späten 1950er Jahren haben beide Firmen mehr als 150 komplexe Programme in der Bau-, Automobil-, Rüstungs- und Softwareindustrie mit System Dynamics analysiert und begleitet. Die von PA entwickelten Projektmanagementmodelle haben eine so hohe Güte, dass sie selbst vor Gericht als Beweismaterial zur Schlichtung zwischen Vertragspartnern akzeptiert werden.15 Für Entscheidungsträger wird die Situation dann erschwert, wenn der Fokus von der Steuerung eines einzelnen Entwicklungsprogramms auf eine Vielzahl von Programmen im Rahmen eines Entwicklungsportfolios erweitert wird. Aufgrund der systemdynamischen Sichtweise eignet sich System Dynamics dazu, die Abhängigkeiten innerhalb von und zwischen mehreren Programmen mit ihren typischen Akkumulationen, Zeitverzögerungen, Rückkopplungen und Nichtlinearitäten zu erfassen, modellieren, quantifizieren und visualisieren.16 Für einen europäischen Automobilhersteller hat PA in enger Zusammenarbeit mit den Entscheidungsträgern ein System-Dynamics-basiertes Simulationsmodell entwickelt, mit dem das Management ein Portfolio von Entwicklungsprogrammen steuert. Das Modell berücksichtigt Steuerungsgrößen verschiedener Fachbereiche des Unternehmens und integriert Inhalte der klassischen Methoden mit einer systemdynamischen Sichtweise auf das Entwicklungsportfolio. Es unterstützt Portfoliomanager und die Unternehmensführung beim Abwägen ihrer Entscheidungen. So können die wesentlichen dynamischen Zusammenhänge innerhalb eines Programms und auch zwischen Entwicklungsprogrammen einbezogen werden. Im Folgenden wird anhand des Programmbeispiels aus der Automobilindustrie dargelegt, wie System Dynamics die Entscheidungsfindung beim Management von Entwicklungsportfolios unterstützen kann.
14 Vgl.
Black / Repenning (2001), S. 34. diesen System-Dynamics-Modellen kann beispielsweise rückwirkend gezeigt werden, welcher Änderungsauftrag zu welchen Budget- oder Zeitverzögerungen geführt hat. Bei umfangreichen Bauprojekten kann die Antwort auf eine solche Frage für Vertragspartner zu Zahlungen in Millionenhöhe führen. Beispielsweise beziffern Anwälte und Management eines Kunden von PA den monetären Wert eines spezifischen Modells zur gerichtlichen Schlichtung auf zwischen $170–350 Million. Vgl. Cooper (1980), S. 28. 16 Vgl. Sterman (2009), S. 2. 15 Mit
Systemdynamische Überlegungen zum Portfoliomanagement399
C. Steuerung eines Programmportfolios mit einem System-Dynamics-basierten Simulator bei einem europäischen Automobilhersteller Der europäische Automobilhersteller verfolgt von jeher das Ziel, internationale Standards bei Technologie, Stil, Design und Leistung zu setzen. Das Unternehmen sah sich allerdings dem zunehmenden asiatischen Wettbewerb ausgesetzt, dem es mit neuentwickelten Fahrzeugen begegnen wollte. Dafür sollten die Entwicklungsprozesse beträchtlich gestrafft werden. Zugleich sollten die Fahrzeuge zu attraktiven Preisen mit wettbewerbsfähiger und qualitativ hochwertiger Ausstattung angeboten und die unternehmensweiten Profitabilitätsziele erreicht werden. Als ausschlaggebenden Faktor zur Erreichung dieser Ziele hatte das Management die erfolgreiche Steuerung des Entwicklungsprogrammportfolios identifiziert. Als besonders kritisch wurde die Abschätzung von Wechselwirkungseffekten innerhalb eines Entwicklungsprogramms und zwischen Entwicklungsprogrammen gesehen. Die Führungskräfte forderten daher ein innovatives, dynamisches Berichtssystem zur Unterstützung ihres Innovationsprozesses, das verschiedenen Ansprüchen des Portfoliomanagements gerecht wird und zeitliche Entwicklungen abbildet. Der Kunde beauftragte PA dafür mit der Erstellung eines quantitativen Simulators. I. Struktur des Portfoliomanagement-Simulators PA hat den auf der System-Dynamics-Methode basierenden Simulator zur Steuerung des Entwicklungsportfolios in enger Zusammenarbeit mit dem Kunden in einem iterativen Prozess erstellt, validiert und ihn anhand realer Daten kalibriert.17 Der Entwicklungsportfolio-Simulator ermöglicht dem Management ein gemeinsames Verständnis über das dynamische Zusammenspiel relevanter Größen zwischen den Entwicklungsprogrammen und dem Markt. Die Struktur mit ihren Rückkopplungsbeziehungen ist in Abbildung 1 in einem Blockdiagramm vereinfacht zusammengefasst. Die Darstellung mit übergeordneten Themenfeldern orientiert sich an den der Unternehmensführung des Kunden vertrauten Perspektiven einer Balanced Scorecard (Finanzen, Kunden & Märkte, Operationelle Exzellenz und Mitarbeiter & Führung)18, damit sich die Entscheider schnell in den unterschiedlichen 17 Zum allgemeinen System-Dynamics-Modellierungsprozess vgl. Sterman (2000), S. 87 ff., Kapmeier (2008), S. 30 ff. oder Zahn / Kapmeier (2002) und zum spezifischen Ansatz von PA Consulting Group vgl. Kapmeier / Salge (2010), S. 23 ff. und Lyneis (1999), S. 38 ff. 18 Vgl. Kaplan / Norton (1996).
400
Florian Kapmeier
Abbildung 1: Überblick über die Modellstruktur zur Analyse von Wechselwirkungen innerhalb eines Entwicklungsprogrammportfolios bei einem europäischen Automobilhersteller
Bereichen zurechtfinden. Dabei ist zu berücksichtigen, dass hier nicht alle Beziehungen abgebildet sind: Innerhalb eines Entwicklungsprogramms und zwischen den Programmen herrschen Beziehungen, auf deren Darstellung aus Gründen der Übersichtlichkeit verzichtet wird. Zeitlich parallel und versetzt laufende Entwicklungsprogramme sind im Modell berücksichtigt und in Abbildung 1 durch hintereinander liegende Kästen dargestellt. Jede Perspektive beinhaltet Variablen bzw. Kennzahlen, von denen einige relevante aufgeführt sind. So umfasst ‚Operationelle Exzellenz & Innovation‘ unter anderem Kennzahlen zur operativen Steuerung von Entwicklungsprogrammen wie Programmkosten, Prozess- und Designqualität, marktgetriebene Innovationen, Programmplan und Nacharbeit.
Systemdynamische Überlegungen zum Portfoliomanagement401
II. Entscheidungsunterstützung in den Phasen des Strategieprozesses Das Management nutzt den Simulator in den Phasen der Strategieformulierung und -umsetzung des Strategieprozesses (siehe Tabelle 2).19 Während der Strategieformulierung werden strategische Unternehmensziele auf ihre Plausibilität hin getestet. Strategieszenarien können zu Prognosezwecken20 mit Monte-Carlo-Analysen21 in kurzer Zeit simuliert und ihre kurz-, mittelund langfristigen Auswirkungen auf die unterschiedlichen Portfolioperspektiven unter hoher Sicherheit getestet und bewertet werden. Daraus gewonnene Erkenntnisse bieten dem Management Gelegenheit, strategische Ziele zu überdenken und gegebenenfalls anzupassen. Tabelle 1 Auswahl vom System-Dynamics-basierten Simulator behandelter Themenfelder zur Analyse von Entwicklungsportfolios. Grau unterlegte Beispiele sind im Text erläutert Strategieformulierung
Strategieumsetzung
Strategische Ziele
Programmannahmen
Risikomanagement
Testen strategischer Ziele hinsichtlich ihrer Plausibilität
Testen von Prozessänderungen auf Entwicklungsprogramme und das Entwicklungsprogrammportfolio
Auswirkungen einer möglichen Prozessreorganisation auf das Entwicklungsprogrammportfolio
Testen alternativer Maßnahmen zum Erreichen der strategischen Ziele
Testen von Prozessänderungen auf Entwicklungsprogrammbudgets
Auswirkungen von Terminverschiebungen auf ein Entwicklungsprogramm und das Entwicklungsprogrammportfolio
Identifikation kritischer Pfade
Testen von Designänderungen auf Entwicklungsprogramm und das Entwicklungsprogrammportfolio
Auswirkungen von Ressourcenengpässe auf das Entwicklungsprogrammportfolio
19 Strategieformulierung und Strategieumsetzung sind zwei Phasen des Strategieprozesses, der einem präskreptiven, idealtypischen Planungsablauf entspricht und auf dem Führungsprozess basiert. Die Phasen lassen sich beispielsweise in Zielbildung, strategische Analyse, Strategieformulierung, Strategieumsetzung und strategische Kontrolle unterteilen. Vgl. Welge / Al-Laham (2003), S. 98. 20 Vgl. Kapmeier / Salge (2010), Lyneis (2000) und Sterman (2000), S. 631 ff. zur Eignung von System-Dynamics-Modellen zu Prognosezwecken. 21 Vgl. Sterman (2000), S. 885 ff.
402
Florian Kapmeier
Während der Strategieumsetzung nutzt das Management das Modell zur Überprüfung von Programmannahmen und zum Risikomanagement. Dabei fokussiert die Analyse auf Auswirkungen von Veränderungen auf einzelne Entwicklungsprogramme oder auf das gesamte Entwicklungsprogrammportfolio. Charakteristisch für ein quantifiziertes, systemdynamisches Modell ist die dynamische Rückkopplung zwischen den Variablen mit ihren Zeitverzögerungen und nichtlinearen Zusammenhängen. Zwei anonymisierte Beispiele zeigen im Folgenden, wie die Konsequenzen einer Fragestellung durch die oben aufgeführten Perspektiven der Balanced Scorecard wandern und unterschiedliche Entwicklungsprogramme und Unternehmensbereiche beein flussen. Die Darstellungsform der Antwort auf die Fragestellungen veranschaulicht die hohe Bandbreite der Entscheidungsunterstützung mit dem Simulator. III. Testen einer Programmannahme Das erste Beispiel testet die Auswirkungen für den Fall einer Fahrzeugdesignänderung im vorangeschrittenen Entwicklungsstadium. Fraglich ist dabei, ob die Änderung zugelassen werden sollte. Die linke Spalte von Tabelle 2 zeigt auf, welche zusätzlichen Fragen daraufhin entstehen (können) und in der rechten Spalte ist notiert, welche Perspektiven und welche Entwicklungsprogramme betroffen sind – zu allen Fragen kann der SystemDynamics-basierte Simulator Antworten liefern.
Tabelle 2 Fragestellungen und ihre Konsequenzen ‚wandern‘ durch die Verantwortungsgebiete verschiedener Unternehmensbereiche Ausgangsfragestellung …
Betroffene Perspektive …
Wie stark verzögert eine aus Marktsicht notwendige Änderung am Fahrzeugdesign im fortgeschrittenen Entwicklungsstadium den Programmfortschritt?
Operationelle Exzellenz & Innovation Entwicklungsprogramm 1
… und die sich daran jeweils anschließenden Fragen
… und betroffene Perspektiven der Anschlussfragen
Welche Auswirkungen hat die Verzögerung des Entwicklungsprogramms auf das Programmportfolio?
Operationelle Exzellenz & Innovation Entwicklungsprogramme 2–n
Systemdynamische Überlegungen zum Portfoliomanagement403 Wie stark verschiebt sich der Verkaufsstart des neuen Fahrzeugs bei einer Verzögerung des Entwicklungsprogramms?
Operationelle Exzellenz & Innovation Entwicklungsprogramm 1 Kunden & Märkte Entwicklungsprogramm 1
Wie beeinflusst die Verzögerung des Entwicklungsprogramms die kurz-, mittel- und langfristige Umsatzentwicklung?
Operationelle Exzellenz & Entwicklungsprogramme 1 Kunden & Märkte Entwicklungsprogramme 1 Finanzen Entwicklungsprogramme 1 Gesamtunternehmen
Innovation bis n
Operationelle Exzellenz & Entwicklungsprogramme 1 Kunden & Märkte Entwicklungsprogramme 1 Finanzen Entwicklungsprogramme 1 Gesamtunternehmen
Innovation bis n
Wie wirken sich alternative Strategien auf parallel laufende und zukünftige Programme und auf die Umsatz- und Gewinnentwicklung aus?
bis n bis n
bis n bis n
Mit welchen Auswirkungen auf das Entwicklungsprogrammportfolio ist zu rechnen, wenn zusätzliche Fachkräfte eingestellt werden, um die Zeitverzögerung aufzuholen?
Mitarbeiter & Führung Entwicklungsprogramme 1 bis n Operationelle Exzellenz Entwicklungsprogramme 1 bis n
Wie wirken sich unterschiedliche Ausbildungsniveaus zusätzlicher Fachkräfte auf den Programmfortschritt aus?
Mitarbeiter & Führung Entwicklungsprogramme 1 Operationelle Exzellenz Entwicklungsprogramme 1
Wie werden Entwicklungsproduktivität, Designqualität und Produktqualität dieses Programms und der anderen Programme dadurch beeinflusst?
Operationelle Exzellenz Entwicklungsprogramme 1 bis n Kunden & Märkte Entwicklungsprogramme 1 bis n
Wie viel müsste bei weniger gut ausgebildeten Fachkräften in zusätzliche Ausbildung investiert werden, damit kurz- und langfristige Produktivität sowie Qualität nicht leiden?
Mitarbeiter & Führung Entwicklungsprogramme 1 bis n Operationelle Exzellenz Entwicklungsprogramme 1 bis n
Finanzen Wie beeinflussen die Alternativen die kurz-, mittel- und langfristige Profitabili- Entwicklungsprogramme 1 bis n tät und den Kapitalwert? Gesamtunternehmen
404
Florian Kapmeier
IV. Beurteilung eines Risikos Für das zweite Beispiel ist die Beurteilung eines Risikos Ausgangspunkt der Betrachtung. In dem in Abbildung 2 gezeigten Szenario wird unter bestimmten Annahmen geprüft, wie sich eine Prozessreorganisation im Entwicklungs- und Fertigungsbereich auf den langfristigen Unternehmensgewinn auswirkt. Abgebildet ist ein ‚Referenzszenario‘, das ‚business as usual‘ verkörpert und das der Kalibrierung der Modellstruktur dient. Die hohe Übereinstimmung zwischen Firmendaten und der Simulation lässt darauf schließen, dass die Modellstruktur die kurz- bis langfristigen Wechselwirkungen zwischen Variablen richtig bewertet und die Entwicklung von Unternehmens- und Marktdaten realistisch abbildet. Diese Konformität lässt auf eine hohe Validität von Szenarios schließen. Das gezeigte Szenario ‚Mit Reengineering‘ zeigt die Konsequenzen, wenn nach vier Jahren ein 2,5-jähriges Prozessreorganisationsprogramm durchgeführt wird. Die entworfene und produzierte Fahrzeugqualität beeinflusst die Garantiekosten aufgrund einer sinkenden Zahl von in die Werkstätten zurückgerufenen Fahrzeugen – allerdings auch wieder mit Zeitverzögerung (unten links): Die Garantiekosten sinken nach einer gewissen Zeit fast kontinuierlich und nähern sich einem niedrigen Wert an. Die bei den Kunden gestiegene wahrgenommene Qualität spricht sich aufgrund positiver Mundpropaganda herum, weshalb das Vertrauen in die Fahrzeuge steigt und mehr Einheiten verkauft werden. In der Zwischenzeit laufen die neuen Entwicklungs- und Fertigungsprozesse reibungsloser und es werden im Vergleich zum Referenzszenario wieder weniger Mitarbeiter benötigt (oben links). Der Unternehmensgewinn (unten rechts) entwickelt sich aufgrund der mit der Prozessänderung einhergehenden Kosten zunächst schlechter als im Referenzszenario. Wegen der in der zweiten Hälfte des abgebildeten Zeitraums gestiegenen Fahrzeugqualität, gefallenen Garantiekosten und gesteigerten Absatzes mit einem höheren Marktanteil sinken die Gesamtkosten, und der Unternehmensgewinn steigt weit über den des Referenzszenarios – dies ist ein typisches Beispiel für ein ‚schlechter-vor-besser‘-Verhalten22, welches für komplexe soziale Systeme charakteristisch ist: Es dauert lange, bis die Mitarbeiter mit den neuen Prozessen vertraut sind und sie letztendlich auch anwenden, damit die Prozessverbesserungen greifen.23 Diese Langzeiteffekte ließen sich ohne eine systemdynamische Betrachtung schwer erfassen.
22 Zum 23 Vgl.
‚schlechter-vor-besser‘-Verhalten vgl. Repenning / Sterman (2001). Morrison (2005).
Systemdynamische Überlegungen zum Portfoliomanagement405
Abbildung 2: Simulationsverläufe eines anonymisierten Strategieszenarios. Die graue vertikale Linie stellt den Startzeitpunkt der Prozessveränderung dar.
D. Fazit und Ausblick Während bereits die Steuerung eines einzelnen komplexen Entwicklungsprogramms anspruchsvoll ist, stellt das Management eines Portfolios von Entwicklungsprogrammen höhere Anforderungen an die Entscheider: Beziehungen innerhalb und zwischen Programmen können für Entscheider schwer-nachvollziehbare Programmdynamiken entstehen lassen. Dies erfordert einen systemdynamischen Analyseansatz, der diesen Anforderungen Rechnung trägt. Simulationsmodelle auf Basis von System Dynamics bringen den Entscheidern einen hohen Zusatznutzen, wie am Beispiel des Portfoliomanagements bei einem europäischen Automobilhersteller gezeigt wurde. Rückblickend konnte der Automobilhersteller die Fahrzeugentwicklungsprogramme nach Einführung des systemdynamischen Simulators mit mehr Sicherheit planen sowie Szenarien schneller, kostengünstiger und für alle Beteiligten nachvollziehbarer durchführen als zuvor. Der Simulator hat zu steigendem
406
Florian Kapmeier
Umsatz und erhöhter Profitabilität beigetragen. Ein solcher Entwicklungsportfolio-Simulator ist allerdings nicht als ein weiteres ‚Werkzeug‘ für den Strategieprozess zu verstehen. Der Simulator ist eine Methode zur Integration verschiedener Sichtweisen von Entscheidern unterschiedlicher Fachbereiche. So unterstützt er Manager bei der Beantwortung strategischer Fragestellungen in der Strategieentwicklung und der -umsetzung. Manager schätzen den Entwicklungsportfolio-Simulator als Instrument zur effizienten und objektiven Kommunikation zwischen den Programmteams, TopManagement und weiteren Stakeholdern, frei von Bauchentscheidungen und Machtgefügen in Unternehmen. Über Bereichsgrenzen hinweg entsteht ein Dialog auf Basis eines gemeinsamen Geschäftsverständnisses. Der Entwicklungsportfolio-Simulator stützt die Intuition der Entscheidungsträger bezüglich langfristiger Konsequenzen von Entscheidungen. Dies ermöglicht dem Management mehr als nur graduelle Anpassungen an bisher gewählte Strategien, was den Top-Managern langfristig besonders hohen Mehrwert bietet. Literaturverzeichnis Abdel-Hamid, T. K. (1988), The Economics of Software Quality Assurance: A Simulation-based Case Study, in: MIS Quarterly, 12, 1988, 3, S. 395–411. Amelingmeyer, J. (2009), Gestaltungsfelder und Herausforderungen eines integrierten Produktportfoliomanagements, in: Schmahl, C. M. / Gleich, R. (Hrsg.), Produktportfoliomanagement, Lichtenberg 2009, S. 3–22. Black, L. J. / Repenning, N. P. (2001), Why Firefighting Is Never Enough: Preserving High-Quality Product Development, in: System Dynamics Review, 17, 2001, 1, S. 33–62. Booth Sweeney, L. / Sterman, J. D. (2000), Bathtub Dynamics: Initial Results of a Systems Thinking Inventory, in: System Dynamics Review, 16, 2000, 4, S. 249– 294. Cohen, K. J. / Cyert, R. M. (1961), Computer Models in Dynamic Economics, in: Quarterly Journal of Economics, 75, 1961, 1, S. 112–127. Cooper, K. G. (1980), Naval Ship Production: A Claim Settled and a Framework Built, in: Interfaces 10, 1980, 6, S. 20–36. Cooper, K. G. / Lee, G. (2009), Managing the Dynamics of Projects and Changes at Fluor, Proceedings of the International System Dynamics Society Conference, Albuquerque, NM, USA 2009. Cooper, R. G. / Edgett, E. J. / Kleinschmidt, E. (1999), New Product Portfolio Management: Practices and Performance, in: Journal of Product Innovation Management, 16, 1999, 4, S. 333–351. Cooper, R. G. / Edgett, S. J. / Kleinschmidt, E. J. (2001), Portfolio Management for New Products, 2. Aufl., New York 2001.
Systemdynamische Überlegungen zum Portfoliomanagement407
Ehrlenspiel, K. (2003), Integrierte Produktentwicklung. Denkabläufe, Methodeneinsatz, Zusammenarbeit, München 2003. Ford, D. / Sterman, J. (1998), Dynamic Modeling of Product Development Processes, in: System Dynamics Review, 14, 1998, 1, S. 31–68. – (2003), Overcoming the 90% Syndrome: Iteration Management in Concurrent Development Projects, in: Concurrent Engineering: Research and Applications, 11, 2003, 3, S. 177–186. Forrester, J. W. (1961), Industrial Dynamics, Cambridge 1961. Geßner, C. (2009), Produkt- und Projektportfoliomanagement – Stand der Literatur, in: Schmahl, C. M. / Gleich, R. (Hrsg.), Produktportfoliomanagement, Lichtenberg 2009, S. 23–40. Homer, J. / Sterman, J. / Greenwood, B. / Perkola, M. (1993), Delivery Time Reduction in Pump and Paper Mill Construction Projects: A Dynamic Analysis of Alternatives, in: Proceedings of the 1993 International System Dynamics Conference, Cancun, Mexiko, 1993. / Gleich, R. / Hypko, P. / Tilebein, M. (2008), Produktentwicklung, in: Russo, P. Strascheg, F. (Hrsg.), Von der Idee zum Markt, München 2008, S. 37–50. Kaplan, R. S. / Norton, D. P. (1996), The Balanced Scorecard: Translating Strategy into Action. Boston, MA. Kapmeier, F. (2004), Findings from Four Years of Bathtub Dynamics at Higher Management Education Institutions in Stuttgart, in: Proceedings of the 2004 International System Dynamics Conference, Oxford, Großbritannien 2004. – (2008), Dynamics of Interorganizational Learning in Learning Alliances, Frankfurt am Main 2008. – (2010), Dynamische Balanced Scorecard eines europäischen Automobilherstellers, erscheint in: Dillerup, R. / Stoi, R. (Hrsg.), Unternehmensführung, 3. Auflage, München 2010. Kapmeier, F. / Salge, M. (2010), Robuste Bilder der Zukunft: Wie System-Dynamicsbasierte Prognosesimulatoren Unternehmenslenker beim Steuern unter Unsicherheit unterstützen, in: Risk Compliance & Audit, 2, 2010, 3, S. 22–28. Lyneis, J. M. (1999), System Dynamics for Market Forecasting and Structural Analysis, in: System Dynamics Review, 16, 2000, 1, S. 3–25. – (2000), System Dynamics for Business Strategy: A Phased Approach, in: System Dynamics Review, 15, 1999, 1, S. 37–70. Lyneis, J. M. / Ford, D. (2007), System Dynamics Applied to Project Management: A Survey, Assessment, and Directions for Future Research, in: System Dynamics Review, 23, 2007, 2–3, S. 157–189. Milling, P. M. (2002), Understanding and Managing Innovation Processes, in: System Dynamics Review, 18, 2002, 1, S. 73–86. Morrison, J. B. (2005), Implementation as Learning: An Extension of Learning Curve Theory, in: Proceedings of the 2006 International System Dynamics Conference, Boston, MA, USA 2005.
408
Florian Kapmeier
Rahmandad, H. (2005), Dynamics of Platform-based Product Development, in: Proceedings of the 2005 International System Dynamics Conference, Boston, MA, USA 2005. Repenning, N. P. (2001), Understanding Fire Fighting in New Product Development, in: Journal of Product Innovation Management, 18, 2001, 5, S. 285–300. Repenning, N. P. / Goncalves, P. / Black, L. J. (2001), Past the Tipping Point: The Persistence of Firefighting in Product Development, in: California Management Review, 43, 2001, 4, S. 44–63. Repenning, N. P. / Sterman, J. D. (2001), Nobody Ever Gets Credit for Fixing Problems that Never Happened, in: California Management Review, 43, 2001, 4, S. 64–88. Roberts, E. B. (1964), The Dynamics of Research and Development, New York 1964. Salge, M. (2009), Struktur und Dynamik ganzheitlicher Verbesserungsprogramme in der industriellen Fertigung: Ein systemdynamisches Modell zur nachhaltigen Gestaltung des Wandels in Industrieunternehmen, Hamburg 2009. Sterman, J. D. (1992), System Dynamics Modeling for Project Management, Sloan School of Management, MIT, Cambridge, Mass. 1992. – (2000), Business Dynamics: Systems Thinking and Modeling for a Complex World, Boston u. a. 2000. – (2002), All Models are Wrong: Reflections on Becoming a Systems Scientist, in: System Dynamics Review, 18, 2002, 4, S. 501–531. – (2009), Forward to the Award Winning Paper, Cooper, K. / Lee, G. (2009): Managing the Dynamics of Projects and Changes at Fluor, Proceedings of the International System Dynamics Society Conference, Albuquerque, NM, USA 2009. Sterman, J. D. / Booth Sweeney, L. (2002), Cloudy Skies: Assessing Public Understanding of Global Warming, in: System Dynamics Review, 18, 2002, 2, S. 207– 240. – (2007), Understanding Public Complacency about Climate Change: Adults’ Mental Models of Climate Change Violate Conservation of Matter, in: Climatic Change, 80, 2007, 3–4, S. 213–238. Verworn, B. (2005), Die frühen Phasen der Produktentwicklung. Eine empirische Analyse in der Mess-, Steuer- und Regelungstechnik, Wiesbaden 2005. Welge, M. K. / Al-Laham, A. (2003), Strategisches Management: Grundlagen – Prozess – Implementierung, 4. Auflage, Wiesbaden 2003. Zahn, E. / Kapmeier, F. (2002), Systemanalyse, in: Küpper, H.-U. / Wagenhofer, A. (Hrsg.), Unternehmensführung und Controlling, 4. Auflage, Stuttgart 2002, S. 1919–1932.
Autorenverzeichnis Billen, Ronald, Dipl.-Betriebswirt, Goethestraße 40, 69214 Eppelheim, Ronald. [email protected] Borowski, Esther, M.A., IMA / ZLW & IfU, Lehrstuhl für Informationsmanagement im Maschinenbau &, Zentrum für Lern- und Wissensmanagement &, An-Institut für Unternehmenskybernetik, der RWTH Aachen, Dennewartstraße 27, 52066 Aachen, [email protected] Bruch, Raphaela, Institut für Unternehmenskybernetik e. V., Dennewartstr. 27, 52068 Aachen Buchmann, Jan, Dipl.-Wi.-Inf., Strascheg Institute for Innovation and Entrepreneurship, EBS Business School, EBS Campus Rheingau, Rheingaustraße 1, 65375 Oestrich-Winkel, [email protected] Busch, Michael, Dr. rer. pol., Technische Universität Braunschweig, Department Wirtschaftswissenschaften, Institut für Organisation und Führung, Abt-JerusalemStr. 4, 38106 Braunschweig, [email protected] Drews, Frank, Dipl.-Ing., Deutsche Institute für Textil- und Faserforschung Denkendorf – Zentrum für Management Research, Körschtalstr. 26, 73770 Denkendorf, [email protected] Fischer, Thomas, Prof. Dr., Deutsche Institute für Textil- und Faserforschung Denkendorf – Zentrum für Management Research, Körschtalstraße 26, 73770 Denkendorf, [email protected] Grösser, Stefan N., Dipl.-Kfm., Universität St. Gallen, Institut für Betriebswirtschaftslehre, Dufourstrasse 40a, 9000 St. Gallen, Schweiz, stefan.groesser@ unisg.ch Größler, Andreas, Prof. Dr., Radboud University Nijmegen, Postbox 9108, 6500 HK Nijmegen, Niederlande, [email protected] / ZLW & IfU, Lehrstuhl für Informationsmanagement im Hees, Frank, Dr., IMA Maschinenbau &, Zentrum für Lern- und Wissensmanagement &, An-Institut für Unternehmenskybernetik, der RWTH Aachen, Dennewartstraße 27, 52068 Aachen, [email protected] Henning, Klaus, Prof. Dr.-Ing., IMA / ZLW & IfU, Lehrstuhl für Informationsmanagement im Maschinenbau &, Zentrum für Lern- und Wissensmanagement &, An-Institut für Unternehmenskybernetik, der RWTH Aachen, Dennewartstraße 27, 52068 Aachen, [email protected]
410 Autorenverzeichnis Hirsch, Manuel, Dipl.-Ing., Deutsche Institute für Textil- und Faserforschung Denkendorf – Zentrum für Management Research, Körschtalstraße 26, 73770 Denkendorf, [email protected] Hobus, Björn, Dipl.-Kfm., Technische Universität Braunschweig, Department Wirtschaftswissenschaften, Institut für Organisation und Führung, Abt-JerusalemStr. 4, 38106 Braunschweig, [email protected] Isenhardt, Ingrid Institut für Unternehmenskybernetik e. V., Dennewartstr. 27, 52068 Aachen Isenmann, Ralf, PD Dr. habil., Fraunhofer-Institut für System- und Innovations forschung (ISI), Breslauer Straße 48, 76139 Karlsruhe, [email protected] hofer.de Jeschke, Sabina, Prof. Dr. rer. nat., IMA / ZLW & IfU, Lehrstuhl für Informationsmanagement im Maschinenbau &, Zentrum für Lern- und Wissensmanagement &, An-Institut für Unternehmenskybernetik, der RWTH Aachen, Dennewartstraße 27, 52066 Aachen, [email protected] Jooß, Claudia, IMA / ZLW & IfU, Lehrstuhl für Informationsmanagement im Maschinenbau &, Zentrum für Lern- und Wissensmanagement &, An-Institut für Unternehmenskybernetik, der RWTH Aachen, Dennewartstraße 27, 52066 Aachen Kapmeier, Florian, Prof. Dr., PA Consulting Group, Eschersheimer Landstraße 223, 60320, Frankfurt am Main; jetzt: Hochschule Heilbronn, Max-Planck-Str. 39, 74081 Heilbronn, [email protected] Koch, Jessica, Institut für Unternehmenskybernetik e. V., Dennewartstr. 27, 52068 Aachen Klug, Thomas, Dipl.-Kfm., IMIG AG, Poststraße 35-37, 71229 Leonberg, thomas. [email protected] Kreidler, Anja, Dipl.-Ing., Deutsche Institute für Textil- und Faserforschung Denkendorf – Zentrum für Management Research, Körschtalstraße 26, 73770 Denkendorf; jetzt: Universität Stuttgart, Institut für Diversity Studies in den Ingenieurwissenschaften, Pfaffenwaldring 9, 70569 Stuttgart, [email protected] gart.de Lau, Armin, Dipl.-Ing., Deutsche Institute für Textil- und Faserforschung Denkendorf – Zentrum für Management Research, Körschtalstraße 26, 73770, Denkendorf [email protected] Leisten, Ingo, M.A., IMA / ZLW & IfU, Lehrstuhl für Informationsmanagement im Maschinenbau &, Zentrum für Lern- und Wissensmanagement &, An-Institut für Unternehmenskybernetik, der RWTH Aachen, Dennewartstraße 27, 52066 Aachen, [email protected] Lorenz, Marcus, Dipl.-Kfm., Technische Universität Braunschweig, Department Wirtschaftswissenschaften, Institut für Organisation und Führung, Abt-JerusalemStr. 4, 38106 Braunschweig, [email protected]
Autorenverzeichnis411 Maschler, Tobias, Dipl.-Ing., MEng (EUR), Deutsche Institute für Textil- und Faserforschung Denkendorf – Zentrum für Management Research, Körschtalstraße 26, 73770 Denkendorf, [email protected] Matheis, Heiko, Dipl.-Ing., Deutsche Institute für Textil- und Faserforschung Denkendorf – Zentrum für Management Research, Körschtalstraße 26, 73770 Denkendorf, [email protected] Miczka, Switbert, Dipl.-Kfm., Roland Berger Strategy Consultants GmbH, Operations Strategy, Löffelstr. 46, 70597 Stuttgart, [email protected]. com Mieke, Christian, Prof. Dr.-Ing. habil., Fachhochschule Brandenburg, Fachbereich Wirtschaft, Magdeburger Str. 50, 14770 Brandenburg a.d.H., mieke@fh-branden burg.de Milling, Peter, Prof. Dr. h. c., Universität Mannheim, Industrieseminar, L 13, 68131 Mannheim, [email protected] Münstermann, Thilo, M.A., Institut für Unternehmenskybernetik e. V., Dennewartstr. 27, 52068 Aachen, [email protected] Neumann, Kai, Consideo GmbH, Maria-Goeppert-Str. 1, 23562 Lübeck, neumann@ consideo.de Rehm, Sven-Volker, Prof. Dr.-Ing., WHU – Otto Beisheim School of Management, Burgplatz 2, 56179 Vallendar, [email protected] Richert, Anja, Dr. phil., IMA / ZLW & IfU, Lehrstuhl für Informationsmanagement im Maschinenbau &, Zentrum für Lern- und Wissensmanagement &, An-Institut für Unternehmenskybernetik, der RWTH Aachen, Dennewartstraße 27, 52066 Aachen, [email protected] Schiemenz, Bernd, Prof. (em.) Dr., Universität Marburg, Fachbereich Wirtschaftswissenschaften, Universitätsstrasse 25, 35037 Marburg, [email protected] burg.de Schilberg, Daniel, Dr.-Ing., IMA / ZLW & IfU, Lehrstuhl für Informationsmanagement im Maschinenbau &, Zentrum für Lern- und Wissensmanagement &, AnInstitut für Unternehmenskybernetik, der RWTH Aachen, Dennewartstraße 27, 52066 Aachen, [email protected] Schwaninger, Markus, Prof. Dr., Universität St. Gallen, Institut für Betriebswirtschaftslehre, Dufourstrasse 40a, 9000 St. Gallen, Schweiz, markus.schwaninger@ unisg.ch Teufel, Benjamin, Dipl.-Verw.Wiss., Fraunhofer-Institut für System- und Innova tionsforschung (ISI), Breslauer Str. 48, 76139 Karlsruhe, benjamin.teufel@isi. fraunhofer.de Thümmel, Andreas, Prof. Dr., Hochschule Darmstadt, Fachbereich Mathematik und Naturwissenschaften, Holzhofallee 38, 64295 Darmstadt, andreas.thuemmel@ h-da.de
412 Autorenverzeichnis Tilebein, Meike, Prof. Dr., Universität Stuttgart, Institut für Diversity Studies in Ingenieurwissenschaften, Pfaffenwaldring 9, 70569 Stuttgart, meike.tilebein@ids. uni-stuttgart.de Weiß, Michael, Dipl.-Ing., Deutsche Institute für Textil- und Faserforschung Denkendorf – Zentrum für Management Research, Körschtalstraße 26, 73770 Denkendorf, [email protected] Weissenberger-Eibl, Marion, Univ.-Prof. Dr., Fraunhofer-Institut für System- und Innovationsforschung (ISI), Breslauer Str. 48, 76139 Karlsruhe, [email protected] Weitert, Christian, Dipl.-Kfm., Universität Mannheim, Industrieseminar, L 13, 68131 Mannheim, [email protected] Welter, Florian, M.A., IMA / ZLW & IfU, Lehrstuhl für Informationsmanagement im Maschinenbau &, Zentrum für Lern- und Wissensmanagement &, An-Institut für Unternehmenskybernetik, der RWTH Aachen, Dennewartstraße 27, 52066 Aachen, Florian Welter, [email protected] Wilms, Falko, Prof. Dr., Fachhochschule Vorarlberg GmbH, Hochschulstr. 1, 6588 Dornbirn, Österreich, [email protected] Zimmermann, Nicole, M.Sc., Universität Mannheim, Industrieseminar, L 13, 68131 Mannheim, [email protected]