Systemmanagement und Managementsysteme: Festgabe für Gert v. Kortzfleisch zum 70. Geburtstag [1 ed.] 9783428472529, 9783428072521


118 20 59MB

German Pages 354 Year 1991

Report DMCA / Copyright

DOWNLOAD PDF FILE

Recommend Papers

Systemmanagement und Managementsysteme: Festgabe für Gert v. Kortzfleisch zum 70. Geburtstag [1 ed.]
 9783428472529, 9783428072521

  • 0 0 0
  • Like this paper and download? You can publish your own PDF file online for free in a few minutes! Sign Up
File loading please wait...
Citation preview

Abhandlungen aus dem Industrieseminar der Universität Mannheim

Heft 34

Systemmanagement und Managementsysteme Herausgegeben von

Peter Milling

Duncker & Humblot · Berlin

Systemmanagement und Managementsysteme Festgabe für Gert v. Kortzfleisch zum 70. Geburtstag

Abhandlungen aus dem Industrieseminar der Universität Mannheim früher unter dem Titel Abhandlungen aus dem Industrieseminar der Universität zu Köln begründet von Prof. Dr. Dr. h. c. Theodor Beste

Herausgegeben von Prof· Dr. Gert v. Kortzfleisch und Prof. Dr. Heinz Bergner Heft 34

ΥκΤτ

4/.

Systemmanagement und Managementsysteme

Herausgegeben von

Peter Milling

Duncker & Humblot - Berlin

Die Deutsche Bibliothek - CIP-Einheitsaufnahme Systemmanagement und Managementsysteme : [Festgabe für Gert v. Kortzfleisch zum 70. Geburtstag] / hrsg. von Peter Milling. — Berlin : Duncker und Humblot, 1991 (Abhandlungen aus dem Industrieseminar der Universität Mannheim H. 34) ISBN 3-428-07252-9 NE: Milling, Peter [Hrsg.]; Kortzfleisch, Gert von: Festschrift; Universität (Mannheim) / Seminar für Allgemeine Betriebswirtschaftslehre und Betriebswirtschaftslehre der Industrie: Abhandlungen aus dem . . .

Alle Rechte, auch die des auszugsweisen Nachdrucks, der fotomechanischen Wiedergabe und der Übersetzung, für sämtliche Beiträge vorbehalten © 1991 Duncker & Humblot GmbH, Berlin 41 Fremddatenübernahme: Hagedornsatz, Berlin 46 Druck: Berliner Buchdruckerei Union GmbH, Berlin 61 Printed in Germany ISSN 0935-38IX ISBN 3-428-07252-9

Vorwort Die vorliegende Sammlung an Aufsätzen erscheint als Festschrift zum 70. Geburtstag von Gert v. Kortzfleisch, emeritierter Ordinarius für Betriebswirtschaftslehre an der Universität Mannheim. Langjährige Freunde und akademische Schüler — ζ. T. schon ihrerseits zusammen mit eigenen Schülern — wollen mit ihren Beiträgen den Jubilar ehren und ihm danken. Der Wissenschaftler Gert v. Kortzfleisch verlieh der Betriebswirtschaftslehre wichtige Impulse, der akademische Lehrer hat seine Sichtweisen und Einstellungen — soweit dies überhaupt möglich ist — an seine Schüler weitergegeben, der Kollege und Freund steht nach wie vor mit Wort und Tat zur Seite. Diese Festschrift ist die dritte Arbeit, die zu Ehren von Gert v. Kortzfleisch im Verlag Duncker & Humblot erscheint. In der ersten, Gert v. Kortzfleisch zum 60. Geburtstag gewidmeten Publikation, standen „Planung und Rechnungswesen in der Betriebswirtschaftslehre" im Mittelpunkt. Heinz Bergner hat diese Veröffentlichung als Herausgeber betreut und hier auch auf einfühlsame Art wichtige Etappen im Lebenslauf des Jubilars nachgezeichnet. Zum 65. Geburtstag folgte der von Erich Zahn herausgegebene Titel „Technologie- und Innovationsmanagement", und jetzt steht der Komplex „Systemmanagement und Managementsysteme" zur Diskussion. Die Buchtitel spiegeln in ihrer Sequenz auch die Entwicklung der großen wissenschaftlichen Interessengebiete von Gert v. Kortzfleisch wider. Das Systemdenken spielt in der Betriebswirtschaftslehre seit geraumer Zeit eine fruchtbare Rolle. Gert v. Kortzfleisch hat die Bedeutung dieses Ansatzes früh erkannt und bereits ab dem Ende der sechziger Jahre für dieses Gebiet entscheidende Beiträge geleistet und tragfahige Fundamente errichtet. Vielleicht bedingt durch seine ingenieurwissenschaftliche Vorbildung strebte Gert v. Kortzfleisch stets danach, betriebswirtschaftliche Sachverhalte durch Zahlen abzubilden. Nur so schien ihm die Präzision der Aussagen hinreichend gewährleistet. Dies führte ihn zunächst zur Beschäftigung mit Fragen des Finanz- und Rechnungswesens, dann zu den Planungs- und Entscheidungskalkülen des Operations Research. Dabei standen nie die Methoden als solche im Mittelpunkt, sondern deren Anwendung auf konkrete und praktisch bedeutsame Sachverhalte. Einen besonderen Stellenwert unter den analysierten Problemen nehmen der technische Fortschritt und seine mikroökonomischen Auswirkungen ein. Gert v. Kortzfleisch wußte schon zeitig um die Bedeutung der Forschungs- und Entwicklungsaktivitäten für die Wettbewerbsfähigkeit der Unternehmen und

6

Vorwort

die in ihnen tätigen Menschen. Beim Versuch, diese Frage mit Hilfe von gängigen Operations-Research-Methoden zu studieren, stieß er damals schnell an die Grenzen der überwiegend statisch-linearen Modelle und ihrer mathematischen Verfahren. Die Diskrepanz zwischen der komplexen, dynamischen Realität und den methodisch erforderlichen Sachzwängen zu wirklichkeitsfremden Vereinfachungen wies ihm den Weg zur Systemforschung und Computersimulation —und dies zu einer Zeit, als an deutschen Universitäten der Zugang zu Computern noch ein mühevoller Weg war, der auch häufig außer Haus führte. Die ersten direkten, persönlichen Kontakte mit den Gedanken der Systemforschung machte Gert v. Kortzfleisch während eines Aufenthalts am Massachusetts Institute of Technology. Ein breit angelegtes Forschungsprojekt über die Mikroökonomische Problematik des Technischen Fortschritts war Anlaß des Besuches in den USA. Veröffentlichungen über die Simulation von Forschungsund Entwicklungsprojekten hatten zum brieflichen Gedankenaustausch mit amerikanischen Kollegen geführt und die Reise vorbereitet. A m M.I.T. traf er Jay W. Forrester, und dies war der Beginn einer nun 25jährigen, engen und für beide Seiten äußerst ergiebigen Zusammenarbeit. Jay W. Forrester schilderte den ersten Kontakt mit Gert v. Kortzfleisch später als einen wichtigen Wendepunkt in der Entwicklung von System Dynamics; die Universität Mannheim hat ihrerseits Forrester mit der Würde eines Dr. h. c. ausgezeichnet. Viele der Schüler von Gert v. Kortzfleisch haben die seinerzeit geknüpften Kontakte, die seitdem verfestigt und intensiviert wurden, zu einem Forschungsaufenthalt in Cambridge, Massachusetts, nutzen können. Dieser Austausch hat erheblich zu dem Aufbau dessen beigetragen, was in der Wissenschaftswelt nüchtern als scientific community bezeichnet wird. In seiner Arbeit „Heuristische, dynamische Verfahren für geschäftspolitische Entscheidungen bei unsicheren Erwartungen und veränderlichen Zielsetzungen" präsentierte Gert v. Kortzfleisch die ersten Ergebnisse, die mit dem Systemansatz am Industrieseminar der Universität Mannheim erzielt wurden. Bei dieser Veröffentlichung handelt es sich um die schriftliche Fassung seines Referats bei der Wissenschaftlichen Tagung des Verbandes der Hochschullehrer für Betriebswirtschaft 1970 in Graz. Er stellte dort Erkenntnisse und Ergebnisse vor, die er aus Systemanalysen von Forschungs- und Entwicklungsproblemen gewonnen hatte. Eine Vielzahl von anderen Vorträgen und schriftlichen Beiträgen über diese Thematik und andere Fragestellungen sollten folgen. Das am Ende dieses Buches abgedruckte Schriftenverzeichnis belegt diese Aussage und zeugt durch Veröffentlichungen bis in die jüngste Vergangenheit von der ungebrochenen Aktivität des Jubilars. Die Systemtheorie — nicht als formale, abstrakte Wissenschaft, sondern als handlungsorientiertes Forschungsparadigma — wurde zum festen Bestandteil der akademischen Lehre an der Fakultät für Betriebswirtschaftslehre der Universität Mannheim und nahm von dort ihren Weg an andere Universitäten und in Unternehmen.

Vorwort

Besonders während der letzten Dekade erwies sich die holistische Sichtweise, wie einzelne Elemente miteinander interagieren, um eine Ganzheit — und nicht eine Ansammlung isolierter Teile — zu bilden, als lösungsmächtiges Vorgehen. Dabei wird der in Wissenschaft und Praxis wachsende Einfluß des Systemdenkens von der Tatsache verdeckt, daß der Terminus System vielfach gar nicht explizit Verwendung findet. So wird statt dessen von Integration gesprochen, wie im Begriff der computerintegrierten Fertigung bzw. des integrativen Managements; es ist vom Organismus in der Ökologie die Rede oder vom Netzwerk im Bereich der Kommunikation, vom vernetzten Denken etc. Doch unbeschadet der unterschiedlichen Bezeichnungen, es ist stets der ganzheitliche, auf die Berücksichtigung von Zusammenhängen ausgerichtete Ansatz des Systems Thinking , der neue Dimensionen für Erkenntnisse, Anwendungen und Entwicklungen eröffnet. In der Chemie zum Beispiel ist der Wandel in der Betrachtung weg vom einzelnen Molekül hin zum molekularen System mit der Erwartung eines gänzlich neuen Innovationsschubs verknüpft. Die metallverarbeitende Industrie rechnet mit außerordentlichen Produktivitäts- und Qualitätsveränderungen im Zuge integrierter Prozesse. Ähnliches gilt für andere Branchen oder Disziplinen, und auch die Betriebswirtschaftslehre profitiert von den Erkenntnissen der Systemforschung. Die in dieser Festschrift zusammengestellten Aufsätze reflektieren einige der systemtheoretischen Konzeptionen und Anwendungen in der Betriebswirtschaftslehre und in ihren Nachbardisziplinen, insbesondere den Ingenieurwissenschaften. Sie veranschaulichen, wie durch Systemmodelle betriebliche Planungsprozesse unterstützt und die Effektivität der Entscheidungen erhöht werden können. Sie sollen verdeutlichen, wie sowohl das Management von Systemen als auch die Gestaltung der Systeme selbst durch die Arbeiten und das Wirken von Gert v. Kortzfleisch beeinflußt wurden. Die Verfasser wollen damit Gert v. Kortzfleisch ihre Reverenz erweisen. Autoren und Herausgeber der Festschrift danken dem Verlag Duncker & Humblot und seinem geschäftsführenden Gesellschafter, Herrn Prof. Norbert Simon, für die Übernahme des verlegerischen Risikos und die freundliche Unterstützung bei der Veröffentlichung. Die verlagsseitige Betreuung der Festschrift lag wie gewohnt in den bewährten Händen von Wolfgang Nitzsche. Die fristgerechte Fertigstellung war nur durch außergewöhnlichen Einsatz seitens der Mitarbeiter des Verlags zu erreichen. Die schon zur Tradition gewordene Aufnahme der Arbeit in die Schriftenreihe der Abhandlungen aus dem Industrieseminar der Universität Mannheim — eine Reihe, die ursprünglich von Theodor Beste, dem akademischen Lehrer von Gert v. Kortzfleisch und Heinz Bergner, an der Universität zu Köln begründet wurde — gewährleistet hohe redaktionelle und drucktechnische Qualität. Peter Milling

Inhalt Peter Milling

Strategische Planungs- und Kontrollsysteme zur Unterstützung betrieblicher Lernprozesse

11

Jay W. Forrester

Beyond Case Studies - Computer Models in Management Education

33

Erich Zahn

Strategieunterstützungssysteme Alfred

43

Voß

Energie und Umwelt als Systemproblem: Die Notwendigkeit fur bessere Entscheidungs-Unterstützungs-Systeme 81 Klaus Bellmann

Latente ökonomische Ressourcen in der Nutzungsdauer von Gebrauchsgütern Erich Staudt, Joachim Hafkesbrink

99

und Renate Barthel

Neue Techniken im Spannungsfeld alter Systeme: Entscheidungshilfen bei der Einführung von CIM 125 Bernd Kaluza

Kosten- und Erlösrechnungen bei neuen Technologien

157

Hermann Krallmann

Der wissensbasierte Fertigungsleitstand auf der Basis verteilter Architekturen

191

Egon Jehle

Entwicklungstrends der Wertanalyse zum Value Management

219

Thomas Hänichen und Thomas Nagel

Stellung und Aussagefähigkeit der Abweichungsanalyse im System der Kostenkontrolle 243 Heinz Bergner und Michael Schehl

Zur Ermittlung der Herstellungskosten in Handels- und Steuerbilanz aus der Kostenrechnung 299 Verzeichnis der Veröffentlichungen von Gert v. Kortzfleisch

343

Verzeichnis der Mitarbeiter

351

Strategische Planungs- und Kontrollsysteme zur Unterstützung betrieblicher Lernprozesse Von Peter Milling Α. Kausalität und Komplexität von Unternehmensprozessen Unternehmen sind komplexe Systeme. In ihnen wirken unterschiedliche Elemente zusammen; ihr Verhalten ist von vielfältigen Faktoren beeinflußt und kaum exakt vorauszusagen. Mit entsprechend schwierigen Aufgaben sieht sich das Management bei der Führung konfrontiert. Diese und ähnliche Aussagen werden allgemein akzeptiert. Jedoch jenseits der bloßen Zustandsbeschreibung endet der Konsens. Wenn es darum geht zu erklären, warum die genannten Attribute zutreffen und wie die Unternehmensleitung sich mit ihnen auseinandersetzen sollte, klaffen die Ansichten auseinander. Für ein sach- und zielgerechtes Agieren ist das Wissen um die Ursachen der Komplexität und die Art der Kausalitäten in den Unternehmensprozessen erforderlich. Für die Gestaltung oder das „Design" von Planungs- und Kontrollprozessen sind diese Kenntnisse unabdingbar.

I. Das Paradigma der Feedbackstruktur: Die Unternehmung als Koproduzent ihrer Umwelt Von entscheidender Bedeutung für den Umgang mit der Systemkomplexität ist die Beantwortung der Frage nach dem Ursprung der auf das Unternehmen einwirkenden Größen. Hier findet sich nicht selten die Auffassung, die Entwicklung der Unternehmung werde zum großen Teil durch Faktoren außerhalb ihres unmittelbaren Einflußbereichs bestimmt. So müsse etwa die Produktion wegen exogener Verschiebungen der Nachfrage reduziert werden; Auftragseingänge schwankten aufgrund kurzfristiger Saisoneinflüsse; das Betriebsergebnis verschlechtere sich, weil der Wettbewerbsdruck die Unternehmung zu Preissenkungen zwinge. Aus dieser Perspektive wird das beobachtete Verhalten auf außerhalb der Kontrollsphäre der Unternehmung liegende Einflußgrößen zurückgeführt, die Reaktionen erfordern und bestimmen. Bei einer solchen Einstellung gegenüber den Umweltprozessen wird die Unternehmung als passives Element im Marktgeschehen gesehen, das auf exogene Stimuli nur zu reagieren vermag, aber selbst keinen Einfluß auf den Verlauf der Prozesse ausüben kann. Fremde Kräfte wirken auf die Unterneh-

12

Peter Milling

mung ein, die sich nur adaptiv verhält — eine unidirektionale Betrachtungsweise, die Abbildung 1.1 veranschaulichen soll. A l l die beispielhaft genannten Faktoren existieren, sie wirken auf die betrieblichen Prozesse und können erheblichen Druck auf die Entscheidungen der Unternehmung ausüben. Aber die Auffassung, externe Zwänge würden die Unternehmensprozesse generell dominieren, trifft nicht zu; Entwicklungen werden nicht ausschließlich von außerhalb des Unternehmens angesiedelten Kräften gestaltet. Die Unternehmung ist durchaus in der Lage, ihre Umwelt mitzubeeinflussen — sie kann die Aktionen der Marktpartner zwar nicht bestimmen, deren Verhaltensformen aber sehr wohl induzieren und so als Koproduzent ihrer Umwelt auftreten. Die oben erwähnte schlechte Gewinnsituation mag die unmittelbare Folge der verfehlten Preisstrategie der Unternehmung sein; der Auftragseingang fluktuiert vielleicht auf Grund der verfolgten Produktionspolitik; die Unternehmung kann durch Lieferengpässe den Wandel in der Kundennachfrage selbst herbeigeführt haben, etc. Das eigene, interne Verhalten wirkt sich hier ursächlich, wenn auch nicht ausschließlich, auf das Marktgeschehen aus.

/ 1.1: Passives Element im Markt

1.2: Koproduzent der Umwelt

Abb. 1. Perspektiven der Unternehmung im Marktgeschehen

In einer solchen Betrachtungsweise sind Unternehmen kybernetische Systeme; ihre Führungsentscheidungen sind endogene Variablen des Marktes. Diese Sicht verdeutlicht Abbildung 1.2, die die Unternehmung durch wechselseitige Beziehungen in die Markt- und sonstigen Umfeldprozesse eingebunden darstellt. Die Unternehmung formt ihre Umwelt und wird gleichzeitig von ihr beeinflußt. Aktion und Reaktion, Stimulus und Response sind miteinander in komplexer Kausalität verknüpft. Rückkopplungsschleifen bilden die zentralen Bauelemente dynamischer Systeme. Die zirkuläre Kausalität der Feedback-Struktur ist essentiell und in sozialen Systemen allgegenwärtig. Aus dieser Rückkopplungsperspektive müssen die Aspekte, die Erfolg oder Mißerfolg einer Unternehmung verursachen, erfaßt und abgebildet werden 1 .

Strategische Planungs- und Kontrollsysteme

13

Die vielfältigen und dynamischen Interdependenzen bedeuten für die Planungs- und Kontrollprozesse der Unternehmung eine besondere Herausforderung. Die systemtheoretische Sichtweise mit — der Betonung gegenseitiger Abhängigkeiten anstelle linearer UrsacheWirkungs-Ketten und — der Fokussierung auf Entwicklungsprozesse statt der Betrachtung isolierter Ereignisse ist erforderlich, um in einem solchen Umfeld zu reüssieren 2. Monokausales, lineares Denken scheitert an der Komplexität der realen Strukturen. Wesentliche Attribute der Realität können so nicht erfaßt werden.

II. Verständnisdefizite bei der Verhaltensprognose Schon einfache Rückkopplungssysteme mit wenigen Variablen bereiten Schwierigkeiten, ihre Dynamik intuitiv zu verstehen und durch entsprechende Maßnahmen zu kontrollieren; umfangreichere Systeme mit eventuell nichtlinearen Relationen überschreiten die kognitiven Fähigkeiten des Menschen bei weitem. Unternehmen gar sind äußerst komplexe Systeme. Ihre Verhaltensmuster entziehen sich intuitiven Lösungen. Prima facie offensichtliche oder naheliegende Maßnahmen führen häufig nicht zum Erreichen des angestrebten Ziels. Solche „klaren Lösungen" schaffen vielfach gerade die Probleme, die es später zu bewältigen gilt — sei es, daß die Situation falsch eingeschätzt wird, daß Symptome anstelle von Ursachen behandelt werden oder kurzfristige Erfolge mit langfristigen Schwierigkeiten erkauft werden. Verfolgt etwa eine Unternehmung bei der Einführung eines neuen Produktes eine Hochpreispolitik in der Erwartung, zusätzliche Gewinne durch Abschöpfen von Pionierrenten zu realisieren und werden de facto Verluste erwirtschaftet, so kann diese Diskrepanz im Grundsatz auf zwei Verständnislücken beruhen: Der Unternehmensleitung kann es einmal an Wissen mangeln, welche Elemente im einzelnen bei der a priori Evaluierung einer solchen Strategie überhaupt eine Rolle spielen und wie diese im Detail aussehen, z.B. wie potentielle Kunden auf bestimmte Maßnahmen reagieren. Oder — die andere Alternative — es können zwar sämtliche erforderlichen Informationen über die einzelnen Variablen vorliegen, es fehlt aber die Kenntnis, wie diese in ihrer Vielfalt zusammenwirken und wie sich aus den Interaktionen von Markt und Unternehmung das komplexe Systemverhalten entwickelt. 1 Siehe dazu insbesondere die frühe Arbeit von v. Kortzfleisch, Gert: Heuristische dynamische Verfahren für geschäftspolitische Entscheidungen bei unsicheren Erwartungen und veränderlichen Zielsetzungen, in: Hax, Herbert (Hrsg.): Entscheidung bei unsicheren Erwartungen, Köln und Opladen 1970, S. 203-217. 2

Vgl. Senge, Peter M.: The Fifth Discipline: The Art and Practice of the Learning Organization, New York et al. 1990, S. 73.

14

Peter Milling

Diese beiden Ursachen für Fehleinschätzungen des Verhaltens lassen sich in einer Analogie mit mathematischen Modellen verdeutlichen. Im erstgenannten Fall herrscht Unklarheit über die Gleichungen eines dynamischen Modells, im zweiten Fall sind die Gleichungen zwar alle definiert, die Lösung des Systems, d.h. welches Zeitverhalten B(t) davon erzeugt wird, ist aber unbekannt. Einmal betrifft es die nicht-dynamische Beschreibung der Elemente und den Aufbau des Systems — im folgenden als Systemstruktur und Unternehmenspolitik (S&UP) bezeichnet —, zum anderen handelt es sich um die dynamischen Konsequenzen aus diesen Zusammenhängen und Hypothesen. Treten keine externen Störgrößen auf, wird das Zeitverhalten einzig als Funktion von S&UP bestimmt: Β = Γ (S&UP). Differenzen zwischen diesem — tatsächlichen oder beobachteten — Verhalten Β und den Verhaltenserwartungen B* können nur aus fehlerhaft repräsentierten Strukturen und Politiken S&UP und/oder aus mangelndem Verständnis der Auswirkungen der Zuordnungsvorschrift Γ resultieren. Dieser zweite Aspekt im Zusammenhang mit dem Auftreten von unerwartetem Verhalten wird häufig übergangen. Die Geschäftsleitung besitzt in aller Regel vielfältige und detaillierte Informationen über die Strukturen im Markt und die Abläufe der Unternehmenspolitik. Diese Wissensbasis ist in Abbildung 2 durch den oberen Block S&UP repräsentiert und umfaßt lokales, nicht-dynamisches Wissen über die elementaren Systemkomponenten. Die Basis beschreibt realitätsadäquat und zuverlässig, wie einzelne Teile des Systems sich verhalten, wer das Verhalten steuert und kontrolliert und gibt die Informationen wieder, die jeder Entscheidungsposition im Unternehmen zur Verfügung stehen. Sie macht auch deutlich, welche Einflüsse unternehmensinterner Druck, Sachzwänge oder Krisen auf die Entscheidungsprozesse ausüben. Die Annahmen und Vermutungen, wie das System auf bestimmte Handlungen reagieren wird, basieren auf dieser Informationsquelle. Das daraus abgeleitete erwartete Verhalten B* ist die intuitive Lösung der durch Systemstruktur und Unternehmenspolitik beschriebenen Problemsituation. Oft nun unterscheidet sich das tatsächlich eingetretene bzw. beobachtete Verhalten maßgeblich von den Erwartungen; bei komplexen Systemen tritt eine solche Differenz ohne formale Analysehilfen nahezu zwangsläufig ein. Begründet werden diese Soll/Ist-Abweichungen entweder durch unvorhersehbare Einflüsse, wie verändertes Kunden- oder Konkurrentenverhalten, exogene Größen, wie Wechselkursschwankungen, Konflikte in wichtigen Absatzregionen etc. Dies veranlaßt die Geschäftsleitung dann, unmittelbar eine andere Politik einzuschlagen bzw. organisatorische Veränderungen vorzunehmen. Aktionismus ist die letzte Konsequenz dieser Vorgehensweise. Oder die Diskrepanz wird durch falsche oder zumindest unvollständige Kenntnisse über die wahren Gegebenheiten in S&UP erklärt; dann wird

Strategische Planungs- und Kontrollsysteme

15

Abb. 2. Erwartetes versus beobachtetes Systemverhalten

postuliert, es mangle erkennbar und zweifelsfrei an Wissen darüber, wie die Marktteilnehmer sich verhalten, wie Informationen verarbeitet und Entscheidungen getroffen werden. Folglich seien mehr empirische Untersuchungen und verstärkte Datenerhebungen über das System und über die Akzeptanz der Unternehmenspolitik erforderlich, um die offensichtlichen Defizite zu beseitigen. Diese Auffassung ist jedoch trügerisch und führt möglicherweise in die Irre, denn sie verkennt leicht die wahren Ursachen des mangelnden Systemverständnisses. Würde ein formales Modell auf der Grundlage der beobachteten Systemstruktur und Unternehmenspolitik entwickelt, generierte es häufig das beobachtete Verhalten des realen Systems 3 . Mit anderen Worten, aus dem vorliegenden Wissen über die einzelnen Teile des Systems kann das tatsächliche Verhalten erklärt werden. Was nicht hinreichend verstanden wird und wo entsprechend zusätzlicher Informationsbedarf besteht, sind die komplexen, dynamischen Beziehungen zwischen S&UP und B, wie sie in der Zuordnungsfunktion Γ repräsentiert sind. Die Diskrepanz zwischen Soll- und Istwerten resultiert aus dem vermuteten Verhalten einerseits und dem, was die organisatorischen Regelungen sowie die Entscheidungsvorgaben in S&UP de facto bedingen. Nicht die Systemstruktur und die Unternehmenspolitik sind unzulänglich bekannt, sondern deren dynamische Implikationen werden unzutreffend beurteilt. Ein System, dessen Verhaltensweisen nicht bekannt sind, bei dem 3 Siehe Forrester, Jay W.: Lessons from System Dynamics Modeling, in: Aracil, Javier; Machuca, José A. D. und Karsky, Michael (Hrsg.): System Dynamics: On the Move, Sevilla 1986, S. 1-16.

16

Peter Milling

unerklärt ist, wie Aktionen zu bestimmten Reaktionen führen, kann nicht zielorientiert gesteuert werden. Für ein rationales Systemmanagement ist Verständnis, wie Informationen in Aktionen transformiert werden, unabdingbar. Nur auf dieser Basis können effektive Organisationsformen aufgebaut und Rahmenentscheidungen für spezifische Handlungen vorgegeben werden. Es ist eine Prämisse des Systemansatzes, daß die Effektivität eines Prozesses nur verbessert werden kann, wenn dieser in seinen grundsätzlichen Abläufen verstanden und nach vollzogen werden kann. Computerunterstützung kommt dabei — wegen der Komplexität der Systeme — entscheidende Bedeutung zu.

B. Computerunterstützung bei strategischen Entscheidungen Im Hinblick auf das vertiefte Verständnis und damit verbunden als Voraussetzung einer effektiven Planung und Kontrolle sind drei Punkte einer genaueren Diskussion zu unterziehen: (1) Welche Informationsquellen werden von der Unternehmensleitung für ihre Entscheidungsprozesse herangezogen? (2) Wie kann die verwendete Information organisiert werden, um die Diskrepanz zwischen Wissen um Unternehmensstrukturen und -politiken einerseits und dem daraus resultierenden Verhalten andererseits zu schließen? (3) Zu welchem Zweck und mit welchem Ziel werden formale Werkzeuge zur Unterstützung strategischer Entscheidungsprozesse in der Unternehmung eingesetzt? Aus der Beantwortung dieser Fragen ergeben sich Hinweise zur verbesserten Planung und Kontrolle von und in komplexen Systemen. Sie sind sowohl für das Systemmanagement als auch für Managementsysteme generell von Bedeutung. I. Informationsquellen In seinem Grundaufbau basiert jeder Entscheidungsprozeß auf einer zweiseitigen Beziehung zwischen der Problemsituation einerseits und einem Informationssystem, das relevantes Wissen verfügbar macht, andererseits. Im Fall schlecht-strukturierter Entscheidungen auf strategischer Ebene ist dieses Informationssystem überwiegend informaler Natur, häufig nur ein mentales Abbild (Image) der vermuteten Aktivitäten: „Each member of the organization constructs his or her representation, or image, of the theory-in-use of the whole. That picture is always incomplete . . . Organization is an artifact of individual ways of representing organization." 4 4 Argyris , Chris und Schön, Donald Α.: Organizational Learning: A Theory of Action Perspective, Reading, MA 1978, S. 16; siehe auch Argyris , Chris: Overcoming Organizational Defenses. Facilitating Organizational Learning, Boston et al. 1990, S. 12ff.

Strategische Planungs- und Kontrollsysteme

17

Mentale Modelle steuern implizit das Verhalten von Entscheidungssubjekten. Sie weisen gegenüber formalen Modellen bedeutsame Vorzüge auf, insbesondere vermögen sie das Wesentliche aus der Flut redundanter Informationen herauszufiltern und bei der Schlußfolgerung unscharfe Ableitungsregeln zu verwenden. Neben diesen Stärken zeigen sie auch Schwachpunkte. Sie verändern sich ständig und meist unbewußt; sie sind unpräzise in der Darstellung, schwer zu kommunizieren, und sie können nicht umfassend analysiert werden 5 . Der Systemansatz versucht, die Vorzüge mentaler Modelle zu nutzen und ihre Schwachstellen zu vermeiden, indem die Lösungsmächtigkeit kognitiver Prozesse mit der Geschwindigkeit und Genauigkeit des Computers verbunden wird. Ein solch ehrgeiziges Unterfangen verlangt zum einen nach einem klaren Verständnis der verhaltensbestimmenden Aspekte der Realität, zum anderen ist ein leistungsfähiges Instrumentarium erforderlich, um diese Elemente und Relationen in formale Modelle abzubilden. Benötigt wird ein Paradigma der wesentlichen Bausteine komplexer Systeme und eine operationale Sprache, die diese in ihren Verknüpfungen beschreibt. Im Bereich sozialer Systeme führt der Mangel an theoriegeleiteten Handlungsanweisungen zu einer Dominanz von Intuition, Erfahrung und Heuristiken — bis hin zur routinemäßigen Anwendung von Schemata in den strategischen Planungs- und Führungsprozessen. Diese Konzepte waren wertvolle Wegweiser in der Vergangenheit, für die Zukunft mit dem Auftreten von Diskontinuitäten und immenser Systemkomplexität stellen sie jedoch zweifelhafte Orientierungshilfen dar. Sie bleiben unverändert notwendige Begleiter, aber sie müssen unterstützt und ergänzt werden durch ein Systemdenken, das es der Unternehmung erlaubt, effizient und effektiv auf Veränderungen in der Wettbewerbssituation einzugehen. Wenn die Geschäftsleitung sich nicht damit zufrieden gibt, vorgezeichneten Bahnen zu folgen, sondern danach strebt, eine bedeutsame Rolle bei der Gestaltung des zukünftigen Kurses der Unternehmung zu spielen, muß sie ein tiefgehendes Verständnis des gesamten Unternehmenssystems und dessen Umwelt haben. Ein umfassender und kausaler Ansatz für die Modellbildung ist erforderlich. Um Einsichten in die untersuchten Prozesse zu erlangen, müssen all die Faktoren erfaßt werden, die das Systemverhalten verursachen. Die Modelle müssen erklären — und damit zu einem besseren Verständnis der Unternehmensleitung beitragen —, warum bestimmte Verhaltensformen auftreten. Sie müssen explizit die Struktur des Systems mit dessen Verhalten verknüpfen. Nur dann können sie sinnvolle Werkzeuge zur Verbesserung unternehmerischer Entscheidungsprozesse darstellen.

5 Vgl. Milling , Peter: Subjective Knowledge Bases in Corporate Policy Making, in: Forrester, Nathan B.; Homer, Jack B. et al. (Hrsg.): Proceedings of the 1988 International Conference of the System Dynamics Society, La Jolla, CA 1988, S. 272-281.

2 Festgabe v. Kortzfleisch

Peter Milling

18

Die Entwicklung formaler Modelle ist eng verbunden mit der Quantifizierungsproblematik. Unscharfe Konzepte und qualitative Variablen, wie Kundenzufriedenheit, Produktqualität, Mitarbeitermotivation oder Innovationsdruck müssen definiert werden — auch oder gerade dann, wenn keine harten Daten vorliegen. In der Realität spielen diese Variablen eine bedeutsame Rolle. Sie können nicht aus formalen Modellen herausgelassen werden, weil Schwierigkeiten bei der Quantifizierung auftreten. Ein solcher Selektionismus würde zu zweifelhaften Ergebnissen führen 6 . Aus der Erfahrung und dem Verständnis der Zusammenhänge des Gesamtsystems muß die Geschäftsleitung die relevanten Informationen über Strukturen und Entscheidungsregeln zur Verfügung stellen. Reaktions- und Verhaltensschätzungen können verwendet werden, um die Beziehungen zwischen lokaler Aktion und Reaktion zu skizzieren und damit zu formalisieren, was eventuell nur als intuitives Konzept die Gedanken der Unternehmensleitung beeinflußt 7 .

II. Managementsimulatoren Die Führung von Unternehmen und insbesondere das strategische Management sind komplexe und dynamische Aufgaben; sie verlangen nach Entscheidungen, deren Effektivität für die Wettbewerbsfähigkeit und das Überleben der Unternehmung schlechthin essentiell sind. Sie basieren in hohem Maße auf situativem Beurteilungsvermögen und Erfahrungen. Sie können nicht durch automatisierte Entscheidungsprozeduren ersetzt werden; dennoch ist es möglich, sie substantiell durch formalisierte Modelle und Abfragesysteme zu unterstützen. Gerade bei dieser Art von Problemlösungen können strategische Entscheidungs-Unterstützungs-Systeme erfolgreich eingesetzt werden; gerade hier ist ihr Erfolgspotential am größten 8 . Solche Strategie-Unterstützungs-Systeme befassen sich mit Entscheidungssituationen, die jenseits der klassischen Computeranwendungen im Bereich routinemäßiger Entscheidungsfindung liegen. Es ist ein Paradigma des Systemansatzes, daß auch für die schlecht-definierten Probleme der unternehmenspolitischen Führungsebene formale Modelle verfügbar und einsetz6 Mit den Konsequenzen des selektiven Subjektivismus hat sich u. a. der englische Astrophysiker Sir Arthur Eddington in seinen 1938 gehaltenen Tarner Lectures befaßt und anschaulich auf mögliche Fehlentwicklungen hingewiesen. Siehe Eddington, Arthur: The Philosophy of Physical Science, 2. Auflage, Cambridge 1949, S. 16ff. 7

Praktikable Vorschläge in diese Richtung finden sich bei Keen , Peter G. W.: Decision Support Systems: Translating Analytic Techniques into Useful Tools, in: Sloan Management Review, Vol. 21 (1980), No. 3, S. 33-44. 8

Vgl. dazu v. Kortzfleisch , Gert: Wirtschaftswissenschaften als exakte Wissenschaften, in: Mannheimer Berichte, Nr. 4 (1972), S. 82-88; Keen , Peter G. W. und Morton, Michael S. Scott: Decision Support Systems: An Organizational Perspective, Reading, MA 1978.

Strategische Planungs- und Kontrollsysteme

19

bar sind. Und eben hier erweisen sich wegen der Gewichtigkeit der Entscheidungen die potentiellen Vorteile am bedeutsamsten. Das obige Abbild 2 zeigte, daß die begrenzten kognitiven Fähigkeiten des Menschen Schwierigkeiten bereiten, wenn es darum geht, intuitiv zu verstehen, welche Prozesse mit welchen Konsequenzen in komplexen Organisationen ablaufen. Experimentelle Untersuchungen weisen auf beständige Fehleinschätzungen des Verhaltens von multiplen Feedback-Systemen mit den ihnen inhärenten Verzögerungen und Verstärkungen hin. Die Ursachen dieser Fehleinschätzungen finden sich im Laborexperiment bei betriebswirtschaftlichen Studenten ebenso wie bei erfahrenen Unternehmensleitern 9. Strategie-Unterstützungs-Systeme betonen die Bedeutung — nicht die Ersetzbarkeit — der unternehmerischen Urteilskraft; sie verknüpfen die kognitiven Prozesse menschlicher Problemlösung mit den routinemäßigen Abläufen des Computers und gewinnen aus dieser Kombination ihre Synergieeffekte. Die Computersimulation soll als „Intelligenzverstärker" wirken, um Kreativität freizusetzen, als eine Art „Mikroweit", die das Experimentieren mit verschiedenen Aktionsalternativen erlaubt 10 . Computermodelle können als virtuelle Realität verwendet werden, um die Sicht der Unternehmensleitung über die Märkte, die Umwelt, die Wettbewerber usw. zu repräsentieren. Computersimulation ermöglicht Einsichten in das Verhalten der Systeme; sie verbindet die theoriegeleitete Forschung und die pragmatische Suche des Laborexperiments und bildet damit eine dritte Säule für rationale Entscheidungsfindung. Die virtuelle Realität der Modelle erlaubt es, die Unternehmung — allerdings auf gänzlich anderem Abstraktionsniveau und mit anderem Anspruch an die Wirklichkeitstreue als im Konzept des „Cyberspace" — verschiedenen Aktionsalternativen und Umweltszenarien auszusetzen. Den Ausgangspunkt für die Entwicklung stellen die mentalen Modelle der Teilnehmer dar; sie umfassen alle relevanten Informationen und sind die primäre Informationsquelle für sinnvoll gestaltete strategische Entscheidungs-Unterstützungs-Systeme. Strategie-Unterstützungs-Systeme zielen auf die Effektivität der Entscheidungsprozesse, nicht auf deren Effizienz; Strategieunterstützung soll nicht grundsätzlich billigeren oder schnelleren Zugang zu Informationen ermöglichen, sondern zu verbesserten Entscheidungen, zu besserem Zielverständnis und sorgfältiger erforschten Handlungsalternativen führen. Ziel solcher Systeme ist nicht das schon ex ante erfolglose Streben nach Voraussicht über zukünftige Ereignisse, sondern das Bemühen, Einsicht in die Zusammenhän9 Siehe Sterman, John D.: Modeling Managerial Behavior. Misperceptions of Feedback in a Dynamic Decision Making Experiment, in: Management Science, Vol. 35 (1989), S. 321-339. Vgl. auch Stata , Ray: Organizational Learning — The Key to Management Innovation, in: Sloan Management Review, Vol. 30 (1989) No. 3, S. 63-74. 10

Der Begriff „Mikroweit" bzw. „Microworld" für solche Modelle stammt von Paperi , Seymour: Mindstorms. Children, Computers, and Powerful Ideas, Brighton 1980, S. 120ff. 2*

Peter Milling

20

ge der Verhaltensweisen zu gewinnen und Ansatzpunkte zur gezielten Beeinflussung zu erkennen. Hamming hat diese Zielsetzung präzisiert: „The purpose of computing is insight, not numbers" 11 . Wiederholte Simulationsexperimente erlauben das sorgfältige Überprüfen verschiedener Annahmen, Handlungsmöglichkeiten, organisatorischer Formen und die Beurteilung ihrer dynamischen Implikationen 12 . Darüber hinaus nutzen Strategie-Unterstützungs-Systeme die Möglichkeiten, die die Fortschritte bei der Computersoftware und -hardware eröffnen. Das Konzept computergestützter Entscheidungsprozesse kann bis zu dem Time-Sharing-Betrieb früher Großrechner zurückverfolgt werden. Aber erst durch die Verfügbarkeit leistungsfähiger, benutzerfreundlicher — und wahrhaft persönlicher — Personal Computer ist aus dem Konzept ein praktikables Werkzeug geworden. Innerhalb einer Software-Umgebung können unterschiedliche Fragestellungen im Mensch-Maschine-Dialog bearbeitet werden. Benötigte Daten stehen unmittelbar zur Verfügung, „Tools" für den Entwurf, die Analyse und die Präsentation von Modellen ermöglichen den modularen Aufbau von Strategie-Unterstützungs-Systemen. Die in der Systemforschung tradierte und bewährte Vorgehensweise, sogenannte „kardinale" oder „generische" Strukturen als vorgefertigte Bausteine komplexer Systeme zu verwenden, zielt in eben diese Richtung. Der Katalog von Anforderungen und Zielen der Strategie-UnterstützungsSysteme entspricht Jay W. Forrester's früher Definition des von ihm geprägten Systemansatzes, wenn er von 4i the investigation of the information-feedback character of industrial systems and the use of models for the design of improved organizational form and guiding policy" spricht, um das Konzept von Industrial Dynamics bzw. von System Dynamics zu charakterisieren 13 .

III. Planung und Kontrolle — Ein Lernprozeß Unternehmensplanung und -kontrolle können als Lernprozeß über das betrachtete System und dessen Umwelt interpretiert werden, die in diesem Verständnis als „Change Agent" wirken. Der Fähigkeit der Unternehmung, Veränderungen in der Umwelt — seien sie exogener oder endogener Natur — zügig aufzugreifen, sie zu gestalten oder sich ihnen anzupassen und daraus für zukünftige Handlungen zu lernen, wird eine entscheidende Rolle als Wettbewerbsfaktor zugeschrieben. Mit der Aussage „the ability to learn

11

Richard W. Hamming hat diesen Satz seiner Monographie „Numerical Methods for Scientists and Engineers", New York et al. 1962, als Motto vorangestellt. 12 Vgl. Milling , Peter: Controlling the Market Performance of New Products, in: Lasker, George E. (Hrsg.): Advances in Systems Research and Cybernetics, Windsor, Ontario 1988, S. 310-319. 13

Forrester , Jay W.: Industrial Dynamics, Cambridge, MA 1961, S. 13.

Strategische Planungs- und Kontrollsysteme

21

faster than your competitors may be the only sustainable competitive advantage" kennzeichnet der ehemalige Planungsleiter der Shell-Gruppe den strategischen Stellenwert dieses Sachverhalts 14 . Durch die Untersuchung verschiedener Szenarien und das daraus resultierende Lernen können Unternehmen Erkenntnisse über alternative Wege in die Zukunft gewinnen 15 . Die Analyse eines formalen Modells als Abbild des Unternehmens wird zu einem verbesserten Verständnis der Realität führen. Der Lernprozeß einer Unternehmung als Koproduzent ihrer Umwelt ist nicht auf die (reaktive) Anpassung an Umweltveränderungen beschränkt. Dieses „adaptive" Lernen führt zu der oben diskutierten passiven Sicht bezüglich der Stellung im Marktgeschehen. Erforderlich für eine innovative Unternehmung ist kreatives oder produktives Lernen, das zur Quelle neuer Technologien oder Verfahrensweisen wird. Diese Unterscheidung im Konzept des organisatorischen Wandels entspricht der Trennung bei Argyris und Schön zwischen dem „single-loop" Lernen, bei dem Individuen oder Gruppen ihr Verhalten an existierende Ziele, Normen oder Vorgaben anpassen und dem „double-loop" Lernen, wo eben diese Ziele, Normen und Vorgaben der Veränderung ausgesetzt sind. „Double-loop learning requires that the learning process of discovery-invention-production-generalization be applied to each step of the larger learning process . . . if individuals do not know how to discover, then they w i l l first have to discover how to discover, invent ways to discover, produce these ways, and learn and generalize" 16 . Abbildung 3 veranschaulicht dieses Konzept. Durch den großen, äußeren Kreis des adaptiven Lernens mit dem Erkennen des Problems (E), dem Finden (F) und Produzieren (P) von Lösungen und schließlich dem Beurteilen und Generalisieren (G) paßt sich die Unternehmung an externe Gegebenheiten passiv an; erst durch die zweite, interne Ebene an Lernprozessen ist die Unternehmung befähigt, Ziele und Vorgaben zu modifizieren. Jede Phase des Lernprozesses wird gleichzeitig zum Objekt des Lernens selbst. Dieses Modell entspricht dem Verhalten innovativer Unternehmen, die über ihr eigenes Vorgehen reflektieren und es ständig überprüfen.

14 de Geus, Arie P.: Planning as Learning, in: Harvard Business Review, Vol. 66 (1988) No. 2, S. 70-74, hier: S. 71. 15 Zu den praktischen Erfahrungen mit der Szenariotechnik bei der strategischen Planung und Kontrolle siehe die beiden Aufsätze von Wack, Pierre: Scenarios: Uncharted Waters Ahead, in: Harvard Business Review, Vol. 63 (1985) No. 5, S. 72-89, sowie: Scenarios: Shooting the Rapids, in: Harvard Business Review, Vol. 63 (1985) No. 6, S. 139-150. 16

Argyris/Schön : Organizational Learning, S. 140. Vgl. auch Argyris , Chris; Putnam , Robert und McLain Smith , Diana: Action Science, San Francisco — Oxford 1990, S. 80ff.; Senge, Peter M.: The Leader's New Work: Building Learning Organizations, in: Sloan Management Review, Vol. 32 (1990), No. 1, S. 7-23, hier: S. 8.

22

Peter Milling

Abb. 3. Lernprozesse in innovativen Unternehmen 17

Folgerichtig impliziert der Prozeß der Entwicklung von Strategie-Unterstützungs-Systemen Begriffe wie Lernen, Interaktion und Evolution 1 8 . Die Beschäftigung mit der Problemsituation und die schrittweise Entwicklung von Handlungsalternativen hin zu einer Entscheidung stellen per se wertvolle Einsichten dar. Strategie-Unterstützungs-Systeme können nur begrenzt von externen Beratern oder einer Planungsabteilung für die unternehmenspolitischen Entscheidungsträger entworfen und entwickelt werden. Dies erfordert die aktive und intensive Mitarbeit des späteren Nutzers selbst. Wenn jedoch von unternehmenspolitischen Entscheidungsträgern erwartet wird, daß sie aktiv mitwirken, ihre mentalen Modelle in formale Abbilder zu übertragen, muß eine solche Transformation ohne detaillierte Computerkenntnisse nachvollziehbar sein. Der Übergang von einer „mind map" zu einem mathematisch definierten Modell — in der Künstlichen Intelligenz wird für dieses kritische Stadium im Prozeß der Wissensrepräsentation der Terminus „Knowledge Engineering" verwendet — erlaubt ein besseres Verständnis des zu untersuchenden Sy17 18

Aufbauend auf einer Darstellung von Argyris/Schön,

S. 141.

Vgl. Morecroft, John D. W.: Strategy Support Models, in: Strategie Management Journal, Vol. 5 (1984), S. 215-229.

Strategische Planungs- und Kontrollsysteme

23

stems. Die Präzisierung und der Austausch von Informationen machen die Annahmen und Hypothesen des Entscheidungssubjekts über das Realsystem explizit. Sie zeigen, wie die Unternehmensleitung Strukturen und Operationen erfaßt und versteht, welche Erwartungen sie mit der Verfügbarkeit von Informationen verbindet. Wenn immer Erwartungen, wie das System (oder das Modell) funktionieren sollte, mit dem tatsächlichen Verhalten divergieren, wird offensichtlich, daß Organisationsform, „Policies" und Handlungsanreize nicht in der erhofften Art wirken. De facto werden andere Informationsquellen verwendet, Verzögerungen bestimmen das Systemverhalten, in den Vorstellungen der Unternehmensleitung unberücksichtigte Einflüsse wirken sich aus etc. Aus all diesen Diskrepanzen können Einsichten in das System gewonnen und auf deren Auswirkungen hin simuliert werden. In komplexen Systemen sind Ursache und Wirkung nur selten direkt und unmittelbar miteinander verknüpft, sie fallen sowohl zeitlich als auch räumlich auseinander. Dies führt zu dem als „kontra-intuitiv" apostrophierten Verhalten sozialer Systeme: Naheliegende und offensichtliche Problemlösungen wirken nicht wie erwartet. Sie kurieren bestenfalls Symptome und lassen die zugrundeliegenden Ursachen unberührt oder verändern sie gar in die falsche Richtung. Durch sorgfältige Modellanalyse ist es möglich, ein verbessertes Verständnis über beobachtete Insensitivität gegenüber Parameter- oder Politikänderungen zu erlangen sowie die Beziehungen zwischen kurz- und langfristiger Systemantwort zu verstehen. Der relevante Informationsbedarf für Entscheidungsprozesse kann durch formale Modellanalyse festgestellt werden und damit für empirische Untersuchungen der Rahmen abgesteckt werden. Die virtuelle Realität der Strategie-Unterstützungs-Systeme ermöglicht das Experimentieren, das Entwickeln und die Analyse verschiedener Szenarien. Der damit einhergehende Lernprozeß trägt zu einem verbesserten Verständnis der Struktur und des Verhaltens komplexer Unternehmen bei.

C. Ein Beispiel: Strategisches Controlling von Forschung und Entwicklung Zur Illustration des Konzepts von Strategie-Unterstützungs-Systemen soll ein Beispiel aus der Planung, Steuerung und Kontrolle des Innovationsmanagements dienen. Der Forschungs- und Entwicklungsprozeß ist ein komplexer, in hohem Maße durch qualitative Einflüsse bestimmter Vorgang. Der Einsatz von Algorithmen mit dem Ziel der Optimierung der F&E-Aktivitäten scheitert an gewichtigen Imponderabilien. Dennoch kann das Management von Forschung und Entwicklung durch sinnvoll strukturierte Strategie-Unterstützungs-Systeme effektiv unterstützt werden 19 . 19

Es ist gerade der Bereich qualitativer Variablen im Forschungsprozeß, der den herkömmlichen Rechenverfahren Schwierigkeiten bereitet und Möglichkeiten für einen

24

Peter Milling

Nicht nur konkurrenzfähige Kosten und hohe Produktqualität sind kritische Wettbewerbsfaktoren; empirische Untersuchungen weisen auch darauf hin, daß die Unternehmung, die zuerst ein neues Produkt auf den Markt bringt, einen möglicherweise entscheidenden Vorsprung gegenüber den Konkurrenten erzielt 20 . Der Marktzyklus, insbesondere für Erzeugnisse der Hochtechnologie, verkürzt sich und reduziert die Zeitspanne, in der Unternehmen ihre Investitionen in neue Produkte amortisieren können. Zur Kompensation wird durch organisatorische Maßnahmen — etwa durch „Simultaneous Engineering" — versucht, den Entwicklungszyklus für neue Produkte zu verkürzen, um entsprechend früher am Markt präsent zu sein. Der Zeitfaktor, d.h. der Umfang der „time to market" bzw. der „time to volume", wird zu einer entscheidenden Größe in der Unternehmensstrategie. Modelle zur Planung und Kontrolle von Forschung und Entwicklung sowie zur Unterstützung des Innovationsmanagements berücksichtigen diese Entwicklung nur unzureichend. Verschiedene Stadien ein und desselben Prozesses werden nach wie vor separat analysiert. Modelle für die Forschung und Entwicklung berücksichtigen nicht, wie Verzögerungen sich auf den Erfolg auswirken; Untersuchungen der Innovationsdiffusion hingegen konzentrieren sich umgekehrt fast ausschließlich auf die Marktphase und vernachlässigen die langwierigen und ressourcenintensiven vorgelagerten Aktivitäten. Aus solch begrenzter Perspektive können die Modelle nur bedingt zur Entscheidungsunterstützung in der dynamischen Umwelt der Hochtechnologie herangezogen werden. Ferner erfassen die meisten Modelle, die den charakteristischen s-förmigen Verlauf eines Lebenszyklus generieren, nicht realitätsadäquat die Faktoren, die dieses Verhalten verursachen. Die Modelle verwenden mathematische Funktionen, die einen vordefinierten Kurvenzug erzeugen, oder sie beruhen auf stark verkürzten biologischen bzw. physikalischen Analogien. Sie lassen damit das tatsächliche ökonomische Umfeld des Konkurrenzdrucks von Kosten und Preisen, Qualität und Lieferverzögerungen usw., in dem die Unternehmung agiert, außer acht 21 .

Gert: Kybernetische neuen Ansatz eröffnet. Siehe dazu insbesondere v. Kortzfleisch, Systemanalysen der Konsequenzen von technischen Fortschritten, in: VDI-Hauptgruppe Mensch und Technik (Hrsg.): Wirtschaftliche und gesellschaftliche Auswirkungen des Technischen Fortschritts, Düsseldorf 1971, S. 167-195; derselbe: Forschungen über die Forschung und Entwicklung, in: Zeitschrift für betriebswirtschaftliche Forschung, 24. Jg. (1972), S. 558-572, hier: S. 567ff. 20 Vgl. Tiby, Claus: Von Anfang an schon ein „perfektes" Produkt anbieten, in: Blick durch die Wirtschaft, Nr. 21, 30. Januar 1987, S. 3; Schmelzer, Herrmann J. und Buttermilch, Karl-Heinz: Reduzierung der Entwicklungszeiten in der Produktentwicklung als ganzheitliches Problem, in: Brockhoff, Klaus; Picot, Arnold und Urban, Christoph (Hrsg.): Zeitmanagement in Forschung und Entwicklung, Schmalenbachs Zeitschrift für betriebswirtschaftliche Forschung, Sonderheft Nr. 23, 1988, S. 43-73; Dumaine, Brian: How Managers Can Succeed Through Speed, in: Fortune, Nr. 4, 13. Februar 1989, S. 30-35.

Strategische Planungs- und Kontrollsysteme

25

Das Treffen von Entscheidungen auf der Komplexitätsebene des Innovationsmanagements kann nicht automatisiert, aber sehr wohl durch formale Modelle und computerbasierte Systeme unterstützt werden. Der erwartete Nutzen rechtfertigt den erheblichen Aufwand ihrer Erstellung. Einsichten in die Dynamik des betrachteten Systems, nicht die Voraussicht und Vorhersage, sind das Ziel einer solchen Untersuchung. Durch den iterativen Prozeß von Modellentwicklung und -analyse sollen die prägenden Eigenschaften der Problemsituation sowie die entscheidenden Ansatzpunkte für das Innovationscontrolling erkannt und in ihrem Zusammenwirken verstanden werden.

I. Ein Integratives Innovationsmodell Um die Implikationen unterschiedlicher Strategien für das Innovationsmanagement zu analysieren, wurde ein den bisherigen Ausführungen entsprechendes Strategie-Unterstützungs-System entwickelt. Teilweise wird bei der Diskussion der Innovationsproblematik nur der Marktzyklus, während dessen ein Produkt abgesetzt wird, als Objekt und Aufgabe des Innovationsmanagements gesehen. Für den Innovationsbegriff als spezifische Phase im Zyklus neuer Produkte und Verfahren ist diese Einschränkung eine sinnvolle und zutreffende Interpretation; jedoch für die Planung, Steuerung und Kontrolle des gesamten Prozesses ist eine umfassendere Sichtweise erforderlich 22 . Vor der Verfügbarkeit des marktfähigen Erzeugnisses liegen die kostspieligen, langwierigen und risikobehafteten Stadien der Forschung und Entwicklung. Während die zur Amortisation verfügbare Periode tendenziell kürzer wird, verlangt der F&E-Prozeß zunehmend mehr Personal und finanzielle Ressourcen. Aus dieser Divergenz resultieren wachsende Schwierigkeiten, befriedigende Ergebnisse zu erwirtschaften. Das Innovations-Unterstützungs-System umfaßt zwei Module und verknüpft den Forschungs- und Entwicklungszyklus mit dem Marktzyklus. Ein allgemeines, kausales Simulationsmodell reflektiert die Strukturen und Prozesse von Produktion und Absatz, ein komplexer Algorithmus bildet die F&E-Prozesse ab. Nur aus der Integration beider Stadien des Produktlebens kann die Bedeutung des Zeitfaktors für die Strategie innovativer Unternehmen studiert werden. Abbild 4 zeigt die Grobstruktur des allgemeinen Mo21

Vgl. zum Einfluß solcher Faktoren auch die Ausführungen von Hayes , Robert H.; Wheelwright , Steven C. und Clark, Kim B.: Dynamic Manufacturing. Creating the Learning Organization, New York 1988, S. 273ff. 22 Für eine Interpretation des Innovationsbegriffs und seiner Abgrenzung zur Invention, Imitation oder Rezeption sowie zur Diffusion siehe v. Kortzfleisch, Gert: Zur mikroökonomischen Problematik des technischen Fortschrittes, in: v. Kortzfleisch, Gert (Hrsg.): Die Betriebswirtschaftslehre in der zweiten industriellen Evolution, Berlin 1969, S. 323349; vgl. auch BrockhoffKlaus: Forschung und Entwicklung: Planung und Kontrolle, 2. Aufl. München — Wien 1989, S. 20, der entsprechend zwischen der Innovation (im engeren Sinne) und dem Innovationsprozeß (im weiteren Sinne) trennt.

26

Peter Milling

dells mit den wesentlichen Bestandteilen. Die Module werden durch Informationsflüsse verbunden, die die F&E-Politik definieren, die Ressourcenallokation vorgeben und die Markteintrittszeitpunkte der Prozeßergebnisse in Abhängigkeit vom erforderlichen Qualitätsniveau bestimmen.

F&E-ProzeßModul

I Ι

I Ι

Unternehmens- und Markt-Modul

Abb. 4. Grobstruktur des Integrativen Innovationsmodells

Das Forschungs- und Entwicklungsmodul umschließt in erheblichem Umfang intangible Variable. Viele Versuche wurden unternommen, um eine Produktionsfunktion für die Forschung und Entwicklung zu erstellen, die als Inputfaktoren die zugewiesenen Ressourcen, wie Forschungspersonal und finanzielle Mittel, enthält 23 . Diese Versuche erwiesen sich als nicht praktikabel. Das hier vorgestellte System verwendet einen anderen Ansatz und erzeugt in Analogie zur biologischen Evolutionstheorie neue Konzepte und neues Wissen durch Variation und Mutation vorliegender Erkenntnisse. Die Ergebnisse werden auf der Grundlage ihrer Überlebensfähigkeit — d. h. nach ihrem Leistungsvermögen und ihren Erfolgsaussichten — beurteilt. Nach diesem Kriterium als „überlegen" eingestufte Forschungsresultate dienen als Ausgangsbasis für die weitere Arbeit, alle anderen Ergebnisse bleiben unberücksichtigt. Die Umsetzung des Evolutionsansatzes im Rahmen des For23

Siehe Milling , Peter: Der technische Fortschritt beim Produktionsprozeß. Ein dynamisches Modell für innovative Industrieunternehmen, Wiesbaden 1974, S. 50f.

Strategische Planungs- und Kontrollsysteme

27

schungs- und Entwicklungsmoduls erfolgt durch einen in der Programmiersprache C geschriebenen Algorithmus. Dieser Evolutionsalgorithmus interagiert mit dem Produktions- und Marktteil des Modells. In der Umsetzung, bzw. in der programmtechnischen Darstellung bedeutet dies, daß für jede Technologie eine m*n-Matrix definiert ist, deren Felder unmittelbar nach der Basisinvention zunächst durch die Ziffer „ 0 " besetzt sind. Je bedeutsamer die Invention, desto größer sind m und n. Durch weitere Forschungs- und Entwicklungsanstrengungen wird die anfänglich nur Potentiale eröffnende neue Technologie nutzbar gemacht, d.h. die Felder der „leeren" Technologiematrix werden mit der Ziffer „ 1 " aufgefüllt. Die einzelnen Elemente werden zufällig herausgegriffen, die Ziffer „ 0 " in „1", aber auch umgekehrt, gewandelt (Variation) und nach einer bestimmten Anzahl von Zyklen daraufhin überprüft, ob die Wertigkeit der Matrixbesetzung höher als zu Beginn liegt. Ist dies der Fall, wird die das neue Technologieniveau repräsentierende Matrix als überlegen angesehen und bildet die Grundlage des nächsten Iterationszyklus (Selektion); bei negativem Befund wird mit der ursprünglichen Ausgangsmatrix weiter gearbeitet. Um so besser eine Technologie erforscht ist, d.h. hier: je stärker die Felder der Matrix durch inkrementale Inventionen bereits mit der Ziffer „ 1 " aufgefüllt sind, desto schwieriger gestalten sich weitere Fortschritte. Dies führt zu abnehmenden Grenzerträgen sowie schließlich zum Übergang auf eine neue, mehr unerschöpftes Potential versprechende Technologie. Eine Basisinvention, die der bisherigen Technologie gänzlich neue Felder eröffnet, wird durch das Erweitern der Matrix durch Erhöhung der Dimensionsparameter m bzw. η abgebildet. Die Anzahl der Iterationen pro Zyklus und die Häufigkeit der Rechenschritte hängen von den für Forschung und Entwicklung zur Verfügung gestellten Ressourcen ab. Ohne Kopplung mit dem Unternehmens- und Marktteil des Modells erzeugt das Modul die Substitutionssequenz einander nachfolgender Technologien auf jeweils höherem Niveau; langfristig generiert es eine Umhüllungskurve der technologischen Entwicklung. Abbildung 5 stellt diesen Sachverhalt für vier solche Technologiezyklen, als Tech/1 bis Tech/4 bezeichnet, dar. Das Modul der Produktions- und Absatzprozesse basiert methodisch auf dem System-Dynamics-Ansatz, Professional D Y N A M O dient als Software, um das Modell abzubilden, es mit dem Evolutionsalgorithmus zu verknüpfen und das Gesamtmodell zu simulieren. Der Modellkern verwendet die diffusionstheoretische Darstellung dér Marktverbreitung von Innovationen, die aus den Interaktionen zwischen potentiellen und tatsächlichen Käufern den charakteristischen Verlauf eines Lebenszyklus erzeugt. Dieser Modellteil ist an anderer Stelle ausführlich dokumentiert 24 . Das Kernmodell wurde erwei24 Siehe Milling , Peter: Diffusionstheorie und Innovationsmanagement, in: Zahn, Erich (Hrsg.): Technologie- und Innovationsmanagement, Festgabe für Gert v. Kortzfleisch zum 65. Geburtstag, Berlin 1986, S. 49-70.

Peter Milling

28

tert, um Aspekte wie Konkurrenzbeziehungen, Produktions- und Investitionsentscheidungen sowie die F&E-Budgetierung zu berücksichtigen. Außerdem wurden die strategischen Wettbewerbsfaktoren Kosten- und Preismanagement, Qualität und Markteintrittszeitpunkt erfaßt.

Technologisches Niveau

Zeit (Monate)

Abb. 5. Technologiezyklen

Gekoppelt mit dem Evolutionsalgorithmus bildet das Modell die Basis eines Strategie-Unterstützungs-Systems für die Planung, Steuerung und Kontrolle von Innovationen. Es erlaubt, die integrierten Prozesse der Innovationsdiffusion aus der Perspektive der Unternehmensleitung zu analysieren. Abbildung 6 zeigt einen Simulationslauf des Modellkomplexes. Es verdeutlicht exemplarisch die Zusammenhänge zwischen den Markteintrittszeitpunkten dreier Generationen neuer Produkte Prod/1 bis Prod/3, die auf den entsprechenden Technologiezyklen der Abbildung 5 beruhen, und der langfristigen Unternehmensentwicklung. Es läßt erkennen, wie empfindlich der Umsatz auf Verzögerungen bei der Einführung neuer Erzeugnisse reagiert und welche Konsequenzen ein gescheiterter Innovationsversuch hätte. Das System dient als Simulator, um zu studieren, wie unterschiedliche Strategien die rechtzeitige Verfügbarkeit neuer Produkte, die Marktdurchdringung und die Gewinnentwicklung fördern oder behindern können. Mit einer solchen Zielsetzung sind in Abwesenheit hinreichend bewährter und belegter Theorien und Daten die Probleme der Modellquantifizierung und -validierung evident. Die Unternehmensleitung hat jedoch über den Zeitpunkt der Markteinführung und die dabei verfolgten Strategien zu entscheiden — auch wenn keine „harten" Daten vorliegen. Ob diese Entscheidungen auf der

Strategische Planungs- und Kontrollsysteme

29

Basis von Intuition und mentalen Modellen oder unterstützt durch formale, computerbasierte Werkzeuge erfolgen, ist nur eine instrumentale Frage. Modelle werden — implicite oder explicite — immer eingesetzt. Das Computermodell erleichtert die Kommunikation, erzwingt Präzision und macht stillschweigende Annahmen deutlich; es stimuliert Diskussionen und schafft Konsens in Richtung auf verbesserte Entscheidungsprozesse.

0

24

48

72

96

120

Monate

Abb. 6. Verhaltensmuster des Integrativen Innovationsmodells

Das Modell ist ein Konglomerat von Hypothesen und Daten aus verschiedenen Quellen. Es basiert auf Konzepten der Innovationsdiffusion, die in der wissenschaftlichen Literatur Verbreitung fanden; es verwendet statistisch abgesicherte Daten, wenn immer sie zur Verfügung stehen. Dennoch stammt ein erheblicher Teil der Informationen aus weniger rigiden Quellen. Bei Präsentationen und Diskussionen mit Unternehmensleitern hatte das Modell eine schwache Form des Turing-Tests zu absolvieren: Modellstrukturen und damit verbundene Verhaltensformen wurden Sachkundigen vorgelegt und einer kritischen Überprüfung unterzogen, die Resultate mit den jeweiligen Erfahrungen verglichen und danach beurteilt, ob die Simulationsergebnisse als sinnvolle Wiedergabe der Verhaltensformen der Realität zu akzeptieren sind 2 5 . Trotz dieser Bemühungen ist der Validitätsanspruch des Modells— insbesondere für den Part des Evolutionsalgorithmus — bescheiden.

25

Siehe Turing , Alan L.: Computing Machinery and Intelligence, in: MIND, Vol. 59 (1950), S. 433-460.

30

Peter Milling

II. Konsequenzen für die Unternehmensplanung Die Ergebnisse der Modellanalyse belegen, daß das Marktverhalten von Innovationen erheblich durch unternehmensinterne Faktoren bestimmt wird. Es sind nicht nur die unmittelbar nach außen wirkenden Faktoren wie Preis oder Werbung, die profunde Konsequenzen für die Nachfrage haben. Das Management von Forschung und Entwicklung, Produktionsplanung, Logistik usw. beeinflußt die Ergebnisse technologischer Innovationen und damit den Lebenszyklus — sowohl in seinem generellen Verlauf wie auch in seiner absoluten Größenordnung. Sinnvoll gestaltete Planungs- und Kontrollsysteme ermöglichen die effektive Untersuchung komplexer Problemsituationen. Sie tragen zu einem verbesserten Verständnis der vielfältigen Interaktionen in einem dynamischen Umfeld bei. Durch computerbasierte Strategie-Unterstützungs-Systeme kann die Unternehmensleitung ihre Sichtweise und ihr Verständnis der Realität verbessern und damit zu effektiveren Entscheidungsprozessen gelangen. Die neueren Entwicklungen bei der Produktionstechnologie und der Produktionsplanung, Konzepte wie Computer Integrated Manufacturing (CIM) bzw. die „Fabrik der Zukunft", mit ihrer Betonung des Zeitaspektes betrieblicher Prozesse, werden diese Tendenzen noch verstärken. Das hier dargestellte Strategie-Unterstützungs-System ist modular aufgebaut und kann flexibel an verschiedene Innovationstypen angepaßt werden. Auch für Situationen, die die Fähigkeiten analytischer Methoden bei weitem übersteigen, eröffnet es die Möglichkeit, verschiedene Aktionsalternativen in einer Management-Labor-Umgebung zu untersuchen. In der Realität genügen bereits einige wenige Variablen, um eine Entscheidungssituation falsch einzuschätzen. Das für effektives Verhalten erforderliche Problemverständnis kann durch die wiederholte Analyse eines entsprechenden Systems erworben werden. Das Konzept solcher Entscheidungssysteme betont den Lernprozeß bei der Strategieentwicklung, nicht das tatsächliche Ergebnis. Die Beschäftigung mit verschiedenen Facetten eines Problems führt zu einem verbesserten Verständnis der Situation als die Anwendung vorgefertigter Lösungsprozeduren. Die Problemlösung ist dann das Ergebnis eines Evolutionsprozesses, nicht eines automatisierten Wahlaktes 26 . Eine vereinfachte Version des hier skizzierten Strategie-UnterstützungsSystems diente als Grundlage für die Entwicklung eines Unternehmensplanspiels, das sich als effektives Medium erwiesen hat, kooperative Lernprozesse in der Unternehmung zu stimulieren 27 . In ihm konkurrieren vier Unterneh26 Vgl. Checkland , Peter: From Optimization to Learning: A Development of Systems Thinking for the 1990's, in: Journal of the Operational Research Society, Vol. 36 (1985), S. 757-767. 27 Siehe Milling , Peter: Learning and Understanding Innovation Dynamics: A Gaming Approach, in: Saeed, Khalid (Hrsg.): Proceedings of the 1991 International Conference of the System Dynamics Society, Bangkok 1991, (in Druck).

Strategische Planungs- und Kontrollsysteme

31

men, die in der Ausgangssituation jeweils über ein technologisch vergleichbares, marktgängiges Erzeugnis verfügen. Im Spielverlauf sind u.a. durch entsprechende Ressourcenallokation für Forschung und Entwicklung neue Produkte bereitzustellen sowie Verfahren zur Qualitätssicherung und/oder Kostensenkung zu erarbeiten. Innovationszeitpunkt, Preisgestaltung und Qualitätskontrolle sind hierbei zentrale Entscheidungsvariablen. Neben individuell verbesserten Einsichten in die kritischen Erfolgsfaktoren und die komplexen Systemreaktionen, fördert das Planspiel das Lernen im Team. Das vermehrte Verständnis für funktional unterschiedliche Interessen sowie Diskussionen über übergeordnete, gemeinsam zu verfolgende und nur gemeinsam zu erreichende Ziele wirken der engen, ja isolierenden Spezialisierung des „Taylorismus" entgegen. Der Konsens über auch metaökonomische Wertordnungen schafft eine tragfahige Basis für kooperatives Verhalten 28 . Der letztendliche Zweck effektiver Planung und Kontrolle in komplexen Systemen liegt nicht in der Anfertigung von Plänen, sondern in der Veränderung der mentalen Modelle der Entscheidungsträger. Strategie-Unterstützungs-Systeme wirken dabei als Katalysatoren. Sie helfen beim Klären komplexer interner Abbilder sowie bei deren Analyse. Sie zeigen, wie Aktion und Reaktion oder Ursache und Wirkung temporal und lokal auseinanderfallen. Das Wissen und die technischen Voraussetzungen für die Entwicklung und Anwendung solcher strategischen Unterstützungssysteme liegen vor. Deren Anwendung macht die individuellen Entscheidungsprozesse transparenter und konsistenter und führt zu einem verbesserten Verständnis des untersuchten Systems. Strategische Entscheidungs-Unterstützungs-Systeme erlauben das schnellere Eingehen auf Marktentwicklungen und damit letztlich das Erlangen von möglicherweise kritischen Wettbewerbsvorteilen.

28

Bereits zu Beginn der siebziger Jahre hat sich Gert v. Kortzfleisch mit metaökonomischen Wertordnungen befaßt und Ansätze entwickelt, sie in quantitative SystemanaGert: Forschungen über die Forschung und lysen einzubinden. Siehe v. Kortzfleisch, Entwicklung, S. 570ff.

Beyond Case Studies — Computer Models in Management Education By Jay W. Forrester Abstract Two major advancements have been made in management education in this century. First was the case-study approach pioneered by the Harvard Business School starting in 1910. The second, after 1945, has been the introduction of mathematical analysis for the study of specific management functions and relationshiips. However, there has been no unifying theory as a foundation for management education and practice that could tie together the different functions of a company and could relate a company to its competitors and markets. But now, a third major advancement is becoming visible to serve as a common framework and foundation for understanding the growth, stability, and behavior of business enterprises. This new approach to management grows out of the system dynamics field which has shown how feedback system concepts, the practical knowledge residing in the experience of managers, and computer simulation can be combined to understand how management policies, leadership, information sources, and corporate structure can be combined to show how successes and failures are created.

This paper discusses systems, systems in technology and in society, and how a systems viewpoint opens the way to a new advancement in management education.1 Everyone speaks of systems: computer systems, air traffic control systems, economic systems, and social systems. But few realize how pervasive are systems, how imbedded in systems we are in everything we do, and how influential are systems in creating most of the puzzling difficulties that confront us. People think about different kinds of systems in very different ways, even though all systems behave according to the same underlying principles. Engineering systems are designed using the most advanced methods of dynamic analysis and computer modeling to anticipate behavior of the system when finally constructed. On the other hand, although social systems are far more complex than engineering systems, people have used only intuition and debate in building a corporation or changing the rules of government, without taking advantage of the powerful system-design methodologies that have evolved over the last 50 years. 1

I am especially pleased to write on management education for this book in honor of Professor Gert von Kortzfleisch who has done so much to bring system dynamics into the teaching of management. 3 Festgabe v. Kortzfleisch

34

Jay W. Forrester

In designing an engineering system, say a chemical plant, engineers realize that the dynamic behavior is complicated and that the design can not successfully be based only on rules of thumb and experience. There would be extensive studies of the stability and dynamic behavior of the chemical processes and their control. Computer models would be built to simulate behavior before construction of even a pilot plant. Then, i f the plant were of a new type, a small pilot plant would be built to test the processes and their control. But observe how differently social systems are designed. People change organizational forms, policies, tax laws, and personnel practices on the basis of impressions and committee meetings, usually without any dynamic analysis adequate to prevent unexpected consequences. The reader may not like the idea of "designing" social systems. The proposition may seem mechanistic or authoritarian. But all corporate policies that are established, all computer systems that are installed, all organization charts that are drawn up, and all laws that are passed, constitute partial designs of social systems. Governments pass laws after superficial debate. These laws constitute redesign of political and economic systems. Such redesign is tested experimentally on a country as a whole without dynamic modeling of the long-term effects and without first running small-scale pilot experiments. Changes in corporate policies are usually made with even less analysis. For example, the wave of corporate mergers in the 1980s constituted a major redesign of national economies with inadequate consideration for the results. Social systems within which we live have been designed. The shortcomings of those systems result from defective design, just as the shortcomings of a power plant result from inappropriate design. For hundreds, or even thousands of years, countries have been plagued by inflation, unfavorable balance of trade, wars growing out of economic stresses, and destruction of forests and agricultural land. Why is there so little learning from past experience to guide present actions that determine the future? Consider the contrast between great advances during the last century in understanding technology, and the relative lack of progress in understanding social systems. Why such a difference? Why has technology advanced so rapidly while social systems remain as puzzling as ever? I believe the answer lies in failing to recognize that social institutions are indeed systems. There is an unwillingness to accept the idea that families, corporations, and governments belong to the same general class of dynamic structures as do the systems represented by chemical refineries and autopilots for aircraft. There is a reluctance to accept the idea that physical systems, natural systems, and human systems are fundamentally of the same kind, and that they differ primarily in their degree of complexity. To admit the existence of

Computer Models in Management Education

35

a social system is to admit that the relationships between its parts have a strong influence over individual human behavior. The idea of a social system implies sources of behavior beyond that of the individual people within the system. Something about the structure of a system determines what happens beyond just the sum of individual objectives and actions. In other words, the concept of a system implies that people are not entirely free agents but are substantially responsive to their surroundings. To put the matter more bluntly, if social systems are indeed systems, it implies that people are at least partly cogs in a social and economic machine, that people play their roles within the totality of the whole system, and that they respond in a significantly predictable way to forces brought to bear on them by other parts of the system. Even though this is contrary to our cherished illusion that people freely make their individual decisions, I suggest that the constraints implied by a belief in systems are in fact true in real life. As an example, we see this dominance of the system over the individual in the evolution of the United States budget deficit. Every presidential candidate since 1970 has campaigned with the promise to reduce the federal deficit. But the deficit has on the average doubled every four years. The social forces rather than the president have been controlling the outcome. How to harness those social forces has not been effectively addressed. For the last 30 years a field known as system dynamics has been developing. System dynamics combines the theory, methods, and philosophy needed to analyze the behavior of systems in not only management, but also in environmental change, politics, economic behavior, medicine, engineering, and other fields. System dynamics provides a common foundation that can be applied wherever we want to understand and influence how things change through time. The system dynamics process starts from a problem to be solved — an undesirable behavior that is to be corrected or avoided. The first step is to tap the wealth of information that people possess in their heads. The mental data base is a rich source of information about the parts of a system, about the information available at different points in a system, and about the policies being followed in decision making. The management and social sciences have in the past unduly restricted themselves to measured data and have neglected the far richer and more informative body of information that exists in the knowledge and experience of those in the active, working world. System dynamics then uses concepts drawn from the field of feedback control to organize available information into a computer simulation model. A digital computer as a simulator, acting out the roles of the operating people in the real system, reveals the behavioral implications of the system that has been described in the model. The first articles based on this work appeared in the Harvard Business Review. 2 3*

36

Jay W. Forrester

The research began to show how the feedback structure of an organization can dominate decision making far beyond the realization of people in that system. By a feedback structure, I mean a setting where existing conditions lead to decisions that cause changes in the surrounding conditions, that influence later decisions. That is the setting in which all our actions take place. We do not live in a unidirectional world in which a problem leads to an action that leads to a solution. Instead, we live in an on-going circular environment in which each action is based on current conditions, such actions affect conditions, and the changed conditions become the basis for future action. There is no beginning or end to the process. People are interconnected. Through long cascaded chains of action, each person is continually reacting to the echo of that person's past actions as well as to the past actions of others. Early in the development of system dynamics, we discovered surprising things about corporations that we now realize carry over to all social systems. First, most difficulties are internally caused, even though there is an overwhelming and misleading tendency to blame troubles on outside forces. Second, the actions that people know they are taking, usually in the belief that the actions are a solution to difficulties, are often the cause of the problems being experienced. Third, the very nature of the dynamic feed-back structure of a social system tends to mislead people into taking ineffective and even counterproductive action. Fourth, people are sufficiently clear and correct about the reasons for local decision making — they know what information is available and how that information is used in deciding on action. But, people usually do not understand correctly what organizational behavior will result from the complex interconnections of known local actions. The system dynamics field now has participants world wide. The profession is represented by the international System Dynamics Society 3 . Centers of research are found at universities in many countries. Now that digital computers are widely available, several experimental programs in high schools are using system dynamics as a common foundation that connects science, social studies, history, and mathematics. High school students become intensely involved in computer modeling that allows them to discover the connections between their own life experiences, theory, history, and current affairs. In our early work we found we were able to go into a troubled company and uncover the reasons for its problems. The difficulty might be falling market 2 Forrester, Jay W., "Industrial Dynamics — A Major Breakthrough for Decision Makers," Vol.36, No. 4, pp.37-66, July-August, 1958, and "Advertising: A Problem in Industrial Dynamics," Vol. 37, No. 2, March/April, 1959, Harvard Business Review. 3 Publishes the System Dynamics Review, for membership and a subscription write to the System Dynamics Society, 49 Bedford Road, Lincoln, MA 01773, USA or to John Wiley and Sons Ltd., Baffins Lane, Chichester, Sussex P019 1UD, England.

Computer Models in Management Education

37

share, or fluctuations in production with employment varying from working overtime one year to having half the work force laid off two years later, 4 or a lower profitability than other companies in the industry. Such difficulties are widely known to employees, the community, and are discussed in the business press. We would draw on our background about how structure and policy relate to behavior to guide an examination of the company. We would interview people in the company about how they made decisions at their individual operating points. These statements describing the basis for decisions are the rules or policies governing action. As I use the term "policy," it represents all the reasons for action, not just formal written policy. These interviews would be extensive and penetrating. There might be several sessions with each of many individuals. The discussions would range widely from normal operations, to what was done in various kinds of crises, what was in the self interest of the individual, where were the influential power centers in the organization, and what was being done to help in solving the serious problem facing the company. We found that talking to a manager could reveal a clear and comprehensive picture of the rules and conditions driving decisions at that position in the corporation. Then, when we talked to another manager about the first manager, the same picture would be emerge. In other words, people saw themselves very much as others saw them. There was substantial consistency throughout the organization as to the actual operational policies that were guiding decisions. Furthermore, the policies were justified in terms of how those policies would help to correct the great difficulty that the company was experiencing. Up to this point, the study of such a company followed the case-study approach to management education. That is, a comprehensive examination of all related parts of the company had been made in the context of the problem that was to be solved. But, if left at this point, the weakness of the case-study method would intrude and dominate the outcome. A descriptive model of the company had been assembled, but the human mind is not able to deal with the inherent dynamic complexity of such a situation. For readers who have studied mathematics through differential equations, such a descriptive model is equivalent to a high-order nonlinear differential equation. No scientist or mathematician can solve such a system mentally. Just as with the operation of a chemical plant, only computer simulation methods are capable of revealing the behavior implicit in the structure built from knowledge about the many local decision-making individuals and how they are connected. So, after obtaining a description of the important policies, information flows, and interconnections in the company, the next step was to translate that 4 Forrester , Jay W., Industrial Dynamics, Productivity Press, Cambridge, MA, USA, 1961.

38

Jay W. Forrester

description into a computer model. Such a model allows the computer to act out the roles of each decision point in the corporate system and feed the results to other connected decision points to become the basis for the next round of decisions. In other words, a laboratory replica of the company then existed in the computer where one could observe the behavioral consequences of the policies that had been described in the interviews — policies that were intended to solve the company's problem. To the surprise of those unfamiliar with the devious nature of such dynamic systems, the computer model, based on policies known to people in the company, would generate the very difficulties that the company had been experiencing. In short, the policies that were expected to solve the problem were, instead, the cause of the problem. Such a situation creates a serious trap and often a downward spiral. If the policies being followed are believed to alleviate the problem, but, in hidden ways, are causing the problem, then, as the problem gets worse, pressures increase to apply still more strongly the very policies that are causing the problem. Sometimes, one need not even go into a company to carry out this kind of analysis. During the early 1980s People Express, a new airline, was started in the United States. During its early history People Express was spectacularly successful with one of the highest growth rates in the history of American corporations. Don Burr, the founder, was a popular speaker at business schools on the philosophy and policies for corporate success. In 1983, the Harvard Business School published a management case on the history, practices, and success of People Express. 5 From Don Burr's public speeches and the published case study, Professor John Sterman on our staff created a system dynamics simulation model of the People Express corporation. The model represented the propensity to expand the air fleet, the relatively greater difficulty in expanding trained service personnel, and the competitive effects of low fares on other airlines and on the financial position of People Express. The model generates a powerful growth mode followed by sudden failure, just as happened with the actual airline. One discovers from the model that it was implicit in Burr's publicly stated policies that the company was doomed to collapse after an initial unusual success. John Sterman has been using the computerized People Express case as a dramatic introduction to management for the 200 students enrolling each fall for a master's degree in management at MIT. For more than six hours, with 100 Macintosh computers, students explore various policies affecting corporate profitability and the rate and stability of growth. They are able to appreciate how a mix of policies that produced an under-priced product could

5 Case 483-103, "People Express," Harvard Business School, Cambridge, MA, USA, 1983.

Computer Models in Management Education

39

induce rapid unbalanced expansion followed by deteriorating quality and sudden collapse. Misjudgments rather similar to those at People Express lie behind much of the foreign encroachment on American markets. Foreign infiltration was initially blamed by American companies on lower foreign wages and lower product price. In response, domestic prices were reduced until there were insufficient profit margins to permit fixing the real difficulties, which were usually more in design, quality of product, and service than in price. As so often happens, the domestic failure to compete arose more from mismatched internal policies than from external forces. A New Kind of Management Education A l l of this points the way to a new kind of management education. Beyond that, it suggests a new kind of manager for the future. One can now see clearly a kind of management education that we might call "enterprise design." And in the future there is a role for the output of such an education, the "enterprise designer." A fundamental difference exists between an enterprise operator and an enterprise designer. To illustrate, consider the two most important people in the successful operation of an airplane. One is the airplane designer and the other is the airplane pilot. The designer creates an airplane that the ordinary pilot can fly successfully. Is not the usual manager more a pilot than a designer? A manager is appointed to run an organization. Often there is no one who consciously and intentionally fills the role of organizational designer. Organizations built by committee, by intuition, and by historical happenstance often work no better than would an airplane built by the same methods. Time after time one sees venture capital groups backing a new enterprise in which the combination of corporate policies, characteristics of products, and nature of the market are mismatched in a way that predetermines failure, just as with People Express airline. Like a bad airplane design that no pilot can fly successfully, such badly designed corporations lie beyond the ability of reallife managers. I first began to glimpse the possibilities of enterprise design in the 1960s when, for its first ten years, I was on the board of directors of the Digital Equipment Corporation. To guide my own position on the board, I developed a system dynamics model of how high-technology growth companies evolve. The model incorporated some 250 variables ranging from physical processes, to managerial goals and leadership characteristics, to interactions among company, market, and competitors. The model exhibited the full range of typical behaviors from early failure, through limited growth followed by

40

Jay W. Forrester

stagnation, to sustained growth with repeated major crises, and on to untroubled growth. These differences emerged in the model as a result of different policies that could be clearly identified in the various companies having the corresponding kinds of behavior. From the model came improved understanding of how corporate policies determine the corporate future. Management education, in all management schools, has tended to train operators of corporations. But there has been rather little academic attention to the design of corporations. The determination of corporate success and failure seldom arises from functional specialties alone, but grows out of the interactions of functional specialities with one another and with markets and competitors. The policies governing such interactions have not been adequately handled in management education. We need to deal with the way policies determine corporate stability and growth in an intellectual, challenging, quantitative, and effective way. Such management education leads to what I refer to as enterprise design. Such an education would build on four major innovations that have already occurred in this century. The first innovation was in the case-study method of management education as pioneered by the Harvard Business School beginning around 1910. Second was the development of theory and concepts related to dynamic behavior of feedback systems as first developed in engineering at the Bell Telephone Laboratories and M I T in the 1930s and 1940s. Third was the more quantitative, mathematical, and research-based approach to management education developed after World War I I at MIT, Carnegie, and elsewhere. Fourth has been digital computers, especially the recent personal desk-top computers, that permit simulation modeling of systems that are too complex for mathematical analysis. The first innovation, the case method of management education, has achieved a wide following because it addresses the problems of general management and the interactions among parts of the corporate-market-competitor system. The case method also draws great strength from being based on the full range of descriptive information and managerial knowledge that is available in the actual working world. But the case method, has a major weakness. The description of a case captures policies and relationships that together describe a system so complex that it can not be reliably analyzed by discussion and intuition. Such attempts often draw the wrong dynamic conclusions and fail to reveal why corporations in apparently similar situations can behave so differently. The second innovation, the understanding of the dynamics of feedback systems, has now emerged from engineering to be seen as an organizing concept for human systems as well. In fact, feedback processes govern all growth, fluctuation, and decay. They are the fundamental basis for all change. They allow new insights into the nature of managerial and economic systems that have escaped past descriptive and statistical analysis.

Computer Models in Management Education

41

The third innovation, the quantitative approach to management education, has brought a more disciplined analysis of corporate processes. However, as it has so far been used, the quantitative approach has tended to be statistically based, has usually been limited by linear mathematical analysis, stresses optimum solutions rather than realistic representations of the managerial world, and ordinarily is confined within the functional specialties of business. It has not established adequate linkages to the mental data base used by practicing managers nor has it incorporated appropriately the feedback structure surrounding decision making. Nevertheless, the idea of a quantitative approach to management has already been established and has opened the door to more powerful quantitative methodologies than are now widely employed. The fourth innovation, the digital computer, for the first time allows efficient simulation of complex dynamic models. Such simulation is the only known way to determine behavior in complicated nonlinear systems. Bringing these four innovations together offers the potential for a major breakthrough in management education. The combination will permit going far beyond the case-study method of management education by adding a rigorous dynamic dimension to the rich policy and structural knowledge possessed by managers. The difference between present management schools and management education in the future will be as great as the difference between a trade school that trains airplane pilots and a university engineering department that trains aircraft designers. Pilots continue to be needed, and so will operating managers. But just as successful aircraft are possible only through skilled designers, so in the future will competition create the necessity for enterprise designers that can reduce the number of design mistakes in the structure and policies of our social institutions. Correct design can make the difference between a corporation that is vulnerable to changes in the outside business environment and one that exhibits a high degree of independence from outside forces. Correct design can improve the stability of employment and production. Correct design, in the balance of policies for pricing, capital plant acquisition, and sales force, can often make the difference between growth burdened by debt and growth out of earnings. Correct design can help avoid the adoption of policies offering short-term advantage at the expense of long-term degradation. Correct design can help prevent expenditure of managerial time in debating policies that are inherently of low leverage and therefore unimportant. Correct design can help identify the very small number of high-leverage policies capable of yielding desirable change. Future training in enterprise design will include study of a library of generic management situations combining descriptive case studies with dynamic computer models, each of which have wide applicability in business. I estimate that about 20 such general, transferable, computerized cases would

42

Jay W. Forrester

cover perhaps 90 percent of the situations that managers ordinarily encounter. Several powerful examples already exist. They include a model of the stability and fluctuation in a distribution system, a model of pricing and capital investment as they determine growth, 6 a model of promotion chains and the evolution into a top-heavy distribution of management personnel when growth slows, and a model dealing with imbalances between design, production, marketing, and service as these influence market share. Each such model manifests many modes of behavior ranging from troublesome to successful depending on the policies employed within it. In the past, management has been taught and practiced as an art. Management schools have been criticized as being "trade schools" without a foundation of intellectual theory capable of explaining the causes of corporate successes and failures. But the situation is changing. Just as the art of the craftsman has acquired a foundation of physics, metallurgy, and chemistry, so can management now be built on an understanding of how the feedback structure and policies of an organization determine its growth, profitability, and stability.

6 Forrester , Jay W., "Market Growth as Influenced by Capital Investment," Chapter 7 in: Collected Papers of Jay W. Forrester, Productivity Press, Cambridge, MA, USA, 1975.

Strategieunterstützungssysteme Von Erich Zahn

A. Notwendigkeit und Evolution von Strategieunterstützungssystemen Strategien sind Entscheidungen über alternative Aktionskurse. Sie basieren auf der Entwicklung und dem Einsatz von Fähigkeiten, die sich in den Geschäften manifestieren, mit deren Produkten und/oder Dienstleistungen sich ein Unternehmen im Wettbewerb auf ausgesuchten Märkten zu differenzieren sucht. Ihr Zweck ist entweder eine flexible Reaktion auf veränderte oder eine innovative Beeinflussung bestehender Bedingungen im Aufgabenumfeld. Eine Wettbewerbsstrategie hat damit gleichsam eine Brückenfunktion; sie muß eine Verbindung herstellen zwischen den Unternehmensfähigkeiten einerseits und den Marktanforderungen anderseits (Abb. 1).

Abb. 1. Brückenfunktion der Wettbewerbsstrategie

Die Crux eines derartigen Brückenschlages erwächst aus der Tatsache, daß beide Brückenfundamente sich in ständiger Bewegung befinden, daß Aktio-

44

Erich Zahn

nen auf der einen Seite zu Reaktionen auf der anderen Seite führen und umgekehrt 1. Damit werden gleichzeitig die Schwierigkeiten bei der Formulierung und Implementierung einer Strategie evident, und es wird deutlich, daß beide Aufgaben weit mehr umfassen als analytische Aktivitäten. Die Entwicklung einer Strategie ist eine komplexe Aufgabe, die viele unterschiedliche Aspekte berührt, und sie ist ein evolutionärer Vorgang, der gewöhnlich in Sprüngen und Zyklen abläuft und sich im voraus deshalb nicht klar bestimmen läßt. Grundlegende Fragen werden dabei aufgeworfen: Worauf (auf welche Kompetenzen und Geschäfte) soll sich das Unternehmen konzentrieren? Welche Leistungen soll es wo und wie anbieten? Mit wem soll es in Wettbewerb treten? Wann soll es agieren? Wie soll es dem Kunden Mehrwert schaffen? Die Beantwortung solcher Fragen stellt hohe Anforderungen an die Qualität der Informationsverarbeitung im Unternehmen, aber vor allem an die Kreativität und an die Konsensfähigkeit der involvierten Entscheidungsträger 2. Analytische Werkzeuge können hier nur begrenzt Hilfestellung geben. Daß die Strategiefindung in der Vergangenheit (insbesondere in den 70er Jahren) sich dennoch weitgehend auf eine in Stäben konzentrierte analytische Übung reduzierte, mag erklären, warum die ursprüngliche Begeisterung über die strategische Planung mittlerweile nachgelassen hat und weshalb im Zuge der Entwicklung zum strategischen Management qualitative Aspekte an Bedeutung gewonnen haben. Repräsentanten quantitativer Analyseinstrumente sind die Gap-Analyse 3 und die Erfahrungskurve 4, die in der Ära der Langfristplanung während der 60er Jahre dominierten. Sie basierten vornehmlich auf quantitativen Prognosen und dienten der Unterstützung einer wachstumsorientierten Planung. In der Ära der strategischen Planung der 70er Jahre hatte die Portfolioanalyse 5 ihre goldene Zeit. Der durch Einfachheit und Übersichtlichkeit in der Darstellung strategischer Positionen und Stoßrichtungen beeindruckenden Marktwachstums-Marktanteils-Matrix der Boston Consulting folgten schnell kompliziertere Darstellungen u.a. von McKinsey und Arthur D. Little. Der Zusatznutzen dieser Weiterentwicklungen war relativ gering und diente wohl nicht zuletzt einer visualisierten Differenzierung der Beratungsunternehmen selbst. Das Bemühen um fundiertes Verstehen der auf dem Markt herrschenden Beziehungen zwischen Konkurrenten, Lieferanten und Kunden führte zur 1

Zahn, E.: Das Wachstum industrieller Unternehmen, Wiesbaden 1971, S. 89.

2

Vgl .Zahn, E. (1971), S. 89.

3

Kami, M. J.: Gap analysis — key to super growth, in: Long Range Planning, June 1969, pp.44-47. 4 5

Henderson , Β. D.: Perspectives on Experience, 3. Auflage, Boston 1972.

Dunst, Κ. Η.: Portfolio Management — Konzeption für die strategische Unternehmensplanung, Berlin 1979.

Strategieunterstützungssysteme

45

Entwicklung von umfassenderen Markt- und Wettbewerbsanalysen 6. Die Erkenntnis, daß generische Wettbewerbsstrategien konsequent in den verschiedenen Bereichen der Wertkette des Unternehmens sowie denen der Zulieferer, Abnehmer und Kooperationspartner umgesetzt werden müssen, führte zur Entwicklung der Wertkettenanalyse 7. Etwa zur Hochzeit der Portfolioanalyse begann das Strategie Planning Institute 8 mit dem Aufbau des PIMS (Profit Impact of Marketing Strategies)-Programms. Auf der Basis von Daten der Mitgliedsunternehmen, mit deren Hilfe empirische Beziehungen zwischen Finanz- und Marktkennzahlen ermittelt werden, bietet PIMS Anleitungen zur Festlegung von Leistungszielen und zur Allokation von Ressourcen. Unabhängig von der Evolution strategischer Planungsinstrumente hat sich die Computerunterstützung für Managementaufgaben entwickelt. Die Entwicklungslinie verläuft hier von den Anfängen der elektronischen Datenverarbeitung (EDV) über Managementinformationssysteme (MIS) bis zu den Managementunterstützungssystemen (MUS) 9 . Das Gebiet des Computergestützten Managements10 mit Decision Support Systems (DSS), Expert Systems (XPS) und Executive Support Systems (ESS) zeichnet sich durch eine hohe Innovationsdynamik aus. Diese Systeme werden mittlerweile auch für die gezielte Strategieunterstützung attraktiv. So dürfen beispielsweise wissensbasierte Systeme, mit deren Hilfe bestehende Geschäfte verändert oder neue Geschäfte aufgebaut und Entscheidungsprozesse im Unternehmen wettbewerbsorientiert verbessert werden können, zu Recht als „Strategie Impact Systems" 11 bezeichnet werden. Offenbar in zunehmendem Maße und mit Erfolg werden bei Strategie· Workshops und -Konferenzen mit 10 und mehr Beteiligten sogenannte „Electronic Meeting Systems" (EMS) 1 2 eingesetzt. Ihr Nutzenpotential liegt in der Verbesserung strategischer Entscheidungsprozesse durch die Verringerung von Problemen, die bei der Gruppenarbeit gewöhnlich auftreten, zum Beispiel in Form von Gruppenzwang oder Dominanz eines Individuums. Sie gehen einen Schritt über das Hantieren mit Zahlen hinaus und können die Zusammenarbeit auf ein höheres Produktivitätsniveau bringen.

6

Porter , M. E.: Competitive Strategy, New York 1980.

7

Porter , M. E.: Competitive Advantage, New York 1985.

8

Buzzell, R. D./Gale, Β.: The PIMS Principles, New York 1987.

9 Zahn, E.: Informationstechnologie als Wettbewerbsfaktor, in: Wirtschaftsinformatik, 32. Jg., Heft 6, 1990, S. 493-502. 10 Zu einem Zwischenstand vgl. Kleinhans, A./Rüttler, MJZahn, E.: Computergestütztes Management marschiert, in: Harvard Manager, Heft 4, 1989, S. 104-110. 11 Meyer, M. ΗJCurley, K. F.: Putting Expert Systems Technology to Work, in: Sloan Management Review, Winter 1991, pp. 28 ff. 12 Dennis, A. R JNunamaker, J. F., Jr JParanka, DJ Vogel, D. R.: A New Role for Computers in Strategie Management, in: The Journal of Business Strategy, Sept./Oct. 1990, pp. 38-43, u.a.

Erich Zahn

46

Entscheidungen über strategische Aktionskurse werden von den Mächtigen im Unternehmen getroffen. Wenn sie Visionen aufzeichnen, Missionen abgrenzen, Leistungsziele festlegen, Steuerungs- und Sanktionsmechanismen bestimmen, dann sind Strategien in Aktion. Das Handeln der Mächtigen ist aber nicht immer konform. Sie müssen deshalb zur Konsensfindung im Prozeß der Strategieentwicklung animiert werden. Dafür eignen sich Methoden, welche die zu lösenden Aufgaben direkt ansprechen und die individuellen Vorstellungen der beteiligten Entscheidungsträger berücksichtigen. Das „Cognitiv Mapping", ein Instrument zur gezielten Verhandlungsführung, zur Strukturierung vielfältiger konfliktärer Argumente und zur Konsensfindung ohne Meinungsunterdrückung, verspricht derartigen Anforderungen zu genügen. Auf seiner Basis schlägt Eden 13 ein „Strategie Options Development and Analysis (SODA)" vor, das unter anderem bei der ShellGruppe als Hilfsmittel zur Strategieentwicklung eingesetzt wird. Im äußeren Erscheinungsbild etwas ähnlich, aber in der theoretischen Fundierung und praktischen Anwendung grundlegend anders sind sogenannte Einflußdiagramme, die Ursache-Wirkungsbeziehungen beschreiben. Die Verwendung solcher Einflußdiagramme bei strategischen Analysen wird unter anderen von Vertretern der St. Gallener Schule um Hans Ulrich vorgeschlagen 14. Derartige Einfluß- oder Kausaldiagramme werden auch im Rahmen der Strukturanalysen strategischer Zusammenhänge mit Hilfe des systemtheoretisch fundierten Ansatzes „System Dynamics" 15 benutzt. System Dynamics geht jedoch wesentliche Schritte darüber hinaus. Kausaldiagramme werden in ein mathematisches Modell umgesetzt. Anschließend werden computergestützte Simulationen, zum Beispiel zur zeitvarianten Wirkungsanalyse strategischer Annahmen und Entscheidungen, durchgeführt. Modelle vom Typ System Dynamics eignen sich auch zum „Gaming" 1 6 , einem Ansatz des computergestützten Lernens, mit dem auch strategische Fälle durchgespielt werden können. Die verschiedenen hier aufgezeigten und in Abb. 2 skizzierten Entwicklungslinien verschmelzen und bilden die Bausteine für Strategieunterstützungssysteme (SUS). Strategieunterstützungssysteme integrieren bewährte Methoden zur Strategiefindung, berücksichtigen aber bei strategischen Ana-

13 Eden, C.: Strategie Thinking with Computers, in: Long Range Planning, Vol. 23, Nr. 6, 1990, pp. 35-43. 14

Malik , F.: Strategie des Managements komplexer Systeme — Ein Beitrag zur Management-Kybernetik evolutionärer Systeme, Bern 1984. 15 Vgl. Forrester, J. W.: Industrial Dynamics, Cambridge, Mass., 1961, der diese Methode ursprünglich unter der Bezeichnung "Industrial Dynamics" einführte und auf Probleme industrieller Unternehmen anwandte. 16 Bakken , Β. E.: Learning in Dynamic Simulation Games; Using Performance as a Measure, in: Milling, P./Zahn, E. (Hrsg.): Computer-Based Management of Complex Systems, Berlin et al. 1989, S. 309-316.

Strategieunterstützungssysteme

47

lysen die Multidimensionalität und Interdependenz der Problemstellungen und bedienen sich einer interaktiven, benutzelfreundlichen informations- und kommunikationstechnischen Umgebung. So gibt es zum Beispiel Strategieunterstützungssysteme zur Portfoliosimulation, bei denen die Methode System Dynamics und die Portfolio-Technik gleichzeitig zur Anwendung kommen 17 , oder Strategieunterstützungsmodelle, die System Dynamics und Techniken der künstlichen Intelligenz integrieren 18 .

Strategiekonzepte

Erfahrungskurve

MarktWettbewerbsanalyse

Portfolioanalyse

Wertketten" analyse

Cognitive Mapping Einflußdiagramme

EDV -

System Dynamics

MIS-

•DSS

Strategieunterstützungssysteme

-EXS

ESS

Computerunterstützung Abb. 2. Entwicklungspfade zu Strategieunterstützungssystemen (in Anlehnung an Fredericks und Venkatraman, 1988, S. 52)

Den anspruchsvollen Kern von Strategieunterstützungssystemen bilden computergestützte Modelle. Mit diesen und ihrer Leistungsfähigkeit bei der Strategiefindung wollen wir uns im folgenden näher beschäftigen. Dabei konzentrieren wir uns nicht auf normative Modelle, die strategisches Verhalten vorschreiben, sondern auf deskriptive Modelle, die strategische Realitäten beschreiben und analysieren helfen.

17 Merten , Ρ. ΡJLöffler, R./Wiedmann, K. P.: Portfoliosimulation: A tool to support strategic management, in: System Dynamics Review, Vol. 3, Nr. 2, 1987, S. 81-101. 18

Vgl. dazu das Konzept OOSIM in Abschnitt D dieses Beitrags.

48

Erich Zahn

Β. Modell- und computergestützte Strategiefindung Planen, insbesondere strategisches Planen, ist Denken in alternativen Modellen und gleichzeitig ein Lernprozeß 19 . Grundsätzlich erfolgen alle Entscheidungen, die der Mensch als denkendes, planendes Wesen trifft, auf der Basis von Modellen 20 , wobei Modelle allgemein als abstrakte Abbildungen von etwas, für jemand und für einen bestimmten Zweck interpretiert werden können. Die Frage ist deshalb nicht, ob zur Unterstützung der Planung Modelle verwendet werden sollen, sondern wie diese Modelle systematisch verbessert und effektiver genutzt werden können 21 . Modelle lassen sich nach dem Grad ihrer Formalisierbarkeit in mentale, verbale und formale Modelle einteilen. Mentale Modelle sind subjektivabstrahierende Ausschnitte einer individuellen Weltsicht, einer individuellen mentalen Welt. Sie existieren nur im menschlichen Gehirn. Formale Modelle dagegen sind mit Hilfe von Formalismen gefundende Abbildungen. Sie sind intersubjektiv nachprüfbar. Dazwischen befinden sich verbale Modelle als explizierte Beschreibungen. Alle Modelle lassen sich als zusammenhängende Ebenen einer Hierarchie von Abstrahierungen auffassen (vgl. Abb. 3). Dabei nimmt die Präzisierung realitätsbezogener Aussagen von oben nach unten zu. Gleichzeitig gehen dabei aber in der Regel Informationen über den betrachteten Realitätsausschnitt verloren. Das wird deutlich, wenn man den einzelnen Modellkategorien entsprechende Datenbankkategorien zuordnet, wobei, grob unterschieden, numerische Datenbanken quantifiziertes Faktenwissen und mentale Datenbanken nicht expliziertes Verstehenswissen enthalten (vgl. Abb. 4). Das in verschiedene Informationskategorien klassifizierbare Wissen betrifft: (a) Wissen über „policies" (i.S.v. Entscheidungsregeln) und Strukturen, das lokal an einzelnen Entscheidungspunkten bzw. -Zentren verfügbar ist, sagt, wer das entsprechende Systemteil kontrolliert und zeigt, wie Problemdruck und Sachzwänge Entscheidungen beeinflussen; (b) Erwartungen über Verhalten, die gleichsam intuitive, auf der Grundlage von Selbstbeobachtung, Debatte, Kompromiß und tradierten Regeln gefundene Lösungen von Entscheidungsproblemen repräsentieren; (c) Wissen über aktuelles, tatsächlich beobachtetes Verhalten, das u. a. in Form von harten Fakten verfügbar ist. 19 De Geus, Α.: Unternehmensplaner können Lernprozesse beschleunigen, in: Harvard Manager, Heft 1, 1989, S. 28f. 20 Forrester, J. W.: Counterintuitive Behavior of Social Systems, in: Collected Papers of Jay W. Forrester, Cambridge Mass. 1975, S. 213. 21 Zahn, E.: The Use of Models for Strategy Making, in: Baetge, J. (Hrsg.), Control Models for Business Administrations, Symposium XIII, Proceedings of the 10th International Congress on Cybernetics, Namur 1983, S. 73 ff.

Strategieunterstützungssysteme

5

Mentale Welt

Mentales Modell

Verbales Modell

I i

Abb. 3. Hierarchie von Modellkategorien (Quelle: Bunz, 1988, S. 72)

4 Festgabe v. Kortzfleisch

49

Erich Zahn

50

Beobachtete Strukturen und Entscheidungsverhalten

Erwartetes Systemverhalten

*

tatsächliches Systeeverhalten

Mentale Datenbank

B'

Verbale Datenbank

•j ^ r

cH j ^ T

Numerische Datenbank

Abb. 4. Datenbank- und Informationskategorien (nach Forrester, 1986, S. 3 ff.)

Zwischen diesen drei Informationskategorien bestehen gewöhnlich Diskrepanzen. Im allgemeinen gilt die größte Aufmerksamkeit den Diskrepanzen zwischen erwartetem und beobachtetem Verhalten bzw. zwischen Soll- und Istwerten. Bei Soll-Ist-Abweichungen werden die Ursachen entweder in externen Entwicklungen oder in internen Schwierigkeiten vermutet. Um das festzustellen und um Ansatzpunkte für korrigierende Aktionen zu finden, werden in aller Regel intensive Datensammlungen und Analysen betrieben. Dabei wird oft übersehen, daß die wichtigen, weil in ihrer Auswirkung kritischen Diskrepanzen gewöhnlich nicht zwischen erwartetem und beobach-

Strategieunterstützungssysteme

51

tetem Verhalten, sondern zwischen beobachteten Strukturen und erwartetem Verhalten bestehen. Gelänge es, ein Modell auf der Grundlage existenter bzw. beobachteter System-Strukturen zu erstellen, dann ließe sich daraus auch das tatsächliche bzw. beobachtete Systemverhalten generieren. Das intuitiv erwartete Verhalten weicht von diesem oft nur deshalb ab, weil es Wunschdenken ist. Mit anderen Worten: Wenn Entscheidungsträger glauben, daß ihre „policy", d.h. ihre Regel, nach der sie Informationen in Aktionen transferieren, zur richtigen Lösung führt, wenn sie aber aufgrund der Komplexität der Situation nicht sehen, daß ihre „policy" die eigentliche Problemursache ist, dann hat das nur zur Folge, daß sie ihre Anstrengungen in der eingeschlagenen Richtung noch verstärken werden, mit der Folge einer Zunahme der zu beseitigenden Schwierigkeiten 22 . Strategische Probleme sind „policy"- oder Struktur-Probleme; sie lassen sich nicht durch operative Korrekturen beseitigen, erst recht nicht, wenn diese von einem Wunschdenken geleitet sind. Sie betreffen nicht die Frage wie eine „Sache richtig", sondern wie die „richtige Sache" gemacht werden kann. Für die Strategiefindung ist deshalb die Kenntnis der Schlüsselelemente eines strategischen Problems und das Verstehen ihrer Wechselbeziehungen, einschließlich der dabei auftretenden Wirkungsverstärkungen und -Verzögerungen von grundlegender Bedeutung. Dieses Systemwissen, das bislang auf der Grundlage von Intuition und Erfahrung gewonnen wurde, läßt sich durch modell- und computergestützte Analysen systematisch verbessern (vgl. Abb. 5). Dabei werden diese Analysen umso hilfreicher sein, desto besser es gelingt, die problemspezifischen Inhalte mentaler Datenbanken, insbesondere über „policies", Strukturen und Entscheidungsverhalten, in formale Modelle zu integrieren. Die Methode „System Dynamics" 23 ist hierzu ein bereits bewährter Ansatz, der durch die Fortschritte auf dem Gebiet der Managementunterstützungssysteme weiter befruchtet werden wird. Modelle vom Typ System Dynamics eignen sich sehr gut zur Beurteilung strategischer Initiativen, auch oder gerade wenn diese von mehreren Entscheidungsträgern durchgeführt wird. Dabei dient das formale Modell (repräsentiert durch das Rechteck in Abb. 6) als eine eigenständige Meinung und gleichzeitig als Instrument zur Überprüfung der Meinungen der beteiligten Manager (repräsentiert durch die Wolke in Abb. 6). Das Modell erlaubt es, unterschiedliche Szenarien durchzuspielen und in einem Prozeß fundierter Diskussion relativ rasch zu einem Konsens über eine strategische Initiative zu kommen.

22 Forrester, J. W.: Lessons from System Dynamics Modelling, in: System Dynamics Review, Vol. 3, Heft 2, 1987, S. 136-149. 23

4*

Vgl. Forrester,

J. W. (1961).

52

Erich Zahn

heuristische Struktur für Erkenntnisgewinnung

Verstehen des Systems

effektive system-orientierte Intuition

intuitive Vertrautheit mit dem System

Initiierung system-orientierter Imtuition Computerexperimente

Abb. 5. Modellgestützte Entwicklung von Intuition

Im folgenden wird zunächst ein einfaches Strategieunterstützungsmodell SIMIE auf der Basis der Methode System Dynamics vorgestellt. Im Anschluß daran werden OOSIM, ein methodologischer Ansatz zur objektorientierten Erstellung von Simulationsmodellen, und PROSIM, ein „Modellprojekt flexible Produktion", dargestellt. Diese Arbeiten sind im Rahmen des Sonderforschungsbereichs 158 der DFG „Die Montage im flexiblen Produktionsbetrieb" am Lehrstuhl für Betriebswirtschaftliche Planung an der Universität Stuttgart entstanden24. Dabei handelt es sich um Systeme zur Unterstützung von strategischen Entscheidungen in der Produktion. Aufgabe einer Produktionsstrategie ist es, die Anforderungen der Kunden in Produktionssziele zu transformieren und durch die Ausgestaltung der

24

Die folgenden Ausführungen sind ein Auszug aus Zahn, E. / Foschiani, S.I Kleinhans, A. (1990).

Strategieunterstützungssysteme

53

Strategieelemente 25 die Fähigkeiten zur Erfüllung dieser Anforderungen zu schaffen.

Abb. 6. System Dynamics-Modell zur Beurteilung strategischer Initiativen

Eine Produktionsstrategie impliziert damit zwei Kategorien von Entscheidungen, nämlich Entscheidungen zur Verbesserung der fundamentalen Wettbewerbsfähigkeiten der Produktion sowie Entscheidungen zur Nutzung dieser Fähigkeiten und zu ihrer Integration in Wettbewerbsstrategien. Häufig wird eine dieser beiden Entscheidungskategorien vernachlässigt. In diesen Fällen werden entweder Potentiale vergeudet oder Luftschlösser gebaut 26 . Um dies zu vermeiden, muß die Produktion strategisch geplant und in die strategische Unternehmensplanung integriert werden. Für solche Planungen werden umfassende, aber gleichzeitig schnelle und flexible Analysen benötigt, die erst durch leistungsfähige Instrumente möglich werden.

25 Zahn, E.: Produktionsstrategie, in: Henzler, H. A. (Hrsg.): Handbuch Strategische Führung, Wiesbaden 1988, S. 515-542. 26

Miller , J. GJ Hay slip, W.: Implementing Manufacturing Strategic Planning, in: Planning Review, July/August, 1989, S. 25f.

54

Erich Zahn

Abb. 7. Erfolgskritische Marktanforderungen bestimmen die erforderlichen Kernkompetenzen

C. S I M I E : Ein Simulationsmodell zur Analyse von Investitionsentscheidungen Kapazitätserweiterungen sind ein wichtiges Element von Produktionsstrategien 27 . Diesbezügliche Entscheidungen können kritische Auswirkungen auf die Wettbewerbsfähigkeit eines Unternehmens haben, besonders in Zeiten sich stark verändernder und schwer vorhersehbarer Nachfrageentwicklungen. Gefahren ergeben sich sowohl bei zu pessimistischen als auch bei zu optimistischen Investitionen, und zwar entweder in Form von Nachfrageverlusten oder von Überkapazitäten. Die folgende Fallstudie befaßt sich mit dieser Problematik. Sie ist typisch für junge Unternehmen oder neue Geschäftsbereiche in einem Markt mit einer sich zunächst langsam entwickelnden, dann stark wachsenden, später abflachenden und schließlich stagnierenden Nachfrage. Unterstellt sei also eine s-förmige Nachfragekurve über die Zeit. Weiter sei angenommen, daß die Lieferzeiten der kritische Erfolgsfaktor schlechthin sind, und zwar derge27

Zahn, E. (1988), S. 531.

Strategieunterstützungssysteme

55

stalt, daß bei einer Verlängerung der Lieferfristen von ein auf zwei Monate rund zwei Drittel der potentiellen Nachfrage verloren gehen. Beide Annahmen sind in Abb. 8 veranschaulicht.

Nachfragewirkung von Lieferfristen

Lieferfristen

Nachfrage

1000

--

800

600

--

400

200

- -

Zeit (Monate) 120

Abb. 8. Basisannahmen der Fallstudie

Ziel der Fallstudie ist es, mit Hilfe eines Simulationsmodells vom Typ System Dynamics eine „policy" zu finden, die ein optimales Investirions-

Erich Zahn

56

verhalten impliziert in dem Sinne, daß die potentielle Nachfrage möglichst vollständig befriedigt und daß dabei aber gleichzeitig Überkapazitäten vermieden werden. Welche Information ist dazu erforderlich und wie aggressiv sollte das Investitionsverhalten sein? Das in Abb. 9 skizzierte Kausaldiagramm enthält die wesentlichen Ursache· Wirkungs-Beziehungen des zu untersuchenden Problems. Es bildet die Grundlage für modell- und computergestützte Simulationen zur Beantwortung dieser Fragen.

r

I I I I

Nachfrage Markterfordernisse

t Investitionsentscheidungen

-Auftröge :

Auftragsbestand Nachfragewirkung der Lieferanten

Produktionskapazitäten :

Lieferfristen •

Abb. 9. Kausaldiagramm

Das erste Simulationsexperiment, der sog. Basislauf (Abb. 10), ist das Ergebnis einer konservativen „policy". Sie basiert auf Informationen über die historische Auftragsentwicklung, den aktuellen Auftragsbestand und die gegenwärtige Produktionskapazität. Die „policy" generiert eine retardierte Kapazitätsanpassung an die wachsende Nachfrage. In den ersten Perioden, wenn die Nachfrage langsam wächst, hält die Auftragsentwicklung noch Schritt. Bald wächst die Nachfrage schneller als die Aufträge, und die Kapazitätsanpassung hinkt ebenfalls hinterher. Als Folge davon steigt der Auftragsbestand, die Lieferzeiten werden länger und verursachen verzögertes Wachstum sobald die tatsächlichen die von den Kunden akzeptierten Lieferzeiten (= ein Monat) übersteigen. Der Grund für dieses Verhalten liegt an der konservativen Investitionsregel und an den zeitlichen Verzögerungen bei der Kapazitätsanpassung. Es läßt sich zeigen, daß das Wachstum von Kapazitäten und Aufträgen schwächer/stärker ist bei kürzeren/längeren Verzögerungs- (bzw. Anpassungs-)zeiten, die sich im Prozeß der Kapazitätsanpassung von der Entscheidungsfindung über die Bestellung, Anlieferung und Installierung der Anlagen bis zu ihrer Inbetriebnahme ergeben. Im Standardlauf werden dafür zwölf Wochen unterstellt.

Strategieunterstützungssysteme

Aufträge (0..1500.)

Produktionskap. (0..1500J

Nachfrage (0./I500.)

1586. 4.

57

— Lieferfristen (0..4J

1125. 3.

750. 2.

375. 1.

8. 8
Erdgas 1 HS => Erdgas lllllllllll Steinkohle => Erdgas Γ~—I HS => HEL Γ771 HS 1% mm REA und HS 1% REA kAAJ TAV sekundär

Abb. 5: Optimale S02- und NOx-Minderungsmaßnahmen bei den genehmigungs bedürftigen Feuerungsanlagen für ausgewählte Grenzkosten

20-

60 -

80

Energie und Umwelt als Systemproblem 95

Alfred Voß

cï Ο Ο

00

-

00

-

00

00

00

00

EFFORST.DRW

Abb. 6: Effizienzorientiertes Maßnahmenbündel zur C0 2 -Minderung

Energie und Umwelt als Systemproblem

97

Literatur Voß, Alfred: Möglichkeiten und Grenzen von Energieprognosen, in: Existenzfrage: Energie; Econ Verlag, Düsseldorf, 1980. Voß, Alfred: Nutzen und Grenzen von Energiemodellen — einige grundsätzliche Überlegungen, in: Angewandte Systemanalyse, Heft 3, 1982, S. 11 Iff. von Kortzfleisch, Gert; Voß, Alfred: Energie für den Verkehr, Schriftenreihe des Verbandes der Automobilindustrie e.v. (VDA), Nr. 42, 1984. Voß, Alfred; von Kortzfleisch, Gert: Maßnahmen und Investitionen der EVU in BadenWürttemberg zur Minderung von S0 2 - und NOx-Emissionen. Resultate systemanalytischer Studien, in: Waldschäden: Theorie u. Praxis auf der Suche nach Antworten, R. Oldenbourg Verlag, München, 1985. Bericht der Arbeitsgruppe „Wirtschaftliche Entwicklung — Umwelt — Industrielle Produktion", Staatsministerium Baden-Württemberg, Stuttgart, 1986. Voß, Alfred: Energie und Klima — Ist eine klimaverträgliche Energieversorgung erreichbar?, in: Brennstoff — Wärme — Kraft (BWK), Heft 1/2, 1991, S. 19ff.

7 Festgabe v. Kortzfleisch

Latente ökonomische Ressourcen in der Nutzungsdauer von Gebrauchsgütern Von Klaus Bellmann

A. Dauerhafte Gebrauchsgüter im Nutzungsprozeß In herkömmlichen betriebswirtschaftlichen Ansätzen und auch in der Praxis dominiert eine Produzentenökonomie: Unter dem Primat von Absatz- und Beschaffungsmarktpreisen sowie Produktionskosten werden Produkte und Produktionsprozesse primär techno-ökonomisch optimiert. Postproduktive Leistungen des Herstellers sind meist nur dann von Interesse, wenn diese imagebildend und infolgedessen umsatzfördernd wirken. Dem steht eine Konsumentenökonomie gegenüber, in der neben dem Gebrauchsnutzen eines Gutes die Wartungs-, Reparatur- und Betriebskosten während, sowie die Weiterverkaufspreise am Ende der individuellen Nutzungszeit eines Gebrauchsgutes von sehr hoher Bedeutung sind. Über die Wirtschaftlichkeit sowie die Umweltverträglichkeit der postkonsumptiv notwendigen Entsorgung von Gütern, wird hingegen sowohl bei der Konstruktion als auch bei der Kaufentscheidung nur im Ausnahmefall reflektiert.

I. Konstitution dauerhafter Güter

Güter, die Ihre Leistung nach und nach über einen längeren Zeitraum abgeben und erst nach mehrmaliger, wiederholter Verwendung ihren wirtschaftlichen Nutzen verlieren, werden als Gebrauchsgüter bezeichnet. Sie unterscheiden sich darin von den Verbrauchsgütern, deren Wert in einem einzigen — u.U. aber länger andauernden — Nutzungsakt verzehrt wird. Gebrauchsgütern kann somit ein Nutzungs- oder Leistungspotential zugeordnet werden, das innerhalb eines begrenzten Zeitraums quantenweise aufgebraucht wird. Nach dem Leistungsverhalten dauerhafter Güter während der Zeit ihrer Nutzung unterscheiden sowohl die betriebswirtschaftliche Investitionstheorie als auch die volkswirtschaftliche Durability Theory idealtypisch zwischen — Gütern mit konstanter Leistungsfähigkeit und — Gütern mit abnehmender Leistungsfähigkeit. 7*

100

Klaus Bellmann

Diese Begriffe lassen sich ohne Einschränkung auch auf die Nutzung von Gebrauchsgütern übertragen. 1. Güter mit konstanter Leistungsfähigkeit Glühbirnen, mechanische, optische oder elektronische Bauelemente u.a.m zeichnen sich während der Betriebszeit durch eine nahezu gleichmäßige Leistungsabgabe aus und erfordern oder erlauben im allgemeinen keinerlei Maßnahmen zum Erhalt ihrer Leistungsfähigkeit. Zum Ausfallzeitpunkt, wenn die geforderte Leistung nicht mehr erbracht werden kann, werden diese nichtinstandzusetzenden Güter sofort und vollständig unbrauchbar. Die Zeitspanne der Nutzung von (nichtinstandzusetzenden) Gütern konstanter Leistungsfähigkeit, in der D I N 40041 „Brauchbarkeitsdauer" nannt, ist von der Einhaltung einer festgelegten Mindestzuverlässigkeit hängig. Die Festlegung der Zuverlässigkeit erfordert die Angabe einer verlässigkeitskenngröße mit Zahlenwert und Einheit. 1

mit geabZu-

Abb. 1 verdeutlicht die Zusammenhänge zwischen Nutzungsdauer und Zuverlässigkeit, wobei die Abnahme der Zuverlässigkeit über die Zeit — je nach ausgewählter Zuverlässigkeitskenngröße — mehr oder weniger deutlich ausgeprägt sein kann. Auch wenn die Zuverlässigkeit die Erfüllung mehrerer Funktionen beinhaltet, bleibt die Definition der Nutzungsdauer letztlich ein eindimensionales Problem, da die Funktionserfüllung mit der kürzesten Zeitspanne nutzungsdauerbegrenzend wirkt. Die Nutzungsdauer von Gütern mit konstanter Leistungsabgabe ist innerhalb der Streukurven durch die technische Auslegung des Produktes begrenzt. Man nennt deshalb vielfach den Zeitraum der Güternutzung, der primär durch physisch-technische Einflußfaktoren geprägt ist, die technische Nutzungsdauer 2, denn eine Reparatur ist im Schadensfall nicht möglich oder würde mehr kosten als der Ersatz des Gutes. Da die technische Nutzungsdauer eines Gutes kein naturwissenschaftlich vorgegebenes Ende hat, sondern als geplante Größe in weiten Grenzen variiert werden kann, muß jede Lebensdauerauslegung einen Kompromiß darstellen, der vom Produzenten mit Anforderungsprofilen und Wirtschaftlichkeitsüberlegungen begründet wird. Im Gegensatz zu der weitverbreiteten Ansicht, daß die technische Lebensdauer quasi die Obergrenze für die Dauer der Nutzung eines Gutes darstelle, ist die Lebensdauer von Gütern mit konstanter Leistungsabgabe im Grunde eine Lebensdauer unter vorgegebenen technischen und wirtschaftlichen Randbedingungen. Der Konsument kann jedoch im allgemeinen keinen Einfluß auf

1 2

Vgl. Vornorm DIN 40041, S. 2.

Für (nichtinstandsetzbare) Güter mit konstanter Leistungsfähigkeit werden oftmals auch die Begriffe „technische Lebensdauer" und nach DIN 40041 „Lebensdauer" verwendet.

Latente ökonomische Ressourcen in der Nutzungsdauer

101

den wirtschaftlichen Aspekt nehmen, weshalb für ihn die Lebensdauer als technisches Datum gilt. Die Glühlampe mit einer Auslegung auf 1000 Brennstunden für alle Wattagen kann hierfür als Schulbeispiel gelten.3

Zuverlässigkeit 100 %



Mindestzuverlässigkeit

0%

- Technische Nutzungsdauer

·j

Zeit

Abb. 1: Definition der technischen Nutzungsdauer eines Gutes mit konstanter Leistungsfähigkeit aus seiner Zuverlässigkeit im Zeitverlauf

2. Güter mit abnehmender Leistungsfähigkeit Im allgemeinen finden Güter mit konstanter Leistungsfähigkeit als Einzelteile oder als Bestandteile von Bauteilen Verwendung in Gütern mit über der Gebrauchsdauer abnehmender Leistungsfähigkeit, so daß für die weitaus meisten Gebrauchsgüter die Abnahme der Leistungsfähigkeit während der Gebrauchsdauer charakteristisch ist. Die funktionsbedingte Anordnung der Bauteile determiniert die Zuverlässigkeit des Produktes. Die Sicherung der quantitativen und qualitativen Leistungsabgabe auf einem vorgegebenem, gewünschten Niveau erfordert vorsorgliche Erhaltungsmaßnahmen und ausfallbedingte Reparatur- oder Austauschmaßnahmen. Die Auslegung aller Bauelemente dieser Güter auf eine einheitliche technische Lebensdauer ist aus technischen Gründen meist nicht möglich und aus wirtschaftlichen Überlegungen oft nicht sinnvoll. Vielfach ist der Schutz hochwertiger Teile durch definiert verschleißende und leicht austauschbare Teile oberstes Konstruktionsprinzip.

3

Vgl. Röper, B.: Gibt es den geplanten Verschleiß? — Untersuchungen zur Obsoleszensthese —, Göttingen 1976.

102

Klaus Bellmann

Die Nutzungsdauer von Systemen aus austausch- oder reparierbaren Bauteilen oder -gruppen ist hingegen primär aus ökonomischen, und nicht aus technischen Gründen begrenzt und wird deshalb sinnvollerweise wirtschaftliche Nutzungsdauer (oder auch wirtschaftliche Lebensdauer) genannt. Bei jedem Systemausfall muß entschieden werden, ob eine Reparatur oder eine Ersatzbeschaffung eines (u.U. technisch verbesserten) Gutes die wirtschaftlich sinnvollere Lösung ist. Gegebenenfalls gehen auch weitere, individuelle Gründe der Wirtschaftssubjekte in diese Entscheidung ein. Infolgedessen kann die individuelle wirtschaftliche Nutzungsdauer kürzer oder auch länger sein als die — unter gewissen Normbedingungen — geplante Lebensdauer von Gebrauchsgütern mit abnehmender Leistungsfähigkeit. Abb. 2 skizziert den prinzipiellen Verlauf einer Zuverlässigkeitsfunktion bei Gebrauchsgütern mit abnehmender Leistungsfähigkeit und mehrfach durchgeführten Maßnahmen zur Sicherung der Funktionstüchtigkeit. Das Ende der Nutzungsdauer und damit die wirtschaftliche Lebensdauer ist erreicht, wenn weitere Maßnahmen zur Sicherung der Funktionstüchtigkeit ökonomisch nicht sinnvoll erscheinen, obwohl das Gut nach Durchführung solcher Maßnahmen technisch weiter verwendungsfähig wäre (beste Alternative zur Erreichung eines angestrebten Nutzens).

Zuverlässigkeit

Abb. 2: Definition der wirtschaftlichen Nutzungsdauer eines Gutes mit abnehmender Leistungsfähigkeit bei mehrfachen Maßnahmen zur Sicherung der Funktionstüchtigkeit

Latente ökonomische Ressourcen in der Nutzungsdauer

103

I I . Ursachen der Güterentwertung

Ein Gut verliert für seinen Nutzer den Gutscharakter, sobald es nicht mehr den geforderten Nutzen stiften kann. Dadurch wird das Gut hinsichtlich seiner bisherigen Verwendung obsolet; es kann aber unter veränderten Einsatzbedingungen noch von Nutzen sein und weiterhin Leistungen erbringen. Obwohl die Begriffe obsolet und Obsoleszenz an sich wertfrei sind, werden diese häufig mit den Attributen „künstlich" oder „geplant" sozialkritisch assoziiert. Hier soll Obsoleszenz als terminus technicus wertfrei sein und — in Anlehnung an den anglo-amerikanischen Sprachgebrauch — als Oberbegriff für alle Arten der Außergebrauchnahme von Gebrauchsgütern verwendet werden. Als Ursachen für die Obsoleszenz eines Gutes lassen sich in Anlehnung an die Investitionstheorie idealtypisch physische, ökonomische und psychische Faktoren unterscheiden. 1. Physische Einflußfaktoren Aus naturwissenschaftlich-technischen Gründen ist es unmöglich, technische Produkte mit unbegrenzter Lebensdauer herzustellen. Gebrauchsgüter fallen infolge physikalischer (Verschleiß) und chemischer Alterungsvorgänge (Korrosion) früher oder später aus. Früh-, Zufalls- und Verschleißausfälle erklären den sog. „Badewannen-Verlauf" der Ausfallhäufigkeit über die Zeit. Bei nicht reparierbaren Gütern mit konstanter Leistungsfähigkeit wird mit Zunahme der Verschleißausfälle das Ende der Nutzungsdauer erreicht; die Güter werden somit im wertneutralen Sinne qualitativ obsolet. Bei sehr hohen Anforderungen an die Leistungsfähigkeit oder Zuverlässigkeit kann die Gebrauchsdauer jedoch auch wesentlich kürzer sein. Vielfach unbeachtet, aber — wie beispielsweise bei Kraftfahrzeugen — durchaus nicht unerheblich, sind vorzeitige, zufällige Ausfälle von Gebrauchsgütern, die aufgrund des Abhandenkommens (Verlust, Diebstahl, usw.) oder infolge von Gütervernichtung (Brand, Unfall, Katastrophe, etc.) entstehen. Diese Ursachen werden üblicherweise unter dem Begriff „Katastrophenverschleiß" 4 zusammengefaßt. In der Investitionstheorie wird regelmäßig angenommen, daß diese Risiken durch Versicherungen abgedeckt und somit in Kalkülen verrechenbar sind. Bei Gebrauchsgütern kann diese Annahme, zumindest aus gesamtwirtschaftlicher Sicht, nicht gelten: Ein Produkt auf hohe Dauerhaftigkeit auszulegen, ist ökonomisch wenig sinnvoll, wenn dem Katastrophenverschleiß eine überragende Bedeutung zukommt.

4

Kosiol, E.: Anlagenrechnung, Wiesbaden 1955, S. 32 f.

104

Klaus Bellmann

2. Ökonomische Einflußfaktoren Bei Gütern mit abnehmender Leistungsfähigkeit bestimmt die logischfunktionale Anordnung der Bauelemente mit ihren Einzelzuverlässigkeiten die Zuverlässigkeit der Subsysteme und letztlich des Totalsystems. Nach den Regeln der durch die Raumfahrt und die Kernenergie weit voran gebrachten Zuverlässigkeitstheorie läßt sich die Entwicklung der Gesamtzuverlässigkeit von aus einzelnen Elementen zusammengesetzten Systemen über die Zeit abschätzen. Die Festlegung einer Mindestzuverlässigkeit (bzw. des Ausfallrisikos) ist verwendungszweckbedingt und basiert hauptsächlich auf ökonomischen Kriterien und sicherheitstechnischen Anforderungen. Somit hat die Reparaturfähigkeit eines Gutes erheblichen Einfluß auf dessen Nutzungsdauer. Langlebige Gebrauchsgüter sind meist so konzipiert, daß zufällig ausfallende und leicht verschleißende Teile einfach und kostengünstig austauschbar sind. Aus ökonomischen Gründen erfolgt bei vielen Produkten eine Abstimmung der Haltbarkeit einzelner Teile. Obwohl unter ausschließlich technischen Aspekten das Leistungspotential jedes Gutes durch Instandsetzung wieder hergestellt werden kann, sind bei Häufung der Verschleißausfälle Reparaturen meist nicht mehr wirtschaftlich. Eine Ersatzbeschaffung — insbesondere angesichts technisch verbesserter und veränderter Produkte — stellt vielfach die kostengünstigere Alternative zur Erbringung der geforderten Leistung dar. Unter Wirtschaftlichkeitskriterien lassen somit technische Fortschritte Güter schon vorzeitig obsolet werden, wenn verbesserte oder neue Produkte einen höheren Grundnutzen oder einen erwünschten Zusatznutzen erbringen. Weitere ökonomische Gründe für die vorzeitige Obsoleszenz können der Fristablauf von Nutzungsverträgen 5 und Preisänderungen auf den Beschaffungsmärkten 6 sein. 3. Psychische Einflußfaktoren Neben den vorgenannten technisch-wirtschaftlichen Ursachen ist die Lebensdauer einer Güterpopulation noch von zahlreichen anderen Einflüssen abhängig, die vielfach quantitativ nicht erfaßbar sind und im emotionalen Verhalten der Wirtschaftssubjekte gründen. Hierzu zählen sozial-psychologische, sozio-ökonomische und sozio-ökologische Faktoren, wie beispielsweise Mode, Geschmack, Stil, Status, Luxus, Bildung, Einkommen, Sozial- und Umweltattitüden. Alle diese Einflußgrößen sollen in dem Begriff »psychische Ursachen der Obsoleszenz4 zusammengefaßt werden.

5 Kosiol, S. 33f.; Gutenberg, E.: Einführung in die Betriebswirtschaftslehre, Wiesbaden 1958, S. 179. 6

Kosiol, E., S. 35f.

Latente ökonomische Ressourcen in der Nutzungsdauer

105

Die Obsoleszenz eines Gutes ist nur in Ausnahmefällen auf eine einzige Einflußart zurückzuführen. In den meisten Fällen wirken verschiedene Ursachen zusammen. Die Interdependenzen zwischen technischen und ökonomischen Ursachen lassen die Unterscheidung zwischen einer technischen und einer wirtschaftlichen Nutzungsdauer bei Gütern mit abnehmender Leistungsfähigkeit wenig zweckmäßig erscheinen. Dennoch fehlt es in der betriebswirtschaftlichen Literatur nicht an Versuchen, definitorische Abgrenzungen zu finden, wobei die technische Lebensdauer als Obergrenze der wirtschaftlichen Lebensdauer gesehen wird. 7 Da die zeitliche Obergrenze für die technische Nutzung eines Gutes nur durch die Begrenzung des betriebenen Aufwands gesetzt wird, ist unter diesem Aspekt allein die Wirtschaftlichkeit für die Nutzungsdauer des Leistungspotentials eines Gutes maßgeblich. Von untergeordnetem Interesse ist, ob das Gut während der Nutzungsdauer in einer Hand bleibt oder den Besitzer einmal oder mehrmals wechselt. Im Einzelfall könnte die Nutzungsdauer eines Gebrauchsgutes durch Messung derjenigen Zeitdauer bestimmt werden, während der es seinem Zweck gemäß in den nachfragenden Sektoren genutzt wird, ergo als Zeitspanne zwischen erstmaligem Erwerb und endgültiger Entsorgung. 8 Da die individuellen Nutzungsdauern auch funktionsgleicher Produkte stark differieren (vgl. Tab. 1), ist es sinnvoller, die mittlere Nutzungsdauer einer Güterpopulation als charakteristische Größe heranzuziehen. Diese beinhaltet dann sämtliche Obsoleszenzursachen. B. Wertschöpfung während der Nutzungsphase Nach erstmaligem Durchlaufen aller Transformationsstufen zwischen Rohstoff und Nutzungsbeginn hat ein Gut den höchsten Wert und erfährt nachfolgend durch Nutzungsakte eine ständige Entwertung. Diese Entropiezunahme ist letztendlich nicht aufzuhalten und führt über kurz oder lang direkt zum Abfall. Bei dauerhaften Gebrauchsgütern mit abnehmender Leistungsfähigkeit kann die Geschwindigkeit der Entwertung durch technologische Maßnahmen jedoch verlangsamt werden. Kybernetisches Denken vermittelt die Erkenntnis, daß die Gesamtwertverluste bei techno-ökonomischen Systeme dann minimal werden, wenn ein Gut lange Zeit auf einer hohen Wertstufe gehalten oder sein Wert durch geeignete Maßnahmen aufgefrischt werden kann. Hierzu ist erforderlich, vorgelagerte Transformationsstufen in Teilen oder neuartige ganz zu durchlaufen, um auf möglichst hohem Niveau Materialkreisläufe mit maximaler Wertschöpfung einzuleiten. 9 7 Vgl. die ausführliche Darstellung in: Borsdorf, H.-J. Die technische Lebensdauer von Gebrauchsgütern mit abnehmender Leistungsfähigkeit als Instrument der Absatzpolitik, Dissertation Mainz 1974, S. 25-36. 8

OECD (ed.): Product Durability and Product Life Extension, Paris 1982 , S. 16f.

Klaus Bellmann

106

Tabelle 1 Nutzungsdauern ausgewählter Gebrauchsgüter Nut zungsdauer

Gebrauchsgut Akkumukatoren

2

-

6 Jahre

Elektrische

5

-

10 J a h r e

10

-

12 J a h r e

>

12 J a h r e

10

-

13 J a h r e

5

-

15 J a h r e

6

-

15 J a h r e

8

-

16 J a h r e

10

-

20 J a h r e

16

-

20 J a h r e

>

20 J a h r e

-

30 J a h r e

Klimageräte

Plattenspieler Fernsehgeräte Waschmaschinen, Staubsauger Personen-

und

Rundfunkgeräte Kühl-

und

Geschirrspüler, Kombinationskraftwagen aller

Art

Gefriergeräte

L a s t k r a f t w a g e n , Busse, zivile Düsenverkehrsflugzeuge Elektroherde, Heizgeräte

Heißwasserbereiter,

Elektrorasierer Armbanduhren Bauwerke

1

> 40 J a h r e

Möbel

Abb. 3 verdeutlicht diesen Ansatz: Der Kreislauf mit dem weitesten Weg nach dem Nutzungsende. Die Wertist das Recycling zu Sekundärwerkstoffen schöpfung ist bei diesem Prozeß im Vergleich zu allen anderen Möglichkeiten am geringsten, bei Innovationssprüngen auf der Ebene technischer System aber oftmals der einzig gangbare Weg. Die Wertschöpfung wird umso größer, je enger die Stoffkreisläufe gestaltet werden, weil durch vergleichsweise geringen Aufwand der ursprünglich vorhandene Nutzen fast vollends wieder herzustellen ist. So wird die größte Wertschöpfung erreicht, wenn ein Gut in angepaßter Umgebung in weiterer Hand genutzt werden kann, nachdem es für den Vorbesitzer durch Unterschreiten des geforderten Wertes oder durch Innovationssprünge auf der Ebene technischer Produkte obsolet geworden ist. Zu relativ hoher Wertschöpfung führen auch Reparatur, Instand9

Vgl. Schweizerischer Bankverein (ed.): Wirtschaftliche Strategie der Dauerhaftigkeit. Betrachtung über die Verlängerung der Lebensdauer von Produkten als Beitrag zur Vermeidung von Abfällen, Bankverein-Heft Nr. 32, 1987; Stahel, W. R.: Hidden Resources, in: Science and Public Policy, Vol. 13, 1986, S. 185-193.

Latente ökonomische Ressourcen in der Nutzungsdauer

107

setzung und Generalüberholung sowie die Technische Aufrüstung bei Innovationssprüngen auf der Ebene von Komponenten technischer Systeme oder Produkte.

Abb. 3: Stoffkreisläufe unterschiedlicher Wertschöpfung bei Transformationsprozessen zur Güterproduktion und Güternutzung I . Technologische Optionen

In den Transformationsprozessen zwischen Werkstoffgewinnung und Güterentsorgung sind latente Ressourcen der Wertschöpfung vorhanden, die größtenteils noch nicht erschlossen sind. Um nutzbare Potentiale zu erkennen, müssen die Güter und ihre Komponenten als Stoffflüsse in einem Transformationssystem begriffen werden, wie oben dargelegt wurde. Aus diesen Überlegungen lassen sich fünf techno-ökonomischen Optionen ableiten, die zur Verlangsamung der Wertminderung bei hochwertigen Gütern und Systemen mit abnehmender Leistungsfähigkeit beitragen können: (1) Kompatible Grundkonstruktion (2) Instandhaltung und -setzung, (3) Generalüberholung, (4) Technische Aufrüstung sowie (5) Wiederverwendung von Komponenten und Teilen.

108

Klaus Bellmann

Sämtliche konzeptionellen Optionen sind als Anforderungen bereits bei der (1) Konstruktion eines Gutes zu berücksichtigen. So sollten dessen tragende Elemente auf Dauerhaftigkeit ausgelegt werden, da Reparaturen an diesen, für die Betriebssicherheit relevanten Teilen, erfahrungsgemäß mit fortschreitendem Alter die Reparaturwürdigkeit in Frage stellen. Oftmals betrifft dies Maßnahmen zur Verminderung der Korrosion. Auch mangelnde Dauerfestigkeit ist bei hochwertigen Gütern vielfach der Grund für die vorzeitige Außerbetriebnahme. Technologische Kenntnisse zur Bewältigung beider Probleme sind vielfältig existent, finden aber nur in kleinen Schritten Eingang in die Serienproduktion. Untersuchungen zeigen, daß bei Verdoppelung der Produkthaltbarkeit sich die Produktionskosten bei den meisten Gütern um nicht mehr als 10 bis 20% erhöhen. Hochwertige Güter könnten länger genutzt werden, wenn die Produktion nicht unter dem Diktat der Herstellungskosten stehen würde, sondern bei Konzeption und Konstruktion aus synoptischer, systemarer Sicht die gesamte Wirkungskette von den Ressourcen, über die Produktion sowie über die Nutzung bis hin zur Entsorgung berücksichtigt würde. In engem Zusammenhang mit konstruktiven Problemlösungen stehen auch (2) Instandhaltung und Instandsetzung. Da Maßnahmen zur laufenden Instandhaltung Teil der Produktkonzeption sind, bereitet deren Durchführung prinzipiell keine Schwierigkeiten. Wenn Betreiber solche vorbeugenden Maßnahmen dennoch unterlassen, geschieht dies aus Gründen der Ignoranz, der Bequemlichkeit oder des Kostenumfangs mit der Konsequenz potentieller Folgeschäden. Sind schließlich Instandsetzungen sowie Reparaturen unter ökonomischen Kriterien nicht mehr sinnvoll, so liegt der Grund für die Verkürzung der Nutzungsdauer nicht ausschließlich in der Art des Schadens, der unter Erwartungswerten antizipiert werden kann. Wesentlich hierfür sind auch die konstruktiv vorgegebenen Prinzipien des Zusammenbaus, die überwiegend auf eine rationelle Montage abzielen und bei denen Probleme der Demontage zwecks Reparatur oder zwecks Entsorgung von untergeordneter Bedeutung sind. Bei dauerhaften Gütern ist sicher nicht zweckmäßig, sämtliche Elemente für die antizipierte Dauer der Nutzung auszulegen. Zur Aufrechterhaltung der Funktionstüchtigkeit von Komponenten oder Aggregaten stellt deren routinemäßiger Austausch oftmals die einzig praktikable Lösung dar. Aus ökonomischen Gründen müßten derartige Maßnahmen aufeinander abgestimmt und zusammengefaßt im Rahmen einer planmäßigen (3) Generalüberholung vom Hersteller oder von Spezialwerkstätten durchgeführt werden, wie dies beispielsweise bei Flugzeugen und anderen hochwertigen Gütern in der Instandhaltung Stand der Technik ist. Während der Nutzung dauerhafter Güter sind Entwicklungsfortschritte eher die Regel als die Ausnahme. Die Anpassung an Innovationen oder Umfelderfordernisse muß deshalb durch den Austausch technisch veralteter Komponenten gewährleistet sein. Voraussetzung für diese (4) Technische

Latente ökonomische Ressourcen in der Nutzungsdauer

109

Aufrüstung sowie für die Forderungen nach wirtschaftlicher Instandsetzung und Generalüberholung ist die Realisierung einer modularen Konstruktion. Bei zahlreichen Mikro-Computern, die ein flexibles kostengünstiges Hochrüsten des Systems erlauben, ist dieses Konzept beispielhaft verwirklicht. Bei zunehmend kürzeren Zeiten zwischen Konstruktion und Fertigstellung von Produkten durch den Einsatz elektronischer Hilfsmittel sind hier keine grundsätzlichen Probleme zu erkennen. Die Vielfalt von nachrüstbaren Maßnahmen zur Emissionsminderung bei Kraftfahrzeugen und die Schnelligkeit, mit der technische Lösungen auf dem Markt verfügbar waren, belegen diese Annahme. Die (5) Wiederverwendung von Komponenten und Teilen dauerhafter Güter kann in zwei unterschiedlichen Weisen erfolgen: Zum einen fallen bei der Instandsetzung und der Generalüberholung Aggregate an, deren Funktionstüchtigkeit zu vertretbaren Kosten durch Überarbeitung im Herstellerwerk oder in Spezialwerkstätten wiederhergestellt werden kann. Hier bietet sich als Alternative zum Neuteil meist der Austausch von Komponenten an und wird in dieser Form auch bei vielen dauerhaften Gütern mit Gewährleistungszusagen praktiziert. Andererseits lassen sich von außer Betrieb genommenen, zur Verschrottung anstehenden Gütern zahlreiche Teile und Komponenten in originärer Funktion und unverändertem Zustand als Ersatzteile weiterverwenden. Die letztgenannte Art der Wiederverwendung hat bis heute nur bei Personenkraftwagen durch einen eigenständigen Gebraucht-Ersatzteilhandel in beschränktem Umfang eine Bedeutung erlangt. Der Einsatz derartiger Gebraucht-Ersatzteile erfolgt aus Gewährleistungsgründen fast ausschließlich bei Do-it-yourself-Reparaturen; nur wenige gewerbliche Teileverwerter bieten Reparaturen dieser Art als Dienstleistung an. Der größeren Verwendung von Gebraucht-Ersatzteilen stehen vielfach mangelnde individuelle Kenntnisse und Fähigkeiten sowie fehlende technische Ausrüstungen entgegen.

I I . Ökonomische Ressourcen

Aus ökonomischen Gründen, aber auch aus ökologischer Sicht ist deshalb sinnvoll, den gesamten Produktions- und Konsumptionsprozeß zu optimieren — von den Ressourcen über die Produktion und die Nutzung bis hin zur Entsorgung. Die Optimierung dauerhafter Güter auf Systemebene muß nicht zwangsläufig die Verlängerung der Nutzungsdauer zur Folge haben, wenn dies auch in der überwiegenden Zahl der Fälle zweckmäßig erscheint. Sämtliche vorgenannten Maßnahmen zielen aus diesem Grund direkt oder indirekt auf eine Verlängerung der Nutzungsdauer. Neuartige Ansätze zur Minimierung der Materialverbräuche und Energieeinsätze über den gesamten Zyklus des Güterlebens, bei weitgehendem Schließen der Stoffkreisläufe, könnten deshalb vielfältige Innovationen induzieren. 10 10

Vgl. z.B. StaheU W. R., S. 36-43.

110

Klaus Bellmann

A m Beispiel von Personen- und Kombinationskraftwagen, im weiteren Automobile genannt, sollen Potentiale der Wertschöpfung exemplifiziert werden. Das Automobil ist als Untersuchungsobjekt in besonderem Maße geeignet: (1) Das Automobil repräsentiert in den westlichen Industrieländern das dauerhafte Gebrauchsgut mit der ökonomisch höchsten Bedeutung, woraus die herausragende Stellung der Automobilwirtschaft innerhalb der Gesamtwirtschaft sowie der breite gesellschaftliche Bezug zum Automobil erklärbar sind. (2) Die niedrige Zahl von 2000 Gesamtbetriebsstunden im Mittel, verglichen mit der fünf- bis zehnfach höheren Zahl an Betriebsstunden, die Lastkraftwagen, Busse oder Flugzeuge im Durchschnitt erreichen, läßt ein hohes Potential an latenten ökonomischen Ressourcen erwarten. (3) Über Automobile sind besonders umfangreiche und detaillierte, statistisch zuverlässige Informationen über Produktion, Nutzung und Entsorgung allgemein verfügbar. (4) Bei keinem anderen Gebrauchsgut hat der Katastrophenverschleiß in der Erscheinungsform von Totalschäden eine vergleichbare große Bedeutung wie bei Automobilen. Das Globalziel eines derartigen Optimierungsansatzes soll nach dem Prinzip der ökonomischen Rationalität die Steigerung der Wirtschaftlichkeit von Güterproduktion und Güternutzung sein. Zur Beurteilung der Wirtschaftlichkeit einer technologischen Option muß das Gesamtziel in Teilziele zerlegt werden. Als solche Einzelziele werden definiert: (1) Gesamtwirtschaftlichkeit nutzungsdaueroptimierter Fahrzeuge (mit den periodenbezogenen Zielgrößen): a) Automobilwirtschaftlicher Gesamtendenergieeinsatz für Produktion, Recycling und Betrieb, b) Automobilwirtschaftliche Gesamtausgaben für Neuzulassungen und Betrieb der Fahrzeugflotte, c) Automobil wirtschaftliche Produktion; (2) Einzelwirtschaftlichkeit nutzungsdaueroptimierter Fahrzeuge (mit den spezifischen Zielgrößen): a) Haltungs- und Betriebskosten (aus Anschaffung, Betrieb, Wartung, Überholung), b) Komparativer Kostenvorteil aus Haltung und Betrieb von nutzungsdaueroptimierten Fahrzeugen im Vergleich zu ebenso intensiv genutzten herkömmlichen.

Latente ökonomische Ressourcen in der Nutzungsdauer

111

Die vorgenannten Ziele haben automobilwirtschaftliche und soziale Auswirkungen, die nachfolgend zu analysieren sind: (3) Sozio-ökonomische Implikationen a) Sozialverträglichkeit, b) Umweltverträglichkeit Erfahrungsgemäß dauert die Entwicklung eines Personenkraftwagens rund fünf Jahre; nach weiteren fünf Jahren kann das Produkt als technisch ausgereift gelten. Technische Fortschritte zur Verbesserung der Dauerhaftigkeit von Fahrzeugen können sicher nur schrittweise eingebracht werden. Eine sprunghafte Entwicklung erscheint unwahrscheinlich. Deshalb könnte frühestens in den späten 90er Jahren ein ausgereiftes Produkt mit verbesserter Dauerhaftigkeit auf dem Markt erwartet werden. Zu diesem Zeitpunkt muß der Binnenmarkt in den alten Bundesländern aber als gesättigt und der Personenkraftwagen-Bestand — von konjunkturellen Einflüssen abgesehen — in Menge und Struktur als mehr oder weniger gleichbleibend angesehen werden. Eine Zeitpunktoptimierung (z.B. für das Jahr 2000) würde deshalb allen Anforderungen entsprechen. Ferner wird unterstellt, daß die mittlere Fahrzeugklasse zur Jahrtausendwende einen gleichgewichtigen Bestand von 18 Mio. Personenkraftwagen umfaßt, die bei einem mittleren Nutzungspotential von rd. 172000 km und einer mittleren jährlichen Einzelfahrleistung von 14000 km im Durchschnitt eine Nutzungsdauer von etwa 11.6 Jahren erreichen. Dieser Gleichgewichtsfall mit ausschließlich herkömmlichen Fahrzeugen soll als Referenz herangezogen werden, um die Wechselwirkungen zu quantifizieren, die zu erwarten sind, wenn in der Mittelklasse herkömmliche und nutzungsdaueroptimierte Fahrzeuge zueinander in Konkurrenz stehen. Die Erfüllung des gewünschten Nutzens innerhalb dieser Fahrzeugklasse soll unabhängig von der tatsächlichen Nutzungsdauer des Fahrzeugs sein, nicht jedoch der materielle und der ökonomische Aufwand zur Nutzenerfüllung, weil Resultanten der geplanten Produktnutzungsdauer. Bei gegebenem Nutzen erreicht demnach die Wirtschaftlichkeit ihr Optimum, wenn die Ressourceneinsätze zur Deckung des automobilen Mobilitätsbedürfnisses der Nachfrager minimal werden. Den Modellrechnungen liegen die technischen und ökonomischen Informationen zugrunde, die bei den Arbeiten für das „Forschungsprojekt Langzeitauto" 11 für Fahrzeuge mit weitestgehender Verwendung von Aluminiumwerkstoffen ermittelt wurden. Die Preis- und Kostenangaben referieren als reale Größen auf das Basisjahr 1982. Die unabhängige Variable des Optimierungskalküls ist die mittlere Nutzungsdauer dauerhafter Fahrzeuge. Ein-

11 Bundesminister für Forschung und Technologie (ed.): Forschungsprojekt Langzeitauto, München 1976.

112

Klaus Bellmann

zelergebnisse sind die Nachfrage nach herkömmlichen und nutzungsdaueroptimierten Automobilen sowie die Größenwerte der übrigen abhängigen Variablen. 1. Gesamtwirtschaftlichkeit

nutzungsdaueroptimierter

Fahrzeuge

a) Automobilwirtschaftlicher Endenergieeinsatz Die Minimierung des automobilwirtschaftlichen Endenergieeinsatzes für die Jahresproduktion an Mittelklassenfahrzeugen und für den Betrieb dieser Population zeigt, daß die Zielfunktion bei einem um etwa 90% höheren Fahrleistungspotential FP ( 1 , 7 < F P < 2 . 0 ) ein schwach ausgeprägtes Minimum hat (Abb. 4). Da der Kraftstoffverbrauch der Fahrzeugflotte mit einem Anteil von etwa 94% im wesentlichen den Endenergieeinsatz determiniert, wird dadurch auch die Stelle des Minimums bestimmt. Im Vergleich zur Referenzsituation (mit dem Betrieb ausschließlich herkömmlicher Pkw) könnten durch die Realisierung nutzungsdaueroptimierter Fahrzeuge 28% des Endenergieeinsatzes bei der (Mittelklasse-) Fahrzeugproduktion und knapp 10% beim Betrieb der Population, insgesamt somit etwa 11% des jährlichen automobilwirtschaftlichen Endenergieeinsatzes für die Mittelklasse — absolut 85 PetaJoule — eingespart werden. Die Minderung des gesamten automobilwirtschaftlichen Endenergieeinsatzes ist daraus mit rd. 7% abschätzbar.

REL.

ENDENERGI E E I N S A T Z

1" -

Betrieb

-

Produktion und B e t r i e b Produktion

. 3-

.

11 .0

1 .2

1 .4

1 .6

1.6

2.0 REL.

2.2

2.4

FAHRLEISTUNGSPOTENTIAL

FP

Abb. 4: Rei. Endenergieeinsatz in der Mittelklasse für die Jahresproduktion und den Flottenbetrieb in Abhängigkeit vom rei. Fahrleistungspotential (Normierung auf die Referenzbasis)

Latente ökonomische Ressourcen in der Nutzungsdauer

113

Dies verdeutlicht, daß die Verlängerung der Nutzungsdauer von Fahrzeugen nicht nur prinzipiell, sondern im erheblichen Maße umweltentlastend wirkt. Unter dem Aspekt der Energie- resp. Energiekosteneinsparung kann deshalb vorteilhaft sein, dauerhafte Pkw mit einem um 90% höheren Fahrleistungspotential von 320000 km zu produzieren, die im Mittel rd. 16000 km jährlich genutzt würden. Die Lebensdauer solcher Fahrzeug stiege dann im Durchschnitt auf etwa 18 Jahre, diejenige der nutzungsschwächeren Teilpopulation aus herkömmlichen Fahrzeugen infolge verringerter Nutzungsintensität auf knapp 13 Jahre. b) Automobilwirtschaftliche Ausgaben Auch die automobilwirtschaftlichen Ausgaben der Fahrzeugnutzer für die Anschaffung aller Mittelklassenfahrzeuge eines Neuzulassungsjahrgangs und für den Betrieb der gesamten Flotte erreichen ebenfalls an vorgenannter Stelle ihr Minimum (Abb. 5). Sie unterschreiten die für die Referenzbasis ausgewiesenen Ausgaben um 12%, wobei im einzelnen 15% weniger für die Anschaffung neuer Fahrzeuge und knapp 10% weniger für den Betrieb der Fahrzeuge auszugeben wären. Bezogen auf die Neuzulassungen in allen Fahrzeugklassen könnten die automobilwirtschaftlichen Periodenausgaben der Fahrzeugnutzer um etwa 12% (7 Mrd. D M 8 2 ) vermindert werden.

REILATI WERT

Abb. 5: Relativwerte der Gesamtausgaben, des Bruttoproduktionswerts und des Arbeitsvolumens in Abhängigkeit vom rei. Fahrleistungspotential (Normierung auf die Referenzbasis)

8 Festgabe v. Kortzfleisch

114

Klaus Bellmann

2. Einzelwirtschaftlichkeit

nutzungsdaueroptimierter

Fahrzeuge

a) Spezifische Nutzungskosten Unter dem Aspekt der absolut minimalen spezifischen Nutzungskosten wäre ein noch höheres Nutzungspotential anstrebenswert: Bei einer Steigerung des Fahrleistungspotentials um etwa 120% (FP = 2.2) zeigt sich bei einer Verringerung um mehr als 10% die Lage des Optimums (Abb. 6). Die Zahl der neuzuzulassenden dauerhaften Pkw würde bei einer mittleren Lebensdauer von 20 Jahren auf 400Tsd./a sinken. Zwar wäre eine Massenproduktion immer noch wirtschaftlich, aber die Nutzungskosten eines solchen Fahrzeugs überstiegen diejenigen eines herkömmlichen mit 1.3% um etwa 90 D M g 2 jährlich. Die Entwicklung von Fahrzeugen mit derart hohem Nutzungspotential kann deshalb kein zu verfolgendes Ziel sein, sofern nicht die Servicekosten den entscheidenden Vorteil versprechen. Der flache Verlauf der Zielfunktion für FP > 1.8 verdeutlicht, daß Änderungen des Fahrleistungspotentials in diesem Bereich nur marginal kostenwirksam sind.

PEL.

NUTZUNGSKOSTEN

REL.

KOSTENVORTEIL

Abb. 6: Rei. Nutzungskosten sowie rei. Kostenvorteil in Abhängigkeit vom rei. Fahrleistungspotential (Normierung auf die Referenzbasis)

b) Komparative Nutzungskosten Die Kostenvorteile eines dauerhaften Fahrzeugs im Vergleich zu einem ebenso intensiv genutzten traditionellen Fahrzeug sind hingegen deutlich geringer (Abb. 6): Mit einer Reduzierung um 2.6% werden bei einem um die Hälfte erhöhten Fahrleistungspotential die komparativen Nutzungskosten am

Latente ökonomische Ressourcen in der Nutzungsdauer

115

geringsten; mit weiterer Steigerung des Nutzungspotentials nimmt der Kostenvorteil ab, bis nach Verdoppelung des Nutzungspotentials kein Vorteil mehr existiert. Der Grund hierfür ist, daß der Einfluß der Haltungskosten mit einem Anteil von 70% überwiegt und diese nur bis zu einer Steigerung des Nutzungspotentials um 15% sinken. Auch wenn die Betriebskosten von längerlebigen Fahrzeuge infolge zunehmender Verwendung leichterer Bauteile darüber hinaus weiter abnehmen, so vermögen bei einer Anhebung des Nutzungspotentials um mehr als 50% diese den Anstieg der Haltungskosten nicht mehr zu kompensieren. Der Kosten vorteil eines derartigen Fahrzeugs betrüge etwa 135 D M 8 2 jährlich. Das erscheint zwar gering, über die ganze Flotte kumuliert steigt der Kostenvorteil jedoch auf 2.4 Mrd. D M g 2 . Sofern die Schätzung des Kostenvorteils bei den Servicekosten im „Forschungsprojekt Langzeitauto" korrekt ist, könnten zusätzlich 4.4 Mrd D M g 2 an Kaufkraft freigesetzt werden. c) Automobilwirtschaftliche Produktion Die Minimierung der automobilwirtschaftlichen Gesamtausgaben impliziert infolge geringerer Produktionskosten zugleich auch die Verringerung der Bruttoproduktionswerte. Ob dabei Kompatibilität mit einzelbetrieblichen Zielsetzungen wie beispielsweise die Maximierung der Erlöse, der Gewinne oder der Eigenkapitalrendite erreicht wird, ist anhand der gegebenen Informationsbasis nicht zu beurteilen. Es wird unterstellt, daß die Herstellung von Fahrzeugen zufriedenstellende Gewinne erlaubt, wenn die Tagesproduktion mindestens 1000 Einheiten beträgt. 12 Die maximalen produktionswirtschaftlichen Endenergieeinsparungen sind bei einer Nutzungspotentialsteigerung um 85% zu erwarten (Abb. 4); sie liegen damit an gleicher Stelle wie die Minima bei Optimierung der Gesamtwirtschaftlichkeit (automobilwirtschaftlicher Endenergieeinsatz, automobilwirtschaftliche Ausgaben). Der Verlauf des Bruttoproduktionswertes von Mittelklasse-Automobilen weist etwa an derselben Stelle wie der Endenergieeinsatz ein deutliches Minimum auf (Abb. 5). Der Bruttoproduktionswert und damit auch der Umsatz in der Mittelklasse würden um etwa 15% abnehmen. Nicht erfaßt sind dabei die konzeptionell bedingten Verschiebungen der Produktionswerte zugunsten der Dienstleistungsbereiche. Die Einsparmöglichkeiten von 28% für Endenergie und — nachfolgend erst aufgezeigt — von 19% beim Arbeitsvolumen erreichen eine sehr beachtliche Höhe und offenbaren erhebliche Potentiale zur Steigerung der Produktivität im Falle einer Differenzierung der Produkte nach ihrer Nutzungsintensität. 12

8*

Bundesminister für Forschung und Technologie , Kap. 8, S. 8-132.

116

Klaus Bellmann

In allen Fällen der durchgeführten Teilzieloptimierung überschreitet die jährlich Produktion die geforderte Rentabilitätsschwelle von mindestens 200 Tsd. Fahrzeugen beträchtlich. Aus der Höhe der Neuzulassungen an optimierten Fahrzeugen ist zu folgern, daß auch mehr als ein Anbieter, im Einzelfall sogar bis zu vier Anbieter, rentabel produzieren könnten. 3. Sozio-ökonomische Implikationen a) Sozialverträglichkeit Die Veränderungen der Arbeitsvolumina in der Automobil-Produktion geben Hinweise auf die Sozialverträglichkeit der Lösung. Hier lassen sich jedoch nur die Wirkungen auf das Arbeitsvolumen in der Produktion abschätzen. Für eine umfassende, abschließende Beurteilung fehlen die Informationen über Veränderungen beim Arbeitsvolumen und bei der Beschäftigtenstruktur im Servicebereich. Der Freisetzung von etwa 19% der Beschäftigten in der Produktion von Mittelklassenfahrzeugen steht ein nur grob abschätzbarer Mehrbedarf im Servicesektor gegenüber. Per Saldo dürfte der Effekt nur etwa die Hälfte betragen und nur etwa ein Drittel im Bezug auf die gesamte Personenkraftwagen produzierende Industrie. Bei einer allgemein erwarteten rückläufigen Entwicklung des Erwerbspersonenpotentials nach 1995 könnte die Freisetzung von Arbeitskräften im Automobilbereich einen willkommen Beitrag zur Entspannung der Situation auf dem Arbeitsmarkt leisten. b) Umweltverträglichkeit Zur Abschätzung der Umweltverträglichkeit des Fahrzeugkonzepts können der automobilwirtschaftliche Endenergieeinsatz und der Umfang der produzierten und somit auch zu verschrottenden Fahrzeuge dienen. Die Minderung des automobilwirtschaftlichen Energieeinsatzes hat auch die Reduktion von Emissionen bei der Gewinnung von Rohstoffen und bei der Produktion von Fahrzeugen zur Folge. Die Minimierung des Kraftstoffverbrauchs beim Betrieb führt zugleich zur Verringerung der emittierten Abgasmengen. Wenn auch ein enger Zusammenhang zwischen Kraftstoffverbrauch und Emissionen besteht, so kann jedoch kein proportionaler Zusammenhang zwischen Energieeinsparung und Emissionsminderung unterstellt werden, zumal die emittierten Schadstoffe weder nach Menge noch nach Konzentration miteinander vergleichbar sind. Bei einer Steigerung des Fahrleistungspotentials zwischen 50% und 120% beträgt der Produktionsrückgang etwa 340 Tsd. Einheiten pro Jahr, unabhängig davon ob lediglich eine Teilpopulation oder die Gesamtpopulation in der Mittelklasse aus nutzungsdaueroptimierten Fahrzeugen besteht. Langfristig

Latente ökonomische Ressourcen in der Nutzungsdauer

117

impliziert dies eine Verringerung der Zahl der zu entsorgenden Fahrzeuge um knapp 25% in der Mittelklasse; bezüglich der insgesamt zu entsorgenden Fahrzeuge aller Klassen ist der Effekt etwa halb so groß. Auffälliges Ergebnis der Nutzungsdaueroptimierung ist, daß für die Einzeloptima des Fahrleistungspotentials drei Lösungsinseln zu klassifizieren sind: (1) Bei einer Verbesserung des mittleren Fahrleistungspotentials um etwa 50% ist der komparative Kostenvorteil der nutzungsdaueroptimierten Fahrzeuge im Vergleich zur Referenzbasis am größten, unabhängig davon, ob eine Teilpopulation oder die Gesamtpopulation aus solchen Fahrzeugen besteht. (2) Bei einer Haltbarkeitssteigerung um etwa 90% erreichen unter dem Aspekt der nutzungsdaueroptimierten Teilpopulation die automobilwirtschaftlichen Kenngrößen für Endenergieeinsatz, Bruttoproduktionswert, Arbeitsvolumen sowie Gesamtausgaben jeweils ihr Minimum. (3) Wenn das mittlere Fahrleistungspotential um 120% gesteigert würde, werden unter der Teilbestandsannahme die spezifischen Nutzungskosten von optimierten Fahrzeuge am geringsten. Zusammenfassend erscheint eine Verbesserung des Nutzungspotentials um mehr als 80-90% bei nur noch marginalen Änderungen der abhängigen Variablen angesichts der impliziten Entscheidungsunsicherheiten bereits als ein extremes Entwicklungsziel. Die Folgerung aus den Optimierungsergebnissen könnte deshalb sein, im ersten Schritt eine Steigerung des Nutzungspotentials um etwa 50% (von 172 Tsd. km) auf etwa 260 Tsd. km anzustreben. Dies ist im besonderen damit zu begründen, daß der Kostenvorteil eines nutzungsdaueroptimierten Fahrzeugs im Vergleich zu einem gleich intensiv genutzten herkömmlichen Fahrzeug bei diesem Nutzungspotential maximal wird. Das ist sicher ein verkaufsfördenides Argument. Ein entscheidender Aspekt muß auch darin erblickt werden, daß in diesem Fall das Optimum unabhängig davon ist, ob der Klassenbestand zum Teil oder insgesamt aus optimierten Fahrzeugen besteht. Ferner hat die Größe des Klassenbestandes nur einen mäßigen Einfluß auf das Ausmaß der erreichbaren einzel- und gesamtwirtschaftlichen Einsparungen, die jeweils 10% und mehr betragen. Bei einer Jahresnachfrage nach nutzungsdaueroptimierten Fahrzeugen von mehr als 850 Tsd. Einheiten wird die Rentabilitätsschwelle weit überschritten. Das Risiko einer Fehlentscheidung darf bei diesem Entwicklungsziel folglich als sehr gering eingestuft werden.

118

Klaus Bellmann

C. Optimierung der Wertschöpfung als generelle ökonomische Strategie Innerhalb der letzten drei Jahrzehnte haben die industriellen und komsumptiven Aktivitäten in den industrialisierten Volkswirtschaften einen Umfang erreicht, der in einer begrenzten Welt die negativen Auswirkungen überdeutlich werden läßt. Giarini legt dar, daß die anstehenden ökonomischökologischen Probleme unserer Gesellschaft nur zu lösen sind, wenn in neuen Denkansätzen der „Nutzungs-Wert" eines Gutes zum „Maß wirklichen Wohlstandes und wirklicher Wohlfahrt" 13 avanciert. Dieser umfaßt „alle Kosten, die infolge Gebrauchs eines Vorrats von Gütern und Dienstleistungen während deren Lebensdauer anfallen" 14 und weicht deshalb erheblich ab von dem vergangenheitlich und gegenwärtig angelegten Maßstab, dem Gebrauchsoder Tauschwert eines Gutes. Dieses Denken in geschlossenen Kreisläufen verkörpert ein naturgegebenes Prinzip. Es ist zu eruieren, unter welchen Voraussetzungen und mit welchen Wirkungen dieser Ansatz zu einer ökonomische Strategie erhoben werden kann. I. Techno-ökonomische Voraussetzungen

Unter der genannten Zielsetzung kann die begriffliche Differenzierung zwischen dauerhaften Gebrauchsgütern (bspw. Pkw) und Investitionsgütern (bspw. Lkw) suspendiert und durch den aggregierenden Begriff ,dauerhaftes Gut' substituiert werden. In Erweiterung ist dieser Begriff auch auf dauerhafte Systeme übertragbar, die durch das Zusammenwirken einer Vielzahl von einzelnen, zum Teil auch dauerhaften Gütern, gebildet werden. Wie am Beispiel Automobil aufgezeigt, sind die direkten, komparativen Kostenvorteile für den Betreiber eines nutzungsdaueroptimierten Personenkraftwagens nicht sehr augenfällig. Auch für den Hersteller besteht kein direkter Nutzen, von dem ein experimenteller Anreiz ausgehen könnte. Diese Erkenntnis kann sicher auch auf andere dauerhafte Güter übertragen werden. Unter einzelwirtschaftlich Aspekten dürften Optimierungsstrategien deshalb allein im Falle von (1) Massenbedarfsgütern oder -systemen von Interesse sein, bei denen geringe prozentuale Effekte dennoch hohe quantitative Vorteile bewirken. Generell ist für Überlegungen zur Manipulation der Dauerhaftigkeit eine gewisse (2) Produktreife von Gütern vorauszusetzen. Bei sehr dynamisch verlaufenden technologischen Entwicklungen kann eine Strategie der Dauerhaftigkeit keine effiziente Unternehmenspolitik verkörpern. 13 Giarini, O.: Wohlstand und Wohlfahrt. Dialog über eine alternative Ansicht zu weltweiter Kapitalbildung. Ein Bericht an den Club of Rome, Frankfurt-Bern-New York 1986, S. 77. 14

Giarini, O., S. 78.

Latente ökonomische Ressourcen in der Nutzungsdauer

119

Die Verlängerung der Nutzungsdauer eines Gutes impliziert nicht in jedem Fall die Verlängerung der Gebrauchsdauer in einer Hand. Da ein Gebrauchtgut in Abhängigkeit von dem sozio-ökonomischen Umfeld eines Marktes einen unterschiedlichen Restnutzen und somit einen differierenden Wert besitzt, können Güter ihrem Restnutzen entsprechend gehandelt werden. Voraussetzung hierfür sind (3) entwickelte und spezialisierte Gebrauchtgut- und Gebrauchtteilmärkte. 15 Die beiden erstgenannten Anforderungen vermögen sicher zahlreiche langlebige Güter zu erfüllen, insbesondere die ,weiße4 und ,braune' Ware. Insofern gelten elektrische Küchengeräte sowie Phono- und Videogeräte aber auch optische Geräte, elektrische Schreibmaschinen, Mopeds, Mofas sowie Fahrräder als potentielle Objekte. Selbst bei elektronischen Geräten wie Taschenrechnern, Mikrocomputern, Schreib- und Kommunikationssystemen u.ä.m., bei denen die Entwicklung noch sehr dynamisch verläuft, hat sich gerade in jüngster Zeit ein umsatzträchtiger Gebrauchtwarenhandel entwikkelt. Diese Güter entziehen sich jedoch der Rechenbarkeit im Sinne des vorgenannten Ansatzes, weil keine (4) exakten Informationen über die Entwicklung und Strukturen der Güterbestände sowie über die Bestandsabgänge und über charakteristische Kenngrößen für die Güterqualität und für die Güternutzung vorhanden sind. Letztlich ist hierin immer wieder die Begründung dafür zu finden, daß die Bemühungen zahlreicher Forschungsinstitute, die Ergebnisse aus dem „Forschungsprojekt Langzeitauto" auf andere Anwendungsfelder zu übertragen, vergangenheitlich trotz großen Einsatzes erfolglos geblieben sind. Das sollte jedoch nicht davon abhalten, die Implementierung einer Strategie der Wertschöpfungsoptimierung zu erwägen.

I I . Sozioökonomische Wirkungen

Die wirtschaftswissenschaftliche Forschung belegt, daß in „den entwickelten Industriestaaten infolge der Erhöhung des Lebensstandards eine zunehmende Verstärkung des Kaufs langlebiger Konsumgüter festzustellen" 16 ist. Dennoch ist aus der Sicht zahlreicher Konsumenten die Haltbarkeit hochwertiger Güter vielfach unzulänglich und damit ursächlich für eine Minderung des gesellschaftlichen Wohlstands infolge vermeidbarer Kosten und Umweltbelastungen. Verfolgt man die Marketingaktivitäten von Herstellern dauerhafter Gebrauchsgüter, dann muß man konstatieren, daß aus industrieller Sicht ge15 Vgl. z.B. Faber, M./Stephan, GJ Michaelis, P.: Umdenken in der Abfallwirtschaft, Berlin-Heidelberg-New York-London-Paris-Tokyo 1988, S. 85 f. 16

Gabler (ed.): Gabler Wirtschafts-Lexikon: Bd. 2. L - Z , 11. Aufl. Wiesbaden 1983, Sp. 40.

120

Klaus Bellmann

wichtige Gründe einer verbreiteten Implementierung dieser Strategie entgegenstehen, zumal die techno-ökonomischen Optionen zur Verlängerung der Nutzungsdauer nicht vollkommen neu sind. Die Verlängerung der Güternutzungsdauer wirkt am nachhaltigsten auf den Umsatz sowie auf die Ressourcen Arbeit, Rohstoffe und Energie. Der Faktor Arbeit verursacht bei der Produktion hochwertiger Güter rd. 75% der Herstellungskosten. Unter dem Druck zur Rationalisierung aus Wettbewerbsgründen wird deshalb das primäre Ansetzen eines Unternehmens bei dieser Größe verständlich. In Anbetracht der unsicheren Akzeptanz von Gütern mit verlängerter Nutzungsdauer und von vorhersehbaren Umsatzrückgängen bei Verlagerung von Arbeit aus industriellen Bereichen in Dienstleistungsbereiche, besteht in der Industrie gegenwärtig sicher ein nur sehr geringer Anreiz zur Verlangsamung des Entwertungsprozesses bei hochwertigen Gütern. Entgegen der vielfach postulierten Rationalität bei Kaufentscheidungen sehen die Individuen habituell auch heute noch über kognitive Dissonanzen zwischen Technik und Umwelt hinweg. 17 Konsumenten denken ebenso wie Produzenten überwiegend produktorientiert und sehen keine Notwendigkeit für eine ganzheitliche, systemorientierte Perspektive. Die Realisierung einer verlängerten Nutzungsdauer bei hochwertigen Gebrauchsgütern ist deshalb kein techno-ökonomisches, sondern ein kulturell-mentales Problem. Die These, daß Wohlstand zur Verkürzung der Lebensdauer von Gütern und damit zur Verschwendung führt, scheint sich am Einzelbeispiel Automobil empirisch belegen zu lassen: Vergleichbare Fahrzeuge werden in der Schweiz im Durchschnitt etwa sieben Jahre, in der Bundesrepublik rd. elf Jahre, in Schweden, bei steuerbedingt viel höheren Anschaffungspreisen, ca. 14 Jahre und in ,armen Ländern' sogar bis zu 35 Jahre lang genutzt. Außer dem Güterwert in Relation zum erreichten Stand von Einkommen und Vermögen bietet sich hierfür keine andere schlüssige Erklärungskomponente an. Voraussetzung für die Bewältigung der produktions- und konsumbedingten Probleme unserer Gesellschaft ist demzufolge ein Wandel in der gesellschaftlichen Wertordnung, ausgelöst durch die Erkenntnis, daß Problemlösungen nicht aus individueller Sichtweite zu finden sind, sondern aus der Einsicht aller in die Notwendigkeit umweltschonenden Handelns. Meffert 18 verweist auf jüngere Untersuchungen, die aufzeigen, daß ein bis zwei Drittel der bundesdeutschen Bürger bereit sind, Mehrausgaben zum Zwecke des Umweltschutzes zu leisten. „Allen Befragungen ist gemein, daß sie zwar nach

17

Vgl. Raffée , H. et al.: Theorie der kognitiven Disonanz und Konsumgüter-Marketing, Wiesbaden 1973. 18 Meffert, H./Wagner, H. (ed.): Marketing und Ökologie — eine Bestandsaufnahme. Arbeitspapier Nr. 25 der wissenschaftlichen Gesellschaft für Marketing und Unternehmensführung e.V., Münster 1985.

Latente ökonomische Ressourcen in der Nutzungsdauer

121

der Opferbereitschaft der Konsumenten fragen, konkretes Kaufverhalten aber nicht beobachtet wird." 1 9 Um die vorhandenen Ressourcen auf extensive oder neue Weise sinnvoll zu nutzen werden aber auch sozio-ökonomische Innovationen erforderlich: Bei zahlreichen Gütern haben sich bereits florierende (1) Sekundärgütermärkte etabliert, die noch erheblich ausgeweitet werden könnten, wenn der Erwerb von Gebrauchtgütern und die Nutzung älterer Güter in der Gesellschaft mit weniger negativen Assoziationen belegt wären. In Einzelfällen wird durch Marketingstrategien eine Weiterverwendung sogar bewußt verhindert. So praktizieren etliche Produzenten elektrischer Schreibmaschinen oder Kleincomputer gezielt den Rückkauf und die nachfolgende Verschrottung von gewerblich genutzten, steuerlich bereits abgeschriebenen, aber durchaus noch gebrauchsfähigen Produkten. Primär zielt dieses Vorgehen auf die Stimulierung des Umsatzes von neuen Produkten. Aus einzelwirtschaftlichen Interessen wird dadurch aber sowohl die Entwicklung von Sekundärgutmärkten vermieden als auch eine preiswerte Versorgung mit GebrauchtErsatzteilen unterbunden. Weiterhin bietet sich die Möglichkeit, gebrauchte dauerhafte Güter auf nichtheimischen Märkten, meist in weniger entwickelten Volkswirtschaften, anzubieten. Bisher wird hiervon fast ausschließlich bei Automobilen und Rüstungsgütern Gebrauch gemacht, obwohl andere hochwertige Gebrauchtgüter mit attraktivem Restnutzen sicher auch aufgenommen würden. Da langlebige Güter während der Nutzung in weitaus größerem Umfang als herkömmliche Produkte handwerkliche Leistungen wie Instandsetzung, Generalüberholung und Technische Aufrüstung erfordern, müßten vorhandene (2) Dienstleistungsmärkte ausgeweitet und neue entwickelt werden. Dem Verlust an hochtechnisierten und -automatisierten Arbeitsplätzen im industriellen Bereich steht dabei die Schaffung hochqualifizierter Arbeitsplätze im Servicebereich gegenüber. Per Saldo dürfte das Arbeitsvolumen wahrscheinlich sogar steigen, weil kapitalintensive, hochproduktive Produktionsstätten durch arbeitsintensive, niedrigproduktive Werkstätten substituiert werden. Bei der gegenwärtigen gesellschaftlichen Wertordung wird darin jedoch weder bei den Unternehmern noch bei den Beschäftigten ein anzustrebender Fortschritt gesehen, zumal die Gewerkschaften, trotz beschäftigungspolitischer Effekte, infolge einer Arbeitsplatz-Dezentralisierung auf kleine und mittelständische Unternehmen um ihren Einfluß fürchten. Bei zahlreichen dauerhaften Produkten wäre das Anbieten von Gütern durch das (3) Anbieten von Dienstleistungen ohne Nutzeneinbuße zu substituieren. Zwar wird bereits das Leasing für eine große Anzahl von Gütern angeboten, jedoch fehlt hier meist die Rückwirkung von der Güternutzung

19

Meffert,

H ./Wagner,

H., S. 74.

122

Klaus Bellmann

auf die Qualitätsoptimierung durch den Hersteller. Dies ließe sich jedoch erreichen, wenn produzentenseitig das Gütervermieten mit ähnlichen Konditionen wie beim Leasing angeboten würde. Ein Unternehmen könnte aus seinen Dienstleistungsaktivitäten nutzungsrelevante Informationen gewinnen und diese aus Eigeninteresse in Optimierungskalküle einfließen lassen. Das Dienstleistungsangebot ließe sich bei attraktiven Konditionen auch auf gebrauchte, generalüberholte Produkte erweitern, wie dies beispielsweise in den USA mit der Vermietung alter Autos (,rent a wreck 4 ) praktiziert wird. Zwecks Schließens des Stoffkreislaufs wäre produzentenseitig die (4) Rücknahme oder der Rückkauf zu entsorgender Güter eine Alternative zum Anbieten von Dienstleistungen statt von Gütern. Aus Eigeninteresse des Produzenten würden ebenfalls Maßnahmen zur Nutzungsoptimierung und Weiterverwendung von Komponenten initiiert. Bei Verzicht auf die direkte Rückwirkung könnten auch spezialisierte eigenständige Unternehmen die Entsorgungsaktivitäten übernehmen und die Kreisläufe über den Ersatzteilhandel oder über den Hersteller schließen. Bei wachsendem Freizeitangebot vermögen (5) Do-it-yourself-Aktivitäten wie Reparaturen und Instandsetzungen eine hohe Wertschöpfung zu leisten. Voraussetzung hierfür ist eine preiswerte und ausreichende Versorgung gealterter Güter mit Ersatz- oder Austauschteilen und eine reparaturfreundliche Konstruktion des Gutes. Fehlende Fachkenntnisse beim Betreiber sowie Werkzeuge und Geräte könnten Spezialwerkstätten in Form von Dienstleistungen bereitstellen. Auf dem Weg von der Industriegesellschaft zur Dienstleistungsgesellschaft erscheint die Strategie der Wertschöpfungsoptimierung mit den gesellschaftlichen Zielen kompatibel, ökonomisch effizient und ökologisch effektiv. Neue unternehmenspolitische Ansätze unter dieser Maxime könnten eine Vielzahl von unerwünschten Folgewirkungen innovativ mindern und durch die Freisetzung von Kaufkraft und Entlastung der Umwelt zu allgemeiner Wohlstandsmehrung führen.

Literatur Bellmann, K.: Langlebige Gebrauchsgüter. Ökologische Optimierung der Nutzungsdauer, Wiesbaden 1990. Bundesminister für Forschung und Technologie München 1976.

(ed.): Forschungsprojekt Langzeitauto,

Borsdorf\ H.-J.: Die technische Lebensdauer von Gebrauchsgütern mit abnehmender Leistungsfähigkeit als Instrument der Absatzpolitik, Dissertation Mainz 1974. Faber, MJSephan, G./Michaelis, P.: Umdenken in der Abfallwirtschaft, Berlin-Heidelberg-New York-London-Paris-Tokyo 1988. Gabler (ed.): Gabler Wirtschafts-Lexikon: Bd. 2. L - Z , 11. Aufl. Wiesbaden 1983.

Latente ökonomische Ressourcen in der Nutzungsdauer

123

Garbe, E.: Ökonomische Einflußnahme auf die Herausbildung geschlossener Kreisläufe, in: Kreikebaum, H. (ed.): Integrierter Umweltschutz. Eine Herausforderung für das Management, Wiesbaden 1990. Giarini, O.: Wohlstand und Wohlfahrt. Dialog über eine alternative Ansicht zu weltweiter Kapitalbildung. Ein Bericht an den Club of Rome, Frankfurt-Bem-New York 1986. Gutenberg, E.: Einführung in die Betriebswirtschaftslehre, Wiesbaden 1958. Kosiol, E.: Anlagenrechnung, Wiesbaden 1955. Meffert, H.; Wagner, H. (ed.): Marketing und Ökologie — eine Bestandsaufnahme. Arbeitspapier Nr. 25 der wissenschaftlichen Gesellschaft für Marketing und Unternehmensführung e.V., Münster 1985. OECD (ed.): Product Durability and Product Life Extension, Paris 1982. Raffée , H. et al.: Theorie der kognitiven Disonanz und Konsumgüter-Marketing, Wiesbaden 1973. Röper, B.: Gibt es den geplanten Verschleiß? — Untersuchungen zur Obsoleszensthese —, Göttingen 1976. Schweizerischer Bankverein (ed.): Wirtschaftliche Strategie der Dauerhaftigkeit. Betrachtung über die Verlängerung der Lebensdauer von Produkten als Beitrag zur Vermeidung von Abfällen, Bankverein-Heft Nr. 32, 1987; Stachel, W. R.: Hidden Resources, in: Science and Public Policy, Vol. 13, 1986, S. 185-193. — Das versteckte Innovationspotential, in: Technische Rundschau Nr. 19, 1987, S. 36-43. Vornorm DIN 40041, Teil 1, Nov. 1982

Neue Techniken im Spannungsfeld alter Systeme: Entscheidungshilfen bei der Einführung von C I M Von Erich Staudt, Joachim Hafkesbrink

und Renate Barthel

A. Stand der CIM-Anwendung Nachdem Computertechniken preiswert zur Verfügung stehen, immer mehr Software auf den Markt drängt und Kommunikationsnetzwerke nutzbar erscheinen, steht der computerintegrierten Fabrik eigentlich nichts mehr im Wege. Der Einsatz computergestützter Techniken auf der Leitungs-, Prozeßund Maschinenebene dominiert die Diskussion um den Fertigungsfortschritt. Der digitaltechnokratische Traum vieler Ingenieure von der rechnerintegrierten, automatisierten Fabrik, die Fiktion eines „maschinellen Organismusses", zusammengehalten von den Computern der fünften Generation, rückt zum Greifen nah. So bestätigen Untersuchungen des Instituts für angewandte Innovationsforschung (IAI), daß die extensive Nutzung computergestützter Techniken weiter zunehmen wird. Eine gemeinsam mit den VDI-Nachrichten durchgeführte Befragung zeigte, daß der Einsatz von einzelnen CIM-Komponenten in den Unternehmen bereits weit verbreitet ist (vgl. Abb. 1). An der Spitze rangieren dabei CAD und PPS, die bei 75% bzw. 59% der Vorreiterunternehmen bereits Verwendung finden. Vergleicht man den Grad des Einsatzes der CIM-Komponenten mit dem Grad ihrer potentiellen Eignung, so gilt für jede Komponente, daß sie von mehr Befragten für geeignet gehalten wird, als sie von Befragten in den jeweiligen Unternehmen bereits eingesetzt wird. Als kurzfristiger Indikator für direkt bevorstehende Nachfrageaktivitäten für weitere CIM-Komponenten kann man in der Erhebung den Anteil der Unternehmen betrachten, der den Einsatz einer Komponente bereits plant (vgl. nochmals Abb. 1). Danach ergeben sich bei BDE- und CAQ-Systemen sowie bei SPS die stärksten Tendenzen. Auffallend ist zur Zeit auch der relativ hohe Planungsgrad bei Expertensystemen, die zwar beim konkreten Einsatz noch das Schlußlicht bilden, aber eine hohe Intensität in der Vorbereitung aufweisen.

126

E r i c h Staudt, Joachim Hafkesbrink u n d Renate Barthel

Einsatzstand von CIM-Komponenten geeignet

I eingesetzt

geplant

Prozent

80%

60%

40%

20%

Ρ Ρ S

C Ν C / W Ζ M

S Ρ s

Β D E

C A Ρ

R 0 b 0 t e r

L e i t s t a η d

D Ν C

L a g e r

s 0 η s t.

C A Q

ΟΖΟ

c A D

F F Ζ

F F S

M a t. f 1 υ ß

M 0 η t a g e

E χ ρε y s t

Einsatzpotentiale für CIM-Komponenten I kurzfristig

langfristig

Prozent/Prozentpunkte

50% 40% 30% 20% 10%

Quelle: Hahne, Jochen/u.a.: Erfahrungen und Probleme des Einsatzes von C I M . Ergebnisse einer Befragung, Hg. VDI-Nachrichten/Institut für angewandte Innovationsforschung, Düsseldorf/Bochum 1990, S. 11. A b b . 1. E i n s a t z s t a n d u n d - p o t e n t i a l e v o n

CIM-Komponenten

Neue Techniken im Spannungsfeld alter Systeme

Quelle: Hahne/u.aS.

127

13.

Abb. 2. Stand der CIM-Vernetzungen

Bei den realisierten und für die nächste Zukunft geplanten Vernetzungen (d.h. der datentechnischen Verknüpfung zwischen zwei oder mehreren CAxSystemen) dominieren als Ausgangspunkte CAD und PPS, also die bereits verbreitetsten Komponenten. Dabei stellen die in Abbildung 2 gezeigten Vernetzungsgrade Summen aus realisierten und geplanten Verknüpfungen dar. In der Summe zeigt sich, die Computerintegration schreitet schnell voran und die frühen Anwender sind, das kann man dieser Untersuchung auch entnehmen, eigentlich hoch zufrieden. Sie registrieren eine verbesserte Transparenz der betrieblichen Abläufe sowie erhöhte Planungssicherheit, demzufolge verbesserte Termintreue und genauere Kostenkalkulation. Außerdem trägt die größere Flexibilität wesentlich zur Stabilisierung der Wettbewerbsposition bei. Dies kompensiert zum Teil sogar die gewaltigen Anlaufschwierigkeiten, die in dieser und anderen Untersuchungen auffällig werden und die sich insbesondere aus der Unterschätzung der Einstiegsproblematik in derartige CIM-Techniken ergeben. Im Vordergrund dieser Unterschätzungen steht dabei der Zeitbedarf zur Einführung dieser komplexen Techniken, die gewaltigen Schwierigkeiten aufgrund defizitärer Kompatibilität mit den alten Betriebssystemen und der Mangel an qualifiziertem Personal. Das eigentliche Risiko bei der Einführung von CIM-Strategien ist also nach wie vor nicht ein technisches Realisierungsrisiko, sondern die Wahl des

128

Erich Staudt, Joachim Hafkesbrink und Renate Barthel

richtigen Einstiegszeitpunktes, der richtigen Einstiegsstrategie, der Herstellung von Kompatibilität und Integrabilität neuer Techniken in alte Systeme.

B. Strukturverschiebungen durch den Einsatz von C I M Die Philosophie der rechnerintegrierten Produktion — auch C I M genannt — hat maßgebliche strukturverändernde Auswirkungen im Unternehmen. C I M als Philosophie einer „Fabrik der Zukunft" verfolgt das Ziel, einen einheitlichen Informationsfluß im Unternehmen über den gesamten betrieblichen Ablauf durch aufeinander abgestimmte Produktions-, Informationsund Kommunikationstechniken zu unterstützen. 1 Nach einem Vorschlag des Deutschen Instituts für Normung (DIN) wird in Anlehnung an den Ausschuß für wirtschaftliche Fertigung (AWF) Computer Integrated Manufacturing (CIM) wie folgt definiert (vgl. Abb. 3): „CIM beschreibt den integrierten EDV-Einsatz in allen mit der Produktion zusammenhängenden Betriebsbereichen. C I M umfaßt das informationstechnologische Zusammenwirken zwischen CAD, CAP, CAM, CAQ und PPS. Hierbei soll die Integration der technischen und organisatorischen Funktionen zur Produkterstellung erreicht werden. Dies bedingt die gemeinsame, bereichsübergreifende Nutzung einer Datenbasis" 2 . Die CIM-Philosophie schlägt sich nicht nur in größeren Produktionsunternehmen durch Koppelung verschiedener C-Techniken und deren Vernetzung mit vor-, neben- und nachgelagerten Bereichen (computerunterstützte Datenund Funktionsintegration) nieder, sondern findet sich auch als technologischer Wegweiser in kleinen und mittleren Unternehmen, z.B. in der Druckindustrie. Hier stellen sich einer ehemals überwiegend handwerklich geprägten Branche, bedingt durch die rasante Entwicklung in mikro- und optoelektronischen Basistechnologien, heute trendbruchartige CIM-Anforderungen. Diese führen zu einer völlig anderen Produktionsweise (z.B. elektronische Bildvorlagenherstellung), zu umwälzenden Änderungen in der Arbeitsorganisation (von der Orientierung am Materialfluß zur Koppelung an den Informationsfluß) und zu völlig neuen Qualifikationsanforderungen (vom traditionellen Lithographen zum EDV-Spezialisten). In Verwaltungen, im Bank-, Krankenhauswesen und anderen Dienstleistungsbetrieben spricht man im Rahmen von Vernetzungen über integrierte Bürokommunikationssysteme von CIO (Computer Integrated Office) bzw. 1 Keller, Gerhard/Kern, Siegbert: Verwirklichung des Integrationsgedankens durch CIM-Ansätze, in: Zeitschrift für Fertigungsorganisation, 1990, Heft 4, S. 228. 2

AWF, S. 10.

Neue Techniken im Spannungsfeld alter Systeme

129

Quelle: AWF: Bestandsaufnahme Fertigungsinseln im deutschsprachigen Raum, Eschborn, 1987.

Abb. 3. Begriffsdefinition (AWF)

von CIB (Computer Integrated Business) als Unternehmensstrategie der Integration von CIM- und CIO-Strukturen (vgl. Abb. 4). Die Einführung von Informations- und Kommunikations-Techniken führt auch hier zu erhöhten Anforderungen im Hinblick auf das Management derartiger Innovationen: die Vernetzung von Büroarbeitsplätzen und die computerunterstützte Daten- und Funktionsintegration im Büro- und Verwaltungsbereich bedarf — zum einen eines umfassenden technischen Know-How's z.B. über die Funktionalität, das Leistungsvermögen, die Systemflexibilität, die Integrationsfähigkeit von Einzeltechnologien, — zum anderen aber auch einer Evaluation der Auswirkungen auf die Arbeitsverteilung (Veränderung der Aufgaben zwischen Sachbearbeitern, Assistenzkräften, Führungs- und Fachkräften) und — einer Abschätzung der erwarteten Effektivierungspotentiale (Verbesserung der Entscheidungsqualität, Verkürzung von Bearbeitungs- und Durchlaufzeiten, höhere Flexibilität der Dienstleistung etc.) 3 . Durch die vielfältigen Gestaltungsoptionen von CIM-Strukturen wird der Planungs-, Auswahl- und Bewertungsprozeß für den Einstieg in C I M zu einem komplexen Problem der Verbindung von technischer, organisatori3 Vgl. Staudt, Erich/Hinterwäller, Horst: Von der Qualitätssicherung zur Qualitätspolitik — Konzeption einer integralen unternehmerischen Qualitätspolitik — in: ZfbF, 1982, S. lOOOff.

9 Festgabe v. Kortzfleisch

E r i c h Staudt, Joachim Hafkesbrink u n d Renate Barthel

130

Unternehmungeetrategle

CIM

CIO

Computer Integrated Manufacturing

C

I

Β

Quelle: Bullinger, Hans-Jörg/Niemeyer, Joachim: Strategiegeleitete Innovationen — Potentiale des Einsatzes von IuK-Technologien in Büro und Verwaltung, in: Rock, Reinhard/Ulrich, Peter/Witt, Frank (Hg.): Struktur der Dienstleistungsrationalisierung, Frankfurt, New York 1990, S. 86. A b b . 4. Das C o m p u t e r Integrated Business ( C I B ) —

Konzept

Neue Techniken im Spannungsfeld alter Systeme

131

scher, wirtschaftlicher und sozialer Innovation. Bei den Bewertungsinstrumenten besteht dabei ein erhebliches Erfahrungs- und Methodendefizit. 4 Der Entscheider in derartigen Innovationsprozessen steht vor vielfältigen Problemen hinsichtlich der Beurteilung und Bewertung und des richtigen Einstiegspunktes, verfügt aber kaum über Erfahrungen, ausgehend von betrieblichen Entscheidungstechniken einen derartigen weitreichenden Entschluß abzusichern. Eine erfolgreiche Planung und Einführung von C I M bzw. von CIM-Komponenten setzt daher zunächst eine unternehmensindividuelle Strategieentwicklung voraus, auf deren Grundlage Managemententscheidungen über eine Strukturentwicklung getroffen werden können. Derartige Strukturentwicklungen sind dabei keineswegs einseitig technisch determiniert, sondern verbinden technisch-organisatorische mit personell-qualifikatorischen und Wettbewerbsdimensionen. Im Fertigungsbereich — hier als Beispiel herangezogen — sind diese Strukturentwicklungen, die gleichzeitig einen Blick auf die vielfältigen zu beurteilenden Wirkungen aus dem Einsatz von flexiblen Fertigungssystemen eröffnen, in technische, organisatorische, personale sowie markt- und wettbewerbsorientierte Untergruppen aufzuspalten.

I. Technik Auf der technischen Ebene wandelt sich die Fertigungsphilosophie von arbeitsteiligen Prozessen zu einer auf Integration orientierten Philosophie, die Fertigung, Logistik, Material- und Informationsfluß als eine Einheit betrachtet. Die ehemaligen Zielkonflikte zwischen hoher Produktivität und hoher Flexibilität werden durch den vermehrten Einsatz von Gruppentechnologien aufgelöst. Soziologisch vereinfacht werden als alternative Richtungen der Strukturentwicklung — die technozentrische Entwicklung (weitere Automatisierung bis hin zur „menschenleeren Fabrik") — und die anthroprozentrische Entwicklung, d.h. die mehr mitarbeiterorientierte Strukturentwicklung diskutiert. Die beiden Entwicklungspfade beschreiben aber nur eine Dimension eines Spannungsfeldes zwischen Automatisierung und Autonomie, die insbesondere durch den Einsatz von teilautonomen Fertigungsinseln bzw. durch eine extreme Fertigungssegmentierung aufgelöst werden kann. Durch derartige Dezentralisierungsstrategien werden Vorteile des Produktivitätszuwachses 4

Vgl. Wildemann, Horst (Hg.): Einführungsstrategien für neue Technologien (Tagungsband), München 1989; Schreuder, Siegfried/Upmann, Rainer: Wirtschaftlichkeit von CIM — Grundlage für Investitionsentscheidungen, in: CIM-Management, 1988, Heft 4, S. 10-16. *

132

Erich Staudt, Joachim Hafkesbrink und Renate Barthel

über weitere Automatisierung von Technikkomponenten innerhalb der einzelnen Inseln mit der Flexibilitätsverbesserung aufgrund dezentraler Regelkreise und (Teil-)Autonomie der Organisationseinheiten verbunden.

II. Organisation Organisatorisch vollzieht sich eine Entwicklung zu dezentralen Arbeitsstrukturen mit produkt- bzw. objektorientierten Organisationseinheiten, die — einer dezentralisierten Dispositionskompetenz in (teil-) autonomen Arbeitssystemen, — einer objektorientierten auf integrierte Tätigkeiten ausgerichteten Aufgabenstrukturierung, — einer Unterstützung durch eine abgestimmte technologische Informationsinfrastruktur und — eines delegationsorientierten Führungsmodells bedürfen. Durch ein derartiges dezentrales Arbeitsstruktursystem wird ein breites Tätigkeitsspektrum der Mitarbeiter erreicht. Die Gruppenorganisation vermindert bzw. vermeidet Monotonie und soziale Isolation. Die umfassende Kontrollierbarkeit, die bei zentralen Steuerungskonzepten vorhanden sein muß, entfällt teilweise 5 und wird ersetzt durch Selbstkontrolle auf der ausführenden Ebene6. Mit der Schaffung derartiger produktorientierter Organisationseinheiten in der Fertigung durch Fertigungssegmente bzw. -inseln wird zugleich das Ziel verfolgt, den betrieblichen Ablauf damit als Ganzes transparent und somit steuerbar zu halten. Durch eine Reduktion von Schnittstellen (z.B. durch Verlagerung von indirekten Tätigkeiten in derartige Fertigungsinseln) wird der Koordinierungsaufwand verringert und das Gesamtsystem durch gezielte Marktausrichtung auf die Operationalisierung spezifischer Wettbewerbsstrategien vorbereitet.

III. Personal Personell und qualifikatorisch wandelt sich die Struktur von einer stark spezialisierten (mit wenigen hoch-qualifizierten Mitarbeitern in zentralen oder Stabspositionen zur Disposition und Steuerung des Gesamtsystems und vielen niedrig-qualifizierten bzw. neu angelernten Arbeitskräften in der Produktion) in ein ausgeglicheneres Qualifikationsprofil, d.h. stärker besetzt wird die Mittelschicht mit qualifizierten Mitarbeitern. Im Ergebnis kommt es 5 Vgl. Urban, Gerd: Zentralisierte oder dezentralisierte Arbeisstrukturen bei der flexiblen Automatisierung von Produktionsprozessen?, in: Fricke, W. (Hg.), Jahrbuch der Arbeit und Technik, Bonn 1986, S. 117. 6

Vgl. Staudt, Erich/Hinterwäller,

Horst, S. lOOOff.

Neue Techniken im Spannungsfeld alter Systeme

133

zu einer Verflachung der Hierarchie. Aus der Insel wird eine „Fabrik in der Fabrik" mit einer gewissen (Teil-)Autonomie und einem hohen Anteil an Selbstregelung. Der Strukturwandel verändert auf der Mitarbeiterebene die Anforderungen an die Qualifikation durch Veränderung der Arbeitsinhalte und Aufgabenfelder. Er wandelt aber auch die Beschäftigtenzahl und Arbeitsplatzstrukturen, führt zum Wegfall alter durch Arbeitsteilung unattraktiv gewordener Positionen und zum Entstehen neuer Arbeitsplätze in qualifizierten Zwischenfeldern. Unter diesen Umständen sind auch neue Arbeitseinsatzformen wie z.B. Job Rotation zur Festigung der Koppelungsbeziehungen zwischen derartigen Inseln in Abhängigkeit vom Umfang der in dezentralen Organisationseinheiten abgewickelten Prozeßketten eine adäquate Lösungsform. Die Erscheinungsformen dieser Strukturverschiebung variieren stark in Abhängigkeit vom Autonomie- und Automatisierungsgrad der Fertigungsorganisation.

IV. Markt- und Wettbewerbsorientierung Schließlich stellt sich nicht nur das strukturelle Entwicklungsproblem, wie durch eine flexible Fertigungsorganisation den wachsenden Marktanforderungen begegnet werden kann, sondern die Frage kehrt sich auch um. Neue flexible und computerintegrierte Fertigungsorganisationen haben erhebliche produkt- und programmpolitische Konsequenzen7. Derartige neue qualitative Kapazitäten in der Fertigungs- und Arbeitsorganisation drängen zur Auslastung und beeinflussen zukünftige Wettbewerbsstrategien der Unternehmen, was schließlich zu einer neuen Struktur der Produktions- und Dienstleistungsprogramme führt.

C. Schwierigkeiten des Managementsystems im Rahmen der Bewältigung des Strukturwandels Bündelt man die zuvor skizzierten Strukturentwicklungen, so zeigt sich, daß der Einstieg in derartige CIM-Strukturen verbunden mit weitreichenden Automatisierungs- und Vernetzungsbestrebungen in der betrieblichen Praxis erhebliche Schwierigkeiten bereitet. Dem anspruchsvollen Ziel der CIMEinführung steht eine betriebliche Wirklichkeit gegenüber, die erhebliche Probleme eines auf diesen Strukturwandel unzulänglich vorbereiteten Managements signalisiert: — Der Einsatz von C-Techniken in der Produktion nimmt als Resultat zwar zu. Es handelt sich dabei aber nach wie vor weitgehend um Insellösun7 Staudt, Erich: Produkt- und programmpolitische Konsequenzen bei der Einführung neuer Arbeitsformen, in: Richter, K./Pfeiffer, W./Staudt, E. (Hg.): Einführung neuer Formen der Arbeitsorganisation in Industriebetrieben, Göttingen 1978, S. 141.

134

Erich Staudt, Joachim Hafkesbrink und Renate Barthel

gen. Vernetzungen existieren meist nur zwischen zwei oder drei Komponenten. Die eigentlich erforderliche Integration der Unternehmensfunktionen (bzw. Komponenten) im Sinne von C I M erweist sich als problematisch. Die „Insellösungen", die neuerdings propagiert werden, sind oft nur Ausrede für die Nicht-Integrationsfähigkeit komplexer anscheinend aufeinander abgestimmter Systeme8. — Die Anwendung und Integration von CIM-Komponenten beschränkt sich im wesentlichen auf größere Vorreiterunternehmen, die oft nicht unter direktem Kostendruck stehen, weil sie der staatlich subventionierten Rüstungsindustrie angehören und die Kosten für ihre zunehmende Flexibilität in relativ einfacher Weise in den Preisen weitergeben können. Demgegenüber bildet sich eine weit größere Gruppe von „CIM-Nachzüglern" heraus, die erst später in diese Technik einsteigen und vorwiegend aus dem Bereich der Zulieferindustrie kommen, häufig kleine und mittlere Unternehmen sind, die nicht über entsprechende Stabskapazitäten verfügen und entweder nur sehr zögerlich in diese neuen Techniken einsteigen oder eben nur partikuläre Lösungen, die dann in der Folge nur schwer integrierbar sind, anstreben. Die häufigsten Ursachen für die gegenwärtigen Einführungswiderstände in derartigen Unternehmen stellen sich vor diesem Hintergrund wie folgt dar: — Die lange Vorlaufzeit für die Planung und Strukturierung der Fertigung beansprucht eine hohe Planungskapazität, die von vielen Unternehmensleitungen aufgrund der Einbindung in das Alltagsgeschäft nicht aufgebracht werden kann. — Technische Probleme bei der Einführung von CIM-Komponenten resultieren aus dem noch nicht optimalen Reife- und Standardisierungsgrad der angebotenen CIM-Konzepte, aus der nicht vereinheitlichten Datenstruktur 9 , aus der fehlenden klar strukturierten Hard- und Softwarearchitektur, aus ungenügend definierten Schnittstellen (es mangelt an einer datentechnischen Normung, die alle Systemhersteller bindet 10 ) sowie aus fehlenden CIM-Rahmenkonzepten. — Während Großunternehmen sich CIM-Anwendungen praktisch maßschneidern lassen können, sind kleine und mittlere Unternehmen, aber auch Unternehmen ohne hinreichende Marktmacht gegenüber entsprechenden Zulieferern zur Anwendung von Standard-Partial-Lösungen ge8

Vgl .Hahne u.a., S.U.

9

Vgl. Förster, Hans-Ullrich////ri, Klaus: PPS für die flexible Automatisierung — Optimale Steuerung einer Werkstatt mit flexiblen Fertigungszellen (FFZ), Köln 1988, S. 102. 10 Eichener, Volker: Normungsbedarf für CIM-Benutzungsschnittstellen, Arbeitspapier des Sonderforschungsbereichs 187 der Ruhr-Universität Bochum, Bochum 1990; Kleinaltenkamp, Michael: Der Einfluß der Normung und Standardisierung auf die Diffusion technischer Innovationen, Arbeitspapier des Sonderforschungsbereichs 187 der RuhrUniversität Bochum, Bochum 1990.

Neue Techniken im Spannungsfeld alter Systeme

135

zwungen, die dann noch einem aufwendigen Anpassungsprozeß im eigenen Betrieb unterzogen werden müssen, der oft eigenständig gar nicht abgeleistet werden kann. Das verlangt umgekehrt, daß kleine und mittlere Unternehmen in eine Potentialentwicklung investieren müssen, um Aufbau- und Ablauforganisation so zu gestalten, daß am Markt verfügbare Standard-CIM-Komponenten schrittweise in die Unternehmen eingegliedert werden können (letzteres wird aber wiederum durch die hohe Orientierung am Tagesgeschäft behindert). Betriebswirtschaftliche Einführungshemmnisse ergeben sich aus dem zu hohen finanziellen Aufwand für die Anschaffung von CIM-Komponenten, aus dem umfassenden Wandel in den Unternehmensstrukturen und vor allem aus dem ungenügenden Effizienznachweis, d.h. es fehlt an Belegen, daß sich die an C I M geknüpften Erwartungen auch später wirklich umsetzen lassen11. Zahlreiche Investitionsruinen bei den frühen Anwendern verstärken diese Skepsis. Auf der personellen Ebene dominieren Einführungswiderstände aufgrund der fehlenden Qualifikation der Mitarbeiter und der mangelnden „Akzeptanz" der neuen Technik nicht nur bei Mitarbeitern, sondern auch im mittleren und oberen Managementbereich. 12 Gerade bei Newcomern und kleinen und mittleren Unternehmen befürchtet man, daß die volle Durchautomatisierung im Rahmen einer flexiblen Produktion nicht die erhoffte Effizienz erreicht und den bestehenden Bedingungen der Produktion wie Systemvielfalt, Werkstattkompetenz, Personalstruktur nicht entspricht 13 , so daß aus Sicherheitsgründen meistens eine mehr konservative Entwicklungsstrategie gefahren wird. Schließlich sind umfangreiche Veränderungen erforderlich, vor allem aber ein Umdenken im Management gegenüber gewohnten Vorgehensweisen, die tief in betrieblichen Organisationen verankert sind:











• •

Ausrichtung der betrieblichen Planung auf mittel- bis langfristige Perspektiven, Einbeziehung schwer quantifizierbarer Größen wie Qualifikation, Erfahrung, Flexibilität in die Beurteilung,

11

Schultz-Wild, Rainer/Nuber, ChristophIRehberg, Frank/Schinieri, Klaus: An der Schwelle zu CIM — Strategien, Verbreitung, Auswirkungen, Köln 1989; Kemmner, Andreas: Investitions- und Wirtschaftlichkeitsaspekte bei CIM, in: CIM-Management, 1988, Heft 4, S.22-29. 12 Esser, Udo: CIM: Mythen und Fakten der computergesteuerten Produktion, in: Industrielle Organisation, 1989, Heft 5, S. 81-85; Tritremmel, Wolfgang: Fabrik 2000: Die Zukunft liegt im Vernetzen, in: Industrielle Organisation, 1989, Heft 5, S. 55-58. 13 Hirsch-Kreinsen, Hartmut: Technik und Arbeitsorganisation bei CIM, in: Fleischer, A./Kuhn, K./Schreiber, P.: Arbeitsschutz an flexiblen Fertigungssystemen. Vorträge der Informationstagung am 25./26. April 1989 in Dortmund, Schriftenreihe der Bundesanstalt für Arbeitsschutz — Tagungsbericht 52, Dortmund 1989, S. 167-181.

136

Erich Staudt, Joachim Hafkesbrink und Renate Barthel



• •

veränderte Ausrichtung der betriebsinternen Qualifizierung auf fachübergreifende Inhalte, in der Folge auch veränderte Entlohnungsstrukturen, Organisation von Gruppenarbeit und Veränderungen des Anreizsystems, wie z.B. veränderte Lohnformen, systematische Beteiligung der Betroffenen an Planung und Umsetzung der Systeme, d.h. auch einen gewissen Kompetenzverlust in Stabspositionen.

A l l das sind Entwicklungstrends, die von Führungs- und konventionell arbeitenden Managementsystemen nur schwer bewältigt werden und die, selbst wenn sie angegangen werden, sehr schnell auf ein erhebliches Defizit an Planungs- und Beurteilungshilfen stoßen. D. Anforderungen an Planungs- und Beurteilungshilfen Die skizzierten Strukturentwicklungen müssen durch Strukturentscheidungen vorbereitet und beurteilt werden, die sich auf über traditionelle Wirtschaftlichkeitsvergleichsverfahren hinausgehende Beurteilungshilfen stützen. Das setzt eine Wirkungs- und Konsequenzenanalyse der Implementation technischer Systeme sowie der begleitenden Organisations- und Personalentwicklungsmaßnahmen im Umfeld dynamischer Marktentwicklungen voraus. Da damit ein Entwicklungssprung in den Bereichen Organisation, Personal und Technik verbunden ist, kann das Bewertungsprocedere für derartige CIM-Strukturen nicht als Vergleich neuer Fertigungsorganisationsformen mit bestehenden Organisationen angelegt werden, sondern ist vielmehr als Bewertung alternativer Strukturentwicklungen auszugestalten, die den Entscheidungsträgern im Innovationsprozeß — auf der strategischen Ebene die Einstiegsentscheidungen in neue Fertigungsstrukturen vor dem Hintergrund der spezifischen Wettbewerbssituation des Unternehmens vorbereiten hilft, — auf der dispositiven Ebene eine Evaluation von Maßnahmenbündeln zur technischen, organisatorischen und personellen Umsetzung neuartiger Fertigungskonzepte unterstützt, — und auf der operativen Ebene ein formatives Controlling der mit der Strukturentwicklung verbundenen Einzelprojekte im Unternehmen ermöglicht. Neue Techniken in alten Systemen sind unter derartigen weitreichenden strukturellen Umänderungen also weniger eine Reparatur oder eine Hinzunahme eines neuen Bereiches und gleichen damit auch kaum einem Umbau, sondern haben den Charakter eines Neubaues der Unternehmens- und Fertigungsstruktur. Es ist daher naiv anzunehmen, daß die Beurteilung eines derartigen Neubaues durch Rückgriff auf das traditionelle Repertoire des konventionell arbeitenden Managementsystems möglich sein wird. Der Be-

Neue Techniken im Spannungsfeld alter Systeme

137

wertungsprozeß wird vielmehr selbst als Organisationsentwicklungsprozeß angelegt werden müssen, um durch Einbeziehung der Betroffenen — Problembewußtsein bei den beteiligten Gruppen zu erzeugen und — Motivation durch Teilnahme an der Planung und Organisationsgestaltung zu vermitteln. Das ist zugleich eine der wesentlichen Voraussetzungen für die erfolgreiche Einführung insbesondere segmentierter flexibler Fertigungssysteme und damit von zukunftsträchtigen CIM-Strukturen. Der Übergang zu einer neuen Struktur ist unter diesen Umständen kein einmaliger informatorisch-prognostischer Hochleistungsakt, sondern ein konfliktreicher Lernprozeß. Daher muß das Beurteilungsprocedere an den Phasen des Innovationsprozesses orientiert sein und die einzelnen Aufgaben innerhalb derartiger Innovationsprozesse unterstützen: — Unterstützung der Suchphase durch morphologisch angelegte Instrumententeile (Problemwahrnehmung, Systematisierung des Informationsgewinnungsprozesses, erste Einschätzung und Beurteilung von Schwachstellen, Auffinden von technisch-organisatorischen Entwickungspfaden vor dem Hintergrund des derzeitigen und zukünftigen Produkt- und Produktionsprogramms, etc.), — Strategische Technologie-Analyse: Spiegelung der Einsatzmöglichkeiten von flexiblen CIM-Strukturen an den wettbewerbskritischen Erfolgsfaktoren (Definition und Zusammenstellung unternehmenspezifischer Erfolgsfaktoren, Kompatibilität mit der Wettbewerbs- und Marktstrategie, Änderungsnotwendigkeiten der Wettbewerbsstrategien; Wirkungsanalyse der neuen Techniken auf die Wettbewerbsposition des Unternehmens), — Chancen- und Risikenbewertung der Strukturentwicklung im Hinblick auf die Verbesserung der wettbewerbskritischen Erfolgsfaktoren (Portfolio-Position des Unternehmens in bezug auf die Technik, Organisation, Human-Ressourcen, Marktposition, Stärken/Schwächen-Analyse, Analyse und Beurteilung von potentiellen Innovationswiderständen), — Auswahl einer geeigneten Realisierungs- und Einführungsstrategie (Konsensbildung über Richtungsentscheidungen, Definition von Entwicklungserfordernissen für die Technik, die Organisation und die HumanRessourcen), — Alternativensuche nach unterschiedlichen Ausprägungsformen flexibler Fertigungskonzepte (Beurteilung der Verbesserungsmöglichkeit der wettbewerbskritischen Erfolgsfaktoren durch unterschiedliche Fertigungskonzepte im Spiegel der Anforderungen aus dem Produktprogramm), — Beurteilung von Organisationsentwicklungsund PersonalentwicklungsMaßnahmen im Zuge der Einführungsphase (Anforderungsermittlung, Maßnahmendefinition und -controlling im Verbund mit der Planung der konkreten Ausgestaltung der Fertigungsorganisation hinsichtlich Autonomie- und Automationsgrad; Einschätzung der Erfolgsträchtigkeit),

138

Erich Staudt, Joachim Hafkesbrink und Renate Barthel

— Kennzahlendefinition und -ermittlung im Rahmen eines formativen Projekt-Controllings (Aufbau eines Kennzahlen- und Indikatorensystems zur Beurteilung meßbarer Verbesserungen während und nach abgeschlossener Einführung), wobei insbesondere auch Hinweise zur Umgestaltung der Kostenermittlung in dezentralen und flexiblen Fertigungskonzepten notwendig sind (Bezugsgrößenermittlung für angelagerte indirekte Funktionen, Prozeßkostenrechnung etc.). Eine Analyse der konventionellen Planungs- und Entscheidungshilfen zeigt vor diesem Hintergrund, daß diese weitgehend unverbunden nebeneinander stehen und bis auf wenige Ausnahmen 14 nicht mit den Einführungsstrategien verzahnt sind bzw. strategische, dispositiv-taktische und operative Entscheidungsebenen nicht mehr miteinander verbinden. Insbesondere beinhalten die derzeit vorhandenen Bewertungsverfahren keine Hinweise auf die Bewertung der Effizienz und Effektivität unterschiedlicher Autonomie- und Automationsgrade innerhalb flexibler Fertigungsstrukturen, welche insbesondere auf der Ebene der dispositiven und operativen Beurteilung und damit in der Phase der konkreten Organisationsgestaltung notwendig werden. Alle bisher praktizierten Verfahren setzen aus ihrem jeweiligen Blickpunkt unterschiedliche Schwerpunkte 15 . Die Konzeption eines umfassenden, alle betrieblichen und überbetrieblichen Wirkungen erfassenden Beurteilungsinstruments muß daher sehr viele dieser Einzeltechniken in einen neuen Systemzusammenhang stellen und dabei insbesondere folgender Anforderungsprofile entsprechen: — Berücksichtigung der zentralen Wirkungsbereiche innovativer Unternehmensentwicklung (Technik, Organisation, Personal, Umwelt), — Berücksichtigung von Haupt- und Nebenwirkungen in vor-, neben-, nachgelagerten und übergeordneten Arbeitssystemen sowie bereichsübergreifende Wirkungen, — Berücksichtigung monetärer, quantitativer und qualitativer Beurteilungskriterien, — Berücksichtigung kurz-, mittel- und langfristiger Wirkungen. E. Planungs- und Beurteilungssystem für neue Techniken Um einen ganzheitlichen ökonomischen Ansatz der Innovationsbewertung als Beurteilungshilfe beim Einsatz von CIM-Strukturen zu entwickeln, müssen explizit zwei Dimensionen miteinander verknüpft werden: — zum einen der Grad der Ungewißheit, der die Entscheidungssituation des Managementsystems prägt, 14 15

Vgl. Upmann; vgl. Wildemann.

Vgl. Hafkesbrink, Joachim: Effizienz und Effektivität innovativer Unternehmungsentwicklungen. Methodische Grundlagen zur Beurteilung der Leistungswirksamkeit von Innovationen, Dissertation, Duisburg 1986, S. 128ff.

Neue Techniken im Spannungsfeld alter Systeme

139

— zum anderen der Zeithorizont, mit dem nicht nur die Datensituation, sondern auch die Bearbeitungstechnik variiert. Die oben angesprochenen drei Ebenen der Beurteilung sind in der Abbildung nach dem Grad der Ungewißheit über Daten und Informationen, die als Beurteilungsgrundlage fungieren, und nach dem Zeithorizont der Beurteilung dargestellt. Als zweite Entwicklungsstufe werden dann für die einzelnen Ebenen Instrumente zur Verfügung gestellt.

Abb. 5. Beurteilungshilfen für Innovationen im Spannungsfeld von Ungewißheit und Zeithorizont

I. Beurteilung auf der strategischen Ebene Auf der Ebene der strategischen Beurteilung unterstützen insbesondere morphologische Instrumententeile die Orientierung an Flexiblen Fertigungsstrukturen und CIM-Strukturen. Vorhandene Kriteriensammlungen 16 bieten 16

Vgl. zu einem Überblick Martin, Joachim: Gruppentechnologische Fertigungsstrukturen — Planung und Bewertung bei Einzel- und Kleinserienfertigung, Köln 1989; Staudt, Erich/Groeters, Ulrich/Hafkesbrink, Joachim/Treichel, Heinz-Reiner: Kennzahlen und Kennzahlensysteme, Berlin 1985.

komplexer

mehrteilig· Struktur

Produkt· m i t elnlaoher

mehrteilig· Struktur

typisiert· Produkt· m i t kundtnipti. V a r i a n t e n

Kriterienausprägung E n d p r o d u k t · nith Kund«n*p*zlflkatlon

.

.

a san or erungen

11 » ·· ι

lere Qua

««hrhooh

Queiie: Martin 1989, s. 42.

Produkt·

mit

8 t a nd • r t p ro d u k t· Varlanten

mit

einteilig· Produkt·

31 a η d a r t p ro d u k t· Varlanten

Ο

Werkstattfertigung

_

Ο

u

„ ^ ^

·ν~



»

à\

"W

^

"

^

Fließ-

·

Ç

'

^

;

V "J"



J"

.Ο ° ;

Λ

q

χr\ 2

I

_·_



Ο

O*:^""

I

Ψ Τ

Τ

N^



!! Ο

Gruppenfertigung

·

gering

< B a u m a » o h . . T r a n a p o r t t . ) ( 8 o h m l e d e t e l l « . H a l b z g . ) ( Ro h e to

I I Kriterienausprägung

,

mltt·!

Abb. 6. Kriteriensammlungen zur Orientierung an FFS

fertigung

9 Q l a n g f r i s t i g e Kontinuität des Teilespektrums 9 in Tellevlelfalt, Inhomogenität des Teilespektrum s 2 il mittlerer Jahresbedarf je Einzelteil 9 19 W a h r s c h e l n l l o h k e l t / M ö g l i c h k e i t |zur Tellefamlllenfertlgung (Mst)

2.8 m i t t l e r e Lieferzeit

I

hooh

ΜββΛβββ„

Ο J V Ο Y r\ 2 η V i Ο 1

(Werk2eMem

2.8 mittlere Lieferzelt 1 1 Tän Kriterium 2.9 TeI τώΤ 2.1 P r o d u k t s p e k t r u m 2 10 · des —7: 2.2 P r o d u k t s t r u k t u r 2.11 m,t Ε|π ο ο Anzahl unterschiedlicher 2 3 Produkt e g1gWal l zur 2.4 Wiederholungshäufigkeit je Jahr (bezogen auf das E n d p r o d u k t ) 9 - lanfristige Kontinuität des Produktspektrum s 9 f tmittl. Komplexität der Produkte (mittl. Anzahl der Einzelteile) 2.7 m i t t l e r e Qualitätsanforderungen

2.7 mi

9

2

2

Produktstruktur

"

ohn·

I f e. Wa I ζ· r zg η. )

Anzahl u n t e r s c h i e d l i c h e r höh· A n z a h l u n t e r e o h l e d l l o h e r m I t t i . A n z . u η t· r · ο h I · d 11 ο h · r g « r . A n z a h l u η t· r · oh I · d 11 e h · r Produkte Produkt· Produkt· Produkt· 4 W i e d e r h o l u n g s h ä u f i g k e i t je Jahr «"· E n d p r o d u k t · «irdin O l e n t g * r . W l e d e r h o l u n g a h A u f l g k e l t höh· W I * d * r h o l u n g « h * u l l g k « l t (bezogen auf das Endprodukt ) w i e d e r h o l t »"«"'n' £ l a n f r i s t i g e K o n t i n u i t ä t des dlakontlnul«rireh·· tellkontlnulerllohee langfristig kontinuierlich·· Produktspektrums Produktapcktrum Produkfpektru m P ro d u k t ip e k t r u m h o h e K o m p l e x i t ä t d. P r o d u k t e m l t t l . K o m p l e x i t ä t d. P r o d u k t e g e r . K o m p l e x i t ä t d. P r o d u k t e ß mlttl. Komplexität der Produkte ( m l t t l . Anzahl der Einzelteile) ( > eoo Einzelteile) ( SO - e o o Einzelteil·) ( « 30 E I η z· 11· 11 · )

·

Ζ Ζ

2.1 P r o d u k t s p e k t r u m

Kriterium

140 E r i c h Staudt, Joachim Hafkesbrink und Renate Barthel

Neue Techniken im Spannungsfeld alter Systeme

141

Entscheidungsträgern die Möglichkeit, anhand ihrer betriebsspezifischen Situation (Sortimentsbreite, Teilevielfalt, etc.) ein grundsätzliches Anwendungsprofil für flexible Fertigungskonzepte zu erstellen. Darüberhinaus werden „strategische Matrizen" eingesetzt, die in Ergänzung zu der Morphologie eine strategische Technologie-, Organisations- und Human-Ressourcenanalyse ermöglichen sowie den Zusammenhang zur Wettbewerbssituation des Unternehmens herstellen:

Strategische Bewertung X

Tech\ n i k PPS ZieleN^

Grad der Ungewißheit

Transparenz Wirtschaft1 ich k.



Flexibilität DLZ Marktanpassg.



BDE

CAP

CAD

• Ο

Ο

• ο

CAM



Ο



CAQ

• Ο

PPS/ PPS/ BDE/ BDE CAQ

• Ο

• Ο

Beurteilung der Bedeutung einzelner Techniken zur Verbesserung der Wettbewerbsposition Zeithorizont

Abb. 7. Matrizen als Beurteilungshilfsmittel auf der strategischen Ebene

Die strategischen Matrizen enthalten auf verschiedene Wettbewerbsumwelten bezogene „typische Erfolgsfaktoren", die im Zusammenhang mit der Einführung neuartiger Fertigungsstrukturen als Zielgrößen fungieren. Vor dem Hintergrund der in der Literatur diskutierten Ziele und Erfolgsgrößen 17 lassen sich dabei folgende Kataloge von wettbewerbskritischen Erfolgsfaktoren für C I M und FFS herausarbeiten: 17 Vgl. z.B. Wildemann 1989; Bullinger, Hans-Jörg: Einbettung von CIM-Konzepten in unternehmensweites Informationsmanagement, in: Kommtech 1987, 4. Europäische Kon-

Erich Staudt, Joachim Hafkesbrink und Renate Barthel

142

Unternehmensziele Erhaltung/Stelgerung E r h ö h u n g der

der

Wettbewerbsfähigkeit

Wirtschaftlichkeit

G e w i n n e n von M a r k t a n t e i l e n S c h n e l l e r e R e a k t i o n auf neue

Marktanforderungen

A u s n u t z u n g der U n t e r n e h m e n s p o t e n t i a l e V e r b e s s e r n des

Betriebsablaufs

Globalziele

Bereichsziele

E r h ö h u n g der F l e x i b i l i t ä t V e r b e s s e r n der E r h ö h e n der Bessere

(Organ i s a t i o n sf I.)

Qualität

N o r m i e r u n g der P r o d u k t e

Produktivität

E n t l a s t u n g von

Kostentransparenz

R e d u z i e r u n g der

montage-/fertigungsgereohte

Routinetätigkelten

E r h ö h u n g der ' k r e a t i v e n *

Kosten

Bessere

Schwachstellen

S t e l g e r u n g der

E r h ö h u n g der

Termintreue

G e n a u e r e ProzeBkon t r o l l e

und

Beschaffungszelt

Zelt

Dokumentation

A u f z e i g e n der

Verkürzung Durchlauf-

Konstruktion

(Grup.-Technologie)

Planungsgenauigkeit

R e d u k t i o n der

Bestände

V e r b e s s e r n der P l a n u n g und

E r h ö h u n g der

entsprechende

Umsetzung

S c h n e l l e r e B e s e i t i g u n g von S t ö r u n g e n

Verringern

Datenredundanz

V e r b e s s e r n von

der

V e r b e s s e r n des

Informationsflusses

H u m a n i s i e r u n g der 'papleiarme

Arbelt

Verfügbarkelt

Wartung/Instandhaltung

Flexiblere

Kundenbetreuung

Genauere

Materlaldlsposltlon

Fabrik'

Quelle: Bullinger 1987, S. 5.

Abb. 8. Katalog wettbewerbskritischer Erfolgsfaktoren für C I M und FFS (Beispiele)

D e n wettbewerbskritischen Erfolgsfaktoren werden i m Rahmen des Bewertungsprocederes j e w e i l s gegenübergestellt: —



die wesentlichen Fertigungstechniken, die für den Einsatz i n FFS maßgeblich sind ( z . B . Bearbeitungssysteme, Materialflußsy steme, Meßmaschinen), die — m i t B l i c k auf die E n t w i c k l u n g v o n C I M - S t r u k t u r e n — notwendigen Informations-, K o m m u n i k a t i o n s - und Steuerungstechniken, die als Träger der Daten- und Funktionsintegration dienen,

greßmesse für Technische Automation, Essen 1987, Symposium 10.1.01-10.1.37; Shah, Raymond: Erfahrungen europäischer CIM-Anwender, in: VDI-Zeitschrift, 1987, Heft 1, S. 34-43; Eversheim, Walter/Brachtendorf, Thomas/Dahl, Bodo: Maßnahmen zur Realisierung von CIM in kleinen und mittleren Unternehmen, in: VDI-Zeitschrift, 1987, Heft 5, S. 38-42; Schuhmann, Matthias /Mertens, Peter: Nutzeffekte von CIM-Komponenten und Integrationskonzepte, in: CIM-Management, 1990, Heft 1, S. 45-51.

Neue Techniken im Spannungsfeld alter Systeme

143

— die unterschiedlichen Gestaltungsoptionen für die Fertigungsorganisation (z.B. Flexible Fertigungszelle (FFZ), Flexibles Fertigungssystem (FFS), Flexible Fertigungslinie (FFL), Fertigungsinsel (FI), Fertigungssegment (FS)), mit dem Ziel, — eine Beurteilung der Bedeutung der einzelnen Technologie-Komponenten für die Verbesserung der Wettbewerbssituation herbeizuführen und — das technologische Know-How des Unternehmens in bezug auf die jeweiligen Technologien zu untersuchen. Die Beurteilungshilfsmittel auf der strategischen Ebene ermöglichen den Entscheidungsträgern eine Chancen/Risiken-Bewertung des Einstieges in FFS und CIM-Strukturen. Damit sollen auf dieser Ebene bereits Richtungsentscheidungen über die Wahl der Einführungsstrategie und der Alternativensuche nach unterschiedlichen Fertigungsorganisationsformen vorstrukturiert werden. Zur Unterstützung der Bewertungen zum Technologie-Know-How und zur Beurteilung der Wettbewerbsposition des Unternehmens dienen spezifische Checklisten, die die Bewertungskriterien in den Zeilen und Spalten der Matrix operationalisieren.

II. Beurteilungen auf der dispositiven Ebene Auf der dispositiven Ebene werden zunächst die unterschiedlichen Varianten der Fertigungsorganisationsformen FFZ, FFS, FFL, FI, FS vor dem Hintergrund der betriebsspezifischen Anforderungen beurteilt. Die unterschiedlichen Varianten werden mit Hilfe geeigneter Matrixdarstellungen den wettbewerbskritischen Erfolgsfaktoren gegenübergestellt, mit dem Ziel, das Potential der organisatorischen Gestaltung für die Verbesserung der Wettbewerbssituation abzuschätzen. Dazu ist es notwendig, die hinter den übergeordneten Erfolgsfaktoren stehenden Teilziele (z.B. Personal-soziale-, Zeit-, Flexibilitäts-, Organisations-, Technik-, Qualitäts-, Kosten- und Wirtschaftlichkeitsziele) weiter aufzugliedern und den Zusammenhang mit unterschiedlichen Fertigungsorganisationsformen deutlich zu machen (vgl. Abb. 10).

I Γ

^vj

schwach

I ^ν

> >

mittel

Check lieto

φ

=

k

φ

A

^ ^ w ™W

8

Syeten

«

.

' a

Ä

Ξ

.

^

^^

\

· . / . . / .

A

φ

φ



.I

^ W

A

· W

*

φ

^

.

W

Ξ

φ

·

W

A W

W

TT

*

m

W

W ^

W

W

A

^ ^ W IP

A W

Α

·

9

·

A

W

w

φ

S

I

i

φ

^

9

.

Α

*

FFL

φ

ungeklärt

^

*

A A W W

φ

FF8

φφ #

W

^

A

^

A W

FFZ

höh· mittler· kein· mttglloher Bedeutung Bedeutung Bedeutung negativer bzw. bzw. ElnfluS (Order t geringer stark positiver Elnilufl

^

ümt^i schwach

Info-System

STRUKTUREN

Abb. 9. Beispiel für eine Bewertung mit Hilfe strategischer Matrizen

"

stark

Produktinnovationen

-

A W ·/·

/

Fertlqunqstiefe

I

φ A A A W W W

·

A

Produktioneflexibilität Reaktlonsqeschwlndlqkeit bei Fehlern * W W W

] k

ν

/

^ ^ W W

./ *

J%

A

J=n·

p-L I

Î

I ι—1 1

—•

C1M Fertigungstechnik

Kompo- B e a r - | M a t e r l - | Μβ0- Prozeß-|Pri>»ö"f l technlk Steuerüberc w tunq system ung waohq.

a,f ,

[

Preleeenkungspotentlal W W W ./. Produktivität/ ^ ΖΣ ΊΓ ΊΓ Wirtschaftlichkeit / / A / satorischer Abläufe ./. ·/.

Kostensituation/

S e r v i c e - undDlenstleistunqsanqebot

Durchlaufzeit/ Termintreu e

Produktqualität

\

be,_

beatanç/teÛV/ -potentiate CA-

Wettbewerbe-^. kr tische nenten Er(olq8faktore n

I n t e q r a t l o n orqani-

stark

Wettbewerosposition

I

φ

A

Fl

144 Erich Staudt, Joachim Hafkesbrink und Renate Barthel

10 Festgabe v. Kortzfleisch

Zeltziele

φ

Q

w

A

DLZ-Ver-ISenkg. d.iReduz. ν. ringen Entwlckl. stillst. _

Koetenzlele

Φ

Ξ

Flexibilität

Wirtschaftlichkeit

Traneparenz

_ ΛA_ Kriterien ÄB

_ _~ Typ A Typ B

Typ C

. ..

Fertigungsinseln

^ΞΞΞΞΞΞ UH I I I I

g

'

strategische Ziele ~| ~~ m h

Γ

Abb. 10. Operationalisierung der Zieldimensionen



—Bestände AueschuB stückk.

Senkung Senkung Senkung

Neue Techniken im Spannungsfeld alter Systeme 145

Erich Staudt, Joachim Hafkesbrink und Renate Barthel

146

In einem zweiten Schritt werden auf dieser Ebene der Beurteilung die hinter den einzelnen Varianten der Fertigungsorganisation stehenden Anforderungsprofile hinsichtlich — der Organisationsentwicklung und Arbeitsstrukturierung und — der notwendigen Personalentwicklungsmaßnahmen beurteilt. Dabei ist die Bedeutung einzelner Gestaltungsmaßnahmen für die jeweilige Organisationsvariante herauszuarbeiten und zu evaluieren (vgl. Abb. 11). I I I . Beurteilungeil auf der operativen Ebene Auf der operativen Ebene werden geeignete Bewertungsmodule für ein formatives Projekt-Controlling bereitgestellt. In Weiterführung der auf der strategischen und dispositiven Ebene entwikkelten Bewertungshilfen kommen auf dieser Ebene der Beurteilung insbesondere Kennzahlen- und Indikatorensysteme 18 zum Einsatz, die zur weiteren Operationalisierung der Bewertungskriterien eingesetzt werden. Das Kennzahlen- und Indikatorensystem (KIS) ist als Mehr-Ebenen-Modell konzipiert, welches die unterschiedlichen Ebenen der Vernetzung und Koppelung innerhalb — bestehender Prozeßketten, die in Flexiblen Fertigungsstrukturen realisiert werden können und — der übergreifenden Informationsinfrastruktur beinhaltet. Das Rahmenkonzept für das KIS enthält in der Grobstruktur folgende Elemente (1) Deskriptive

Systemelemente zur Beschreibung des Systemzustandes:

— externe Bedingungsgrößen (z.B. Kennzahlen und Indikatoren zur Beschreibung von Marktstrukturen, Umfeldfaktoren) — interne Gestaltungsgrößen (Kennzahlen und Indikatoren zur Beschreibung der Technik, der Fertigungsorganisation, der Arbeitsorganisation und der Human-Ressourcen) Die Kennzahlen auf dieser Ebene werden zu Kennzahlensystemen gruppiert, die unterschiedliche Kopplungen in flexiblen Fertigungsstrukturen zwischen verschiedenen Personen/Personengruppen, Personen/Maschinensystemen im

18 Vgl. stellvertretend Staudt/u.a. 1985; Wildemann 1989, S. 242ff.; Bölling, Dieter: Kennzahlenorientierte Analyse rechnergestützter Fabrikautomatisierung, Darmstadt 1990.

Neue Techniken im Spannungsfeld alter Systeme

147

— Materialfluß und — Informationsfluß abbilden können und die dann Grundlage für ein projektbegleitendes Controlling darstellen. c e

e Ε

Ε •

ο 5 m 0 £

α

Organleatlone-

ω

ΌΛ

Ζ

entwicklung und

• Organisatorische Oes tal tungsvar labten

UJ r Λ « °

σ

• 0

• ο

Partili-

Arbeitestrukturlerung

ι

ο

ιτ.π ο •





Wet tbewerbs position schwach mittel Slark Ι k ι k

^^ ^Ν.

CAKomponenten

Fertigungstechnik Bearbeitung

FFS

FFZ •

Produktivität/ Wirtschaftlichkeit Integration organls a t o r i s c h e r Abläufe

• •

P r o d u k t l o n a f l e x l b i l l tät



Reaktionsgeschwindigkeit bei F e h l e r n











• • •









• • •



P r o d u k t Innovationen Fertigungstiefe



-

S e r v i c e - und Dienst lelstungsangebot •

Fl

FFL



Durchlaufzeit/ Termintreue

Kostensituation/ Preise en k u n g s p o ten t i a l

J



Info-System

M a t e r i - M e ß - ProzeB- ProzeBalfluB technlk s t e u e r - ü b e r wachg. system ung

Produktqualität

>

ο •

ο

COM - STRUKTUREN

lechnoiogiebestand telle/ -Potentiale

Wettbewerbs-^^ kritische Erfolgstaktoren









φ



• • •

• • • •













\

\ * Bewertung



• •

Qualifikation

Ο

Ο



Motivation " Verantwortuni 3

Ο ·

• •

Ο

Ο

Laufbahnplanung

und Qualifizierung

J Führungssystem

entwicklung

Ι Qualifizierung

PersonalPersonelle







Gestaltungsvariablen

Abb. 11. Beurteilung der Bedeutung von OE- und PE-Maßnahmen für die Fertigungsorganisation 10*

Erich Staudt, Joachim Hafkesbrink und Renate Barthel

148

Kennzahlen- und Indikatorensystem 1. Deskriptive Systemehemente

t

t

2. Kriterien zur Beurteilung der Leistungswirksamkeit -

Wirtschaftlichkeit

- H u m a n i s i e r ung der

Effektivitäts-

-

Technologieanschluß

- V e r b e s s e r u n g d.

Beurteilung

- Lieferberei tschaft

-

Arbeit

Absatzchancen

Reaktionsgeschwindigkeit

- P r o d u k t q u a l 1 tat

t

t

Abb. 12. Konzeptioneller Aufbau des Kennzahlen- und Indikatorensystems

149

Neue Techniken i m Spannungsfeld alter Systeme

K e n n z a h l e n - und Indikatorensystem 1. D e s k r i p t i v e

Systemelemente

Technik/ Information Kennzahlen zur des technischen

Beschreibung Systems

Fertigungsorganisation Kennzahlen zur Beschreibung des Autonomiegrades und der Kopplungsstrukturen

t

t

2. K r i t e r i e n z u r B e u r t e i l u n g d e r

Leistungswirksamkeit

K o s t e n - und W i r t s c h a f t l i c h k e i t s z i e l e Effektivität Beurteilung

EffizienzBeurteilung

Technisch Ziele E I im iη iθru der Daten redundanz

Verminderung der Kapi talbindung Direktkostenreduzierung Stück kosteηVerbesserung Erhöhung des Nutzungsgrades Steigerung der Anlagenauslastung Verminderung der Ausstoßkosten Verminderung der Prüfkosten Produktivitätserhöhung Verringerung der Personal kosten Senkung von Overhead- und Administrationskosten Senkung von Informationskosten Senkung von Materialkosten Senkung von Transportkosten Senkung von I n s t a n d h a l t u n g s k o s t e n Senkung von Raumkosten Senkung von Lagerhaltungskosten Senkung von Fehler folgekosten Senkung von Lohngemeinkosten Senkung von Kosten für die Neuprodukteinführung Senkung v. Qualitätssicherungskosten Sicherung

?r Ar Dei t Absatzchancen i nd ig kei t

flexibilität

Abb. 13. Beispiel für die Ausdifferenzierung des Kennzahlen- und Indikatoren systems

150

Erich Staudt, Joachim Hafkesbrink und Renate Barthel

Um den unterschiedlichen Autonomiegrad innerhalb der Fertigungsorganisation abbilden zu können, werden insbesondere Kennzahlen eingesetzt, die das Mengengerüst von Personal und Betriebsmitteleinsatz gegliedert nach — direkt-produktiven Tätigkeiten (verbunden mit einem Zuwachs in der Wertschöpfung am Produkt) und — indirekt-produktiven Tätigkeiten (Wartung, Instandhaltung, Steuerung, Qualitätssicherung, etc.) abbilden und auf diese Weise die mit der Dezentralisierung von Dispositionskompetenz verbundene Anreicherung z.B. von Insel-Tätigkeiten durch indirekte Funktionen der Planung, Steuerung und Kontrolle quantitativ fassen können 19 . (2) Wertbehaftete keit:

Systemelemente

zur Beurteilung der Leistungswirksam-

— Effektivitätskriterien (Kennzahlen und Indikatoren zur Beurteilung strategischer Zielkriterien wie z.B. Transparenz, Wirtschaftlichkeit, Flexibilität, Verbesserung der Absatzchancen, Technologieanschluß, Humanisierung der Arbeit) — Effizienzkriterien (Kennzahlen und Indikatoren zur Beurteilung z.B. personal-sozialer Ziele, Zeitziele, Kostenziele, Qualitätsziele, einzelner Flexibilitätsziele, organisatorischer Ziele)

F. Zusammenfassung: Bewertung neuer Techniken im Spannungsfeld alter Systeme Die wesentlichen Innovationshemmnisse bei der Einführung neuer Techniken liegen heute in der mangelnden Harmonisierung von technischer Implementation, Organisations- und Personalentwicklung und Marktstrategien. Abb. 14 zeigt die Krisenursachen als Folge nachlaufender Organisationsgestaltung und Qualifizierung. Zur Bewältigung dieser Innovationshemmnisse ist das Spannungsfeld „neue Techniken — alte Systeme" durch Strukturentwicklungen der Systeme selbst aufzuheben. D. h., die angezeigten Krisenursachen durch den time-lag (vgl. in Abb. 14) sind durch ein integriertes Innovationsmanagement zu bewältigen, das eine Verzahnung der technischen Planung, Implementierung, Organisationsgestaltung und Personalentwicklung mit der Produkt- und Marktstrategie beinhaltet.

19

Vgl. zu einem derartigen Vorgehen Hafkesbrink

1986, S. 286ff.

Neue Techniken im Spannungsfeld alter Systeme

151

Betriebliches Krôsenmanagemant Abb. 14. Krisenursachen bei der Einführung neuer Techniken

Der Schritt vom Umbau zum Neubau der Unternehmens- und Fertigungsstruktur erfordert daher notwendigerweise den Übergang zu mehrdimensionalen, ganzheitlichen und damit systemorientierten Verfahren der Innovationsbewertung. Die Ganzheitlichkeit des hier vorgestellten Ansatzes besteht in der Einbeziehung und konzeptionellen Verbindung — strategischer, dispositiver und operativer Beurteilungsebenen, — monetärer, quantitativer und qualitativer Beurteilungskriterien, — modular aufgebauter Instrumententeile, die je nach Informationsbedarf der Entscheidungsträger die verschiedenen Aufgaben im Zeitablauf des Innovationsprozesses unterstützen (vgl. Kap. IV). Das Verfahren ist als systemorientiertes, situatives Konzept angelegt, um den Gestaltungsanforderungen der Unternehmen in unterschiedlichen Wettbewerbsumwelten Rechnung tragen zu können. Auf jeder angesprochenen Beurteilungsebene (strategisch, dispositiv, operativ) wird eine mehrdimensionale Wirkungsanalyse der wesentlichen Nah- und Fernwirkungen mit Hilfe monetärer, quantitativer und qualitativer Beurteilungskriterien ermöglicht.

152

Erich Staudt, Joachim Hafkesbrink und Renate Barthel

•BetrüebSiclies Snrwvationemana^ement Abb. 15. Integriertes Innovationsmanagement bei der Einführung neuer Techniken

Das Verfahren selbst ist konzeptionell in einen OE-Prozeß eingebettet und entlang des Implementationsprozesses der neuen technisch-organisatorischen Lösung strukturiert. Auf diese Weise können — wie erste Anwendungserfahrungen des Instrumentensatzes belegen — (Konsens-) Entscheidungen über betriebliche Strukturentwicklungen herbeigeführt und sinnvoll unterstützt, deren systemische Auswirkungen im jeweiligen Zeitfenster transparent gemacht, die Ungewißheit über den Einsatz neuer Techniken im Zeitablauf abgebaut und die komplexe Entscheidungssituation damit schrittweise verobjektiviert werden.

Glossar der verwendeten Abkürzungen AWF BDE CAD CAE CAM CAP

Ausschuß für wirtschaftliche Fertigung Betriebsdatenerfassung Computer Aided Design Computer Aided Engineering Computer Aided Manufacturing Computer Aided Planning

Neue Techniken im Spannungsfeld alter Systeme CAQ CAx CIB CIM CIO CNC C-Techniken DIN DLZ DNC FFL FFS FFZ FI FS IAI IuK KIS OE PE PPS SPS WZM

153

Computer Aided Quality Assurance Computer Aided ... (Techniken) Computer Integrated Business Computer Integrated Manufacturing Computer Integrated Office Computer Numerical Control Computergestützte Techniken Deutsches Institut für Normung Durchlaufzeit Direct Numerical Control Flexible Fertigungslinie Flexibles Fertigungssystem Flexible Fertigungszelle Fertigungsinsel Fertigungssegment Institut für angewandte Innovationsforschung Informations- und Kommunikations(techniken) Kennzahlen- und Indikatorensystem Organisationsentwicklung Personalentwicklung Produktionsplanung und -Steuerung Speicherprogrammierbare Steuerung Werkzeugmaschine

Literaturverzeichnis AWF: Bestandsaufnahme Fertigungsinseln im deutschsprachigen Raum, Eschborn 1987. Bölzing, Dieter: Kennzahlenorientierte Analyse rechnergestützter Fabrikautomatisierung, Darmstadt 1990. Bullinger, Hans-Jörg: Einbettung von CIM-Konzepten in unternehmensweites Informationsmanagement, in: Kommtech 1987, 4. Europäische Kongreßmesse für Technische Automation, Essen 1987, Symposium 10.1.01-10.1.37. Bullinger, Hans-Jörg/Memeyer, Joachim: Strategiegeleitete Innovationen — Potentiale des Einsatzes von IuK-Technologien in Büro und Verwaltung; in: Rock, Reinhard/ Ulrich, Peter/Witt, Frank (Hg.): Struktur der Dienstleistungsrationalisierung, Frankfurt, New York 1990, S. 86. Eichener, Volker: Normungsbedarf für CIM-Benutzungsschnittstellen, Arbeitspapier des Sonderforschungsbereichs 187 der Ruhr-Universität Bochum, Bochum 1990. Esser, Udo: CIM: Mythen und Fakten der computergesteuerten Produktion, in: Industrielle Organisation, 1989, Heft 5, S. 81-85. Eversheim, Walter/Brachtendorf, Thomas/Da/i/, Bodo: Maßnahmen zur Realisierung von CIM in kleinen und mittleren Unternehmen, in: VDI-Zeitschrift, 1987, Heft 5, S. 38-42. Förster, Hans-Ullrich/i/zW, Klaus: PPS für die flexible Automatisierung — Optimale Steuerung einer Werkstatt mit flexiblen Fertigungszellen (FFZ), Köln 1988.

154

Erich Staudt, Joachim Hafkesbrink und Renate Barthel

Hafkesbrink, Joachim: Effizienz und Effektivität innovativer Unternehmungsentwicklungen. Methodische Grundlagen zur Beurteilung der Leistungswirksamkeit von Innovationen, Dissertation, Duisburg 1986. Hahne, JochenISchepanski, Norbert/Wompel, Margarete/Zeifang, Markus/Cloidt, Michael: Erfahrungen und Probleme des Einsatzes von CIM. Ergebnisse einer Befragung, Hg. VDI-Nachrichten/Institut für angewandte Innovationsforschung, Düsseldorf/Bochum 1990. Hirsch-Kreinsen, Hartmut: Technik und Arbeitsorganisation bei CIM, in: Fleischer, A./ Kuhn, K./Schreiber, P.: Arbeitsschutz an flexiblen Fertigungssystemen. Vorträge der Informationstagung am 25./26. April 1989 in Dortmund, Schriftenreihe der Bundesanstalt für Arbeitsschutz — Tagungsbericht 52, Dortmund 1989, S. 167-181. Keller, Gerhard/Kern, Siegbert: Verwirklichung des Integrationsgedankens durch CIMAnsätze, in: Zeitschrift für Fertigungsorganisation, 1990, Heft 4, S. 228-234. Kemmner, Andreas: Investitions- und Wirtschaftlichkeitsaspekte bei CIM, in: CIM-Management, 1988, Heft 4, S. 22-29. Kleinaltenkamp, Michael: Der Einfluß der Normung und Standardisierung auf die Diffusion technischer Innovationen, Arbeitspapier des Sonderforschungsbereichs 187 der Ruhr-Universität Bochum, Bochum 1990. Köhl, Eva! Esser, Udo IKemmer, Andreas ! Förster, Ullrich: CIM zwischen Anspruch und Wirklichkeit — Erfahrungen, Trends, Perspektiven, Köln 1989. Martin, Joachim: Gruppentechnologische Fertigungsstrukturen — Planung und Bewertung bei Einzel- und Kleinserienfertigung, Köln 1989. Scheer, August-Wilhelm: CIM — Der computergesteuerte Industriebetrieb, Berlin u.a. 1987. Schreuder, Siegfried/Upmann, Rainer: Wirtschaftlichkeit von CIM — Grundlage für Investitionsentscheidungen, in: CIM-Management, 1988, Heft 4, S. 10-16. Schuhmann, Matthias/Mertens, Peter: Nutzeffekte von CIM-Komponenten und Integrationskonzepte, in: CIM-Management, 1990, Heft 1, S. 45-51. Schultz-Wild, Rainer/Nuber, Christoph ! Rehberg, Frank/Schmierl, Klaus: An der Schwelle zu CIM — Strategien, Verbreitung, Auswirkungen, Köln 1989. Shah, Raymond: Erfahrungen europäischer CIM-Anwender, in: VDI-Zeitschrift, 1987, Heft 1, S. 34-43. Staudt, Erich: Produkt- und programmpolitische Konsequenzen bei der Einführung neuer Arbeitsformen, in: Richter, K./Pfeiffer, W./Staudt, E. (Hg.): Einführung neuer Formen der Arbeitsorganisation in Industriebetrieben, Göttingen 1978. Staudt, Erich/Hinterwäller, Horst: Von der Qualitätssicherung zur Qualitätspolitik — Konzeption einer integralen unternehmerischen Qualitätspolitik —, in: ZfbF, 1982, S. lOOOff. Staudt, Erich/Groeters, Ulrich/Hafkesbrink, und Kennzahlensysteme, Berlin 1985.

Joachim/Treichel,

Heinz-Reiner: Kennzahlen

Tritremmel, Wolfgang: Fabrik 2000: Die Zukunft liegt im Vernetzen, in: Industrielle Organisation, 1989, Heft 5, S. 55-58.

Neue Techniken im Spannungsfeld alter Systeme

155

Upmann, Rainer: Zur wirtschaftlichen Bewertung von CIM — Von der Unternehmensstrategie zur monetären Quantifizierung, in: VDI-Zeitschrift, 1989, Heft 8, S. 59-66. Urban, Gerd: Zentralisierte oder dezentralisierte Arbeisstrukturen bei der flexiblen Automatisierung von Produktionsprozessen?, in: Fricke, W. (Hg.), Jahrbuch der Arbeit und Technik, Bonn 1986. Wildemann, Horst (Hg.): Einführungsstrategien für neue Technologien (Tagungsband), München 1989.

Kosten- und Erlösrechnung bei neuen Technologien Von Bernd Kaluza

A. Problemstellung Im betriebswirtschaftlichen Schrifttum und in der betrieblichen Praxis werden die traditionellen Verfahren der Kosten- und Erlösrechnung in neuerer Zeit kritisch diskutiert. 1 So wird behauptet, die Kostenrechnung sei bislang nur auf die Anforderungen lohnintensiver Massenproduktion zugeschnitten.2 Hingegen werden die heute besonders bedeutungsvollen strategischen Erfolgsfaktoren, wie Flexibilität, Qualität und Zeitvorteile, von der konventionellen Kosten- und Erlösrechnung nicht erfaßt. Allerdings sind diese kritischen Anmerkungen nicht neu. Gert v. Kortzfleisch hat bereits vor mehreren Jahrzehnten gefordert, daß die Kostenrechnung offenlegen soll, welche Auswirkungen die vom Management getroffenen Entscheidungen haben.3 Fragen des internen Rechnungswesens sowie des Technologie- und Innovationsmanagements zählen zu den Hauptarbeitsgebieten des Jubilars in Forschung und Lehre. 4

1 Vgl. dazu u.a. Anders, H.: Die Kostenrechnung als Innovationshemmnis, in: BddW, 28 (1985) 97, S. 1; Kleine-Doepke, R.: Den Blick verstellt, in: Management-Wissen, (1985) 1, S. 50-55, sowie Steincke, H.: Kostenrechnung — wohin?, in: krp, (1985) 1, S. 13-18, hier S. 13. 2 Vgl. Kaplan, R. S.: Measuring Manufacturing Performance: A New Challenge for Managerial Accounting Research, in: The Accounting Review, 58 (1983), S. 686-705, hier S. 688; Kaplan , R. S.: The Evolution of Management Accounting, in: The Accounting Review, 59 (1984), S. 390-418, hier S. 407, und Horvàth , P.: Nutzeffekte, Einsatzschwerpunkte und Implementierung der Prozeßkostenrechnung, in: Männel, W. (Hrsg.): Kongreß Kostenrechnung '90, Frankfurt a. M. 1990, S. 51-73. 3 Vgl. von Kortzfleisch, G.: Kostenquellenrechnung in wachsenden Industrieunternehmen, in: zfbf, 16 (1964), S. 318-328, hier S. 318 (von Kortzfleisch 1964b). Vgl. dazu aus neuester Zeit u.a. Horvàth 1990, S. 53, für den traditionelle Kostenrechnungssysteme vielfach nicht in der Lage sind, „dem Management entscheidungsrelevante Informationen zu liefern." 4 Vgl. dazu u. a. von Kortzfleisch, G.: Ökonomische Kriterien für technische Fortschritte bei Produktionsprozessen, in: ZwF, 75 (1980), S. 55-57.

Bernd Kaluza

158

In dieser Arbeit soll deshalb untersucht werden, wie sich der Einsatz neuer Technologien, wie Fertigungstechnologien, Informations- und Kommunikationstechnologien sowie integrative Konzepte ( C A D / C A M 5 und CIM 6 ), auf die Kosten- und Erlösrechnung auswirkt. In einem ersten Schritt geben wir einen Überblick über diese neuen Technologien. Anschließend analysieren wir, welche Konsequenzen sich durch die Einführung neuer Technologien für die Kostenrechnung und die Erlösrechnung der Unternehmung ergeben. Dabei untersuchen wir ausführlich die Wirkungen der neuen Technologien auf die Kostenrechnung. Den Abschluß dieser Arbeit bilden eine Zusammenfassung und ein Ausblick auf noch zu bearbeitende Problemfelder.

B. Neue Technologien Technologien7 sind in die folgenden drei Klassen einzuteilen: — Fertigungstechnologien, — Informations- und Kommunikationstechnologien sowie — Integrative Konzepte. Im Rahmen dieser Arbeit konzentrieren wir uns auf eine überblicksartige Darstellung der neuen Fertigungstechnologien (Abschnitt I.). 8 Im Abschnitt II. sind die informations- und kommunikationstechnologischen Optionen zu untersuchen, die in Schrifttum und Praxis mit Akronymen wie CAD 9 , CAP 1 0 , C A M 1 1 und ÇAQ 1 2 bezeichnet werden. Die in den Abschnitten I. und II. zu analysierenden Optionen sind in jüngster Zeit immer stärker miteinander verwoben worden. Die in diesem Zusammenhang diskutierten integrativen Maßnahmen sind Gegenstand der Untersuchungen im Abschnitt III. Dort werden dann sowohl die „Integration rechnerunterstützter technischer Teilbereiche — CAD/CAM" als auch die „Rechnerintegrierte Produktion — C I M " betrachtet. 13

5

Computer Aided Design and Manufacturing.

6

Computer Integrated Manufacturing.

7

Zu einer Abgrenzung der Termini „Techniken" und „Technologien" siehe Zäpfel, G. : Strategisches Produktions-Management, Berlin-New York 1989, S. 35. 8 Zu einer ausführlichen Darstellung siehe Kaluza, B.: Erzeugniswechsel als unternehmenspolitische Aufgabe. Integrative Lösungen aus betriebswirtschaftlicher und ingenieurwissenschaftlicher Sicht, Berlin 1989, S. 113ff. 9

Computer Aided Design.

10

Computer Aided Planning.

11

Computer Aided Manufacturing.

12

Computer Aided Quality Assurance.

13

Vgl .Kaluza 1989, S. 176ff.

Kosten- und Erlösrechnung bei neuen Technologien

159

I. Fertigungstechnologien

Seit mehreren Jahrzehnten werden im Produktionsbereich NC-Werkzeugmaschinen14 eingesetzt. Diese Fertigungseinrichtungen und ihre Weiterentwicklungen, wie Werkzeugmaschinen mit CNC-Steuerung 15 und DNC-Betrieb 16 , brachten bereits beträchtliche Flexibilitäts- und Qualitätsvorteile für die Industrieunternehmungen. Die Weiterentwicklung dieser Technologien und die Erfüllung der Anforderungen 17, z.B. möglichst alle Bearbeitung s Vorgänge komplett auf einer Maschine durchzuführen, unterschiedliche Werkzeuge in wahlfreier Folge einzusetzen und die Nutzungszeit der Maschinen durch bedienerarmen Betrieb zu erweitern, führten zu flexiblen Fertigungseinrichtungen. Dabei ist zwischen — — — —

Flexiblen Flexiblen Flexiblen Flexiblen

Fertigungszellen, Fertigungsinseln, Fertigungssystemen und (bzw. flexibilisierten) Transferstraßen

zu unterscheiden. Abbildung 1 gibt einen Überblick über wesentliche Merkmale dieser verschiedenen Fertigungstechnologien. Die verschiedenen Fertigungstechnologien sind in Abbildung 1 mit Hilfe des Kriteriums „Automatisierungsgrad" geordnet, d.h. den niedrigsten Automatisierungsgrad finden wir bei den NC-Fertigungseinrichtungen, den höchsten bei der Flexiblen Transferstraße. Bei einer Ordnung mit Hilfe des Kriteriums „Anzahl unterschiedlicher Erzeugnisse", die auf diesen Einrichtungen produziert werden können, ergibt sich ein entgegengesetzter Verlauf. Während auf einer Flexiblen Transferstraße nur eine sehr niedrige Anzahl unterschiedlicher Erzeugnisse (3-15 Stück) gefertigt werden kann, ist auf den NC-Fertigungseinrichtungen eine hohe Anzahl unterschiedlicher Erzeugnisse (250-1000 Stück) zu produzieren. Dabei stellen die bei den einzelnen Fertigungsalternativen angegebenen Stückzahlen nur grobe Schätzwerte dar. 18 Die Reihenfolge der zu behandelnden fertigungstechnologischen Wahlmöglichkeiten soll und kann jedoch keine generelle Vorteilhaftigkeitsrang14

Numerical Control-Werkzeugmaschinen.

15

Computerized Numerical Control-Steuerung.

16

Direct Numerical Control-Betrieb.

17

Vgl. Helberg, P.: PPS als CIM-Baustein. Gestaltung der Produktionsplanung und -Steuerung für die computerintegrierte Produktion, Berlin 1987, S. 58. 18

Vgl. Spur, G. und Specht, D.: Fortschritte der Fertigungstechnik verändern die Fabrik, in: Der Technologie-Manager, 34 (1985), S. 22-25. Die Autoren sehen den Einsatzbereich für Flexible Fertigungssysteme bei einer Anzahl von 4-100 und für Flexible Fertigungszellen bei einer Anzahl von 40-800.

Transferstraße

mittlere Anzahl unterschiedlicher Erzeugnisse

(100-200 Stück)

hohe Anzahl unterschiedlicher Erzeugnisse

(250-1000 Stück)

Quelle: Kaluza 1989, S. 114, Abb. 3.1 w

,

. ^

.

(50-120 Stück)

mittlere Anzahl unterschiedlicher Erzeugnisse

mehrstufige Bearbeitung

L

Rüstungen für begrenztes Teilespektrum im

, .

(15-60 Stück)

(3-15 Stück)

niedrige Anzahl sehr niedrige Anzahl unterschiedlicher unterschiedlicher Erzeugnisse Erzeugnisse

Werkzeugwechsel kein manuelles selbststeuernde, Rüsten für begrenztes teilautonome SystemstHlstand möglich Arbeitsgruppen erforderlich

Abb. 1. Merkmale moderner Fertigungstechnologien

,

Werkzeugwechsel

A

-SSSSSer

Shemna

Wer^euawechsel^sterne als Ergänzungssysteme

auiumaiibiener

einstufige und/oder mehrstufige Bearbeitung

Maschinenungetakteter ungetakteter getakteter beschickung Transport Transport Transport -Werkzeugmaschinen gerichteter automatisierter, automatisierter, mit einem Pufferplatz Materialfluß ungerichteter gerichteter - Werkzeugmaschinen automatisierter Materialfluß Materialfluß

Wprk yf> · · ·, ri 0-1,

- M \ y {i\ y\ p\ yf,-, p)-1,

vT)

(5)

Die so ermittelbare Kostenartengesamtabweichung gilt aus verschiedenen Gründen als ungeeignet zur Durchführung einer wirksamen Kostenkontrolle. Die Ursachen dieses Umstandes sowie die Schritte zu seiner Beseitigung sind nachfolgend zu erläutern. Zudem muß betont werden, daß eine solche kostenartenbezogene Gesamtabweichung praktisch in keinem Teilbereich der Kostenrechnung ermittelt wird — genausowenig wie eine kostenstellenbezogene Gesamtabweichung in dieser Form.

26

Vgl. Kilger, Kostenkontrolle, S. 461-462.

27

Vgl. Kilger, Kostenkontrolle, S. 462.

Abweichungsanalyse und Aussagefähigkeit im System der Kostenkontrolle

251

III. Abspaltung und Ausschaltung der Wirkungen wichtiger Kostenbestimmungsfaktoren im Rahmen der Gesamtabweichung Neben der Funktionsgleichung der Kostenarten muß auch die Grundgleichung der Kosten als wesentlicher Ausgangspunkt der Kostenkontrolle angesehen werden. Danach gilt für jede Kostenart: K v = mv χ qv

(6)

Hierbei seien m v der Ausdruck für die Mengenkomponente der Kostenart ν und qv derjenige für deren Preiskomponente. Diese Gleichung, in der zunächst nicht die Einflußfaktoren, sondern die Komponenten jeder Kostenart verdeutlicht werden, kann zur Kategorisierung der wichtigsten Kostenbestimmungsfaktoren herangezogen werden. So soll im weiteren Verlauf der Untersuchung zwischen den Einflußgrößen, die auf die Höhe der Preiskomponente q einer Kostenart wirken, und denjenigen unterschieden werden, die auf die Höhe ihrer Mengenkomponente m wirken. 28 Dementsprechend erfolgen auch Ermittlung und Untersuchung der wichtigsten Teilabweichungen im Rahmen der Kostenkontrolle getrennt nach Abweichungen der Preiskomponente und nach solchen der Mengenkomponente. Bei der Ermittlung der Preisabweichung geht man davon aus, daß alle auf die Preishöhe wirkenden Einflußgrößen wie ein Kostenbestimmungsfaktor wirken. In Gleichung (2) wird dies durch das Symbol y { zum Ausdruck gebracht. Im Rahmen der Analyse der Mengenabweichung hingegen wird versucht, die Wirkungen der vielfältigen Einflußgrößen auf die Höhe der Mengenkomponente einzeln zu erfassen und zu isolieren. Die übrigen Symbole der rechten Seite von Gleichung (2) repräsentieren dementsprechend die Vielzahl der in diesem Zusammenhang denkbaren Einflußgrößen. 29 Hinter diesen unterschiedlichen Ansätzen für die beiden Komponenten jeder Kostenart steht die Annahme, daß die hauptsächlich aus dem Beschaffungsmarkt wirkenden Preisbestimmungsfaktoren durch den Betrieb nicht beeinflußbar und damit die durch Schwankungen dieser Größen verursachten Abweichungen auch Betriebsteilen oder -mitgliedern nicht zurechenbar sind. Von den Einflußgrößen der Mengenkomponente, d.h. der Verzehrsmenge einer Faktorart, dagegen nimmt man an, daß viele von ihnen durch Entscheidungsträger der Unternehmung steuerbar sind. Die durch ihre Änderungen auftretenden Kostenabweichungen können damit auch den entspre-, chenden Personen oder Betriebsbereichen zugeordnet werden.

28 Von funktionalen Beziehungen zwischen diesen Einflußgrößenkategorien wird hier abstrahiert. Vgl. Kilger, Plankostenrechnung, S. 135-137; Haberstock, Kostenrechnung, S. 50. 29

Vgl. dazu Kap. B.II, dieser Untersuchung.

252

Thomas Hänichen und Thomas Nagel

1. Die Abspaltung der Preisabweichung Anstelle der Ermittlung kostenartenweiser Gesamtabweichungen erfolgt der erste Schritt der Kostenkontrolle regelmäßig mit der Ermittlung der auf Änderungen oder unplanmäßiges Eintreten der Kosteneinflußgröße „Faktorpreis" rückführbaren Abweichung jeder Kostenart. Durch das gleichzeitige Ausschalten dieser Abweichung wird die Gesamtabweichung der betrachteten Kostenart um den Anteil reduziert, den die Preisänderung verursacht hat. An dieser Stelle wird deutlich, warum bisher von einer Gesamtabweichung einzelner Kostenarten ausgegangen wurde: Ermittlung und Abspaltung dieser ersten Teilabweichung erfolgen keineswegs kostenstellenweise, sondern nur kostenartenweise beim Eingang der Faktorarten in den Betrieb oder in die Fertigung. 30 Diesem Kontrollvorgang liegt auch keine kostenstellenweise Planung der Verrechnungspreise zugrunde, vielmehr geschieht auch dies regelmäßig durch zentrale Stellen wie die Einkaufsabteilung, die Personalabteilung oder das interne Rechnungswesen. Ebensowenig kommt es zu einer kostenstellenweisen Erfassung der Istpreise; auch hier werden der Einkauf oder die Personalabteilung für sämtliche unter ihre Zuständigkeit fallenden Kostenarten tätig. Die Ermittlung der Preisabweichung erfolgt dem rechentechnischen Grundsatz der Kostenkontrolle entsprechend dergestalt, daß von den reinen Istkosten einer zugegangenen Kostenart eine Maßgröße dieser Kostenart subtrahiert wird, die dann eingetreten wäre, wenn die Kostenbestimmungsgröße „Faktorpreis" (y,) planmäßig gewirkt hätte, alle übrigen Einflußgrößen dieser Kostenart, d.h. alle auf die Mengenkomponente wirkenden Einflüsse, jedoch wie in den reinen Istkosten ihre effektive Ausprägung erreicht hätten: =ßyf,yf,y

( p ( ) l \yf,-,y : -1,yf)

(7)

Diese Maßgröße bezeichnet man auch als „Istkosten i.S. der Plankostenrechnung". Als Ergebnis des Vergleichs ergibt sich in Anlehnung an Gleichung (5) folgender Ausdruck der Preisabweichung einer Kostenart v: AK v q = Kf - K {P

(8) Diese Abweichung ist noch weit vom Umfang der Gesamtabweichung nach Gleichung (5) entfernt. Sie läßt sich interpretieren als die Preisabweichung einer Kostenart, bezogen auf deren Istmengengerüst. 31 30 Zur Zugangs- und Abgangsmethode als den beiden denkbaren Verfahren zur Ermittlung von Preisabweichungen vgl. Kilger, Plankostenrechnung, S. 219-230. 31 Gleichung (8) kann nicht auf die zunächst vorstellbare Form ΔK v = f i y ^ - f i y ^ ) reduziert werden, da in diesem Fall nicht nur das Mengengerüst der Abweichung fehlen

Abweichungsanalyse und Aussagefähigkeit im System der Kostenkontrolle

253

Die Abspaltung dieser so ermittelten Teilabweichung von der (gar nicht errechneten) Gesamtabweichung wird dadurch erreicht, daß für den weiteren Verlauf der Plankostenrechnung diese Istkosten i.S. der Plankostenrechnung anstelle der reinen Istkosten verwendet werden. Auf diese Weise wird die Preisabweichung von der kostenstellenweisen Ermittlung der noch verbleibenden Teile der Gesamtabweichung ferngehalten; dies entspricht der Zielsetzung der Kostenkontrolle, der Suche nach Entstehungsort, Verantwortlichkeit und Beeinflußbarkeit der Teilabweichungen: Die Entstehung dieses Teils einer jeden kostenartenweisen Gesamtabweichung kann nie den Leitern der Kostenstellen oder Betriebsbereiche angelastet werden, in denen diese Faktorart verzehrt wird; diese haben auch keinerlei Möglichkeit, die Höhe der Istpreise und damit die Höhe dieser Abweichung in Zukunft zu ändern. Allenfalls der Einkaufs- oder Personalabteilung können Abweichungsverantwortung oder Beeinflussungsmöglichkeit zugestanden werden, wenn nicht sogar die Umwelt des Unternehmens alleine für die Abweichung verantwortlich zeichnet. Nach Abspaltung der Preisabweichung verbleibt als noch aufzuspaltender Rest der theoretisch vorstellbaren Gesamtabweichung einer Kostenart eine Größe, die sich aus der Subtraktion der Preisabweichung (Gleichung (8)) von der Kostenartengesamtabweichung (Gleichung (5)) ergibt und als diejenige Abweichung interpretiert werden kann, die durch das unplanmäßige Eintreten aller auf die Mengenkomponente dieser Kostenart wirkenden Einflußgrößen hervorgerufen wird. Diese „Mengenabweichung" läßt sich folgendermaßen als Gleichung darstellen: 32 AK v m =

= =ä/k\

AK v-AK v q

y (B p\

y[ p\ y {2 p\ · · i ,

yi p))

y (B, y ( p\ yi\ · · · > ji -1> /n)

(9) würde, sondern darüber hinaus die Einflußgrößen der Mengenkomponente auch auf die Preisabweichung wirken. Vgl. dazu Kap. C. dieser Untersuchung. 32 Der letzte Term der Gleichung (9) dient nur der theoretischen Darstellung des Ergebnisses einer solchen kostenartenweisen Gegenüberstellung von Istkosten i.S. der Plankostenrechnung und Plankosten. Als praktisch handhabbare Form kann nur der vorletzte Term angesehen werden, in dem der Planpreis in beiden Teilen als Bewertungsgröße der Mengenbestandteile mitenthalten ist.

254

Thomas Hänichen und Thomas Nagel

2. Die Mengenabweichung als Gegenstand der kostenstellenweisen Kostenkontrolle Erst dieser nunmehr verbleibende Teil der kostenartenweisen Gesamtabweichung wird einer kostenstellenweisen Kostenkontrolle unterzogen. Dazu sind für jede Kostenart in den Stellen, in denen diese anfällt, unter Berücksichtigung der in der Stelle wirkenden Einflußgrößen Funktionsgleichungen der jeweiligen Plan- und Istkosten aufzustellen, in denen der Kostenbestimmungsfaktor „Faktorpreis" jeweils in seiner planmäßigen Ausprägung als wirksam geworden angenommen wird. Der Planpreis dient sowohl in der Ist- als auch in der Maßgröße dazu, diese beiden Größen rechen- und vergleichbar zu machen: Nur durch den Ansatz der Planpreise erhalten diese Größen überhaupt Kostencharakter; ohne eine solche Bewertung lägen rein mengenmäßige Betrachtungen vor. 33 Es werden also kostenstellenweise von den Istkosten i.S. der Plankostenrechnung jeder Kostenart deren Plankosten subtrahiert. Wählt man j als Index zur Kennzeichnung der Kostenstelle, so gilt für den Ausgangspunkt der kostenstellenweisen Kontrolle: AK ^

xv

· = Κ ( ί* }· — K ip) ·

vmj

-A/i\

y {i\ y[ p\ y (I\...,yi»i,

yl p))

(io)

Wenngleich in dieser Ausgangsform aus rechentechnischen Gründen sowohl die Ist- als auch die Maßgröße den planmäßig wirksam gewordenen Kostenbestimmungsfaktor „Preis" enthält, so führt doch jede Gegenüberstellung der in dieser Gleichung enthaltenen Funktionen zum Ausweis eines Ergebnisses in Form einer kostenstellenweisen Ausprägung des letzten Terms der Gleichung (9), da sich die beiden identischen Ausprägungen des Planpreises gegenseitig aufheben: a K vm j

=

yf,..., y (n°-1, y ( ni}) -f(y (K p\y (B p\y (2 p),..-,yi p>i,y ( np))

(ii)

Diese Verfahrensweise führt damit nicht nur — wie bereits angedeutet — zu einer bleibenden Abspaltung der Preisabweichung, sondern darüber hinaus zur Reduktion der Kostenstellenabweichung auf eine der Faktormengenabweichung proportionale Größe 34 ; die Preisabweichung wird von der Kostenstelle, welche diese nicht zu verantworten hat, ferngehalten. 35 33 Nach den Ausführungen des vorangegangen Kapitels kommt der Istpreis als Bewertungsansatz nicht mehr in Frage, wenngleich auch dieser Ansatz grundsätzlich zur Rechen- und Vergleichbarkeit führen würde. 34 Vgl. Mellerowicz, K.: Planung und Plankostenrechnung, Band II, Plankostenrechnung, Freiburg i. Br. 1972, S. 85.

Abweichungsanalyse und Aussagefähigkeit im System der Kostenkontrolle

255

Der erste Schritt dieser im weiteren Verlauf also kostenstellen- und -artenweisen Kontrolle der Mengenkomponente der Kosten besteht allerdings nicht in der Ermittlung und Abspaltung weiterer Teilabweichungen; vielmehr werden in der flexiblen Plankostenrechnung zunächst die Wirkungen zweier Kostenbestimmungsfaktoren ausgeschaltet: die der Kapazität und die der Beschäftigung der jeweiligen Kostenstelle, d.h. die Wirkungen der primären Kostenbestimmungsfaktoren.

a) Die Ausschaltung der Kosteneinflußgröße „Kapazität" Unter der Kapazität einer Kostenstelle soll der dort vorliegende „Stand der Betriebsbereitschaft" 36 verstanden werden, der sich quantitativ „durch den Bezugsgrößenwert ihres bei dieser Betriebsbereitschaft maximal realisierbaren Produktionsbeitrages ausdrücken" 37 läßt. Da die Kostenrechnung auf die Abbildung des kurzfristigen Betriebsgeschehens und des kurzfristigen Faktorverzehrs ausgerichtet ist, bedient man sich der Hilfsbezugsgröße „Kalenderzeit" 38 und bestimmt Planungs- und Abrechnungsperioden von entsprechend kurzer Dauer. 39 Dadurch werden die Faktormengen und Kostenbestandteile, deren Höhe allein vom Ablauf der Kalenderzeit abhängt, für den eingegrenzten Betrachtungszeitraum unveränderlich; Planhöhe und Isthöhe stimmen in jedem Fall überein. Derartige Kostenkomponenten sind vor allem diejenigen, welche durch die Kapazitäten betrieblicher Teilbereiche und deren Änderungen ausgelöst werden, da der Auf- und Abbau dieser Kapazitäten regelmäßig die Folge langfristiger Ent35

Im Gegensatz zur Preisabweichung wird hier die Mengenabweichung auch in der Form gezeigt, die sich ergibt, wenn die Einflußgröße „Faktorpreis" durch die Gegenüberstellung ausgeschaltet wird. Dies ist sinnvoll, da es für die Aussagefähigkeit eines solchen preisfixierten Mengen Vergleichs (Vgl. Mellerowicz. S. 85) unerheblich ist, welcher Preis als Verrechnungspreis gewählt wird (Vgl. Haberstock, S. 197) und die Wirkungen der Bestimmungsgröße „Faktorpreis" ohne Einfluß auf die Mengenabweichung bleiben. Es sei allerdings nochmals darauf hingewiesen, daß für die praktische Durchführung der Kostenkontrolle nur die Gleichung (10) verwendet werden kann; die Gleichung (11) dient hier nur zur Darstellung des Ergebnisses. 36

Kilger, Kostenkontrolle, S. 458.

37

Kilger, Kostenkontrolle, S.458. Da mit dieser Definition nichts anderes gemeint ist als die maximal mögliche Beschäftigung der Kostenstelle, setzt Kilger offenbar voraus, daß als Bezugsgröße der Kostenstelle ein Maßstab der Beschäftigung herangezogen wurde. Die Möglichkeit, daß auch andere Einflußgrößen als Grundlage der Bezugsgrößenwahl herangezogen werden könnten, bleibt unberücksichtigt. 38 39

Haberstock, S. 52.

Die Dauer der Planungsperiode beträgt i.d.R. ein Jahr, die der Abrechnungsperiode einen Monat. Aufgrund der kürzeren Abrechnungsperiode muß allerdings auch die jahresbezogene Planung der Kosten monatsgenau erfolgen oder die Jahresplanung muß zumindest auf die einzelnen Monate heruntergebrochen werden, um monatliche Vergleichsmaßstäbe zu erhalten, die sich im Rahmen der monatlichen Kostenkontrolle den für diesen Zeitraum erfaßten Istkosten gegenüberstellen lassen.

Thomas Hänichen und Thomas Nagel

256

Scheidungen ist und auch eine langfristige Kostenwirkung von ihnen ausgeht. Kurzfristig — also unter Berücksichtigung der o.g. Hilfsbezugsgröße — geht man von der Prämisse eines unveränderten Standes der Betriebsbereitschaft aus. Damit wird auch die von der Betriebsbereitschaft ausgehende Kostenwirkung als gleichbleibend innerhalb des Betrachtungszeitraumes angenommen. Die Kapazitäten betrieblicher Teilbereiche bestimmen insofern die beschäftigungsfixen und nur kalenderzeitabhängigen Bestandteile der Kostenarten einer Kostenstelle. Die flexible Plankostenrechnung, aber auch die Grenzkostenrechnung zu Istkosten berücksichtigen diesen Umstand durch die Kostenspaltung. Die Gleichung (2) kann — unter Vernachlässigung der Einflußgröße „Faktorpreis", deren Wirkung für die Kostenstelle ausgeschaltet ist — reduziert werden auf die folgende Form: Kvmjp = Ay» y2,-;y n-i,

y n)

(12)

Der Index ρ soll ausdrücken, daß es sich bei den nunmehr zu betrachtenden Kosten nur noch um die proportionalen Mengenbestandteile40 einer Kostenart handelt. Entsprechend gilt für die Istkosten i.S. der Plankostenrechnung (Gleichung (7)) und die Plankosten als Maßgröße (Gleichung (4)):

(13)

Der Kostenbestimmungsfaktor „Kapazität" ist also in der kurzfristigen Betrachtung ohne Einfluß auf die Höhe der entscheidungsrelevanten variablen Kosten und führt unter der Prämisse der Identität von Ist- und Planausprägung im kurzfristigen Betrachtungszeitraum zu keiner Kapazitätsabweichung als Teil der Gesamtabweichung. Die in der noch zu untersuchenden Abweichung jeder Kostenart einer jeden Kostenstelle gegenüberzustellenden Funktionsgleichungen sind nunmehr um die Größe „Kapazität" bereinigt, so daß diese Restabweichung wie folgt ermittelt werden kann: AK

. = K^. =f\yK,yï\y\

-K (p ). p

\y {?,-,y {?-i,yf)

=fiyf,y[ p\yf,-,y?- 1,/t >) - M \ y\ p\ #>···, Α» i, y (n p>)

(15)

Gleichung (15), in der durch den Ansatz der Planpreise die Rechen- und Vergleichbarkeit der gegenüberzustellenden Mengenkomponenten gewähr40 Es wird also unterstellt, daß sich die variablen Kosten in einer proportionalen Abhängigkeit zu der Beschäftigung verhalten. Vgl. Jacobs, S. 120-124.

Abweichungsanalyse und Aussagefähigkeit im System der Kostenkontrolle

257

leistet ist, dient als Ausgangspunkt der weiteren Kostenkontrolle; mit Gleichung (16) hingegen soll nur das (rein mengenbezogene) Ergebnis einer solchen Gegenüberstellung verdeutlicht werden:

-MW.V,...,^!,^)

(16)

Damit beschränkt sich die weitere Kontrolle der Kosten auf die variablen (mit Planpreisen bewerteten) Mengenbestandteile der in den Kostenstellen auftretenden Kostenarten; deren (mit Planpreisen bewertete) Istausprägung wird der planmäßig erwarteten Ausprägung gegenübergestellt. b) Die Ausschaltung der Einflußgröße „Beschäftigung" Auch für den zweiten primären Kostenbestimmungsfaktor, die Beschäftigung, wird in der flexiblen Plankostenrechnung keine Teilabweichung ermittelt oder abgespalten, sondern es kommt gleichfalls nur zu einer Eliminierung dieser — im Gegensatz zur Wirkung der Einflußgröße „Kapazität" immerhin theoretisch errechenbaren — Abweichung für jede Kostenart einer jeden Kostenstelle. Ausgangspunkt dieser Ausschaltung ist die Festlegung der Planbeschäftigung 41 und die Bestimmung der für diese Beschäftigung bei planmäßigem Eintreten aller anderen Kostenbestimmungsfaktoren angemessenen Kosten, d.h. der Plankosten. In der zu betrachtenden Abrechnungs- und Kontrollperiode wird jedoch regelmäßig eine andere Beschäftigung realisiert, eben die Istbeschäftigung. Da jedoch dieses unplanmäßige Eintreten des Kostenbestimmungsfaktors „Beschäftigung" weder durch den Kostenstellenleiter zu verantworten ist noch durch kostenstellenbezogene Dispositionen entsteht, sondern (als sog. Anpassungsentscheidung) nur die Folge übergeordneter Entscheidungen sein kann, darf die dadurch verursachte Kostenabweichung der Kostenstelle nicht zugeordnet werden. Vielmehr muß sich die kostenstellenweise Kontrolle der Kostenarten auf die dort beeinflußbaren oder verursachten Abweichungen beschränken. 42 Um dies zu erreichen, werden die 41 Ausgedrückt wird diese Planbeschäftigung durch den Plan wert einer geeigneten Bezugsgröße. Die Bezugsgröße soll daher als rechentechnischer Maßstab der Einflußgröße (hier: der Beschäftigung) verstanden werden. Zum Zusammenhang von Einfluß- und Bezugsgröße vgl. Haberstock, S. 51. 42 In der einschlägigen Literatur wird eine andere Argumentation herangezogen, um die Ausschaltung der auf Beschäftigungsschwankungen zurückzuführenden Abweichungen zu rechtfertigen: Es sei nicht sinnvoll, Kostengrößen miteinander zu vergleichen, denen unterschiedliche Beschäftigungsgrade zugrunde liegen (Vgl. Kilger, Plankostenrechnung, S. 51; Haberstock, S. 20). Diese Argumentation greift aber nur insofern, als die jeweilige Kostenstelle das unplanmäßige Eintreten der Beschäftigung i.d.R. nicht zu verantworten hat und daher die Abweichung aufgrund der Beschäftigungsänderung eine in der Kosten-

17 Festgabe v. Kortzfleisch

258

Thomas Hänichen und Thomas Nagel

Plankosten auf die Istbeschäftigung umgerechnet, d.h. man schafft für die variablen Bestandteile einer jeden Kostenart eine neue Maßgröße, indem man ihre variablen Plankosten mit dem Ist-Beschäftigungsgrad multipliziert und auf diese Weise (variable) Sollkosten 43 erhält. In der Gleichung (14) läßt sich dies dadurch ausdrücken, daß man alle noch verbliebenen Kostenbestimmungsfaktoren in ihrer planmäßigen Ausprägung ansetzt, die Beschäftigung jedoch in der effektiv eingetretenen Ausprägung. Das funktionale Zusammenwirken dieser Faktorausprägungen führt zu variablen Kosten, die bei Istbeschäftigung hätten anfallen „sollen", wenn alle übrigen (sekundären) Kostenbestimmungsfaktoren planmäßig eingetreten wären: K^JP = Α / ^ / ι Ρ \ / 2 Ρ \ : ; / η * ι , / η ρ ) )

(17)

Diese werden dann dem rechentechnischen Grundsatz entsprechend von den Istkosten i.S. der Plankostenrechnung subtrahiert. K^jp

(13)

Da in beiden Funktionen die Kosteneinflußgröße Beschäftigung in derselben Ausprägung, nämlich als Istbeschäftigung, angesetzt wurde, führt die Gegenüberstellung der Ist- und der Maßgröße zu keiner auf die Beschäftigungsänderung rückführbaren Teilabweichung: AK

· = Κ ( ί* }· - K is) · - Ây (B, ήρ\

· · ·, 34p- ι , yP)

- f l y f ^ - ^ - x , ^ )

(18)

Als Ergebnis jeder Gegenüberstellung von Istkosten i.S. der Plankostenrechnung und Sollkosten in dieser Ausgangsform der weiteren Kostenkontrolle ergibt sich:

-Λ/2Ρ\··,/η*ι,/ηρ))

(19)

Stellenkontrolle störende Größe ist. Grundsätzlich kann es jedoch sehr wohl von Interesse sein, zu erfahren, welcher Teil der Kostenabweichung durch die Beschäftigungsänderung verursacht wurde. Mit der gleichen Argumentation könnte man jede andere Teilabweichung ebenfalls für nicht aussagefähig erklären; schließlich handelt es sich immer um das Ergebnis einer Gegenüberstellung von Kosten, die auf der Annahme unterschiedlicher Ausprägungen einzelner Kostenbestimmungsfaktoren beruhen. 43 Hier werden also im weiteren Verlauf nur die variablen Sollkosten betrachtet. Es ist für die vorliegende Untersuchung unerheblich, ob man die Fixkosten zu den Sollkosten zählt oder nicht.

Abweichungsanalyse und Aussagefähigkeit im System der Kostenkontrolle

259

Wenngleich auch hier die Wirkung einer Einflußgröße nicht ausgewiesen, sondern eliminiert wurde, so ist doch ein wesentlicher Unterschied zur Vorgehensweise bei der Ausschaltung der KapazitätsWirkung zu beachten: Während dort aufgrund der Prämisse der Identität von Ist- und Plankapazität und damit der Identität von Ist- und Plankapazitätskosten (Ist- und Planfixkosten) keine Abweichung ermittelbar war, wird hier von der Möglichkeit einer echten Beschäftigungschwankung und damit von einer durch diese Schwankung hervorgerufenen Kostenabweichung ausgegangen. Eine derartige Abweichung ist ermittelbar, wird auch abgespalten und muß der bisher gewählten Terminologie folgend als „Beschäftigungsabweichung" bezeichnet werden. Allerdings verzichtet die flexible Plankostenrechnung auf den Ausweis dieser Größe. 44 Graphisch läßt sich die Umrechnung der variablen Plankosten einer Kostenart auf die Istbeschäftigung und die mögliche Ermittlung der „Beschäftigungsabweichung" folgendermaßen veranschaulichen:

Abb. 1. Ausweis der Beschäftigungsabweichung 45

44

Diese Beschäftigungsabweichung ist nicht zu verwechseln mit der Beschäftigungsabweichung, wie sie in der flexiblen Plankostenrechnung auf Vollkostenbasis ausgewiesen wird und bei der es sich lediglich um eine Fixkostenverrechnungsdifferenz handelt. Vgl. Haber stock, S. 262. 45

1*

In Anlehnung an Haberstock, S. 264.

260

Thomas Hänichen und Thomas Nagel

Es verbleibt eine kostenstellenbezogene Kostenartenabweichung, die um die Wirkung jener Bestimmungsgrößen bereinigt ist, von denen angenommen wird, daß sie in der Kostenstelle nicht beeinflußbar sind. Um diesen Zustand zu erreichen, wurde die Preisabweichung dieser Kostenart gesamtbetrieblich abgespalten und „gespeichert", die Kosteneinflußgröße „Kapazität" wurde als kurzfristig wirkungslos erkannt und konnte daher kostenstellenweise ignoriert oder ausgeschaltet werden und die Wirkung der Einflußgröße „Beschäftigung" wurde — ebenfalls kostenstellenweise — eliminiert. Die nunmehr verbleibende Abweichung jeder Kostenart einer jeden Kostenstelle ist der weiteren Analyse zu unterziehen, um — der Aufgabenstellung entsprechend — Teilabweichungen auf sie verursachende und vom Entscheidungsträger beeinflußbare Bestimmungsgrößenänderungen zurückzuführen. c) Die globale Verbrauchsabweichung als Ausgangspunkt der Analyse aussagefähiger Spezialabweichungen Gegenstand der weiteren Kostenkontrolle ist also eine Kostenabweichung, die aus der Gegenüberstellung (variabler) Sollkosten und (variabler) Istkosten i.S. der Plankostenrechnung (Gleichung (18)) resultiert und als „globale Verbrauchsabweichung" bezeichnet wird. Bis zu diesem Zeitpunkt wurde die Plan- oder Maßgröße (hier: die Sollkosten) nur an eine Einflußgröße — die Beschäftigung — angepaßt46; es liegt zunächst eine sog. „einfach-flexible" Plankostenrechnung vor. Die globale Verbrauchsabweichung einer Kostenart kann interpretiert werden als das Resultat des gemeinsamen kostenstellenweisen Wirkens der Schwankungen aller noch verbliebenen sekundären Kostenbestimmungsfaktoren auf diese Kostenart. Die darin enthaltenen Teilabweichungen sind größtenteils auf Kostenbestimmungsfaktoren zurückzuführen, die „hinter" der Haupteinflußgröße Beschäftigung wirken. Diesen Umstand macht man sich in der Praxis zunutze, indem man über die Veränderung einzelner oder mehrerer dieser Größen die Kostenstellenleistung an die durch übergeordnete oder vorgelagerte Instanzen bestimmte Istbeschäftigung anzupassen versucht (sog. Anpassungsentscheidungen). So kann z.B. durch eine Veränderung der Fertigungsauftragszusammensetzung gegebenenfalls in Verbindung mit einer Seriengrößenänderung die Istbeschäftigung einer Fertigungskostenstelle erreicht werden. In solchen Fällen können also die Bereichs- oder Kostenstellenleiter verantwortlich gemacht werden für die Kostenabweichungen, die durch derartige Anpassungen der Kostenbestimmungsfaktoren an die Ist46 Es sei nochmals darauf hingewiesen, daß Ermittlung und Abspaltung der Preisabweichung nicht durch eine Anpassung der Maßkosten an die Istbezugsgröße (in diesem Fall: den Istpreis), sondern umgekehrt durch eine Manipulation der Istkosten erfolgt. Damit ist in dieser Hinsicht nicht das Kriterium erfüllt, um von einer diesbezüglich flexiblen Kostenrechnung zu sprechen. Zur Definition der flexiblen Kostenrechnung vgl. Kilger, Plankostenrechnung, S. 51.

Abweichungsanalyse und Aussagefähigkeit im System der Kostenkontrolle

261

beschäftigung hervorgerufen werden. Sie tragen zwar nicht die Verantwortung für die Höhe der Istbeschäftigung, aber für die Art und Weise, wie in der einzelnen Kostenstelle diese Istbeschäftigung erreicht wird. Hier kann von einer auf die sekundären Kostenbestimmungsfaktoren bezogenen sekundären Kostenverantwortlichkeit gesprochen werden. Gleichzeitig bilden die ausgewiesenen Teilabweichungen auch die Grundlage für Anpassungsentscheidungen zur Erreichung der Istbeschäftigung zukünftiger Perioden oder für Entscheidungen zur Korrektur der Vorgabewerte. Änderungen anderer Kostenbestimmungsfaktoren wie z.B. der Faktorqualität können dagegen auch aus einer Anpassung an bestimmte Beschaffungssituationen resultieren. Vor dem Hintergrund vorstehender Überlegungen muß es Aufgabe der kostenstellenweisen Kostenkontrolle sein, Teilabweichungen auszuweisen, die sich den Veränderungen dieser Größen zuordnen lassen. Theoretisch müßten mithin Auftragszusammensetzungsabweichungen, Verfahrensabweichungen, Intensitätsabweichungen, Arbeitsbedingungsabweichungen, Abweichungen aufgrund veränderter Materialbeschaffenheit sowie solche aufgrund unplanmäßiger Qualifikation der Arbeitskräfte und schließlich (Un)wirtschaftlichkeitsabweichungen jeder Kostenart ermittelt werden. Der Katalog der in der Praxis ermittelbaren Abweichungen ist jedoch grundsätzlich umfangreicher, da einige der o.g. Abweichungen ihrerseits wiederum in praktisch bedeutsame Teilabweichungen zerlegt werden können. Zudem unterscheidet man regelmäßig nach solchen Abweichungen, die typischerweise bei Einzelmaterialkosten, bei Einzellohnkosten und bei Gemeinkosten auftreten. 47 In Abhängigkeit von den betriebsspezifischen Gegebenheiten werden im Einzelfall jedoch nur wenige der insgesamt vorstellbaren Teilgrößen abgespalten. Man bezeichnet diese auf Änderungen sekundärer Kostenbestimmungsfaktoren rückführbaren Teilabweichungen als Spezialabweichungen. Die Spezialabweichungen aller sekundären Kostenbestimmungsfaktoren mit Ausnahme der schwer quantifizierbaren Größe „Wirtschaftlichkeitsgrad der innerbetrieblichen Betätigung" lassen sich sukzessive von der globalen Verbrauchsabweichung abspalten, indem eine Anpassung der Maßkosten an die Istausprägung des jeweils relevanten Kostenbestimmungsfaktors erfolgt. 48 47

Vgl. Agthe, S. 25-41 \ Haberstock, S. 287-288, S. 292-294 u. S. 313-314. Als typische Einzellohnkostenabweichungen gelten Lohnsatzabweichungen, auftragsbedingte, verfahrensbedingte, störungsbedingte Abweichungen sowie Lohnabweichungen aufgrund von Anlernzeiten, Planungsfehlern und Leistungsgradänderungen. Als typische Einzelmaterialkostenabweichungen gelten auftragsbedingte, mischungsbedingte und materialbedingte Abweichungen. Als typische Gemeinkostenabweichungen gelten Seriengrößen-, Bedienungsverhältnis-, Maschinenbedienungs- und Verrechnungsabweichungen. 48 Vgl. Haberstock, S. 266-270. Allerdings kann auch — wie dies bereits bei der Ermittlung der Preisabweichung geschehen ist — eine Anpassung der Istkosten an die planmäßige Ausprägung der relevanten Einflußgröße erfolgen, um die Spezialabweichung

262

Thomas Hänichen und Thomas Nagel

Auf diese Weise läßt sich für jede Einflußgröße ein Sollkostenverlauf festlegen; insofern kann in diesem Zusammenhang von einer „mehrfach-flexiblen" Plankostenrechnung 49 gesprochen werden. Nachdem die Abweichungen sämtlicher bekannter, gewünschter und erfaßbarer Einflußgrößen von der globalen Verbrauchsabweichung abgespalten wurden, verbleibt eine Restgröße, die nicht durch Schwankungen der zuvor berücksichtigten Kostenbestimmungsfaktoren erklärt werden kann. Sie wird häufig als Wirkung der Einflußgröße „innerbetriebliche Unwirtschaftlichkeit" 5 0 angesehen. Dies ist jedoch insofern fragwürdig, als diese Restgröße durch Schwankungen verschiedener nicht bekannter oder im Rahmen der Abweichungsanalyse bewußt vernachlässigter Kostenbestimmungsfaktoren verursacht wird. Würden auch diese in die Abweichungsanalyse einbezogen, so verbliebe keine derartige Restgröße. Insofern erscheint es sinnvoller, hier von einer „Restabweichung" zu sprechen 51, die somit eine Sammelposition für alle Abweichungen der im Rahmen der Abweichungsanalyse nicht speziell berücksichtigten Einflußfaktoren darstellt. Nun kann aber die Schwankung eines jeden Kostenbestimmungsfaktors und damit die Entstehung jeder theoretisch denkbaren Spezialabweichung durch (Un)wirtschaftlichkeiten bedingt sein. Die (Un)wirtschaftlichkeit darf also nicht als unmittelbar wirkender und erfaßbarer Einflußfaktor verstanden werden, dessen Schwankungen eine spezifische Teilabweichung entstehen lassen könnten; vielmehr kann sie ihre Wirkung nur über Veränderungen anderer Bestimmungsgrößen entfalten. Insofern kann auch die Restabweichung — wie jede Spezialabweichung — (Un)wirtschaftlichkeiten enthalten, allerdings nur solche, die sich hinter den Schwankungen der Einflußgrößen verbergen, deren Abweichungen nicht spezifisch erfaßt wurden und sich daher in dieser Residualgröße niederschlagen. Im Rahmen einer aussagefähigen Kostenkontrolle sollte man daher nicht nur die Restabweichung, sondern vor allem die Spezialabweichung daraufhin untersuchen, ob sie durch (un)wirtschaftliches Verhalten ausgelöst wurden oder auf unvermeidbare Maßnahmen zur Anpassung an gegebene Datenkonstellationen — ζ. B. die jeweilige Istbeschäftigung — zurückzuführen sind. Abb. 2 gibt einen Überblick über die bisher erläuterten, berücksichtigten und nicht eliminierten Abweichungen:

durch den Vergleich dieser neu geschaffenen Maßgröße mit den Kosten, in denen der betreffende Kostenbestimmungsfaktor effektiv gewirkt hat, zu ermitteln. Diese Vorgehensweise wählt Kilger (Vgl. Kilger, Plankostenrechnung, S. 171-175) und sie wird auch im weiteren Verlauf dieser Untersuchung zugrundegelegt. Letztlich führen beide Vorgehensweisen zu einer Anzahl von Sollkosten, die der Anzahl der Kostenbestimmungsfaktoren entspricht. 49

Vgl. Haberstock, S. 266.

50

Kilger, Plankostenrechnung, S. 174.

51

Zum gleichen Ergebnis kommt Haberstock, S. 260, wenngleich aufgrund anderer Überlegungen.

1

(globale Verbrauchsabw.)

1

Veränderungen

-Abweichung w/ organ, techn.

Auftragszusammensetzung

-Abweichung w/ geänderter

-Abweichung w/ Mehrarbeit

-Produktfolgeabweichung

-Seriengrößenabweichung

-Ausbeuteabweichung

-Intensitätsabweichung

(Restabweichung)

Spezialabweichungen echte Verbrauchsabweichung

ι

1 Mengrenabweichungen

Abb. 2. Relevante Abweichungsarten im Rahmen der Abweichungsanalyse52

1

52 In Anlehnung an Vormbaum, H./Rautenberg, H. G.: Kostenrechnung III für Studium und Praxis — Plankostenrechnung, Bad Homburg v.d.H. 1985, S. 241.

Preisabweichungren

ι

Kostenabweichungen

Abweichungsanalyse und Aussagefähigkeit im System der Kostenkontrolle 263

264

Thomas Hänichen und Thomas Nagel

Nach dieser Erörterung der prinzipiellen Vorgehensweise der Kostenkontrolle, soll es Gegenstand der weiteren Ausführungen sein, darzulegen, mit Hilfe welcher rechentechnischen Instrumente, d.h. mit welchen der sog. Verfahren der Abweichungsanalyse die Isolierung der auszuweisenden Teilabweichungen erfolgen kann und inwieweit dies in der erforderlichen Genauigkeit und Überschneidungsfreiheit gelingt. Ausgangspunkt solcher Überlegungen muß die Systematik der in diese Betrachtung einzubeziehenden Abweichungen sein. Dies sind nach den bisherigen Überlegungen grundsätzlich die kostenartenweise ermittelte Preisabweichung einerseits sowie die kostenstellen- und -artenweise ermittelte globale Verbrauchsabweichung: 53 AK v q = κγ

-

(8) AK

· = K iik )-

-

=Äy )

ρ )

y(n-1. /n p) )

(18)

Die weitere Analyse muß den vorstehenden Überlegungen entsprechend insbesondere auf die Aufspaltung der globalen Verbrauchsabweichung ΔΚ νη ι. in die verschiedenen Spezialabweichungen gerichtet sein, da die Abspaltung der Preisabweichung prinzipiell und auch verfahrenstechnisch festgelegt ist. Insofern sind die Verfahren der Abweichungsanalyse als Instrumente der kostenstellenweisen Kontrolle der sich aus der Gegenüberstellung von Sollkosten und Istkosten i.S. der Plankostenrechnung ergebenden Mengenabweichung zu verstehen. Diese dem systematischen Ablauf von Kostenrechnung und -kontrolle entsprechende Einordnung der Abweichungsanalyse liegt jedoch den Darstellungen der Analyseverfahren in der einschlägigen Literatur nicht zugrunde. 54 Vielmehr werden dort die Vorgehensweisen dieser Verfahren durch Beispiele veranschaulicht, in denen den Plankosten reine Istkosten, d.h. mit Istpreisen bewertete Istmengen, gegenübergestellt werden, so daß es zur Einbeziehung der Preisabweichung auch in die Abweichungsanalyse kommt. Damit wird die Reduktion der Kostenkontrolle auf eine preisfixierte Mengenrechnung wieder aufgehoben und die Abweichungsanalyse kann nicht mehr als ein auf die kostenstellenweise Kontrolle beschränkter Prozeß angesehen werden.

53 Der Kostenbestimmungsfaktor „Kapazität" wurde als kurzfristig wirkungslos erkannt (Vgl. Kap B.III.2.a)); die „Beschäftigungsabweichung" wurde eliminiert (Vgl. Kap. III.2.b)). 54

Vgl. u.a. Kilger, S. 171-174.

Abweichungsanalyse und Aussagefähigkeit im System der Kostenkontrolle

265

Nachfolgend soll durch Berücksichtigung beider Sichtweisen der Frage nachgegangen werden, ob sich aus den unterschiedlichen Interpretationen Konsequenzen für das Verhältnis von Abweichungsanalyse und Kostenkontrolle einerseits sowie für die Aussagefähigkeit der abgespaltenen Teilabweichungen andererseits ergeben. Dazu ist die Preisabweichung nicht nur als ein obligatorisches Ergebnis des Gesamtprozesses der Kostenkontrolle, sondern auch als Gegenstand der Abweichungsanalyse in die weiteren Betrachtungen einzubeziehen. Zuvor werden jedoch die Zurechnungsprobleme, die sich im Rahmen der Abweichungsanalyse ergeben, prinzipiell erläutert, da auch diese die Aussagefähigkeit der zu ermittelnden Teilabweichungen wesentlich beeinflussen können.

C. Das Phänomen der Abweichungen höheren Grades und seine Behandlung in den Verfahren der Abweichungsanalyse Nach den bisherigen Überlegungen muß es nunmehr konkretes Ziel der Abweichungsanalyse sein, die durch Veränderungen des Preises einerseits und den stellenweise auf die variable Mengenkomponte der Kosten wirkenden Einflußgrößen andererseits hervorgerufenen Kostenabweichungen exakt zu ermitteln und sie den verursachenden Einflußgrößenschwankungen ebenso exakt zuzurechnen. 55 Nur auf diese Weise sind Abweichungen hinreichend genau für Kontrollzwecke und als Grundlage für Entscheidungen ausweisbar. Es stellt sich daher die Frage, ob Teilabweichungen unter allen Umständen mit dieser gewünschten Genauigkeit ermittelbar sind und den verursachenden Größen oder deren Schwankungen zugewiesen werden können, wie dies für die bisher abgespaltenen Abweichungen unterstellt wurde. Für die Spezialabweichungen innerhalb der globalen Verbrauchsabweichung wurden Zurechnungsprobleme bereits angedeutet; unter Berücksichtigung der erneuten Einbeziehung der Preisabweichung in die Betrachtungen muß obige Frage auch für diese Abweichung aufgeworfen werden. Nachfolgend sollen zunächst die sog. Abweichungen höheren Grades als Ursachen derartiger Ermittlungs- und Zurechnungsprobleme sowie anschließend die daraus resultierenden Auswirkungen auf die Aussagefähigkeit der mit Hilfe der Analyseverfahren ausweisbaren Teilabweichungen erörtert werden. I. Das Auftreten von Abweichungen höheren Grades Ausgangspunkt aller bisherigen Überlegungen war die Unterstellung funktionaler Beziehungen zwischen einzelnen Einflußgrößen und der Höhe verschiedener Kostenarten. Durch derartige funktionale Beziehungen erfolgt jeweils eine Zuordnung der einzelnen Kostenbestimmungsgrößen als unab55

Vgl. Kap. B.II.

266

Thomas Hänichen und Thomas Nagel

hängige Variable auf die Höhe der jeweiligen Kostenart als abhängige Variable. Diese Zuordnung wird durch eine Verknüpfungsvorschrift konkretisiert, die den Einfluß eines jeden Kostenbestimmungsfaktors auf die betreffende Kostenart berücksichtigt. Die hierdurch erfolgende Verknüpfung der einzelnen Faktoren ist in additiver, multiplikativer, exponentieller oder anderer Form denkbar. 1. Ursachen für die Entstehung von Abweichungen höheren Grades Je nach Art der Verknüpfung können Veränderungen der Kostenbestimmungsgrößen nicht nur zu derartigen Schwankungen eindeutig zurechenbaren Abweichungen führen, sondern auch dazu, daß eine exakte Zuordnung sämtlicher Teile der zu analysierenden Abweichung auf die ihnen zugrundeliegenden Veränderungen der jeweiligen Einzelgrößen nicht möglich ist. Die dabei nicht eindeutig zurechenbaren Abweichungsbestandteile werden als Abweichungen höheren Grades bezeichnet. Eine solche Abweichungskomponente entsteht durch gleichzeitige Schwankungen zweier oder mehrerer Einflußgrößen, die in bestimmter Weise miteinander verknüpft sind, und ist dabei Bestandteil aller aus den Veränderungen dieser Größen resultierenden Teilabweichungen.56 Sie kann weder einer der beteiligten Abweichungen noch den diese verursachenden Schwankungen der Einflußgrößen eindeutig zugerechnet werden. In diesem Zusammenhang ist es irreführend, die Ursache für die Entstehung von Abweichungen höheren Grades in funktionalen Beziehungen zwischen den Kostenbestimmungsfaktoren zu sehen,57 da von solchen Beziehungen kein Einfluß auf die zwischen ihnen bestehenden Verknüpfungen ausgeht. Die Verknüpfungen sind vielmehr die Folge der funktionalen Beziehung zwischen einer bestimmten Kostenart und den sie bestimmenden Einflußgrößen. Folglich ist bei einer Veränderung der Kostenbestimmungsfaktoren die konkrete Ausgestaltung der funktionalen Beziehung zwischen der jeweiligen Kostenart und den sie bestimmenden Einflußfaktoren, nicht aber eine funktionale Beziehung zwischen den Kosteneinflußgrößen, für die Entstehung von Abweichungen höheren Grades verantwortlich. Es stellt sich nun die Frage, bei welchen funktionalen Beziehungen Abweichungen höheren Grades auftreten können.

2. Analyse ausgewählter Verknüpfungen

von Kostenbestimmungsfaktoren

Da dem Auftreten von Abweichungen höheren Grades durch die Unterscheidung zwischen multiplikativen und additiven Kombinationen der Ein56 Dementsprechend werden Abweichungen höheren Grades auch als Abweichungsüberschneidungen bezeichnet. 57

So Kilger, Plankostenrechnung, S. 169.

Abweichungsanalyse und Aussagefähigkeit im System der Kostenkontrolle

267

flußfaktoren Rechnung getragen werden kann, erfolgt im weiteren eine Beschränkung der Darstellung auf diese beiden Beziehungen. a) Additive Verknüpfungen Unter der Annahme, daß sich eine Größe c aus der Addition zweier anderer Größen a und b ergibt, wird eine Veränderung der beiden Summanden eine Veränderung der Summe bewirken, die sich folgendermaßen schreiben läßt: Aa + Ab = Ac Die Veränderung von c kann hierbei eindeutig auf die Veränderung von a und b zurückgeführt werden. Analog gilt dies auch für die Gesamtveränderung mehrerer additiv verknüpfter Kostenbestimmungsfaktoren. Da das Charakteristikum der Abweichungen höheren Grades darin besteht, daß eine Gesamtveränderung auf die sie jeweils verursachenden Einflußgrößen nicht eindeutig zurückgeführt werden kann, kommt es bei additiven Verknüpfungen der Kosteneinflußgrößen nicht zu Abweichungen höheren Grades. b) Multiplikative Verknüpfungen Anders verhält sich dies jedoch bei multiplikativen Verknüpfungen. Wird unterstellt, daß sich c aus dem Produkt der Faktoren a und b ergibt, läßt sich die Veränderung von c bei Variation von a und b wie folgt darstellen: Ac = Aa χ b + Ab χ α + Aa χ Ab Die Veränderung von c läßt sich demnach auf drei Komponenten zurückführen. Wird die Veränderung von c durch die Veränderung einer Größe verursacht, kann diese Veränderung entweder durch eine Variation von a bei b = const, oder durch eine Variation von b bei a = const, erfolgt sein. Haben sich jedoch sowohl a als auch b geändert, ergibt sich die Veränderung von c zusätzlich aus der dritten Komponente (AaxAb). Diese Komponente kann weder der Veränderung von a noch der Veränderung von b eindeutig zugerechnet werden und wird als Abweichung zweiten (oder höheren) Grades bezeichnet. Da es das Ziel der Abweichungsanalyse ist, überschneidungsfreie Abweichungen auszuweisen, um den Verantwortlichen nur eindeutig durch sie verursachte Abweichungen anzulasten, ist die Behandlung derartiger Abweichungen höheren Grades innerhalb der Verfahren der Abweichungsanalyse für deren Beurteilung von großer Bedeutung. In der einschlägigen Literatur erschöpft sich die Erörterung der Bildung von Abweichungen höheren Grades weitgehend in der Darstellung der multiplikativen Beziehung zwischen Menge und Preis. 58 Hierbei wird unterstellt, daß

Thomas Hänichen und Thomas Nagel

268

auch der Kostenbestimmungsfaktor „Menge" wie eine Einflußgröße wirkt. 59 Diese Vereinfachung vernachlässigt, daß sich in Wirklichkeit hinter der Mengenkomponente zahlreiche Bestimmungsfaktoren verbergen 60, die in ihrer Differenziertheit wesentlich für die eingehende Analyse der Abweichungen einer Kostenart sind, und daß auch zwischen solchen Einflußgrößen Verknüpfungen denkbar sind, die bei Schwankungen dieser Faktoren zu Abweichungen höheren Grades führen können. Ein Beispiel für eine derartige Verknüpfung soll nachfolgend dargestellt werden: In einem Kohlekraftwerk erfolgt die Bindung des Schwefels im Rauchgas durch den Zusatz von Kalkmilch, wodurch Gips entsteht. Die Menge an zuzuführender Kalkmilch ist sowohl von der Menge an Kohle, die verbrannt wird, als auch von deren Schwefelgehalt abhängig und läßt sich in folgender Form beschreiben:

hierbei sind: M

km

M

KoH,e

Cs Κ

:= Menge an Kalkmilch := Menge an Kohle := Schwefelkonzentration der Kohle := Konstante

Das Beispiel zeigt, daß auch Verknüpfungen einzelner Faktoren der Mengenkomponente in multiplikativer Form möglich sind. Wie oben ausgeführt, können bei einer Veränderung der auf diese Weise verknüpften Kostenbestimmungsfaktoren Abweichungen höheren Grades auftreten. Demzufolge können Abweichungen höheren Grades auch unter den die Mengenkomponente bestimmenden Kosteneinflußgrößen entstehen. Dieser Umstand findet in der bisherigen einschlägigen Literatur zur Darstellung der Abweichungen höheren Grades wenig Beachtung.61 Wie sich jedoch im weiteren Verlauf der Ausführungen zeigen wird, kommt ihm eine nicht unwesentliche Bedeutung für den Aussagegehalt der im Rahmen der Verfahren der Abweichungsanalyse zu bildenden Teilabweichungen zu.

58 Vgl. u.a. Kilger, Plankostenrechnung, S. 169-171. Eine Ausnahme macht Haberstock, S. 343-344. 59

Zur Wirkung des Preises wie ein Kostenbestimmungsfaktor vgl. Kap. B.III.

60

Vgl. Kap. B.III.2.C)

61

Vgl. u.a. Kilger, Plankostenrechnung, S. 169-171, der auf diese Möglichkeit grundsätzlich hinweist, sich jedoch für seine weiteren Ausführungen mit diesem Hinweis begnügt, ohne Beispiele zu nennen oder auf die Konsequenzen für die Verfahren der Abweichungsanalyse einzugehen.

Abweichungsanalyse und Aussagefähigkeit im System der Kostenkontrolle

269

Als Zwischenergebnis kann somit festgehalten werden, daß durch Veränderungen der auf bestimmte Arten verknüpften Kosteneinflußgrößen Abweichungen höheren Grades entstehen können. Als Beispiel lassen sich multiplikative Verknüpfungen anführen, wie sie zwischen Preis- und Mengenkomponente bestehen und auch zwischen den Einflußgrößen der Mengenkomponente denkbar sind. 3. Abweichungen höheren Grades bei ausgewählten Kombinationen von Kostenbestimmungsfaktoren Es wurde ausgeführt, daß bei multiplikativen Verknüpfungen der Kosteneinflußgrößen Abweichungen höheren Grades auftreten können, während dies bei additiven Verknüpfungen ausgeschlossen ist. 62 Ferner wurde gezeigt, daß multiplikative Verknüpfungen der Kostenbestimmungsfaktoren zwischen der Preis- und der Mengenkomponente bestehen und auch innerhalb der Mengenkomponente möglich sind. Da die multiplikative Beziehung zwischen Preis- und Mengenkomponente festliegt, wird der nachfolgenden Darstellung der Komponenten der Abweichung zwischen Ist- und Sollkosten einer Kostenart je ein Beispiel zugrunde gelegt, in dem zum einen eine rein additive und zum anderen eine rein multiplikative Verknüpfung der Bestimmungsfaktoren der Mengenkomponente unterstellt wird. Dadurch sind Aussagen zu den Verfahren der Abweichungsanalyse möglich, die entgegen den üblichen Beispielen 63 berücksichtigen, daß multiplikative Verknüpfungen zwischen mehr als zwei Faktoren und damit Abweichungen höheren als zweiten Grades auftreten können. Im weiteren Verlauf der Ausführungen wird zur Vereinfachung der Gleichungen auf die bisher verwendeten Indizes verzichtet; 64 alle nachfolgenden Gleichungen beziehen sich auch ohne diese Kennzeichung auf Kostenarten und ggfs. auf Kostenarten einer Kostenstelle.65 Ausgangspunkt der weiteren Überlegungen bildet demnach die vereinfachte Funktionsgleichung der Kosten, wie sie sich aus den Gleichungen (8) und (18) ergibt: κ

=

fiy^i y 2"> y · · · » y η—1> y^ò

62

Vgl. Kap. C.I.2.

63

Vgl. u.a. Kilger, Plankostenrechnung, S. 169-171.

64 Diese Vereinfachung erscheint insofern gerechtfertigt, als nachfolgend die Verknüpfungen der einzelnen Kostenbestimmungsfaktoren und die Behandlung der damit in Verbindung stehenden Abweichungen höheren Grades in den Verfahren der Abweichungsanalyse im Vordergrund stehen sollen. 65 Insofern wird von den unterschiedlichen Mengengerüsten einer Kostenart insgesamt und einer Kostenart in einer Kostenstelle abstrahiert.

(20)

Thomas Hänichen und Thomas Nagel

270

Zur weiteren Vereinfachung werden lediglich drei Kostenbestimmungsfaktoren betrachtet, von denen y x den Preis sowie y 2 und y 3 zwei auf die Mengenkomponente wirkende Einflußgrößen darstellen. Hierbei sind zwei Fälle denkbar:

(21)

Κ = yx χ y2 + yx χ y3 K = y 1 χ y 2x

y3

(22)

Im ersten Fall können Abweichungen höheren Grades nur über die multiplikative Verknüpfung zwischen „Menge" und „Preis" zustande kommen, während sie im zweiten Fall auch entstehen können, wenn sich lediglich die Kosteneinflußgrößen der Mengenkomponente geändert haben. Bevor nun auf die Behandlung der beiden Fälle im Rahmen der verschiedenen Verfahren der Abweichungsanalyse eingegangen wird, erfolgt eine grundsätzliche Darstellung der sich je nach unterstelltem Beispiel ergebenden Abweichungskomponenten einer Kostenart. a) Additive Verknüpfung der Kostenbestimmungsfaktoren der Mengenkomponente Wird das Beispiel mit additiver Verknüpfung der Faktoren der Mengenkomponente (Gleichung (21)) betrachtet, stellt sich die Abweichung AK zwischen reinen Ist- und Sollkosten einer Kostenart wie folgt dar: AK = (yf χ yf + yf χ yf) - (y[ = (y (i P) + - y[ =

p)

χ y

χ (/ ip)

- y

p) 2 ip)

p)

χ y ( 2p) + y[

p)

χ y ( 3p))

+ Ay 2) + (j#> + Ay,) χ χ y

+ Ay 3)

ip)

χ y ( 2p) + Ay 2 χ + Ay, χ Ay 2 + Ay, χ yf + Ay 3 χ y[ p) + Ay i χ Ay 3

(23)

Demnach setzt sich die Abweichung AK einer Kostenart neben den Abweichungen ersten Grades auch aus zwei Abweichungen zweiten Grades (Δ^,χΔ^ 2 ; Δ^,χΔ^ 3 ) zusammen, die aus der Preisabweichung multipliziert mit der Abweichung je eines Kostenbestimmungsfaktors der Mengenkomponente bestehen. Sie entstehen nicht, wenn sich der Preis oder die jeweilige Kosteneinflußgröße der Mengenkomponente nicht geändert haben. Graphisch läßt sich der Sachverhalt folgendermaßen veranschaulichen:

Abweichungsanalyse und Aussagefähigkeit im System der Kostenkontrolle

271

Abb. 3. Abweichungsaufspaltung in Abweichungen ersten und zweiten Grades bei additiver Verknüpfung der Kostenbestimmungsfaktoren der Mengenkomponente

Jedes einzelne Diagramm stellt die Abweichungsbestandteile dar, die sich bei einer Veränderung des Preises und der mit ihm multiplikativ verknüpften Kosteneinflußgröße der Mengenkomponente ergeben. Durch die additive Verknüpfung von y 2 und y 3 erfolgt eine Darstellung in zwei Diagrammen. Die Abweichung zweiten Grades wird jeweils durch die gepunktete Fläche gekennzeichnet. Die schraffierten Flächen symbolisieren die Abweichungen ersten Grades.

272

Thomas Hänichen und Thomas Nagel

b) Multiplikative Verknüpfung der Kostenbestimmungsfaktoren der Mengenkomponente Bei multiplikativer Verknüpfung der Kosteneinflußgrößen der Mengenkomponente ergibt sich für das Beispiel der Gleichung (22) eine Abweichung AK zwischen Ist- und Sollkosten einer Kostenart mit folgenden Komponenten: AK = yf χ yf χ yf - y[

p)

χ yf

χ yf

= ( y f + AyJ χ (yf + A y 2) χ (yf + Ay 3) - yf = Ay, χ yf

χ yf

χ y ( 3p) + Ay x χ Ay 2 χ yf + Ay x χ yf

χ yf χ Ay 3

+ Ay x χ Ay 2 χ Ay 3 + Ay 2 χ yf

χ yf + Ay 2 χ Ay 3 χ yf + Ay 3 χ yf

χ yf

(24)

In diesem Fall setzt sich die Abweichung einer Kostenart neben den Abweichungen ersten und zweiten Grades auch aus einer Abweichung dritten Grades (Ay { χ Ay 2 χ Ay 3 ) zusammen. Diese ist auf den Umstand zurückzuführen, daß im Fall der Änderung aller drei Einflußgrößen neben der multiplikativen Verknüpfung der Preis- und Mengenkomponente auch eine multiplikative Verknüpfung der beiden Kostenbestimmungsgrößen der Mengenkomponente vorliegt. Sie entsteht nicht, wenn sich einer der drei Kostenbestimmungsfaktoren nicht geändert hat. Durch die multiplikative Verknüpfung auch der Kostenbestimmungsfaktoren der Mengenkomponente ergibt sich im vorliegenden Fall eine dreidimensionale Darstellung. 66 Als Zwischenergebnis kann festgehalten werden, daß die Abweichung AK zwischen Ist- und Sollkosten einer Kostenart an Komplexität zunimmt, je mehr Einflußfaktoren durch Beziehungen miteinander verknüpft sind, die zu Abweichungen höheren Grades führen können. Anschließend soll untersucht werden, wie die Abweichungen höheren Grades innerhalb der verschiedenen Verfahren der Abweichungsanalyse behandelt werden.

II. Die Behandlung der Abweichungen höheren Grades innerhalb der Verfahren der Abweichungsanalyse Unter den Verfahren der Abweichungsanalyse versteht man rechentechnische Instrumente, die der Zuordnung von Abweichungskomponenten auf sie verursachende Änderungen einzelner Einflußgrößen dienen. Als wichtigste Verfahren gelten der alternative und der kumulative Soll-Ist-Vergleich. Im

66 Vgl. Blume, E.: Kostenkontrollrechnung unter Berücksichtigung mehrstufiger Fertigungsprozesse, Diss. Frankfurt am Main 1981, S. 102.

Abweichungsanalyse und Aussagefähigkeit im System der Kostenkontrolle

ΔνιΧΔ/2χ/3Ρ)

Ay g χ Ay 3 χ y^P )

273

Ay^Ay^Ayg

Abb. 4. Abweichungsaufspaltung in Abweichungen ersten und höheren Grades bei multiplikativer Verknüpfung der Kostenbestimmungsfaktoren der Mengenkomponente

Folgenden wird den sich durch das mögliche Auftreten von Abweichungen höheren Grades ergebenden Auswirkungen auf die Zusammensetzung und die Aussagefähigkeit der im Rahmen dieser Verfahren ausgewiesenen Teilabweichungen nachgegangen. In diesem Zusammenhang sollen zwei grundsätzliche Auffassungen zum Verhältnis von Abweichungsanalyse und Kostenkontrolle berücksichtigt werden. Nach der offenbar den in der einschlägigen Literatur erörterten Beispielen zugrundeliegenden Auffassung ist die Preisabweichung mit in die Abweichungsanalyse einzubeziehen.67 Da die eingangs geführten Überlegungen gezeigt haben, daß die Preisabweichung kostenartenweise und damit vor der kostenstellenweisen Analyse der Mengenabweichungen ermittelt und abgespalten wird, 68 zielt diese Auffassung weniger auf den Einsatz der Abweichungsanalyse als Instrument der kostenstellenweisen Kostenkontrolle. 67 68

Vgl. u.a. Kilger, Plankostenrechnung, S. 171-174. Vgl. Kap. B.III. 1.

18 Festgabe v. Kortzfleisch

274

Thomas Hänichen und Thomas Nagel

Vielmehr stehen bei ihr grundlegende Überlegungen zur Systematik der Aufspaltung der Gesamtabweichung in einzelne Teilabweichungen im Vordergrund, so daß die Abweichungsanalyse zu einem den gesamten Kostenkontrollprozeß umfassenden Verfahren wird. Dieser Betrachtungsweise kann eine Auffassung gegenübergestellt werden, nach der die Vorgehensweise zur Abspaltung der Preisabweichung als obligatorisch angesehen und die Abweichungsanalyse als Instrument zur weiteren Aufspaltung der globalen Verbrauchsabweichung in den Kostenstellen eingesetzt wird. Dadurch erhält die Abweichungsanalyse den Charakter einer kostenarten- und zugleich kostenstellenweisen Analyse. Vor dem Hintergrund dieser beiden Sichtweisen werden in einem ersten Schritt die Verfahren der Abweichungsanalyse auf Basis einer von der Kostenstellenrechnung losgelösten, primär kostenartenweisen Betrachtung untersucht, die die prinzipielle Wirkungsweise der Verfahren verdeutlicht. Daran anschließend wird in einem zweiten Schritt dargestellt, welche Änderungen sich ergeben, wenn die Verfahren im Rahmen einer kostenstellenweisen Kostenkontrolle zur Anwendung kommen.

1. Die Verfahren

der Abweichungsanalyse unter Einbeziehung der Preisabweichung

Der Einbeziehung der Preisabweichung in die Abweichungsanalyse liegt eine von der Kostenstellenbetrachtung losgelöste Sichtweise der Abweichungsanalyse zugrunde. Die Auswirkungen auf die Abweichungen höheren Grades innerhalb der Verfahren der Abweichungsanalyse sollen nachfolgend anhand des alternativen und des kumulativen Soll-Ist-Vergleichs dargestellt werden. a) Der alternative Soll-Ist-Vergleich Im ersten Schritt werden entsprechend dem rechentechnischen Grundsatz 69 von den Istkosten theoretisch errechnete Maßkosten subtrahiert, in denen ein Kostenbestimmungsfaktor seinen Planwert annimmt, während alle übrigen Kosteneinflußgrößen ihre Istwerte beibehalten. Im nächsten Schritt wird auf die gleiche Weise der zweite, dann der dritte (usw.) Einflußfaktor einbezogen, wobei die planmäßige Wirkung des zuvor betrachteten Faktors wieder rückgängig gemacht wird, so daß jeweils die Abweichung einer Kosteneinflußgröße ermittelt wird, die dadurch -zustande kommt, daß diese anders als geplant gewirkt hat. 70

69

Vgl. Kap. B.I.

70

Vgl. Kilger, Plankostenrechnung, S. 171-172.

Abweichungsanalyse und Aussagefähigkeit im System der Kostenkontrolle

275

Die jeweiligen Teilabweichungen Ak für Veränderungen von /=l,...,n Kostenbestimmungsfaktoren einer Kostenart ergeben sich wie folgt: 71 Ak x = κ « Ak 2 = k« =

κ®

Ak n =

K

(

i

)

-

M

,

(

2

5

)

aa) Alternativer Soll-Ist-Vergleich bei additiv-multiplikativer Verknüpfung der Kostenbestimmungsfaktoren Wird dieser Vorgehensweise das Ausgangsbeispiel mit additiver Verknüpfung der Faktoren der Mengenkomponente (Gleichung (21)) zugrunde gelegt, ergeben sich nachfolgende Teilabweichungen: 72 ΔΚ =Ayf,yf,yf)

-Ayf,yf,yf)

= Ay x χ yf + Ay 1 χ Ay 2 + Ay x χ yf *k 2 =Ay?,yf,yf) -Ayf,yf,yf)

+ Ay t χ Ay 3

= Ay 2 χ yf + Ay 2 χ Ay , Ak 3 =Ayf,y^yf)

-f(yf,yf,yf)

= Äy 3 χ yf + Ay 3 χ Ay ϊ

(26)

Die Abweichungen höheren — hier: zweiten — Grades χ Δy 2; Ay ] χ Δy 3 ) sind vollständig in der ersten Teilabweichung enthalten und werden über die nachfolgenden Teilabweichungen mehrfach — hier doppelt — im System der Abweichungsanalyse erfaßt. Dieser Umstand kann dazu führen, daß die Summe der Teilabweichungen nicht mit der gesamten Abweichung der betreffenden Kostenart übereinstimmt. Aus diesem Grund wird die alternative Abweichungsanalyse als Grundlage für die Kostenkontrolle im System der flexiblen Plankostenrechnung abgelehnt.73 Die Abweichungen höheren Grades sind jeweils in der Mengen- und in der Preisabweichung enthalten.

71

Vgl. Kilger, Plankostenrechnung, S. 171-172.

72

Ausführliche Darstellung im Anhang unter E.I.l.

73

Vgl. Kilger, Plankostenrechnung, S. 172-173, wo allerdings behauptet wird, „daß die Summe der Teilabweichungen stets größer sein muß als die Gesamtabweichung". 1*

276

Thomas Hänichen und Thomas Nagel

:= Abweichung höheren Grades := Mengenabweichung := Preisabweichung Abb. 5. Abweichungsaufspaltung bei additiver Verknüpfung der Kostenbestimmungsfaktoren der Mengenkomponente im Rahmen des alternativen Soll-Ist-Vergleichs unter Einbeziehung der Preisabweichung

ab) Alternativer Soll-Ist-Vergleich bei rein multiplikativer Verknüpfung der Kostenbestimmungsfaktoren Wird nun die Annahme rein additiver Verknüpfungen zwischen den Kosteneinflußgrößen der Mengenkomponente zugunsten einer rein multiplikati-

Abweichungsanalyse und Aussagefähigkeit im System der Kostenkontrolle

277

ven Verknüpfung aufgegeben, so führt das Ausgangsbeispiel (Gleichung (22)) zu nachfolgenden Teilabweichungen: 74 -Äy[ p\yf,yf)

àk, =M,yf,yf)

= Ayi X y {2 X y 3 p ) + Ayi x M + Ay y χ Ay 2 x Ay 3 Ak 2 =ßy (i\y (i\yf) - fiyï\ y (i\ yf) = Δ y 2 x y[

p)

x

+ Ay 2 χ y[

+ Ay 2 χ J)*! x A k z =Ayf,yf,yf) - M , =

p)

p)

x y[ X y 2 + Ay 3 χ Ay t χ

x ^y 3 + Ay t χ Ay 2 χ y ( 3p>

p)

χ

+

χ Ay, χ /f

MM + Ays Χ / ι ρ ) X

+ Ay 3 χ

χ γψ (27)

Bei Annahme multiplikativer Verknüpfungen der Kostenbestimmungsfaktoren der Mengenkomponente können Abweichungen höheren Grades auch ohne Beteiligung von Preisschwankungen innerhalb der Verbrauchsabweichung auftreten (Δy 3 x yl P) x Ay 2). Es zeigt sich weiterhin, daß auch Abweichungen höheren Grades denkbar sind, die im System der Abweichungsanalyse mehr als zweimal enthalten sind. Dies trifft für die Abweichung dritten Grades (Δy x x Ay 2 χ Ay 3) zu, die in jeder der obigen Teilabweichungen und damit insgesamt dreimal erfaßt wird. Sie besteht aus der Preisveränderung multipliziert mit dem Produkt der Veränderung der Kosteneinflußgrößen y 2 und y 3 der Mengenkomponente. Die Annahme multiplikativer Verknüpfungen der Bestimmungsfaktoren der Mengenkomponente führt demnach zu einem komplexeren Aufbau der einzelnen Teilabweichungen. Auch in diesem Fall ändert sich nichts an der bereits erwähnten mangelnden Aussagefähigkeit der mit dem alternativen Soll-IstVergleich gebildeten Teilabweichungen. Hierbei symbolisieren die schraffierten Räume die Abweichungen zweiten Grades, die doppelt erfaßt werden. Der gepunktete Raum kennzeichnet die Abweichung dritten Grades, die in jeder Teilabweichung und damit insgesamt dreifach erfaßt wird.

74

Ausführliche Darstellung im Anhang unter E.I.l.

278

Thomas Hänichen und Thomas Nagel

Abb. 6. Abweichungsaufspaltung bei multiplikativer Verknüpfung der Kostenbestimmungsfaktoren der Mengenkomponente im Rahmen des alternativen Soll-IstVergleichs unter Einbeziehung der Preisabweichung

b) Der kumulative Soll-Ist Vergleich Bei dieser Methode werden zur Bestimmung der Teilabweichungen die Istkosten stufenweise an die Sollkosten angepaßt. Der erste Schritt ist identisch mit dem Schritt des alternativen Soll-Ist-Vergleichs. Von den Istkosten werden Kosten subtrahiert, bei denen bis auf einen Kostenbestimmungsfaktor alle anderen ebenfalls mit ihren Istausprägungen angesetzt werden. Im Unterschied zur alternativen Abweichungsanalyse wird jedoch im zweiten Schritt die planmäßige Wirkung der zuerst betrachteten Kosteneinflußgröße nicht ausgeschaltet. Folglich werden nun von den Kosten, die als Subtrahend der vorangegangenen Abweichung verwandt wurden, Kosten abgezogen, bei denen sowohl der erste als auch der zweite Faktor in ihrer planmäßigen Wirkung angesetzt werden. Für alle weiteren Schritte wird analog verfahren.

Abweichungsanalyse und Aussagefähigkeit im System der Kostenkontrolle

279

Das Verfahren läßt sich in folgender Form darstellen: 75 àk, =ßyf,yf,yf

yf. u/f)

p>

Δ k 2 =Äy\"\ yf, yf, ·.yf-i, AK-,

= M p\ ρί

-f{/?\yf,yf,...,yfyf) -M ,

y ( 2p),

uyf)

yf,-,yf-1,

ήρ>, ήρ), • • •, yf- 1, yf) - ΛΛΡ>, y$\ ήρ\

ΔΚ = ΛΑ , y

(p )

ρ)

p

, / , -,yi -i,

yf)

yf) ι, yf) »W)

(28)

ba) Kumulativer Soll-Ist-Vergleich bei additiv-multiplikativer Verknüpfung der Kostenbestimmungsfaktoren Wird dieser Methode das Ausgangsbeispiel (Gleichung (21)) mit additiver Verknüpfung der Kostenbestimmungsfaktoren der Mengenkomponente zugrunde gelegt, führt dies zu folgenden Teilabweichungen: 76 Ak, Ak 2

=Ay {?,yf,yf)-Äyf,yf,yf) = Ay, χ yf + Ay, χ Ay 2 + Ay x χ yf + Ay, χ Ay 3 ( p =Ayf,yf,yf)-Äyf,y 2 \yf)

= Ay 2 X yf Ak3 =Ayf,yf,yf)

-Ayf.yf.yf)

= A y 3 X yf

(29)

Danach enthält die Preisabweichung sämtliche Abweichungen höheren Grades. 77 Da die planmäßige Wirkung des Preises bei der Bildung der nachfolgenden Teilabweichungen nicht mehr rückgängig gemacht wird, können die in die Preisabweichung aufgenommenen Abweichungen höheren Grades nicht mehr in die weiteren Teilabweichungen gelangen. Die vollständige Aufnahme der Abweichungen höheren Grades in die Preisabweichung führt demnach zu überschneidungsfreien Teilabweichungen Ak 2 und Ak y Eine Doppelzählung der Abweichungen höheren Grades erfolgt nicht, so daß im Unterschied zum korrespondierenden Fall des alternativen Soll-Ist-Vergleichs güt· Σ Α Κ = ΑΚ (30) i=1

75

Vgl. Kilger, Plankostenrechnung, S. 173.

76

Ausführliche Darstellung im Anhang unter E.I.2.

77

Andere als die hierin erfaßten Abweichungen höheren Grades sind nicht denkbar. Dies ergibt sich durch einen Vergleich mit den in Gleichung (23) dargestellten Komponenten der Abweichung AK zwischen reinen Ist- und Sollkosten einer Kostenart im „additivmultiplikativen" Fall.

280

Thomas Hänichen und Thomas Nagel

:= Preisabweichung incl. Abweichungen höheren Grades := Mengenabweichung Abb. 7. Abweichungsaufspaltung bei additiver Verknüpfung der Kostenbestimmungsfaktoren der Mengenkomponente im Rahmen des kumulativen Soll-Ist-Vergleichs unter Einbeziehung der Preisabweichung

D i e beiden gepunkteten Flächen kennzeichnen die Mengenabweichungen, i n denen keine Abweichungen höheren Grades enthalten sind.

Abweichungsanalyse und Aussagefähigkeit im System der Kostenkontrolle

281

bb) Kumulativer Soll-Ist-Vergleich bei rein multiplikativer Verknüpfung der Kostenbestimmungsfaktoren Wird nun die Annahme additiver zugunsten multiplikativer Verknüpfungen hinsichtlich der Kostenbestimmungsgrößen der Mengenkomponente aufgegeben, ergeben sich auf der Basis des Ausgangsbeispiels (Gleichung (22)) nachfolgende Teilabweichungen: 78 *kx =M,yf,yf) = x yf

χ /3

P)

-M p\yf,yf) + Ay t x yP χ Ay 3 + Ay l χ Ay 2 χ / 3P)

+ Ay 1 χ Ay 2 x Ay 3 = Ay 2 x y[ Ak 3

p

{

p)

χ yf + Ay 2 x y[

p)

χ Ay 3

p

=Äy[ \y 2 \yf) = Ay 3xyfxyf

(31)

Anhand der obigen Teilabweichungen zeigt sich, daß bei Annahme multiplikativer Verknüpfungen der Faktoren der Mengenkomponente nicht nur innerhalb, sondern auch außerhalb der ersten Teilabweichung Abweichungen höheren Grades auftreten können (Bsp.: Ay 2 χ yl P) χ A j 3 ) . 7 9 Alle Abweichungen höheren Grades, die sowohl auf eine Preisveränderung als auch auf eine Veränderung mindestens eines Kostenbestimmungsfaktors der Mengenkomponente zurückzuführen sind, werden in der Preisabweichung (gepunkteter Teil) erfaßt. Davon ausgenommen ist die Abweichung höheren Grades (schraffierter Teil), die ausschließlich auf Veränderungen der Faktoren der Mengenkomponente (Ay 2 χ y j p ) χ Δy 3 ) zurückzuführen ist und somit nicht in die Preisabweichung aufgenommen werden kann.

78 79

Ausführliche Darstellung im Anhang unter E.I.2.

Kilger führt im Gegensatz hierzu aus, daß die erste Abweichung (i.d.R. ist dies die Preisabweichung) alle Abweichungen höheren Grades enthält (Vgl. Kilger, Plankostenrechnung, S. 173). Dieser Aussage kann jedoch im Fall multiplikativer Verknüpfungen der Einflußgrößen der Mengenkomponente nicht zugestimmt werden.

Thomas Hänichen und Thomas Nagel

282

Abb. 8. Abweichungsaufspaltung bei multiplikativer Verknüpfung der Kostenbestimmungsfaktoren der Mengenkomponente im Rahmen des kumulativen Soll-IstVergleichs unter Einbeziehung der Preisabweichung

2. Die Verfahren der Abweichungsanalyse in der kostenstellenweisen Kostenkontrolle Nach der bisherigen Betrachtungsweise stellt die kostenstellenbezogene Kostenkontrolle lediglich einen Teil der Abweichungsanalyse dar, die mit der Abspaltung der Preisabweichung bereits außerhalb der Kostenstelle ansetzt.80 Im Rahmen einer kostenstellenbezogenen Sichtweise der Abweichungsanalyse kommen jedoch die verschiedenen Verfahren der Abweichungsanalyse erst mit dem Eintritt in die Kostenstellenrechnung zur Anwendung. Dadurch geht das bisherige kostenartenweise Vorgehen in eine kostenarten- und kostenstellenweise Betrachtung über. Da auf den Kostenstellen Istkosten i.S. der Plankostenrechnung mit den Sollkosten verglichen werden, können auf diesen keine Preisabweichungen auftreten und durch die verschiedenen, erst auf den Kostenstellen ansetzenden Verfahren der Abweichungsanalyse auch nicht ermittelt werden. Dies entspricht der bereits erörterten Vorgehensweise der Kostenkontrolle und wird nachfolgend dadurch zum Ausdruck gebracht, daß die bisherige Preisabweichung Ak x Null gesetzt wird. Die erste Abweichung auf der Kostenstelle ist demnach Ak r Welche Konsequenzen sich aus dieser 80

Vgl. Kap B.III.

Abweichungsanalyse und Aussagefähigkeit im System der Kostenkontrolle

283

geänderten Sichtweise der Verfahren der Abweichungsanalyse für die Zusammensetzung der einzelnen Teilabweichungen ergeben, soll nachfolgend untersucht werden. a) Der alternative Soll-Ist-Vergleich aa) Alternativer Soll-Ist-Vergleich bei additiv-multiplikativer Verknüpfung der Kostenbestimmungsfaktoren Unter der Annahme additiver Verknüpfungen zwischen den Kostenbestimmungsfaktoren der Mengenkomponente ergibt sich für die einzelnen Teilabweichungen auf Basis des Ausgangsbeispiels (Gleichung (21)) nachfolgender Ausdruck: 81 ΔΚ =fl/f\yf,yf) =

-fiy'f\y

(

-fiy[

p

?,yf)

0

Ak 2 =Äyr,yf,yf)

\/i\yf)

= Δ y 2 χ /Γ ΔΚ =M\yf,yf)

-Äyr,yf,yT)

= Ay 3 x yT

(32)

Die Ergebnisse zeigen, daß auf der Kostenstelle durch die Aufnahme von Abweichungen höheren Grades in die außerhalb der Kostenstellenrechnung abgespaltene Preisabweichung trotz der Anwendung des alternativen Soll-IstVergleichs nur Abweichungen ersten Grades entstehen. Dies ist auf die spezielle Wirkung der vorab erfolgenden Abspaltung der Preisabweichung zurückzuführen, die sich wie folgt zusammensetzt:82 AK

=M,yf,yf)-M

p

\yf,yf)

= Ay, x y ( 2p) + Ay x χ Ay 2 + Ay 1 x y { 3p) + Ay x χ Ay 3 Hieraus wird ersichtlich, daß durch die Aufnahme sämtlicher Abweichungen höheren Grades in die Preisabweichung die Ausgangsgröße (globale Verbrauchsabweichung) für die Bildung der Teilabweichungen auf den Kostenstellen keine Abweichungen höheren Grades mehr enthalten kann. Somit 81 82

Ausführliche Darstellung im Anhang unter E.II.l.

Es sei in diesem Zusammenhang darauf hingewiesen, daß diese außerhalb der Kostenstelle abgespaltene Preisabweichung auf das Ist-Mengengerüst der jeweiligen Kostenart der betrachteten Kostenstelle bezogen wird. Erst durch Summierung sämtlicher Preisabweichungen der betreffenden Kostenart über alle Kostenstellen hinweg ergibt sich die in der Kostenartenrechnung ermittelte Preisabweichung der entsprechenden Kostenart. Vgl. dazu Kap. Β.III.l.

(33)

284

Thomas Hänichen und Thomas Nagel

ist im Ergebnis trotz eines alternativen Vorgehens innerhalb der Kostenstelle der Ausweis überschneidungsfreier Teilabweichungen möglich. Dadurch wird deutlich, daß die außerhalb der Kostenstelle erfolgende Abspaltung der Preisabweichung die Wirkung einer „kumulativen Klammer" entfaltet.

Abb. 9. Abweichungsaufspaltung bei additiver Verknüpfung der Kostenbestimmungsfaktoren der Mengenkomponente im Rahmen des alternativen Soll-Ist-Vergleichs bei kostenstellenweiser Kostenkontrolle

Die Ausgangsgröße für die Abweichungsanalyse innerhalb der Kostenstelle wird durch die schraffierte Fläche gekennzeichnet. Diese enthält keine Abweichung höheren Grades.

Abweichungsanalyse und Aussagefähigkeit im System der Kostenkontrolle

285

ab) Alternativer Soll-Ist-Vergleich bei rein multiplikativer Verknüpfung der Kostenbestimmungsfaktoren Demgegenüber führen multiplikative Verknüpfungen zwischen den Kostenbestimmungsfaktoren der Mengenkomponente (Ausgangsbeispiel Gleichung (22)) zu nachfolgenden Teilabweichungen: 83 ΔΚ =M p\yf,yf) = o

-Ä/f/lyf)

Ak 2 =Ä/ i p\y i?,yf) = Ay 2 χ yf p

-Äy[ p\y {2 p\yf) χ yf + Ay 2 χ Ay 3 χ yf p

=M \yf,yf)-M \yf,yf) = Ay 3 χ yf χ yf + Ay 3 χ Ay 2 χ yf

(34)

Als Ergebnis läßt sich festhalten, daß im Fall multiplikativer Verknüpfungen der Einflußgrößen der Mengenkomponente entgegen dem „additiv-multiplikativen" Fall Abweichungen höheren Grades (Bsp.: Ay 2 χ Δy 3 x yf p ) ) in einzelnen Teilabweichungen der jeweiligen Kostenart der Kostenstelle enthalten sein können. Es handelt sich hierbei um solche Abweichungen höheren Grades, deren Entstehung ausschließlich84 auf eine Veränderung der multiplikativ verknüpften Kosteneinflußgrößen der Mengenkomponente zurückzuführen ist. Dieser Umstand ist systemimmanent, da die vorab abgespaltene Preisabweichung rechentechnisch nur die Abweichungen höheren Grades aufnehmen kann, die durch sie mitverursacht werden. Somit befinden sich die von ihr nicht erfaßten Abweichungen höheren Grades in der Ausgangsgröße, die auf den Kostenstellen weiter aufgespalten wird. Es zeigt sich weiterhin, daß in jeder Teilabweichung, die durch die Veränderung eines Kostenbestimmungsfaktors verursacht wird, der seinerseits eine in der Ausgangsgröße enthaltene Abweichung höheren Grades mitverursacht hat, diese Abweichung höheren Grades ebenfalls erfaßt wird (Bsp.: A y 2 x A y 3 x y l P ) ) . Der gepunktete Raum stellt die außerhalb der Kostenstelle abgespaltene Preisabweichung mit allen von ihr aufgenommenen Abweichungen höheren Grades dar. Der schraffierte Raum kennzeichnet den Teil der Abweichungen höheren Grades, der im Rahmen der innerhalb der Kostenstelle vorgenommenen Abweichungsanalyse doppelt erfaßt wird. Auch hier entfaltet die außerhalb der Kostenstelle vorgenommene Abspaltung der Preisabweichung eine „kumulative" Wirkung, wobei jedoch im Unterschied zum „additiv-multiplikativen" Fall nicht sämtliche Abweichungen höheren Grades durch die Preisabweichung zurückgehalten werden. 83

Ausführliche Darstellung im Anhang unter E.II. 1.

84

Z.B. im Gegensatz zur Abweichung dritten Grades.

286

Thomas Hänichen und Thomas Nagel

Abb. 10. Abweichungsaufspaltung bei multiplikativer Verknüpfung der Kostenbestimmungsfaktoren der Mengenkomponente im Rahmen des alternativen Soll-IstVergleichs bei kostenstellenweiser Kostenkontrolle

b) Der kumulative Soll-Ist-Vergleich ba) Kumulativer Soll-Ist-Vergleich bei additiv-multiplikativer Verknüpfung der Kostenbestimmungsfaktoren Unter der Annahme additiver Verknüpfungen zwischen den Kostenbestimmungsfaktoren der Mengenkomponente ergeben sich folgende Teilabweichungen auf Basis des Ausgangsbeispiels (Gleichung (21)): 85 ΔΚ =Äy[ p\yf,yf) = o Ak 2 =Äy\ p\y (i,yf)

-Äy\ p\yf,yf) -M p\yr,yf)

= dy 2 χ y r àk 3 =ßy\ p\y ( 2p\yf) = Ay 3x / / "

85

-f(y[

p

\y ( 2p\yT)

Ausführliche Darstellung im Anhang unter E.II.2.

(35)

Abweichungsanalyse und Aussagefähigkeit im System der Kostenkontrolle

287

Hierbei ergeben sich keine Unterschiede zum korrespondierenden Fall des alternativen Soll-Ist-Vergleichs. Der Grund dafür ist in der außerhalb der Kostenstelle erfolgenden Abspaltung der Preisabweichung zu sehen, die im „additiv-multiplikativen" Fall sämtliche Abweichungen höheren Grades aufnimmt und somit zu einer überschneidungsfreien Ausgangsgröße führt. Da sich die Verfahren des alternativen und des kumulativen Soll-Ist-Vergleichs im Ergebnis jedoch nur in der Behandlung der Abweichungen höheren Grades unterscheiden, führen sie bei überschneidungsfreier Ausgangsgröße zu gleichen Ergebnissen.

(P)

(p)

(P)

(i)

Abb. 11. Abweichungsaufspaltung bei additiver Verknüpfung der Kostenbestimmungsfaktoren der Mengenkomponente im Rahmen des kumulativen Soll-Ist-Vergleichs bei kostenstellenweiser Kostenkontrolle

Thomas Hänichen und Thomas Nagel

288

Die schraffierte Fläche kennzeichnet die überschneidungsfreie Ausgangsgröße. bb) Kumulativer Soll-Ist-Vergleich bei rein multiplikativer Verknüpfung der Kostenbestimmungsfaktoren Demgegenüber führt die Annahme multiplikativer Verknüpfungen zwischen den Kosteneinflußgrößen der Mengenkomponente (Ausgangsbeispiel Gleichung (22)) zu folgenden Teilabweichungen: 86 Ak, =Ay[ p\y (?,yf) = o Ak 2

-Äyf,yf,yf)

=M p\yf,yf)-Äy[ = Ay 2 χ yf

p

\y (2 p\yf)

χ yf + Ay 2 χ Ay 3 χ yf

Ak 3 =Äyf,y (2 p\yf) = Ay 3 χ yf χ yf

-Äyf.yf.yf) (36)

Es zeigt sich, daß hierbei, wie im korrespondierenden Fall des alternativen Soll-Ist-Vergleichs, Abweichungen höheren Grades in den einzelnen Teilabweichungen auftreten können (Bsp.: Ay 2 χ Ay 3 χ y ^ ) · Dies liegt, wie bereits geschildert, an der nicht vollständigen Erfassung der Abweichungen höheren Grades in der außerhalb der Kostenstelle abgespaltenen Preisabweichung. Im Unterschied zum alternativen Soll-Ist-Vergleich treten jedoch die nicht vollständig in der Preisabweichung erfaßten Abweichungen höheren Grades nur einmal im System der Abweichungsanalyse auf. Somit kommt entgegen dem zuvor geschilderten „additiv-multiplikativen" Fall die unterschiedliche Behandlung der Abweichungen höheren Grades innerhalb des alternativen und des kumulativen Soll-Ist-Vergleichs wieder voll zum Tragen. Der Ausweis einer Abweichung höheren Grades erfolgt hierbei innerhalb der Teilabweichung, die zuerst die Veränderung eines sie mitverursachenden Kostenbestimmungsfaktors berücksichtigt. Der gepunktete Raum stellt die außerhalb der Kostenstelle abgespaltene Preisabweichung mit all den von ihr aufgenommenen Abweichungen höheren Grades dar. Der schraffierte Raum kennzeichnet den Teil der Abweichungen höheren Grades, der im Rahmen der innerhalb der Kostenstelle vorgenommenen Abweichungsanalyse erfaßt wird.

86

Ausführliche Darstellung im Anhang unter E.II.2.

Abweichungsanalyse und Aussagefähigkeit im System der Kostenkontrolle

289

Abb. 12. Abweichungsaufspaltung bei multiplikativer Verknüpfung der Kostenbestimmungsfaktoren der Mengenkomponente im Rahmen des kumulativen Soll-IstVergleichs bei kostenstellenweiser Kostenkontrolle

III. Aussagefähigkeit der Verfahren Die Ausführungen haben gezeigt, daß der Beginn der Abweichungsanalyse in Anlehnung an die in der Kostenrechnung tatsächlich anzutreffende Vorgehensweise schon außerhalb der Kostenstellenrechnung festgemacht werden kann. Dadurch treten bestimmte Abweichungen auf den Kostenstellen nicht mehr auf, so daß die Kostenkontrolle durch die außerhalb der Kostenstelle erfolgende Abspaltung der Preisabweichung einen insgesamt kumulativen Charakter erhält. Dies hat insbesondere Auswirkungen auf das Auftreten von Abweichungen höheren Grades in den Kostenstellen, da durch die vorab abgespaltene Preisabweichung alle von ihr aufgenommenen Abweichungen höheren Grades nicht mehr in den Teilabweichungen der Kostenstelle auftreten. Dennoch können Abweichungen höheren Grades auch in nach der Preisabweichung abgespaltenen Teilabweichungen enthalten sein. Dies ist darauf zurückzuführen, daß Abweichungen höheren Grades auch durch eine ausschließliche Veränderung der Kostenbestimmungsfaktoren der Mengenkomponente entstehen können und rechentechnisch bedingt im Rahmen der angesprochenen Verfahren der Abweichungsanalyse nicht von der Preisabweichung aufgenommen werden. Somit ist es nicht in jedem Fall zutreffend, 19 Festgabe v. Kortzfleisch

290

Thomas Hänichen und Thomas Nagel

anzunehmen, „daß die erste Abweichung . . . auch alle Abweichungen höheren Grades enthält." 87 Diese Annahme kann leicht zu Fehlinterpretationen in bezug auf den Aussagegehalt einzelner Teilabweichungen führen, was sich insbesondere im Rahmen des kumulativen Soll-Ist-Vergleichs zeigt. So können hier in nach der Preisabweichung abgespaltenen Teilabweichungen unter der Annahme des vermeintlichen Vorliegens einer reinen Abweichung ersten Grades dem Verantwortlichen Kostenbestandteile angelastet werden, für die er nicht unbedingt die Verantwortung trägt. Abgesehen davon, daß die Berücksichtigung dieser Tatsache auch in der Praxis Bedeutung erlangen kann, trägt sie jedoch vor allem — von einem theoretischen Standpunkt aus betrachtet — zu einem besseren Grundverständnis der Arbeitsweise der betrachteten Verfahren bei. Der Unmöglichkeit, im Rahmen der bisher angesprochenen Verfahren Abweichungen höheren Grades explizit auszuweisen, versucht die differenzierte Abweichungsanalyse zu begegnen.88 Unabhängig von den daraus sich ergebenden Unterschieden hinsichtlich ihrer Aussagefähigkeit ist keines der Analyseverfahren ohne die Kenntnis der funktionalen Zusammenhänge zwischen den einzelnen Kostenbestimmungsfaktoren und den Kosten anwendbar. Gerade die Bestimmung dieser funktionalen Beziehungen wird jedoch angesichts der immer komplexer werdenden Produktionsprozesse zunehmend schwieriger. Sie ist jedoch unerläßlich, um nicht die Aussagefähigkeit der Verfahren durch eine unverhältnismäßig hohe Restabweichung infolge einer steigenden Anzahl nicht berücksichtigter Kostenbestimmungsfaktoren in Frage zu stellen. Ergänzend sei darauf hingewiesen, daß auch bei bekannten funktionalen Zusammenhängen die Aussagefähigkeit der kumulativen oder alternativen Abweichungsanalyse durch den undifferenzierten Ausweis der einzelnen Teilabweichungen eingeschränkt ist. Nachfolgend seien die diesbezüglich bedeutsamen Feststellungen zusammenfassend aufgelistet: — Einbeziehung der Preisabweichung: * Kumulativer Soll-Ist-Vergleich + ein Großteil der Abweichungen höheren Grades wird über die Preisabweichung von den nachfolgenden Teilabweichungen ferngehalten, + die Abweichungen höheren Grades, die auschließlich auf Veränderungen der Kostenbestimmungsfaktoren der Mengenkomponente beruhen, werden nicht in der Preisabweichung erfaßt,

87

Kilger, Plankostenrechnung, S. 173. Vgl. ?oweh, H.: Ansätze zum weiteren Ausbau der differenzierten Kostenabweichungsanalyse, in: Krp 6/85, S. 233-239. 88

Abweichungsanalyse und Aussagefähigkeit im System der Kostenkontrolle

291

-I- der nicht in der Preisabweichung berücksichtigte Teil der Abweichungen höheren Grades wird der Teilabweichung zugeschlagen, die als erste die Veränderung einer sie mitverursachenden Einflußgröße berücksichtigt. * Alternativer Soll-Ist-Vergleich + dieselben Abweichungen höheren Grades treten in mehreren Teilabweichungen auf, + die Abweichungen höheren Grades, die auschließlich auf Veränderungen der Kostenbestimmungsfaktoren der Mengenkomponente beruhen, werden nicht in der Preisabweichung erfaßt, + der Teil der Abweichungen höheren Grades, der nicht in der Preisabweichung berücksichtigt wurde, wird jeweils in den Teilabweichungen erfaßt, in denen die Veränderung eines sie mitverursachenden Kostenbestimmungsfaktors berücksichtigt wird. (Bsp.: Abweichung höheren Grades aufgrund einer ausschließlichen Veränderung mindestens zweier Einflußgrößen der Mengenkomponente multipliziert mit dem Faktor „Preis" als Planwert). — Kostenstellenweise Kostenkontrolle: * Kumulativer Soll-Ist-Vergleich + Abweichungen höheren Grades treten auf den Kostenstellen nur auf, wenn sie ausschließlich auf Veränderungen der Kostenbestimmungsfaktoren der Mengenkomponente zurückzuführen sind, + sie treten nur einmal und in der Teilabweichung auf, die als erste die Veränderung einer sie mitverursachenden Kosteneinflußgröße berücksichtigt. * Alternativer Soll-Ist-Vergleich + Abweichungen höheren Grades treten auf den Kostenstellen nur auf, wenn sie ausschließlich auf Veränderungen der Kostenbestimmungsgrößen der Mengenkomponente zurückzuführen sind. + dieselben Abweichungen höheren Grades treten in verschiedenen Teilabweichungen auf, + sie treten jeweils nur in den Teilabweichungen auf, in denen Veränderungen der sie mitverursachenden Kostenbestimmungsfaktoren berücksichtigt werden.

D. Fazit Die vorliegende Untersuchung sollte weniger zu gänzlich neuen Erkenntnissen auf dem Gebiet der Kostenkontrolle führen, als vielmehr grundsätzlich 19*

292

Thomas Hänichen und Thomas Nagel

bekannte Sachverhalte aus einem neuen Blickwinkel beurteilen und Ungenauigkeiten in der traditionellen Erläuterung dieser Sachverhalte aufdecken. Dabei wurde gezeigt, daß der kostenstellenweisen Analyse der globalen Verbrauchsabweichung obligatorisch einige Schritte vorgeschaltet sind, die wesentliche Phasen des Gesamtprozesses der Kostenkontrolle darstellen und überhaupt erst die Voraussetzung zur Ermittlung und Aufspaltung der globalen Verbrauchsabweichung schaffen: Zunächst kommt es zur Abspaltung der auf die Istmengengerüste jeder einzelnen Kostenart bezogenen Preisabweichungen und anschließend erst zur kostenstellen- und -artenweisen Ausschaltung der Kapazitäts- und Beschäftigungsabweichung. Insofern kann der Gesamtprozeß der Kostenkontrolle nicht als kostenarten- und -stellenbezogener Vorgang bezeichnet werden; unter Berücksichtigung der Vorgehensweise zur Ermittlung der Preisabweichung kann die Kostenkontrolle insgesamt allenfalls als kostenartenbezogen eingestuft werden, da lediglich Ermittlung und Analyse der Abweichungen der Mengenkomponente kostenstellen- und zugleich -artenweise erfolgen. Der gemeinhin als Analyse bezeichnete Vorgang der Aufspaltung der Gesamtabweichung in Teilabweichungen, die jeweils eindeutig auf Änderungen der sie verursachenden Einflußgrößen rückführbar sind, kann nur erfolgen, wenn die Einflußgrößen und auch das Ausmaß ihrer Veränderung gegenüber dem geplanten Zustand sämtlich bekannt sind. Lediglich dann lassen sich die in dieser Untersuchung herangezogenen Funktions- und Abweichungsgleichungen betriebsspezifisch ausfüllen und führen zu einer Aussage über die kostenmäßige Konsequenz einer solchen grundsätzlich bekannten Einflußgrößenänderung. Jede Schwankung nicht berücksichtigter Einflußgrößen trägt zur Bildung der Restabweichung bei, die daher nicht als „Unwirtschaftlichkeitsabweichung" bezeichnet werden kann. Es läßt sich zeigen, daß durch die — theoretisch denkbare — Berücksichtigung aller auf eine Kostenart wirkenden sekundären Einflußgrößen keinerlei Restabweichung verbleibt und somit keine Abweichung den Schwankungen einer isoliert neben diesen wirkenden Einflußgröße „(Un)wirtschaftlichkeit" zugeordnet werden kann. Vielmehr sollte die (Un)wirtschaftlichkeit als Größe verstanden werden, die ebenso wie gezielte Anpassungsentscheidungen Verursacher von Veränderungen einzelner Einflußgrößen und damit indirekt auch jeder beliebigen Spezialabweichung sein kann. Unter Berücksichtigung dieser Überlegung muß es Aufgabe der Kostenkontrolle sein, möglichst sämtliche denkbaren Spezialabweichungen aufzudecken, die beeinflußbaren von den nicht beeinflußbaren zu trennen und innerhalb der beeinflußbaren zu untersuchen, ob sie auf bewußt herbeigeführte Anpassungsentscheidungen oder (un)wirtschaftliches Verhalten zurückgeführt werden können. Diese Aussage kann in Verbindung mit der Kenntnis über die Höhe der Abweichung sowohl zur verursachungsgerechten Anlastung der Abweichung als auch zur Fundierung von auf den Abbau der Kostenüberschreitungen gerichteten kostenarten- und -stellenbezogenen Dispositionen herangezogen werden.

Abweichungsanalyse und Aussagefähigkeit im System der Kostenkontrolle

293

Allerdings läßt sich die Höhe einzelner Spezialabweichungen und damit ein wesentlicher Bestandteil ihrer Aussagekraft aufgrund möglicher Abweichungen höheren Grades nicht immer exakt ermitteln. Die Verfahren der Abweichungsanalyse sollen hier zu größtmöglicher Reinheit der ausgewiesenen Teilabweichungen führen. Dabei gilt die kumulative Abweichungsanalyse der alternativen Abweichungsanalyse als überlegen, da sie die mehrfache Verrechnung der Abweichungsüberschneidungen vermeidet. Die vorliegende Untersuchung bestätigt diese Erkenntnis, deckt aber zugleich auf, daß auch das kumulative Verfahren nicht in der Lage ist, sämtliche Abweichungen höheren Grades der zuerst ermittelten Abweichung zuzurechnen. Mit steigender Anzahl multiplikativer Verknüpfungen einzelner Kostenbestimmungsfaktoren nimmt der Anteil an Abweichungen höheren Grades in den diesen Einflußgrößen zurechenbaren Spezialabweichungen zu. In engem Zusammenhang mit dieser Problematik muß die Frage nach der Stellung der Verfahren der Abweichungsanalyse im Gesamtprozeß der Kostenkontrolle gesehen werden. Diesbezüglich konnte gezeigt werden, daß durch die Vorgehensweise der Ermittlung und Abspaltung der Preisabweichung die gesamte Kostenkontrolle kumulativ eingeleitet wird: Die einmal in ihre Planausprägung versetzte Einflußgröße „Preis" wird nicht mehr in ihren Istzustand zurückgesetzt. Nur innerhalb der Analyse der globalen Verbrauchsabweichung ist es möglich, zwischen alternativer und kumulativer Abweichungsanalyse zu wählen. Insofern kann die kumulative Abweichungsanalyse nicht nur als Instrument zur Aufspaltung der Mengenabweichung, sondern auch als grundsätzliche Vorgehensweise der gesamten Kostenkontrolle einschließlich der Preiskontrolle gesehen werden; hingegen muß es als praxisfremd angesehen werden, die alternative Methode ebenfalls als umfassende Sichtweise des Gesamtvorgangs einzustufen: Dies hieße, den Kostenbestimmungsfaktor „Preis" nach der Preiskontrolle wieder in den Istzustand zu versetzen und somit die Preisabweichungen sowie sämtliche ihr zurechenbaren Abweichungen höheren Grades in die Kontrolle der Mengenkomponente hineinzutragen. Dieser Umstand sowie die Überlegenheit der kumulativen Abweichungsanalyse als Instrument zur Analyse der Mengenabweichung unterstreichen die Bedeutung der kumulativen Abweichungsanalyse, wobei man sich der Grenzen ihrer Aussagefähigkeit stets bewußt sein sollte.

294

Thomas Hänichen und Thomas Nagel

£. Anhang I. Rechenbeispiele zu den einzelnen Verfahren der Abweichungsanalyse unter Einbeziehung der Preisabweichung

Folgende Funktionen seien nachfolgend betrachtet: Hierbei gilt:

y{> = Preis y 2: = 1. KBF der Mengenkomponente y 3: = 2. KBF der Mengenkomponente

Additive Verknüpfung zwischen den KBF der Mengenkomponente: Κ =/(