474 96 88MB
German Pages 916 [920] Year 2001
ManagementLexikon Herausgegeben von Universitätsprofessor
Dr. Rolf Bühner
R.Oldenbourg Verlag München Wien
Die Deutsche Bibliothek - CIP-Einheitsaufnahme Management-Lexikon / hrsg. von Rolf Bühner. - München ; Wien Oldenbourg, 2001 I S B N 3-486-25146-5
© 2001 Oldenbourg Wissenschaftsverlag G m b H Rosenheimer Straße 145, D-81671 München Telefon: ( 0 8 9 ) 4 5 0 5 1 - 0 www.oldenbourg-verlag.de Das Werk einschließlich aller Abbildungen ist urheberrechtlich geschützt. Jede Verwertung außerhalb der Grenzen des Urheberrechtsgesetzes ist ohne Zustimmung des Verlages unzulässig und strafbar. Das gilt insbesondere für Vervielfältigungen, Übersetzungen, Mikroverfilmungen und die Einspeicherung und Bearbeitung in elektronischen Systemen. Gedruckt auf säure- und chlorfreiem Papier Druck: R. Oldenbourg Graphische Betriebe Druckerei GmbH ISBN 3-486-25146-5
Inhalt Vorwort Verzeichnis der Autoren Abkürzungsverzeichnis Lexikon A - Z
III IV XIV 1
I
Vorwort
Vorwort Das vorliegende Lexikon will in einer sich ständig ändernden Welt des Managements Ratgeber sein und Orientierung bieten. Dies zu leisten übersteigt die Kapazität eines Einzelnen. Ich darf mich daher bei allen Autoren für ihre Mithilfe und ihre Bereitschaft zur Mitarbeit auf das Herzlichste bedanken. Insgesamt haben 216 Autoren an dem Lexikon mit gearbeitet. Diese stattliche Zahl spiegelt nicht nur die inhaltliche Vielfalt von Management wider, wie sie im Lexikon zum Ausdruck kommt, sondern betont auch die praktische Seite von Management. Nur in dieser Vielfalt und Wechselwirkung von Wissenschaft und Praxis ist es heute möglich, Management verständlich und umfassend darzustellen. Natürlich sind Anregungen zur inhaltlichen Verbesserung und zur Neuaufnahme von Stichworten stets willkommen. Eine Hauptlast bei der Koordination und redaktionellen Bearbeitung der eingereichten Beiträge hat mein Mitarbeiter, Herr Dipl.-Kfm. Thomas Träger, getragen. Ihm habe ich für seinen unermüdlichen Arbeitseinsatz herzlich zu danken. RolfBühner
III
Verzeichnis der Autoren
Verzeichnis der Autoren
Verzeichnis der Autoren
Dr. Hans Achatz, Universität Passau
PD Dr. Daniel Baier, Universität Karlsruhe (TH)
Prof. Dr. Karl-Friedrich Ackermann, Universität Stuttgart
Prof. Dr. Wolfgang Bailwieser, LudwigMaximilians-Universität, München
Deniz Akitürk, Universität Passau
Prof. Dr. Klaus Barth, Gerhard-Mercator-Universität, GH Duisburg
Dr. Ayad Al-Ani, Anderson Consulting, Wien
Tilmann Barth, Universität Stuttgart
Prof. Dr. Dorothea Alewell, Friedrich-Schiller-Universität, Jena
Prof. Dr. Erich Bauer, Universität Bremen
Prof. Dr. Conny H. Antoni, Universität Trier
Prof. Dr. Franz Xaver Bea, Eberhard-Karls-Universität Tübingen
Prof. Dr. Walter Augsburger, Otto-Friedrich Universität Bamberg
Dr. Lutz Becker, Breeze TV GmbH, Köln
Dr. Willem Baan, RWE AG, Essen
Prof. Dr. Wolfgang Becker, Otto-Friedrich-Universität, Bamberg
Dr. Mathias Babel, Johann Wolfgang Goethe-Universität, Frankfurt am Main
Prof. Dr. Jürgen Berthel, Universität Siegen
Prof. Dr. Dr. h.c. Jörg Baetge, Westfälische Wilhelms-Universität Münster
Karen Birkmann, Friedrich-Alexander Universität, Erlangen-Nürnberg
IV
Verzeichnis der Autoren
Verzeichnis der Autoren
Prof. Dr. Gerhard Bodenstein, Gerhard-Mercator-Universität - GH Duisburg
Jörg Digmayer, Universität Passau
Prof. Dr. Volkmar Botta, Friedrich-Schiller-Universität Jena
Nils Dreier, Universität Passau
Dr. Weif Böttcher, Drägerwerk AG, Lübeck
Prof. Dr. Andreas Drexl, Christian-Albrechts-Universität zu Kiel
Tobias Braun, Freie Universität Berlin
Prof. Dr. Dr. h.c. Jochen Drukarczyk, Universität Regensburg
Prof. Dr. Rudi K.F. Bresser, Freie Universität Berlin
Holger J. Dürrfeld, Universität Hohenheim
Prof. Dr. Rolf Bronner, Johannes Gutenberg-Universität, Mainz
Prof. Dr. Mark Ebers, Universität Augsburg
Prof. Dr. Manfred Bruhn, Universität Basel
Prof. Dr. Dudo von Eckardstein, Wirtschaftsuniversität Wien
Prof. Dr. Herbert Buchner, Universität Augsburg
Daniela Eisele, Universität Stuttgart
Prof. Dr. Rolf Bühner, Universität Passau
Prof. Dr. Dieter Euler, Universität Erlangen-Nürnberg
Prof. Dr. Peter Conrad, Universität der Bundeswehr Hamburg
Prof. Dr. Ralf Ewert, Johann Wolfgang Goethe-Universität, Frankfurt am Main
Peter Deeg, Universität Passau
Prof. Dr. Matthias Fank, Fachhochschule Köln
V
Verzeichnis der Autoren
VI
Verzeichnis der Autoren
Jan Hendrik Fisch, Universität Hohenheim
Dr. Peter Gomber, Justus-Liebig-Universität, Gießen
Prof. Dr. Silvia Föhr, Universität Leipzig
Prof. Dr. Peter Gomez, Universität St. Gallen
Prof. Dr. Carl-Christian Freidank, Universität Hamburg
Dr. Dominik Gomm, Deutsche Telekom AG, Bonn
Prof. Dr. Erich Frese, Universität zu Köln
Ina Graf, Friedrich-Alexander Universität, Erlangen-Nürnberg
Prof. Dr. Werner Fröhlich, Donau-Universität, Krems
Prof. Dr. Jürgen Graßhoff, Universität Rostock
Dr. Jetta Frost, Universität Zürich
Prof. Dr. Achim Grawert, FH Wirtschaft, Berlin
Prof. Dr. Michael Gaitanides, Universität der Bundeswehr Hamburg
Dr. Martin Grunow, Technische Universität Berlin
Prof. Dr. Hans Georg Gemfinden, Technische Universität Berlin
Prof. Dr. Hans-Otto Günther, Technische Universität Berlin
Prof. Dr. Wolfgang Gerke, Friedrich-Alexander Universität, Erlangen-Nürnberg
Prof. Dr. Thomas Günther, Technische Universität Dresden
Prof. Dr. Torsten J. Gerpott, Gerhard-Mercator-Universität, Duisburg
Prof. Dr. Günther Haedrich, Freie Universität Berlin
Stefan Gilmozzi, CSC Ploenzke AG, München
Prof. Dr. Dr. h.c. Dietger Hahn, Justus-Liebig-Universität, Gießen
Verzeichnis der Autoren
Verzeichnis der Autoren
Stefan Hanloser, Universität Passau
Prof. Dr. Gerhard Illing, Johann Wolfgang Goethe-Universität, Frankfurt am Main
Prof. Dr. Lothar Hans, Fachhochschule Fulda
Jürgen Jüttermann, RWE AG, Essen
Prof. Dr. Dr. h.c. Jürgen Hauschildt, Christian-Albrechts-Universität zu Kiel
Prof. Dr. Klaus Kairies, Fachhochschule Hannover
PD Dr. Christian Heinrich, Universität Passau
Florian Kapmeier, Universität Stuttgart
Hanns Jörg Herwig, Universität Passau
Prof. Dr. Walter Karten, Universität Hamburg
Dr. Martin Högl, Washington State University Spokane
Prof. Dr. Dr. h.c. Alfred Kieser, Universität Mannheim
Dr. Oliver Holthaus, Universität Passau
Dr. Henning Kirstein, Deutsche Sektion der EFQM, Wolfsburg
Prof. Dr. Michael Hommel, Otto-von-Guericke-Universität Magdeburg
Prof. Dr. Gerhard Kleinbenz, Direktor des Instituts für Arbeitsmarkt- und Berufsforschung der Bundesanstalt für Arbeit in Nürnberg
Prof. Dr. Uwe Hoppe, Universität Osnabrück
Prof. Dr. Ingomar Kloss, Fachhochschule Stralsund
Ulrike Hörender, Dialog Consult GmbH, Stuttgart
Dr. Leonhard Knoll, Universität Würzburg
Prof. Dr. Harald Hungenberg, FriedrichAlexander-Universität Erlangen-Nürnberg
Prof. Dr. Richard Köhler, Universität zu Köln
VII
Verzeichnis der Autoren
Verzeichnis der Autoren
Ao. Univ. Prof. Dr. Michael Kopel, Technische Universität Wien
Prof. Dr. Eberhard Kuhlmann, Technische Universität Berlin
Dr. Harald F.O. von Kortzfleisch, Universität Gesamthochschule Kassel
Prof. Dr. Brij N. Kumar, Friedrich-Alexander Universität, Erlangen-Nürnberg
Prof. Dr. Hugo Kossbiel, Johann Wolfgang Goethe-Universität, Frankfurt am Maio
Prof. Dr. Wolfgang Kürsten, FriedrichSchiller-Universität, Jena
Prof. Dr. Matthias Kräkel, Rheinische Friedrich-Wilhelms-Universität, Bonn
Prof. Dr. Alfred Kuß, Freie Universität Berlin
Dr. jur. Nicolai Kranz, Deutsche Postbank AG, Bonn
Alfons Link, W.C. Heraeus GmbH & Co. KG, Hanau
Prof. Dr. Gertraude Krell, Freie Universität Berlin
Prof. Dr. Jörg Link, Universität Gesamthochschule Kassel
Dr. Andreas Kreuter, St. Cugat Del Valles
Sebastian Lobe, Universität Regensburg
Prof. Dr. Bernhard Kromschröder, Universität Passau
Roland Lober, Universität Stuttgart
Prof. Dr. Wilfried Krüger, Justus-Liebig-Universität, Gießen
Dr. Ina Lockau, Gerhard-Mercator-Universität, GH Duisburg
Prof. Dr. Lutz Kraschwitz, Freie Universität Berlin
Prof. Dr. Klaus Macharzina, Universität Hohenheim
Prof. Dr. Ulrich Krystek, Fachhochschule Worms
Prof. Dr. Manfred Jürgen Matschke, ErnstMoritz-Arndt-Universität Greifswald
VIII
Verzeichnis der Autoren
Verzeichnis der Autoren
Prof. Dr. Hans-W. Micklitz, Otto-Friedrich-Universität Bamberg
Prof. Dr. Bruno Neibecker, Universität Karlsruhe (TH) -
Alexander Mohr, Friedrich-Alexander Universität, Erlangen-Nürnberg
Prof. Dr. Friedemann W. Nerdinger, Universität Rostock
Prof. Dr. Hans Peter Möller, RWTH Aachen
Kai Niemeyer, Westfälische Wilhelms-Universität Münster
Prof. Dr. Gertrud Moosmüller, Universität Passau
Dr. Bernhard Nietert, Universität Passau
Dr. Kathrin Möslein, Technische Universität München
Steffen Nitschke, Technische Universität Berlin
Prof. Dr. Stefan Müller, Technische Universität Dresden
Prof. Dr. Walter A. Oechsler, Universität Mannheim
Prof. Dr. Lothar Müller-Hagedorn, Universität zu Köln
Prof. Dr. Andreas Oehler, Otto-Friedrich Universität Bamberg
Prof. Dr. Günter Müller-Stewens, Universität St. Gallen
Volker Offenbächer, Corporate Finance Consult AG, Frankfurt am Main
Dr. Harald Münzberg, Gemini Consulting GmbH, Bad Homburg
Prof. Dr. Margit Osterloh, Universität Zürich
Anton Münzebrock, Mannesmann Dematic AG, Wetter/Ruhr
Prof. Dr. Ehrenfried Pausenberger, JustusLiebig-Universität, Gießen
Dr. Klaus Nathusius, GENES GmbH Venture Services, Frechen b. Köln
Prof. Dr. Hans Pechtl, Ernst-Moritz-Arndt-Universität Greifswald
IX
Verzeichnis der Autoren
Verzeichnis der Autoren
Prof. Dr. Wolfgang Pelzl, Universität Leipzig
Dr. Monika Reemtsma-Theis, Friedrich-Alexander Universität, Erlangen-Nürnberg
Prof. Dr. Manfred Perlitz, Universität Mannheim
Prof. Dr. Dr. h.c. Ralf Reich wald, Technische Universität München
Thorsten Peske, Universität Mannheim
Prof. Dr. Michael Reiß, Universität Stuttgart
Prof. Dr. Dieter Pfaff, Universität Zürich
Dr. Andreas Richter, Universität Hamburg
Ralf Pispers, Framfab Deutschland AG, Frechen
Prof. Dr. Gerhard Ring, Technische Universität Bergakademie Freiberg
Dr. Thomas Platzek, Beratung für kundenorientiertes Management, Düsseldorf
Stefan Ring, Universität Gesamthochschule Kassel
Marcus Plock, Westfälische Wilhelms-Universität Münster
Dr. Thomas Ritter, University of Bath
Prof. Dr. Thorsten Posselt, Universität Leipzig
Prof. Dr. Bernd Rolfes, Gerhard-Mercator-Universität Duisburg
Dr. Stefan Rammert, Ludwig-Maximilians-Universität, München
Prof. Dr. Jürgen Rothlauf, Fachhochschule Stralsund
Dr. Christian Rank, Universität Passau
Prof. Dr. Gerhard Rübel, Universität Passau
Olaf Rank, Universität Mannheim
Prof. Dr. Bernd Rudolph, Ludwig-Maximilians-Universität, München
X
Verzeichnis der Autoren
Verzeichnis der Autoren
Prof. Dr. Edwin Rühli, Universität Zürich
Jörg Schnellhase, Universität Gesamthochschule Kassel
Prof. Dr. Sybille Sachs, Universität Zürich
Prof. Dr. Christian Scholz, Universität des Saarlandes, Saarbrücken
Dr. Gerald Schenk, Johann Wolfgang Goethe-Universität, Frankfurt am Main
Prof. Dr. Georg Schreyögg, Freie Universität Berlin
Prof. Dr. Dr. h.c. Henner Schierenbeck, Universität Basel
Dr. Achim Schröder, VEW AG, Dortmund
Prof. Dr. Thomas Schildbach, Universität Passau
Marcus Schuckel, Universität zu Köln
Dr. jur. Berndt Schlemann, Ford-Werke AG, Köln
Dr. Andreas Schüler, Universität Regensburg
Dr. Alexander Schloske, Fraunhofer Institut Produktionstechnik u. Automatisierung, Stuttgart
Prof. Dr. Helmut Schulte Herbrüggen, HTW Saarbrücken
Prof. Dr. Dr. h.c. Helmut Schmalen, Universität Passau
Prof. Dr. Marceli Schweitzer, Eberhard-Karls-Universität, Tübingen
Claudia Schmidt, Justus-Liebig-Universität, Gießen
Prof. Dr. Walter Schweitzer, Universität Passau
Prof. Dr. Herbert Schnauber, Ruhr-Universität, Bochum
Dr. Frank Seger, Universität Mannheim
Markus Schneckenburger, Universität Passau
Dr. Uwe M. Seidel, KPMG München
XI
Verzeichnis der Autoren
Verzeichnis der Autoren
Dipl. Volkswirtin Roswitha Seipel, RKW Eschborn
Dr. Michael Touet, Universität Siegen
Prof. Dr. Klaus Serfling, Technische Universität Berlin
Thomas Träger, Universität Passau
Sven Spork, Universität zu Köln
Prof. Dr. Volker Trommsdorff, Technische Universität Berlin
Prof. Dr. Bernd Stauss, Katholische Universität Eichstätt
Dr. Anja Tuschke, Universität Passau
Prof. Dr. Jürgen Steiner, Universität Passau
Prof. Dr. Kurt Vikas, Plaut Austria GmbH, Wien
Prof. Dr. Manfred Steiner, Universität Augsburg
Simone Vollmer, Universität Stuttgart
Dr. Daniel Stelter, The Boston Consulting Group GmbH & Partner, München
Prof. Dr. Dieter Wagner, Universität Potsdam
Irina Stoß, Universität Tübingen
Prof. Dr. Wolf-Dietrich Walker, Justus-Liebig-Universität, Gießen
Prof. Dr. Jörg Sydow, Freie Universität Berlin
Prof. Dr. Volker Warschburger, Fachhochschule Fulda
Daniela Tiedke, Universität GH Kassel
Prof. Dr. Jürgen Wegmann, FHDW, Bergisch Gladbach
Dr. Waldemar Toporowski, Universität zu Köln
Prof. Dr. Christof Weinhardt, Justus-Liebig-Universität, Gießen
XII
Verzeichnis der Autoren
Verzeichnis der Autoren
Prof. Dr. Bernd Weiß, Fachhochschule Bochum
Prof. Dr. Claus Dieter Witt, Hochschule Wismar
PD Dr. Dr. Enno Weiß, FlV-Consulting GmbH, Nürnberg
Helge-Torsten Wöhlert, Universität Passau
Kristin Wellner, Universität Leipzig
Prof. Dr. Rolf Wunderer, Universität St. Gallen
Prof. Dr. Ekkehard Wenger, Universität Würzburg
Dr. Josef Wiipping, Unternehmensberater, Bochum
Wolfgang Werner, Deutsches Institut für Betriebswirtschaft, Frankfurt am Main
Prof. Dr. Erich Zahn, Universität Stuttgart
Prof. Dr. Dr. h.c. Engelbert Westkämper, Fraunhofer Institut Produktionstechnik u. Automatisierung, Stuttgart
Prof. Dr. Günther Zäpfel, Johannes Kepler Universität Linz
Dr. Christine Wiedemann, Universität Passau
Richard Zeiss, Corporate Finance Consult AG, Frankfurt am Main
Prof. Dr. Jochen Wilhelm, Universität Passau
Prof. Dr. Hans Ziegler, Universität Passau
Prof. Dr. Frank Wimmer, Otto-Friedrich Universität, Bamberg
Prof. Dr. Klaus J. Zink, Universität Kaiserslautern
Prof. Dr. Udo Winand, Universität Gesamthochschule Kassel
Prof. Dr. Stefan Winter, Universität Würzburg
XIII
Abkürzungsverzeichnis
Abkürzungsverzeichnis
Abkürzungsverzeichnis Abb.
Abbildung
ANSI
American National Standardisation Institution
Abk.
Abkürzung
ArbGG
Arbeitsgerichtsgesetz
ABl.
Amtsblatt
ArbZG
Arbeitszeitgesetz
ABM
Arbeitsbeschaffungsmaßnahmen
Art.
Artikel
Abs.
Absatz
ASEAN
Südostasiatische Freihandelszone
ADHGB
Allgemeines Deutsches Handelsgesetzbuch
Aufl.
Auflage
AfA
Abschreibung für Abnutzung
AÜG
Arbeitnehmerüberlassungsgesetz
AfaA
Abschreibung für außergewöhnliche Abnutzung
BAG
Bundesarbeitsgericht
AFG
Arbeitsförderungsgesetz
BAKred
Bundesaufsichtsamt für das Kreditwesen
AFNOR
Association Française de Normalisation
BAT
Bundes-AngestelltenTarifvertrag
AG
Aktiengesellschaft
BAWe
Bundesaufsichtsamt für den Wertpapierhandel
AGB
Allgemeine Geschäftsbedingungen
BB
Bundesbank
AGBG
Gesetz über die Allgemeinen Geschäftsbedingungen
BBkG
Gesetz über die Deutsche Bundesbank
Bd.
Band
AICPA
American Institute of Certified Public Accountants
BDSG
Bundesdatenschutzgesetz
AktG
Aktiengesetz
BeschFG
Beschäftigungsförderungsgesetz
allg.
allgemein
BetrVG
Betriebsverfassungsgesetz
Am.
Amerikanisch
BfA
Bundesanstalt für Arbeit
AMG
Arzneimittelgesetz
XIV
Abkürzungsverzeichnis
Abkürzungsverzeichnis CSBTS
Chinese State Bureau of Technical Supervision
d.h.
das heißt
DB
Der Betrieb
DDR
Deutsche Demokratische Republik
DGB
Deutscher Gewerkschaftsbund
dgl.
dergleichen
Bundesministerium fur Forschung und Technologie
dib
Deutsche Institut für Betriebswirtschaft
BS
Berufssatzung
DIN
Deutsches Institut für Normung
BSI
British Standards Institution
DM
Deutsche Mark
BSP
Bruttosozialprodukt
dt.
deutsch
bspw.
beispielsweise
DVFA
BVW
Betriebliches Vorschlagswesen
Deutsche Vereinigung für Finanzanalyse und Anlageberatung
e.V.
eingetragener Verein
bzgl.
bezüglich
ebd.
ebenda
bzw.
beziehungsweise
EBRG
Europäisches BetriebsräteGesetz
ca.
circa
EFTA
CDO
Collateralized Debt Obligations
Europäische Freihandelsassoziation
CEN
Comité Européen de Normalisation
EG
Europäische Gemeinschaft
CENELEC
Comité Européen de Normalisation Electrotechnique
engl.
englisch
EPS
Entwürfe von Prüfungsstandards
CLO
Collateralized Loan Obligations
EQA
European Quality Award
CPA
Certified Public Accountant
Erg.-Lfg.
Ergänzungslieferung
BFuP
Betriebswirtschaftliche Forschung und Praxis
BGB
Bürgerliches Gesetzbuch
BGBl.
Bundesgesetzblatt
Bio.
Billion
BIP
Bruttoinlandsprodukt
BMFT
Bundesministerium für Forschung und Technologie
BMFT
XV
Abkürzungsverzeichnis ErgRL
Ergänzungsrichtlinie
erw.
erweitert(e)
EstDV
EstG
Einkommensteuerdurchfiihrungsverordnung
et alteri - "und andere"
etc.
et cetera
ETSI
European Telecommunication Standard Institute
EWG
Europäische Wirtschaftsgemeinschaft
EWGV
Vertrag über die Gründung der Europäischen Wirtschaftsgemeinschaft Forschung und Entwicklung
f.
folgende
FAS
Financial Accounting Standards
FASB
Financial Accounting Standards Board
ff.
fortfolgende
FG
Fachgutachten
GAAP
Generally Accepted Accounting Principles
GATT
General Agreement on Tariffs and Trade
GbR
Gesellschaft bürgerlichen Rechts
GEFMA
Deutsche Verband für Facility Management e.V.
gem.
gemäß
XVI
GenG
Gesetz betreffend die Erwerbs- und Wirtschaftsgenossenschaften
GewStG
Gewerbesteuergesetz
GfK
Gesellschaft für Konsumforschung
GG
Grundgesetz
ggf.
gegebenenfalls
Ggs.
Gegensatz, gegensätzlich
GKV
Gesamtkostenverfahren
GmbH
Gesellschaft mit beschränkter Haftung
GmbHG
Gesetz, betreffend die Gesellschaften mit beschränkter Haftung
GoB
Grundsätze ordnungsgemäßer Buchführung
grds.
grundsätzlich
GrESt
Grunderwerbssteuer
GrEStG
Grunderwerbssteuergesetz
griech.
griechisch
GSG
Gerätesicherheitsgesetz
GuV
Gewinn- und Verlustrechnung
GWB
Gesetz gegen Wettbewerbsbeschränkungen
h.M.
herrschende Meinung
HaustürWG
Gesetz über den Widerruf von Haustürgeschäften
HFA
Hauptfachausschuss
Einkommensteuergesetz
et al.
F&E
Abkürzungsverzeichnis
Abkürzungsverzeichnis HGB
Handelsgesetzbuch
Hrsg.
Herausgeber
i. Ggs.
im Gegensatz
i.A.
Abkürzungsverzeichnis IT
Informationstechnologie
Jg.
Jahrgang
Jh.
Jahrhundert
im Allgemeinen
KapAEG
Kapitalaufnahmeerleichterungsgesetz
i.d.R.
in der Regel
KFE
Kurzfristige Erfolgsrechnung
i.e.S.
im engeren Sinn
KG
Kommanditgesellschaft
i.S.
im Sinne
KGaA
Kommanditgesellschaft auf Aktien
i.V.m.
in Verbindung mit
KMU
Klein- und mittlere Unternehmen
i.W.
im Wesentlichen
korr.
korrigierte
i.w.S.
im weiteren Sinn
KSchG
Kündigungsschutzgesetz
IAS
International Accounting Standards
KStG
Körperschaftssteuergesetz
ibd.
Ibidem
KVP
Kontinuierlicher Verbesserungsprozess
IDW
Institut der Wirtschaftsprüfer in Deutschland
KVStG
Kapitalverkehrssteuergeset z
IF AC
International Federation of Accountants
KWG
Gesetz über das Kreditwesen
IKR
Industriekontenrahmen
LAA
Landesarbeitsamt
incl.
inklusive
lat.
lateinisch
InsO
Insolvenzordnung
lit.
Literatur
IOSCO
International Organization of Securities Commissions
LMBG
Lebensmittel- und Bedarfsgegenständegesetz
ISA
International Standards on Auditing
Losebl.
Loseblattwerk
ISO
International Standardization Organization
lt.
laut
XVII
Abkürzungsverzeichnis M+A
Merger and Acquisition
MBNQA
Malcolm Baldrige National Quality Award
mind.
mindestens
Mio.
Million
MIT
Massachusetts Institute of Technology
Mrd.
Milliarde
NachwG
Nachweisgesetz
NAFTA
Nordamerikanische Freihandelszone
NASDAQ
National Association of Securities Dealers Automated Quotations
Nr.
Nummer
NYSE
New York Stock Exchange
o.ä.
oder ähnliches
o.g.
oben genannt(e)
od.
oder
OHG
Offene Handelsgesellschaft
OR
Operations Research
ProdHaftG
Produkthaftungsgesetz
PS
Prüfungsstandards
PublG
Publizitätsgesetz
resp.
respektive
XVIII
Abkürzungsverzeichnis Rz.
Randziffer
s.
siehe
S.
Seite
s.a.
siehe auch
s.o.
siehe oben
s.u.
siehe unten
SB
Selbstbedienung
SchwbG
Schwerbehindertengesetz
SE
Societas Europaea
SEC
Securities and Exchange Commission
SFAC
Statement of Financial Accounting Concepts
SFAS
Statement of Financial Accounting Standard
SGB
Sozialgesetzbuch
SIS
Swedish Institute for Standards
sog.
sogenannte(n)
Sp.
Spalte
SprAuG
Sprecherausschussgesetz
StabG
Std.
Gesetz zur Förderung der Stabilität und des Wachstums der Wirtschaft Stunde(n)
StGB
Strafgesetzbuch
Abkiirzungsverzeichnis SWIFT
Society for Worldwide Interbank Financial Telecommunication
TQM
Total Quality Management
TVG
Tarifvertragsgesetz
u.
und
u.a.
1. und andere(s) 2. unter anderem
u.Ä.
und Ähnliche(s)
u.a.m.
und andere(s) mehr
u.dgl.m.
und dergleichen mehr
u.U.
unter Umständen
u.v.a.m.
und viele(s) andere(s) mehr
u.v.m.
und vieles mehr
u.zw.
und zwar
überarb.
überarbeitet(e)
UKV
Umsatzkostenverfahren
UmweltHG
Gesetz über die Umwelthaftung
UmwG
Umwandlungsgesetz
UmwStG
Umwandlungssteuergesetz
USA
United States of America
US-GAAP
United States Generally Accepted Accounting Principles
UstG
Abkiirzungsverzeichnis usw.
und so weiter
UWG
Gesetz gegen den unlauteren Wettbewerb
v.a.
vor allem
v.H.
von Hundert
v.v.
vice versa
VDI
Verband Deutscher Ingenieure
vgl.
vergleiche
VO
Verordnung
Vol.
Volume
vollst.
vollständig
vs.
versus
VStG
Vermögenssteuergesetz
VvaG
Versicherungsverein auf Gegenseitigkeit
WahlO
Wahlordnung
wg.
wegen
WiSt
Wirtschaftswissenschaftliches Studium
WpHG
Wertpapierhandelsgesetz
WPK
Wirtschaftsprüferkammer
WPO
Wirtschaftsprüferordnung
WTO
World Trade Organization
z.B.
zum Beispiel
Umsatzsteuergesetz
XIX
Abkürzungsverzeichnis z.T.
zum Teil
z.Z.
zur Zeit
ZBB
Zero Base Budgeting
ZfB
Zeitschrift für Betriebswirtschaft
ZfbF
Schmalenbachs Zeitschrift für betriebswirtschaftliche Forschung
Ziff.
Ziffer
ZPO
Zivilprozessordnung
zus.
zusammen
zus. m.
zusammen mit
XX
Abkürzungsverzeichnis
Ablauforganisation
ABC-Analyse
ABC-Analyse Die ABC-Analyse ist ein sehr leistungsfähiges Sortier- und Differenzierungsverfahren. Wichtige Anwendungsgebiete finden sich in der Materialwirtschaft, im Variantenmanagement (-> Variantenbildung) zur Sortimentsoptimierung, im -> Marketing oder in Deckungsbeitragsanalysen etc. In der Materialwirtschaft, hier findet die ABC-Analyse sicherlich die häufigste Anwendung, werden beispielsweise Bestands- (-> Stammdaten) und -> Bewegungsdaten analysiert und durch Dreiteilung eine Schwerpunktverteilung erzielt. Artikelspektren können z.B. über eine bestimmte Periode nach Verbrauchswerten (Gängigkeit, kumulierte Verbrauchswerte) geordnet und klassifiziert werden. Diese geordnete Zusammenfassung zu bestimmten Klassen wird ABC-Analyse genannt. Das Beispiel in Abb. 1 zeigt eine Einteilung nach Artikel-VerbrauchsmengenRelation in einer 80/15/5-ProzentEinteilung der Ordinate. Lediglich 10% der Artikel stellen 80% der Verbrauchsmenge dar (A-Teile: geringe Artikelzahl und hoher Verbrauchsanteil). Weitere 18% stellen die nächsten 15% der Verbrauchswerte dar (B-Teile: mittlerer
Artikelanteil und mittlerer Verbrauchsanteil). Die restlichen 72% der Artikel stellen lediglich 5% der Verbrauchswerte dar (hoher Artikelanteil und geringer Verbrauchsanteil). In der Materialwirtschaft werden derartige Analysen für die Ausarbeitung von Dispositionsstrategien (bestandsgeführt, nicht bestandsgefuhrt, Kanban- oder JitTeil etc.; s.a. -> Kanban, ->• Just-in-Time) sowie zur Einstellung von Dispositionsparametern (Bestandshöhe, Mindestbestand, Meldebestand, Bestellregeln nach Wiederbeschaffungszeiten und Losgrößen, etc.) verwendet. In der Materialwirtschaft wird in Zusammenhang mit dem Variantencontrolling beispielsweise versucht, einen möglichst steilen Anstieg des Kurvenverlaufs zu erzielen und den Umfang der C-Artikcl deutlich einzugrenzen (Bereinigung der sich nicht/kaum bewegenden Teile). Josef Wüpping Ablauforganisation Die Ablauforganisation regelt die sachliche, zeitliche und räumliche Gestaltung der Arbeitsprozesse (Geschäftsprozesse, Arbeitsabläufe) in einem Unternehmen und steht in einem engen Zusammenhang zur -> Aufbauorganisation. Die Ablauforganisation umfasst die Festlegung von Arbeitsgängen und Arbeitsgangfolgen,
ABC-Analyse Verbrauchsmenge in Prozent
Abb. 1: ABC-Analyse
1
Ablauforganisation die Festlegung der räumlichen Anordnung und zeitlichen Belastung von Arbeitsträgem (Menschen und Betriebsmittel) sowie die Festlegung von Transportverbindungen und -einrichtungen zwischen den Arbeitsträgern. Im Hinblick auf die sachliche Gestaltung der Arbeitsprozesse ist die Aufgabe der Ablauforganisation die systematische Zerlegung der Arbeitsabläufe in Arbeitsgänge (diese evtl. wiederum in Arbeitselemente) und die Zuordnung der ermittelten Arbeitsgänge zu Arbeitsträgern oder zu einer Menge von alternativen Arbeitsträgern. Bezüglich der zeitlichen Gestaltung der Arbeitsabläufe werden im Rahmen der Ablauforganisation die Zeitdauer der einzelnen Arbeitsgänge bestimmt, die Reihenfolge der Durchführung der Arbeitsgänge eines Arbeitsablaufes (Arbeitsgangfolge) festgelegt, wobei technologische und/oder organisatorische Restriktionen zu berücksichtigen sind, Termine geplant für die Ausführung der einzelnen Arbeitsgänge durch die zugeordneten Arbeitsträger (Termingrobplanung) und die zeitliche Reihenfolge, in welcher ein Arbeitsträger die ihm zugeordneten Arbeitsgänge durchfuhren soll, bestimmt (Reihenfolgeplanung, Terminfeinplanung). Die Ergebnisse der sachlichen und zeitlichen Ablauforganisation werden z.B. in Form von Ablaufdiagrammen, -»Netzplänen oder Flussdiagrammen dokumentiert, welche als Unterlage für die konkrete Durchführung des Arbeitsprozesses dienen. Gegenstand der räumlichen Gestaltung der Arbeitsabläufe ist die Zuordnung von Unternehmensbereichen (z.B. Produktionsstationen, Läger, Abteilungen) zu Flächen und Räumen, die räumliche Anordnung von Untemehmensbereichselementen (z.B. Anlagen, Arbeitsplätze) innerhalb der Unternehmensbereiche sowie die Festlegung von Transportverbindungen und -einrichtungen zwischen den Bereichen und zwischen den Ele2
Abmahnung menten eines Bereichs (innerbetriebliche Standortplanung). Die räumliche Organisation der Arbeitsabläufe hat dabei so zu erfolgen, dass die Kosten der Raumüberbrückung für Werkstoffe und sonstige Sachgüter, Personen, und Informationen möglichst gering sind. Oliver Holthaus Abmahnung Die verhaltensbedingte Kündigung ist nach Rechtssprechung des BAG grundsätzlich unwirksam, wenn der Arbeitgeber vorher keine Abmahnung ausgesprochen hat. Die Praxis hat diesen höchstrichterlichen Grundsatz nur unzureichend umgesetzt. Häufig obsiegt der Arbeitnehmer im Kündigungsschutzprozess, weil die Abmahnung fehlt. Das hat unterschiedliche Gründe. In vielen Fällen scheut der Mitarbeiter der Personalabteilung, das scharfe Schwert der Abmahnung zu ziehen. Stattdessen bedient er sich zur Vorbereitung einer Kündigung der sog. Ermahnung als milderes und vermeintlich gleichermaßen taugliches Mittel. Aber dieses Schwert ist stumpf. Im Kündigungsschutzprozess kommt es auf eine Ermahnung in aller Regel nicht an. Entscheidend ist die Abmahnung. Sie aber wird über die Ermahnung häufig vergessen (Kranz 1998). Die Abmahnung des Arbeitgebers im arbeitsrechtlichen Sinne ist die Aufforderung des Arbeitgebers an den -* Arbeitnehmer, ein vertragswidriges Verhalten abzustellen, wobei der Arbeitgeber für die Zukunft Rechtsfolgen androht, falls der Arbeitnehmer der Aufforderung nicht Folge leistet. Rechtsprechung und Literatur haben die Abmahnung als Vorstufe zur Kündigung entwickelt. Besonders schwerwiegende Vertragsverstöße bedürfen allerdings keiner Abmahnung, wenn das Fehlverhalten die Vertrauensgrundlage nachhaltig zerstört hat und eine Verhaltensänderung nicht zu erwarten ist (Bsp.: schwere Beleidigung, Manipulation bei der Zeiter-
Abmahnung fassung usw.). Im übrigen gilt aber der Grundsatz: Der Arbeitgeber muss vor der verhaltensbedingten Kündigung als milderes Mittel eine Abmahnung aussprechen. Dies gilt auch im Vertrauensbereich, wenn es sich um ein steuerbares Verhalten des Arbeitnehmers handelt und eine Wiederherstellung des Vertrauens erwartet werden kann. An die - nicht mitbestimmungspflichtige - Abmahnung sind strenge formale Anforderungen zu stellen. Diese sind vom Arbeitgeber zu beachten. Anderenfalls besteht die Gefahr der Rechtsunwirksamkeit der Kündigung. So muss der Arbeitgeber die abgemahnten Pflichtwidrigkeiten in örtlicher, zeitlicher und gegenständlicher Hinsicht im Einzelnen schildern. Schlagwortartige pauschalisierende Angaben wie z.B. "fehlende Sorgfalt", "ungenügende Leistung" oder "häufiges Zuspätkommen" reichen nicht. Nur so kann der Arbeitgeber den Arbeitnehmer konkret auf das vertragswidrige Verhalten hinweisen, um ihm mit der Abmahnung als Orientierungshilfe die Rückkehr zu vertragsgemäßem Verhalten zu ermöglichen. Die Abmahnung bedarf nicht der Schriftform, wenngleich sich deren Einhaltung aus Gründen der Beweissicherung empfiehlt. Die Abmahnung braucht auch nicht als solche bezeichnet zu werden. Entscheidend ist nicht der buchstäbliche Wortlaut, sondern der ggf. durch Auslegung zu ermittelnde materielle Inhalt der Erklärung des Arbeitgebers. Zur Abmahnung berechtigt sind alle Personen, die dem betroffenen Arbeitnehmer gegenüber das Weisungsrecht inne haben. Die Abmahnung hat eine Beanstandungsfunktion (Hinweis auf den Vertragsverstoß) sowie eine Warn- oder Drohfunktion (Verdeutlichung der Konsequenzen). Sie löst aber keine unmittelbaren Rechtsfolgen aus. Der Arbeitnehmer hat - während des laufenden Arbeitsverhältnisses - unbe-
Abmahnung achtlich einer evtl. Beeinträchtigung des beruflichen Fortkommens einen Anspruch auf Entfernung einer unwirksamen Abmahnung (z.B. bei unrichtigen Tatsachenbehauptungen) aus seiner -» Personalakte. Der Entfernungsanspruch ist ggf. mit einer Leistungsklage - gerichtet auf Widerruf der objektiv zu Unrecht erteilten Abmahnung und ihrer Entfernung aus der Personalakte - gerichtlich durchsetzbar. Die Entfernung macht die Abmahnung freilich nicht ungeschehen; die Warnfunktion bleibt. Dem Arbeitgeber sei empfohlen, für mehrere abmahnungsrelevante Sachverhalte unterschiedliche Abmahnungen zu fertigen. Dann erstreckt sich ein Entfernungsanspruch wegen eines einzelnen unbegründeten Vorwurfs nicht auf die gesamte Abmahnung. Der Arbeitgeber kann sie nicht teilweise aufrecht erhalten und nur unter Beschränkung auf die begründeten Vorwürfe wiederholen. Ist die Abmahnung wirksam, kann der Arbeitnehmer seiner Personalakte eine Gegendarstellung beifügen ( § 8 3 Abs. 2 BetrVG). Außerdem kann er sich gegen die Erteilung der Abmahnung bei seinem Vorgesetzten oder dem -> Betriebsrat beschweren (§§84 Abs. 1,85 Abs. 1 BetrVG). Oft spricht der Arbeitgeber vor einer Abmahnung eine -»Ermahnung aus. Häufig wird der Arbeitnehmer bereits nach einer Ermahnung zu einem vertragsgemäßen Verhalten zurückkehren. Dann ist das scharfe Instrument der Abmahnung entbehrlich und das Arbeitsverhältnis nicht unnötig belastet. Zudem wahrt der Arbeitgeber mit der Ermahnung den Verhältnismäßigkeitsgrundsatz. Die Frage ist: Muss er das? Eine verbreitete Praxis hat sich aus praktischen Gründen für die Einhaltung der Reihenfolge Ermahnung - Abmahnung Kündigung entschieden. Das BAG kennt die Trias hingegen nicht. Zwar will das BAG auch bei der Erteilung von Abmah3
Abmahnung nungen den Grundsatz der Verhältnismäßigkeit berücksichtigt wissen. Es interpretiert den Verhältnismäßigkeitsgrundsatz aber nur als Übermaßverbot zur Vermeidung schwerwiegender Rechtsfolgen bei geringfügigen Pflichtverletzungen. So ist beispielsweise ein langjährig beanstandungsfrei arbeitender Betriebszugehöriger nicht bereits bei der ersten einstündigen Verspätung abzumahnen. Das Übermaßverbot verlangt vom Arbeitgeber aber nicht, bei der Erteilung von Abmahnungen eine Stufenfolge im Sinne des kündigungsrechtlichen ultima-ratioPrinzips einzuhalten. Er muss vor einer schriftlichen Abmahnung keine mündliche aussprechen, keine Betriebsbuße verhängen und auch nicht zunächst zivilrechtliche Ansprüche gegen den Arbeitnehmer geltend machen. Gleichwohl sinnvoll muss der Arbeitgeber den Arbeitnehmer vor einer Abmahnung noch nicht einmal anhören. Jedenfalls hat das BAG bislang - soweit ersichtlich - keine Entscheidung dieses Inhalts gefällt. Diese Interpretation des Verhältnismäßigkeitsgrundsatzes ist aber nicht unumstritten. Zudem verliert sie ihre Eindeutigkeit in der erstinstanzlichen Verhandlung vor dem Arbeitsgericht Arbeitnehmer, wenn der Richter - um Konsensbildung bemüht - dem Arbeitgeber vorhält, warum er vor der Abmahnung keine Ermahnung ausgesprochen habe. Hier kann der Arbeitgeber gegen halten: Die Ermahnung ist überflüssig. Das ist nicht hinreichend bekannt. Für die Beweisführung gilt - wie auch sonst im Arbeitsprozess - der Grundsatz der sog. abgestuften Darlegungslast: Zunächst muss der Arbeitgeber nur vortragen, er habe den Arbeitnehmer wegen bestimmter Leistungs- oder Verhaltensmängel unter Hinweis auf die Bestandsoder Inhaltsgefährdung seines Arbeitsverhältnisses abgemahnt. Erst wenn der Arbeitnehmer dies bestreitet, muss der Arbeitgeber die Tatsachen im Einzelnen vortragen, die der Abmahnung zu Grunde liegen. 4
Abmahnung Den Arbeitgeber trifft die Darlegungsund Beweislast (1.) für die tatsächliche Kenntnis des Arbeitnehmers von der Abmahnung und (2.) die Darlegung eines Verstoßes des Arbeitnehmers gegen die arbeitsvertraglichen Pflichten, da es sich hierbei um für den Arbeitgeber günstige Umstände handelt. (1.) Die Abmahnung kann ihre Beanstandungs- und Warnfunktion erst entfalten, wenn der Arbeitnehmer von ihr tatsächlich Kenntnis genommen hat. Hierfür muss die Abmahnung dem Arbeitnehmer zugegangen sein. Die für die empfangsbedürftige Willenserklärung geltenden Grundsätze finden entsprechende Anwendung. Der Beweis des Zugangs ist in der Regel unproblematisch: Der Arbeitgeber kann sich den Zugang durch eine Empfangsbestätigung quittieren lassen. In den meisten Fällen kann der Arbeitgeber damit auch den Beweis der tatsächlichen Kenntnis des Arbeitnehmer von der Abmahnung führen, aber nicht immer. So benötigt der nicht deutschsprachige Arbeitnehmer möglicherweise eine Übersetzung. In solchen Fällen sollte der Arbeitnehmer in seiner Muttersprache schriftlich bestätigen, dass er den Inhalt der Abmahnung verstanden hat. Die Einbeziehung eines Dolmetschers ist sinnvoll. Schwieriger ist (2.) der Beweis der abgemahnten Pflichtwidrigkeit. Der Arbeitgeber sollte die zu Grunde liegenden Vorgänge sorgfältig dokumentieren - beispielsweise durch handschriftliche Gedächtnisstützen oder Aktennotizen - und durch Zeugen absichern. Häufig kommt als Beweismittel allein die Aussage des Vorgesetzten in Betracht. Dann liegt der Verdacht nahe, dass der Vorgesetzte Arbeitnehmer einem für den Arbeitgeber günstigen Ausgang des Rechtsstreits ein eigenes Interesse hat - aus welchen Gründen auch immer. Bei der richterlichen Beweiswürdigung spielt eine solches eigenes Interesse des Zeugen am Ausgang des Rechtsstreits zwar eine Rolle, doch mindert dies Interesse die Beweiskraft des
Absatzsegmentrechnung
Abmahnung Zeugen nicht allein. Neben dem eigenen Interesse prüft der Richter bei der Beweiswürdigung: Wahrnehmungsfehler, Wiedergabefehler, das gesamte Verhalten des Zeugen, seinen persönlichen Eindruck und das Verhältnis der Aussage des Zeugen zu anderen vorhandenen Beweismitteln. Literatur: Kranz N.: Die Ermahnung in der arbeitsrechtlichen Praxis; Anders/Gehle: Das Assessorexamen im Zivilrecht, E III; DB 1998 S. 1464 ff.; BAG 19.6.1967, DB 1967 S. 1550; 17.2.1994 DB 1994 S. 1477; BAG 10.11.1993, DB 1994 S. 2554; B A G 13.11.1991, DB 1992 S. 843. BAG 17.1.1991, DB 1991 S. 1226.
Nicolai Kranz Absatzmittler-Promotions -> Verkaufsförderung Absatzsegmentrechnung Die Absatzsegmentrechnung ist ein Teilgebiet des -> Marketing-Controlling. Ihr Zweck besteht darin, den Periodenerfolg näher nach bestimmten Gewinn- oder Verlustquellen aufzugliedern, um durch diese rückblickende Erfolgsanalyse Anhaltspunkte für Dispositionen zur Ergebnisverbesserung und für eine selektive Absatzpolitik zu gewinnen.
menten weisen teilweise logische Verknüpfungen miteinander auf, die für eine mehrstufige Zuordnung von Kosten und Erlösen bedeutsam sind. 2. Methodische Grundlagen der Absatzsegmentrechnung Das Anliegen der Absatzsegmentrechnung besteht darin, einen möglichst unverfälschten, transparenten Einblick in die Erfolgsbeiträge bestimmter Produkte, Kunden, Verkaufsgebiete etc. zu gewinnen. Deswegen gilt es festzustellen, welche Kosten und Erlöse eindeutig nicht angefallen wären, wenn es im Referenzzeitraum das betreffende Absatzsegment (etwa eine spezifische Kundenbeziehung) nicht gegeben hätte. Diese Überlegung entspricht dem sog. Identitätsprinzip für die Zurechnung von Kosten und Erlösen.
1. Begriff und Arten von Absatzsegmenten Absatzsegmente sind Teilausschnitte der betrieblichen Produkt-Markt-Beziehungen, denen Kosten und Erlöse gesondert zugerechnet werden können. Der Begriff ist nicht einfach mit -> Marktsegmentierung oder Marktsegmenten (i.S. von Nachfragergruppen) gleichzusetzen, da er auch noch andere rechnerische Bezugsgrößen umfasst.
Das Identitätsprinzip schlägt sich in dem auf Paul Riebel zurückgehenden Rechnen mit relativen Einzelkosten und Deckungsbeiträgen nieder. Dies ist eine Form der Deckungsbeitragsrechnung, die sich vom Direct Costing dadurch unterscheidet, dass nicht die Trennung in fixe und variable Kosten vorrangig ausschlaggebend ist, sondern die Frage nach der schlüsselungsfreien, direkten Zurechenbarkeit von Kosten und Erlösen auf den jeweils untersuchten Kalkulationsgegenstand. So stellen bspw. die festen Mietkosten für ein regionales Verkaufsbüro durchaus Einzelkosten relativ zu dem entsprechenden Verkaufsgebiet dar. Die Deckungsbeiträge als (Brutto-) Erfolg eines Absatzsegments ergeben sich in diesem System als die Differenz zwischen Segmenterlösen und relativen Einzelkosten des Segments.
Als Absatzsegmente in dem genannten rechentechnischen Verständnis kommen in Betracht: Produkte oder Produktgruppen, Aufträge (unterteilbar nach Auftragsarten, wie Normal- oder Eilaufträgen, und Auftragsgrößen), Kunden oder Kundengruppen, Verkaufsgebiete und Absatzwege (Vertriebskanäle). Diese klar unterscheidbaren Arten von Absatzseg-
An dieser Art der Deckungsbeitragsrechnung wird mitunter kritisiert, dass sie wegen des Verzichts auf die Verteilung (relativer) Gemeinkosten zu unvollständig sei. Als zweckmäßigere Alternative wird in jüngerer Zeit öfter die -> Prozesskostenrechnung genannt. Bei diesem Verfahren werden auch Gemeinkosten (-> Kostenarten), insbesondere fixe, auf 5
Absatzsegmentrechnung die Kalkulationsobjekte verteilt. Dies geschieht aber nicht nach herkömmlichen, oft zu schematisch ermittelten Zuschlagssätzen, sondern proportional zur Inanspruchnahme eines Prozesses und der für ihn vorgehaltenen Kapazitäten. So bekommen dann z.B. Produkte kalkulatorische Abschreibungen für eine Fertigungsmaschine entsprechend ihrer zeitlichen Bearbeitungsdauer an diesem Maschinenplatz zugeschlüsselt, oder Gehälter für die Reklamationsbearbeitung werden gemäß der produktspezifischen Anzahl von Reklamationen verrechnet. Eine Spielart dieses Vorgehens findet sich
Absatzsegmentrechnung im Handel bei Gemeinkostenverteilungen zur Ermittlung der "Direkten ProduktProfitabilität" (DPP), die auch häufig "Direkte Produkt-Rentabilität" (DPR) genannt wird. Dem Identitätsprinzip entspricht die Prozesskostenrechnung nicht, da sie einem Absatzsegment Kapazitätskosten zuordnet, die auch bei Nichtexistenz dieses Segments jedenfalls auf kürzere Sicht weiter anfallen würden. Sie liefert aber Kennzahlen (-> Kennzahlen- und Kennzahlensysteme), die die Prozess- und Kapazitätsinanspruchnahme widerspiegeln und damit Anhaltspunkte für mittel-
Allgemeine Verwaltungskosten der Unternehmung
Gehalt des Gesamtverkaufsleiters
Gehalt des Gesamtverkaufsleiters
Mietkosten für das Verkaufsbüro Im Gebiet V
Mietkosten für das Verkaufsbüro im Gebiet V
Gehalt des für A zuständigen Key Account Managers
Gehalt des für A zuständigen Key Account Managers
Versandkosten
Versandkosten
Materialkosten
Beispiele für relative Gemeinkosten (GK)
Beispiele für relative Einzelkosten (EK)
Abb.: Ausschnitt aus einer absatzwirtschaftlichen Bezugsgrößenhierarchie 6
Absatzsegmentrechnung und längerfristige Dispositionen bieten, die zu einer Kapazitäts- und Fixkostenveränderung fuhren. Insoweit kann sie die oben beschriebenen Deckungsbeitragsrechnungen als gesonderter Zusatz ergänzen. 3. Bezugsgrößenhierarchien Für das Rechnen mit relativen Einzelkosten und Deckungsbeiträgen ist es wichtig, das jeweils untersuchte Absatzsegment als Bezugsgröße zu definieren. Es gibt eng abgegrenzte Absatzsegmente, denen sich nur wenige Kosten ohne Schlüsselung zuordnen lassen, und solche auf stärker aggregierter Ebene mit deutlich mehr direkten Zurechnungsmöglichkeiten. Dies lässt sich in sog. Bezugsgrößenhierarchien darstellen. Die Abbildung gibt nur einen Ausschnitt aus einer eigentlich noch vielfältigeren absatzwirtschafitlichen Bezugsgrößenhierarchie wieder. Sie zeigt beispielartig, wie bestimmte -> Kostenarten auf manchen Stufen relative Gemeinkosten und dann auf anderen Ebenen relative Einzelkosten sind. Dabei ist angenommen, dass die verschiedenen Positionen eines Kundenauftrags nach Kommissionierung als Sammelfracht versandt werden. Eine sog. Grundrechnung hat den Zweck, durch Datenkennzeichnung mit Deskriptoren (z.B. Kundennummer) festzulegen, welchen Absatzsegmenten die Kostenund Erlösdaten direkt zurechenbar sind. Soweit die schon erwähnten logischen Verknüpfungen zwischen Bezugsgrößen vorliegen, genügt es aber, die niedrigste Stufe der Hierarchie anzugeben, auf der erstmals eine schlüsselungsfreie Zuordnung möglich ist. So sind bspw. Einzelkosten eines Kundenauftrags auch dem betreffenden Kunden eindeutig zurechenbar und dann auf einer nächsten Stufe der Kundengruppe, zu der dieser Abnehmer gehört. 4. Eindimensionale Rechnungen Eindimensionale Rechnungen untersuchen einzelne Absatzsegmente für sich genommen. In der Praxis am meisten
Absatzsegmentrechnung verbreitet sind periodenbezogene Deckungsbeitragsanalysen für Produkte oder Produktgruppen sowie für Verkaufsgebiete. Auch Kundendeckungsbeitragsrechnungen haben mittlerweile eine größere Verbreitung gefunden. Selbst bei der isolierten Durchfuhrung solcher eindimensionalen Analysen bestehen doch insofern Wechselbeziehungen zwischen mehreren Segmentarten, als z.B. variable Stückkosten aus der Produkterfolgsrechnung - multipliziert mit der vom Kunden X pro Periode bezogenen Menge - in die Kundenerfolgsrechnung bezüglich Abnehmer X zu übernehmen sind. Für eine Absatzsegmentrechnung nach Verkaufsgebieten sind, um ein weiteres Beispiel zu nennen, die Deckungsbeiträge der eindeutig gebietszugehörigen Kunden relevant. Relationale Datenbanken erleichtem die flexible, je nach Auswertungszweck erforderliche Zuordnung von Kosten- und Erlösgrößen zu verschiedenen Absatzsegmenten. 5. Mehrdimensionale Absatzsementrechnungen Eine Vertiefung der Gewinn- oder Verlustquellenanalyse lässt sich erreichen, wenn mehrere Absatzsegmente hinsichtlich ihres gemeinsamen Erfolgseinflusses zusammen untersucht werden. Die Deckungsbeiträge eines Produktes mögen z.B. im Referenzzeitraum in verschiedenen Verkaufsgebieten sehr ungleich ausfallen, was evtl. an unterschiedlichen Preiszugeständnissen der Verkaufsgebietsleiter liegt. Vielleicht zeigt sich dann noch zusätzlich, dass die Produkterfolge bei mehrgleisigem Vertrieb wiederum nach Absatzwegen differieren. Solchen Zusammenhängen wird in mehrdimensionalen Absatzsegmentrechnungen nachgespürt. Diese werden durch neuere Informationstechniken unterstützt, etwa durch die Kombination von Daten eines Data Warehouse (-> Data Warehousing) mit Hilfe von OLAP-Techniken (Online Analytical Processing), wofür sich Beispiele im R/3-System von SAP finden. 7
Absatzsegmentrechnung
Absatzwegewahl
Literatur: Albers, S.: Absatzsegmentrechnung, in: Tietz, B./Köhler, R./Zentes, J (Hrsg.): Handwörterbuch des Marketing, 2. Aufl., Stuttgart 1995; Hoffjan, A./Reinermann, J.: Absatzsegmentrechnung, in: Wirtschaftswissenschaftliches Studium (WiSt), 29. Jg., 3/2000, S. 129-135; Köhler, R.: Absatzsegmentrechnung, in: Chmielewicz, K./Schweitzer, M. (Hrsg.): Handwörterbuch des Rechnungswesens, 3. Aufl., Stuttgart 1993; Riebet, P.: Einzelkosten- und Deckungsbeitragsrechnung, 7. Aufl., Wiesbaden 1994.
Richard Köhler Absatzpolitisches Instrumentarium Der Begriff wurde 1955 von E. Gutenberg eingeführt. Er bezeichnet die Mittel eines Unternehmens zur Einwirkung auf die Vorgänge auf den Absatzmärkten. Nach Gutenberg umfasst das absatzpolitische Instrumentarium: 1. 2. 3. 4.
Absatzmethode; Preispolitik; Produkt- und Sortimentsgestaltung; Werbung.
Die von Gutenberg formulierte Gliederung wurde in der Literatur weiterentwickelt. Meffert unterscheidet etwa in: 1. Instrumente des Produktmix: Produkt-/ Verpackungsgestaltung (-»Produktgestaltung), Namensgebung, —• Sortimentspolitik, Kundendienst. 2. Instrumente des Distributionsmix: Auswahl des Absatzkanals (-> Absatzwegewahl; -»• Distributionspolitik), Physische Distribution. 3. Instrumente der -»Kontrahierungspolitik: -> Preispolitik, Rabatte, Lieferungs- und Zahlungsbedingungen, Kreditpolitik (-> Konditionenpolitik). 4. Instrumente des Kommunikationsmix: Persönlicher Verkauf, Absatzwerbung, -* Verkaufsförderung, -> Öffentlichkeitsarbeit. Die über einen gewissen Zeitraum hinweg angewandte Kombination bestimmter absatzpolitischer Instrumente wird als -> Marketing-Mix bezeichnet.
8
Das mit der Anwendung der absatzpolitischen Instrumente verfolgte Ziel ist die systematische, zielgerichtete Einflussnahme auf die Kaufentscheidung der aktuellen und potenziellen Abnehmer. Absatzwegewahl Die Wahl der Absatzwege (Distributionswege) erstreckt sich grundsätzlich auf die Festlegung der Zahl der Handelsstufen (Direktvertrieb unter Ausschluss des Handels, Einzelhandel, Großhandel; s.a. Handelsformen) und die Gestaltung der Beziehungen zur Handelsebene, wobei beide Entscheidungen ineinander greifen. Die Entscheidung über die Absatzwege ist komplex und weist in aller Regel einen langfristigen Charakter auf, so dass sie ihrerseits Rückwirkungen bspw. auf die Preis- und Kommunikationspolitik hat. Eine geringe Zahl an Stufen eines Absatzweges erlaubt es i.d.R., einen intensiven Kontakt zum Endabnehmer aufrecht zu erhalten, d.h. es können Informationen sowohl relativ einfach an den Endabnehmer weitergeleitet als auch von dort eingeholt werden. Darüber hinaus fallen die Unsicherheit und die Abhängigkeit im Hinblick auf die Handelsbeziehungen eher gering aus. Lange Absatzwege erlauben dagegen tendenziell eine höhere Distributionsdichte und damit eine bessere Ausschöpfung der Nachfrage. Im Hinblick auf die Gestaltung der Beziehungen kann zwischen engen und schwachen Bindungen zwischen Hersteller- und Handelsebene unterschieden werden. Die extremste Form enger Bindungen liegt bei vollständiger Integration der Absatzwege beim Hersteller vor, z.B. bei Niederlassungen und Reisenden. Typische Beispiele für eng an den Hersteller gebundene Absatzwege stellen des Weiteren Franchising (-> FranchiseSysteme), Vertragshändlersysteme und oft auch Handelsagentursysteme dar. Diese Systeme weisen in stärkerem Maße hierarchische Elemente auf.
Absatzwegewahl Demgegenüber besteht eine eher marktmäßige Organisation der Distribution, wenn eine schwache Bindung der Einheiten in den Absatzwegen an den Hersteller vorliegt. Die Beziehungen sind dann i.d.R. nur in geringem Umfang vertraglich festgelegt. Dies trifft z.B. auf Vertriebssysteme zu, denen lediglich Rahmenverträge zu Grunde liegen. Ein Wechsel der Geschäftspartner ist in diesen Fällen sehr viel leichter möglich als im Fall enger Bindungen. Die schwächst mögliche Bindung stellt ein Spot-marketKontrakt zwischen vollständig unabhängigen Hersteller- und Handelsunternehmen dar, bei dem aus der Transaktion keinerlei Bindungswirkung für die Zukunft resultiert. Die Gestaltung der Beziehungen umfasst mehrere Dimensionen, darunter die Festlegung des physischen Güterflusses (ein Problem der Logistik), des Eigentumsflusses (welcher Partei im Absatzkanal stehen die Verfügungsrechte über die Produkte zu), des Flusses der Zahlungsströme (welche Partei nimmt Zahlungen entgegen), des Informationsflusses (welche Partei ist für unterschiedliche Arten von Kommunikationspolitik zuständig) und der sonstigen Dispositionen (welche Partei legt die Sortiments- oder die Preispolitik fest). Der Vorteil von engeren Formen der Bindung liegt ganz allgemein in dem stärkeren Einfluss des Herstellers auf die Distributionseinheit. Der Hersteller kann seine Ziele, bspw. im Hinblick auf die Gestaltung der Kommunikationspolitik oder der Preispolitik, besser durchsetzen, wenn die Distributionseinheiten enger an ihn gebunden sind. Der Verkauf ist dann stärker auf das Produkt und das Image des Herstellers fokussiert, während die Rolle der Handelsstätte dahinter zurücktritt. Diese Beziehungen sind stabil, durch ein geringeres Ausmaß an Unsicherheit und i.d.R. einer geringeren Notwendigkeit regelmäßig wiederkehrender Verhandlungen gekennzeichnet. Die engere Koordi-
Absatzwegewahl nation erlaubt die Durchführung von spezifischen Investitionen oder die Erfüllung spezifischer Anforderungen beim Vertrieb des Produkts. Wenn Absatzwege durch eine Ausschließlichkeitsbindung oder gar durch eine Integration der Absatzwege für andere Hersteller versperrt sind, kann daraus ein Wettbewerbsvorteil gegenüber anderen Herstellern entstehen. Ein weiterer Vorteil einer engen Bindung besteht in dem besseren Zugriff auf Informationen über die Endkunden. Demgegenüber nimmt die Motivation der Distributionseinheiten mit zunehmend hierarchischer Organisationsform ab, da die Spielräume für eigene Entscheidungen und die unternehmerische Gestaltungsfreiheit sinken. Eine typische Ausprägung dieses Problems besteht bspw. in der Festlegung der Anteile der fixen und der variablen Entlohnung bei Handelsvertretern, wobei ein hoher Anteil an fixer Entlohnung tendenziell einer hierarchischen und ein hoher Anteil an variabler Entlohnung tendenziell einer marktmäßigen Organisation des Absatzwegesystems entspricht. Um diese Nachteile einer engen Bindung zwischen Hersteller- und Händlerebene zu mildern, lassen sich Anreize (z.B. Kopplung der Entlohnung an Verkauf oder -> Kundenzufriedenheit) einführen, die bestimmte Elemente einer Marktbeziehung simulieren. Nachteile enger Bindungen liegen weiter in einem meist höherem Kapitalbedarf, einer geringeren Flexibilität im Hinblick auf einen Wechsel des Geschäftspartners und häufig zunehmender Schwerfälligkeit hinsichtlich der Entwicklung und Durchsetzung von Innovationen. Die Vielfalt der Distributionssysteme dient dazu, durch die Auswahl geeigneter Absatzwege bestimmte Vorteile zu verstärken und Nachteile zu vermeiden. Literatur: Ahlert, D.: Distributionspolitik, 3. Aufl. Stuttgart/Jena 1996; Albers, S.: Optimales Verhältnis zwischen Festgehalt und erfolgsabhängiger Entlohnung bei Verkaufsaußendienstmitarbeitern, ZfbF, 47. Jg., 1995, S. 124-142; MüllerHagedorn, L.: Zur Erklärung der Vielfalt und
9
Absatzwegewahl
Abschlussprüfung
Dynamik der Vertriebsformen, ZfbF, 42. Jg., 1990, S. 451-466; Posselt, T.: Die Gestaltung der Distributionswege, erscheint demnächst; Specht, G.: Distributionsmanagement, Stuttgart u.a. 1992; Stern, L./El-Ansary, A./Coughlan, A.: Marketing Channels, 5. Auflage, Englewood Cliffs 1996.
Thorsten Posselt Abschlussprüfung 1. Einführung Jahresabschlüsse dienen einerseits der Rechenschaftslegung über die finanziellen Resultate einer Abrechnungsperiode; sie enthalten Informationen über die Vermögens- und Erfolgssituation einer Unternehmung, auf deren Basis verschiedenste Interessengruppen (Aktionäre, Gläubiger, etc.) ihre Entscheidungen fundieren können. Außerdem wird insbesondere bei haftungsbeschränkten Gesellschaften (-> GmbH) die Ausschüttungsbemessung durch Jahresabschlüsse (-> Jahresabschluss) maßgeblich bestimmt. Damit Jahresabschlüsse diese wichtigen Funktionen erfüllen können, muss die Verlässlichkeit der in ihnen enthaltenen Größen und deren Vereinbarkeit mit den in Gesetzen und Verordnungen enthaltenen Vorstellungen sichergestellt werden. Diese Aufgabe wird durch die Abschlussprüfung übernommen. Die konkreten Modalitäten und die Reichweite der Abschlussprüfung wurden durch das im Jahre 1998 verabschiedete "Gesetz zur Kontrolle und Transparenz im Unternehmensbereich" (—• KonTraG) erheblich modifiziert. Nachfolgend werden auf dieser Basis die wichtigsten strukturellen Bestandteile im Zusammenhang mit einer Abschlussprüfung (vornehmlich am Beispiel der -> Aktiengesellschaft, wobei auf eventuelle Besonderheiten bei Konzernabschlüssen aus Platzgründen zumeist nicht gesondert eingegangen wird) beschrieben. 2. Prüfungspflicht und Prüfungsauftrag Gemäß § 3 1 6 (1) HGB sind Kapitalgesellschaften zur Prüfung ihrer Jahresabschlüsse und Lageberichte verpflichtet, 10
sofern sie wenigstens mittelgroß im Sinne des § 267 (1) HGB sind. Diese Aufgabe stellt eine typische Vorbehaltsaufgabe für Wirtschaftsprüfer und/oder Wirtschaftsprüfungsgesellschaften dar, allerdings kann die Prüfung mittelgroßer Gesellschaften auch von vereidigten Buchprüfern bzw. Buchprüfungsgesellschaften durchgeführt werden (§319 (1) HGB). Der Abschlussprüfer wird gemäß § 318 (1) HGB von den Gesellschaftern gewählt, also bei einer AG von den Aktionären auf der Hauptversammlung. In diesem Zusammenhang hat der Aufsichtsrat einer AG einen Vorschlag zur Wahl des Abschlussprüfers zu machen (§124 (3) AktG). Wurde ein Abschlussprüfer demgemäß gewählt, hat seit der Geltung des KonTraG der Aufsichtsrat (nicht der Vorstand) unverzüglich den konkreten Prüfungsauftrag zu erteilen (§111 (2) AktG). Dies gibt dem Aufsichtsrat grundsätzlich die Möglichkeit, neben dem Auftrag zur Durchführung der eigentlichen Abschlussprüfung auch spezifische Prüfungsschwerpunkte mit dem Prüfer zu vereinbaren, um seiner Überwachungsfunktion nachzukommen. Der Prüfer ist zur Auftragsannahme nicht verpflichtet, muss aber seine Entscheidung rasch bekannt geben. Ein einmal erteilter und angenommener Prüfungsauftrag kann nur unter sehr engen Grenzen vom Unternehmen widerrufen oder vom Prüfer gekündigt werden (§318 HGB), wobei Meinungsverschiedenheiten bezüglich der Rechnungslegung und des Prüfungsergebnisses ausdrücklich nicht als wichtiger Kündigungsgrund zugelassen sind. Für die Auswahl geeigneter Prüfer gibt es gewisse Einschränkungen, die insbesondere in § 319 HGB kodifiziert sind. Durch diese Einschränkungen soll die Unabhängigkeit der Abschlussprüfung gesichert werden. So darf bspw. eine Prüfungsgesellschaft dann nicht Abschlussprüfer sein, wenn ihre Einnahmen aus Prüfung und Beratung der zu prüfenden Unter-
Abschlussprüfung nehmung und bestimmter mit ihr verbundener Unternehmen während der letzten 5 Jahre jeweils mehr als 30% ihrer Gesamteinnahmen ausgemacht haben. Außerdem wurde durch das KonTraG in § 3 1 9 (3) Nr.6 HGB eine sogenannte „interne Prüferrotation" vorgeschrieben. 3. Gegenstand der Abschlussprüfung Die Abschlussprüfung erstreckt sich gemäß § 317 H G B auf zahlreiche Aspekte. Der Jahresabschluss selbst besteht bei Kapitalgesellschaften aus -»Bilanz, Gewinn- und Verlustrechnung und -> Anhang. Hinsichtlich dieser Bestandteile soll die Abschlussprüfung ein Urteil darüber erlauben, ob die gesetzlichen und satzungsmäßigen Vorschriften eingehalten worden sind, ob sich also alle Bilanzierungs- und Bewertungsmaßnahmen sowie die dazugehörigen Erläuterungen im Anhang im Rahmen dessen bewegen, was die kodifizierten Normen für die konkrete Unternehmenssituation als gebotenes bzw. zulässiges Procedere implizieren (dies muss sich nicht zwingend alleine auf die nach dem HGB gültigen Regeln beziehen; für Konzernabschlüsse ist bspw. gemäß § 292a HGB jetzt auch die Anwendung international anerkannter Rechnungslegungsstandards mit befreiender Wirkung zugelassen, so dass bei entsprechender Anwendung die damit zusammenhängenden Regeln relevant sind). Die Prüfung muss dabei ebenfalls die Buchführung einbeziehen, weil sich der Jahresabschluss daraus letztlich ergibt. Neben dem Jahresabschluss im engeren Sinne erstreckt sich die Prüfung aber auch auf den Lagebericht. Hier ist nicht nur zu prüfen, ob er mit dem Jahresabschluss im Einklang steht, sondern ob er auch insgesamt der Vermittlung eines zutreffenden Bildes von der Lage des Unternehmens nachkommt. Im Zusammenhang mit dem Lagebericht hat das KonTraG in § 289 (1) HGB dem Vorstand ausdrücklich die Verpflichtung auferlegt, die Risiken der künftigen Entwicklung zu erläutern.
Abschlussprüfung Korrespondierend dazu hat auch der Prüfer festzustellen, ob diese Risiken zutreffend dargestellt sind. Weiterhin wurde durch das KonTraG in § 91 (2) AktG eine Verpflichtung des Vorstandes zur Einrichtung eines Überwachungssystems hinsichtlich bestandsgefährdender Risiken konstatiert. Sofern die AG Aktien mit amtlicher Notierung ausgegeben hat, muss der Prüfer gemäß § 317 (4) HGB prüfen, ob ein solches System geeignet eingerichtet wurde und es in der Lage ist, seinen intendierten Aufgaben nachzukommen. Neu aufgenommen wurde auch, dass die Prüfung jetzt ausdrücklich darauf auszurichten ist, Unrichtigkeiten und Verstöße aufzudecken. Es zeigt sich somit, dass die Abschlussprüfung eine Kombination aus zukunftsorientierten Beurteilungen und der Überprüfung der Einhaltung gesetzlicher Vorschriften ist, wobei letzteres vornehmlich im Bereich des Jahresabschlusses im engeren Sinne vorherrscht. Auch dabei muss aber beachtet werden, dass hier zahlreiche zukunftsbezogene Sachverhalte zu prüfen sind, die letztlich ebenfalls eine umfassende Lagebeurteilung durch den Prüfer voraussetzen. So ist bspw. im Rahmen der allgemeinen Bewertungsgrundsätze des § 252 HGB auch die Anwendbarkeit des sogenannten "Going-Concern-Prinzips" zu prüfen, was eine Beurteilung der wirtschaftlichen Lage durch den Prüfer offensichtlich erfordert. Allgemein muss der Prüfer im Rahmen der Prüfungsdurchführung die sogenannten Prüfungsgrundsätze beachten. 4. Berichterstattung über das Prüfungsergebnis Der Abschlussprüfer hat über das Prüfungsergebnis abgestuft zu berichten. Zunächst hat er gemäß § 321 HGB einen ausführlichen Prüfungsbericht zu erstellen, der bei einer AG jetzt unmittelbar dem Aufsichtsrat zuzuleiten und jedem einzelnen Aufsichtsratsmitglied auszu11
Abschlussprüfung händigen ist (dem Vorstand ist vorher aber eine Gelegenheit zur Stellungnahme zu geben). Außerdem hat der Prüfer an der "Bilanzsitzung" des Aufsichtsrats gemäß § 171 (1) AktG teilzunehmen und über das Ergebnis seiner Prüfung gesondert zu berichten. Der Prüfungsbericht selbst ist also nicht für die breite Öffentlichkeit, sondern für die gesetzlichen Vertreter und Aufsichtsorgane bestimmt. In diesem Bericht muss der Prüfer ausführlich auf die wirtschaftliche Situation der Unternehmung eingehen, Art, Gegenstand und Umfang seiner Prüfung darlegen, Informationen über festgestellte Unrichtigkeiten und Verstöße geben sowie ggf. die Ergebnisse der Prüfung des Risikofrüherkennungssystems erläutern. Auf diese Weise soll der Aufsichtsrat in die Lage versetzt werden, seinen Überwachungsaufgaben fundiert nachzukommen. Für die externen Adressaten des Jahresabschlusses (Aktionäre, etc.) ist dagegen der in § 322 H G B geregelte Bestätigungsvermerk gedacht. Er hatte vor der Einführung des KonTraG den Beinamen "Formeltestat", weil die frühere gesetzliche Regelung eine ganz bestimmte Formulierung für ein uneingeschränktes Testat vorsah; sie konnte zwar vom Prüfer um zusätzliche Informationen ergänzt werden, doch wurde davon so gut wie kein Gebrauch gemacht. Jetzt ist ausdrücklich gefordert, dass der Bestätigungsvermerk eine allgemeinverständliche und problemorientierte Beurteilung des Prüfungsergebnisses zu enthalten hat; außerdem ist auch hier auf ggf. bestandsgefährdende Risiken einzugehen. Im Ergebnis könnten diese Regelungen eine Entwicklung hin zu einem "Bestätigungsbericht" öffnen, doch ist dazu der weitere Verlauf abzuwarten, zumal das Institut der Wirtschaftsprüfer (IDW) schon "Formulierungsvorlagen" bezüglich der neuen Rechtslage erarbeitet hat (siehe dazu den IDW-Prüfungsstandard PS 400).
12
Abweichungsanalyse Unabhängig von diesen Aspekten sind grundsätzlich drei Varianten von Bestätigungsvermerken zu unterscheiden: Sind vom Prüfer keine Einwendungen gegen die Rechnungslegung zu erheben, muss der Bestätigungsvermerk das ausdrücklich feststellen, man spricht dann von einem "uneingeschränkten Bestätigungsvermerk". Sind dagegen Einwendungen zu abgegrenzten Bestandteilen des Jahresabschlusses zu erheben, doch wiegen diese nicht so schwer, dass der Prüfer den gesamten Jahresabschluss verwirft (etwa deshalb, weil sie sich nur auf bestimmte Posten beziehen und betragsmäßig für die Gesamtbeurteilung nicht zu gewichtig sind), spricht man von einem "eingeschränkten Bestätigungsvermerk". Liegen ganz erhebliche Einwendungen vor, ist der Bestätigungsvermerk zu versagen, und diese Versagung darf auch nicht mehr als Bestätigungsvermerk deklariert werden. Selbstverständlich sind Einschränkungen und Versagungen ausfuhrlich zu begründen; bei Einschränkungen sind explizit Erläuterungen bezüglich der Tragweite zu geben. Literatur: Baetge, J. (Hrsg.): Auswirkungen des KonTraG auf Rechnungslegung und Prüfung, Düsseldorf 1999; Ewert, R.: Wirtschaftsprüfung, in: Bitz M. et al. (Hrsg.): V a h l e n ' s Kompendium der Betriebswirtschaftslehre, 4. Aufl., Band 2, München 1999, S. 5 0 5 - 5 5 3 ; IDW (Hrsg.): IDW Prüfungsstandards und IDW Stellungnahmen zur Rechnungslegung, Düsseldorf 1999; Lück, W.: Jahresabschlussprüfung, Stuttgart 1993.
Ralf Ewert Absorptionsakquisitionen -> Unternehmensakquisition Abspaltung Unternehmensspaltung Abweichungsanalyse Methode zur Kostenkontrolle bei Anwendung der flexiblen -> Plankostenrechnung. Im Rahmen der Abweichungsanalyse wird eine Kostenabweichung in ihre einzelnen Bestandteile aufgeschlüsselt. Ziel der Abweichungsanalyse ist es, die Ursachen für eine Kostenabweichung zu
Adjusted Present Value
Abweichungsanalyse erkennen und evtl. Gegenmaßnahmen zu ergreifen. Man unterscheidet nach den Abweichungsursachen folgende Kostenabweichungsarten: 1. Preisabweichungen. Abweichungen aufgrund von Faktorpreisänderungen. 2. Verbrauchsabweichungen. Abweichungen beim Verbrauch von Faktoren gegenüber einem berechneten Sollverbrauch, die bspw. auf eine erhöhte Ausschußquote oder eine höhere Bearbeitungsintensität zurück geführt werden können. 3. Beschäftigungsabweichungen. Abweichungen aufgrund bei Unterbeschäftigung zuwenig kalkulierter Fixkosten pro Produkteinheit bzw. aufgrund bei Überbeschäftigung zuviel verrechneter Fixkosten pro Produkteinheit. Man unterscheidet Kostenabweichungen femer in Abweichungen erster Ordnung und Abweichungen höherer Ordnung. Kostenabweichungen bei Abweichungen erster Ordnung basieren auf genau nur einer Ursache, d.h. der Änderung entweder des Preises, des Verbrauchs oder der Beschäftigung. Die Kostenabweichungen bei Abweichungen höherer Ordnung basieren hingegen auf Änderungen von mehr als einer Einflussgröße.
Unternehmenspraxis bislang nur wenig Verbreitung gefunden. Der Adjusted Present Value gehört zu den -» Discounted Cash-flow-Verfahren. Diese Verfahren ermitteln den Wert eines Unternehmens, einzelner Unternehmensbereiche oder Investitionen anhand des -> Barwerts zukünftiger Cash-flows, der an die Kapitalgeber fließt. Dabei gilt, dass im Unternehmen um so mehr Wert geschaffen wird, je größer ein positiver Barwert ausfällt. 2. Ermittlung des Adjusted Present Value Nach dem Grundprinzip der Discounted Cash-flow-Verfahren werden zukünftige Zahlungsströme im Unternehmen ermittelt und mit den Kosten für das eingesetzte Eigenund Fremdkapital (-> Kapitalkosten) auf ihren gegenwärtigen Wert, d.h. ihren Barwert diskontiert. Der Adjusted Present Value weist gegenüber dieser Vorgehensweise einige Besonderheiten auf. So werden die erwarteten Zahlungsströme in zwei Kategorien unterschieden (Drukarczyk, Richter 1995; Luehrman 1997): •
Die erste Kategorie der erwarteten Zahlungsströme bildet derjenige Cashflow, der im Rahmen des operativen Geschäfts erwirtschaftet wird. Für die Barwert-Ermittlung dieses operativen Cash-flow wird zunächst eine vollständige Eigenkapitalfinanzierung unterstellt.
•
Das eingesetzte Fremdkapital wird in der zweiten Kategorie der erwarteten Zahlungsströme, den „finanziellen Nebeneffekten" berücksichtigt. Diese Effekte resultieren vornehmlich aus der steuerlichen Abzugsföhigkeit des Fremdkapitals sowie unterschiedlich hohen Finanzierungsrisiken.
Da nur einer Abweichung erster Ordnung eine genaue Ursache zugeordnet werden kann, eignet sich nur diese zur gezielten Beseitigung von UnWirtschaftlichkeiten. Activity Based Costing Prozesskostenrechnung Adjusted Present Value 7. Begriff Das Konzept des Adjusted Present Value, das auf Myers (1974) zurückgeht, wird zur -* Unternehmensbewertung und zur wertorientierten Unternehmenssteuerung eingesetzt. Im Gegensatz zu anderen Wertmanagementkonzepten, wie dem Cash-flow Return on Investment oder dem Economic Value Added, hat der Adjusted Present Value in der deutschen
Anhand dieser Kategorisierung lässt sich die Ermittlung des Adjusted Present Value in zwei Schritte einteilen. Im ersten Schritt wird der Barwert des operativen Cash-flow bestimmt, der die Ertragskraft eines Unternehmens(bereichs) unter 13
Adjusted Present Value Beibehaltung seiner bisherigen Leistungsfähigkeit abbildet. Hierzu wird der erwartete Einzahlungsüberschuss festgelegt, der nach Abzug aller Auszahlungen für den betrieblichen Leistungserstellungsprozess, für Ersatzinvestitionen und Ertragssteuerzahlungen verbleibt. Bei der Diskontierung des operativen Cash-flow auf seinen gegenwärtigen Wert wird eine vollständige Eigenkapitalfinanzierung des Untemehmens(bereichs) unterstellt. Der Barwert des operativen Cash-flow ergibt sich daher durch eine Diskontierung des erwarteten Einzahlungsüberschusses mit den Eigenkapitalkosten für das eingesetzte Kapital. Die Eigenkapitalkosten setzen sich nach Maßgabe des -* Capital Asset Pricing Modells aus einer risikofreien Rendite und einer Prämie für die Übernahme von Risiko zusammen. Allerdings ist bei der Festlegung der Risikoprämie die Annahme der vollständigen Eigenkapitalfinanzierung zu berücksichtigen. Es werden daher ausschließlich das operative Geschäftsrisiko und keine Finanzierungsrisiken einbezogen. Im zweiten Schritt werden die "finanziellen Nebeneffekte" berücksichtigt, die sich aus der tatsächlichen Kapitalstruktur des
^JWJW
(1) (2) + (3) (4) (5) (6)
Wert bei vollständiger Eigenkapitalfinanzierung Finanzielle Nebeneffekte Untemehmensgesamtwert Marktwert des Eigenkapitals Marktwert des Fremdkapitals
Abb. 1: Wert eines Unternehmens(bereichs) nach dem Adjusted Value A d d e d
14
Adjusted Present Value betrachteten Unternehmens(bereichs) ergeben. Hierzu gehört bspw. eine Verringerung der Kapitalkosten durch die steuerliche Abzugsfähigkeit von Fremdkapitalverbindlichkeiten, Sonderabschreibungen für besonders geförderte Investitionsprojekte sowie Steuervorteile die sich bei der Ausschüttung von Gewinnen an die Eigentümer ergeben. Diese Vorteilspositionen werden einzeln zum oben ermittelten Barwert des operativen Cashflow (bei angenommener Eigenkapitalfinanzierung) addiert. Abb. 1 zeigt im Überblick, wie sich der Wert eines Unternehmens(bereichs) nach dem Adjusted Value Added darstellt: 3. Adjusted Present Value als Vorteilhaftigkeitskriterium Nach dem Konzept des Adusted Present Value wird die Wertentwicklung bei (angenommener) Eigenkapitalfinanzierung getrennt von finanziellen Nebeneffekten ausgewiesen. Dadurch wird ersichtlich, welcher Anteil der Wertsteigerung durch operative Maßnahmen erreicht wird und welcher Anteil auf eine geschickte Nutzung von Finanzierungseffekten zurückzuführen ist. Der Adjusted Present Value gilt daher als besonders geeignet, Wertlücken im Unternehmen aufzuzeigen und Ansatzpunkte für eine Wertsteigerung transparent zu machen. Gerade im Hinblick auf mögliche Finanzierungseffekte bietet der Adjusted Present Value den Vorteil, dass eine Investition in mehrere Teilprojekte bzw. zeitliche Abschnitte unterteilt werden kann, für die unterschiedliche "finanzielle Nebeneffekte" zu erwarten sind. Dies ermöglicht eine detaillierte Berücksichtigung steuerlicher Besonderheiten und des Einflusses variierender Eigen- und Fremdkapitalanteile. Allerdings birgt gerade die starke Betonung finanzieller Aspekte der Wertsteigerung auch eine Gefahr. So können die "finanziellen Nebeneffekte" den Blick von den eigentlichen Wertsteigerungspotenzialen im operativen Geschäft ablen-
Agency-Theorie
Adjusted Present Value ken oder gar zum Ausgleich operativer Wertlücken herangezogen werden. Literatur: Drukarczyk, J., Richter, F.: Untemehmensgesamtwert, anteilseignerorientierte Finanzentscheidungen und APV-Ansatz, in: Die Betriebswirtschaft, Vol. 55, 5/1995, S. 5 5 9 - 5 8 0 ; Luehrman, T A . : Using APV: A Better Tool for Valuating Operations, in: Harvard Business Review, Vol. 75, 3/1997, S. 145-154; Myers, S.C.: Interactions of Corporate Financing and Investment Decisions - Implications for Capital Budgeting, in: Journal of Finance, Vol. 29, 3/1974, S. 1 - 2 5 .
Anja Tuschke Administration-to-Business E-Commerce Adverse Selection -» Informationsasymmetrie AFG Arbeitsmarkt- u. Beschäftigungspolitik AG -» Aktiengesellschaft Agency-Theorie 1. Grundlagen Der Gegenstand der Agency-Theorie ist die ökonomische Analyse von Problemen der Konzeption und des Einsatzes von Anreiz- und Steuerungssystemen. Grundlegende Fragestellungen lassen sich am besten anhand des Grundmodells der Agency-Theorie verdeutlichen: Ein Unternehmer (Principal) beauftragt einen Manager (Agent), einen Geschäftsprozess zu leiten. Diese Tätigkeiten verursachen dem Manager ein bestimmtes Arbeitsleid, das als negative Komponente seiner Zielfunktion berücksichtigt wird und durch eine finanzielle Entlohnung wenigstens ausgeglichen werden muss. Die künftigen Überschüsse hängen dabei zwar vom Arbeitseinsatz des Managers ab, sind aber zugleich risikobehaftet, so dass aus einem bestimmten Oberschuss nicht direkt auf die Anstrengung des Agents geschlossen werden kann. Dies ist solange kein Problem, wie die Arbeitsleistung beobachtbar und verifizierbar ist. In diesem Fall könnte der Principal nämlich einen sogenannten Forcing Contract mit dem Manager schließen, der eine
Entlohnung dann und nur dann vorsieht, wenn der gewünschte Arbeitseinsatz erbracht wurde (andernfalls wird nichts gezahlt oder gar eine Strafzahlung bestimmt). Sollte das möglich sein, handelt es sich um eine sogenannte first-bestLösung: Der Principal kann in diesem Fall die von ihm gewünschte Aktion stets durchsetzen, und der konkret zu vereinbarende Kontrakt beinhaltet dann eine Aufteilung der Überschüsse zwischen Principal und Agent unter ausschließlichen Aspekten der optimalen Risikoteilung. Ist der Agent bspw. risikoscheu, der Principal indes risikoneutral, erhielte der Agent eine konstante Entlohnung. Die Entlohnung des Agents wird stets so festgelegt, dass seine Zielerreichung mit seinen Alternativen am Managermarkt Schritt halten kann und er mithin überhaupt gewillt ist, für den betrachteten Unternehmer tätig zu werden (Partizipationsbedingung). Ist die Arbeitsintensität des Managers dagegen nicht beobachtbar, scheidet die obige Lösung aus. Es verbleibt nur die Möglichkeit, die Managerentlohnung an die am Periodenende erzielten Überschüsse anknüpfen zu lassen, die wegen des vorhandenen Risikos allerdings kein verlässliches Maß für die vom Agent geleisteten Tätigkeiten darstellen. Bei der Bestimmung des optimalen Kontrakts muss der Principal jetzt neben der Partizipationsbedingung und den Aspekten der Risikoteilung berücksichtigen, dass der Manager stets diejenige Arbeitsleistung wählen wird, die unter dem gegebenen Kontrakt für ihn optimal ist. Will der Principal mithin eine bestimmte Tätigkeit induzieren, muss er zusätzlich eine Anreizkompatibilitätsbedingung einbeziehen, wonach sich die gewünschte Tätigkeit zugleich als für den Agent optimal erweisen muss. Diese weitere Nebenbedingung verändert das Optimierungsproblem bezüglich des festzulegenden Kontrakts (second-best-
15
Agency-Theorie
Agency-Theorie Lösung)-. Jetzt spielen nicht nur Fragen der Risikoteilung, sondern ebenfalls Aspekte der Motivation eine Rolle. Um den Manager zu einer bestimmten Anstrengung zu bewegen, muss ihm typischerweise mehr Risiko als im first-best-Fall aufgebürdet werden. Besonders plastisch wird dies im obigen Fall des risikoneutralen Principals und des risikoscheuen Agents: Eine aus Gründen der Risikoteilung konstante Managerentlohnung induziert keine Anreize zur Anstrengung. Will man solche Anreize setzen, muss dem Agent über eine variable Überschussbeteiligung Risiko zugewiesen werden, was allerdings mit Einbußen bei der ansonsten optimalen Risikoteilung einhergeht. Im Ergebnis wird wegen des Tradeoffs zwischen Risikoteilung und Motivation für den Principal die Induzierung einer beliebigen positiven Arbeitsintensität nun teurer, was wiederum Rückwirkungen auf die gewünschte Arbeitsintensität selbst hat. Risikoteilung, Motivation und Unternehmenspolitik können mithin nur simultan festgelegt werden. 2. Varianten Die Agency-Theorie existiert in mehreren Varianten, die sich anreizorientierten Fragestellungen mit jeweils unterschiedlichem Fokus nähern. So unterscheidet man zwischen einer normativen und einer positiven Variante der Agency-Theorie. Im Rahmen der normativen AgencyTheorie stehen Aspekte der optimalen Kontraktbestimmung unmittelbar im Vordergrund (wie auch im obigen Grundmodell). Das optimale Anreizsystem wird also völlig endogen aus den Präferenzen, den Erfolgs- und Risikozusammenhängen und den Informationsstrukturen der beteiligten Akteure entwickelt. Die positive Agency-Theorie setzt dagegen den Schwerpunkt eher auf die empirische Analyse und Erklärung real beobachtbarer Aspekte von Anreizsystemen. Die Systeme werden typischerweise als 16
gegeben hingenommen, eine modellendogene Ableitung also nicht angestrebt. Zu dieser Richtung gehört auch die sogenannte finanzielle Agency-Theorie, bei der es um die Konsequenzen real beobachtbarer Finanzierungsformen für die Anreize zur Gestaltung der Unternehmenspolitik unter Einbeziehung von Reichtumsverlagerungen zwischen verschiedenen Financiers geht. Es muss aber festgestellt werden, dass diese Abgrenzungen nicht völlig trennscharf sind, die vorliegenden Beiträge also oftmals Aspekte mehrerer Varianten vereinen. 3. Anwendungen und Einsatzmöglichkeiten Die Agency-Theorie hat sich seit ihrer Entwicklung in der zweiten Hälfte der 80er Jahre zu einem unverzichtbaren Instrument der Analyse von Steuerungssystemen in nahezu allen Bereichen eines Unternehmens entwickelt. Im Grunde geht es bei der Konzipierung von Anreizsystemen um die Frage, welche Entscheidungsund Informationsstrukturen implementiert werden sollten, um bei dezentraler Unternehmensführung eine Unternehmenspolitik zu induzieren, die den Präferenzen der Zentrale bzw. "Instanz" (bspw. Eigner, etc.) bestmöglich entspricht. Weil Informationsstrukturen im Unternehmen insbesondere durch Systeme der Unternehmensrechnung gebildet werden, hat sich die AgencyTheorie gerade für das Accounting zu einem bedeutenden Analyseinstrument entwickelt. Dazu einige Beispiele: •
So wurden etwa Systeme der Kontrollrechnungen (Abweichungsanalyse und -auswertung) auf ihre Einsatzmöglichkeiten im Rahmen expliziter Anreizsysteme analysiert, und die erhaltenen Ergebnisse weichen signifikant von denjenigen einer traditionellen Analyse ab.
•
Die allgemeine Analyse der Verwendung von Informationen im Agency-
Agency-Theorie Kontext zeigt auch, dass gewohnte Grundsätze wie etwa das Controllability-Principle (ein Entscheidungsträger sollte nur anhand solcher Größen beurteilt werden, die in seinem Einflussbereich liegen) zu relativieren sind, weil weniger die unmittelbare Kontrollierbarkeit einer Größe als ihre bedingte Informativität über die Manageraktivitäten relevant ist, und zwar gegeben die Verwendung bereits vorhandener Informationen. So kann es bspw. sinnvoll sein, einen Spartenleiter nicht nur anhand des von ihm unmittelbar kontrollierbaren Spartengewinns zu beurteilen, sondern zusätzlich anhand des Überschusses einer völlig anderen Sparte, auf die der betrachtete Spartenleiter gar keinen Einfluss hat. Der Grund liegt darin, dass der andere Spartenüberschuss informativ bezüglich der Zustandsentwicklung sein kann, so dass eine zielgenauere Motivation möglich wird. •
Im Zusammenhang mit Problemen der wertorientierten Unternehmenssteuerung (-> Shareholder Value) wurden zahlreiche Arbeiten vorgelegt, die sich mit Fragen des Einsatzes von Größen wie Cash-flow Return-on-Investment, Economic Value Added und Residualgewinnen beschäftigen und gleichfalls die potenzielle Einbeziehung direkt marktwertorientierter Anreize (bspw. Optionssysteme, -> Optionsplan) untersuchen. Hier zeigt sich, dass eine am Residualgewinn orientierte Steuerung Anreize zur Wahl marktwertmaximierender Unternehmensstrategien geben kann, wobei eine wichtige konzeptionelle Grundlage für solche Ergebnisse im sogenannten Lücke-Theorem liegt (der -> Barwert geeignet berechneter Residualgewinne gleicht dem Kapitalwert der -> Cash-flows). Aufbauend auf diesem grundlegenden Resultat lassen sich dann zahlreiche Detailfragen analysieren, wie etwa unterschiedliche Planungshorizonte von Managern und
AIDPA-Regel Zentrale, abweichende Diskontierungsraten und Risikoeinstellungen etc. Gerade diese Arbeiten zeigen deutlich den Wert für konkrete praktische Diskussionen auf, denn diese Problembereiche werden aktuell bei der praktischen Implementierung wertorientierter Steuerungssysteme stark debattiert. Allgemein sollte der Wert agencytheoretischer Analysen aber weniger in der ganz konkreten Entwicklung eines auf spezifische Situationen hin ausgerichteten Anreizsystems gesehen werden. Er liegt vielmehr darin, ein Instrument in Händen zu haben, mit dem vielfältige und komplexe Wirkungszusammenhänge bei der Gestaltung von Anreizsystemen präzise untersucht werden können. Auf diese Weise lassen sich die Strukturelemente gewinnen, die der Art nach für die Diskussion eines konkreten Systems beachtet und abgewogen werden sollten. Literatur: Baiman, S.: Agency-Research in Managerial Accounting: A Second Look, in: Accounting, Organizations and Society 1990, S. 341-371; Ewert, R.; Wagenhofer, A.: Interne Unternehmensrechnung, 4. Aufl., Berlin et al. 2000; Richter, R.; Furubotn, E.: Neue Institutionenökonomik, 2. Aufl., Tübingen 1999; Wagenhofer, A.: Kostenrechnung und Agency-Theorie, in: Weber J. (Hrsg.): Zur Neuausrichtung der Kostenrechnung - Entwicklungsperspektiven für die 90er Jahre, Stuttgart 1993, S. 161-185.
Ralf Ewert AIDA-Regel Die AIDA-Regel stellt ein von Lewis vorgeschlagenes Werbemodell dar. Die Stufen dieses Sequenzmodells sind: Attention (Aufmerksamkeit wecken), Interest (Interesse erzeugen), Desire (Kaufwunsch hervorrufen) und Action (Handlung, d.h. den Kaufprozess auslösen). Neuerdings wird die AIDA-Regel auch zur -> AIDPA-Regel erweitert. AIDPA-Regel Erweiterung der klassischen -» AIDA-Regel. Nach Weckung des Kaufwunschs {Desire) wird dieser durch einen Produkttest oder sonstige unterstützende 17
Aktie
AIDPA-Regel Informationen (Proof - Beweis) verstärkt. Das Modell endet ebenfalls mit der Actio n, dem Auslösen des Kaufs.
•
Akquisition (von Unternehmen) Unternehmensakquisition
2. Art der Eigentumsübertragung • Inhaberaktien sind die übliche Aktienform in Deutschland. Die Rechte ergeben sich aus dem Besitz der Urkunde. Inhaberaktien dürfen gem. § 10 (2) AktG nur ausgegeben werden, wenn die Einlage voll eingezahlt ist. • Namensaktien sind Aktien, die auf den Namen des Inhabers lautet (geborenes Orderpapier). Der Aktionär muss in das Aktienbuch der AG eingetragen sein, da nur die in das Aktienbuch eingetragene Person die Aktionärsrechte ausüben kann. Aktien müssen als Namensaktien ausgegeben werden, wenn sie vor Einzahlung des vollen Einlagebetrages ausgegeben werden.
Aktie Aktien zerlegen das Grundkapital (Mindestnennbetrag € 50.000) einer -» Aktiengesellschaft in kleinere Anteile und verbriefen gleichzeitig die Aktionärsrechte an der Aktiengesellschaft. Die Aktionärsrechte sind je nach Aktienart unterschiedlich ausgestaltet. Sie beinhalten grundsätzlich das Recht auf die Teilnahme an der Hauptversammlung sowie die damit verbundenen Rechte auf Information, Stimmrecht und Anfechtung von Hauptversammlungsbeschlüssen. Weitere Rechte sind das Recht auf Dividendenanteil und Anteil am Liquidationserlös sowie das Bezugsrecht bei der Ausgabe neuer (junger) Aktien und Wandelanleihen (-» Bezugsrechtsemission). Im Einzelfall können die Aktionärsrechte aber bei bestimmten Aktienarten eingeschränkt sein. Die Aktionärspflichten bestehen grundsätzlich aus der vollständigen Einzahlung plus Agio. Aktien lassen sich unterscheiden nach: I. Art der Zerlegung des Grundkapitals (Stückelung) • Nennbetragsaktien (Nennwertaktien) lauten auf einen festen Nennbetrag. Der Mindestnennbetrag in Deutschland ist gem. § 8 (2) AktG € 1. Höhere Nennbeträge müssen auf volle Euro lauten. • Stückaktien (Quotenaktien) repräsentieren im Gegensatz zu den Nennwertaktien einen bestimmten Anteil am Grundkapital (unechte nennwertlose Aktie) oder einen Anteil am gesamten Vermögen der Aktiengesellschaft (echte nennwertlose Aktie). Der auf die einzelne Aktien entfallende anteilige Betrag darf gem. § 8 (3) AktG € 1 nicht unterschreiten.
18
•
Globalaktien sind Sammelurkunden, die eine große Zahl von Einzelaktien zusammenfassen.
Bei vinkulierten Namensaktien ist die Übertragung der Aktie an die Zustimmung des Vorstands gem. § 68 (2) AktG gebunden. Die Anwendung dieser Aktienart dient dem Schutz vor Überfremdung und findet sich oft bei Gesellschaften mit geringer Kapitalausstattung, da in diesem Fall zur Übernahme ein vergleichsweise geringer Kapitaleinsatz notwendig wäre. Bei Familiengesellschaften kann die Vinkulierung eine Übertragung an familienfremde Personen verhindern.
3. Umfang der verbrieften Rechte • Stammaktien können als Namensaktien oder Inhaberaktien ausgegeben werden und sind in Deutschland der wichtigste Aktientyp zur Beschaffung von Eigenkapital der Aktiengesellschaften. Stammaktien verbriefen den Inhabern sämtliche Rechte gem. AktG (Recht auf Teilnahme an der Hauptversammlung, Recht auf Auskunftserteilung, Stimmrecht, Recht auf Anfechtung der Hauptversammlungsbeschlüsse, Recht auf Dividendenanteil. Bezugsrecht, Recht auf Anteil am Liquidationserlös). Gem. § 12 (2)
Aktiengesellschaft
Aktie
•
AktG sind Mehrstimmrechte unzulässig. Vorzugsaktien haben in der Regel kein Stimmrecht und es sind meist weniger Aktien im Umlauf. Die Vorzugsaktien bieten aufgrund des fehlenden Stimmrechts oftmals eine höhere Dividende oder einen höheren Bonus (= höhere Rendite) als Stammaktien und sie sind selten in Indizes vertreten (im DAX: nur Henkel und SAP als Vz.). Werden die Vorzüge zusätzlich zu den üblichen Rechten gewährt, handelt es sich um absolute Vorzugsaktien. Bei relativen Vorzugsaktien sind mit der Gewährung von Vorzügen Einschränkungen bei anderen Rechten verbunden.
Klassifikationsmöglichkeiten 4. Weitere • Nach dem Erwerberkreis (eigene Aktien, Vorratsaktien, Belegschaftsaktien, Volksaktien). • Nach dem Kapitalerhöhungszeitpunkt (alte Aktien, j u n g e Aktien). • Nach dem Finanzierungseffekt zum Emissionszeitpunkt: (Aktien mit oder ohne Finanzierungseffekt, SplitAktien). Deniz Akitürk Aktienanalyse Die Aktienanalyse bewertet die Ertragskraft eines Unternehmen bzw. die Kurschancen dessen Aktien nach verschiedenen Kriterien. Dabei werden aus Daten der Vergangenheit und der Gegenwart Rückschlüsse auf zukünftige Entwicklungen gezogen. Während sich die -» Fundamentalanalyse auf die Untersuchung der Unternehmensdaten sowie des gesamtwirtschaftlichen Umfelds konzentriert, steht bei der technischen -» Chartanalyse die Beobachtung von Kurs- und Umsatzverläufen der Aktie im Vordergrund. Trotz ihrer grundsätzlich verschiedenartigen Vorgehensweisen ergänzen sich beide Methoden.
Aktiengesellschaft (AG) 1. Allgemeines Die AG als klassische Form der Kapitalgesellschaft besitzt eigene Rechtspersönlichkeit und gilt als Handelsgesellschaft. Sie hat ein in (Nennbetrags- oder Stück-) Aktien zerlegtes, bar und/oder mit Sacheinlagen aufzubringendes Grundkapital von mind. € 50.000. Nennbetragsaktien müssen auf mind. € 1 lauten, Stückaktien sind nennbetragslos und am Grundkapital in gleichem U m f a n g beteiligt. Der Wert einer Stückaktie darf € 1 nicht unterschreiten. Die Firma kann Sach- oder Personenfirma sein, auch Phantasiebezeichnungen sind zulässig; zwingend ist der AG-Zusatz. Die AG unterliegt den Publizitätspflichten der §§ 238 ff. HGB. Bekanntmachungen erfolgen im Bundesanzeiger sowie satzungsmäßig vorgesehenen anderen Blättern. Die AG ist insolvenzfahig, § 11 I 1 InsO. 2. Gründung Die stark formalisierte Gründung durch eine/mehrere Person(en) bedarf notarieller Form, die Satzung hat einen zwingenden Mindestinhalt, § 23 AktG, von dem nur in bestimmten Fällen abgewichen werden darf. Bei einer Einmanngründung besteht nach h.M. bis zur Eintragung im Handelsregister ein Sondervermögen des Gründers. Bei Beteiligung mehrerer Personen vollzieht sich die Gründung in den Stufen der Vorgründungsgesellschaft, der Vorgesellschaft und der mit der Eintragung fertigen Gesellschaft. Die Vorgründungsgesellschaft besteht vom Vertrag über die Gründung bis zur Errichtung der AG; sie ist, abhängig vom Vorliegen eines Ilandelsgewerbes (§ 1 HGB), O H G oder BGB-Gesellschaft. Der Vertrag über die Vorgründungsgesellschaft ist wegen § 23 I 1 AktG formbedürftig. Die Vorgesellschaft besteht von der Errichtung der A G bis zur Eintragung im Handelsregister; sie ist Rechtsform "sui generis", alle keine Eintragung voraussetzenden Vorschriften des AktG 19
Aktiengesellschaft finden Anwendung. Zwischen Vorgesellschaft und AG besteht Identität, Vermögen der Vorgesellschaft verbleibt ohne weiteres bei der Gesellschaft, wenn diese AG wird. Soll Vermögen der Vorgründungsgesellschaft auf die AG übergehen, bedarf es eines Übertragungsaktes. Für die Verbindlichkeiten der Vorgesellschaft haften die Gesellschafter gegenüber der Gesellschaft, sog. Vorbelastungs- oder Unterbilanzhaftung. Die Gründung unterliegt einer strengen Prüfung durch Gründungsprüfer. Die Gründer haften für die Richtigkeit und Vollständigkeit ihrer Angaben im Gründungsstadium, § 46 AktG. 3. Kapitalaufbringungf-erhaltung Aus Gründen des Gläubigerschutzes gelten strenge Kapitalaufbringungs- und -erhaltungsvorschriften. Die Anmeldung zum Handelsregister darf erst erfolgen, wenn der vom Vorstand eingeforderte Betrag, der mindestens ein Viertel des geringsten Ausgabebetrages zuzüglich eines etwaigen Agios betragen muss, in gesetzlichen Zahlungsmitteln oder durch Kontogutschrift zur freien Verfügung des Vorstandes geleistet worden ist. Sacheinlagen sind vollständig zu leisten, sacheinlagefähig sind nur Vermögenswerte Gegenstände, Dienstleistungen sind nicht sacheinlagefähig. Vor der Auflösung der AG darf an die Aktionäre nur der Bilanzgewinn verteilt werden, ausgezahlte Einlagen oder verbotene Zahlungen sind zurückzugewähren. 4. Organe Organe sind Vorstand, Aufsichtsrat und Hauptversammlung. Der für längstens je 5 Jahre aus Aktionären oder anderen Personen bestellte, aus einer oder mehreren Person(en) bestehende Vorstand leitet die AG unter eigener Verantwortung unter Beachtung des Untemehmensinteresses. Er vertritt die AG in unbeschränkbarer Weise.
20
Aktiengesellsch aft Der erste Aufsichtsrat wird von den Gründern bestellt, später wählt die Hauptversammlung die Mitglieder (s.a. -»Unternehmensgründung). Er besteht aus mind. 3 Personen, ab einer bestimmten Größe der Gesellschaft sind die Mitbestimmungsgesetze zu beachten. Er bestellt den Vorstand und überwacht die Geschäftsführung im Rahmen einer auf die Zukunft gerichteten Kontrolle. Soweit die Satzung dies bestimmt, unterliegen bestimmte Geschäfte seiner Zustimmung. Er entscheidet durch Beschluss. Der Vorstand und jedes Aufsichtsratsmitglied kann seine Einberufung verlangen. Vorstands- und Aufsichtsratsmandat sind inkompatibel. Die Hauptversammlung, die regelmäßig einmal pro Jahr, und darüber hinaus auf Beschluss des Aufsichtsrates oder auf Verlangen einer Aktionärsminderheit von 5 % einzuberufen ist, trifft die Grundlagenentscheidungen (Satzungs-, Kapitalveränderungen, Auflösung, etc.) sowie satzungsmäßig ihr zugewiesene Entscheidungen. Sie entscheidet über die Entlastung von Vorstand/Aufsichtsrat, die Verwendung des Bilanzgewinns sowie die Bestellung von Abschluss- und Sonderprüfern (-> Abschlussprüfung). Über Geschäftsführungsfragen entscheidet sie auf Verlangen des Vorstandes. In der Hauptversammlung haben die Aktionäre Stimm- und Auskunftsrecht. 5. Haftung Für Verbindlichkeiten der AG haftet nur diese selbst, die Aktionäre trifft eine persönliche Haftung nur in den Fällen einer Durchgriffshaftung. Vorstand und Aufsichtsrat haben die Sorgfalt eines ordentlichen und gewissenhaften Geschäftsleiters anzuwenden und haften gegenüber der AG bei einer Verletzung ihrer Pflichten. Im Außenverhältnis haftet der Vorstand insbesondere bei Verletzung seiner Insolvenzantragspflicht und bei Verletzung der Pflicht zur Abführung der Arbeitnehmerbeiträge zur Sozialversicherung (§ 823 II B G B iVm §§ 92
Aktienmarkt
Aktiengesellsch aft I AktG, 266a StGB). Den Vorstand trifft im Stadium der Vorgesellschaft die Hände Indenhaftung, § 41 I 2 AktG. Nils Dreier Aktienmarkt Der Aktienmarkt ist der Teil des Kapitalmarktes auf dem -* Aktien emittiert (Primärmarkt) und gehandelt (Sekundärmarkt) werden. 1. Definition und Abgrenzung Der Aktienmarkt ist der Teil des Kapitalmarktes auf dem ausschließlich Beteiligungskapital in Form von Aktien emittiert (Primärmarkt) und gehandelt (Sekundärmarkt) wird. Der Sekundärmarkt lässt sich in den an -» Börsen organisierten Handel und den außerbörslichen Over the Counter (OTC)-Handel unterteilen. Eine weitere Untergliederung ergibt sich aus der Fälligkeit der abgeschlossenen Aktiengeschäfte. Am Kassamarkt sind die Geschäfte sofort oder innerhalb kurzer Zeit zu erfüllen. Am Terminmarkt, der hier nicht näher betrachtet wird, fallen Abschluss und Erfüllung zeitlich auseinander. Nach der Organisation der Märkte lassen sich Auktionsund Market-MakerSysteme unterscheiden. In einem Auktionsmarkt werden gegenläufige Kundenorders ausgeführt, sofern sich Kauf- und Verkaufslimite überschneiden. In einem Market-Maker-System sind die MarketMaker verpflichtet, jederzeit verbindliche Kauf- und Verkaufskurse zu stellen, zu denen die Marktteilnehmer mit ihnen handeln können. 2. Internationale Aktienmärkte Gemessen an der Marktkapitalisierung ist die New York Stock Exchange (NYSE) die mit Abstand größte Börse der Welt. Auf den weiteren Plätzen folgen die Nasdaq (National Association of Securities Dealers Automated Quotation), die Tokyo Stock Exchange (TYKO), die London Stock Exchange (LSE) und der deutsche Aktienmarkt.
An der N Y S E sind die Aktien von über 2.600 Unternehmen gelistet. Das Handelssystem stellt eine Mischung aus Market-Maker- und Auktionssystem dar. Als Auktionator fungiert der sogenannte Specialist, der unter bestimmten Bedingungen verbindliche Kauf- und Verkaufskurse stellen muss, um einen jederzeit liquiden Markt zu gewährleisten. Außerdem darf er auf eigene Initiative handeln. Die 1971 gegründete Nasdaq ist ein nach dem Market-Maker-System organisiertes Computernetzwerk über das mehr als 5.000 verschiedene Aktien, v.a. aus dem Technologiebereich, gehandelt werden. Gehandelt wird vornehmlich in den USA, wobei in den letzen Jahren vermehrt auch im Ausland ansässige Teilnehmer hinzugekommen sind. Der Aktienmarkt in Tokyo ist nach dem Auktionssystem organisiert. Knapp 2.000 Unternehmen sind an dieser Börse gelistet. Zentrales Element an der TYKO sind die Saitoris, deren Aufgabe darin besteht, zwischen den Mitgliedern der Börse bei der Auftragsabwicklung zu vermitteln. Handel auf eigene Rechnung ist ihnen nicht gestattet. An der London Stock Exchange (LSE) sind ungefähr 2.500 Unternehmen gelistet. Die Organisation des Marktes ist nicht einheitlich. Je nach dem über welches der verschiedenen elektronischen Handelssysteme die Orders ausgeführt werden, lassen sich sowohl MarketMaker- als auch Auktionssysteme finden. Aktienmarkt 3. Der deutsche Insgesamt gibt es in Deutschland acht Wertpapierbörsen: Berlin, Bremen, Düsseldorf, Frankfurt, Hamburg, Hannover, München und Stuttgart, an denen die Aktien von über 3.500 Unternehmen gelistet sind. Der Handel konzentriert sich zunehmend auf die Frankfurter Wertpapierbörse und das elektronische Handelssystem -» XETRA. Marktorganisation: An den Präsenzbörsen wird der Handel nach dem Auktionsprin21
Aktienmarkt
Aktienmarkt
tanz des Übernahmekodex erforderlich. Wie beim Amtlichen Handel handelt es sich auch beim Geregelten Markt um einen organisierten Markt nach § 2 Abs. 5 Wertpapierhandelsgesetz. Die Unternehmen müssen ein Emissionsvolumen von mind. € 250.000 aufweisen und einen Unternehmensbericht mit allen wichtigen Angaben über das Unternehmen vorlegen. Der Freiverkehr ist das größte deutsche Marktsegment und unterliegt gleichzeitig den geringsten Reglementierungen. Für eine Notierung muss lediglich ein Verkaufsprospekt über die ökonomischen und rechtlichen Verhältnisse des Unternehmens vorgelegt werden, der eine Beurteilung des Unternehmens zulässt.
zip durchgeführt. Dabei vermitteln Makler zwischen den einzelnen Marktteilnehmern indem sie die offiziellen Kurse feststellen. Auch der Handel über das XETRA-System findet grundsätzlich nach dem Auktionsprinzip statt. Für weniger liquide Titel wird das System um sogenannte Designated Sponsors ergänzt. Diese übernehmen Market-MakerFunktionen, so dass XETRA ein hybrides Handelssystem darstellt. Der deutsche Aktienmarkt lässt sich in fünf Handelssegmente unterteilen: den amtlichen Handel, den geregelten Markt, den Freiverkehr, den - > Neuen Markt und den SMAX. Zusätzlich existieren kleinere Themenmärkte wie z.B. der Prädikatsmarkt München und der Start-up-Market Hamburg, in denen jeweils Unternehmen aus derselben Lebenszyklusphase zusammengefasst sind. Möchten Unternehmen an einer deutschen Börse notiert werden, müssen sie vorher ein Zulassungsverfahren durchlaufen. Dieses ist entweder öffentlich-rechtlich (für den Amtlichen Handel und den Geregelten Markt) oder privatrechtlich (für den Freiverkehr) geregelt. Unternehmen des Neuen Marktes bzw. SMAX verpflichten sich gegenüber der Deutschen Börse AG zur Einhaltung anspruchsvoller Transparenz- und Liquiditätsstandards. •
22
Amtlicher Handel, Geregelter Markt und Freiverkehr: Der Amtliche Handel stellt einen organisierten Markt nach § 2 Abs. 5 Wertpapierhandelsgesetz dar. Im höchsten Börsensegment müssen die dort gelisteten Unternehmen den strengsten Zulassungsvoraussetzungen gerecht werden. Hierzu zählen: Bestand des Unternehmens mind. drei Jahre, Emissionsvolumen mind. € 1,25 Millionen, Streubesitz mind. 25%, Zulassungsprospekt mit allen wichtigen Angaben über das Unternehmen sowie Veröffentlichung von Halbjahres- und Jahresberichten. Für eine (Neu-) Aufnahme in den DAX ist ferner die Akzep-
•
Neuer Markt Der Neue Markt wurde 1997 von der Deutschen Börse AG eingeführt. Die große Popularität dieses Marktsegments hat dazu geführt, dass Anfang 2.000 bereits über 200 Unternehmen in diesem Segment gelistet waren. Der Neue Markt wurde für junge innovative Gesellschaften aus zukunftsorientierten Branchen wie z.B. Telekommunikation, Biotechnologie und -> Internet geschaffen. Folgende Zulassungsvoraussetzungen werden an die Unternehmen gestellt: Platzierungsvolumen mind. € 5 Mio., mind. zwei Designated Sponsors für den Xetra-Handel, Ausgabe von Stammaktien (-» Aktie), sechs Monate Haltepflicht für Altaktionäre, mind. 50% des Emissionsvolumens stammen aus einer Kapitalerhöhung, mind. 15% Streubesitzanteil, Akzeptanz des Übernahmekodex, Publikationen in Deutsch und Englisch, Veröffentlichung von Quartalsberichten, Zulassungsprospekte nach internationalen Standards, Jahresabschlüsse nach HGB und ->• IAS oder - US-GAAP und Abhalten von Analystenveranstaltungen.
Aktienrückkauf
Aktienmarkt •
SMAX Der SMAX startete als das jüngste von der Deutschen Börse AG geschaffene Marktsegment 1999 mit 91 Unternehmen. Bis Anfang 2.000 waren bereits über 120 Unternehmen in diesem Segment gelistet. Zielgruppe sind Small Caps, die bereits über eine mehrjährige Unternehmenshistorie verfugen und aus mittelständischen Traditionsbranchen stammen. Der Börsengang der SMAX-Werte liegt im Durchschnitt zehn Jahre zurück; ihre Unternehmensgründung sogar 85 Jahre. Im Gegensatz zum Neuen Markt ist die Branchenzusammensetzung der Unternehmen sehr heterogen. Die SMAX-Unternehmen heben sich durch die Verpflichtung zur Einhaltung bestimmter Transparenz- und Liquiditätsstandards von den anderen Nebenwerten ab. Die Anforderungen an SMAX-Unternehmen ähneln denen des Neuen Marktes: Streubesitz der eigenen Aktien nicht unter 20%, Beauftragung eines Designated Sponsors für den Xetra-Handel, Veröffentlichung von Quartalsberichten, Anerkennung des Übernahmekodex, Durchführung einer jährlichen Analystenveranstaltung und jährliche Offenlegung der Anteile von Vorstand und Aufsichtsrat am Unternehmen. Auch nach der Aufnahme in den SMAX notieren die Unternehmen weiter im Amtlichen Handel oder Geregelten Markt.
4. Aktuelle Tendenzen Wettbewerb und Globalisierung zwingen die nationalen Börsen zu Strukturwandel und zu grenzüberschreitenden Allianzen. Durch Kosteneinsparungen und Bündelungen der Liquidität versuchen die etablierten Börsen die Konkurrenz privater Handelssysteme abzuwehren. Diese werden als Proprietäre Transaktionssysteme (PTS) oder auch als Electronic Communication Networks (ECN) bezeichnet. Die bekannteste Plattform dieser Art ist das zum Medienkonzern
Reuters gehörende Instinet, das mehr als 90% der institutionellen Aktienfonds, die in den USA verwaltet werden, zu seinen Kunden zählt und das von internationalen Finanzinstitutionen getragene TradepointSystem. Zunehmend gewinnt auch das für einen globalen Aktienhandel geradezu prädestinierte Internet an Bedeutung. Literatur: Gerke, W./Rapp, H.-W.: Strukturveränderungen im internationalen Börsenwesen, in: Die Betriebswirtschaft, Vol. 54, 1994, S. 5 - 2 3 ; FIBV: International Federation of Stock E x c h a n g e s 1998, Parts 1998. Internetadressen: www.instinet.com; www.smax.de; www.neuer-markt.de: www.exchanee.de
Wolfgang Gerke Aktienoptionsplan Optionsplan Aktienrückkauf Der Rückkauf von Aktien des eigenen Unternehmens stellt als -»Kapitalherabsetzung gemäß § 71 Abs. 1 AktG das Gegenstück zur Erhöhung des Eigenkapitals über Sach- oder Bareinlagen im Wege der Kapitalerhöhung dar. Aus dem Blickwinkel der unternehmenswertorientierten Unternehmensführung (-» Shareholder Value) wird der Aktienrückkauf eine Alternative zur Dividendenzahlung, um für das operative Geschäft nicht benötigte Zahlungsüberschüsse (sog. Freie -» Cash-flows) an die Anteilseigner auszuschütten. Während in den USA der Rückerwerb eigener Aktien als Ausschüttungsinstrument seit Jahrzehnten üblich ist und eine hohe Verbreitung gefunden hat, hatte der Aktienrückkauf bis zum 31.03.1998 in Deutschland aufgrund strenger rechtlicher Regelungen keine Bedeutung. Vorschläge des Deutschen Aktieninstituts (DAI) zur Änderung des Aktienrechts und damit zur Stärkung des deutschen Kapitalmarktes wurden im Gesetz zur Kontrolle und Transparenz im Unternehmensbereich (-> KonTraG) aufgegriffen und umgesetzt. Seit dem 1.4.1998 haben ca. 40 23
Aktienrückkauf deutsche —> Aktiengesellschaften Aktienrückkäufe durchgeführt bzw. angekündigt.
Aktienrückkauf
•
Zum Rückerwerb eigener Aktien ergeben sich prinzipiell drei Möglichkeiten: 1. Direkter Rückkauf der Aktien am offenen Markt, d.h. über die -» Börse, 2. Direkte Verhandlungen zwischen Aktionär und Gesellschaft (i.d.R. nur bei Großaktionären), 3. Angebot des Rückkaufes direkt an alle Aktionäre unter Ausschaltung der Börse entweder als Festpreisangebot (vorgegebener Rückkaufskurs), als Auktionsverfahrens (Vorgabe einer Bandbreite des Rückkaufkurses durch das Unternehmen, auf das der Aktionär durch Angabe seines geforderten Mindestkurses und der von ihm zu verkaufenden Aktienanzahl reagiert) oder durch Ausgabe übertragbarer Verkaufsrechte (als Spiegelbild zu den ebenfalls börsengehandelten Bezugsrechte im Falle der Kapitalerhöhung). Von den drei vorgestellten Rückerwerbsmethoden stellt der Rückkauf am offenen Markt das am meisten verwendete Instrumentarium dar. So wurden in den USA zwischen 1985 und 1993 90 % der Aktienrückkäufe über Offen-MarktTransaktionen abgewickelt. Der Rückerwerb eigener Aktien gilt in Deutschland prinzipiell als Form der verbotenen Einlagenrückgewähr und ist gem. § 57 (1) S. 1 AktG im Gegensatz zu den USA grundsätzlich unzulässig. Historisch basiert das Verbot auf den während der Wirtschaftskrise in den 20er Jahren erfolgten massiven Aktienrückkäufen, die oftmals Unternehmenszusammenbrüche zur Folge hatten. Gründe für das prinzipielle Verbot des Aktienrückkaufes sind in folgenden Punkten zu sehen: •
24
Kapitalerhaltung zur Sicherung der Haftungsbasis und Sicherstellung der Kapitalaufbringung bei nicht voll eingezahlten Einlagen, um den Gläubi-
•
gerschutz zu gewährleisten ( § 5 7 (1) AktG), Gleichbehandlung der Aktionäre, die durch den Rückkauf von einzelnen Aktionären gefährdet wäre (§ 53a AktG), Aufrechterhaltung der Kompetenzverteilung zwischen den Organen der AG (Vorstand vs. Hauptversammlung), die gestört würde, wenn der Vorstand mit dem Erwerb eigener Aktien Mitgliedschaftsrechte in der Hauptversammlung erhielte (§ 71b AktG).
Ausnahmen zum generellen Verbot des § 57 (1) S. 1 AktG sind in § 71 AktG geregelt. Gemäß § 57 (1) S. 2 AktG gilt die Zahlung des Erwerbspreises bei einem zulässigen Aktienrückerwerb dann nicht mehr als verbotene Einlagenrückgewähr. In § 7 1 (1) AktG sind abschließend die einzelnen zulässigen Rückerwerbstatbestände aufgezählt: • • • •
• •
•
•
Abwehr eines schweren Schadens von der Gesellschaft (Nr. 1), Angebot von Aktien an Arbeitnehmer (Nr. 2), Abfindung von Aktionären (Nr. 3), unentgeltlicher Erwerb oder Einkaufskommission durch Kreditinstitute (z.B. Erwerb für ein Kundendepot) (Nr. 4), Gesamtrechtsnachfolge (bei -> Verschmelzungen) (Nr. 5), Erwerb gem. § 71 (1) Nr. 6 AktG zur Herabsetzung des Grundkapitals (Nr. 6), Erwerb durch Kredit- und Finanzinstitute zum Zweck des Wertpapierhandels (z.B. zur Erfüllung eines offenen Terminkontraktes auf das eigene Institut) (Nr. 7), Zeitlich befristete Ermächtigung der Hauptversammlung (Nr. 8).
Die Gründe Nr. 2 bis 5 und 7 stellen Spezialfälle dar, die für eine planbare Ausschüttungspolitik als Alternative zur Dividendenzahlung nicht greifen. Die Nr. 8 wurde durch das KonTraG neu in § 71 (1) AktG aufgenommen. Jedoch konnten
Aktien rückkauf auch schon vor dem 1.4.1998 Aktienrückkäufe nach § 71 (1) Nr. 1 oder Nr. 6 allerdings mit erheblichen rechtlichen Restriktionen durchgeführt werden. Die Einschränkungen liegen im wesentlichen darin, dass bei Aktienrückkäufen nach § 71 (1) Nr. 1 ein Schaden für die Aktionäre (z.B. durch bezüglich deren Vermögensposition suboptimale Ausschüttungspolitik) durch die bewusste Trennung von Unternehmens- und Eignersphäre nicht als Schaden des Unternehmens anerkannt wird, obwohl beide Sphären betriebswirtschaftlich über die Eigenkapitalkosten miteinander verbunden sind. Der Nachteil der auch schon bisher bestehenden Alternative eines Rückkaufes über § 71 (1) Nr. 6 ist in der Notwendigkeit einer Kapitalherabsetzung zu sehen. Dadurch sind zusätzliche Bedingungen gemäß der Vorschriften zur ordentlichen Kapitalherabsetzung gemäß § 222 bis 228 AktG zu beachten (§ 237 (2) S. 2 AktG). Bei Volleinzahlung des Nennbetrages und Einzug der Aktien zu Lasten des Bilanzgewinns, einer anderen Gewinnrücklage oder eines Gewinnvortrages (Sicherstellung von ausschüttbaren Eigenkapital i. S. des Gläubigerschutzes) ergaben sich jedoch auch schon bisher Erleichterungen, die den Aktienrückkauf durchführbar erscheinen ließen. Daher ist es verwunderlich, dass Aktienrückkäufe vor dem 1.4.1998 keine praktische Bedeutung erlangen konnten. Durch die nach dem KonTraG eingefügte Nr. 8 zum § 71 (1) AktG ist zur Durchführung eines Aktienrückkaufs durch den Vorstand nur ein Hauptversammlungsbeschluss notwendig. Der im Hauptversammlungsbeschluss festgelegte rückzukaufende Anteil am Grundkapital darf 1 0 % des gesamten Grundkapitals nicht überschreiten. Durch die Aufnahme von § 71 (1) Nr. 8 in § 71 (2) S. 1 AktG wird allerdings festgelegt, dass nach erfolgtem Rückkauf der Gesamtbestand an eigenen Aktien nicht mehr als 1 0 % des Grundkapitals betragen darf. Zudem wird die Volleinzahlung der Aktien verlangt. Die
Aktienrückkauf Ermächtigung der Hauptversammlung zur Durchführung des Aktienrückkaufs darf höchstens 18 Monate gelten. Diese Beschränkung gilt nicht für das Halten der Aktien nach erfolgtem Rückkauf. Der Rückerwerbszweck selbst soll von den Aktionären frei bestimmt werden können, solange alle Aktionäre gleichbehandelt werden und kein Handel mit eigenen Aktien erfolgt. Zusätzlich eingeführt wird eine erweiterte Informationspflicht in § 71 (3) S. 3 AktG. Danach ist über eine nach § 71 (1) Nr. 8 AktG vorgenommene Ermächtigung das Bundesaufsichtsamt für den Wertpapierhandel unverzüglich zu informieren. Weitere Informationspflichten ergeben sich aus § 15 WpHG, wonach ein kursbeeinflussender Aktienrückkauf der Ad Hoc-Publizität unterliegt. Festzuhalten bleibt, dass durch die Einführung des § 71 (1) Nr. 8 AktG Unternehmen eine flexiblere Durchführung des Aktienrückerwerbs möglich wird. Gegenüber der bisherigen Regelung ist es beispielsweise nicht mehr erforderlich, eine Kapitalherabsetzung vor dem Rückerwerb zu beschließen und damit den Gläubigem Sicherheit zu leisten. Soll eine Kapitalherabsetzung zur Einziehung der rückerworbenen Aktien erfolgen, ist eine Beschlussfassung vielmehr auch nach erfolgtem Rückerwerb möglich. Keine Verbesserung gegenüber der bisherigen Rechtslage ergibt sich jedoch, wenn ein Rückerwerb über die 10%-Grenze hinaus erfolgen soll. In diesem Fall ist der Rückerwerb ebenfalls nur über den Weg der oben beschriebenen Kapitalherabsetzung möglich. Diese volumenmäßige Beschränkung soll eine massive Nutzung des Aktienrückkaufs zunächst einschränken und damit indirekt den Gläubigerschutz gewährleisten. Insofern ist der Spielraum durch die neue rechtliche Regelung von vornherein beschränkt. Mehrjährige Rückkaufprogramme sind damit absehbar, sofern die Finanzverwaltung ähnlich wie in den U S A hieraus 25
Aktionärsdemokratie
Aktienrückkauf nicht auf eine Umgehung von Dividendenausschüttungen schließt und eine Besteuerung als Einkünfte aus Kapitalvermögen beim Anteilseigner verlangt. Im Vergleich zu den U.S.A. sind durch die Neuregelung im KonTraG jedoch im wesentlichen die Rahmenbedingungen gelegt, die eine ähnliche Verbreitung des Aktienrückkauf wie in den USA auch in Deutschland ermöglichen. Für die Durchführung von Aktienrückkäufen werden folgende Motive angeführt: •
•
•
• •
•
Substitution von Dividendenzahlungen durch Aktienrückkäufe aufgrund von steuerlichen Vorteilen Letzterer, Veränderung der Kapitalstruktur, z.B. um diese an eine optimale Kapitalstruktur anzupassen, Rückkauf, um die Aktien für andere Zwecke weiterverwenden zu können (z.B. Ausgabe an Mitarbeiter), Betrachtung des Rückkaufs als rentables Investitionsprojekt, Signalisieren von Informationen über höhere Rückflüsse, die eine vom Unternehmen wahrgenommene Unterbewertung beseitigen soll, Vermögensumverteilung zwischen verkaufenden und nicht verkaufenden Anteilseignern und zwischen Anteilseignem und Fremdkapitalgebern.
Bei genauerer Betrachtung und bei Einbezug von in den USA durchgeführten empirischen Untersuchungen können als Hauptmotive zur Durchführung von Aktienrückkäufen erwartete Kurssteigerungen, das Aussenden eines Signals und die Änderung der Kapitalstruktur bestätigt werden. Das Motiv von Kurssteigerungen ist ohne weiteres erklärbar, da, wie USamerikanische empirische Studien zeigen, signifikante überdurchschnittliche Renditen durch Aktienrückkäufe regelmäßig erreicht werden. Das Motiv des Aussendens eines Signals lässt sich mit Hilfe der Signallingtheorie erklären. Das Kapitalstrukturänderungsmotiv ist ebenfalls in 26
den Rahmen des Signallingkontextes integrierbar, da die Erhöhung des Fremdkapitalanteils als Signal für eine höhere Verschuldungskapazität und damit für höhere zukünftige Rückflüsse verstanden werden kann. Schließlich ist das Motiv des Aktienrückkaufs als rentables Investitionsprojekt ebenfalls als Signallingaspekt betrachtbar. Weitere Motive wie z.B. eine Verringerung des Aktienangebots oder Reichtumsverschiebungen zwischen verkaufenden und nicht verkaufenden Aktionären sind entweder empirisch nicht beobachtbar oder können die bei Aktienrückkäufen beobachtbaren Kurssteigerungen nur zu geringeren Teilen erklären. Thomas Günther Aktienwert ->• Value at Risk Aktionärsdemokratie 1. Wesen der Aktionärsdemokratie Das Wesen der Aktionärsdemokratie lässt sich in Korrespondenz zur ursprünglichen Bedeutung des Demokratiebegriffs in der Politik ableiten. So wie dort in der griechischen Antike mit Demokratie die Herrschaft des Volkes über das Staatswesen beschrieben wurde, bedeutet Aktionärsdemokratie analog die Herrschaft der Aktionäre über die von ihnen mit Eigenkapital ausgestattete -> Aktiengesellschaft. Unter diesem Herrschaftsanspruch ist dabei sowohl die Ausrichtung der Unternehmenspolitik an den Zielen der Aktionäre als auch die Umsetzung dieser Ziele durch die im Rahmen des Unternehmens zu vollziehenden Handlungen zu verstehen. Bei Publikumsaktiengesellschaften, für die die Korrespondenz zum politischen Demokratiebegriff am ehesten sinnvoll erscheint, kann allerdings nicht von einer tätigen Mitherrschaft der Aktionäre ausgegangen werden. Durch die aus Spezialisierungs- und Diversifikationsgründen vollzogene Delegation der Geschäftsführung an angestellte Manager reduziert sich der direkte Einfluss der Unternehmenseigner im Wesentlichen auf
Aktionärsdemokratie die Bestellung und Kontrolle ihrer ranghöchsten Agenten (-> Agency-Theorie). Da sich deren Interessen mit denen der Aktionäre regelmäßig nicht decken, ergibt sich ein für große Gesellschaften typisches Vertretungsproblem, das bereits von Adam Smith in der zweiten Hälfte des 18. Jahrhunderts klar diagnostiziert wurde. Allerdings zeigt die Entwicklung in den letzten zweihundert Jahren, dass dieser Nachteil gegenüber eigentümergeführten Gesellschaften durch anderweitige Vorteile in vielen Fällen überkompensiert wird. Börsennotierte Gesellschaften verfugen über einen leichteren Zugang zu höheren Finanzierungsvolumina und ermöglichen ihren Anteilseignern eine bessere Risikostreuung. Dennoch bleibt die Durchsetzung der Aktionärsinteressen, auf die in späteren Abschnitten näher eingegangen wird, ein zentraler Erfolgsfaktor sowohl für das einzelne Unternehmen als auch die Institution der börsennotierten Publikumsaktiengesellschaft. 2. Rechtfertigung der Aktionärsdemokratie Die Rechtfertigung der Aktionärsdemokratie war von j e her umstritten, was im Zeitverlauf nicht zuletzt in der Entwicklung des Gesellschaftsrechts seinen Niederschlag fand. Noch am ehesten akzeptiert wurde der gegenüber dem politischen Demokratiebegriff veränderte Teilhabecharakter. Während dort die an der Person des Staatsbürgers ausgerichtete Gleichheit ("one man - one vote") dominiert, die im Wirtschaftsleben noch heute bei -> Genossenschaften zu finden ist, bestimmt sich bei Aktiengesellschaften der Einfluss des einzelnen Aktionärs nach Maßgabe seines Anteils am Grundkapital ("one share - one vote"). Diese Sicht ist ökonomisch wohl begründet, weil die Aktionäre als Eigenkapitalgeber erst dann finanzielle Vorteile aus der Gesellschaft erlangen können, nachdem vorher alle betragsmäßig fixierten Ansprüche von Vertragspartnern auf Zinsen, Löhne, etc. aus dem Unterneh-
Aktionärsdemokratie mensvermögen befriedigt wurden. Solange es nicht zur -> Insolvenz kommt, tragen die Aktionäre damit sämtliche finanzielle Konsequenzen aus den im Namen der Gesellschaft vollzogenen Handlungen gemäß ihrer Kapitalquote und sollten deshalb auch in diesem Umfang Einfluss auf diese Handlungen nehmen können. Mit dem Inkrafttreten des A D H G B 1861 wurde diese Zuordnung weitgehend auch rechtlich akzeptiert und blieb trotz legislativer Änderungen im Wesentlichen bis zum Ende des Ersten Weltkriegs in Bestand. Sowohl vor dieser Zeitspanne als auch danach sahen und sehen sich die Aktionäre hinsichtlich ihrer Einflussmöglichkeiten auf die Unternehmenspolitik Beschränkungen gegenüber, die weit über allgemein im Wirtschaftsleben gültige rechtliche Restriktionen hinausgingen beziehungsweise -gehen. Eine Argumentationslinie für solche Restriktionen besteht in der These, dass durch Unternehmen viele Personen(-gruppen) in ihrem Wohlstand beeinflusst werden. Als Konsequenz wurden und werden rechtliche Vorgaben gefordert, die sicherstellen sollen, dass die Interessen dieser "stakeholder" neben denjenigen der "shareholder" Eingang in die Untemehmenspolitik finden. Gemeinwohlorientierte Genehmigungsvorbehalte für Aktiengesellschaften in der ersten Hälfte des 19. Jahrhunderts gehören hierzu ebenso wie staatlich verordnete Mitbestimmungsorgane in unserer Zeit. Allgemein wird in dieser Stakeholder-Sicht nicht beachtet, dass die Interessen derjenigen, die gegenüber dem Unternehmen betragsmäßig fest fixierte Ansprüche haben, bereits durch die allgemeinen gesetzlichen Bestimmungen und die Ausgleichsfunktion des Preismechanismus in der Marktwirtschaft zur Geltung gebracht werden. Die zweite Gegenbewegung zur Aktionärsdemokratie ist in holistischen Unternehmensbildern zu sehen, die die Ziel-Mittel-Relation zwischen Aktionären und Gesellschaft dadurch auflösen, dass sie letzterer ein 27
Aktionärsdemokratie unabhängig von "eigennützigen" Interessen ihrer Eigner aus sich heraus gültiges Existenzrecht zugestehen. Diese "Lehre vom Unternehmen an sich" wurde vor allem in juristischen Erörterungen zur Zeit der Weimarer Republik entwickelt und hat im Aktienrecht noch heute große Bedeutung. Welche Gefahren davon ausgehen, wenn reale Interessenunterschiede mit dem Postulat einer "Konvergenz aller berechtigten Interessen" im Unternehmen wegdefiniert werden, zeigte sich indessen schnell, als die Nationalsozialisten bei der Reform des Aktiengesetzes von 1937 der Unternehmenspolitik als Maxime eine Geschäftsführung vorgaben, "wie das Wohl des Betriebs ... und der gemeine Nutzen von Volk und Reich es erfordern". 3. Problembereiche Der gegenüber programmatischer Kritik weitaus wichtigere Problembereich ist für die Aktionärsdemokratie in Publikumsaktiengesellschaften die bereits unter Ziffer 1 angesprochene faktische Durchsetzung von Eigentümerinteressen. Er resultiert aus einem für private Anleger schwer umgehbaren Dilemma: Auf der einen Seite wird ein Aktionär zur Reduktion des Risikos sinnvollerweise ein gut diversifiziertes Portfolio aufweisen; auf der anderen heißt dies im Normalfall, dass selbst bei einem für Privatpersonen durchaus ansehnlichen Vermögen der auf eine Gesellschaft entfallende Anteil so gering ist, dass es sich für einen einzelnen Aktionär im Allgemeinen nicht lohnt, die insbesondere mit der Sammlung und Auswertung von Informationen über die Geschäftsleitung verbundenen Kosten zu tragen. Von ihrer Struktur her trägt diese Situation dieselben Merkmale wie die Frage, ob sich ein Bürger am politischen Prozess beteiligen, also zum Beispiel in der repräsentativen Demokratie wählen, soll. Eine elementare Darstellung des korrespondierenden individuellen Entscheidungskai-
28
Aktionärsdemokratie küls aus der Public-Choice-Theorie lautet wie folgt: H = N P - K + D, mit: H = Gesamtnutzen aus einer politischen Betätigung, N = erwarteter Nutzen aus den Auswirkungen der kollektiven Entscheidung, P = Wahrscheinlichkeit, dass dieses Ergebnis aufgrund des eigenen Handelns zu Stande kommt, K = individuelle Kosten und D = individueller Nutzen der politischen Aktivität als solcher. Kontrollaktivitäten eines Streubesitzaktionärs folgen einem analogen Kalkül wie eine politische Betätigung; während aber der Kostenparameter K im Falle einer bloßen Ausübung des Stimmrechts bei demokratischen Wahlen so gering ist, dass hier regelmäßig vergleichsweise hohe Wahlbeteiligungen zu beobachten sind, die zuweilen sogar als "Wahlparadoxon" eingestuft werden, erreichen die individuellen Kosten von Kontrollaktivitäten bei einem Streubesitzaktionär im Normalfall ein prohibitives Niveau. Selbst die einzige rechtlich verbliebene Plattform für ein direktes Engagement, die Hauptversammlung - mitunter in Anlehnung an den Demokratiegedanken als "Parlament der Aktionäre" bezeichnet - , wird zumeist nur von einem kleinen Bruchteil der Gesellschafter besucht. Die Klage über diese "Verödung der Hauptversammlungen" führte indessen zu einer Fehlprogrammierung propagierter Reformbestrebungen, die das aus Aktionärssicht relevante Problem gerade nicht löste: Im Wesentlichen kam es zu einer Vertretung der nicht anwesenden Aktionäre durch ihre Depotbank. Aufgrund von Interessendivergenzen zwischen Banken und ihren Managern einerseits sowie Anteilseignern andererseits kann nun in vielen Fällen nicht davon ausgegangen werden, dass diese institutionelle Rege-
Aktionärsdemokratie lung zu einer besseren Durchsetzung von Eigentümerinteressen führt. Die Vergangenheit ist voll von Beispielen, in denen zur Vertretung von Aktien berechtigte Banken ihre Stimmenmacht im krassen Widerspruch zu den Interessen ihrer Depotkunden eingesetzt haben. 4. Folgerungen Um diesen Interessen zum Durchbruch zu verhelfen, darf man Aktionärsdemokratie nicht in einem primär operativen Sinn fordern. Das Gespenst "verödeter" Hauptversammlungen und "Zufallsmehrheiten" verstellt nämlich den Blick dafür, dass für die weit überwiegende Mehrheit der Anleger lediglich finanzielle Ziele im Räume stehen, die einen Selbstzweck hoher Präsenzquoten oder andere Formen tätiger Mitarbeit durchaus nicht einschließen. Wichtig ist demgegenüber lediglich, dass die anwesenden Aktionäre tendenziell dieselben Interessen verfolgen wie diejenigen, die aus den bekannten Gründen nicht an der Hauptversammlung teilnehmen. Sobald man dies erkannt hat, wird deutlich, dass gerade die Aktionäre, deren finanzielle Anreize groß genug für einen eigenen Hauptversammlungsbesuch sind, der Interessenlage ihrer abwesenden Mitgesellschafter regelmäßig näher stehen als alle denkbaren Vertreter. Somit müsste umgekehrt sichergestellt werden, dass fremde Interessen wie die der Depotbanken möglichst keinen Einfluss auf die Entscheidungsbildung in einer Aktiengesellschaft gewinnen. Eine Verhinderung des Depotstimmrechts und nicht seine Begünstigung ist somit die ökonomisch zu fordernde Konsequenz, die aktienrechtlich leicht durch eine prohibitive Verteuerung der Vollmachterteilung zu erreichen wäre. Eine Herrschaft der Aktionäre bei Präsenzquoten von 20% erscheint für die dann formal Unvertretenen insgesamt günstiger als eine Scheindemokratie, in der sich die Interessen derjenigen durchsetzen, die das Stimmenpotenzial passiv bleibender Anleger mobilisieren können, weil ihnen ein
Aktionärsdemokratie missbrauchsanfälliger Vertretungsmechanismus zur Verfügung steht. Mit dessen Beseitigung würde insbesondere die zur Zeit nicht sonderlich attraktive Bildung kleinerer Pakete interessant, mit denen bei niedrigen Präsenzen ein zunehmender Druck auf das Management erzeugt werden kann, der aus Aktionärssicht in Publikumsgesellschaften heute schmerzlich zu vermissen ist. In diesem Zusammenhang wird üblicherweise eingewandt, es bestehe dann die Gefahr, dass einflussreiche Aktionäre die einflusslosen Klein(st)aktionäre übervorteilen. In Anbetracht der jüngeren Wirtschaftsgeschichte scheint es allerdings so, dass diese Gefahr durch einen missbrauchsanfälligen Vertretungsmechanismus wie das Depotstimmrecht nicht eingedämmt, sondern verstärkt wird. Für eine empirische Aufarbeitung dieser Fragestellung liegen bisher vor allem Untersuchungen aus dem angelsächsischen Raum vor, deren Ergebnisse das Wirken dominierender Minderheiten in einem eher positiven Licht erscheinen lassen. Die Kleinaktionäre sind normalerweise nicht in der Rolle des Übervorteilten, sondern in der des Trittbrettfahrers, der von den Inhabern kleiner Pakete kostenlos profitiert, weil sich für diese gemäß der obigen Public-ChoiceGleichung Aktivitäten zur Verbesserung der Unternehmenslage auch ohne zusätzliche Anreize lohnen. Paketbildungen waren in der jüngeren Vergangenheit für den deutschen Aktienmarkt zwar durchaus charakteristisch; segensreiche Wirkungen waren davon aber deshalb nicht zu erwarten, weil bei den Inhabern der Stimmenmacht aus diesen Paketen dieselben Probleme auftreten wie im Verhältnis zwischen Managern und Aktionären. Die Pakete waren nämlich großenteils nicht in den Händen von Privatpersonen, sondern befanden sich im Eigentum börsennotierter Aktiengesellschaften und damit unter der Kontrolle jener Manager, die gerade über das 29
Aktionärsdemokratie Stimmrecht der Aktionäre diszipliniert werden müssten. Genau wie beim Depotstimmrecht erfolgt die Einflussnahme dann nicht mehr im Sinne privater Anleger, denen durchgerechnet letztlich alles gehört, sondern einer Schar sich gegenseitig begünstigender Top-Manager, deren Eigeninteressen letztlich erst den Bedarf für eine Einflussnahme von Aktionären schaffen. Angesichts der über Jahrzehnte aufgebauten Überkreuzverflechtungen zwischen deutschen Großkonzernen wird eine Abschaffung des Depotstimmrechts deshalb in vielen Fällen nicht mehr für die oben skizzierte Verbesserung ausreichen. Bedenkt man dann noch, dass die Vertreter des in seiner Bedeutung stark gestiegenen mediatisierten Anteilsbesitzes, vor allem FondsManager, bisher kaum als aggressive Protagonisten von Eigentümerinteressen auffielen, dürfte die (Wieder-)Herstellung einer wohlverstandenen Aktionärsdemokratie noch in sehr viel weiterer Ferne liegen, als es die medienwirksam inszenierte "Shareholder value"-Rhetorik dem Anlegerpublikum seit einigen Jahren suggeriert. Literatur: Frey, Ö k o n o m i s c h e Theorie der Politik, in: Handwörterbuch der Wirtschaftswissenschaften, Bd. 5, Stuttgart et al. 1988, S. 6 5 8 - 6 6 7 ; Laux, Die Lehre v o m U n t e r n e h m e n an sich, Berlin 1998; Wenger, Universalbankensystem und Depotstimmrecht, in: Gröner (Hrsg.): Der Markt fiir Unternehmenskontrollen, Berlin 1992, S. 73-103; Wenger/Knoll, Shareholder Value, in: Korff et al. (Hrsg.): H a n d b u c h der Wirtschaftsethik, Bd. 4, Gütersloh 1999, S. 433^154; Wenger/Knoll/Knoesel, Der systematische Besuch von Hauptversammlungen im R a h m e n betriebswirtschaftlicher Hochschulausbildung, in: Elschen/Siegel/Wagner (Hrsg.): Unternehmenstheorie und Besteuerung, Wiesbaden 1995, S. 7 4 9 774.
Ekkehard Wenger/Leonhard Knoll Alert-Agent -» Internet-Auktionen Alleinstellungsmerkmal - » U n i q u e Selling Proposition Alphabet Stocks -> Tracking Stocks 30
Angel Investors Amortisationsrechnung -> Investitionsrechnung Ampelkonto -* Arbeitszeitmanagement Amtlicher Handel -> Aktienmarkt Angel Investor Private -> Venture Capitalists, die einem -> Start Up während der -> Early StageFinanzierung Eigenkapital zuführen und die -> Unternehmensgründung selbst oder durch qualifizierte Dritte aus ihrem Kontaktnetzwerk beratend begleiten. Ein Angel Investor zeichnet sich einerseits durch seine wirtschaftliche Unabhängigkeit und andererseits durch seine unternehmerische Erfahrung bzw. sein Fachwissen aus. Das Investitionskapital eines Angel Investors wird informelles und das eines institutionellen Venture Capitalists formelles Beteiligungskapital genannt. Vom typischen Unternehmer-Angel, der Finanzierungs- und Beratungsfunktionen in seiner Person vereint, sind Sonderformen zu unterscheiden; Der Finanzierungsangel beschränkt sich auf die Zuführung von Eigenkapital und setzt keine Managementakzente. Der Berater-Angel aus dem Bereich der Unternehmens-, Steuer- und Rechtsberatung stundet seine an die Unternehmenswertsteigerung geknüpften Honorarforderungen im Rahmen des gesetzlich Zulässigen während der Early Stage. Der Job-Angel bringt sich selbst durch Mitarbeit in das Start Up ein. Für die Beteiligung eines Angel Investors an einem Start Up eignet sich die —• "kleine" Aktiengesellschaft, bei der die Intensität der Beratungsleistung durch Mitarbeit im Vorstand oder aber im Aufsichtsrat den individuellen Bedürfnissen des Angels und der Gründer angepasst werden kann. Stefan Hanloser
Anwendungssystem
Anhang Anhang Der Anhang dient im Rahmen des Jahresabschlusses zur Erläuterung und Ergänzung von Informationen der -* Bilanz und der -» Gewinn- und Verlustrechnung. Wesentliche Berichtspflichten im Anhang sind Angaben zu den angewandten Bilanzierungs- und Bewertungsmethoden, zu steuerrechtlichen Einflüssen, zur Finanzlage und den Haftungsverhältnissen. Darüber hinaus enthält der Anhang Informationen über nicht-bilanzierungspflichtige Sachverhalte wie der Personalstruktur und Beziehungen zu verbundenen Unternehmen. Annuitätenmethode Investitionsrechnung Anschaffungskosten des Humanvermögens -» Humanvermögensrechnung Anspruchanpassungstheorie Beschreibt den Umstand, dass man in einer Entscheidungssituation die zeitliche Dauer der Altemativensuche nach dem bisherigen Erfolg richten wird: •
•
Sucht man eine Entscheidungsalternative, und findet rasch eine gute Lösung, so wird man weiter nach einer besseren suchen. Hat die Suche dagegen kaum Erfolg, d.h. werden nur relativ unbefriedigende Alternativen gefunden, so wird man nach einer gewissen Zeit die Suche
abbrechen und die relativ beste Alternative aus den bereits gefundenen Alternativen wählen. Anwendungssystem, betriebliches Unter einem Anwendungssystem versteht man Programme, die ein konkretes betriebliches Anwendungsgebiet abbilden sowie das zu Grunde liegende Basissystem. Software ist im Gegensatz zur Hardware, die den Rechner mit all seinen Komponenten (Prozessor, Arbeitsspeicher, Festplatte, etc.) und Peripheriegeräten (Maus, Tastatur, Drucker, etc.) bezeichnet, die Gesamtheit aller Programme. Programme, die das Zusammenwirken der Hardware mit der Software bei der Programmausfuhrung steuern (-» Betriebssystem) oder bestimmte Basisaufgaben erfüllen (Übersetzen von Programmen, Verwalten von Datenbeständen, etc.) bilden die Systemsoftware. Als Anwendungssoftware gelten hingegen jene Programme, die eine spezielle betriebliche Funktion wie Buchführung, Lohnabrechnung, Lagerverwaltung usw. erfüllen. Jedes Anwendungssystem umfasst •
im engeren Sinne die Anwendungssoftware für ein konkretes betriebliches Anwendungsgebiet inklusive der in Dateien oder Datenbanken abgelegten Datenbeständen und
Abb. 1 : Klassifikation der Anwendungssysteme
31
Anwendungssystem •
im weiteren Sinne das für seine Nutzung benötigte Basissystem, d.h. die Hardware und die Systemsoftware sowie die erforderlichen Kommunikationseinrichtungen (Netzwerke, Protokolle, etc.)
Anwendungssysteme werden in Unternehmen jeder Größe für alle betrieblichen Arbeitsgebiete (Personalwesen, Fertigung, Vertrieb, Finanzwesen, etc.) und in allen Branchen sowie auf Rechnern aller Größenklassen und mit unterschiedlichen Vemetzungsstrategien eingesetzt. Nach ihrem Verwendungszweck unterscheidet man zwischen Administrationsbzw. Dispositionssystemen und entscheidungsunterstützenden Systemen (Abb. 1). Administrationssysteme übernehmen • die klassische betriebliche Abrechnung von "Massendaten" wie z.B. die Finanzbuchhaltung oder die Personalabrechnung und • die Verwaltung von Beständen, z.B. Lagerartikeln im Handel oder in der Industrie, von Konten bei Banken und von Verträgen bei Versicherungen. Dispositionssysteme dienen der Vorbereitung kurzfristiger dispositiver Entscheidungen. Typische Anwendungen sind das Mahnwesen in der Finanzbuchhaltung, die Kalkulation in der Kostenrechnung oder das Bestellwesen im Handel. Entscheidungsunterstützende Systeme generieren aus aufbereiteten Datenbeständen mittels analytischer Methoden Entscheidungsvorschläge. Dies kann z.B. über folgende Verfahren erfolgen: Simulation, Optimierung, Heuristiken, Fuzzy Logic, -> Neuronale Netze, Künstliche Intelligenz, -» Data Mining. Markus Schneckenburger APT -» Arbitrage Pricing Theory 32
Arbeitnehmer Arbeitnehmer 1. Arbeitnehmer im Sinne des Arbeitsrechts Arbeitnehmer im Sinne des Arbeitsrechts ist, wer (1.) aufgrund eines privatrechtlichen Vertrages und (2.) im Dienste eines anderen zur Arbeit verpflichtet ist, auch wenn der Vertrag unwirksam ist. Wegen des 1. Kriteriums (privatrechtlicher Vertrag) keine Arbeitnehmer sind Beamte, Strafgefangene, Fürsorgezöglinge, Sozialhilfe beziehende Pflichtarbeiter (anders, wenn der Träger der Sozialhilfe den üblichen Lohn zahlt), Zivildienstleistende, familiäre Mitarbeiter (sofern kein Arbeitsvertrag existiert). Das 2. Kriterium (Eingliederung in fremde Arbeitsorganisation) - dient der Abgrenzung zur Selbstständigkeit. Eine gesetzliche Leitlinie hierzu gibt einzig § 84 Abs. 1 Satz 2 HGB: Selbstständig ist, wer seine Arbeitszeit und Tätigkeit im Wesentlichen frei gestalten kann. Diese Wertung ist für die Abgrenzung zwischen Dienst- und Arbeitsvertrag maßgeblich. Das BAG unterscheidet Arbeitnehmer und freien Mitarbeiter nach dem Grad der persönlichen Abhängigkeit. Für die Arbeitnehmereigenschaft statusbegründend ist insbesondere das Weisungsrecht in Bezug auf Ort, Zeit und Art der Arbeit, dem der Beschäftigte unterworfen ist. Entscheidend ist primär die tatsächliche Durchführung des Arbeitsverhältnisses, erst sekundär das arbeitsvertraglich Vereinbarte, keinesfalls aber die Bezeichnung des Beschäftigungsverhältnisses und schon gar nicht Wünsche und Vorstellungen der Vertragspartner. Für den Arbeitnehmerstatus sprechen : • •
Weisungsgebundenheit hinsichtlich Ort, Zeit und Art der Tätigkeit Eingliederung in die betriebliche Organisation (ständige Zusammenarbeit mit anderen Arbeitnehmern des Arbeitgebers notwendig, eigener Telefonanschluss, Sekretärin in den Räumen des Arbeitgebers)
Arbeitnehmer • •
• • •
•
• •
• •
Tätigkeit nur für einen Auftraggeber kein eigenes Unternehmerrisiko, kein Kapitaleinsatz, keine Pflicht zur Beschaffung von Arbeitsmitteln identische Tätigkeit wie andere Arbeitnehmer des Betriebs Bindung an feste Arbeitszeiten und bestimmten Arbeitsplatz keine eigene Betriebsstätte und keine eigenen Mitarbeiter; kein Recht, eigene Mitarbeiter zur Vertragserfüllung einzusetzen keine nennenswerte unternehmerische Tätigkeit in Organisation und Durchführung Schulden der eigenen Arbeitskraft, nicht eines Arbeitserfolges Ausführung von einfachen bzw. untergeordneten Tätigkeiten, die üblicherweise von Arbeitnehmern ausgeführt werden und bei denen eine Weisungsgebundenheit die Regel ist Vorliegen eines sachlichen Grundes für die Einstufung Erhalt typischer Arbeitgeberleistungen, z.B. festes Gehalt, Überstundenvergütung, Urlaubsanspruch, Lohnfortzahlung im Krankheitsfall und sonstige Sozialleistungen
Schädlich für die persönliche Abhängigkeit z.B. eines Außendienstmitarbeiters sind u.a. die detaillierte Festlegung von Reiserouten, die Vorgabe einer zu hohen Frequenz von Kundenbesuchen und die Ausgabe neuer Kundenlisten erst nach Abarbeitung der alten. Für ein Arbeitnehmerverhältnis spricht auch eine Verpflichtung zur Teilnahme an bestimmten Gesprächen, zur regelmäßigen Berichterstattung über jeden einzelnen Kundenkontakt oder zum Besuch von Schulungen - schon die bloß finanzielle Unterstützung der Weiterbildung ist ein typisches Phänomen der Arbeitswelt. Auch die Kontrolle der Tätigkeit beispielsweise im Rahmen regelmäßiger Gruppengespräche kann den Arbeitnehmerstatus indizieren, wie überhaupt jede Form der Leistungsüberprüfung, und sei es auch nur auf-
Arbeitnehmer grund vom freien Mitarbeiter selbst erstellter Erfolgsübersichten. Keinesfalls dürfen Arbeits- oder Urlaubszeiten vorgegeben werden. Jede Integration in die betriebliche Organisation des Unternehmers ist zu vermeiden. Anhaltspunkte hierfür waren in der Rechtsprechung so unwichtig erscheinende Dinge wie die Telefonnummer im Telefonverzeichnis des Arbeitgebers, das Namensschild am Arbeitszimmer, der Parkplatz auf dem Firmengelände. Wer zwar formal den Status eines Selbstständigen hat, tatsächlich jedoch wie ein Arbeitnehmer eingesetzt wird, wird als scheinselbstständig bezeichnet, wie z.B. der selbstständige Kraftfahrer, der einem einzigen Transportunternehmen auf Abruf zur Verfügung steht. Typische Formen der Scheinselbstständigkeit finden sich in den Shop-in-Shop-Systemen (-> Handelsformen), im -> Franchising, bei sog. Propagandisten in Warenhäusern oder in anderen Bereichen, in denen die Unternehmen dazu übergegangen sind, Leistungen nicht durch eigene Arbeitnehmer, sondern über die Fremdvergabe von Aufträgen und Dienstleistungen zu erbringen. Ob Erwerbstätige als Arbeitnehmer oder Selbstständige qualifiziert werden, entscheidet nicht allein über ihren arbeitsrechtlichen Schutz (Kündigungsschutz und Entgeltfortzahlung im Krankheitsfall nur für Arbeitnehmer), sondern auch über ihre Sozialversicherungspflicht und damit über ihren Versicherungsschutz. 2. Scheinselbstständigkeit im Sinne des Sozialvers icherungs rechts Vom arbeitsrechtlichen Begriff der Scheinselbstständigkeit ist der sozialrechtliche zu unterscheiden. Das bedeutet im Ergebnis: Ein Erwerbstätiger kann den Schutz des Sozialversicherungsrechts genießen, muss aber nicht unbedingt auch gleichzeitig Arbeitnehmer im Sinne des Arbeitsrechts sein. Der Scheinselbstständige im Sinne des Sozialversicherungsrechts ist nicht automatisch Arbeitnehmer 33
Arbeitnehmer im Sinne des Arbeitsrechts. Arbeitnehmer ist er weiterhin nur, wenn er weisungsgebunden im Sinne der arbeitsgerichtlichen Rechtsprechung ist. Im Gegensatz zum Arbeitsrecht kennt das Sozialversicherungsrecht keinen eigenständigen Arbeitnehmerbegriff. Anknüpfungspunkt für die Sozialversicherungspflicht ist das Vorliegen eines Beschäftigungsverhältnisses. Beschäftigung ist nach § 7 Abs. 1 Satz 1 SGB IV die nichtselbstständige Arbeit, insbesondere in einem Arbeitsverhältnis. Daher ist die Beschäftigung die maßgebliche Kategorie im Sozialversicherungsrecht. Sie liegt zwar insbesondere - aber eben nur unter anderem - in einem Arbeitsverhältnis vor. Anhaltspunkte für eine Beschäftigung sind eine Tätigkeit nach Weisungen und eine Eingliederung in die Arbeitsorganisation des Weisungsgebers, § 7 Abs. 1 Satz 2 SGB IV. Beschäftigung und Arbeitsverhältnis sind nicht deckungsgleich. Der Begriff der Beschäftigung ist wegen des besonderen Schutzzwecks einerseits enger, da nicht jedes Arbeitsverhältnis zugleich ein Beschäftigungsverhältnis begründet und damit die Sozialversicherungspflicht auslöst. Andererseits ist er weiter, da das Sozialversicherungsrecht primär auf die tatsächlichen Verhältnisse abstellt. Hier kann ein Beschäftigungsverhältnis auch ohne Arbeitsvertrag zustande kommen. Der Sozialgesetzgeber hat zum 1.1.1999 versucht, für die Scheinselbstständigen Klarheit zu schaffen, indem er in § 7 Abs. 4 SGB IV Kriterien normiert hat, deren Vorliegen zugunsten der Sozialversicherungsträger die Vermutung einer Beschäftigung gegen Arbeitsentgelt begründet. Auf den Sturm der hiergegen gerichteten Kritik hat der Gesetzgeber die Vorschrift rückwirkend mit dem Gesetz zur Förderung der Selbstständigkeit vom 20.12.1999 (BGBl. 2000 I S. 2) neu gefasst. Die Vermutung greift nun nur noch im Ausnahmefall und hat nur verfahrensrechtliche Bedeutung. Scheinselbstständi34
Arbeitnehmer ge sind danach nun Personen, die (I.) erwerbsmäßig tätig sind, (II.) ihre sozialversicherungsrechtlichen Auskunfts- und Mitteilungspflichten nicht erfüllt haben und (III.) mindestens drei der folgenden Voraussetzungen erfüllen: •
• •
•
•
Sie beschäftigen im Zusammenhang mit ihrer Tätigkeit regelmäßig keinen versicherungspflichtigen Arbeitnehmer, dessen Arbeitsentgelt aus diesem Beschäftigungsverhältnis regelmäßig im Monat 630 Deutsche Mark übersteigt. Sie sind auf Dauer und im Wesentlichen nur für einen Auftraggeber tätig. Ihr Auftraggeber oder ein vergleichbarer Auftraggeber lässt entsprechende Tätigkeiten regelmäßig durch von ihm beschäftigte Arbeitnehmer verrichten. Ihre Tätigkeiten lassen typische Merkmale unternehmerischen Handelns nicht erkennen. Ihre Tätigkeiten entsprechen dem äußeren Erscheinungsbild nach der Tätigkeit, die sie für denselben Auftraggeber zuvor auf Grund eines Beschäftigungsverhältnisses ausgeübt hatten.
Bei diesen Personen vermutet das Gesetz, sie seien gegen Arbeitsentgelt beschäftigt. Die Behörden müssen allerdings zunächst prüfen, ob ein Arbeitsverhältnis im Sinne des Arbeitsrechts vorliegt. Hierfür sind die o.g. arbeitsrechtlichen Kriterien zur Beurteilung der persönlichen Abhängigkeit maßgeblich (Weisungsgebundenheit, Eingliederung in den Betrieb). Liegt eine solche Abhängigkeit nachweislich vor, ist die betroffene Person Arbeitnehmer und damit im Sinne des Sozialversicherungsrechts abhängig beschäftigt. Anderenfalls handelt es sich arbeits- und sozialversicherungsrechtlich um einen Selbstständigen, selbst wenn drei oder mehr der Merkmale des § 7 Abs. 4 SGB IV erfüllt sind. Scheinselbstständigkeit im Sinne dieser Vorschrift liegt nur im Zweifelsund Ausnahmefall vor, wenn der Sachverhalt nicht aufklärbar und der Grund
Arbeitnehmer
Arbeitnehmer hierfür nicht vom Sozialversicherungsträger zu vertreten ist; dann greift bei Vorliegen von mindestens drei Merkmalen die gesetzliche Vermutung. Diese Vermutung ist aber widerlegbar, wenn die Beteiligten Tatsachen vorbringen, die der Sozialversicherungsträger zunächst wegen der fehlenden Mitwirkung nicht berücksichtigen konnte. Allerdings kommt es auf das Vorliegen der Merkmale auch im Rentenrecht bei § 2 Ziff. 9 SGB VI an. Erfüllt ein Mitarbeiter die beiden ersten Merkmale - der Wortlaut von § 7 Abs. 4 SGB IV und § 2 Ziff. 9 SGB VI ist insoweit nahezu identisch - ist er als sog. arbeitnehmerähnlicher Selbstständiger (die Neuregelung verwendet diesen Begriff nicht mehr) Zwangsmitglied in der gesetzlichen Rentenversicherung, und zwar gerade dann, wenn feststeht, dass er nicht weisungsgebunden und nicht in den Betriebsablauf integriert ist. Dann muss er alle Beträge alleine tragen. Dies wird er bei der Rechnungsstellung für seine Dienstleistungen berücksichtigen. Das Rentenversicherungsrecht begründet in § 2 Ziff. 9 SGB VI also im Gegensatz zur allgemeinen sozialversicherungsrechtlichen Vorschrift des § 7 Abs. 4 SGB IV gerade keine gesetzliche Vermutung. Hier kommt es allein auf das formale Vorliegen der Merkmale an. Mit dem Gesetz zur Förderung der Selbstständigkeit vom 20.12.1999 hat der Gesetzgeber die rechtliche Position der Beteiligten gegenüber seinem "ersten W u r f ' in folgenden Punkten geändert: •
•
Klarstellung, dass die gesetzlichen Neuregelungen zur genaueren Abgrenzung zwischen abhängiger Beschäftigung und selbstständiger Tätigkeit an der vor ihrem Inkrafttreten bestehenden Abgrenzung festhalten, sie also nicht zu Lasten der Selbstständigkeit verschieben, Klarstellung, dass die Vermutungsregelung den Amtsermittlungsgrundsatz nicht ersetzt, sondern in den Ausnah-
•
•
•
• • •
•
mefällen ergänzt, in denen die Beteiligten ihre Mitwirkung im Rahmen der Amtsermittlung verweigern, Präzisierung und Ergänzung des Kriterienkatalogs sowie Einfuhrung eines neuen Bezugskriteriums in Ziff. 5 fiir Fälle des outsourcing oder outplacement (Umwandlung von Arbeitsverträgen in Aufträge), Beseitigung der verfassungsrechtlich bedenklichen Ausnahmeregelung für Familienangehörige in § 7 Abs. 4 Ziff. 1 SGB IV; nun schließt auch die Beschäftigung eines Familienangehörigen das Kriterium Nr. 1 aus, Einführung eines Anfrageverfahrens bei der BfA zur Statusklärung und Klarstellung, das aufgrund einer Gesamtwürdigung aller Umstände des Einzelfalles entscheidet, ob eine abhängige Beschäftigung oder eine selbstständige Tätigkeit vorliegt, Ausschluss unzumutbarer Beitragsnachforderungen, Gewährung vorläufigen Rechtsschutzes, Erweiterte Möglichkeiten zur Befreiung von der Rentenversicherungspflicht für sog. arbeitnehmerähnliche Selbstständige, insbesondere zur Förderung von Existenzgründungen in § 6 Abs. l a Satz 1 Nr. 1 SGB VI für drei Jahre nach erstmaliger Aufnahme der selbstständigen Tätigkeit, Verlängerung der Frist für den Befreiungsantrag von der Rentenversicherungspflicht Selbstständiger bis mindestens zum 30.6.2000.
Die sozialversicherungsrechtlichen Vorschriften schaffen für Verträge über freie Mitarbeit verschärfte Anforderungen. Nicht nur bei der Gestaltung solcher Verträge, sondern auch und gerade bei ihrer tatsächlichen Durchfuhrung ist sorgfältig auf die Abgrenzung zum Angestelltenverhältnis zu achten. Allein die Bezeichnung "freier Mitarbeiter" schließt den Arbeitnehmerstatus nicht aus. Auch die sonstige Ausgestaltung der Rechtsbe35
Arbeitnehmer
Arbeitnehmer ziehung als Selbstständiger ist nicht allein maßgeblich. Die Entscheidung über den Status hängt nicht von den vertraglichen Regelungen ab, sondern von der tatsächlichen Durchfuhrung des Vertrages. Dabei kommt es nicht auf die einzelnen Kriterien an, sondern auf eine Gesamtschau. Die falsche Einordnung birgt für den Arbeitgeber erhebliche Gefahren: Führt er Arbeitnehmer
„Scheinselbstständiger" Scheinselbstständiger i.S.d. Sozialrechts
Arbeitnehmerähnliche Position
Kategorie der Rechtssprechung B e g r i f f des allg. Sozialrechts (Gesetzesbeg r ü n d u n g zu § 7 Abs. 4 SGB IV n.F.)
•
Schutz durch Arbeitsrecht
•
Sozialversicherungspflicht
= Arbeitnehmer
• •
= Arbeitnehmer nur, sofem weisungsgebunden
•
Sozialversicherungspflicht
•
Bei W e i s u n g s b i n d u n g : zusätzlich Schutz durch Arbeitsrecht
Freier Mitarbeiter
•
= Selbstständiger
eingeschränkter S c h u t z durch Arbeitsrecht: § 2 Satz 2 BUrIG, Bildungsurlaubsgesctzc v e r s c h i e d e n e r Bundesländer. § 1 Abs. 2 Ziff. 1 BeschSchG. § 2 Abs. 2 Ziff. 3 ArbSchG (gilt nicht f ü r Heimarbeiter und Gleichgestellte), § 54 b A b s . 1 SchwbG Versicherungspflicht a b h ä n g i g von Vorliegen einer B e s c h ä f t i g u n g i.S.d. § 7 Abs. 4 S G B IV
•
Unfallvcrsicherungspflicht liegt nahe, § 2 Abs. 2 Satz 1 S G B VII
•
Rentenversicherungspflicht ( B e t r o f f e ner zahlt G e s a m t b e i t r a g ) Übergangsrcgclung (§ 231 Abs. 5 SGB VI)
•
privatrechtlichcr Dienstvertrag
• Dienstpflicht: A r b e i t § 8 4 Abs. 1 Satz 2 H G B e.c.: • keine freie G e s t a l l u n g der Tätigkeit • keine freie B e s t i m m u n g der Arbeitszeit B A G : persönliche A b h ä n g i g k e i t insbes. durch W e i s u n g s g e b u n d e n h e i t § 7 Abs. 4 S G B IV: m i n d e s t e n s 2 der f o l g e n d e n M e r k m a l e b e g r ü n d e n w i d e r l e g b a r e V e r m u t u n g tur entgeltliche B e s c h ä f t i g u n g grds. Keine v e r s i c h e r u n g s p f l i c h t i gen A r b e i t n e h m e r
grds. N u r A u f t r a g g e b e r f ü r B e s c h ä f t i g t e typische Arbeitsleistungen, insbes. W e i s u n g s b i n d u n g und Integration in Arbeitsorganisation des A u f t r a g g e b e r s • keine u n t e r n e h m e r i s c h e Tätigkeit a m Markt A u s n a h m e : Handelsvertreter Beachtc: A r b e i t n e h m e r e i g e n s c h a f t und damit Sozialversicherungspflicht (§ 7 Abs. 1 S G B IV) folgt nach B A G schon aus W e i s u n g s b i n d u n g in M e r k m a l 3. Liegt sie vor, ist kein weiteres M e r k m a l erforderlich. § 12 a T V G : • wirtschaftliche A b h ä n g i g k e i t • soziale S c h u t z b e d ü r f t i g k e i t wie Arbeitnehmer und ferner: • persönlicher Hinsatz der eigenen Arbeitskraft • keine persönliche A b h ä n g i g k e i t
§ 2 Ziff. 9 S G B VI: •
grds. Keine v e r s i c h e r u n g s p f l i c h t i gen A r b e i t n e h m e r
•
grds. Nur für e i n e n A u f t r a g g e b e r zuständig also: w e r die V e r m u t u n g der ersten beiden Kriterien des § 7 Abs. 4 S G B IV widerlegt hat § 8 4 Abs. 1 Satz 2 H G B : • freie G e s t a l t u n g der Tätigkeit • Freie B e s t i m m u n g der Arbeitszeit
= Selbstständiger
Tab. I: Erscheinungsvielfall
36
•
• •
B e g r i f f des Arbeitsrechts
Begri ff des Rentenversicherungsrechts (SGB VI)
Schutz durch Arbeitsrecht Sozialversicherungspflicht
BAG:
•
•
Arbeitnehmerähnlicher Sclbsts tändiger
wegen unzutreffender Behandlung seiner Arbeitnehmer als freie Mitarbeiter keine Sozialversicherungsbeiträge ab, bleibt er Schuldner des Gesamtsozialversicherungsbeitrags, § 28 e SGB IV. Die Beiträge sind vom Arbeitgeber nachzuentrichten. Die Verjährungsfrist beträgt 4 Jahre nach § 2 5 SGB IV, wobei der Gesetzgeber die Position des gutgläubigen Arbeitgebers jüngst gestärkt hat. Der
der Erwerbstätigkeil
im Arbeits- und Sozialrecht
Arbeitnehmer Rückgriff auf den Arbeitnehmer ist nur in engen Grenzen möglich. In Zweifelsfällen kann das nun in § 7 a SGB IV vorgesehene Anfrageverfahren zur Statusklärung bei der BfA sinnvoll sein; grundsätzlich bleibt es aber bei der Zuständigkeit der Krankenkassen als fiir die Beitragserhebung zuständige Stelle. Darüber hinaus geraten die Scheinselbstständigen zunehmend in die Kontrolle der Finanzämter. Da der Scheinselbstständige mangels Unternehmereigenschaft nicht zum Ausweis von Umsatzsteuer berechtigt ist, entfällt beim Leistungsempfanger der Vorsteuerabzug aus den Rechnungen des Selbstständigen. Gleichwohl abgezogene Vorsteuer ist an das Finanzamt zurückzuzahlen, unabhängig davon, ob der Scheinselbstständige die vereinnahmte Umsatzsteuer seinerseits an das Finanzamt abgeführt hat. Außerdem führt die falsche Einstufung als freier Mitarbeiter zur Nichtbeachtung der Grundsätze des Lohnsteuerabzugsverfahrens durch den Arbeitgeber und damit zur Nichtabführung der Lohnsteuer. Das Finanzamt kann dann den Arbeitgeber als Haftungsschuldner in Anspruch nehmen, der seinen - im Einzelfall ohnehin fraglichen Rückerstattungsanspruch gegen den Arbeitnehmer nicht durchsetzen kann, wenn dieser vermögenslos oder nicht auffindbar ist. Die Spitzenverbände der Krankenkassen, der Verband Deutscher Rentenversicherungsträger und die Bundesanstalt für Arbeit haben die sich für das Versicherungs-, Beitrags- und Melderecht der Sozialversicherung ergebenden Auswirkungen beraten und die erzielten Ergebnisse in ihrem Rundschreiben vom 20.12.1999 zusammengefasst. Es enthält neben unfangreichen Erläuterungen zahlreiche Abgrenzungskataloge für die verschiedenen tangierten Berufsgruppen. Das Rundschreiben löst frühere gemeinsame Rundschreiben der Spitzenorganisationen der Sozialversicherung ab. Die weitere Entwicklung bleibt abzuwarten.
Arbeitnehmer 3. Weitere Differenzierungen Neben den multiplen Formen der Erwerbstätigkeit differenziert das Gesetzesrecht den Arbeitnehmerbegriff auf vielfache Weise, freilich ohne ihn zu definieren. Zu unterscheiden sind Arbeiter, Angestellte und die zu ihrer Berufsausbildung Beschäftigten. Arbeiter sind alle Arbeitnehmer, die nicht Angestellte sind. Angestellte sind nach § 133 Abs. 2 SGB VI die dort beispielhaft aufgeführten Personengruppen und nach der Rechtsprechung überwiegend "Kopfarbeiter", Arbeiter sind "Handarbeiter". Ist eine Zuordnung nicht möglich, entscheidet die Verkehrsanschauung. Danach ist in der Regel Angestellter, wer kaufmännische oder büromäßige Arbeit leistet oder eine überwiegend leitende, beaufsichtigende oder vergleichbare Tätigkeit ausübt. Auch Leitende Angestellte sind Arbeitnehmer - mit Ausnahme im Betriebsverfassungsgesetz - nicht hingegen Organmitglieder wie - zweifelsfrei - Vorstände oder - jedenfalls grundsätzlich - Geschäftsführer. Bei Geschäftsführern einer GmbH kann die gesellschaftsrechtliche Weisungsgebundenheit aber zu einer den Arbeitnehmerstatus begründenden persönlichen Abhängigkeit fuhren. Sie liegt in der Regel vor bei einem Fremdgeschäftsführer, also bei einem Geschäftsführer, der an der Gesellschaft nicht beteiligt ist. Auch eine Doppelstellung ist möglich. Und nicht zuletzt gibt es noch die arbeitnehmerähnliche Person im Sinne des Arbeitsrechts - nicht zu verwechseln mit dem arbeitnehmerähnlichen Selbstständigen im Sozialrecht. Für die arbeitnehmerähnlichen Personen gelten zahlreiche Arbeitsschutzbestimmungen (vgl. hierzu Tab. 1), auch steht ihnen der Weg zum Arbeitsgericht offen. Arbeitnehmerähnliche Person ist, wer ohne persönlich abhängig und damit Arbeitnehmer zu sein, aufgrund eines Dienst- oder Werkvertrages oder eines ähnlichen Rechtsverhältnisses in wirtschaftlicher Abhängigkeit 37
Arbeitnehmer
Arbeitnehmerüberlassung
Dienst- oder Werkleistungen persönlich und im Wesentlichen ohne Mitarbeiter erbringt und wie ein Arbeitnehmer sozial schutzbedürftig ist. Maßgebliches Abgrenzungskriterium zum Arbeitnehmer ist die Abhängigkeit: dort persönlich, hier wirtschaftlich. Arbeitnehmerähnliche Personen sind z.B. Heimarbeiter, Hausgewerbetreibende und ihnen Gleichgestellte - für sie gelten die speziellen Regelungen des HAG - , sowie Handelsvertreter mit geringem Einkommen (oft Einfirmenvertreter), Künstler, Schriftsteller, Mitarbeiter in Hörfunk und Femsehen und andere freie Mitarbeiter.
Arbeitnehmer nicht ein, um ihn anschließend einem Entleiher zu überlassen, sondern er strebt von vornherein den Abschluss eines Arbeitsvertrages zwischen dem Arbeitnehmer und einem Dritten an. A liegt auch dann nicht vor, wenn ein Arbeitnehmer aufgrund eines Dienst- oder Werkvertrages zwischen seinem Arbeitgeber und einem anderen Unternehmen in dessen Betrieb eingesetzt wird. Nur wenn der andere Unternehmer gegenüber dem Arbeitnehmer ein Weisungsrecht hat und die Arbeitnehmer in seine Betriebsorganisation eingebunden sind, kann eine A. vorliegen.
Literatur: Gaul/Wisskirchen, D B 1999, S. 2466ff.; Buchner, D B 1999 S. 2518; Hänlein, DB 2000 S. 374ff.; Abschlussbericht der DieterichKommission, NZA 1999, S. 1260; Bauer/Diller/Schuster, N Z A 1999, S. 1297f.; Dömer/Baeck, NZA 1999; B A G 24.3.1992, DB 1992 S. 2352.; B A G 15.12.1999, D B 1999 S. 2648.; BAG 20.7.1994, D B 1994 S. 2502.
3. Gewerbsmäßige Arbeitnehmerüberlassung: Die gewerbsmäßige Arbeitnehmerüberlassung - auch "Zeitarbeit" genannt - ist zum Teil im Arbeitnehmerüberlassungsgesetz (AUG) geregelt. Gewerbsmäßig wird die A. ausgeübt, wenn sie nicht nur gelegentlich betrieben wird, sondern auf eine gewisse Dauer angelegt und auf Gewinnerzielung gerichtet ist.
Nicolai Kranz Arbeitnehmerüberlassung 1. Begriff und A rten A. ist eine Form des drittbezogenen Personaleinsatzes. Ein Unternehmen überlässt (verleiht) seine Arbeitnehmer Dritten vorübergehend gegen Entgelt zur Arbeitsleistung. Wenn ein Arbeitnehmer nur gelegentlich einem Dritten zum Zwecke der Arbeitsleistung bei diesem ausgeliehen wird, spricht man von einem echten Leiharbeitsverhältnis. Wird der Arbeitgeber dagegen von dem Verleiher schon mit der Absicht eingestellt, ihn ausschließlich für Entleiher tätig werden zu lassen, liegt ein sog. unechtes Leiharbeitsverhältnis vor. Beide Formen der A. sind nur zulässig, wenn der Arbeitgeber das zumindest konkludent mit dem Arbeitnehmer vereinbart hat. Ohne eine solche Vereinbarung ist der Anspruch auf Arbeitsleistung nämlich gem. § 6 1 3 Satz 2 BGB im Zweifel nicht übertragbar. 2. Abgrenzung von Arbeitsvermittlung und anderen Verträgen Die A. ist von der Arbeitsvermittlung zu unterscheiden. Der Vermittler stellt den 38
Die gewerbsmäßige A. bedarf der behördlichen Erlaubnis (§ 1 Abs. 1 AÜG). Diese wird durch das Landesarbeitsamt (LAA) erteilt, in dessen Bezirk sich der Sitz des Verleihunternehmens befindet. Der Sinn dieser Erlaubnispflicht liegt darin, dass die gewerbsmäßige A. schon mit einem geringen Aufwand betrieben werden kann und daher die Gefahr besteht, dass als Verleiher Unternehmen ohne hinreichende Kapitalausstattung zur Erfüllung ihrer arbeits- und sozialversicherungsrechtlichen Pflichten tätig werden. Eine Erlaubnis ist nicht erforderlich, wenn ein Arbeitgeber mit weniger als 50 Beschäftigten einem Dritten Arbeitnehmer bis zur Dauer von 12 Monaten überlässt, um dadurch Kurzarbeit oder Entlassungen zu vermeiden; in diesem Fall ist lediglich eine Anzeige gegenüber dem LAA erforderlich (§ 1 a AÜG). Ferner besteht unter bestimmten Voraussetzungen keine Erlaubnispflicht bei der gewerbsmäßigen A. innerhalb des selben
Arbeitnehmerüberlassung Wirtschaftszweiges, zwischen Konzernunternehmen und in ein Unternehmen in das Ausland, an dem der Verleiher beteiligt ist (§ 1 Abs. 3 AÜG). Die Erlaubnis zur gewerbsmäßigen A. wird auf schriftlichen Antrag zunächst auf ein Jahr befristet von der Bundesanstalt für Arbeit erteilt (§ 2 Abs. 1, 4 und § 17 AÜG). Sie kann verlängert und nach drei Jahren unbefristet erteilt werden (§ 2 Abs. 4, 5 AÜG). Sie ist aus den in § 3 AÜG aufgelisteten Gründen, insbesondere wenn die erforderliche Zuverlässigkeit des Antragstellers hinsichtlich der Abführung von Sozialversicherungsbeiträgen und der Lohnsteuer fehlt, zu versagen. Um die behördliche Überwachung der gewerbsmäßigen A. zu erleichtern, muss der Verleiher dem LAA unaufgefordert die Errichtung, Verlegung und Schließung von Betrieben, die Arbeitnehmerüberlassung zum Gegenstand haben, anzeigen und auf Verlangen entsprechende Auskünfte erteilen (§ 7 Abs. 1, 2 AÜG). Durch die gewerbsmäßige A. entstehen Rechtsbeziehungen zwischen dem Verleiher und dem Entleiher. Grundlage der Rechtsbeziehung zwischen dem Verleiher und dem Arbeitnehmer ist der Leiharbeitsvertrag. Dieser verpflichtet den Verleiher zur Zahlung der Vergütung und zur Abführung der Sozialversicherungsbeiträge und Lohnsteuer. Er bedarf keiner bestimmten Form. Allerdings hat der Verleiher den wesentlichen Inhalt des Arbeitsverhältnisses in einer von ihm zu unterzeichnenden Urkunde aufzunehmen (§ 11 Abs. 1 AÜG), wenn der Vertrag nicht schriftlich abgeschlossen wurde. Zum Schutz des Arbeitnehmers erklärt das AÜG bestimmte Klauseln in den Arbeitsverträgen zwischen dem Verleiher und dem Arbeitnehmer für unzulässig. So kann das Recht des Leiharbeitnehmers auf Vergütung bei Annahmeverzug des Verleihers nach § 615 Satz 1 BGB nicht durch Vertrag aufgehoben oder beschränkt werden (§ 11 Abs. 4 Satz 2
Arbeitnehmeriiberlassung AÜG). Dadurch soll sichergestellt werden, dass der Verleiher den Arbeitnehmer auch dann bezahlen muss, wenn dieser zeitweise nicht für einen Entleiher tätig ist. Unzulässig sind wiederholte Befristungen des Arbeitsverhältnisses zwischen Verleiher und Leiharbeitnehmer ohne sachlichen Grund in der Person des Arbeitnehmers oder ohne unmittelbaren Ausschluss an den vorhergehenden Arbeitsvertrag bei dem selben Verleiher (§ 9 Nr. 2 AÜG). Schließlich ist eine Vereinbarung unwirksam, die es dem Arbeitnehmer untersagt, nach Beendigung des Arbeitsverhältnisses mit dem Verleiher einen Arbeitsvertrag mit dem Entleiher abzuschließen (§ 9 Nr. 4 AÜG). Der gesamte Leiharbeitsvertrag ist unwirksam, wenn der Verleiher nicht die erforderliche Erlaubnis zur Arbeitnehmerüberlassung hat (§ 9 Nr. 1 AÜG). In diesem Fall wird nach § 10 AÜG ein Arbeitsverhältnis zwischen dem Entleiher und dem Leiharbeitnehmer fingiert. Außerdem kann der Leiharbeitnehmer vom Verleiher Ersatz des Schadens verlangen, den er dadurch erleidet, dass er auf die Gültigkeit des Vertrages vertraut (§10 Abs. 2 AÜG). Das rechtliche Verhältnis zwischen dem Verleiher und dem Entleiher ist durch den Überlassungsvertrag bestimmt. Dieser Vertrag bedarf der Schriftform, und er muss eine Erklärung des Verleihers enthalten, ob er die Erlaubnis zur Arbeitnehmerüberlassung besitzt (§ 12 Abs. 1 AÜG). Auch der Überlassungsvertrag ist unwirksam, wenn der Verleiher nicht die Erlaubnis zur Arbeitnehmerüberlassung besitzt (§ 9 Nr. 1 AÜG). Durch den Überlassungsvertrag verpflichtet sich der Verleiher gegenüber dem Entleiher, ihm zur Förderung seiner Betriebszwecke Arbeitnehmer zur Verfügung zu stellen, die arbeitsbereit und für die vorgesehene Tätigkeit geeignet sind. Für eine fehlerhafte Arbeitsleistung des Leiharbeitnehmers haftet der Verleiher dagegen nicht. 39
Arbeitnehmerüberlassung Der Entleiher schuldet dem Verleiher das vereinbarte Überlassungsentgelt. Zwischen dem Entleiher und dem Leiharbeitnehmer wird kein Vertrag geschlossen, und es besteht grundsätzlich zwischen ihnen auch kein Arbeitsverhältnis. Etwas anderes gilt nur dann, wenn der Verleiher nicht die erforderliche Erlaubnis zur Arbeitnehmerüberlassung besitzt und deshalb ein Arbeitsverhältnis zwischen Arbeitnehmer und Entleiher fingiert wird (§ 10 AÜG). Der Entleiher ist allerdings aufgrund des Überlassungsvertrages mit dem Verleiher berechtigt, das Weisungsrecht gegenüber dem überlassenen Arbeitnehmer auszuüben. Ihm obliegt die Einhaltung von öffentlich-rechtlichen Schutzpflichten. Falls der Verleiher die Sozialversicherungsbeiträge für den verliehenen Arbeitnehmer nicht abführt, haftet der Entleiher insoweit als selbstschuldnerischer Bürge (§ 28e Abs. 2 SGB IV). Ebenfalls haftet er unter bestimmten Voraussetzungen subsidiär für die vom Verleiher nicht abgeführte Lohnsteuer (§ 42d Abs. 6 EstG). Die Bedeutung des Betriebsverfassungsrechts bei der gewerbsmäßigen A. ergibt sich aus § 14 AÜG. Danach ist vor der Einstellung eines Leiharbeitnehmers die Zustimmung des -* Betriebsrats im Entleiherbetrieb einzuholen (§ 14 Abs. 3 AÜG, § 99 BetrVG). Während der A. bleiben die Arbeitnehmer betriebsverfassungsrechtlich Angehörige des Verleiherbetriebs (§ 14 Abs. 1 AÜG). Im Entleiherbetrieb sind sie weder wahlberechtigt noch wählbar; dort dürfen sie allerdings die Sprechstunden des Betriebsrats aufsuchen und an Betriebsversammlungen teilnehmen (§ 14 Abs. 2 AÜG). 4. Nicht gewerbsmäßige ArbeitnehmerÜberlassung Sie ist gesetzlich nicht geregelt. Der Verleiher benötigt keine Erlaubnis nach § 1 AÜG. Die Rechtsbeziehungen zwischen den Beteiligten hängen von der jeweiligen vertraglichen Ausgestaltung ab. Auch hier bleibt der Verleiher Arbeit-
40
Arbeitsbewertung geber des Arbeitnehmers und damit zur Zahlung der Vergütung sowie zur Abführung der Lohnsteuer und der Sozialversicherungsbeiträge verpflichtet. Dagegen ist der Entleiher lediglich in dem mit dem Verleiher vertraglich vereinbarten Umfang zur Ausübung des Weisungsrechts gegenüber dem Arbeitnehmer berechtigt. Wolf-Dietrich Walker Arbeitnehmerüberlassungsgesetz -* Arbeitnehmerüberlassung, Arbeitsmarkt- und Beschäftigungspolitik Arbeits- und Prüfanweisungen -> Qualitätsmanagement-Dokumentation Arbeitsanalyse Die Arbeitsanalyse ist ein Instrument zur Bewertung der verschiedenen Anforderungen und Komponenten einer zu verrichtenden Arbeit, der zugehörigen Pflichten sowie der notwendigen individuellen Qualifikation. Arbeitsanalyseverfahren sind z.B. Verfahren zur Erfassung der psychischen Belastung (Regulationshindernisse in der Arbeitstätigkeit) oder die Verfahren zu kognitiven Anforderungsermittlung (Verfahren zur Ermittlung der Regulationserfordernisse in der Arbeitstätigkeit). Arbeitsbewertung Mit Hilfe der Arbeitsbewertung sollen objektive Unterschiede in den Arbeitsschwierigkeiten gemessen werden, die sich aufgrund der verschiedenen Anforderungen an verschiedene Arbeitsplätze oder Arbeitsvorgänge ergeben. Bei den Methoden der Arbeitsbewertung lassen sich vier Verfahren unterscheiden. Bei den summarischen Verfahren (Rangfolgeverfahren und Lohngruppenverfahren) wird eine Gesamtbewertung der Arbeitsschwierigkeit vorgenommen. Bei den analytischen Verfahren (Rangreigenverfahren und Stufenwertzahlverfahren) werden die Arbeitstätigkeiten in vorher festgelegte Anforderungsarten unterteilt. Diese werden dann einzeln beurteilt. Aus der Summe der Einzelwerte lässt sich
Arbeitsbewertung dann der Arbeitswert des Arbeitsplatzes oder des Arbeitsvorgangs ermitteln. Allerdings geben die genannten Verfahren keinen Hinweis für die konkrete Entlohnung einer bestimmten Stelle (s.a. -» Entgeltmanagement). Arbeitsförderung, Arbeitsförderungsgesetz (AFG) -> Arbeitsmarkt- und Beschäftigungspolitik Arbeitsgruppen Gruppenkonzepte Arbeitshumanisierung Die gesellschaftspolitische Diskussion über die "Humanisierung des Arbeitslebens" geht geschichtlich bis in das vorige Jahrhundert zurück. So lassen sich Diskussionen um den Arbeitsschutz in Deutschland im "Preußischen Regulativ" über die Beschäftigung Jugendlicher und Kinder in Fabriken bis 1839 zurückverfolgen. Die Auseinandersetzung mit der Thematik als staatliches Programm beginnt Mitte der sechziger Jahre. In der Regierungserklärung von Willy Brandt wurden 1969 Maßnahmen zur Humanisierung des Arbeitslebens in die angestrebten sozialpolitischen Reformen aufgenommen. Im Jahre 1974 legte dann die Bundesregierung ein Programm zur Humanisierung der Arbeit vor. In diesem Rahmen wurden vor allem über das BMFT Forschungsmittel zu den Themen der Verbesserung der Arbeitsinhalte und Arbeitsbeziehungen, dem Abbau von Über- und Unterbeanspruchung und der Erhöhung der Arbeitssicherheit vergeben. Dabei förderte man verstärkt Maßnahmen, die eine Erweiterung von Handlungsspielräumen mit dem Ziel der Höherqualifizierung zum Gegenstand hatten. Zielsetzung war neben dem akademischen Forschungsanliegen die Erarbeitung von Umsetzungshilfen für die betriebliche Praxis. Humanisierung der Arbeit galt dabei zusammenfassend für Maßnahmen, die auf die Verbesserung der Arbeitsbedingungen gerichtet waren.
Arbeitshumanisierung In der Bundesrepublik Deutschland diskutierte man vor allem die "Neuen Formen der Arbeitsorganisation" wie den systematische Arbeitsplatzwechsel ( - » j o b rotation), die Arbeitserweiterung ( - » j o b enlargement), die Arbeitsbereicherung ( - > j o b enrichment) und die Arbeitsgruppen (-> Gruppenkonzepte) mit erweiterten Handlungs-, Dispositions- und Entscheidungsspielräumen. In diesen Projekten ging es weniger um die Erforschung historisch völlig neuartiger Formen der Arbeitsorganisation als vielmehr um die "Wiederentdeckung eher handwerklicher Arbeitsstrukturen, die mehr Kommunikation, größere Freiräume und mehr Beteiligung der einzelnen - » A r b e i t n e h m e r im gesamten Arbeitsprozess erlaubten. Es wurde der Versuch gemacht, die über Jahrzehnte verfeinerte Technik tayloristischer Arbeitszerlegung wieder umzukehren, um Prozesse der Vereinsamung, Monotonie und Sinnentleerung der Arbeit aufzuheben oder ihnen zumindest entgegenzuwirken" (siehe Kiesau in Ott/Boldt 1985). In diesem Forschungsprogramm fanden die Probleme der Arbeitsorganisation im Zusammenhang mit der Verzahnung von Technologieentwicklung und Humanisierung der Arbeit zunehmend öffentliches Interesse. Die Erkenntnisse und die Prinzipien aus der Forschung zur Humanisierung der Arbeit haben insbesondere vor dem Hintergrund des Umbaus der Erwerbsarbeit durch die Möglichkeiten der Informationstechnologie und der Telekommunikation nichts an Aktualität verloren. Literatur: Kieikebaum, H.: Humanisierung der Arbeit: Arbeitsorganisation im Spannungsfeld Ökonom., technologischer u. humanitärer Ziele, Wiesbaden 1988; Ott, E./Boldt, A.: Wörterbuch zur Humanisierung der Arbeit - Mit Beiträgen von 61 Experten aus Wissenschaft u n d Betriebspraxis, Bundesanstalt für Arbeitsschutz (BAU) Dortmund (Hrsg.) 1983; Ott, E./Boldt, A.: Handbuch zur Humanisierung der Arbeit - Mit Beiträgen von 60 Experten aus Wissenschaft und Betriebspraxis in 2 Bänden, Bundesanstalt für Arbeitsschutz ( B A U ) Dortmund 1985; Winterhager, W. D.: Humanisierung der Arbeitswelt -
41
Arbeitskampf
Arbeitshumanisierung Gesetzliche Vorschriften, Pläne, Modelle und Kontoversen, Aktuelle Dokumente, in: v. Münch, I. (Hrsg.), Berlin, N e w York 1975.
Herbert Schnauber Arbeitskampf 1. Begriff und Arten Zum Arbeitskampf zählen alle kollektiven Maßnahmen der -»Arbeitnehmer oder Arbeitgeber zur Störung der Arbeitsbeziehungen zwecks Erreichung eines bestimmten Ziels. Haupterscheinungsformen sind der Streik und die Aussperrung. Unter Streik versteht man die planmäßige und gemeinsam durchgeführte Arbeitsniederlegung durch eine Mehrzahl von Arbeitnehmern ohne Einverständnis des Arbeitgebers. Entsprechend der jeweiligen Streiktaktik spricht man von Erzwingungsstreik oder Warnstreik. Unter Aussperrung versteht man die planmäßige Arbeitsausschließung durch den Arbeitgeber. Erfolgt sie als Reaktion auf einen Streik, handelt es sich um eine Abwehraussperrung, andernfalls um eine Angriffsaussperrung. Weitere Arten von Arbeitskampfmitteln sind auf Arbeitnehmerseite vor allem Betriebsbesetzungen und Betriebsblockaden und auf der Arbeitgeberseite die Betriebsstilllegung und die Zahlung von Streikprämien an arbeitswillige Arbeitnehmer. 2. Rechtsgrundlage Arbeitskampfrecht ist mangels gesetzlicher Regelung im Wesentlichen Richterrecht. Rechtsgrundlage für den Arbeitskampf ist Art. 9 Abs. 3 GG. Diese Vorschrift garantiert die Koalitionsfreiheit. Dazu gehört auch das Recht, die Arbeitsund Wirtschaftsbedingungen durch unabdingbare Gesamtvereinbarungen zu regeln. Das erfolgt durch den Abschluss von -»• Tarifverträgen. Für den Fall, dass es zu einem einvernehmlichen Tarifvertrag nicht kommt, muss es ein Instrument zur Konfliktlösung geben. Das ist der Arbeitskampf. Er erweist sich somit als verfassungsrechtlich geschütztes Hilfsinstrument der Tarifautonomie.
42
3. Voraussetzungen Die Voraussetzungen für die Rechtmäßigkeit von Arbeitskämpfen sind im Einzelnen nicht gesetzlich geregelt. Sie ergeben sich z.T. aus Art. 9 Abs. 3 GG. Da der Arbeitskampf nur als Hilfsinstrument der Tarifautonomie verfassungsrechtlich gewährleistet ist, darf er auch nur zwischen tariffähigen Vereinigungen um den Abschluss eines Tarifvertrages geführt werden. Deshalb ist etwa der wilde (nicht gewerkschaftlich organisierte) Streik rechtswidrig. Gleiches gilt für den politischen Streik, mit dem kein Tarifvertrag erreicht, sondern auf einen Hoheitsträger eingewirkt werden soll. Unzulässig ist auch der Beamtenstreik, weil die Rechtsverhältnisse der Beamten nicht durch Tarifvertrag, sondern durch Gesetz geregelt werden. Ein Arbeitskampf, der noch während der Laufzeit eines Tarifvertrages um die darin vereinbarten Bedingungen geführt wird, verstößt gegen die tarifliche Friedenspflicht. Gesetzlich verboten sind Arbeitskämpfe zwischen dem Arbeitgeber und dem -> Betriebsrat. Schließlich gehört es zu den ungeschriebenen Rechtmäßigkeitsvoraussetzungen, dass der Arbeitskampf zur Erreichung des angestrebten Zieles erforderlich und verhältnismäßig ist. Deshalb darf ein Arbeitskampf erst nach Ausschöpfung aller Verhandlungsmöglichkeiten (ultima ratio) geführt werden und nicht auf eine Existenzvemichtung des Gegners hinauslaufen. Eine Abwehraussperrung darf ihrem Umfang nach nicht außer Verhältnis zu dem vorangegangenen Streik stehen. Beide Kampfparteien müssen sich an der Organisation von Erhaltungsarbeiten und Notstandsarbeiten, die für eine Mindestversorgung der Bevölkerung erforderlich sind, beteiligen. 4. Rechtsfolgen Ein rechtmäßiger Arbeitskampf führt zur Suspendierung der gegenseitigen Hauptpflichten von Arbeitgebern und Arbeitnehmern. Folglich liegt in der streikbedingten Arbeitsniederlegung keine rechts-
Arbeitskampf
Arbeitsmarkt- u. Beschäftigungspolitik
widrige Arbeitsverweigerung. Andererseits braucht der Arbeitgeber für die Zeit des Streiks keine Vergütung zu zahlen. Dagegen bleiben die arbeitsvertraglichen Nebenpflichten (z.B. die Wahrung von Geschäftsgeheimnissen oder die Einhaltung von Wettbewerbsverboten) auch während des Arbeitskampfes bestehen. Der Staat muss sich im Arbeitskampf neutral verhalten. Eine Folge davon ist, dass gem. §§ 146, 174 SGB III an die am Arbeitskampf beteiligten Arbeitnehmer weder Arbeitslosen- noch Kurzarbeitergeld gezahlt wird. Die Arbeitnehmer erhalten während des Arbeitskampfes Streikunterstützung von ihrer Gewerkschaft nach Maßgabe von deren Satzung. Rechtswidrige Arbeitskämpfe fuhren nicht zur Suspendierung der gegenseitigen Hauptpflichten aus den Arbeitsverträgen. In einem rechtswidrigen Streik liegt daher eine Verletzung der Arbeitspflicht, die den Arbeitgeber zur -> Abmahnung und zur Kündigung berechtigen sowie zu einer Schadensersatzpflicht der Arbeitnehmer führen kann. Durch eine rechtswidrige Aussperrung kommt der Arbeitgeber gegenüber Arbeitnehmern in Annahmeverzug und muss nach den §§ 615, 293 ff. BGB die Vergütung fortzahlen. Die Rechte des Betriebsrates bleiben auch während eines Arbeitskampfes grundsätzlich bestehen. Sie sind aber insofern eingeschränkt, als sie sich auf die Kampffähigkeit des Arbeitgebers auswirken. Wolf-Dietrich Walker Arbeitskosten Die -> Kosten- und Leistungsrechnung berücksichtigt unter anderem die Arbeitskosten, welche sich aus Löhnen und Gehältern, Sozialkosten sowie sonstigen Arbeitskosten zusammensetzen. Im Einzelnen versteht man unter den Begriffen: •
Löhne und Gehälter. Löhne werden an Arbeiter (als Akkord- oder Zeitlöhne)
•
•
gezahlt. Sie können unterteilt werden in Fertigungslöhne und Hilfslöhne (Bsp. Lagerarbeiter). Gehälter werden an Angestellte (z.B. als Zeitlohn) gezahlt. Fertigungslöhne sind Einzelkosten, Hilslöhne und Gehälter stellen Gemeinkosten dar (-> Kostenarten). Die Trennung in Löhne und Gehälter wird heute allerdings außerhalb der Kostenrechnung kaum noch praktiziert. Sozialkosten. Sie werden in gesetzliche Sozialabgaben, nämlich Unfallversicherung sowie den ArbeitgeberAnteil an der Renten-, Kranken- und Arbeitslosenversicherung, und freiwillige Sozialleistungen, bspw. Pensionszusagen, eingeteilt. Sonstige Arbeitskosten. Beispiele: Zeitungsinserate, Reisekosten, Abfindungen.
Arbeitsmarkt- und Beschäftigungspolitik 1. Definitionen Während der Begriff der Beschäftigungspolitik (B.) allgemein nach dem StabG die gesamtwirtschaftlich am Güter-, Geldund Arbeitsmarkt ansetzenden Maßnahmen zur Sicherung eines hohen Beschäftigungsstands umfasst, werden die speziell am Arbeitsmarkt ansetzenden Maßnahmen als Arbeitsmarktpolitik (A.) bezeichnet. 2. Einordnung und Grundlagen der Beschäftigungspolitik Eine auf Globalziele beschränkte staatliche Verantwortung für Wachstum und gesamtwirtschaftliche Stabilität, auf der B. beruht, wurde nach dem 2. Weltkrieg schrittweise in die marktwirtschaftlichen Wirtschaftssysteme integriert. Weitgehend übereinstimmend ist der als "Magisches Viereck" bezeichnete (Kern-) Katalog globaler Ziele: Wachstum, Preisniveaustabilität, hoher Beschäftigungsstand und außenwirtschaftliches Gleichgewicht. Vor allem die Zielkonkurrenz von Preisniveaustabilität und hohem Beschäftigungsstand (Phillips-Theorem) schließt in 43
Arbeitsmarkt- u. Beschäftigungspolitik der Realität die gleichzeitige Verwirklichung des gesamten Zielbündels aus. Konservative Regierungen richten ihre Wirtschaftspolitik mehr auf Preisniveaustabilität, sozialistische Regierungen mehr auf die Beschäftigung aus. Die Stabilisierungspolitik beruht auf der keynesianischen Theorie und setzt (neben Geldmarkt-Intervention über den Zinssatz) i.e.S. auf fiskalpolitische Nachfragesteuerung über die Staatsausgaben (insbesondere staatliche Investitionen) und auf die steuerliche Beeinflussung der für privaten Konsum verfügbaren Einkommen. Probleme bei Timing und Dosierung der Maßnahmen (angesichts des Zeitbedarfs von Entscheidungen, Wirkungsverzögerungen, Neben- und Fernwirkungen: Gewöhnung, rationale Erwartungen) sowie schließlich Schwächen demokratischer Regierungen bei restriktiver Wirtschaftspolitik führten dazu, dass die als entscheidende Innovation in der Wirtschaftspolitik der Nachkriegszeit gefeierten "Stabilitätsgesetze" in der Rezession im Gefolge der Ölpreisschocks (1973/74, 1979/80) zunehmend außer Anwendung kamen. In Großbritannien und den USA ("Thatcherismus", "Reaganomics") sowie später in der Bundesrepublik setzten sich monetaristisch-neoklassische Vorstellungen durch, nach denen die von politischen Zyklen bestimmten Interventionen des Staates für die Schwankungen des ansonsten zur Stabilität tendierenden marktwirtschaftlichen Bereichs verantwortlich gemacht werden. Daher wird eine längerfristig orientierte Wirtschaftspolitik verfolgt mit einer verstetigten Geldmengensteuerung und der Verbesserung der Angebotsbedingungen (Deregulierung, Steuerabbau). Als sich nach dem ersten Ölpreisschock in Westdeutschland seit Mitte der 70er Jähre bei gedämpftem Wachstum die Massenarbeitslosigkeit aufbaute und zunehmend verhärtete, schwand bei fortschreitend eingeschränktem Handlungsspielraum für expansive Fiskalpolitik selbst bei nicht einseitig ausgerichteten
44
Arbeitsmarkt- u. Beschäftigungspolitik Wissenschaftlern und Praktikern das grundsätzliche Vertrauen in die politische Machbarkeit eines hohen Beschäftigungsstandes. Obwohl gesamtwirtschaftliches Nachfragemanagement vor allem infolge überzogener Zielsetzungen und einseitiger (expansiver) Anwendung "versagt" hatte, begann sich in Westdeutschland getragen von der Mehrheit der Wirtschaftswissenschaftler und einer breiten Unterstützung in den Medien - ein angebotspolitisches Denken auch in der beschäftigungs- und arbeitsmarktpolitischen Willensbildung durchzusetzen. Angebotspolitik kann allerdings nur mittel- bis langfristig über steuerliche Entlastung, Deregulierung und leistungsgerechte Gestaltung ökonomischer Anreize zum Wachstum des Produktionspotenzials und zu mehr Beschäftigung führen. Im Rahmen der Tarifautonomie müssen auch die Tarifparteien für eine vertrauensvolle Zusammenarbeit und für eine längerfristig angelegte beschäftigungsorientierte Lohnpolitik gewonnen werden. Dies wurde zeitweise dadurch erschwert, dass die Forderungen und Ansätze der angebotspolitischen Wachstumsund Beschäftigungsstrategie einseitig zu Lasten der Arbeitnehmer und auf den Abbau von Regeln und Standards des sozialen Schutzes ausgerichtet erschienen. Die politische Verantwortung für den Ausgleich am Arbeitsmarkt verblieb damit kurz- bis mittelfristig im Übermaß bei der dafür nicht ausgestatteten ("residualen") A. Auch im Zuge des Vereinigungsprozesses richtete sich - nach dem Ausbleiben eines raschen "Wirtschaftswunders" trotz der gewaltigen (eigentlich als gigantisches Nachfrageprogramm wirkenden) öffentlichen Aufwendungen für den Aufschwung Ost und angesichts des erklärten Festhaltens an der Angebotspolitik - ein großer Teil der Erwartungen der Bürger und der politischen Bestrebungen bei der Bekämpfung der Massenarbeitslosigkeit in den Neuen Bundesländern unmittelbar auf
Arbeitsmarkt- u. Beschäftigungspolitik die aktive A. Sie war plötzlich in der Verantwortung für die durch die Systemtransformation selbst und den transformationsbedingten Strukturwandel ausgelöste Arbeitslosigkeit. Dazu kamen die andauernden Arbeitsplatzdefizite aufgrund der Investitions- und Wachstumsschwäche infolge des für die Wirtschafts-, Währungs- und Sozialunion in Kauf genommenen Anstiegs der Sozialbeiträge und des schon mit der raschen Einkommensanpassung eingetretenen Kostenanstieges. Trotz der hohen Beitragssätze der Arbeitslosenversicherung und der massiven West-Ost-Umlenkung von Mitteln konnte A. als komplementäre Strategie zu gesamtwirtschaftlicher Beschäftigungsund Wachstumspolitik weder nach den Vorstellungen ihrer Erfinder noch aufgrund ihrer Weiterentwicklung dieser Erwartung gerecht werden. Aus dieser historischen Entwicklung bildete sich über die auch ideologisch fundierten Orientierungen für Nachfragesteuerung oder Angebotspolitik hinweg eine neue Philosophie der Beschäfitigungs- und Arbeitsmarktpolitik, insbesondere bei der Ausrichtung prophylaktischer Politik in Bezug auf den Arbeitsmarkt im Zuge der Reform der Arbeitsförderung (vom AFG über das AFRG zum SGB III), die in Deutschland auch nach dem Regierungswechsel Bestand hatte: die Betonung der Eigenverantwortung der Arbeitslosen und der Arbeitgeber sowie der Vorrang der Eingliederung in Beschäftigung am ersten Arbeitsmarkt. Für die Arbeitsmarkt- und Beschäftigungspolitik bildet die Europäische Union (EU) heute einen wesentlichen Rahmen für die Entwicklung und Umsetzung einer koordinierten Beschäftigungsstrategie. Ausgehend vom Weißbuch der EUKommission zu Wachstum, Wettbewerb und Beschäftigung von 1993, der Reform des Maastrichtvertrages 1997 in Amsterdam, der (ersten) Verabschiedung beschäftigungspolitischer Leitlinien (Luxemburg 1997) und des Beschäftigungs-
Arbeitsmarkt- u. Beschäftigungspolitik paktes (Köln 1999) erfolgt in der EU im Rahmen des sog. Luxemburg-Prozesses eine streng festgelegte Koordinierung zur Verbesserung der in jährlichen Nationalen Aktionsplänen (NAP) konkretisierten Beschäftigungspolitiken. Dabei umfasst auf EU-Ebene das Zielbündel auch die Ausweitung der Erwerbsquote (z.B. im Vergleich zu den USA), die für die Belastung der Erwerbstätigen für die Existenzsicherung der Nicht-Erwerbstätigen in Zukunft zunehmend bedeutsam werden wird. Zudem erfolgt in der EUBeschäftigungspolitik eine engere konzeptionelle Verknüpfung von allgemeiner Politik zur Erhöhung der Wettbewerbsfähigkeit, Beschäftigungs- und Arbeitsmarktpolitik. Die A. baut auf Beschäftigungspolitik auf, hat im Vergleich zu jener die Ausrichtung auf den Ausgleich von Angebot und Nachfrage auf Teilarbeitsmärkten (z.B. für Regionen, Qualifikationen oder Problemgruppen) zum Gegenstand und verfolgt z.B. mit der Unterstützung von Problemgruppen des Arbeitsmarktes auch soziale Ziele. Die Grenzen der A. zur Regional-, Sozial- und Bildungspolitik sind fließend. A. ist allein ohne entsprechende Wachstums- und Beschäftigungspolitik nicht in der Lage, mit ihren Instrumenten, Institutionen und Haushaltsmitteln das Ziel eines hohen Beschäftigungsstandes zu verwirklichen. 3. Träger der A. und wichtige Maßnahmen Es lassen sich vier Zuständigkeitsbereiche der A. bzw. Träger arbeitsmarktpolitischer Maßnahmen unterscheiden: • Die A. der Bundesanstalt für Arbeit (BfA) nach dem Sozialgesetzbuch (SGB) III: Das zeitlich vor der Einführung der Pflegeversicherung letzte Glied in der Kette grundlegender deutscher Sozialgesetzgebung war die soziale Sicherung im Arbeitsleben. Erst im Jahre 1927 trat das "Gesetz über Arbeitsvermittlung und Arbeitslosenversicherung" (AVAVG) in Kraft, das auch die Grundlage für das 45
Arbeitsmarkt- u. Beschäftigungspolitik kurz nach dem StabG (1967) geschaffene Arbeitsförderungsgesetz (AFG) (1969) bildete, das seit 1.1.1998 vom SGB III abgelöst worden ist. Schon im AVAVG war Arbeitslosigkeit als nicht privat versicherbares Risiko angesehen worden, da z.B. in einer Rezession sehr viele Menschen gleichzeitig arbeitslos werden und deshalb anstelle einer Risikodiversifikation eine Risikohäufung auftritt. Mit dem AFG begann für die Sozialversicherungsgesetzgebung zudem der Vorrang der prophylaktischen gegenüber therapeutischen Maßnahmen und Leistungen. Mit der Reform des Arbeitsförderungsrechts, die zum SGB III geführt hat, sollen diese Ausrichtung verstärkt und als Hauptziele die Verbesserung der Erwerbschancen von Arbeitslosen, die Hilfe zur Vermeidung von Arbeitslosigkeit, die wirksame Bekämpfung von Leistungsmissbrauch und illegaler Beschäftigung, die Erhöhung der Effektivität und Effizienz der BfA sowie die Entlastung der Beitragszahler verfolgt werden. Nach dem § 1 SGB III besteht die Aufgabe der Arbeitsförderung in der Unterstützung des Ausgleichs am Arbeitsmarkt, indem Ausbildung- und Arbeitsuchende über Lage und Entwicklung des Arbeitsmarktes und der Berufe beraten, offene Stellen zügig besetzt und die Möglichkeiten von benachteiligten Ausbildungund Arbeitsuchenden für eine Erwerbstätigkeit verbessert und dadurch Zeiten der Arbeitslosigkeit sowie des Bezugs von Arbeitslosengeld, Teilarbeitslosengeld und Arbeitslosenhilfe vermieden oder verkürzt werden. Dem Subsidiaritätsprinzip trägt die in § 2 SGB III beschriebene besondere Verantwortung der Arbeitgeber für Beschäftigungsmöglichkeiten und der Arbeitnehmer fiir ihre eigenen beruflichen Möglichkeiten Rechnung. Zu den wichtigsten Aufgaben der BfA gehört die Vermittlung von Arbeits- und Ausbildungsplätzen auch in Verbindung mit spezifischen arbeitsmarktpolitischen Instrumenten. Hierzu gehören die Förde46
Arbeitsmarkt- u. Beschäftigungspolitik rung beruflicher Ausbildung, Fortbildung und Umschulung. Einen Spezialfall der beruflichen Bildung stellen die berufsfördernden Leistungen zur beruflichen Rehabilitation dar. Seit 1986 wurde das Überbrückungsgeld als Starthilfe für den Sprung aus der Arbeitslosigkeit in die Selbstständigkeit eingeführt und später in den Konditionen deutlich verbessert. Die Erhaltung und Schaffung von Arbeitsplätzen ("aktive A.") erfolgt zunächst mit dem Kurzarbeitergeld, der Förderung der ganzjährigen Beschäftigung in der Bauwirtschaft und Arbeitsbeschaffungsmaßnahmen (ABM). Die Förderung der Eingliederung in Beschäftigung erfolgt vor allem durch die ergänzende Gewährung von Lohnkostenzuschüssen, jedoch auch durch Darlehen und Sachkostenzuschüsse an die Maßnahmeträger, zu denen in erster Linie öffentlich-rechtliche Institutionen, aber auch private Unternehmen gehören. Mit ABM soll gezielt die Wiederbeschäftigung von Langzeitarbeitslosen gefördert und damit den Selektionsprozessen am Arbeitsmarkt entgegengewirkt werden. Das Instrument ist für die BfA im Vergleich zu anderen Maßnahmen mit einem hohen Mittelaufwand verbunden. Da alle öffentlichen Haushalte zusätzliche Einnahmen bei der Beschäftigung von Teilnehmern an ABM erzielen, sind die gesamtfiskalischen Kosten von ABM aber weitaus niedriger. Vor allem die Erfahrungen in Ostdeutschland haben zu den jetzt im SGB III "Strukturanpassungsmaßnahmen" genannten pauschalierten Lohnkostenzuschüssen geführt, mit denen die Eingliederung der Geförderten in den ersten Arbeitsmarkt angestrebt werden soll. Hinzu gekommen ist weiterhin die gemeinnützige -* Arbeitnehmerüberlassung. Mit dem SGB III wurde die schon vorhandene Palette betriebsbezogener Einstellungshilfen um neue Instrumente erweitert (Eingliederungsvertrag, Einstellungszuschuss bei Neugründungen) und Experimentiermöglichkeiten geschaffen.
Arbeitsmarkt- u. Beschäftigungspolitik Dem neuen Grundsatz, die aktive A. dezentral vor Ort zu gestalten, trägt das SGB III mit der dezentralen Verantwortung der Arbeitsämter sowie mit deren Möglichkeit, bis zu zehn Prozent der im Eingliederungstitel enthaltenen Mittel für Ermessensleistungen der aktiven A. einsetzen zu können, und mit der Verpflichtung der Arbeitsämter zur Aufstellung einer Eingliederungsbilanz Rechnung. Die Finanzierung der A. erfolgt hauptsächlich aus Beiträgen zur BfA, die von beitragspflichtigen Betrieben und Arbeitnehmern mit je halbem Beitragssatz erbracht werden, sowie Umlagen für Winterbau und Insolvenzgeld. Darüber hinaus besteht eine Gewährleistungspflicht bzw. Defizitdeckungsgarantie seitens des Bundes für den Fall der Erschöpfung der Reserven der BfA. Der Bund erstattet der BfA die Kosten der Arbeitslosenhilfe vollständig und für weitere Auftragsmaßnahmen teilweise. Ein zentrales Merkmal der Finanzierung der BfA besteht in der gemeinsamen Finanzierung der aktiven und der passiven A. Wenn bei einer Zunahme der Arbeitslosigkeit die Zahl der sozialversicherungspflichtig Beschäftigten zurückgeht und sich die Bemessungsgrundlage für die Beiträge verringert, sinken die Einnahmen der BfA. Da aber der Unterstützungssatz des Arbeitslosengeldes, der Arbeitslosenhilfe und des Unterhaltsgeldes festliegt, besteht nur die Möglichkeit, den Bundeszuschuss zu erhöhen oder die Zahl der Teilnehmer an aktiven arbeitsmarktpolitischen Maßnahmen zu reduzieren. In der Vergangenheit wurden meistens beide Optionen genutzt mit der Folge, dass bei einem Anstieg der Arbeitslosigkeit weniger Mittel für aktive Maßnahmen zur Verfügung standen. • A. der Bundesregierung: Federführend ist das Bundesministerium für Arbeit und Sozialordnung, das seine A. bundes- und landespolitisch abstimmt. Die spezifische A. der Bundesregierung wird auf der Grundlage von Gesetzen in Anordnungen
Arbeitsmarkt- u. Beschäftigungspolitik und Sonderprogrammen umgesetzt. Dabei ist neben dem SGB III das Beschäftigungsförderungsgesetz von 1985, das mehrfach verlängert und erweitert wurde, besonders hervorzuheben. Mit diesem Gesetz soll v.a. durch die erleichterte Zulassung befristeter Arbeitsverträge die Einstellungsbereitschaft der Unternehmen erhöht und somit der Arbeitsmarkt entlastet werden. Beispiele für Sonderprogramme in den 90er Jahren sind die Durchführung eines auf 4 Jahre befristeten Arbeitsmarktprogramms für die Einstellung Langzeitarbeitsloser, das 1995 der BfA übertragen wurde, die Zulassung privater Arbeitsvermittler sowie die Sprachförderung und Eingliederung für Aussiedler. Wichtigster Ausgabenposten ist die Arbeitslosenhilfe als Instrument der passiven A. Sie wird bei Auslaufen des Anspruchs auf Arbeitslosengeld bei Bedürftigkeit längstens für 2 Jahre gewährt. • A. der Bundesländer: Angesichts unterschiedlich hoher Arbeitslosenquoten gestalten alle Bundesländer eigene Landesprogramme ihrer A. Während die Instrumente des SGB III, europäische, Bundes- und auch kommunale Förderinstrumente überwiegend landesspezifisch umgesetzt und ausgestaltet werden, entwickeln einzelne Länder auch innovative Ansätze. Akzente bilden eine möglichst enge Verzahnung von arbeitsmarkt- und strukturpolitischen Maßnahmen, die Förderung von Qualifizierung und Beschäftigung sowie betriebsbezogene, wirtschaftsnahe und innerbetriebliche Maßnahmen etwa zur Bewältigung neuer technologischer, organisatorischer und qualifikatorischer Anforderungen in Unternehmen. • A. der Kommunen: Die Kommunen müssen für die Finanzierung der Leistungen aus der Sozialhilfe aufkommen. Als größter öffentlicher Investor und bedeutender Arbeitgeber sind sie durch den starken Anstieg der Sozialhilfeausgaben und insbesondere der laufenden Hilfe 47
Arbeitsmarkt- u. Beschäftigungspolitik zum Lebensunterhalt wegen Arbeitslosigkeit in erhebliche Finanzprobleme geraten. Für sie besteht mithin ein Anreiz, durch Anwendung des § 19 Bundessozialhilfegesetz (BSHG) die Sozialhilfeempfänger in sozialversicherungspflichtige Beschäftigung zurückzuführen. 4. Wirkungen der A. Die A. nach dem SGB III kann das globale Arbeitsmarktgleichgewicht nicht beheben. Die BfA-Maßnahmen hatten aber nach Berechnungen des Instituts für Arbeitsmarkt- und Berufsforschung der BfA Ende der 90er Jahre in Ost- und Westdeutschland unter Berücksichtigung von Multiplikatoreffekten der Maßnahmen eine Beschäftigungswirkung von rund einer Million Personen. Bei der Beurteilung der A. geht es u.a. darum, ob die Verbesserung der Wiederbeschäftigungschancen der Maßnahmeteilnehmer möglicherweise die Wiederbeschäftigungschancen von nicht im Rahmen eines arbeitsmarktpolitischen Programms geförderten Arbeitslosen verringert (Substitutionseffekt). Denkbar wäre auch, dass Beschäftigte entlassen werden, weil in Fortbildungs- und Umschulungsmaßnahmen qualifizierte Arbeitskräfte eingestellt werden sollen (Verdrängungseffekt). Außerdem ist zu klären, wie viele Personen eine arbeitsmarktpolitische Maßnahme nicht gebraucht hätten, um einen regulären Arbeitsplatz zu erhalten (Mitnahmeeffekt). Hinzu kommt drittens, dass arbeitsmarktpolitische Maßnahmen das Lohnniveau auf dem ersten Arbeitsmarkt beeinflussen können. Literatur: Franz, W.: Arbeitsmarktökonomik, 4. Aufl., Berlin u. a. 1999; Kleinhenz, G.: Beschäftigungs- und Arbeitsmarktpolitik der EG. In: Monar/Neuwahl/Noack (Hrsg.): Sachwörterbuch der Europäischen Union, Stuttgart 1993; Lantpert, H./Englberger, J./Schüle, U.: Ordnungs- und prozesspolitische Probleme der Arbeitsmarktpolitik in der Bundesrepublik Deutschland, Berlin 1991.
Gerhard Kleinhenz
48
Arbeitszeitmanagement Arbeitszeitmanagement 1. Einführung Mitte des 19. Jahrhunderts lagen die Arbeitszeiten bei täglich 14-16 bzw. wöchentlich 80-85 Stunden. Danach wurde die Arbeitszeit aufgrund von gewerkschaftlichen Forderungen immer weiter verkürzt, bis zu Beginn der siebziger Jahre im 20. Jh. bereits alle wichtigen Industrie- und Wirtschaftszweige zu einer tariflichen Normalarbeitszeit von 40 Std./W. übergingen, die danach weiter auf 35-Stunden-Woche verkürzt wurde. Gleichzeitig zur Arbeitszeitverkürzung hat sich die Anzahl der Urlaubstage je Jahr drastisch erhöht, was die zur Verfügung stehenden Arbeitsstunden nochmals reduziert hat. Die Arbeitszeitverkürzung mit vollem Lohnausgleich hatte zur Folge, dass das Arbeitszeitmanagement auf die Kompensation dieser negativen betriebswirtschaftlichen Wirkungen gerichtet war (z.B. Verstärkung der Teilzeitarbeit oder der Überstunden, Änderung des Schichtsystems u.a.). Erst als das Arbeitszeitmanagement als strategischer Erfolgsfaktor erkannt und - statt bisher reaktiv - nun proaktiv eingesetzt wurde, erhielt es eine größere Bedeutung. 2. Arbeitszeitmanagement zur Erhaltung der Wettbewerbsfähigkeit Die Arbeitszeit als wichtige Ressource wird in vielen Unternehmen aller Branchen flexibel und effizient eingesetzt, um Wettbewerbs vorteile zu gewinnen bzw. zu halten. Sie wurde längst als kritischer Erfolgsfaktor erkannt und dient als Instrument zur Umsetzung von Strategien. Bei der Verfolgung der Wettbewerbsstrategic -> "Kostenführerschaft" geht es dabei um die Auslastung von kapitalintensiven Anlagen, die dadurch erreicht wird, indem die optimale Betriebszeit durch geeignete (individuelle) Arbeitszeitmodelle abgedeckt ist. Auch die Anpassung der Mitarbeiterkapazität an Schwankungen im Arbeitsanfall kann insbesondere vor dem Hintergrund
Arbeitszeitmanagement ständig steigender Arbeitskosten in Deutschland ein hohes Kostensenkungsund Produktivitätspotenzial erschließen. Bei der Verfolgung der Strategie -» "Produktdifferenzierung" kommt es neben der Produktqualität immer mehr auf eine hohe Servicequalität an. Ein optimales Arbeitszeitmanagement führt hierbei zur Verkürzung von Lieferzeiten sowie zur schnellen Anpassung an geänderte Kundenbedürfnisse. Es unterstützt durch die mögliche Verlängerung von Ansprechund Servicezeiten eine höhere -» Kundenorientierung. Das Arbeitszeitmanagement verfolgt deshalb primär die Unterstützung von ökonomischen Zielsetzungen im Unternehmen. Trotzdem werden auch mitarbeiterorientierte und gesellschaftliche Ziele verfolgt. Die mitarbeiterorientierten Zielsetzungen des Arbeitszeitmanagements beziehen sich auf die Erhöhung der Zeitsouveränität, die bessere Vereinbarkeit von Beruf/Karriere und Freizeit/Familie. Nicht zuletzt ist das Arbeitszeitmanagement ein wichtiges Kriterium bei der Wahl des Arbeitgebers und kann ein geeignetes Motivationsinstrument ( - • Motivation) darstellen. Die gesellschaftlichen Ziele in diesem Zusammenhang sind die gerechte Aufteilung des verfügbaren Arbeitsvolumens auf möglichst viele Erwerbstätige, der Beitrag zur Humanisierung der Arbeit (-> Arbeitshumanisierung) sowie die Entlastung der Verkehrsinfrastruktur. Die große Bedeutung der Arbeitszeitflexibilisierung als Leistungspaket innerhalb der Bündnisse für Arbeit macht deutlich, dass durch das Arbeitszeitmanagement ökonomische und soziale Ziele komplementär verfolgt werden. 3. Grundlagen Die Arbeitszeit ist nach § 2 ArbZG der Zeitraum vom Beginn bis zum Ende der Arbeit abzüglich der Ruhepausen. Somit ist die Arbeitszeit die zeitliche Dimension einer Dienstleistung, die ein abhängig Beschäftigter im Rahmen seines Arbeits-
Arbeitszeitmanagement Verhältnisses zu erbringen hat. Das Arbeitszeitmanagement ist die einzelbetriebliche Gestaltung und Regelung der Arbeitszeit unter Beachtung der geltenden, durch Gesetz und -»Tarifvertrag konkretisierten Rahmenvorschriften. Zu unterscheiden sind der funktionale und der institutionale Aspekt des Arbeitszeitmanagements. Das funktionale Arbeitszeitmanagement umfasst die Planung, Steuerung und Kontrolle von Maßnahmen der Arbeitszeitgestaltung sowie Information und Dokumentation, während mit dem institutionalen Arbeitszeitmanagement die Personen, die mit der Gestaltung der Arbeitszeit beauftragt sind, gemeint sind. Der Freiheitsgrad der Arbeitszeitgestaltung wird von dem Arbeitszeitgesetz von 1994 begrenzt. Der Geltungsbereich des Arbeitszeitgesetzes erstreckt sich über alle -»Arbeitnehmer, die älter als 18 Jahre sind, mit Ausnahme der -> leitenden Angestellten sowie der Beschäftigten der Seeschifffahrt, der Bäckereien und Konditoreien. Geregelt wird im Arbeitszeitgesetz das maximale Arbeitszeitvolumen, die Ruhepausen und Ruhezeiten, die Nacht- und Schichtarbeit sowie die Sonnund Feiertagsruhe. Durch einen Tarifvertrag und/oder eine zugelassene -* Betriebsvereinbarung können die Regelungen des Arbeitszeitgesetzes konkreter den Anforderungen der Branche bzw. des Unternehmens angepasst werden. Die Regelung der Lage der Arbeitszeit unterliegt der Mitbestimmung durch den -» Betriebsrat. Die Arbeitszeitdauer hingegen bleibt grundsätzlich mitbestimmungsfrei, da sie durch den Arbeitsvertrag oder Tarifvertrag geregelt ist. Allerdings hat der Betriebsrat ein Mitbestimmungsrecht (-> Mitwirkungs- und Mitbestimmungsrechte) bei der vorübergehenden Verkürzung (Kurzarbeit) oder Verlängerung (Überstunden) der betriebsüblichen Arbeitszeit.
49
Arbeitszeitmanagement
Arbeitszeitmanagement 4. Gestaltungsparameter der Arbeitszeit Die Arbeitszeit bzw. ein Arbeitszeitmodell kann grundsätzlich durch zwei Dimensionen beschrieben werden, die nicht vollständig unabhängig voneinander sind. Zu unterscheiden sind hierbei die chronometrische und die chronologische Dimension. Die Chronometrie beschreibt die Dauer der Arbeitszeit, während die Chronologie die Lage und Verteilung der Arbeitsmenge innerhalb eines bestimmten Zeitzyklusses kennzeichnet. Bei starren Arbeitszeitmodellen sind die Chronometrie und die Chronologie fix (Beispiel: Verteilung von 40 Wochenstunden auf 5 Arbeitstage mit jeweils 8 Std./Tag). Es besteht bei diesen Modellen keine Möglichkeit der Variation von Volumen oder Lage der Arbeitszeit. Jedoch gewinnt im Rahmen des Arbeitszeitmanagements die flexible Arbeitszeit immer mehr an Bedeutung. Hierbei ergeben sich drei Möglichkeiten der Variation: • chronometrische Variation (Abweichung von der betriebsüblichen oder tariflichen Dauer der Vollzeitbeschäftigung, z.B. Teilzeitarbeit), • chronologische Variation (variables Verteilungsmuster des Arbeitszeitvolumens innerhalb gewisser Grenzen, z.B. Gleitzeitarbeit) oder • chronometrische und chronologische Variation (mengen- und verteilungsmäßige Abweichung von der Standard-Arbeitszeit). Neben den chronometrischen und chronologischen Arbeitszeitparametern gibt es noch weitere, die im Hinblick auf die Flexibilisierung der Arbeitszeit den Gestaltungsspielraum begrenzen. Zu nennen ist hierbei vor allem der Bezugszeitraum, auf den sich die Arbeitszeitregelung bezieht (Tages-, Wochen-, Monats-, Jahres- oder Lebensarbeitszeit). Weitere Gestaltungsparameter sind z.B. der Geltungsbereich, die Reversibilität, die Standardisierung und Detaillierung der Arbeitszeitregelung. 50
5. Arbeitszeitmodelle In der Praxis existiert eine Vielzahl von Arbeitszeitmodellen. Die wichtigsten sind - > Gleitzeitarbeit, -* Zeitsparmodelle und Lebensarbeitszeitmodelle, —> Teilzeitarbeit, -» Wahlarbeitszeit, -» Telearbeit/Heimarbeit sowie —• Mehrfachbesetzungssysteme. 6. Organisatorische Aspekte des Arbeitszeitmanagements Obgleich in vielen Unternehmen die geleistete Arbeitszeit nicht mehr streng durch den Vorgesetzten kontrolliert wird und man zur sog. Vertrauensarbeitszeit übergegangen ist, macht die Flexibilisierung der Arbeitszeit eine Zeiterfassung (manuell oder elektronisch) erforderlich. Die Verbuchung der Zeitguthaben bzw. Zeitschulden auf einem Zeitkonto empfiehlt sich aus Gründen der effizienteren Handhabbarkeit. Zu regeln ist innerhalb des Arbeitszeitmanagements, welche maximale Höhe das Arbeitszeitkonto annehmen kann. Ein Instrument zur Minderung der Gefahr, dass Mitarbeiter Zeitguthaben bzw. Zeitschulden aufbauen, die innerhalb des Ausgleichszeitraumes nicht mehr abzubauen sind, ist das Ampelkonto. Das Ampelkonto signalisiert die unterschiedlichen Höhen der Abweichungen von der vertraglichen Arbeitszeit: •
•
•
Grünphase (geringe Abweichungen): eigenverantwortliche Disposition des Mitarbeiters über seine Arbeitszeit; Gelbphase (stärkere Abweichungen): der Mitarbeiter sollte keine weiteren Zeitguthaben/-schulden ansammeln; Rotphase (starke Abweichungen): Vorgesetzter ist zum Eingreifen verpflichtet, gemeinsame Erarbeitung von Maßnahmen zum Abbau der Zeitguthaben/-schulden mit dem Mitarbeiter.
Bei Arbeitszeitkonten, die erst am Ende des Arbeitslebens ausgeglichen sein müssen, ergibt sich die Notwendigkeit der Bilanzierung der Mitarbeiterguthaben zur Sicherung im Insolvenzfall (-> Insol-
Arbeitszeitmanagement venz). Hierbei ist zu klären, wie diese Zeitguthaben bewertet werden. Zur Auswahl steht hierbei die Bewertung mit dem jeweils gültigen Stundensatz des Mitarbeiters oder mit dem verzinsten Stundensatz des Zuflusszeitpunktes. Eine weitere organisatorische Maßnahme im Zuge der Arbeitszeitflexibilisierung ist die Bestimmung von Service- bzw. Funktionszeiten. Während dieser Zeitfenster muss die betriebliche Funktion der Abteilung durchgehend sichergestellt sein. Zu regeln sind in diesem Zusammenhang die Länge der Service- bzw. Funktionszeiten, die Besetzungsstärke (Anzahl Mitarbeiter) während dieser Zeit sowie die notwendigen Qualifikationen. Je souveräner die Mitarbeiter mit ihrem Arbeitseinsatz umgehen können, umso wichtiger ist die Installation von zeitautonomen Arbeitsgruppen (-» Gruppenkonzepte). Die Mitarbeiter einer zeitautonomen Gruppe steuern eigenverantwortlich die jeweiligen Anwesenheitszeiten unter Beachtung der betrieblichen Erfordernisse und planen die Vertretung während der Abwesenheitszeiten (z.B. bei Urlaub, Krankheit u.a.). 7. Restriktionen Das Arbeitszeitgesetz und viele Tarifverträge haben den Handlungsspielraum der Arbeitszeitgestaltung erheblich erweitert. Dennoch sind Restriktionen zu beachten, z.B. ist laut ArbZG 1994 eine Erhöhung der täglichen Arbeitszeitzeit auf 10 Stunden nur innerhalb eines Ausgleichszeitraumes von 6 Kalendermonaten möglich. Aber auch technische sowie menschliche Eigenschaften können die Gestaltungsmöglichkeiten der Arbeitszeitflexibilisierung einschränken. Literatur: Ackermann, K.-F.: Arbeitszeitmanagement - Planungskonzepte für flexible Arbeitszeitregelungen, in: Personalführung 8 - 9 / 1 9 8 6 , S. 3 2 8 - 3 3 5 ; Hoff, A.: Betriebliche Wahlarbeitszeit Königsweg zur Aktivierung des Potentials individueller Arbeitszeitverkürzungen, in: Personalführung 1/1995, S. 18-23; M a n , R. (Hrsg.), Arbeitszeitmanagement - Grundlagen und Perspektiven der Gestaltung flexibler Arbeitszeitsysteme,
Arbitrage Pricing Theory Berlin 1993; Kutscher, J./Weidinger, M./Hoff, A.: Flexible Arbeitszeitgestaltung - Praxis-Handbuch zur Einfuhrung innovativer Arbeitszeitmodelle, Wiesbaden 1996; Reiß, M.: Flexible Arbeitszeitregelungen - Inhalte und Ausgestaltung, Freiburg 1995; Wagner, D.: Arbeitszeitmodelle - Flexibilisierung und Individualisierung, Göttingen u.a. 1995
Karl-Friedrich Ackermann/ Simone Vollmer Arbeitszeitmodelle Arbeitszeitmodelle lassen sich anhand ihrer Chronologie und Chronometrie beschreiben (-> Arbeitszeitmanagement). In der Praxis existiert eine Vielzahl von Arbeitszeitmodellen. Die wichtigsten sind -> Gleitzeitarbeit, -* Zeitsparmodelle und Lebensarbeitszeitmodelle, - * Teilzeitarbeit, -> Wahlarbeitszeit, Telearbeit/Heimarbeit sowie -» Mehrfachbesetzungssysteme. Arbitrage Pricing Theory Um 1960 begann man damit, —> Kapitalmarkttheorien zu entwickeln. Im Rahmen solcher Theorien geht es um die Frage, wovon die erwarteten Renditen risikobehafteter Kapitalanlagen, insbesondere die Renditen von -»Aktien, abhängen. Heute kann gesagt werden, dass sich das -» Capital Asset Pricing Model (CAPM) als vorherrschende Kapitalmarkttheorie etabliert hat. Dieses Modell beruht auf der von Harry Markowitz in den 50er Jahren entworfenen Portfoliotheorie und beantwortet die Frage nach der zu erwartenden Rendite einer Aktie j mit Hilfe der -> Wertpapiermarktlinie. Inzwischen haben sich verschiedene Varianten des CAPM herausgebildet. Mit den Symbolen erw. Rendite der j-ten Aktie, risikoloser Zinssatz, erwartete Rendite des gesamten Marktes, Var r
Varianz der Marktrendite,
51
Arbitrage Pricing Theory
Arbitrage Pricing Theory
Kovarianz der Rendite der j-
Cov
ten Aktie mit der Marktrendite lautet die Gleichung für die Wertpapiermarktlinie in der Grundversion des CAPM(l):
•Cov Var = rf+ E
(1) -rf |-Pj Beta
Marktrisikoprämie
mit: Cov ß,="
Var
Der Betafaktor bringt zum Ausdruck, wie sensibel die Rendite der betrachteten Aktie auf Renditeänderungen des gesamten Aktienmarktes reagiert (s.a. -> BetaRisiko). Wenn man sich etwa ein Streudiagramm vorstellt, bei dem auf der xAchse die täglichen Renditen des Gesamtmarktes und auf der y-Achse die tägliche Rendite einer bestimmten Aktie abgetragen werden, so repräsentiert der Betafaktor die Steigung der Regressionsgeraden für diese beiden Zufallsvariablen. Misst man die Marktrendite beispielsweise mit dem Deutschen Aktienindex DAX und haben wir ßj = 0.8, so geht eine Änderung der DAX-Rendite in Höhe von 10 Basispunkten mit einer Änderung der Rendite bei der Aktie j in Höhe von 8 Basispunkten einher. Das CAPM ist ein Gleichgewichtsmodell mit nennenswerten Schwächen. Zahlreiche empirische Arbeiten, mit denen man die Resultate des CAPM testen wollte, waren erfolgt, ohne dass man ein einheitliches Bild bekam. In den meisten Fällen kam jedoch heraus, dass das Kovarianzrisiko des Gesamtmarktes die erwarteten Aktienrenditen nur unzureichend erklärt. 52
Dies veranlasste Stephen Ross dazu, im Jahre 1976 eine alternative Kapitalmarkttheorie vorzustellen, die er Arbitragepreistheorie (APT) nannte. Um Schwierigkeiten des CAPM zu überwinden, verzichtete Ross auf die Konstruktion eines Gleichgewichtsmodells. Er beschränkte sich auf das Postulat der Arbitragefreiheit, welches besagt, dass es auf gut funktionierenden Märkten keine Arbitragefreiheit gibt. Diese Vorgehensweise ist voraussetzungsärmer, weil Gleichgewicht zwar Arbitragefreiheit impliziert, aus Arbitragefreiheit aber nicht notwendigerweise folgt, dass das Preissystem für die Räumung der Märkte sorgt. Die APT hat sowohl in der akademischen Welt als auch in der Praxis sehr bald große Resonanz gefunden. Sie schien den Weg aus dem engen Rahmen der Gleichgewichtstheorie zu weisen. Einige Autoren gingen sogar so weit, die APT als eine Verallgemeinerung des CAPM anzusehen. Eine solche Sichtweise ist deshalb problematisch, weil die APT schlicht kein Gleichgewichtsmodell ist. Arbitragemodelle beruhen auf weniger Voraussetzungen und besitzen damit geringere Struktur. Sie lassen aus diesen Gründen auch nicht so viele Implikationen zu wie Gleichgewichtsmodelle. Im Ergebnis besagt die Arbitragepreistheorie nun, dass es eine endliche Menge von voneinander unabhängigen Risikofaktoren Fk gibt, die die erwartete Rendite von Aktien in unterschiedlicher Weise beeinflussen, so dass die Gleichung = r f + ^ E [ F , K ) ß I J + . . . + ^E[F;]-rf}ßl = rr+ZiE[Fk]-rAßkj Paktorrisikoprämic
(2) gilt. Bei formalem Vergleich von Gleichung (1) mit Gleichung (2) könnte man also sagen, dass das CAPM ein Spezialfall der APT mit nur einem einzigen
Arbitrage Pricing Theory Risikofaktor ist. Umgekehrt wird die APT gelegentlich als eine multifaktorielle Variante des CAPM betrachtet. Empirische Untersuchungen lassen vermuten, dass es im Wesentlichen fünf grundliegende Risikofaktoren gibt, und zwar der Index der industriellen Produktion, der kurzfristige Realzins, die kurzfristige Inflation, die langfristige Inflation sowie das Ausfallrisiko von Industrieobligationen. Die Betafaktoren ßkJ bringen zum Ausdruck, wie sensibel die Rendite der jten Aktie auf Veränderungen des k-ten Risikofaktors reagiert. Zahlreiche empirische Studien zeigen, dass die APT die erwarteten Aktienrenditen signifikant besser erklären kann als das CAPM. Auf theoretischem Niveau besteht jedoch ein entscheidender Unterschied zwischen APT und CAPM: Die APT teilt uns nicht mit, von welchen Risikofaktoren die Aktienrenditen abhängen. Allerdings wird mit der aus der Statistik bekannten -> Faktorenanalyse ein Weg gewiesen, geeignete Faktoren zu identifizieren. Hingegen lehrt uns das CAPM, was unter dem dort gültigen einzigen Risikofaktor zu verstehen ist; es handelt sich um das Marktportfolio. Copeland/Koller/Murrin weisen darauf hin, dass die Eigenkapitalkosten für einige Branchen deutlich voneinander abweichen, wenn man anstelle des CAPM mit der APT arbeitet. Beispielsweise sind für die Ölindustrie im Jahre 1988 auf der Grundlage der APT Eigenkapitalkosten in Höhe von 19% ermittelt worden, während sich aus dem CAPM nur 14% ergaben. Die Kritik, der das CAPM ausgesetzt ist, lässt die APT als eine positiv zu bewertende Alternative erscheinen. Bemerkenswerterweise hat die APT aber bisher weder in der Literatur noch in der Praxis das CAPM von seiner führenden Position verdrängen können, und dies, obwohl die APT inzwischen auch schon 25 Jahre alt ist. Im akademischen Unterricht deutscher Hochschulen oder internationaler Business Schools widmet man dem CAPM
Arbitriumwert nach wie vor wesentlich mehr Aufmerksamkeit als der APT; und entsprechendes gilt für die finanzwirtschaftliche Praxis. Wer auf der Suche nach empirischen CAPM-Betas ist, findet bei den einschlägigen Firmen (zum Beispiel Barra oder Bloomberg) rasch alles, was er sucht. APT-Betas dagegen sind ungleich schwieriger zu bekommen. Seit Beginn der 90er Jahre ist die APT nun auch aus theoretischer Sicht in ein fragwürdiges Licht gekommen. Einige Untersuchungen deuten darauf hin, dass die Annahmen, aus denen die APT abgeleitet wird, logisch nicht zulassen, mit mehr als einem Faktor zu arbeiten. Träfe dies zu, so wäre der eigentliche Charme der APT dahin; wir wären sozusagen wieder beim CAPM. Tatsächlich wären wir sogar noch hinter das CAPM zurückgeworfen, denn der verbleibende "eine Risikofaktor" bliebe inhaltlich vollkommen unspezifiziert. Literatur: Ross, S. A.: The Arbitrage Theory of Capital Asset Pricing, Journal of Economic Theory 1976, 3 4 1 - 3 6 0 ; Brealey, R. A./Myers S. C.: Principles of Corporate Finance. ö"*1 ed., New York 2000; Perridon, L./Steiner, M.: Finanzwirtschaft der Unternehmung, 10.A., München 1999. Copeland, T. E./Koller, T./Murrin, J.: Unternehmenswert, 2.A., Frankfurt, New York 1998.
Lutz Kruschwitz Arbitragepreistheorie Arbitrage Pricing Theory Arbitriumwert 1. Begriff des Arbitriumwertes Als Arbitriumwert wird in der funktionalen Unternehmungsbewertungslehre das Ergebnis einer -> Unternehmungsbewertung bezeichnet, das eine Einigung zwischen Käufer und Verkäufer (Mehrheitsund Minderheitsgesellschafter, Fusionspartner usw.; allgemein Konfliktparteien, Bewertungs- oder Entscheidungssubjekte) über die Bedingungen der Eigentumsänderung der zu bewertenden Unternehmung erleichtern oder bewirken soll. Man spricht auch vom Schiedsspruch- oder Vermittlungswert, weil diese Wertgröße von einem unparteiischen Dritten den 53
Arbitriumwert Konfliktparteien im Rahmen eines Schiedsspruch- oder Vermittlungsverfahrens als mögliche Einigungsgröße vorgeschlagen wird. 2. Einordnung in die Unternehmungsbewertungslehre Neben der Konzeption der funktionalen Unternehmungsbewertung gibt es noch die älteren Konzeptionen der objektiven und subjektiven Unternehmungsbewertung. Die neuerdings propagierte marktwertorientierte Untemehmungsbewertung ist eine Variante der objektiven Konzeption. Nach der (älteren) objektiven Konzeption soll ein für jedermann geltender Wert bestimmt werden, wobei jedoch keine Identität zwischen Wert und Preis postuliert wird. Der Wert soll durch einen unparteiischen Gutachter im Sinne eines Vermittlers zwischen den Parteien bestimmt werden, auf dessen Basis sich dann die Konfliktparteien auf den Preis verständigen. Zur Wertermittlung wird auf den Substanzwert als Reproduktionswert (Substanzwertverfahren) oder auf den Ertragswert (Ertragswertverfahren) oder auf eine Kombination dieser Größen (Kombinationsverfahren) zurückgegriffen. Das Problem dabei ist, dass diese Verfahren keineswegs übereinstimmende Resultate liefern, was der Konzeption nach jedoch der Fall sein müsste, so dass es folglich nicht an Bestrebungen zur Vereinheitlichung der Wertermittlung fehlte, um diesen "Missstand" zu beseitigen, oder es wurde gezeigt, wie die wertbestimmenden Parameter zu setzen seien, um gleiche Bewertungsresultate erreichen zu können. Nach der (jüngeren) objektiven (marktwertorientierten) Konzeption ergibt sich aus den Annahmen der ihr zu Grunde liegenden, auf ein Marktgleichgewicht abstellenden Kapitalmarkttheorie hingegen die Identität von Wert und Preis, d.h. alle Kapitalmarktteilnehmer haben dieselben Wertvorstellungen, so dass sich im 54
Arbitriumwert Marktgleichgewicht dieser Wert als für alle geltender Preis manifestieren muss. Zur Wertermittlung werden verschiedene theoriegeleitete -* Discounted Cash-flowMethoden, simple Vergleichsverfahren oder auch das Börsenkurswertverfahren herangezogen. Auch hier gilt, dass aus der Verfahrensvielfalt eine Wertevielfalt resultiert, obwohl es darum geht, den einzig "wahren Wert" zu finden. Mit Blick auf die theoriegeleiteten Verfahren versucht man - wie schon in der älteren objektiven Lehre - wieder nachzuweisen, dass, wenn die Verfahren "richtig" angewandt werden, die Ergebnisse übereinstimmen. Auch hier "bewährt" sich die Methode der "Parametereichung" als vorzügliches Mittel. Gerade die Anwendung des Börsenkursweitverfahrens könnte lehren, dass die Vorstellung von einem einheitlichen Wert für alle Kapitalmarktteilnehmer eine Chimäre ist, wird doch der Börsenkurs bei der Einheitskursermittlung aus den vorliegenden unterschiedlichen Mindest- und Höchstgeboten, d.h. aus differierenden Wertvorstellungen der Börsenteilnehmer, nach dem Auktionsprinzip hergeleitet. Die subjektive Unternehmungsbewertungskonzeption betont diesen Subjektbezug, aus dem folgt, dass der Wert grundsätzlich aus der Sicht des jeweiligen Bewertungssubjekts zu ermitteln ist und folglich nur für dieses Bewertungssubjekt selbst gilt. Der Wert der Unternehmung wird auf Basis der Prinzipien der Subjektivität, der Zukunftsbezogenheit und der Bewertungseinheit ermittelt. Aus dem die Konzeption charakterisierenden Prinzip der Subjektivität folgt die Orientierung der Wertermittlung an der individuellen (insbesondere finanziellen) Zielsetzung und den individuellen Handlungsmöglichkeiten des Bewertungssubjekts bezogen auf die zu bewertende Unternehmung (Planungsbezogenheit) und die gegebenen Handlungsalternativen (Entscheidungsfeldbezogenheit). Das adäquate Wertermittlungsverfahren ist bei finanzieller Zielsetzung das Zukunftserfolgswertver-
Arbitriumwert fahren auf der Basis des erwarteten künftigen Zahlungsstroms zwischen Unternehmung und Bewertungssubjekt bei Verwendung der Rendite der besten Vergleichsalternative als Kapitalisierungszinsfuß, der aus Grenzverwendungen, d.h. als Grenzzinsfuß herzuleiten ist, damit der Zukunftserfolgswert den subjektiven Mindestpreis (Verkäufersicht) oder den subjektiven Höchstpreis (Käufersicht) angibt. Die funktionale Konzeption der Unternehmungsbewertung betont die Aufgabenstellung (Funktion) der Bewertung, d.h. die Abhängigkeit des Wertes vom Rechnungszweck, und bedeutet inhaltlich eine Erweiterung und Integration von subjektiver und objektiver Konzeption. Es werden drei (Haupt-) Funktionen von Unternehmungsbewertungskalkülen unterschieden: 1. die Beratung einer Partei im Hinblick auf die Ermittlung ihrer subjektiven Entscheidungs- oder Konzessionsgrenze (Beratungs- oder Entscheidungsfunktion mit dem Entscheidungswert als Wertgröße), 2. die Vermittlung zwischen den Konfliktparteien im Sinne der Ermittlung einer potenziellen Einigungsgröße (Vermittlungsfunktion mit dem Arbitriumwert als Wertgröße) und 3. die Unterstützung einer Partei bei ihrer Argumentation zur Durchsetzung eines für sie möglichst günstigen Verhandlungsresultats (Argumentationsfunktion mit dem Argumentationswert als Wertgröße). Nach der funktionalen Konzeption gibt es also grundsätzlich nicht einen einzigen Unternehmungswert. Der Wert ist vielmehr eine auf die jeweils konkreten, in einer ganz bestimmten Handlungssituation stehenden Konfliktparteien bezogene (und damit subjektive) Größe und zudem eine Größe, die von der mit ihr zu bewältigenden Aufgabenstellung geprägt ist.
Arbitriumwert 3. Arbitriumwert als potenzieller Einigungswert Der Arbitriumwert als Wertgröße in der Vermittlungsfunktion ist ein von einem unparteiischen Gutachter als Vermittler oder Schiedsrichter vorgeschlagener potenzieller Einigungswert, den er aufgrund der ihm bekannten Informationen für die beteiligten Parteien als annehmbar ansieht. Für einen solchen Einigungswert nennt er die Bedingungen, auf deren Basis der Unparteiische eine Konfliktlösung zwischen den Parteien für möglich hält. Der Arbitriumwert ist grundsätzlich als ein Kompromiss aufzufassen, der für die Parteien zumutbar ist und die Interessen der beteiligten Parteien angemessen wahrt. Zumutbar sind für die Konfliktparteien solche Konfliktlösungen, die mit rationalem Handeln der beteiligten Parteien vereinbar sind, d.h. auf die sich die Parteien in einer nicht dominierten Konfliktsituation, in der keine von ihnen die Eigentumsänderung von sich aus durchsetzen kann, auch im Verhandlungswege verständigen könnten. Zumutbare Konfliktlösungen verletzen die Entscheidungswerte der Parteien nicht. Zumutbar aus der Sicht einer einzigen Konfliktpartei ist ihr Entscheidungswert und alle von ihr als besser eingeschätzten Konfliktlösungen. Für den Fall, dass nur die Höhe des Preises für eine Lösung des Konflikts relevant ist, sind für den Verkäufer alle Preise zumutbar, die mindestens seiner Preisuntergrenze, und für den Käufer alle Preise, die höchstens seiner Preisobergrenze entsprechen. Für beide Seiten zumutbare Konfliktlösungen gibt es dann nur, wenn die Preisuntergrenze des Verkäufers nicht die Preisobergrenze des Käufers übersteigt. Der Arbitriumwert muss folglich in einer solchen Situation zwischen dem niedrigeren, mindestens zu fordernden Preis aus Verkäufersicht und dem höheren, maximal zahlbaren Preis aus Käufersicht liegen, damit er für alle Beteiligten 55
Assessment-Center
Arbitriumwert als zumutbar gelten kann (Grandsatz der Rationalität des Handelns). Mit Hilfe dieses Grundsatzes ist es möglich, den Bereich der für den Arbitriumwert in Frage kommenden Konfliktlösungen einzugrenzen. Wenn mehrere Konfliktlösungen als zumutbar gelten können, d.h. wenn es in der betrachteten einfachen Konfliktsituation um den Preis eine Spanne zwischen der Mindestpreisforderung des Verkäufers und dem Höchstpreisgebot des Käufers gibt, ist es erforderlich, mit Hilfe des Grundsatzes der parteienbezogenen Angemessenheit diejenige Konfliktlösung als Arbitriumwert auszuwählen, die den Vorstellungen der konfligierenden Parteien hinsichtlich einer fairen Übereinkunft am besten entspricht. Dies könnte zum Beispiel eine hälftige oder wertrelationale Teilung der Differenz zwischen Preisunter- und -obergrenze sein. Sofem die Verfahren der (älteren wie jüngeren) objektiven Wertlehre von den Parteien akzeptiert werden und die damit ermittelte Wertgröße die Entscheidungswerte der Parteien nicht verletzt, könnte zur Ermittlung eines Arbitriumwertes auch auf sie zurückgegriffen werden. Manfred Jürgen Matschke Assessment-Center Qualifizierte Mitarbeiter zu finden, die auch zum Unternehmen passen, wird insbesondere in schwach besetzten Bewerbermärkten immer schwieriger. Fehlentscheidungen führen nicht selten zur Fluktuation eines neuen Mitarbeiters und damit zu neuerlichen kostenintensiven Beschaffungsaktivitäten. Besonders ärgerlich ist dabei, dass das mit einer freien Stelle verbundene Aufgabenvolumen über längere Zeit nicht bewältigt werden kann. Optimale Auswahlentscheidungen werden also angestrebt, unterschiedliche Instrumente werden hierfür eingesetzt. Das Assessment-Center setzt sich durch seine hohe Zuverlässigkeit mittlerweile immer mehr durch und auch die Akzeptanz 56
dieses Instrumentes nimmt zu. Allerdings wird die Anwendung des AssessmentCenters in seiner Komplexität häufig unterschätzt, und fehlende Professionalität in der Anwendung kann die Zuverlässigkeit in der Bewerberauswahl deutlich einschränken. Das Assessment-Center ist ein Gruppenauswahlverfahren, mit dessen Hilfe im Normalfall bis zu acht Bewerber in unterschiedlichen Aufgabenstellungen/Übungen gleichzeitig von mehreren Personen über eine Dauer von bis zu drei Tagen beobachtet werden. Durch den Austausch der Beobachtungsergebnisse und die gemeinsame Bewertung der Beobachter wird die Auswahlentscheidung auf eine fundiertere Datenbasis gestellt und die Wahrscheinlichkeit einer richtigen Auswahlentscheidung steigt. Wichtig ist hierbei, dass für jeden Bewerber in jeder Übung mindestens zwei Beobachter zur Verfügung stehen, damit ein Beobachtungsvergleich stattfinden kann. Der am weitaus schwerwiegendste und am häufigsten auftretende Fehler bei der Gestaltung eines Assessment-Centers besteht in der Auswahl der Aufgabenstellungen bzw. Übungen für die Teilnehmer. Nur wenn die zu bewältigenden Aufgaben auch tatsächlich die Fähigkeiten und Fertigkeiten testen, die mit den Anforderungen der zukünftigen konkreten Aufgaben in engem Zusammenhang stehen, wird die Auswahlentscheidung optimal ausfallen. Hierzu ist es erforderlich, die Beobachter intensiv auf ihre Beobachteraufgabe vorzubereiten. Wenig erfahrene Beobachter sind häufig nicht in der Lage, Beobachtung und Bewertung voneinander zu trennen, oder schließen unzulässigerweise aufgrund gewisser Vorerfahrungen z.B. mit anderen Mitarbeitern von tatsächlich beobachtetem Verhalten auf andere Verhaltensweisen, die nicht beobachtet wurden. Nicht in jedem Fall macht es Sinn, Assessment-Center für die Personalauswahl durchzuführen. So werden externe Kan-
Assessment-Center didaten, die bereits heute eine Führungsaufgabe wahrnehmen, eher selten bereit sein, an einem Assessment-Center teilzunehmen, da durch das Gruppenauswahlverfahren die Vertraulichkeit der Bewerbung nicht mehr gewährleistet werden kann. In solchen Konstellationen kann auch ein Einzel-Assessment sinnvoll sein, hierbei bleibt die Vertraulichkeit gewahrt, da immer nur ein Kandidat beobachtet wird und das Zusammentreffen der einzelnen Kandidaten in der Gruppe vermieden wird. Die Akzeptanz eines Assessment-Centers bei den Teilnehmern ist in besonderem Maße davon abhängig, inwieweit die Teilnehmer eine intensive Rückmeldung über ihr gezeigtes Verhalten am besten direkt im Anschluss an das AssessmentCenter erhalten. Unternehmen unterschätzen häufig den Imageschaden, wenn sie glauben, sich mit den nicht ausgewählten Bewerbern weniger Mühe bei der Auswertung geben zu müssen (s.a. -> Mitarbeiterauswahl) Bei der Durchführung eines internen Assessment-Centers ist mit den vermeintlichen Verlierern, die für die Stellenbesetzung nicht ausgewählt wurden, sehr sensibel umzugehen. Zum einen um den Kandidaten nicht dauerhaft zu frustrieren und um sie zu ermuntern, ihre Verbesserungspotenziale durch gezielte Maßnahmen in die Praxis umzusetzen. Werner Fröhlich Auditing Auditing bezeichnet eine prozessunabhängige Überwachungsfunktion. Bestimmte Prüfobjekte (Unternehmen, Prozesse, Systeme) werden einer Prüfung (Audit) anhand verschiedener Prüfkriterien unterzogen. Feststellungen und Empfehlungen werden in einem Prüfbericht festgehalten. Es wird zwischen einem External und einem Internal Auditing unterschieden. 1. External Auditing Unter externen Audits versteht man gesetzlich vorgeschriebene Pflichtprüfungen
Auditing sowie durch staatliche Stellen, Eigentümer oder Aufsichtsorgane veranlasste Prüfungen. •
Gesetzl. vorgeschr. Pflichtprüfungen In Abhängigkeit von der Rechtsform und ggf. der Größe sind Jahresabschluss sowie bestimmte Sondervorgänge (u.a. Gründung, -> Verschmelzung, -» Kapitalerhöhung gegen Sacheinlage) durch einen Wirtschaftsprüfer zu prüfen. Betroffen sind u.a. -> AG, -> KGaA, -> GmbH, bergrechtliche Gewerkschaften, -» Genossenschaften, Vereine, Stiftungen, juristische Personen des öffentlichen Rechts, Gebietskörperschaften. Prüfkriterien sind im wesentlichen Einhaltung der -» GoB sowie der gesetzlichen Vorschriften insbesondere lt. HGB und AktG. Ähnlichen Verpflichtungen unterliegen bestimmte Wirtschaftszweige wie z.B. Kreditinstitute, Versicherungen, Börsenmakler, Bauträger. Gegenstand der Prüfung ist neben Jahresabschluss und Sondervorgängen auch die Einhaltung spezifischer Normen und Verhaltensregeln.
•
Hoheitliche Prüfungen Die bekannteste unter diesen Prüfungen ist die steuerliche Betriebsprüfung durch die Finanzbehörden. Weitere Prüfungen beziehen sich u.a. auf: Einhaltung von Zollvorschriften, Berechnung und Abführung von Sozialversicherungsbeiträgen, Einhaltung außenhandelsrechtlicher Vorschriften.
•
Sonstige externe Prüfungen Externe Prüfer (nicht notwendigerweise Wirtschaftsprüfer) können auch durch die Aufsichtsorgane oder Eigentümer einer Gesellschaft mit der Durchführung bestimmter Prüfungen beauftragt werden. Die Anlässe können vielgestaltig sein; oft sind vermutete Unregelmäßigkeiten (Gesetzesverstoß, Misswirtschaft oder dgl.) der Anlass. In diesem Zusammenhang 57
Auditing sind erwähnenswert das in § 111 Abs. 2 Satz 2 AktG festgehaltene Recht des Aufsichtsrats einer AG, einen "Sachverständigen" mit der Prüfung bestimmter Vorgänge zu beauftragen, oder das Recht der Hauptversammlung zur Bestellung eines Sonderprüfers nach § 142 AktG. 2. Internal Auditing Das Internal Auditing (auch Innenrevision) unterscheidet sich vom Extemal Auditing dadurch, dass es im Auftrag der Geschäftsführung tätig wird. Es handelt sich um eine unternehmensinterne, prozessunabhängige Stelle, die durch systematische Prüfungen die Ordnungsmäßigkeit, Funktionsfähigkeit, Sicherheit, Wirtschaftlichkeit und Rechtmäßigkeit der betrieblichen Abläufe zu überwachen hat. Hiervon zu unterscheiden sind die in die Prozesse integrierten Sicherungs- und Kontrollmechanismen des Internen Kontrollsystems. Internes Kontrollsystem und Innenrevision bilden zusammen das sog. Überwachungssystem, das seinerseits Teil des Risikomanagementsystems ist. Die Aufgaben der Innenrevision können ganz oder teilweise externen Stellen übertragen werden; die Beauftragung durch die Geschäftsführung kennzeichnet die Funktion auch dann als Internal Auditing. Die Verpflichtung zur Wahrnehmung der genannten Überwachungsaufgaben ergibt sich aus den Grundsätzen einer ordnungsgemäßen Geschäftsführung. Für AGs (mit Ausstrahlungswirkung auf Gesellschaften anderer Rechtsform) ist die Verpflichtung in § 91 Abs. 2 AktG verankert, der vom Vorstand die Einrichtung eines Überwachungssystems verlangt; lt. Begründung des Regierungsentwurfs umfasst dies ausdrücklich auch die Einrichtung einer Innenrevision. Nach § 3 1 7 Abs. 4 AktG sind die Einrichtung und Funktionsfähigkeit des Überwachungssystems ihrerseits Gegenstand einer externen Pflichtprüfung durch den Abschlussprüfer (-> Abschlussprüfung). 58
Auditing Die Innenrevision stellt in regelmäßigen Abständen einen über 1 oder 2 Jahre laufenden Prüfungsplan auf, der die in dieser Zeit geplanten Prüfungen enthält. Pro Prüfung sind Prüfobjekt, Inhalt der Prüfung, benötigte Personalkapazität und sonstige Einzelheiten angegeben. Grundlage der Planung ist eine Übersicht über alle denkbaren Prüfobjekte (Audit Universe, langfr. Prüfungsplan), die ihrerseits nach Organisationseinheiten (z.B. Unternehmen, Werk, Stelle) und/oder Prozessen (z.B. Beschaffungsvorgang, Materialdurchlauf, Rechnungserstellung) gegliedert ist. Die jährlichen Prüfpläne ergeben sich aus dem Audit Universe durch die Häufigkeit und Intensität, mit der die einzelnen Prüfobjekte zu prüfen sind. Diese hängen ihrerseits wieder von der Bedeutung des Prüfobjektes für das Unternehmen (angegeben in Umsatz, Ergebnis, Anzahl Mitarbeiter oder dgl.) und den mit dem Prüfobjekt verbundenen Risiken (Vermögensverluste, Imageschäden, Gesetzesübertretungen, Fehlinformationen durch Fehlverhalten, mangelhaftes Internes Kontrollsystem oder ineffizient organisierte Prozesse) ab. Entwickeln eines Audit Universe, prozessorientierte Risikoanalyse und Erstellen jährlicher Prüfpläne können durch den Einsatz von DV-Software unterstützt werden. Der einzelne Audit ist sowohl auf die Funktionsfähigkeit, Sicherheit und Wirtschaftlichkeit der Prozesse (Systemprüfung) als auch auf die Einhaltung der vorgeschriebenen Abläufe und Regeln (Ordnungsmäßigkeitsprüfung) gerichtet. Feststellungen und Empfehlungen werden vor endgültiger Fertigstellung des Prüfberichts mit den Verantwortlichen der geprüften Organisationseinheiten diskutiert (Schlussbesprechung). Die Umsetzung von Empfehlungen wird über Follow-UpPrüfungen nachgehalten. Die moderne Innenrevision richtet ihr Augenmerk zunehmend auf die Systemprüfung, weshalb neben allgemeinem
Auditing betriebswirtschaftlichen Wissen immer mehr Spezialkenntnisse (z.B. in Organisation, Wirtschaftlichkeitsrechnung, Informationsverarbeitung, Finanzderivaten) erforderlich werden. Hieraus resultiert u.a. auch, dass neben die klassischen Ex-Post-Prüfungen projektbegleitende Prüfungen, Ex-Ante-Prüfungen von Systemen und Abläufen sowie regelrechte Beratungsaufträge treten. Die Erfahrungen mit prozessabhängigen Risikoanalysen führen dazu, dass die Innenrevision oft auch eine Rolle im -> Risikomanagement (z.B. bei der Festlegung von Regeln oder der Erstellung eines Risikoatlasses) spielt. Hier wie bei allgemeiner Beratungstätigkeit ist allerdings auch eine gewisse Zurückhaltung geboten, weil dabei leicht die für spätere Prüfungen erforderliche Unabhängigkeit verloren geht. Willem Baan Aufbauorganisation Im Rahmen der Aufgabenerfiillung eines Unternehmens regelt die Aufbauorganisation die Aufgliederung des Unternehmens in organisatorische Teilbereiche (-> Organisationsstruktur). Die Untergliederung dieser Teilbereiche, ihre Koordination und ihre hierarchische Einordnung mit den Informations- und Weisungswegen im Unternehmen bilden das Wesen der Aufbauorganisation. Man unterscheidet dabei nach den (Aufgaben-) Merkmalen der Verrichtung (Funktionalorganisation) und des Objekts (-> Geschäftsbereichsorganisation). Damit behandelt die Aufbauorganisation eine Hälfte des Organisationsproblems im Unternehmen, während Fragen nach Raum und Zeit der Aufgabenerfiillung durch die -> Ablauforganisation festgelegt werden. Aufsichtsrat Aktiengesellschaft
Aufsichtsratsvergütung Aufsichtsratsvergütung 1. Grundlagen Die gesellschaftsrechtliche Basis für die Vergütung von Aufsichtsratsmitgliedem deutscher -> Aktiengesellschaften findet sich in § 113 AktG. Danach obliegt die Festsetzung der Entlohnung der Hauptversammlung entweder direkt in jedem Geschäftsjahr oder durch Beschluss einer festen Regelung in der Satzung (Abs. 1), der in der Praxis weitaus verbreiteteren Variante. Hinsichtlich variabler Vergütungsbestandteile findet sich zudem eine explizite Vorschrift in §113 Abs. 3, Satz 1: "Wird den Aufsichtsratsmitgliedern ein Anteil am Jahresgewinn der Gesellschaft gewährt, so berechnet sich der Anteil nach dem Bilanzgewinn, vermindert um einen Betrag von mindestens vier vom Hundert der auf den Nennbetrag der -> Aktien geleisteten Einlagen." Nach herrschender Meinung ist das Verbot entgegenstehender Festsetzungen allerdings auf aufsichtsratsbegünstigende Regelungen beschränkt. Steuerrechtlich ergibt sich insofern eine Besonderheit, als nach § 10 Nr. 4 KStG nur die Hälfte der gewährten Vergütung auf Seite der Gesellschaft steuerwirksam abgesetzt werden kann. 2. Entlohnungsformen der Praxis In der Praxis lassen sich die folgenden Entlohnungsformen beobachten: -
Fixentlohnung: Hierbei handelt es sich um eine betragsmäßig fixierte Vergütung, also ohne variable Komponente. Längerfristig bedeutet dies natürlich nicht zwangsläufig einen konstanten Anspruch. Gerade bei jährlich von der Hauptversammlung festzusetzenden Vergütungen, die regelmäßig in einem festen Betrag bestehen, kann und sollte zumindest theoretisch eine Anpassung an zwischenzeitlich erfolgte Änderungen hinsichtlich der "Aufgaben der Aufsichtsratsmitglieder und der Lage der Gesellschaft" (§113 Abs. 1 Satz 3) erfolgen. Schließlich können auch einschlägige Satzungsbe59
Aufsichtsratsvergütung Stimmungen im Zeitverlauf geändert werden, zumal der Gesetzgeber hier explizit nur eine einfache Stimmenmehrheit in der Hauptversammlung vorschreibt (§ 113 Abs. 1 Satz 4). -
-
60
Gewinnabhängige Vergütungen: In Anbetracht des zitierten § 113 Abs. 3 wäre hier eine explizite Bezugnahme auf den Bilanzgewinn zu erwarten. Tatsächlich herrscht aber in der Praxis bei gewinnabhängigen Regelungen fast ausnahmslos eine Koppelung der Aufsichtsratstantieme an die Ausschüttung vor, und zwar entweder an den Betrag pro Aktie oder den Vomhundertsatz der Dividende. Die große Verbreitung derartiger Regelungen sowie ihre trotz der zitierten Gesetzesformulierung mangelnde Kritik seitens der Rechtswissenschaft spricht somit für eine nur geringfügige Einschränkung der Nutzung anderer Bemessungsgrundlagen. Wichtig erscheint bei dieser Vergütungsform, dass sie in der Realität selten ohne ein zusätzliches Fixum oder die Garantie eines Mindestbetrags auftritt. In seltener auftretenden Fällen wird außerdem eine Obergrenze hinsichtlich des variablen Anteils gesetzt, d.h. eine Erhöhung der Dividende über einen festgesetzten Wert hinaus führt zu keiner Erhöhung der Aufsichtsratsbezüge. Sonstige: Hier werden die bisherigen Entlohnungsformen üblicherweise durch weitere Komponenten ergänzt. Dabei werden zum Teil Sachleistungen gewährt, die sich aus dem Produktionsprogramm des jeweiligen Unternehmens rekrutieren. Zum Teil werden in einigen Satzungen aber auch besondere Spesen bzw. Auslagenerstattungen direkt als Bestandteil der Entlohnung genannt, die bei anderen Gesellschaften oft ohne eigene Erwähnung gezahlt werden. Eine mitunter gewichtige Position stellt das Sitzungsgeld dar, das in seiner Höhe nicht nur wegen der von der Gesell-
Aufsichtsratsvergütung schafl gestellten Verpflegung regelmäßig über seine eigentliche Funktion als Kostgeld hinausgeht. Schließlich wird in der jüngeren Vergangenheit auch über eine Einbeziehung aktienkursorientierter Vergütungsbestandteile nachgedacht, worauf in Abschnitt 3 zurückzukommen sein wird. Eine besondere Vorgabe findet man bei den Arbeitnehmervertretern im Aufsichtsrat. Alle Mitglieder, die einer DGBGewerkschaft angehören, sind gehalten, Teile ihrer Vergütung an die HansBöckler-Stiftung abzuführen. Obwohl dabei bereits jedes Einkommen, das 6.000 DM übersteigt, vollständig von der Stiftung vereinnahmt wird (eine Anhebung der Mindestbeträge für das Einsetzen der progressiv gestaffelten Abführungsquoten ist für die Zukunft nach einem Beschluss des DGB-Kongresses 1998 zu erwarten), weigern sich die Betroffenen in der Praxis nur selten, diese Abgabe zu leisten. Die letzte wichtige Unterscheidung betrifft die Frage hinsichtlich der Zuordnung der Bemessungsgrundlage auf den gesamten Aufsichtsrat oder einzelne Mitglieder. Nach herrschender Meinung können sich Satzung oder Hauptversammlung darauf beschränken, eine Vergütung für den gesamten Aufsichtsrat festzulegen. Die Aufteilung des Betrages erfolgt dann durch den Aufsichtsrat als Ganzes oder einen zuständigen Ausschluss. In der Praxis wird dieses Verfahren üblicherweise auf den variablen Vergütungsbestandteil beschränkt, wobei teilweise zusätzlich eine Tantieme für die einzelnen Mitglieder gewährt wird. Bei mitgliedsbezogener Zuordnung wird dem Vorsitzenden und seinem Stellvertreter regelmäßig ein Zuschlag gegenüber ordentlichen Mitgliedern gewährt (zumeist 100% der Standardvergütung für ersteren und 50% für letzteren). 3. Ökonomische Sicht Aus ökonomischer Sicht gilt heute die Agency-Theorie als intellektueller
Aufspaltung
Aufsichtsratsvergütung Referenzpunkt für die Entlohung von Managern im Allgemeinen und entsprechend auch von Aufsichtsräten im Besonderen. Damit sind die rechtlichen Vorgaben zur Aufsichtsratsvergütung sowie die auf ihnen beruhenden Gestaltungen in der Praxis vor allem daraufhin zu untersuchen, ob sie den Aufsichtsräten als "Agenten" geeignete Anreize bieten, im Interesse ihrer "Prinzipale", also der Aktionäre, zu agieren (die Arbeitnehmer im Aufsichtsrat sind dabei wegen ihrer offensichtlich anderen Vertretungsfunktion auszuklammern). Dabei darf zumindest bei Aktionären von Publikumsgesellschaften typischerweise als dominierendes Ziel die Marktwertmaximierung des Eigenkapitals unterstellt werden. In der beschriebenen Vergütungspraxis findet sich zumindest bis zur Mitte der neunziger Jahre keine Bemessungsgrundlage für variable Vergütungsbestandteile, die direkt mit dieser Zielsetzung der Aktionäre korrespondiert. Allerdings kann daraus noch nicht ausgeschlossen werden, dass die normalerweise verwendete Anbindung der Vergütung an buchhalterische Erfolgsgrößen den Aufsichträten keine Anreize bietet, sich fiir eine Maximierung der um Dividenden und Kapitalmaßnahmen bereinigten Aktienkurssteigerungen einzusetzen. Anreizkompatibilität in dem Sinne, dass die Aufsichtsräte aus dem Belohnungssystem nur dann einen Vorteil erzielen, wenn sie so agieren, dass auch die Aktionäre davon profitieren, kann nämlich tendenziell auch ohne direkten Bezug der Vergütung auf Kursentwicklungen erzielt werden. Die Verwendung von geeignet konstruierten Bezugsgrößen auf der Basis von Zahlen des betrieblichen Rechnungswesens hat dabei den Nachteil, dass die Entwicklungen der Bemessungsgrundlage der Vergütung einerseits sowie der Aktienperformance andererseits nicht durchgängig parallel verlaufen. Ihr Vorteil besteht darin, dass diese Kennzahlen direkter vom Management beeinflusst werden können und ihm gemäß den Ergebnissen
einschlägiger Studien regelmäßig trauter sind als Kapitalmarktgrößen.
ver-
Eine eingehende Untersuchung der bisher verwendeten Bemessungsgrundlagen zeigt indessen, dass Anreizkompatibilität im oben beschriebenen Sinne durch sie nicht gewährleistet ist. So verwundert es nicht, dass sich empirisch kein signifikanter Zusammenhang zwischen der Vergütung von Aufsichtsräten und Marktwertsteigerungen des Eigenkapitals nachweisen lässt, obwohl mitunter ein solcher Zusammenhang zwischen Vergütung und buchhalterischen Kenngrößen vorliegt. Insofern ist es zu begrüßen, dass in der jüngeren Vergangenheit anlässlich der Einführung von Optionsprogrammen (->• Optionsplan) für die Entlohnung von Führungskräften (-> Führungskräfteentlohnung) auch die Anbindung der Aufsichtsratsvergütung an aktienkursorientierte Bemessungsgrundlagen erörtert wird. In diesem Zusammenhang genannte Gründe für die zumindest im Vergleich mit Optionsbegebungen an Vorstände bislang äußerst bescheidene Umsetzung entsprechender Überlegungen in konkrete vertragliche Arrangements erweisen sich bei näherer Betrachtung als wenig stichhaltig. Deshalb ist davon auszugehen, dass im Zuge der stärkeren Verbreitung von aktienkursorientierter Managemententlohnung hierzulande bald auch die Aufsichtsratsvergütung öfter derartige Komponenten enthalten wird. Ein hoher Grad an Anreizkompatibilität wird sich dabei aber nur einstellen, wenn den vielfältigen Problemen solcher Entlohnungssysteme hinreichend Rechnung getragen wird. Literatur: Knoll/Knoesel/Probst, ZfbF 49/1997, S. 235-254; Laux, Risikoteilung, Anreiz und Kapitalmarkt, Berlin et al. 1998; Mager, BB 54/1999, S. 1389-1394; Schmid, ZfB 67/1997, S. 67-83; Wenger/Knoll, BFuP 51/1999; Zimmer, DB 52/1999, S. 999-1003.
Leonhard Knoll Aufspaltung -> Unternehmensspaltung 61
Au ftr agsproduktion Auftragsproduktion Einzelfertigung Aufwandsartenmethode Gesamtkostenverfahren AÜG -> Arbeitnehmerüberlassung Ausgleicbsgesetz der Planung Bei dem von Gutenberg verfassten Ausgleichsgesetz der Planung geht es um die Orientierung der operativen Planung an einem Engpaß. Im Gegensatz zur strategischen -» Planung kann man in der operativen Planung nicht kurzfristig einen Engpaß beheben und muss sich somit an ihm orientieren. Bestehen in einem Fertigungssystem unterschiedliche Kapazitäten, so wird die Fertigungsstufe mit der geringsten Kapazität als Engpaß bezeichnet. Aufgrund dieser Unterkapazität der einen Fertigungsstufe muss sich das Gesamtsystem an diesem Engpaß ausrichten, somit sinkt auch die Gesamtleistung. Das Ausgleichsgesetz der Planung geht davon aus, dass langfristig versucht wird den Engpaß auf das Niveau der anderen Teilbereiche zu erhöhen um so die Gesamtleistung zu steigern. Ausgliederung -> Unternehmensspaltung Auslandsbeteiligungen Auslandsbeteiligungen bezeichnen den Erwerb von Anteilen an ausländischen Unternehmen (-» Auslandsinvestition). Das Ziel einer Auslandsbeteiligung kann einerseits darin bestehen, auf das beteiligte Unternehmen direkten Einfluss auszuüben Direktinvestition). Zum anderen kann eine Auslandsbeteiligung als reine Portfolioinvestition getätigt werden. Kennzeichen einer Auslandsbeteiligung ist der Erwerb von Anteilen an einer anderen Unternehmung. Dies geschieht durch eine Kapitaleinlage (Geld- oder Sacheinlage). Für Auslandsbeteiligungen gibt es verschiedene Motive. Diese können zum 62
Auslandsgesellschaft einen in einer Vermeidung der nationalen Standortnachteile, zum anderen in der Erlangung von Kundennähe oder in Kooperationen mit ausländischen Unternehmen oder Zulieferern begründet sein. Vielfach dienen Auslandsbeteiligungen auch als Zugang zu neuen Absatzmärkten. Internationale Unternehmen errichten durch Auslandsbeteiligungen globale Unternehmensnetzwerke und besitzen oftmals mehrere Hundert solcher Investitionen. Für kleine und mittelständische Unternehmen bieten Auslandsbeteiligungen eine Möglichkeit, die internationale Präsenz aus- bzw. aufzubauen. Wesentliche Fragen, die im Zusammenhang mit Auslandbeteiligungen auftauchen, sind rechtliche und steuerliche Regelungen und die Kontrolle der Auslandsbeteiligung. Manfred Perlitz/Thorsten Peske Auslandsgesellschaft 1. Definition Die Auslandsgesellschaft ist die Form der internationalen Unternehmenstätigkeit mit dem höchsten Wertschöpfungsgrad im Ausland; ihr liegen im Vergleich zu anderen Tätigkeitsformen wie -> Export oder Kooperationen ohne Kapitalbeteiligung -> Direktinvestitionen zu Grunde. Wertaktivitäten und Ressourcen werden langfristig in die Auslandsgesellschaft verlagert, die die umfassendste Art der Auslandstätigkeit darstellt, schließt sie doch meistens den Export und die -> Lizenzvergabe vom Stammhaus mit ein. Drei strategische Dimensionen müssen bei der Gründung einer Auslandsgesellschaft grundsätzlich festgelegt werden: die Leistungsstrategie, die Eigentumsstrategie und die Markteintrittsstrategie (vgl. Abbildung). Die Entscheidung für die Gründung einer Auslandsgesellschaft im Vergleich zu der Aufnahme anderer Formen der internationalen Aktivität ist im Schrifttum insbesondere aus der Sicht der Prozessschule diskutiert.
Auslandsgesellschaft
Auslandsgesellschaft
Strategien und Art der Auslandsgesellschaft: Strategien | M e r k m a l e der Auslandsgesellschaft
Leistungsstrategie
I Eigene | Verkaufsnie[ derlassung im | Ausland
Eigene Produktionsniederlassungen im Ausland AuslandsAuslandsmontage Produktion 100%ige Tochtergesellschaft
Eigentums 1 j 0 j n ( y e n t u r e Strategie Marktein- I ^ Erwerb / Neugründung Akquisition Strategie |
• Die Leistungsstrategie Die Leistungsstrategie beschreibt die Gestaltung der Auslandsgesellschaft im Hinblick auf den ins Ausland verlagerten Wertschöpfungsanteil. Reine Verkaufsniederlassungen im Untemehmensverbund bedingen zwar Direktinvestitionen, die Leistungsbasis beruht aber letztlich auf der Abwicklung des Exportes des Stammhauses. Bei der Auslandsmontage (Lohnveredlung) wird lediglich die letzte - meist sehr arbeitsintensive - Stufe des mehrstufigen Produktionsprozesses ins Ausland verlagert; Vorprodukte werden aus dem Stammhaus bezogen. Bei der A uslandsproduktion (Ferti gungsbetrieb) findet eine Verlagerung des gesamten oder anteiligen Produktionsprozesses statt. Aus Kostengründen oder Localcontent-Vorschriften werden Vorprodukte größtenteils aus dem Gastland bezogen. Die Wahl zwischen den Alternativen der Leistungsstrategie lässt sich mit dem eklektischen Ansatz von Dunning (1981) thematisieren. • Die Eigentumsstrategie Unternehmen entscheiden sich insbesondere dann für eine 100%-ige Tochtergesellschaft, wenn sie das Ziel der uneingeschränkten Einflussnahme auf das Management der zu gründenden Auslandsgesellschaft verfolgen. Die Vorteile dieser Eigentumsstrategie liegen in der Verminderung von Transaktionskosten (Buckley/ Casson 1976; Dunning 1981), in der alleinigen Verfügungsgewalt und damit leichteren Einbindung in die Unterneh-
mensstrategie und dem besseren Schutz des eigenen Know-hows (Daniels/Radebaugh 1986). Gegen diese Strategie sprechen der hohe Kapital- und Ressourceneinsatz und das damit verbundene größere Risiko der Investition (Welge/ Holtbrügge 1998). Unter einem -» Joint Venture versteht man im internationalen Kontext eine eigenständige internationale Auslandsgesellschaft, an deren Gründung und Führung zwei (oder mehr) Partner unterschiedlicher Nationalität zum Zwecke der Verfolgung ihrer jeweiligen Ziele beteiligt sind. Die Vorteile eines Joint Ventures sind insbesondere im Zugang zu Ressourcen und lokalen Markt- und Landeskenntnissen des (lokalen) Partners und in der Umgehung staatlicher Restriktionen für 100%-ige Tochtergesellschaften zu sehen, außerdem können abhängig vom konkreten Partner Kostendegressions- und Synergieeffekte realisiert werden (vgl. ausführlich Contractor/ Lorange 1988). Die Führung von Joint Ventures ist jedoch auch mit besonderen Problemen verbunden, die sich vor allem in vielfältigen Ziel- und Verhaltenskonflikten niederschlagen, die die Integration der Auslandsgesellschaft in den Unternehmensverbund erheblich erschweren und hohe Kontroll- und Koordinationskosten verursachen können. Nachteilig ftir ein Unternehmen können sich auch die schwierige Entscheidungsfindung und die unkontrollierte Know-how-Diffusion auswirken (Welge/ Holtbrügge 1998). Hier ist insbesondere die richtige Partnerwahl von entscheidender Bedeutung flir den Erfolg der Auslandsgesellschaft (Kumar 1995). Absolute Aussagen über die Vorteilhaftigkeit der beiden Eigentumsformen lassen sich abschließend nur vor dem Hintergrund der situationsspezifischen Unternehmens- und Gastlandmerkmale treffen. Grundsätzlich zeigt sich jedoch beispielsweise, dass kleine und mittlere Unternehmen tendenziell eher die Eigentumsform des Joint Ventures bevorzugen. Allgemein nimmt die Neigung zur Ko63
Auslandsinvestition
Auslandsgesellschaft operation auch mit dem perzipierten Investitionsrisiko und zunehmender kultureller Distanz zum Heimatland zu. • Die Markteintrittsstrategie Die Wahl der Markteintrittsstrategie ist ebenfalls mit Ansätzen der modernen Unternehmenstheorie - z.B. RessourceDependency (-» Ressourcentheorie) oder der -»Transaktionskostentheorie - zu erklären. Es geht nämlich um die Entscheidung, ob beim Aufbau einer Auslandsgesellschaft ganz oder teilweise auf die Ressourcen eines bereits bestehenden Unternehmens im Gastland zurückgegriffen (-> Unternehmensakquisition/ Beteiligungserwerb) oder ein vollständig neues Unternehmen gegründet werden soll (Unternehmensneugründung). Die Vorteile eines Unternehmenserwerbs (brownfield investment) bestehen vor allem in der Schnelligkeit des Markteintritts und in der Nutzung bestehender Ressourcen, z.B. der Unternehmens- und Personalstrukturen. Damit verbunden ist häufig ein geringerer Kapitaleinsatz, der sich beispielsweise auf Unterbewertungen zurückführen lässt. Als problematisch erweist sich aufgrund schlecht zugänglicher und sehr unsicherer Informationen jedoch oftmals die Suche nach einem für einen Erwerb geeigneten Unternehmen und hier insbesondere die Bewertung der Übernahmekandidaten bei cross-border acquisitions. Ungeklärte Eigentumsverhältnisse und Altschulden können hier vor allem in den Transformationsländern ein besonderes Risiko darstellen. Auch die durchaus erfolgskritischen Schwierigkeiten der Integration des bestehenden Unternehmens mit seiner spezifischen Unternehmenskultur und -struktur in den eigenen Untemehmensverbund sind zu erwägende Nachteile dieser Markteintrittsform (Kutschker 1989). Dementsprechend zeigen sich die Vorteile einer Neugründung (greenfield investment) vor allem im größeren Entscheidungsspielraum bei der Gestaltung und Einbindung der Auslandsgesellschafl
64
(z.B. Standort, Konfiguration der Wertkette) in den eigenen Verbund. Außerdem können regionalpolitische Fördermaßnahmen der Gastlandregierung genutzt und behördliche Restriktionen (z.B. Kartellrecht) umgangen werden. Nachteilig gegenüber der Strategiealternative der Akquisition ist selbstverständlich der langsame Markteintritt, der zwar die Möglichkeit der Abschöpfung von Pionier-Gewinnen schmälert, aber gerade auch kleinen und mittleren Unternehmen wiederum die Wahrnehmung von Lerneffekten beim Markteintritt ermöglicht. Somit hängt auch die Wahl der Markteintrittsstrategie wesentlich von den Unternehmens- und gastlandspezifischen Merkmalen ab (Kutschker 1989). Literatur: Buckley, P.J/Casson, M.: The Future of the
Multinational
Enterprise,
London
1976;
Contractor, F.J./Lorange, P. (Hrsg.): Cooperative Strategies in International Business,
1988; Da-
niels, J./Radebaugh, L.: International
Business,
4.Aufl., Reading/Mass 1986; Dunning, J.: International Production and the Multinational Enterprise,
1981;
Kumar,
B.N.:
Partner-selection-
criteria and Success of Technology Transfer, in: Kumar, B.N. (Hrsg.), Euro-Asian M a n g e m e n t and Business 1 - Cross-border Issues,
Management
International Review, Special Issue 1/1995, S. 6 5 78; Kutschker, M. : Akquisition, internationale, in: Macharzina,
K/
wörterbuch
Export
Welge, und
M.K.
(Hrsg.),
Internationale
HandUn-
ternehmung, Stuttgart 1989, Sp. 1-22; Welge, M. K./Holtbrügge, D.: Internationales
Management,
L a n d s b e r g / L e c h 1998.
Brij Nino Kumar/Ina Graf Auslandsinvestition 1. Begriff und Ziele von Auslandsinvestitionen Als Auslandsinvestition bezeichnet man die Übertragung inländischen Kapitals in das Ausland bzw. die Investition von im Ausland aufgenommenen Finanzmitteln. Der Begriff A. ist der Oberbegriff für -> Direktinvestition und Portfolioinvestition im Ausland. Bei einer Portfolioinvestition, die auch als "indirekte Auslandsinvestition" bezeichnet wird, besitzt der Investor ausländische Wertpapiere oder andere Kapitalanlagen, ohne dass er Einfluss auf die Geschäftsführung der
Automatisierung
Auslandsinvestition betroffenen Unternehmen nimmt. Bei einer Direktinvestition ist hingegen eine Einflussnahme maßgeblich. Beiden Arten der Auslandsinvestition gemeinsam ist das Ertragsmotiv. Portfolioinvestitionen sind durch das Ausnutzen internationaler Zinsdifferenzen, durch international unterschiedliche Steuern, durch Währungsspekulation und durch internationale -> Diversifikation motiviert. Diese Faktoren spielen auch bei Direktinvestitionen eine Rolle, wesentlich ist jedoch das Ziel der unternehmerischen Kontrolle. Der Einfluss auf die Geschäftstätigkeit im Rahmen von Direktinvestitionen impliziert neben dem Kapitaltransfer auch die Übertragung von technischem und betriebswirtschaftlichem Know-how. Bei Portfolioinvestitionen fließen hingegen typischerweise ausschließlich finanzielle Mittel. Wesentliche Unterschiede ergeben sich zudem auch aus dem Investitionsobjekt. Direktinvestitionen sind typischerweise mit physischen Investitionsobjekten wie bspw. Produktionsanlagen verknüpft. Portfolioinvestitionen sind hingegen Wertpapierkäufe, durch die zukünftige Zahlungsansprüche erworben werden. Weil Wertpapiere üblicherweise fungibel sind, können Portfolioinvestitionen kurzfristig revidiert werden. Direktinvestitionen sind hingegen eher langfristiger Natur. 2. Umfang und Entwicklungsperspektiven Direkt- und Portfolioinvestitionen werden in der Zahlungsbilanz im Rahmen der Kapitalverkehrsbilanz ausgewiesen. In der Praxis liegt die Höhe der Portfolioinvestitionen deutlich über der der Direktinvestitionen. Hierbei muss jedoch berücksichtigt werden, dass Direktinvestitionen eher langfristiger Natur sind, während Wertpapierportfolios immer schneller umgeschlagen werden. Die A. haben in den letzten Jahrzehnten deutlich zugenommen. Ein Indikator hierfür ist die Kennzahl internationale Anleihe- und Aktientransaktionen in Prozent des Brut-
toinlandsprodukts, deren Wert in Deutschland im Zeitraum von 1975 bis 1995 von 4,2 auf 135,5 angestiegen ist. Ein ähnlicher Anstieg ist für alle großen Industrienationen zu verzeichnen. In starkem Maße hat in den letztem Jahrzehnten auch der internationale Handel mit Finanzderivaten, also bspw. Futures und Optionen, zugenommen. Triebkräfte für wachsende Portfolioinvestitionen sind die Deregulierung des Kapitalverkehrs, die -> Globalisierung der Finanzmärkte und die rasante Entwicklung der Informations- und Kommunikationstechnologie. Weitere Impulse gehen von den in vielen Ländern steigenden staatlichen Schulden sowie dem Bedeutungszuwachs institutioneller Investoren aus. Da die genannten Trends weiterhin wirken, ist ein weiteres Wachstum von Portfolioinvestitionen zu erwarten. Ein anhaltende Zunahme ist auch bei Direktinvestitionen absehbar, wobei hier internationale Mergers & Acquisitions sowie -> Joint Ventures wesentliche Triebkräfte sind. Frank Seger Ausschüttungsmanagement -> Rücklagen- und Ausschüttungsmanagement Außenfinanzierung -» Finanzierung Aussperrung -» Arbeitskampf Automatisierung Das Bestreben nach immer rationelleren Produktionssystemen hat seit Beginn der Industrialisierung dazu geführt, dass manuelle Arbeit im Produktionsprozess zunehmend durch mechanische Systeme (Maschinen, Werkzeuge, Vorrichtungen) unterstützt wird. Bei einer reinen Mechanisierung werden menschliche Arbeitskräfte von manuellen Tätigkeiten ganz oder teilweise entlastet, während sie nach wie vor die dispositiven (vorbereitenden, überwachenden und steuernden) Tätigkeiten wahrnehmen. Ebenso werden die Bereitstellung des Materials, das Positio65
Automatisierung nieren der Werkstücke, die Rüstung von Werkzeugen sowie die Entnahme der bearbeiteten Werkstücke überwiegend manuell ausgeführt. Dagegen beinhaltet Automatisierung zusätzlich auch die Übernahme lenkender Aufgaben. Die hierbei eingesetzten Automaten gewährleisten einen selbsttätigen programmierten Ablauf der Produktion einschließlich der Steuerung, Kontrolle und Regelung der Produktionsvorgänge. Dem Menschen verbleiben lediglich die Aufgaben der Überwachung und des Eingreifens bei Störungen. Je nach Umfang des Einsatzes von Automaten wird zwischen Teil- und Vollautomatisierung unterschieden. Quantitativ kann der Automatisierungsgrad durch den Anteil der automatisierten Funktionen eines Produktionssystems an der Gesamtzahl der Funktionen angegeben werden, so dass sich für ein vollautomatisiertes Produktionssystem ein Automatisierungsgrad von 1 ergibt. Aussagefähig ist eine derartige Kennziffer jedoch nur dann, wenn eine genaue Abgrenzung des betrachteten Produktionssystems zu Grunde gelegt wird. In einem Industriebetrieb finden sich typischerweise sowohl manuelle als auch teil- und vollautomatisierte Prozesse. Der Gegenstand und die Entwicklungsstufen der Automatisierung sollen exemplarisch für den Bereich der Fertigungstechnik verdeutlicht werden. Die Automatisierung von Fertigungssystemen, insbesondere von Werkzeugmaschinen, geschieht durch den Einsatz numerischer Steuerungs- oder Regelungssysteme. In der ersten Automatisierungsstufe erfolgte die Steuerung der Werkzeugmaschinen mittels Lochstreifen, wobei sowohl der Teileais auch der Werkzeugwechsel vom Arbeiter manuell durchgeführt wurden. Die zweite Stufe ist gekennzeichnet durch einen automatisierten Werkzeugwechsel, der innerhalb von wenigen Sekunden ausgeführt werden kann. Hierbei verfugen die Maschinen über ein Werkzeugmaga66
Automatisierung zin mit unterschiedlichen Einzelwerkzeugen. Gleichzeitig enthalten die zur Maschinensteuerung verwendeten Lochstreifen auch Angaben über die in den einzelnen Arbeitsgängen benötigten Werkzeugein der nächsten Generation wurden die Steuerungen für die NC-Werkzeugmaschinen und die maschinennahen Werkzeugmagazine durch den Einsatz von Mikroprozessoren immer leistungsfähiger (Computer Numerical Control-Systeme). Gleichzeitig wurden Betriebsdaten (z.B. Werkzeugeinsatzzeiten, Arbeitsgangbeginn und -ende, Stückzahlen) rechnergestützt erfasst. In der heutigen Generation werden mehrere NC-Werkzeugmaschinen sowie der Werkzeugwechsel über einen gemeinsamen Rechner gesteuert (Direct Numerical Control-Systeme). Der automatisierte Werkzeugwechsel lässt sich zusätzlich um eine robotergesteuerte Werkzeugzu- und -abfuhr aus einem gemeinsamen Hintergrundmagazin erweitem. Eine robotergesteuerte Teilezuund -abfuhr sowie eine automatische Werkstückeinrichtung sind ebenfalls technisch realisierbar. Derartige Flexible Fertigungssysteme mit mehreren, miteinander verknüpften CNC-Werkzeugmaschinen, die durch ein automatisiertes Transportsystem miteinander verbunden sind, erlangen in der Praxis immer größere Bedeutung. Die computerunterstützte technische Steuerung und Überwachung von mehreren verketteten Flexiblen Fertigungssystemen sowie der zugehörigen Transportund Lagersysteme wird heute unter dem Begriff Computer Aided Manufacturing zusammengefasst. Neben automatisierten Werkzeugmaschinen werden in der modernen Produktion häufig auch Industrieroboter eingesetzt. Hierbei handelt es sich um frei programmierbare Bewegungsautomaten, die beispielsweise für Schweiß- und Lackierarbeiten im Automobilbau oder für die Durchführung von Werkzeugwechseln in
Awareness
Automatisierung flexiblen Fertigungssystemen verwendet werden. Daneben umfasst die Automatisierung zunehmend auch die Montage industrieller Erzeugnisse (z.B. die Bestückung von Leiterplatten mit elektronischen Bauelementen) sowie den innerbetrieblichen Transport (z.B. Fahrerlose Transportsysteme) sowie Beladungs-, Kommissionier- und Lagersysteme. Während die Automatisierung in ihrer Anfangszeit vorwiegend auf die Rationalisierung von Massenproduktionsprozessen ausgerichtet war (sog. "harte Automatisierung"), steht heute angesichts differenzierter variantenreicher Produktprogramme in vielen Industrieuntemehmungen die Flexibilisierung der Produktion im Vordergrund. Kundenspezifische Produktausfuhrungen und sich verkürzende Lebenszyklen erfordern universell einsetzbare und für zukünftige Produktgenerationen wiederverwendbare Produktionsanlagen. Des Weiteren wird die
Herstellung komplizierter Erzeugnisse bei hohen Qualitätsanforderungen oft erst durch automatisierte Produktionssysteme möglich. Somit stellt die Automatisierung in vielen Industriezweigen einen nicht zu unterschätzenden wettbewerbspolitischen Faktor dar. Literatur: Deutsches Institut für N o r m u n g e.V. (Hrsg.): DIN 19233: Automat, Automatisierung, Berlin, Köln 1972; Eversheim, W./Schuh, G. (Hrsg.): Gestaltung von Produktionssystemen, Berlin u.a., 1999, Kap. 10; Günther, HO./Tempelmeier, H.: Produktion und Logistik, 4. Aufl., Berlin u.a., 2000
Hans-Otto Günther/Steffen Nitschke Autonomiekosten Organisationsformen Average Cost of Debt Kapitalkosten Awareness -> Werbewirkungskontrolle
67
Balanced Scorecard
B2C
B B2B, B2C E-Commerce Balanced Scorecard Die von Kaplan/Norton entwickelte Balanced Scorecard (BSC) ist eine Methode, mit deren Hilfe die Strategie eines Unternehmens in Ziele und Kennzahlen übersetzt werden kann. Die BSC knüpft an die Kritik an, dass in Unternehmen Leistung überwiegend anhand von finanziellen Kennzahlen gemessen wird. Durch die BSC erfährt das finanzorientierte Kennzahlensystem (-> Kennzahlen und Kennzahlensysteme) eine Erweiterung um zusätzliche Größen. Die BSC besteht aus den vier verschiedenen Perspektiven: 1. Kunden: Diese Perspektive liefert Informationen über die Positionierung des Unternehmens in bestimmten Marktsegmenten, über die Kundenzufriedenheit oder z.B. die Kundenbindung. 2. Finanzen: Diese Perspektive entspricht der traditionellen Darstellung von Jahres- oder Quartalsabschlüssen. Sie beinhaltet Informationen über die Finanz- und Ertragslage des Unternehmens. 3. Interne Geschäftsprozesse: Diese Perspektive beschreibt die erfolgskritischen Prozesse, die notwendig sind, um die Kundenanforderungen der Zielmarktsegmente zu erfüllen. 4. Lernen und Wachstum: Die vierte Dimension beinhaltet weiche Erfolgsfaktoren, die für ein langfristiges Wachstum und eine langfristige Verbesserung notwendig sind. Der grundsätzliche Aufbau der vier Perspektiven einer BSC ist identisch und gliedert sich in: 1. Strategisches Ziel: Für jede Perspektive, aus der ein Unternehmen betrachtet wird, sind die strategischen Ziele durch die Unternehmensleitung zu 68
formulieren. So sind beispielsweise für den Finanzbereich Anforderungen der Investoren (Eigen- und Fremdkapitalgeber) zu berücksichtigen. 2. Kennzahlen: Nachdem die strategischen Ziele vorgegeben sind, gilt es, für jede Perspektive geeignete Kennzahlen zu definieren. Diese dienen dazu, den Zielerreichungsgrad festzustellen. 3. Zielgrößen: Zu den definierten Kennzahlen sind konkrete Zielwerte vorzugeben. Diese werden auf der BSC ausgewiesen und dienen auch der Nachweisführung über Verbesserungen der Werte. 4. Aktivität: Zuletzt sind beim Aufbau der BSC Aktivitäten vorzugeben, die geeignet sind, die strategischen Ziele zu erreichen. Diese Handlungsanweisungen dienen als operative Hilfestellung für die Mitarbeiter. Der Grundgedanke der Balanced Scorecard, nämlich die Berücksichtigung von mehr als nur finanziellen Kennzahlen in der Unternehmensführung, ist nicht neu. Die BSC lenkt jedoch durch die Form ihrer Darstellung die Aufmerksamkeit auf wenige, aber wichtige Kennzahlen, die über Wirkungsketten miteinander verbunden sind. Damit bietet die BSC als Kommunikationsmittel eine Komplexitätsreduktion an, die die Datenmengen im Unternehmen reduziert. Die BSC erweist sich als äußerst flexibles Instrument der Unternehmensfuhrung, da sie in nahezu jeder erdenklichen Form variiert werden kann. So können nicht nur die Kennzahlen in ihrer Art und Anzahl, sondern auch die Perspektiven an spezifische Bedürfnisse angepasst werden. Literatur: Horváth P./Kaufmann, L.: Balanced Scorecard - ein Werkzeug zur Umsetzung von Strategien, in: H A R V A R D B U S I N E S S m a n a g e r , 20. Jg., 1998, Heft 5, S. 39^48; Bühner, R./Akitürk, D.: Die Mitarbeiter mit einer Scorecard führen, in: H A R V A R D B U S I N E S S m a n a g e r , 22. Jg., 2000, Heft 4, S. 4 4 - 5 3 ; Kaplan R./Norton D Linking the Balanced Scorecard to Strategy, in: California Management Review, 39. Jg., 1996, Heft 1, S. 5 3 - 7 9 ; Kaplan R./Norton D.: The Ba-
Bankenfusion
Balanced Scorecard lanced Scorecard - Measures That Drive Performance, in: Harvard Business Review, 70. Jg., 1992, Heft 1, S. 7 1 - 7 9 .
Deniz Akitürk Bankenfusion Bankenfusionen stellen Zusammenschlüsse von zwei oder mehreren Banken dar. Ziel ist es, Synergien (-> Synergiemanagement) zu erzielen, durch -» Rationalisierung Kosten zu senken, neues Knowhow zu erwerben und finanzwirtschaftliche Vorteile zu generieren. Ohne ein konsequentes Synergie- und Fusionsmanagement scheitern die meisten Fusionen. 1. Abgrenzung und Definition Der Begriff Fusion (lateinisch: "Verschmelzung") beschreibt einen wirtschaftlichen und rechtlichen Zusammenschluss von zwei oder mehreren Unternehmen. Für Aktiengesellschaften regelt §339 AktG die Verschmelzung durch Aufnahme oder die Neubildung von Unternehmen (s.a. -> Verschmelzung). Bei der Verschmelzung durch Aufnahme bleibt eines der Unternehmen bestehen und bietet den Aktionären der zu übernehmenden AG einen Aktienumtausch an. Wird jedoch eine neue AG gegründet, auf die das Vermögen der beteiligten Unternehmen übergeht, so wird von einer Verschmelzung durch Neubildung gesprochen. Je nach Ausrichtung der Diversifikation lassen sich horizontale, vertikale und konglomerate Fusionen unterscheiden. Während sich horizontale Fusionen auf Unternehmen derselben Branche konzentrieren, werden bei vertikalen Verschmelzungen Zulieferer und/oder Abnehmer integriert. Bei konglomeraten Fusionen ist hingegen kein Branchenbezug gegeben. Bankenfusionen stellen dieser Abgrenzung zufolge eine Verschmelzung von zwei oder mehreren rechtlich selbstständigen Banken zu einer neuen Bank dar. Diese Verschmelzungen erfolgen bei Großbanken primär auf horizontaler Ebene. Beispiele sind die Fusion zur HypoVereinsbank und zur UBS. Teilweise
werden auch vertikale Elemente vollzogen. Dies verdeutlichen Fusionen im Sparkassensektor, bei welchen Landesbanken beteiligt sind. So ging beispielsweise die Landesbank Baden-Württemberg aus dem Zusammenschluss von SüdwestLB, L-Bank und Landesgirokasse hervor. In Deutschland wurden in den letzten 20 Jahren die meisten Fusionen im Sparkassen- und Genossenschaftssektor durchgeführt. In diesem Zeitraum fusionierten 213 Sparkassen und 2.704 Genossenschaftsbanken. 2. Fusionsmotive Das Hauptmotiv von Fusionen stellt die Erzielung von Synergien dar. Es wird unterstellt, dass Unternehmen nach der Fusion Kosten reduzieren und erfolgreicher sind, als sie es einzeln wären. Werden als monetärer Maßstab für den Erfolg die erwarteten -> Cash-flows herangezogen, so bedeutet dies, dass der Barwert der zukünftigen Cash-flows des fusionierten Unternehmens größer ist als die Summe der Barwerte der Einzel-Cashflows: BW (CFA + CFB) > BW (CFA) + BW (CFB). Möglich werden diese Effekte im Wesentlichen durch gestiegene Marktmacht, Kostenvorteile, finanzwirtschaftliche Vorteile und mögliche Ertragszuwächse aufgrund einer strategischen Neuausrichtung. Mit der —> Verschmelzung von zwei oder mehreren Banken entsteht ein neues Institut mit zwangsläufig ausgeweiteter Bilanzsumme. Tendenziell kann angenommen werden, dass mit der Größe die Marktmacht des fusionierten Institutes steigt. Bei horizontalen Fusionen werden die Marktanteile ausgedehnt und bei vertikalen Fusionen Erfahrungsvorteile weitergegeben. Dadurch besteht die Möglichkeit, Markteintrittsbarrieren zu errichten. Größe alleine garantiert jedoch keinen Erfolg. Es wird aber davon ausgegangen, dass mit der Ausweitung der Kundenbeziehungen die Gemeinkosten besser verteilt werden. Aufgrund der Kostendegres69
Bankenfusion sionseffekte in den einzelnen Geschäftsbereichen werden Gewinnschwellen schneller überschritten. Unterstützt werden diese Degressionseffekte durch Rationalisierungen im Personal- und EDVBereich sowie durch Schließungen von Geschäftsstellen. Der sich verschärfende nationale und internationale Wettbewerb, verstärkt auch durch Non- und NearBanks, erzwingt Rationalisierungsmaßnahmen zur Produktivitätssteigerung. Die beteiligten Institute bringen entsprechend ihrer Stärken-Schwächen-Profile Know-how in das fusionierte Institut ein. Wird Wissen für eine strategische Ausrichtung auf neue Märkte, Segmente, Produkte oder Dienstleistungen benötigt, so kann das notwendige Wissen durch Fusion mit einem geeigneten Partner erworben und eingesetzt werden. Des Weiteren können finanzwirtschaftliche Motive für Bankenfusionen angeführt werden. Durch die Konsolidierung der Bilanzen der Fusionspartner steigen häufig die Kapitalbeschaffungspotenziale. Weitere Vorteile können sich in der Liquiditätshaltung und dem Risikomanagement ergeben. Durch Neustrukturierung des zwischen- und überbetrieblichen Zahlungsverkehrs lässt sich die Liquiditätshaltung im fusionierten Bankinstitut verringern. Gleichzeitig wird durch die Diversifikation die Streuung der Assets und Liabilities in zeitlicher, quantitativer und qualitativer Hinsicht vergrößert. Eine Risikoreduktion ergibt sich auch durch Möglichkeiten des Risiko-Nettings. Letztlich gelingt es, mit der Senkung des Gesamtrisikos auch die Refinanzierungskosten zu vermindern und damit die Ertragskraft zu stärken. 3. Synergie- und Fusionsmanagement Die Realisation der Synergien bereitet häufig Probleme. Die Kosten der Fusion fallen sofort an, die zusätzlichen Erträge bzw. Cash-flows werden erst in der Zukunft erzielt und unterliegen damit externen und internen Risiken. Externe Risiken, wie beispielsweise der Markteintritt 70
Bankenfusion neuer Wettbewerber oder eine sich abschwächende Konjunktur sind kaum beeinflussbar. Interne Risiken lassen sich durch ein konsequentes Synergie- und Fusionsmanagement vermeiden (-»Synergiemanagement). Das Synergie- und Fusionsmanagement soll kulturelle, organisatorische und strategische Defizite durch eine ex ante durchgeführte Detailplanung vermeiden. Diese Planung definiert sämtliche Personal-, Organisations-, EDV-, Marketing- und Strategieentscheidungen. Dadurch wird die durch die Fusion gestiegene Komplexität wieder verringert. Dies senkt die Gefahr, dass sich die Beteiligten im Fusionsprozess verzetteln, die Bindung zum Markt verlieren und sich nicht auf ihre Kernkompetenzen besinnen. Besonderen Stellenwert im Fusionsmanagement nimmt eine klare personalpolitische Gestaltung des Wandels ein. Wird auf eindeutige Personalzuständigkeiten verzichtet, führt dies zur Verunsicherung der Mitarbeiter, die sich zudem mit abweichenden Unternehmenskulturen auseinandersetzen müssen. Nur wenn es gelingt, die Mitarbeiter zu motivieren und an das neue Institut zu binden, kann die Abwanderung qualifizierter Mitarbeiter verhindert werden. Gleiches gilt auf der Kundenseite. Auch die Kunden vollziehen eine Neubindung an das fusionierte Institut. Ihnen müssen ebenfalls die neuen Strukturen offen kommuniziert werden. Dies gelingt jedoch nur, wenn auch die Mitarbeiter an der Basis von der Fusion überzeugt sind und die Unternehmensstrategie befürworten. Literatur: Bühner, R.: Fusion, in: Gerke, W./Steiner M. (Hrsg.): Handwörterbuch des Bankund Finanzwesens (HWF), 2. Aufl. 1995, Sp. 8 4 0 - 8 4 8 ; Heitmüller, H.-M.: Konzentration am Bankenmarkt - Konsequenzen für den regionalen Marktführer, in: Sparkasse 9/1998, 115. Jg., S. 398^103; Laber, H./Wolf, S.: Bankenfusionen Den Wandel personalpolitisch gestalten, in: Die Bank, 9/1998, S. 5 2 0 - 5 2 4 .
Wolfgang Gerke
Bankensysteme Bankensysteme (Universal-, Trenn-) In marktwirtschaftlich orientierten Volkswirtschaften kann man grundsätzlich zwei verschiedenartige Ordnungsprinzipien eines Geschäftsbankensystems unterscheiden. Während das Universalbankenprinzip idealtypisch dadurch charakterisiert ist, dass ausschließlich Kreditinstitute ohne fachliche Spezialisierung, d.h. ohne willentliche Einschränkung ihres Leistungsprogramms, bestehen, sind in Volkswirtschaften mit Trennbankenprinzip Geschäftsbanken existent, die in der Regel aufgrund staatlicher Regulierung und seltener aufgrund freiwilliger konsequenter Arbeitsteilung ihre Geschäftstätigkeit auf einzelne Sparten beschränken. Eine typische Trennung liegt zwischen Einlagen- und Kreditgeschäft einerseits und Wertpapiergeschäft andererseits vor. In der Realität weisen beide Bankensysteme Mischformen auf. In Universalbankensystemen sind teils willentlich, teils als Folge regulierender Maßnahmen Geschäftsbanken mit fachlicher Spezialisierung anzutreffen (Spezialbanken), die sich nach der Richtung ihrer Spezialisierung in solche mit überwiegendem Dienstleistungs- und solche mit überwiegendem Wertleistungsangebot differenzieren lassen. Letztere können dann Einlagen- oder Kreditorientierung oder auch eine Bindung an bestimmte Passiv- und Aktivgeschäfte (z.B. Hypothekenbanken) aufweisen. Mischformen in Trennbankensystemen treten regelmäßig dadurch auf, dass regulatorische Maßnahmen der institutionellen Trennung durch geschäftspolitische Gestaltung im instrumentellen Bereich (sog. Finanzinnovationen) umgangen werden. Als typischer Vertreter eines Universalbankensystems gilt das deutsche Geschäftsbankensystem, das teils historisch, teils regulatorisch bedingt zahlreiche Spezialbanken als Mischformen aufweist.
Bankensysteme Das U.S.-amerikanische Geschäftsbankensystem dagegen gilt als repräsentativ für ein Trennbankensystem. Auf der Grundlage des Glass Steagall Act von 1933 und bekräftigt durch den Bank Holding Company Act von 1956 sowie den International Banking Act von 1978 betreiben die Commercial Banks das kurz- bis mittelfristige Einlagen- und Kreditgeschäft, die Investment Banks das Wertpapiergeschäft und die sog. Thrift Institutions haben ihren Schwerpunkt im Spar- und Hypothekenkreditgeschäft. Darüber hinaus können in beiden Bankensystemen zusätzliche geographische Beschränkungen der Geschäftstätigkeit bestehen (so etwa auf der Basis des McFadden Act von 1927 in den USA oder in der Primärstufe des Sparkassen- und Genossenschaftsbankensektors in Deutschland). Die Effizienz des Universal- und des Trennbankenprinzips aus einzel- und gesamtwirtschaftlicher Sicht lässt sich unabhängig von den Ausprägungen in einem konkreten Geschäftsbankensystem nur in qualitativer Hinsicht beurteilen. Als potenzieller Vorteil des Universalbankenprinzips wird die komplette Erfüllung aller gesamtwirtschaftlichen Transformationsfunktionen der Finanzintermediation "aus einer Hand" angeführt. Damit wird der realen Unvollkommenheit und Unvollständigkeit der Finanzmärkte Rechnung getragen und der Ausgleich von Anlage- und Finanzierungsbedarf kostengünstiger realisiert. Aus einzelwirtschaftlicher Sicht können Bankkunden alle Finanzdienstleistungen "unter einem Dach" nachfragen und auch auf die persönlichen und wirtschaftlichen Verhältnisse maßgeschneiderte Problemlösungen erhalten. Aus der Perspektive des Trennbankensystems können dagegen Spezialisierungsvorteile bestehen. Regelmäßig wird zugunsten des Universalbankensystems auch eine gleichmäßigere Auslastung bankbetrieblicher Kapazitäten, eine stabilere Ertragslage und eine 71
Bankensysteme Risikoreduktion aus dem Spartenportefeuille genannt. Andererseits können auf diese Weise auch ökonomische Missstände länger konserviert bleiben. Als potenzielle Nachteile eines Universalbankensystems werden Konfliktpotenziale (z.B. gleichzeitige Eigen- und Fremdkapitalgeberposition) und - vor allem bezogen auf die großen Privatbanken sowie einige öffentlich-rechtliche Institute der Sekundärstufe - Konzentrations- und Machtpotenziale angeführt, die insbesondere mit dem Universalbankenprinzip regelmäßig verbundenen Hausbankprinzip begründet werden. Ein Blick in die ökonomische Realität konkreter Ausprägungen von Trenn- und Universalbankensystemen zeigt eine eindeutige Tendenz zu Geschäftsbankensystemen universeller Prägung in zweierlei Hinsicht: Zum einen entwickelt sich besonders das U. S .-amerikanische Trennbankensystem nach fast 70 Jahren zu einem Universalbankensystem zurück, indem die regulatorischen Grundlagen direkt eliminiert werden oder die schleichende Erosion einschlägiger staatlicher Eingriffe deutlich forciert wird. Zum anderen bleiben nicht nur die in den vergangenen Jahrzehnten wesentlich aus der Umgehung der Trennung heraus entwickelten Finanzinstrumente erhalten, die im internationalen Wettbewerb auch die Universalbankensysteme komplettierten. Vielmehr deutet sich für das neue Jahrtausend eine Weiterentwicklung des Universalbankensystems insofern an, als über einzelne bisherige geschäftspolitische und beteiligungsstrategische Maßnahmen hinaus eine dauerhafte Verschmelzung bank- und versicherungswirtschaftlicher Systeme zu erwarten ist. Zu einem Universalfinanzdienstleistersystem gehört dann als regulatorisches Pendant eine gemeinsame (international 72
Bankmanagement harmonisierte) Regulierung, die auch die Finanzmärkte mit einschließt. Andreas Oehler Bankmanagement 1. Begriffliche Dimensionen Der Begriff des Bankmanagement kann institutionell oder funktionsorientiert interpretiert werden. Im Rahmen des institutionellen Verständnisses (managerial roles approach) werden diejenigen Instanzen und Stellen dargestellt, welche für das Bankmanagement verantwortlich sind. In der engeren Auslegung ist das Bankmanagement die Unternehmensleitung einer Bank. Das K W G bezeichnet diese Instanz als sog. Geschäftsleiter und verknüpft damit eine Reihe an Verpflichtungen und Aufgaben (z.B. die Pflicht zur angemessenen Ausstattung des Kreditinstitutes mit Eigenkapital oder Meldepflichten von Krediten bei dem Überschreiten gewisser Grenzen). Das Bankmanagement i.w.S. umfasst hingegen auch untergeordnete Stellen, die mit Entscheidungsbefugnis ausgestattet sind (unteres und mittleres Bankmanagement). Die funktionale Dimension des Begriffes (managerial functions approach) stellt die verschiedentlichen Aufgaben, Funktionen und Prozesse des Bankmanagement in den Vordergrund. Wichtige Funktionsbereiche sind Organisation, Rechnungswesen, (Risiko- und Ertrags-) Controlling, Marketing und Personal. Die Funktionen, die innerhalb eines jeden Bereiches auszuüben sind, lassen sich auf den grundlegenden kybernetischen Regelungsprozess von Planung, Steuerung und Kontrolle zurückführen. 2. Strukturelle und rechtliche Rahmenbedingungen Der Bankensektor nimmt innerhalb einer Marktwirtschaft eine besondere Stellung ein. Banken haben wesentlichen Einfluss auf die Geldversorgung und damit auch auf die wirtschaftliche Stabilität eines Landes. Da die gesamtwirtschaftlichen Auswirkungen einer (wenn auch unwahr-
Bankmanagement scheinlichen) Bankenkrise erheblich wären, wurde in den meisten Volkswirtschaften eine Bankenaufsicht gesetzlich verankert. In Deutschland nimmt diese Rolle das Bundesaufsichtsamt für das Kreditwesen (BAKred) wahr, welches sich durch das Gesetz über das Kreditwesen (KWG) legitimiert. Das Hauptziel des BAKred ist der Schutz der Einleger bzw. Gläubiger und der Funktionsfähigkeit des Kreditgewerbes. Anzeigepflichten der Banken (z.B. §§ 12a, 14, 24 KWG) und reglementierende Eingriffsmöglichkeiten (z.B. §§ 36, 44 KWG) des BAKred begrenzen das Bankmanagement in seiner Geschäftspolitik ebenso, wie die Liquiditäts- und Eigenkapitalnormen (§§ 10, 10a, 11 KWG) oder die quasi verpflichtende Mitgliedschaft in Einlagensicherungssystemen. Die Gruppe der Banken ist nicht homogen. Grundsätzlich wird auf Basis des Leistungsangebotes zwischen Universalund Spezialbanken unterschieden, wobei Spezialbanken nur einen Teil des Leistungsangebotes der Universalbanken abdecken (s.a. Bankensysteme). Die Universalbanken werden anhand ihrer Rechtspersönlichkeit in drei weitere Untergruppen gegliedert. Die Sparkassen und Girozentralen sind regional tätige Körperschaften öffentlichen Rechts, deren Träger bzw. Eigentümer die jeweiligen Gemeinden, Kreis und Länder sind. Sparkassen und Girozentralen haben einen öffentlichen Förderauftrag, z.B. die günstige Kreditversorgung des Mittelstandes und der Bevölkerung. Auch Genossenschaftsbanken und deren Spitzeninstitute - die genossenschaftlichen Zentralbanken - stehen regional im Wettbewerb. Sie sind in der Rechtsform der —• Genossenschaft gegründet und haben als Selbsthilfeorganisationen vornehmlich die Interessen ihrer Mitglieder zu fördern. Kreditbanken sind privatwirtschaftlich organisiert und treten als Kapital- oder Personengesellschaft auf. Bei diesen stehen daher die finanziellen Erwartungen der Eigentümer im Vordergrund.
Bankmanagement 3. Gesamtbanksteuerung • Entwicklungslinien: Die Geschäftspolitik und die Steuerung von Banken hat sich in den vergangenen 30 Jahren entscheidend gewandelt. Während in den 70er Jahren die Volumenorientierung vorherrschte, entwickelte sich maßgeblich durch Schierenbeck geprägt ein ertragsorientiertes Bankmanagement im folgenden Jahrzehnt. Dies hatte zum Ziel, die jeweiligen Ergebnisbeiträge der verschiedenen Kundengruppen, Produkte und -> Profit-Center entscheidungsrelevant darzustellen. Die auf diese Weise gewonnene Transparenz zeigte die verschiedenen Ergebnisquellen einer Bank auf und war der erste Schritt zu einer Gesamtbanksteuerung. Während im ertragsorientierten Bankmanagement der periodische Überschuss im handelsrechtlichen Sinn den Erfolgsmaßstab bildet, steht heute die Marktwertentwicklung des Eigenkapitals im Mittelpunkt. • Notwendigkeit der Wertorientierung: Die erhebliche Zunahme - bezüglich des Volumens der gehaltenen Anteile - der institutionellen Anleger (Fondsgesellschaften und Unternehmen) in den 90ern hat zu einer Neuorientierung des Bankmanagement geführt. Im Gegensatz zu den privaten Anlegern fordern gerade Fondsgesellschaften und Großinvestoren auf ihr hingegebenes Kapital eine Rendite zumindest in Höhe ihrer Eigenkapitalbzw. -> Opportunitätskosten. Die Banken wiederum müssen, um höhere Renditen (bei sinkenden Margen) zu erzielen, häufig höhere Risiken übernehmen und den daher gestiegenen aufsichtsrechtlichen Eigenkapitalanforderungen gerecht werden. Somit stellt Eigenkapital für Banken ein knappes und nachgefragtes Gut dar. Beide Faktoren erzwingen eine Orientierung des Bankenmanagement an dem Wert des Eigenkapitals bzw. dem -> Shareholder Value. Nur eine nachhaltige Steigerung des Shareholder Value kann die Anlegererwartungen befriedigen
73
Bankmanagement und wird so zur Messskala der Zielerreichung des Bankmanagement. Jedoch kann Shareholder Value ausschließlich im Einvernehmen mit den anderen Interessenparteien einer Bank geschaffen werden. Zufriedenheit der Kunden und Motivation der Mitarbeiter sind wichtige Nebenbedingungen, die im Einklang mit dem Shareholder ValueKonzept eingehalten werden müssen. Diese Ausfuhrungen gelten in erster Linie für die Kreditbanken und lassen sich nur mit Einschränkungen auf Sparkassen sowie Genossenschaftsbanken übertragen, da diese aufgrund ihrer rechtlichen Ausgestaltung andere Primärziele zu verfolgen haben. Jedoch benötigen auch Sparkassen bzw. Genossenschaftsbanken Kapital zur Festigung und zum Ausbau ihrer Wettbewerbsposition. Sie können dieses Kapital überwiegend nur aus eigenem natürlichem Wachstum bilden, da eine Kapitalzufuhr wie bei den Kreditbanken nicht möglich ist und sehen sich daher zunehmend zur Wertorientierung verpflichtet. •
Bausteine der wertorientierten Banksteuerung: Ein Wertmanagement hat den ökonomischen Grundzielen der Rentabilität, der Sicherheit und des Wachstums gerecht zu werden. Daraus ergeben sich vier Bausteine einer unternehmenswertorientierten Banksteuerung: •
Wertorientierte Geschäftsphilosophie; • Marktorientierte Profit-Center-Organisation; • Institutionalisierter Controlling-Zyklus; • Zielgerichtetes Steuerungsinstrumentarium. Eine wertorientierte Geschäftsphilosophie konkretisiert sich in einem wertorientiertem Ziel-, Beurteilungs- und Entlohnungssystem auf allen Führungsebenen (-»Entgeltmanagement; -* Führungskräfteentlohnung) sowie einer wertorien74
Bannervverbung tierten Einschätzung der jeweiligen Kundengruppen. Um dies zu erfüllen, ist eine Profit-Center-Organisation notwendig, welche zum einen eine klare Ausrichtung auf die verschiedenen Kunden und zum anderen eine dezentrale Ergebnisverantwortung aufweist. In der Umsetzung einer wertorientierten Banksteuerung ist die Organisation der Prozessabläufe und Auswahl geeigneter Instrumentarien besonders relevant. Es gilt einen Controlling-Zyklus zu verankern, der sich durch revolvierende Gegenstromplanung, regelmäßige Kontrolle und Gegensteuerung auszeichnet. Die Steuerung der Bankgeschäfte ist in Abhängigkeit von der Ergebnisverantwortung dual, d.h. zentral und dezentral durchzuführen. Dies ist nur mit einem Instrumentenpool möglich, der die Ergebnisbeiträge von Einzelgeschäften, Kunden, Filialen und Produkten den jeweils steuernden und damit verantwortlichen Instanzen zuordnet. Literatur: Büschgen, E.: Bankbetriebslehre, 5. Aufl., Wiesbaden 1999; Rolfes, B.: Gesamtbanksteuerung, Stuttgart 1999; Rolfes, B.: Gesamtbanksteuerung - Risiken ertragsorientiert managen, Reihe BWL aktuell Nr. 4, Universität Klagenfurt 1999; Rolfes, B.: Das Konzept des Gesamtbankmanagements, in: Rolfes, B./Schierenbeck, H./Schüller, S. (Hrsg.): Gesamtbankmanagement - Integrierte Risiko-/Ertragssteuerung in Kreditinstituten, Band 18 der Schriftenreihe des Zentrums für Ertragsorientiertes Bankmanagement ZEB, Frankfurt a. M. 1998; Schierenbeck, H.: Ertragsorientiertes Bankmanagement; Band 1 und 2, 6. Aufl., Wiesbaden 1999; Schierenbeck, H.: Handbuch Bankcontrolling, Wiesbaden 1995.
Bernd Rolfes Bannerwerbung Als Banner bezeichnet man die Werbeflächen auf einer Internetseite. Bannerwerbung stellt damit ein Instrument des Online-Marketing dar. Banner sind meist mit einem Link versehen. Klickt der Betrachter des Banners mit dem Mauszeiger auf dieses, führt der Link ihn auf die Startseite des Werbetreibenden.
Barwert
Bannerwerbung Banner können in mehreren Größen geschaltet werden. Die gängige Größe ist dabei 468x60 Punkte. Banner werden über folgende Arten abgerechnet: •
•
•
Wie bei klassischer -* Mediawerbung wird der Tausender-Kontaktpreis (-»Tausender-Kontaktkriterium) zu Grunde gelegt, der Werbetreibende bucht dann z.B. 50.000 Einblendungen. Sind die 50.000 Einblendungen erreicht, wird ab sofort ein anderes Banner an dieser Stelle gezeigt. Es wird die Anzahl der Klicks auf das Banner (AdClicks, Online-Controlling) in Rechnung gestellt. Jeder Klick bedeutet die direkte Weiterleitung zum Werbetreibenden und bringt den Surfer auf dessen Internetpräsenz. Buchung eines Bannerplatzes über einen definierten Zeitraum. Ein Banner kann z.B. für einen Monat gebucht werden. Der Werbetreibende trägt dabei das Risiko geringer Wirkung durch wenig Zugriffe auf der geschalteten Seite; demgegenüber steht die Chance zahlreicher Besuche und somit häufiger Sichtkontakte.
Wie bei klassischer Mediawerbung ist neben der Größe auch die Positionierung eines Banners für den Erfolg der Schaltung maßgeblich: Begehrt ist selbstverständlich die Position am Beginn einer Internetseite. Diese Position wird auf jeden Fall vom Surfer betrachtet. Allerdings werden für diese Platzierung auch die höchsten Preise verlangt. Die meisten Sichtkontakte erzielt man durch Einschaltung der Werbebotschaft auf den Seiten einer -»• Suchmaschine, da viele Internetnutzer ihre Reise durch das Internet bei diesen beginnen. Daher sind Buchungen bei populären Suchmaschinen - trotz teilweise hoher Streuverluste verhältnismäßig teuer. Sonderformen der Bannerwerbung sind -> Pop-Up Banner (auch als Intersititals bezeichnet) und Button-Banner.
Bartering Form des Gegengeschäfts, bei dem wechselseitig Leistungen abgegeben und angenommen werden, wobei die Besonderheit darin besteht, dass bei diesen Transaktionen ausschließlich Waren getauscht werden und keine finanziellen Transaktionen getätigt werden. Oftmals schließen sich die miteinander in Tauschbeziehungen stehenden Personen oder Unternehmen zu einem sog. Barter-Club zusammen. Barwert Der Barwert ist die Summe der mittels eines Diskontierungszinssatzes auf einen Stichtag (üblicherweise die Gegenwart) abgezinsten Kapitalflüsse einer Zahlungsreihe (Discounted Cash-flow, -> Discounted CF-Methode). Formal: B(o> = C(i) / (1+r) + C (2) / (1+r) 2 + C (3) / (1+r) 3 + ••• + C(„) / (1+r)" wobei B(o) = Barwert zum Zeitpunkt 0, C(i), C(2), C(3), ..., C(n) = Cash-flows zu den Zeitpunkten 1,2, 3,..., n, r = Diskontierungszinssatz. Die Ermittlung des Barwerts ermöglicht den Vergleich von Zahlungsreihen, die sich in Bezug auf Größe der Einzelzahlungen, Länge der Reihe und Risikoklasse unterscheiden, indem sämtliche Zahlungsströme auf eine Größe reduziert werden. Die Schätzung der Cash-flows erweist sich in der Praxis vor allem mit fortschreitendem Zeithorizont häufig als schwierig. Üblicherweise wird mit Erwartungswerten gearbeitet, wobei auch Szenarien (optimistisch-konservativ-erwartet) Eingang in die Berechnung finden. Zum Einsatz kommt die Berechnung des Barwerts vorrangig bei der -> Unternehmensbewertung mittels Discounted CFMethode und im Rahmen des Alternativenvergleiches bei Investitions- bzw. Finanzierungsprojekten (Kapitalwert). 75
Barwert
Barwert Bei der Unternehmensbewertung wird der Unternehmenswert als Barwert der mit dem Kapitalkostensatz des Unternehmens abgezinsten zukünftigen Cash-flows ermittelt. Im Gegensatz zu Investitionsprojekten wird hier häufig von einer unendlichen Reihe von Cash-flows ausgegangen, da das Unternehmen per se als zeitlich unbegrenzt angesehen wird. Bei der Berechnung wird hierbei zu dem Zeitpunkt, ab dem explizite Cash-flow-Schätzungen nur mehr mit großer Unschärfe getroffen werden können, mittels Summenformel für unendliche Reihen eine ewige Rente gebildet und diese mit dem Diskontierungszinssatz auf den Stichtag (d.h. zumeist auf die Gegenwart) abgezinst. Formal: TV (x) = C(X+i) / (r-g) und TV(o) = TV(X) / (l+r) x , wobei TV(X) = Summe der ewigen Rente (Terminal Value) zum Zeitpunkt x, TV(0) = Terminal Value, auf den Zeitpunkt 0 diskontiert, C(X+i) = Cash-flow im ersten Jahr der ewigen Rente, r = Diskontierungszinssatz, g = Wachstumsrate der Cash-flows der ewigen Rente. Bei der Berechnung ist vor allem auf die Sensibilität des Gesamtergebnisses auf Änderungen im Wachstumsfaktor g Bedacht zu nehmen. Auch ist nicht zu vergessen, dass es sich um ein Wachstum handelt, welches definitionsgemäß "für immer" dauern soll. Unplausibel wären in diesem Zusammenhang daher insbesondere Wachstumsraten jenseits jener des BSP. Eine Ausprägung des Barwertes stellt der Kapitalwert dar. Er findet vor allem bei Investitions- und Finanzierungsentscheidungen Anwendung, um entweder das einzig mögliche Projekt auf Wirtschaftlichkeit zu überprüfen, oder, bei Vorhan76
densein mehrerer Alternativen, eine Auswahl zu treffen. Vereinfacht gesprochen, handelt es sich beim Kapitalwert um den Barwert minus der Anschaffungsauszahlung. Formal: K(0) = -C ( 0 ) + Cm / (1+r) + C(2, / (1+r) 2 + C(3) / (1+r) + ••• + C(n) / (l+r) n , wobei K(o) = Kapitalwert des Projekts zum Zeitpunkt 0, C(o) = Anschaffungsauszahlung, C(i), C(2), C(3),..., C(n) = Cash-flows zu den Zeitpunkten 1, 2, 3,..., n, r = Diskontierungszinssatz. Projekte mit negativem Kapitalwert sollten nicht verfolgt werden, da sie nicht die geforderte Mindestrentabilität (d.h. die Kapitalkosten) erreichen. Projekte mit einem Kapitalwert von null erwirtschaften genau den vom Unternehmen unter Berücksichtigung der Kapitalkosten (d.h. dem Diskontierungszinssatz) geforderten Ertrag und sollten somit ebenso wie Projekte mit positivem Kapitalwert realisiert werden. Bei mehreren Projekten mit positivem Kapitalwert (und gleicher Laufzeit), aber beschränktem Kapital sollte die Realisierung auf die Art und Weise geschehen, dass die Summe der verwirklichten Alternativen den aggregierten Kapitalwert maximiert. Unterschiedliche Laufzeiten der Alternativen komplizieren den Vergleich. Die Vergleichbarkeit kann hergestellt werden, indem man unterstellt, dass jede der Alternativen mehr als einmal durchgeführt werden kann und man dann zwei gleichlange Perioden heranzieht. Bei EinmaiProjekten kann die Vergleichbarkeit hergestellt werden, indem man das durch frühere Desinvestition verfügbare Kapital einer Alternative für die Restlaufzeit des zu vergleichenden Altemativprojekts fiktiv z.B. in Schuldverschreibungen anlegt. Volker Offenbächer/Richard Zeiss
Basisrechnungssysteme Basisrechnungssysteme Die vier Basisrechnungssysteme bilden das Fundament der betrieblichen und unternehmensbezogenen Rechenwerke. Man unterscheidet Rechnungen auf Grundlage von: -
-
Einzahlungen und Auszahlungen: Dabei wird eine Einzahlung (Auszahlung) als Zunahme (Abnahme) der liquiden Mittel - also Bar- und Buchgeld - definiert. Die Gegenüberstellung von Ein- und Auszahlungen spiegelt den Zahlungsverkehr des Unternehmens wieder und zeigt den Geldbestand der Rechnungseinheit auf. Die -»Investitionsrechnung und die Finanzierung arbeiten mit diesen Begriffen. Einnahmen und Ausgaben: Umgangssprachlich wird dieses Begriffspaar meist mit dem ersten Basisrechnungssystem gleichgesetzt; in der Literatur wird aber dahingehend unterschieden, dass Einnahmen und Ausgaben zusätzlich Kreditvorgänge umfassen (z.B. Kauf einer Maschine auf Kredit, somit Ausgabe, aber keine Auszahlung).
-
Ertrag und Aufwand: Die Begriffe umfassen die gesamte bewertete Gütererstellung bzw. den gesamten bewerteten Güterverbrauch einer Rechnungsperiode. Die Bewertung der Güter geschieht nach den Regelungen des Handels- und Steuerrechts bzw. nach den -»Grundsätzen ordnungsgemäßer Buchführung. Ertrag und Aufwand werden zur Erstellung des handelsrechtlichen -> Jahresabschlusses benutzt.
-
Leistungen und Kosten: Leistungen sind die bewertete, ordentliche und sachzielbezogene Gütererstellung einer Periode. Kosten sind der bewertete, ordentliche und sachzielbezogene Güterverzehr einer Periode. Leistungen und Kosten werden in der -> Kosten- und Leistungsrechnung eingesetzt.
Befragungsverfahren Beauty Contest Das Werben einer Aktiengesellschaft, um eine Bank als -» Emissionsbank zu gewinnen, sowie das Werben einer Bank, um sich als Emissionsbank zu empfehlen. Befragungsverfahren Befragungsverfahren gehören zu den am längsten etablierten und am stärksten verbreiteten Methoden der Datenerhebung für sozialwissenschaftliche Untersuchungen. Betriebswirtschaftliche Anwendungen von Befragungen finden sich vor allem im Zusammenhang mit der Marktforschung (einschließlich der sehr bedeutsam gewordenen Messung von Kundenzufriedenheit), bei der empirischen Organisationsforschung sowie im Rahmen der Personalpolitik (Mitarbeiterbefragung). Befragungsverfahren sind dadurch gekennzeichnet, dass in systematischer Weise Auskunftspersonen durch Fragen oder andere Stimuli (z.B. Bildvorlagen) zu mündlichen oder schriftlichen Angaben über den Erhebungsgegenstand und damit zusammenhängende Tatbestände veranlasst werden. Grundlage für diesen Ansatz ist natürlich die Vorstellung, dass die Antworten der Auskunftspersonen Aufschluss über die zu untersuchende Realität (z.B. tatsächlich vorhandene Einstellungen zu einem Produkt) geben, dass die Angaben also gültig sind, eine Voraussetzung, deren Einhaltung keineswegs trivial ist. Vielmehr ist es in der Regel schwierig, Frageformulierungen zu entwickeln, durch die das Antwortverfahren der Auskunftsperson nicht systematisch beeinflusst ("verzerrt") wird. Für explorative und deskriptive Untersuchungen werden - den typischen Untersuchungszielen entsprechend - verschiedene Formen von Befragungen eingesetzt. Explorative Untersuchungen dienen vor allem dazu, die für ein Problem relevanten Einflussfaktoren zu identifizieren, Zusammenhänge zwischen interessierenden Variablen zu entdecken und das Untersuchungsproblem zu präzisieren. Dem77
Befragungsverfahren entsprechend geht es hier weniger um quantifizierende Angaben als darum, möglichst vielfaltige und tiefgehende Einsichten in den Untersuchungsgegenstand zu gewinnen. Typisch für explorative Untersuchungen sind deswegen nichtstandardisierte Befragungen, bei denen lediglich das Untersuchungsthema vorgegeben ist, aber Art, Wortlaut und Reihenfolge der einzelnen Fragen dem Interviewer überlassen bleiben und der jeweiligen Situation angepasst werden können. So konzentriert man sich hier oftmals auf eine relativ geringe Zahl sogenannter "Tiefeninterviews" oder Gruppendiskussionen. Bei deskriptiven Untersuchungen kommt es dagegen darauf an, möglichst genaue Aussagen zu machen, z.B. über die Größe von Märkten oder Häufigkeiten des Auftretens bestimmter Meinungen. Daraus ergeben sich zwei charakteristische methodische Forderungen: Deskriptive Untersuchungen sind repräsentativ angelegt, da man ja in der Regel Angaben über eine Grundgesamtheit machen will, und systematische (durch Anlage der Untersuchung verursachte) Fehler sollen im Interesse exakter Ergebnisse minimiert werden. Deswegen findet man hier typischerweise genaue Festlegungen des Vorgehens und sorgfältige Kontrollen des Untersuchungsablaufs. Dem entspricht bei der Datenerhebung durch Befragung das standardisierte Interview, das durch festgelegte, für alle Auskunftspersonen einheitliche Frageformulierungen und Fragereihenfolge gekennzeichnet ist. Während für nicht-standardisierte Befragungen nur persönliche (mündliche) Interviews in Betracht kommen, gibt es für standardisierte Umfragen auch alternative Kommunikationsformen, deren Kennzeichen sowie Vor- und Nachteile im Folgenden stichwortartig charakterisiert werden:
78
Befragungsverfahren •
Mündliche Befragung/persönliche Interviews - Kennzeichen: Besuch der Auskunftsperson durch Interviewer, Durchführung der Befragung und Aufzeichnung der Antworten durch Interviewer mit Hilfe von (Papieren) Fragebögen oder Computern. - Vorteile: Hohe Stichprobenausschöpfung, Möglichkeiten für komplizierte Befragungstechniken. - Nachteile: Hohe Kosten (Spesen, Interviewerhonorare), begrenzte Möglichkeiten der InterviewerKontrolle. • Telefonische Befragung - Kennzeichen: Anruf der Auskunftsperson, Verlesung der Fragen und Aufzeichnung der Antworten durch Interviewer, häufig computergestützt (CATI - Computer Assisted Telephone Interviewing) durchgeführt mit Steuerung des Interviews durch Rechner und sofortiger Eingabe der Antworten. - Vorteile: Geringe Untersuchungsdauer, geringere Kosten als bei mündlicher Befragung, gute Möglichkeiten zur Kontrolle des Untersuchungsablaufs. - Nachteile: Begrenzte Interviewdauer, keine optischen Hilfsmittel (z.B. Marken-Logos, Anzeigen) möglich. • Schriftliche/postalische Befragung - Kennzeichen: Versand von Fragebögen mit Begleitschreiben an Auskunfitspersonen, Ausfüllung und Rücksendung der Fragebögen durch diese. - Vorteile: Geringe Kosten. - Nachteile: Relativ geringe Stichprobenausschöpfung, lange Untersuchungsdauer, geringe Kontrolle über die Befragungssituation, begrenzte Komplexität des Fragebogens. • E-Mail-Befragung - Kennzeichen: Versand des Fragebogens per -» E-Mail, Beantwor-
Befragungsverfahren
•
tung am Bildschirm, Rücksendung per E-Mail - Vorteile: Sehr geringe Kosten, geringe Untersuchungsdauer. - Nachteile: Beschränkung auf kurze und einfache Fragebögen, wegen Beschränkung auf E-Mail-Teilnehmer keine repräsentativen Bevölkerungsstichproben. World- Wide- Web- Umfragen - Kennzeichen: Ablage des Fragebogens auf einem -» WWW-Server, Aufruf und Beantwortung des Fragebogens durch Internet-Teilnehmer. - Vorteile: Geringe Kosten, vielfältige Gestaltungs- und Interaktionsmöglichkeiten beim Fragebogen. - Nachteile: Kaum repräsentative Stichproben möglich wegen Beschränkung auf Internet-Zugang und Selbstselektion der Teilnehmer.
Die Entwicklung eines Fragebogens vollzieht sich in einem Prozess, bei dem sich Entwurfs- und Erprobungsphasen abwechseln. Dabei wird vor allem geprüft, ob die auf Basis der entworfenen Fragen zu Stande kommenden Daten den Anforderungen hinsichtlich -> Reliabilität und Validität (s.u.) genügen. Generell wird empfohlen, keine Fragebögen bei einer Untersuchung einzusetzen, die sich nicht in mindestens einem -»Pretest bei einer kleinen Stichprobe von Auskunftspersonen bewährt haben. Im Mittelpunkt stehen die Probleme ob die verwendeten Messinstrumente (Fragen) das zu messende Phänomen tatsächlich wiedergeben und in welchem Maße der Messvorgang durch zufällige Einflüsse beeinträchtigt wird. Das erste Problem wird als das der Validität (Gültigkeit), das zweite als das der Reliabilität (Verlässlichkeit) einer Messung bezeichnet. Reliabilität gilt als (notwendige, nicht hinreichende) Voraussetzung der Validität, denn selbst eine (scheinbar) valide Messung, die mit Zufallsfehlern behaftet ist,
Befragungsverfahren würde einem "wahren" Wert nicht entsprechen. Typische Validitätsprobleme von Befragungen beziehen sich auf die Beeinflussung des Antwortverhaltens der Auskunftspersonen durch Interviewer oder (im Extremfall suggestive) Frageformulierungen, mangelnde Fähigkeiten der Auskunftsperson zur Beantwortung von Fragen (z.B. weil man sich nicht erinnern kann oder noch nicht weiß, was man zu tun beabsichtigt) und bewusst falsche oder verweigerte Angaben von Auskunftspersonen (z.B. bei Fragen, die die Intimsphäre berühren). Der Prozess der Entwicklung reliabler und valider Fragetechniken ist typischerweise recht aufwendig. Es wird deshalb empfohlen, bewährte standardisierte Messinstrumente für gängige Untersuchungsgegenstände (z.B. Einstellungen) immer wieder zu verwenden. Man erreicht damit auch die für viele Interpretationen wichtige Möglichkeit des Vergleichs von Ergebnissen bezüglich verschiedener Messzeitpunkte oder Teilgruppen. Den Problemen der Befragungsmethode stehen aber einige gewichtige Vorzüge gegenüber, die sie zum unverzichtbaren Bestandteil des Instrumentariums der empirischen Forschung machen. Zu nennen sind hier vor allem die breite Einsetzbarkeit von Befragungen, die praktische Anwendbarkeit auf repräsentative Stichproben, die Alleinstellung der Befragung als Erhebungsmethode für eine Reihe von Untersuchungsgegenständen (z.B. Messung von Wissen oder Einstellungen) und die Unabhängigkeit des Messzeitpunktes vom Untersuchungsgegenstand (z.B. in Form von Angaben über früheres oder zukünftiges Verhalten). Literatur: Herrmann A./ Homburg C. (Hrsg.): Marktforschung, Wiesbaden 1999; Sudman S./Blair E.: Marketing Research, Boston u.a.O. 1998.
Alfred Kuß 79
Belegschaftsaktien Belegschaftsaktien Belegschaftsaktien sind eine wichtige Form der -> Mitarbeiterbeteiligung: Die Ausgabe von Aktien, meist mit Rabatten von 20% bis 40% auf den aktuellen Börsenkurs, ist die vorherrschende Form der Mitarbeiterbeteiligung in Deutschland. Nach Ablauf einer Sperrfrist können die Mitarbeiter ihre Aktien über die Börse verkaufen. Dadurch erhalten sie neben Dividenden die Differenz zwischen dem (ermäßigten) Kaufpreis und dem Aktienkurs zum Verkaufszeitpunkt als Kursgewinn. Allerdings tragen sie hierfür auch das Risiko eines Kapitalverlusts. Weitere Formen der Mitarbeiterbeteiligung sind —• Mitarbeiterdarlehen und Genusskapital. Benchmarking Das Benchmarking ist ein in den USA entwickeltes Verfahren zum Unternehmensvergleich, aber auch zum Vergleich von Produkten, Prozessen oder Verfahren. Ziel ist der Vergleich mit und das Lernen von den Besten. So zeigt Benchmarking einem Unternehmen z.B. auf, wo es Kosten- oder Qualitätsprobleme hat und wie sehr man der Konkurrenz hinterherhinkt. Durch den Vergleich mit den Leistungen der besten Unternehmen werden die eigenen Leistungslücken aufgedeckt. Benchmarks verhelfen zu einer aktuellen Positionsbestimmung und auch zur Verbesserung der Wettbewerbsposition. Die Unternehmensführung erhält Hinweise, was zu tun ist, um (wieder) "Spitze" zu werden. Anwendungsfelder für Benchmarking sind z.B. die Überprüfung des erreichten Niveaus beim -» Lean Management, -» Qualitätsmanagement, Prozessmanagement, Wertkettenanalyse (-> Wertschöpfungskette), dem kontinuierlichen Verbesserungsprozess, aber auch des erreichten Niveaus bei Produktkosten oder Funktionsbereichskosten (z.B. Personalwirtschaft, Personalcontrolling)
80
Benchmarking sowie generell die Überprüfung gegenwärtiger Strategien. Die Messlatte wird dabei durch Weltklasse-Unternehmen gesetzt. Ein Benchmarkingkonzept wurde erstmals bei dem Kopiererhersteller Rank Xerox entwickelt. Hier wurde der Terminus 'Benchmarking' (Richtwert, Zielgröße) geprägt. Entsprechend ihrem Ursprung aus dem Vermessungswesen stehen Benchmarks für Fixpunkte, Höhenmarken oder Nivellierzeichen. Ausgangspunkt war eine katastrophale Wettbewerbsposition von Xerox Ende der 70er Jahre. Das Unternehmen verlor massiv Marktanteile und der Konkurrent Canon brachte einen Kopierer zu einem Preis auf den Markt, der allein den Herstellkosten vergleichbarer Geräte bei Xerox entsprach! Zunächst wurden Kopierer der Konkurrenz gekauft, zerlegt und die Komponenten analysiert. Diese Methodik, als -»Wertanalyse bezeichnet, ist auch hierzulande - vor allem in der Automobilindustrie - verbreitet. Es zeigte sich jedoch, dass eine Produktbetrachtung nicht ausreichend war. Der Betrachtungswinkel wurde auf weitere Funktionsbereiche ausgedehnt. So nutzte Rank Xerox beispielsweise American Express als Benchmarking-Partner für den Prozess der Erstellung von Kundenrechnungen, Sony als Referenz in Bezug auf Kapitalbindung bzw. Kapitalumschlag, Toyota als B. für Qualitätsmanagement und Procter & Gamble als Vorbild für Marketing. Xerox gilt als Musterbeispiel dafür, wie es durch einen Benchmarking-Ansatz gelingen kann, wieder den Anschluss an die Weltspitze zu finden. Benchmarking zeigt also durch Vergleiche konkrete Verbesserungsansätze auf. Beispiel: Ein internationales Unternehmen der pharmazeutischen Industrie hatte in einer Analyse der eigenen Kosten- und Leistungsrechnung festgestellt, dass die
Benchmarking Verwaltungskosten dramatisch hoch waren. Wo genau sie um wie viel zu hoch waren - diese Frage konnte man nicht beantworten. Zunächst wurde nach Benchmarking-Partnern aus der eigenen Branche gefahndet, die bereit waren, ihre Verwaltungskosten in den einzelnen Bereichen analysieren zu lassen und die anonymisierten Daten dann auszutauschen. Das auftraggebende Unternehmen erkannte hierdurch, dass die Verwaltungskosten im Marketing deutlich über dem Branchendurchschnitt und ganz erheblich über denen des Branchenbesten lagen. Das Benchmarking zeigte somit konkret auf, wo Verbesserungen in welchem Ausmaß von Nöten waren. Benchmarking geht weit über die in Deutschland seit Jahren praktizierten Konkurrenzoder Betriebsvergleiche hinaus. Es berücksichtigt zusätzlich Managementfähigkeiten und Leistungsprozesse, überspringt Branchen- und Ländergrenzen. Ziel ist immer, der Konkurrenz überlegen zu werden. Vorgehensweise !. Ermittlung der eigenen Leistungslücken. Wo liegen unsere Probleme und Defizite? Bestimmung der Leistungen eines Funktionsbereichs des eigenen Unternehmens, die dem Vergleich mit den Besten der Besten unterzogen werden sollten. Benchmarking-Partner. 2. Auswahl der Suche nach Weltklasse-Unternehmen. Diese entscheidende Phase des Benchmarking-Prozesses erweist sich in der Praxis als der größte Knackpunkt. Das Besondere des Benchmarking besteht eigentlich "nur" im Erkennen von nutzbaren früheren Innovationen eines anderen sowie deren Adaption und Implementierung im eigenen Unternehmen. Die fehlende Sicherheit bezogen auf die Güte des Benchmarking-Partners bedingt in der Regel das Herantreten an mehrere in
Benchmarking Betracht kommende Unternehmen. Dafür spricht auch die Tatsache, dass sich jedes Unternehmen bezogen auf seine eigenen Anforderungen optimiert hat, die jedoch nicht mit den Bedingungen des BenchmarkingInitiators übereinstimmen müssen. Dieser hat durch den Kontakt mit mehreren Unternehmen die Möglichkeit, aus den praktizierten Lösungen die interessantesten Teilaspekte auszuwählen und zu einer für ihn optimalen Lösung zu kombinieren. Diese Vorgehensweise ist auch der Komplexität der meisten BenchmarkingObjekte angemessen. Folgende Kriterien sind dabei zu beachten: Unternehmensart, -kultur, -demographie, -große, Prozesstechnologie, Produktart, Finanzstruktur. Anders als bei der Konkurrenzanalyse macht Benchmarking nicht an den Branchengrenzen halt; es werden auch branchenfremde Unternehmen auf bessere Lösungen hin untersucht. Denn richtet man den Blick zunächst nur auf andere Abteilungen des Unternehmens oder auf befreundete Unternehmen, so kann man schon zu gewissen Erkenntnissen gelangen. Eine solche Perspektive führt jedoch dazu, dass man grundsätzlich andere Alternativen - also "echte" Benchmarks - überhaupt nicht wahrnimmt. Denn erst der BenchmarkingVergleich mit Unternehmen außerhalb der eigenen Branche führt zu einer erweiterten Perspektive. Ein Erfahrungsaustausch mit "fremden" Unternehmen ist somit mittel- bis langfristig interessanter. Ein Beispiel aus der Warenwirtschaft: Die Verwendung des Bar- bzw. Strichcodes hat im Handel Tradition, aber erst seit kurzem bedienen sich Anwender außerhalb des Handelssektors des Barcodes (z.B. Industrieunternehmen in der Lager- und Materialwirtschaft). D.h. der Handel hatte eine "Leader"-Funktion und konnte somit als Benchmarking-Partner fur den Lo81
Benchmarking gistikbereich anderer Branchen nen.
Benchmarking die-
Klar ist, dass der Blick über Branchengrenzen leichter realisierbar ist, da hier keine Konkurrenzprobleme bestehen. 3. Bildung des Benchmarking-Teams. Es sollte funktionsübergreifend besetzt sein. Die Mitglieder sollten weniger nach ihrer aktuellen Verfügbarkeit als nach Fähigkeiten wie Sachverstand, Glaubwürdigkeit, Kommunikationsfähigkeit, Teamgeist und Änderungswille ausgewählt werden. Das Team sollte nicht mehr als sieben Mitglieder umfassen. 4. Ermittlung der eigenen Leistungskennzahlen. Messgrößen sind zu finden, mit Hilfe derer sich die interessierenden Geschäftsprozesse abbilden lassen. Ohne die eigenen Daten zu kennen, sind Lernmöglichkeiten begrenzt; es fehlt das Detailverständnis für die Unterschiede. Das Team analysiert die Kemkompetenz, Erfolgsfaktoren sowie Zeit-, Qualitäts- und Kostentreiber in Bezug auf das BenchmarkingObjekt und erfasst diese quantitativ und qualitativ in relevanten Kennzahlen. Das ist die interne Analyse. Nun gilt es, Unternehmen auszuwählen, die mit hoher Wahrscheinlichkeit die besten für den relevanten Geschäftsprozess sind. Meist reicht es, vier bis sechs Unternehmen als Benchmarking-Partner auszuwählen. 5. Ermittlung der Leistungen möglicher Partner für Benchmarking-Prozesse. Meist im Rahmen eines Besuchs. Solche Direktkontakte sind z.B. durch Interviews, Auswertungen von überlassenen Reglementierungen zum Benchmarking-Objekt, zeitweilige Integration von Mitarbeitern in den Prozess des Benchmarking-Partners oder Benchmarking-Konferenzen zu definierten Benchmarking-Gegenständen 82
im Kreis mehrerer Unternehmen realisierbar. 6.
Benchmarking-Erfahrungsaustausch. Das Einführungstreffen ist vorzubereiten. Wichtig ist, sich eine Liste mit Fragen anzufertigen, auf die man Antworten zu bekommen sucht. Hinsichtlich der Vorbereitung des Einfiihrungstreffens eignet sich beispielsweise folgendes Muster: • Vorstellung der eigenen Situation, • Ziel/Zweck des eigenen Benchmarking-Ansatzes, • Projekt- und Arbeitsplanung, • Definition des fiür den Benchmarking-Partner vorgesehenen Abschlussreports, • Abgrenzung der Nein- bzw. NichtWeiter-Entscheidung des Partners.
7. Aufbereitung und Umsetzung der Benchmarking-Ergebnisse Der Benchmarking-Prozess endet mit der Verarbeitung und Nutzung der Benchmarking-Ergebnisse. Zuvor sind diese in einem mehrstufigen Prozess für die Umsetzung aufzubereiten. Dazu gehören die Bewertung und die Verifizierung von Informationen - insbesondere vom oder über den Wettbewerb - ebenso wie die Prüfung der Vergleichbarkeit von quantitativen Angaben bezüglich Bezugsbasis und Bezugszeit. Zudem sind die Ergebnisse zu relativieren, d.h., die Zahlen und Ideen der Benchmarking-Partner müssen mit deren interner Situation in Beziehung gesetzt werden. Zu klären ist auch, unter welchen Voraussetzungen ein betrachteter Prozess ebenso rationell ausgeführt werden kann und ob diese Voraussetzungen aus interner, "kultureller" Sicht und unter Berücksichtigung wirtschaftlicher Aspekte übertragbar sind. Erst wenn alle Ergebnisse aufbereitet sind, kann die Planung der Aktivitäten beginnen: die Definition von Teilprojekten, die Benennung der Projektverantwortlichen,
Benchmarking die zeitliche Realisierungsplanung, die Mittel- und Personalfreigabe. Eine Voraussetzung für den Erfolg eines Benchmarking-Prozesses ist zudem ein gutes "Timing". Das Projekt ist so zu planen, dass spätestens nach einem halben, in Ausnahmefällen einem dreiviertel Jahr Ergebnisse in einer Detaillierung vorliegen, die sich als Zielvorgabe für die Umsetzung im eigenen Unternehmen eignen. Dabei gilt: Je dramatischer der Wandel in einer Branche, umso schneller müssen auch Benchmarking-Ergebnisse umgesetzt werden. Zusammengefasst sollen zum Abschluss die Kardinalfehler beim Benchmarking aufgelistet werden: • • • • • •
Benchmarking-Tourismus, mangelnde Umsetzung, Übergehung betroffener Mitarbeiter, zu breite Definition des Benchmarking-Objekts, zu enger Blickwinkel bei der Auswahl des Benchmarking-Partners, Betrachtung des Benchmarking als einmaliges Projekt und nicht als kontinuierlichen Prozess.
Die Einführung des Benchmarking im Unternehmen bzw. in einzelnen Funktionsbereichen ist kein leichter Weg. Dass es sich lohnt, beweisen die Betriebsergebnisse der Unternehmen, in denen die Einführung gelungen ist. Roswitha Seipel Beschaffung Unter Beschaffung werden alle Tätigkeiten verstanden, die darauf abzielen, dem Unternehmen diejenigen Güter und Dienstleistungen zur Verfügung zu stellen, die für die eigene Leistungserstellung benötigt, aber nicht selbst erzeugt werden. Begrifflich lassen sich dabei voneinander abgrenzen: Die Beschaffung im weiteren Sinne und die Beschaffung im engeren Sinne.
Beschaffungslogistik Die Beschaffung i.w.S. umfasst die Beschaffung sämtlicher Produktionsfaktoren, wie Personal, Kapital, Informationen etc. Der Begriff der Beschaffung i.e.S. hingegen wird meist synonym mit dem Begriff Einkauf verwendet. Der Begriff bezieht sich nicht auf die Beschaffung sämtlicher Produktionsfaktoren, sondern nur auf die Beschaffung originärer Güter (z.B. Roh-, Hilfs- und Betriebsstoffe). Durch den Vorgang der Beschaffung werden die benötigten Produktionsfaktoren mittels Kauf, Miete, -»Leasing oder per Gegengeschäft vom Markt ins Unternehmen überfuhrt. Beschaffung, internationale -»Global Sourcing, -> Importmanagement Beschaffungslogistik Die Aufgabe der Beschaffungslogistik besteht in der Planung, Steuerung und Implementierung aller notwendigen Strukturen und Prozesse zur bedarfsgerechten Versorgung des Unternehmens mit Gütern und Dienstleistungen (s.a. Beschaffung). Im Gegensatz zum Einkauf, der die Sicherstellung der rechtlichen Verfügbarkeit (z. B. den Eigentumserwerb) der Einsatzgüter übernimmt, obliegt der Beschaffungslogistik die physische Versorgung des Unternehmens. Der Einkauf übernimmt die Lieferantenanalyse und -auswahl, die Verhandlung von Preisen und Konditionen sowie die Gewährleistungsverfolgung. In der Beschaffungslogistik liegen grundsätzlich Entscheidungstatbestände vor, die Transport, Umschlag und Lagerung von Gütern sowie die notwendigen informatorischen Flüsse betreffen. Kennzeichnend für die Beschaffungslogistik ist ihr marktverbundener und unternehmensübergreifender Charakter. Dieser ist bei der Gestaltung effizienter logistischer Beschaffungsstrukturen und -prozesse zu berücksichtigen.
83
Beschaffungsmarketing Beschaffungsmarketing Das Beschaffungsmarketing befasst sich mit den Beziehungen zwischen leistungsbeziehendem Unternehmen und den entsprechenden Lieferanten. Der Begriff des Beschaffungsmarketings ist als Gegensatz zum Absatzmarketing geprägt worden. Während sich das Absatzmarketing mit nachgelagerten Märkten und der Nachfrage und dem Angebot auf diesen Märkten befasst, ist das Beschaffungsmarketing auf die vorgelagerten Beschaffungsmärkte ausgerichtet. Es lassen sich zwei Abgrenzungen unterscheiden. Beschaffungsmarketing i.w.S. bezieht sich auf die Personal-, Finanzmittel-, Informationsmärkte und die Roh-Hilfs- und Betriebsstoffmärkte. Beschaffungsmarketing i.e.S. hingegen umfasst ausschließlich den Materialbereich. Beschaffungsnetzwerke Im Rahmen von Beschaffungsnetzwerken kooperieren verschiedene Unternehmen ihre Beschaffungsaktivitäten. Beschaffungsnetzwerke (auch: Transportlogistiksysteme) lassen sich grundsätzlich in klassische Netzwerke mit einer baumartigen Struktur (one-to-many/many-to-one) und Netzwerke mit einer flächigen Struktur (many-to-many) einteilen. Während baumähnliche Netze vorwiegend in der Markenartikelindustrie, der industriellen Beschaffung und Ersatzteilwirtschaft und im Handel vorzufinden sind, weisen insbesondere Stückgut- und Paketdienstsysteme eine flächige Netzstruktur auf. Beschaffungsstrategie Beschaffungsstrategien beschreiben das grundlegende Konzept bzw. die grundsätzliche Politik der Beschaffung. Hier sind drei Strategien gebräuchlich, wobei jede Strategie spezifische Vor- und Nachteile aufweist: Werden Rohstoffe oder Halbfabrikate global an vielen Quellen beschafft, verfolgt man -> Global Sourcing; -> Single Sourcing bezeichnet demgegenüber die Konzentration auf eine (bzw. sehr wenige) Beschaffungsquellen. 84
Beschäftigung, geringfügige Die Just-in-Time-Beschaffungsstrategie (-» Just-in-Time) differenziert nicht nach Anzahl der Beschaffungsquellen, sondern bezeichnet eine Strategie, die eine fast vollständige Synchronisation zwischen Beschaffung und direktem Verbrauch in der Produktion anstrebt. Beschäftigung, geringfügige Für geringfügig Beschäftigte gelten sozialgesetzliche, steuerrechtliche und arbeitsrechtliche Besonderheiten. Die rechtliche Behandlung der geringfügigen Beschäftigung ("630-Mark-Jobs") steht in der Diskussion, in deren Folge gesetzliche Änderungen zu erwarten sind. Derzeit gilt Folgendes: Den Begriff der geringfügigen Beschäftigung definiert § 8 SGB IV. Eine geringfügige Tätigkeit ist danach anzunehmen, wenn die Beschäftigung regelmäßig weniger als fünfzehn Stunden in der Woche ausgeübt wird und das Arbeitsentgelt regelmäßig im Monat 630 DM nicht übersteigt (Nr. 1) oder wenn die Beschäftigung innerhalb eines Jahres seit ihrem Beginn auf längstens zwei Monate oder 50 Arbeitstage nach ihrer Eigenart begrenzt zu sein pflegt oder im Voraus vertraglich begrenzt ist, es sei denn, dass die Beschäftigung berufsmäßig ausgeübt wird und ihr Entgelt 630 DM übersteigt (Nr. 2). Bei der Bestimmung der Geringfügigkeit sind mehrere geringfügige Beschäftigungen sowie geringfügige und nicht geringfügige Tätigkeiten zusammenzurechnen. Auch für geringfügig Beschäftigte gilt das in §§ 28a ff. SGB IV geregelte allgemeine Meldeverfahren. Zur Anmeldung bei der Einzugsstelle der Sozialversicherungen wird eine Betriebsnummer benötigt, die vom Arbeitsamt vergeben wird. Sozialrecht: Geringfügig beschäftigte Personen sind grundsätzlich versicherungsfrei. Für die gesetzliche Krankenversicherung bringt § 7 SGB V Modifikationen. Nach § 249b SGB V hat der Arbeitgeber einer Beschäftigung nach § 8 Abs. 1 Nr. 1 SGB IV für Versicherte, die in dieser Beschäftigung versicherungsfrei
Beschäftigung, geringfügige oder nicht versicherungspflichtig sind, einen Beitrag von 10 Prozent des Arbeitsentgelts zu tragen. Die Begrenzung des § 249b SGB V auf Versicherte hat zur Folge, dass Arbeitgeber, die nicht gesetzlich krankenversicherte Selbstständige, Beamte und höher verdienende Arbeitnehmer geringfügig beschäftigen, keinen Pauschalbetrag zur gesetzlichen Krankenversicherung leisten müssen. Diese Regelung schafft sowohl unterschiedliche Beitragsbelastungen für Arbeitgeber als auch unterschiedliche Arbeitsmarktchancen für Personen, die eine geringfügige Beschäftigung suchen. Im Hinblick auf den Gleichbehandlungsgrundsatz des Art. 3 Abs. 1 GG erscheint die Vorschrift deshalb bedenklich. Bei der gesetzlichen Rentenversicherung haben Arbeitgeber für versicherungsfreie geringfügig Beschäftigte einen Beitragsanteil in Höhe von 12 Prozent des Arbeitsentgelts, das bei Versicherungspflicht beitragspflichtig wäre, zu leisten, § 172 Abs. 3 SGB VI. Dies gilt nicht für Studierende, die nach § 5 Abs. 3 SGB VI versicherungsfrei sind. Den von den Arbeitgebern gezahlten Beiträgen kommt gemäß § 76b SGB VI anwartschaftsbegründende und -erhöhende Wirkung zu. In der gesetzlichen Rentenversicherung besteht für geringfügig Beschäftigte überdies ein Wahlrecht. Sie können durch schriftlichen Verzicht auf die Versicherungsfreiheit nach § 5 Abs. 2 S. 2 SGB VI eine Versicherungspflicht in der gesetzlichen Rentenversicherung herbeifuhren. Der geringfügig Beschäftigte kann auf diese Weise vollwertige Pflichtbeitragszeiten in der gesetzlichen Rentenversicherung erwerben. Die Erklärung ist gegenüber dem Arbeitgeber abzugeben; eine Abgabefrist ist im Gesetz nicht vorgesehen. Steuerrecht: Arbeitsentgelt aus geringfügiger Beschäftigung wird nach § 3 Nr. 39 EStG nicht besteuert, wenn das Entgelt 630 DM im Monat nicht übersteigt, der Arbeitgeber zur Beitragszahlung in der gesetzlichen Rentenversiche-
Beschäftigung, geringfügige rung nach §§ 168 Abs. 1 Nr. 1 lit.b, 172 Abs. 3 SGB VI verpflichtet ist und die Summe der übrigen Einkünfte des geringfügig Beschäftigten nicht positiv ist. Ein Beschäftigter, der neben dem Entgelt aus geringfügiger Tätigkeit noch weitere Einkünfte hat, wird das Entgelt aus der Nebentätigkeit deshalb in der Regel zu versteuern haben. Für die Beurteilung der Steuerfreiheit kommt es bei verheirateten Arbeitnehmern nicht darauf an, ob der Ehegatte Einkünfte erzielt. Der Arbeitgeber darf das Entgelt für eine geringfügige Beschäftigung nur dann nach § 3 Nr. 39 EStG steuerfrei auszahlen, wenn ihm einmal jährlich eine Freistellungsbescheinigung des Finanzamtes vorgelegt wird, § 39a Abs. 6 EStG. Möglich ist außerdem die Pauschalbesteuerung. Zu einer Steuerzahlung kommt es im Ergebnis allerdings nur, wenn das zu versteuernde Einkommen den Grundfreibetrag von derzeit 13.067 DM bei Alleinstehenden oder 26.135 DM bei Verheirateten übersteigt. Arbeitsrecht: Für geringfügig beschäftigte Arbeitnehmer gelten nach § 1 NachwG die Vorschriften des Nachweisgesetzes, sofern es sich nicht nur um eine vorübergehende Aushilfe von höchstens einem Monat handelt. Bei Arbeitnehmern, die nach § 8 Abs. 1 Nr. 1 SGB IV einer geringfügigen Beschäftigung nachgehen, ist neben den allgemeinen in § 2 Abs. 1 NachwG genannten Vertragsbedingungen darauf hinzuweisen, dass der Arbeitnehmer in der gesetzlichen Rentenversicherung die Stellung eines versicherungspflichtigen Arbeitnehmers erwerben kann, wenn er nach § 5 Abs. 2 S. 2 SGB VI auf die Versicherungsfreiheit durch Erklärung gegenüber dem Arbeitgeber verzichtet. Arbeitsrechtlich ist weiterhin zu berücksichtigen, dass geringfügige Beschäftigung grundsätzlich eine Sonderform der Teilzeitbeschäftigung darstellt. Vorschriften, die für Teilzeitbeschäftigte gelten, sind deshalb regelmäßig auch bei geringfügig beschäftigten Arbeitnehmern 85
Beschäftigung, geringfügige anzuwenden. So darf der Arbeitgeber gemäß § 2 Abs. 1 BeschFG einen teilzeitbeschäftigten Arbeitnehmer nicht wegen der Teilzeitarbeit gegenüber vollzeitbeschäftigten Arbeitnehmern unterschiedlich behandeln, es sei denn, dass sachliche Gründe eine unterschiedliche Behandlung rechtfertigen. Teilzeitbeschäftigte haben damit im Prinzip Anspruch auf die gleiche Stundenvergütung wie Vollzeitbeschäftigte. Nach § 4 Abs. 1 BeschFG muss im Arbeitsvertrag eine bestimmte Dauer der Arbeitszeit festgelegt werden, wenn der Arbeitnehmer seine Arbeitsleistung entsprechend dem Arbeitsanfall zu erbringen hat. Geschieht das nicht, gilt eine wöchentliche Arbeitszeit von 10 Stunden als vereinbart. Der Arbeitnehmer ist zur Arbeitsleistung nur verpflichtet, wenn der Arbeitgeber ihm die Lage seiner Arbeitszeit jeweils mindestens vier Tage im Voraus mitteilt. Ist in der Vereinbarung die tägliche Dauer der Arbeitszeit nicht festgelegt, ist der Arbeitgeber durch § 4 Abs. 3 BeschFG verpflichtet, den Arbeitnehmer jeweils für mindestens drei aufeinanderfolgende Stunden zur Arbeitsleistung in Anspruch zu nehmen. Die Anwendbarkeit des Kündigungsschutzgesetzes hängt nach § 23 Abs. 1 KSchG davon ab, dass im Betrieb mehr als fünf Arbeitnehmer beschäftigt sind. Bei der Feststellung der Zahl der beschäftigten Arbeitnehmer sind teilzeitbeschäftigte Arbeitnehmer mit einer regelmäßigen wöchentlichen Arbeitszeit von nicht mehr als 20 Stunden mit 0,5 und von nicht mehr als 30 Stunden mit 0,75 zu berücksichtigen. Christian Heinrich Beschäftigungspolitik Arbeitsmarkt- und Beschäftigungspolitik Beschwerdemanagement Das Beschwerdemanagement umfasst die Planung, Durchfuhrung und Kontrolle aller Maßnahmen, die ein Unternehmen 86
Beschwerdemanagement im Zusammenhang mit Kundenbeschwerden ergreift. Beschwerden sind Artikulationen von Unzufriedenheit, die Kunden gegenüber einem Unternehmen oder Drittinstitutionen äußern, um auf ein subjektiv als schädigend wahrgenommenes Verhalten eines Anbieters aufmerksam zu machen, Wiedergutmachung für erlittene Beeinträchtigungen zu erreichen und/oder eine Änderung des kritisierten Verhaltens zu bewirken. Die generellen Ziele des Beschwerdemanagements liegen darin, -» Kundenzufriedenheit wiederherzustellen, die negativen Auswirkungen von Kundenunzufriedenheit auf das Unternehmen zu minimieren und die in Beschwerden enthaltenen Hinweise auf betriebliche Schwächen und Marktchancen zu identifizieren und zu nutzen. Daraus ergeben sich folgende Teilziele: a) Herstellung von (Beschwerde-) Zufriedenheit, die als wesentliche Grundlage für Einstellungsverbesserungen, Kundenbindung und Markentreue anzusehen ist; b) Vermeidung von Kosten, die bei anderen Reaktionsformen unzufriedener Kunden entstehen. Durch die Ermutigung von Kunden, sich im Falle der Unzufriedenheit an das Unternehmen zu wenden, soll dem Unternehmen Gelegenheit gegeben werden, Abhilfe zu schaffen und für das Unternehmen gravierendere Verhaltensaltemativen wie Abwanderung oder Einschaltung von Medien zu verhindern; c) Umsetzung und Verdeutlichung einer kundenorientierten Untemehmensstrategie; d) Schaffung zusätzlicher akquisitorischer Effekte mittels Initiierung positiver persönlicher Kommunikation der Beschwerdeführer; e) Auswertung und Nutzung der in Beschwerden enthaltenen Informationen zu Zwecken der Qualitätsüberwachung und -Verbesserung sowie zur Identifikation von Marktchancen;
Beschwerdemanagement
Besehwerdemanagement f) Reduzierung interner Fehlerkosten.
und
externer
Die Ziele des Beschwerdemanagements lassen sich nur erreichen, wenn folgende Aufgaben des Beschwerdemanagements bewältigt werden: Beschwerdestimulierung, -annahme, -bearbeitung, -reaktion und -auswertung. Zusätzlich ist im Rahmen eines BeschwerdemanagementControllings der Zielerreichungsgrad der Aufgabenerfiillung zu überprüfen. Im Rahmen der Beschwerdestimulierung sollen unzufriedene Kunden dazu bewegt werden, ihre Probleme gegenüber dem Unternehmen vorzubringen. Dabei sind vor allem zwei Teilaufgaben zu lösen: die Einrichtung von Beschwerdewegen und die Kommunikation des Beschwerdeweges gegenüber den Kunden. Die Entscheidung über den Beschwerdeweg betrifft die Frage, auf welche Weise (mündlich, schriftlich, telefonisch, per -> EMail) und gegenüber welcher Stelle Kunden ihre Beschwerden vorbringen sollen. Damit ein hoher Anteil der unzufriedenen Kunden den geeigneten Beschwerdekanal wählt, muss eine Kommunikation des Beschwerdeweges erfolgen. Mittels unterschiedlicher Kommunikationsmittel (Anzeigen, Verpackungen usw.) sind unzufriedene Kunden zu fordern, sich im Problemfall auf dem angegebenen Weg an das Unternehmen zu wenden. Die Phase der Beschwerdeannahme betrifft den Erstkontakt mit dem unzufriedenen Kunden sowie die Erfassung der Beschwerdeinformation. Mit ihrer Reaktion auf eine vorgebrachte Beschwerde im Erstkontakt bestimmen Unternehmen wesentlich darüber, ob Kundenunzufriedenheit abgebaut oder noch gesteigert wird. Daher kommt es darauf an, dass Mitarbeiter in fachlicher und sozialpsychologischer Hinsicht kompetent sind. Im Rahmen der Beschwerdeerfassung geht es darum, das vom Kunden vorgebrachte Problem vollständig, schnell und strukturiert aufzunehmen.
In das Aufgabenfeld der Beschwerdebearbeitung und -reaktion fällt die Gestaltung der internen Bearbeitungsprozesse, die Festlegung von Verantwortlichen, die Definition von Bearbeitungsterminen sowie die Installation von Mechanismen zur Überwachung der Termineinhaltung. Außerdem müssen Entscheidungen über Umfang und zeitliche Gestaltung der Kommunikation in den Folgekontakten mit dem unzufriedenen Kunden sowie über die Fall-Lösung getroffen werden. Beschwerden geben relevante, eindeutige und aktuelle Informationen über die vom Kunden wahrgenommenen Probleme mit einem Aspekt der unternehmerischen Leistung. Daher bedarf es der Beschwerdeauswertung, deren Ergebnisse systematisch für strategische und operative Entscheidungen bereitzustellen sind. Im Mittelpunkt der quantitativen Beschwerdeauswertung steht die Überwachung des Umfangs und der Verteilung des Beschwerdeaufkommens, differenziert nach einem zuvor festgelegten Katalog von Merkmalen (z.B. Regionen, Zeitintervallen, Problemarten, Produkt- oder Kundengruppen). Dies ist im Rahmen einer qualitativen Beschwerdeauswertung durch eine systematische Ursachenanalyse zu ergänzen. Hierfür stehen verschiedene Analyseformen zur Verfugung, zu denen auch Problemlösungstechniken wie Ursache-Wirkungs-Diagramme oder die -> FMEA (Failure Mode and Effect Analysis) gehören. Der fünfte Aufgabenbereich des Beschwerdemanagements betrifft das Beschwerdemanagement-Controlling mit zwei zentralen Teilbereichen: AufgabenControlling und Kosten-Nutzen-Controlling. Das Aufgaben-Controlling überwacht, inwieweit die Aufgaben des Beschwerdemanagements erfüllt werden. Hier sind bezüglich aller Teilaufgaben Leistungsindikatoren und -Standards zu formulieren, deren Einhaltung und Adäquanz laufend überprüft werden müssen. Nur für einen 87
Bestellmenge
Beschwerdemanagement Teil der Leistungsindikatoren können objektive Standards festgelegt werden (z.B. zeitliche Vorgaben für die Schnelligkeit der Beschwerdebearbeitung). In anderen Fällen bietet es sich an, Kundenzufriedenheitswerte als Standards vorzugeben und im Rahmen der Beschwerdezufriedenheitsbefragung zu überprüfen (z.B. die Zufriedenheit mit der angebotenen Problemlösung). Bei Überschreiten von definierten Toleranzspielräumen zwischen Soll- und Ist-Leistung sind Korrekturprozesse im Beschwerdemanagement einzuleiten. Das Kosten-Nutzen-Controlling hat die Funktion, die Kosten- und Nutzeneffekte eines Beschwerdemanagementsystems abzuschätzen. Im Kosten-Controlling geht es um die Quantifizierung der Kosten, die bei der Annahme, Reaktion und Bearbeitung sowie Auswertung von Beschwerden entstehen. Grundsätzlich lassen sich die hier anfallenden Kosten in fixe, d.h. von der Anzahl anfallender Beschwerden unabhängige, und variable, also von der Beschwerdezahl abhängige Kosten unterscheiden. Zu den fixen Beschwerdemanagementkosten gehören Personalkosten, Raumkosten und Abschreibungen für die Büroausstattung einer Beschwerdeabteilung. Variable Kostenelemente sind Gewährleistungskosten (Fall-Lösung aufgrund eines Rechtsanspruchs des Kunden), Kulanzkosten (Fall-Lösung ohne Rechtsanspruch des Kunden) und variable Bearbeitungskosten aller an der Bearbeitung und Auswertung beteiligten unternehmerischen Einheiten. Im Rahmen des Nutzen-Controllings geht es um die Quantifizierung der unterschiedlichen Nutzendimensionen des Beschwerdemanagements (Informations-, Einstellungs-, Wiederkauf- und Kommunikationsnutzen). Dabei stehen Wiederkauf- und Kommunikationsnutzen im Vordergrund. Diese Nutzenkategorien werden abzuschätzen versucht, indem man den monetären Erfolg aus dem zukünftigen Kauf- und Kommunikations-
88
verhalten der durch die Beschwerdereaktion zufriedengestellten Kunden berechnet. Dabei ergibt sich der ungefähre Wert eines Kunden, der durch Beschwerdemanagement gebunden wird, aus dem durchschnittlichen Deckungsbeitrag des Kunden in Bezug auf das beanstandete Produkt (gegebenenfalls ergänzt um Deckungsbeiträge weiterer bezogener Leistungen) und unter Berücksichtigung von Wiederkaufraten und durchschnittlich zu erwartender Kundenbindung. Zusätzlich kann die Akquisitionswirkung des Kunden aufgrund seines Kommunikationsverhaltens (Zuwanderung anderer Kunden infolge der persönlichen Kommunikation) berücksichtigt werden. Ein Teil der für diese Kalkulation erforderlichen Daten ist per Beschwerdezufriedenheitsbefragung zu ermitteln (Anzahl der durch Beschwerdemanagement zufriedengestellten Kunden, durchschnittliche Anzahl positiver persönlicher Kommunikationskontakte, tatsächliches bzw. beabsichtigtes Wiederkaufverhalten). Andere Daten sind unternehmensinternen Quellen zu entnehmen (Durchschnittsumsatz bzw. -deckungsbeitrag eines Kunden, durchschnittliche Bindungsdauer eines zufriedenen Kunden). Aus der Gegenüberstellung von Beschwerdekosten und Beschwerdenutzen lässt sich dann die Rentabilität des Beschwerdemanagements {Return on Complaint Management) berechnen. Bernd Stauss Beschwerdemanagement-Controlling Beschwerdemanagement Bestandsmanagement Lagermanagement Bestätigungsvermerk -> Abschlussprüfung Bestellmenge Die Bestellmenge ist die Menge der bestellten Materialien aus Bestellungen und Lieferplänen. Um die optimale (wirtschaftliche) Bestellmenge zu ermitteln, sind zuerst die entscheidungsrelevanten
Beta-Risiko
Bestellmenge Kosten zu bestimmen. Diese setzen sich zusammen aus den: •
Beschaffungskosten Alle Kosten, die mit der Beschaffung des erforderlichen Materials entstehen, z.B. Einkaufspreis, Transportkosten, Verpackungskosten, Zölle, Transportversicherung etc. (mengenabhängig) sowie die Kosten der Bestellabwicklung (mengenunabhängig).
•
Lagerhaltungskosten Alle Kosten, die durch das Einlagern, Lagern und das Auslagern des Materials anfallen, z.B. Kapitalbindungskosten, Lagerraumkosten etc.
•
Fehlmengenkosten Alle Kosten, die durch eine fehlende Lieferbereitschaft verursacht werden, z.B. Kulanz, Garantie etc.
Für die Berechnung der optimalen Bestellmenge sind diese entscheidungsrelevanten Kosten zu minimieren. Vorgehen: Berechne die gesamten Kosten der Periode: K(r) = q • R + k B • R/r + !/2 • k L • r K(r) = Preis • Menge + bestellfixe Kosten • Anzahl der Bestellungen + Lagerkosten -durchschnittliche Lagermenge Durch Umformen erhält man die Formel für die optimale Bestellmenge (r ):
V
kl.
Das Modell der optimalen Bestellmenge ist erweiterbar um Lagerraumbeschränkungen, Berücksichtigung unterschiedlicher Rabatte je nach Bestellmenge, Preisänderungen, Berücksichtigung von Finanzierungskosten etc. Bestellpunktverfahren -* Lagermanagement Bestellzyklusverfahren -> Lagermanagement
Beta-Risiko 1. Statistischer Hintergrund: Regressionsanalyse Der Zugang zum Begriff des Beta-Risikos über die lineare (mehrfache) -* Regressionsanalyse ist besonders nahe liegend. Betrachtet werden dabei zunächst die unsicheren zukünftigen Werte Z, (i= 1, ... , N) von Finanztiteln als "zu erklärende" Zufallsgrößen. Spezifiziert man mutmaßlich allen Finanztiteln gemeinsame erklärende Faktoren Fk (k~\, ..., M), so kann man folgenden Erklärungsansatz vornehmen: (1) M z< = E ( Z , ) +
• {Ft - E ( F , ) ) • +
(/ =
\,...,N)
wobei man ohne Beschränkung der Allgemeinheit von wechselseitig unkorrelierten Faktoren ausgehen kann (anderenfalls nimmt man eine entsprechende lineare Transformation vor). Um die Werte Z, bestmöglich durch die Faktoren Fk zu erklären, wird man die Beta-Größen so wählen, dass die Varianz des unerklärten Anteils Ei möglichst klein wird. Das führt bekanntlich dazu, dass dieser auch als "Störterm" bezeichnete Anteil £, mit den Faktoren Fk nicht mehr korreliert ist und dass (2) _cov(Z„F,) var(F()
gesetzt werden muss. Bei gegebenen Faktoren ist diese Darstellung dann eindeutig. Damit ist der formale Hintergrund für die Betrachtung des Beta-Risikos skizziert. Man muss sich allerdings klar machen, dass (1) und (2) gewissermaßen empirisch leere Aussagen sind, da jede beliebige Größe als Faktor gewählt werden kann, also etwa auch die Tagestemperatur am Börsenplatz. Das Modell gewinnt empirischen Gehalt erst, wenn man die Störterme £, weiteren Beschränkungen unterwirft. 2. Finanztheoretischer Hintergrund: Effiziente Portfolios und CAPM Unter ökonomischen Aspekten ist ein Modell wie (1) interessant, wenn es zusätzlich zur in der Formel zum Ausdruck 89
Beta-Risiko kommenden Strukturaussage Auskunft über die Preisrelevanz der eingehenden Größen gibt. Unter Rückgriff auf die -> Portefeuille-Theorie und das -> Capital Asset Pricing Modell (CAPM) kann man (1) wie folgt spezifizieren: Sei x ein effizientes Portfolio, dann wählt man M= 1 N
und F, := ^xlZl, d.h. den zukünftigen ¡=i Wert des effizienten Portfolios als einzigen Faktor. Das Regressionsmodell (1) lautet dann: (3) z, = E(z,) + ß, -¡jlx,z,
~E[jlx,z,
jj
+ f
> (' =
Diese Darstellung hat nun folgende Eigenschaften; die Preise ergeben sich aus der nachstehenden Beziehung (4) p
'=Th\E{z')-ß'[E{p'z'Pl+ryP'P'\\
(, = l
und es gilt (5) N
I V r » Gleichung (5) besagt, dass der Einfluss der Störterme in den Wertpapierrückflüssen diversifizierbar (hedgbar, -» Hedging) ist: In einem effizienten Portfolio saldieren sie sich zu Null. Aus Gleichung (4) geht hervor, dass die Störterme auch keinen Preiseinfluss haben, sie werden daher als das unsystematische Risiko bezeichnet; diversifizierbares Risiko ist unsystematisch. Im Umkehrschluss zeigt (4), dass nur der Beta-Term wirklich preisbestimmend ist; entsprechend wird das betreffende -> Risiko als systematisch bezeichnet; nicht diversifizierbares Risiko ist systematisch. Beta selbst misst das systematische Risiko in Einheiten der Risikoprämie des effizienten Portfolios (dem Koeffizienten von Beta in der Gleichung (4)). Im Kapitalmarktgleichgewicht des CAPM tritt an die Stelle irgendeines effizienten Portfolios das Marktportfolio, das systematische Risiko wird zum Marktrisiko, Nicht-Marktrisiken werden zu diversifizierbaren Risiken. 3. Alternative 90
Spezifikationen
N]
Beta-Risiko Besonders im Zusammenhang mit der empirischen Untersuchung von Überrenditen (Kapitalmarktanomalien wie der "small firm effect" oder der "turn of the year effect" oder aber auch Reaktionen auf neue Informationen wie die Ankündigung von Fusionen oder "sell-offs", s.a. -»Unternehmenszusammenschluss bzw. -» Unternehmensspaltung) wird gerne das so genannte "Marktmodell" verwendet. Dabei handelt es sich um die Spezifikation von (1) mit nur einem Faktor, der in der Regel mit einem Marktindex (DAX, EuroStoxx, Dow Jones, Standard and Poor's etc.) identifiziert wird. Wie schon angedeutet, hat dieser Ansatz nur empirischen Gehalt, wenn über die Störterme weitere Annahmen getroffen werden; dem SHARPEschen Indexmodell entsprechend, wird postuliert, dass die Störterme wechselseitig unkorreliert sind. Diese Annahme steht offenbar in Konflikt mit (5), so dass die Störterme im Marktmodell grundsätzlich nicht diversifizierbar sind und daher, wie oben verdeutlicht, Preiseinfluss haben (müssen). Das BetaRisiko in diesem Modellzusammenhang kann daher nicht als die einzige Preiskomponente betrachtet werden. Insbesondere sind Marktmodell (in dieser Spezifikation) und CAPM unvereinbar. Wünscht man im Beta-Risiko den Preiseinfluss vollständig repräsentiert zu sehen, muss man hingegen auf eine a priori Annahme über die Störterme verzichten, Marktmodell und Gleichung (3) fallen dann zwangsläufig zusammen, wenn der gewählte Marktindex effizient ist, anderenfalls ist das Marktmodell falsch. Das Modell der ->Arbitrage Pricing Theorie (APT) ist als Alternative zum CAPM entwickelt worden, um dem Dilemma der Testbarkeit des CAPM zu entgehen. Bei diesem Modell handelt es sich im Ergebnis um ein erweitertes Marktmodell (also mehrere Faktoren), die vorab spezifiziert sein oder im Wege einer Faktorenanalyse aus dem Datenmaterial extrahiert werden können. Im Prinzip
Betriebliches Vorschlagswesen
Beta-Risiko muss man der APT dieselben Vorbehalte entgegenbringen wie dem Marktmodell. 4. Verwendung, Probleme Für die Verwendungsmöglichkeiten kann weitgehend auf das Stichwort -* Capital Asset Pricing Modell verwiesen werden. Zusätzlich zu den dort aufgeführten Punkten ist an den oben erwähnten Einsatz bei empirischen Fragestellungen zu erinnern, bei denen es darum geht, Kapitalmarktrenditen um den ihnen innewohnenden Risikoterm zu bereinigen (sog. "Risikoadjustierung"). Die Probleme bei der Verwendung sind ebenfalls geprägt durch die Schwierigkeiten, die einer empirischen Überprüfung des CAPM entgegen stehen. Dabei ist für die Risikoadjustierung noch besonders auf die zeitliche Stabilitätsfrage des Beta-Risikos hinzuweisen. Jochen Wilhelm Beteiligungsfinanzierung Finanzierung Beteiligungsrechte, betriebliche Unter dem Oberbegriff der betrieblichen Beteiligungsrechte sind -> Mitwirkungsund Mitbestimmungsrechte des —> Betriebsrats zusammengefasst. Ihr Zweck besteht zum einen darin, die Mitwirkung des Betriebsrats zu sichern und fest zu schreiben, zum anderen darin, dem Arbeitnehmer über den Betriebsrat weitere Schutzrechte zukommen zu lassen. Mitwirkungsrechte ermöglichen dem Betriebsrat die Entscheidungsfindung. Mitbestimmungsrechte dienen der Beteiligung an der Entscheidungsumsetzung. Beteiligungsrechte, unternehmerische -» Unternehmensmitbestimmung Betriebliches Vorschlagswesen Das BVW ist ein traditionsreiches Instrument zur Herausforderung des Ideenreichtums der Mitarbeiter in Unternehmen, die Gedanken zur Verbesserung ihres Arbeitsumfeldes als Verbesserungsvorschläge einreichen.
Als Begründer des BVW in Deutschland zählt Alfred Krupp. In seinem GeneralRegulativ vom 14. März 1872 heißt es unter § 13: "Anregungen und Vorschläge zu Verbesserungen, auf solche abzielende Neuerungen, Vorstellungen und Bedenken gegen die Zweckmäßigkeit getroffener Anordnungen, sind aus allen Kreisen der Mitarbeiter dankbar entgegenzunehmen und durch Vermittlung des nächsten Vorgesetzten an das Direktorium zu befördern, damit dieses die Prüfung veranlasse." Der Grundgedanke eines Vorschlagswesens geht allerdings noch weiter zurück. So gab es schon um 1741 in Schweden eine "Königliche Kommission", die Vorschläge der Bürger zu prüfen und zu beurteilen hatte. Im Jahre 1939 hatten in Deutschland etwa 100 Firmen ein BVW eingeführt. In der Kriegswirtschaft lag das BVW im staatlichen Interesse und so wurde es 1943 bereits von 35.000 Betrieben ausgewiesen. Erste Aktivitäten nach Kriegsende sind ab 1951 zu verzeichnen. Seit dieser Zeit ist das Deutsche Institut für Betriebswirtschaft (dib) in Frankfurt am Main die Dachorganisation für das Vorschlagswesen in Deutschland. In der ehemaligen DDR wurde das BVW 1948 wieder wirksam und als "Neuererbewegung" auf der Grundlage einer staatlichen Verordnung seit 1963 für alle Betriebe, verbunden mit einer Planauflage, verbindlich. Mehrfach totgesagt, erlebte das Vorschlagswesen mit den neuen Führungstechniken, dem Übergang vom autoritären zum kooperativen -> Führungsstil, der Entwicklung moderner Unternehmensphilosophien, einen erstaunlichen Aufschwung. Nach der Statistik des dib, an der 409 Unternehmen und Behörden teilnahmen, wurde für 1998 mit mehr als 1 Million Verbesserungsvorschlägen ein Nutzen von fast 2 Milliarden DM ausgewiesen.
91
Betriebliches Vorschlagswesen Die Einreicher erhielten dafür eine Vergütung in Höhe von rund 300 Millionen DM. Neben dem in Geld zu erfassenden Rationalisierungseffekt der Verbesserungsvorschläge wird von den Unternehmen und Einrichtungen das Einreichen von Verbesserungsvorschlägen zunehmend als Ausdruck der Identifikation der Mitarbeiter mit dem Unternehmen und damit unter dem Aspekt der Personalführung gewertet. Gegenüber dem Arbeitnehmer-ErfinderRecht ist das BVW nur sehr pauschal geregelt. Regelungen finden sich derzeit u.a. •
•
im § 87 Abs. 1 Ziff. 12 BetrVG vom 15.01.1972 ("Grundsätze über das BVW"); im § 75 Abs. 3 Ziff. 12 Bundespersonalvertretungsgesetz vom 15.03.1974 ("Grundsätze über die Bewertung von anerkannten Vorschlägen im Rahmen des BVW").
Mitbestimmungspflichtig sind seit 1981 die "Grundsätze des BVW", sobald für eine allgemeine Regelung im Betrieb ein Bedürfnis besteht. Durchgeführt wird die Mitbestimmung in Form einer Betriebsvereinbarung nach Maßgabe des § 77 BetrVG, welche zwischen Arbeitgeber und Betriebsrat schriftlich niederzulegen ist. Das BVW stellte in der traditionellen Unternehmensstruktur eine selbstständige Organisationseinheit dar. Der BVWBeauftragte nahm die Verbesserungsvorschläge entgegen und sicherte die Bearbeitung, besonders die Begutachtung und die Kommissionsentscheidung über die Vorschlags-Prämie. Die Festlegungen über die Anerkennung eines Vorschlags als vergütungspflichtiger Verbesserungsvorschlag haben sich in den letzten Jahren gewandelt. So wird die Frage nach der Abgrenzung des Aufgabengebietes bei Mitarbeitern kaum noch 92
Betriebliches Vorschlagswesen gestellt, weil aus dem unmittelbaren Arbeitsumfeld der Mitarbeiter auf der Grundlage ihrer Arbeitserfahrungen die interessantesten Anregungen kommen. Für die Vergütung von Verbesserungsvorschlägen hat sich ein Prozentsatz zwischen 15 und 25 Prozent des Nutzens im ersten Nutzungsjahr herausgebildet. Die Anzahl der eingereichten Vorschläge je 100 Beschäftigten lag 1998 bei 40. Der Benutzungsgrad erreichte im Durchschnitt aller Branchen etwa 60 Prozent, in der Elektroindustrie sogar 80 Prozent. Dem Einreicher stehen Möglichkeiten des Einspruchs bei Ablehnung zu. Die steuerliche Begünstigung der Vorschlagsprämien ist seit dem 31.12.1988 entfallen. Danach sind die Prämien der Lohnsteuer unterworfen. Dabei ist es nicht von Bedeutung, ob die Prämien in Geld oder in Sachwerten bestehen. Die Entwicklung der Unternehmensphilosophien und der Führungstechniken wirkte sich zwangsläufig auf das Vorschlagswesen aus. Die immer stärker zunehmende Bedeutung von Innovationen für die Ergebnisse der Unternehmen machten ein -> Innovationsmanagement notwendig, mit dem systematisch das Wissen und die Erfahrungen aller Mitarbeiter des Unternehmens, nicht nur in Forschung und Entwicklung, erfasst und gemanagt werden. Hier ordnet sich das Ideenmanagement ein, wie das BVW inzwischen auch offiziell bezeichnet wird. Mit dem Abbau der Hierarchien und damit der Delegierung von Verantwortung nach unten, wandeln sich auch die Inhalte des traditionellen BVW, so auch die Stellung des BVW-Verantwortlichen. Nach dem neuen Führungsverständnis wird der unmittelbare Vorgesetzte zum Coach seiner Mitarbeiter, der nicht mehr alles anweist, sondern vielmehr die Voraussetzungen schafft, dass sich deren Kreativität voll entfalten kann. Damit übernimmt er im Vorschlagswesen die
Betriebsänderung
Betriebliches Vorschlagswesen zentrale Rolle von der Entgegennahme der Verbesserungsvorschläge, soweit sie seinen Verantwortungsbereich betreffen, über die Unterstützung der Einreicher bis zur schnellen Einfuhrung. Und er entscheidet eigenverantwortlich über die Prämie bis zu einer festgelegten Höhe. Der BVW-Verantwortliche wandelt sich zum Coach der Führungskräfte. Er führt sie an ihre neuen Aufgaben aus dem traditionellen Vorschlagswesen heran. Bei ihm verbleibt die Behandlung der bereichsübergreifenden Verbesserungsvorschläge. Damit in Verbindung gewinnt die Vermittlung von Kreativitätstechniken an die Mitarbeiter an Bedeutung. Die Auswertung der Statistik des dib zum Ideenmanagement in Deutschland zeigt, dass in zunehmendem Maße mittelständische Unternehmen das Ideenmanagement für die Erschließung des Kreativitätspotenzials ihrer Mitarbeiter entdecken. Auch beginnt in Behörden und Verwaltungen ein Umdenkungsprozess in Richtung eines Lean Managements, das den Mitarbeitern zunehmend mehr Freiräume für das Einbringen eigener Ideen zur Gestaltung ihres Arbeitsumfeldes schafft. Wolfgang Werner Betriebsänderung Der Begriff der Betriebsänderung ist im BetrVG nicht definiert. Allgemein versteht man darunter unternehmerische Entscheidungen, die für die Belegschaft oder einen wesentlichen Teil davon zu wesentlichen Nachteilen führen können. Diese Nachteile können materieller oder immaterieller Art sein. § 111 BetrVG enthält einen Katalog, der die praktisch relevanten Fälle von Betriebsänderungen enthält: •
•
Einschränkung oder Stillegung des gesamten Betriebs oder von wesentlichen Betriebsteilen, Verlegung des ganzen Betriebs oder von wesentlichen Betriebsteilen,
• •
•
Zusammenschluss mit anderen Betrieben oder die Spaltung von Betrieben, grundlegende Änderungen der Betriebsorganisation, des Betriebszwecks oder der Betriebsanlagen sowie die Einführung grundlegend neuer Arbeitsmethoden und Fertigungsverfahren.
In der Literatur ist dabei umstritten, ob die fünf Aufzählungen des Gesetzes einen abschließenden Katalog darstellen oder nicht. Die Rechtssprechung hat diese Frage bisher unbeantwortet gelassen. Führt eine unternehmerische Entscheidung zu einer Betriebsänderung, so ist bei Vorliegen der folgenden vier Voraussetzungen der -> Betriebsrat an der geplanten Maßnahme zu beteiligen: Der betroffene Betrieb beschäftigt mehr als 20 Arbeitnehmer, ein Betriebsrat ist in dem speziellen Betrieb vorhanden, wesentliche Nachteile sind für die Belegschaft zu erwarten, und die Betriebsänderung befindet sich noch in der Planungsphase. Sind die genannten Voraussetzungen erfüllt, so hat der Arbeitgeber den Betriebsrat frühzeitig über Art, Umfang, Gründe und Auswirkungen der geplanten Maßnahme zu informieren, um so eine Mitwirkung des Betriebsrats an der Gestaltung der Betriebsänderung zu ermöglichen. Die Mitwirkung beschränkt sich dabei auf eine Beratung zwischen beiden Parteien (d.h. gegenseitige Anhörungen sowie ernsthaftes Erwägen der Argumente). Da der Unternehmer bei seinen wirtschaftlichen Entscheidungen grundsätzlich frei ist, kann der Betriebsrat lediglich das "Ob und Wie" der Maßnahmen diskutieren. Ergebnisse dieser Beratungen werden im -> Interessenausgleich niedergelegt. Sind wirtschaftliche Nachteile für die betroffenen Arbeitnehmer erkennbar, kommt es zudem zur Aufstellung eines -> Sozialplans. 93
Betriebsänderung Literatur: Hromadka, W./Maschmarm, F.: Arbeitsrecht, Bd. 2, Kollektivarbeitsrecht, Berlin u.a. 1999; v. Hoyningen-Huene, G.: Betriebsverfassungsrecht, 3., neubearb. Aufl., München 1993.
Thomas Träger Betriebsergebnis Das Betriebsergebnis ist im Rahmen der --> Kosten- und Leistungsrechnung definiert als Leistung minus Kosten (-» Basisrechnungssysteme). Es stellt das Ergebnis der betriebsbezogenen -> Kosten- und Leistungsrechnung dar. Betriebsrat Der Betriebsrat repräsentiert mit Ausnahme der in § 5 BetrVG genannten Personengruppen (u.a. leitende Angestellte) die -» Arbeitnehmer eines Betriebes und nimmt deren Interessen gegenüber dem Arbeitgeber wahr. Es handelt sich um eine gewählte Interessenvertretung, nicht um eine juristische Person. Rechte und Pflichten können sich für den Betriebsrat im Rahmen der -> Betriebsverfassung ergeben; insoweit ist der Betriebsrat teilrechtsfähig. So ist der Betriebsrat selbst Inhaber eines Kostenerstattungsanspruchs gemäß § 40 BetrVG gegenüber dem Betriebsinhaber, den er wegen § 10 ArbGG selbstständig im Beschlussverfahren gerichtlich geltend machen kann. Der Betriebsrat wird durch (Verhältnis-) Wahl bestimmt; es besteht allerdings keine Pflicht zur Betriebsratswahl. Eine Wahl kann nur in Betrieben durchgeführt werden, in denen einschließlich der Nebenbetriebe und Betriebsteile in der Regel mindestens fünf wahlberechtigte Arbeitnehmer ständig beschäftigt sind, von denen drei wählbar sind (§ 1 BetrVG). Wahlberechtigt sind Arbeitnehmer, die am Wahltag das 18. Lebensjahr vollendet haben; wählbar sind alle wahlberechtigten Arbeitnehmer nach sechsmonatiger Betriebszugehörigkeit. Die Wahl ist geheim und unmittelbar. Sie ist grundsätzlich eine Gruppenwahl, das heißt, dass Arbeiter und Angestellte in getrennten Wahlgängen wählen. Regelmäßige Betriebsrats94
Betriebsrat wählen finden nach vier Jahren in der Zeit vom 1. März bis zum 31. Mai statt; die nächsten regelmäßigen Betriebsratswahlen werden im Jahr 2002 abgehalten. Die Anzahl der Betriebsratsmitglieder staffelt sich nach der Zahl der wahlberechtigten Arbeitnehmer im Betrieb, vgl. die Angaben in § 9 BetrVG. In Betrieben mit 200 Arbeitnehmern besteht der Betriebsrat beispielsweise aus sieben Mitgliedern. Einzelheiten des Wahlverfahrens sind dem BetrVG und der WahlO zu entnehmen. Besteht der Betriebsrat aus mehreren Personen, sind ein Vorsitzender und dessen Stellvertreter zu wählen. Der Vorsitzende vertritt den Betriebsrat im Rahmen seiner Beschlüsse nach außen, nimmt Erklärungen an den Betriebsrat entgegen, beruft die Sitzungen des Betriebsrats ein und setzt die Tagesordnung fest. Betriebsräte mit neun oder mehr Mitgliedern bilden nach § 27 BetrVG einen Betriebsausschuss, der die laufenden Geschäfte führt. Seine Entscheidungen fallt der Betriebsrat in nicht öffentlichen Sitzungen durch Mehrheitsbeschluss, § 33 BetrVG. Die Beendigung der Mitgliedschaft im Betriebsrat regelt § 24 BetrVG. Danach erlischt die Mitgliedschaft beispielsweise mit Niederlegung des Amtes, Beendigung des Arbeitsverhältnisses oder Verlust der Wählbarkeit. Das Amt eines Betriebsratsmitglieds ist gemäß § 37 BetrVG ein unentgeltliches Ehrenamt. Von seiner beruflichen Tätigkeit ist der Betriebsrat ohne Minderung des Entgelts in erforderlichem Umfang freizustellen. In mittleren und größeren Betrieben ist nach der Aufstellung in § 38 BetrVG eine bestimmte Mindestzahl von Betriebsratsmitgliedern vollständig von der Arbeit zu befreien. Betriebsräte dürfen bei der Ausübung ihrer Tätigkeit weder gestört noch behindert und wegen ihrer Tätigkeit nicht benachteiligt oder begünstigt werden. Für sie besteht überdies ein besonderer Kündigungsschutz (§§ 15, 16 KSchG, §§ 78a, 103 BetrVG).
Betriebsrat Betriebsräte haben das Recht, an Schulungs- und Bildungsveranstaltungen teilzunehmen. Die notwendigen Kosten der Betriebsratstätigkeit (z.B. Telefon-, Reisekosten) hat der Arbeitgeber zu tragen. Er hat darüber hinaus die für die Betriebsratsarbeit erforderlichen Räume, Sachmittel (Schreibmaterialien, Gesetzestexte, u.a.) und Büromitarbeiter zur Verfügung zu stellen, § 40 BetrVG. Für Betriebsratsmitglieder und Ersatzmitglieder gilt eine besondere Geheimhaltungspflicht. Der Betriebsrat erfüllt nach dem Betriebsverfassungsgesetz umfangreiche Aufgaben (vgl. §§ 75, 80 BetrVG). Ein wesentlicher Bereich sind die Beteiligungsrechte. Diese Rechte beziehen sich auf soziale Angelegenheiten (§§ 87 ff. BetrVG), die Arbeitsplatzgestaltung (§§ 90, 91 BetrVG), personelle (§§ 92 ff. BetrVG) und wirtschaftliche (§§106 ff. BetrVG) Angelegenheiten. Abgestuft nach der Beteiligungsintensität kennt das Gesetz Mitwirkungs- und -> Mitbestimmungsrechte. Erzwingbare Mitbestimmung bedeutet, dass der Arbeitgeber betriebliche Maßnahmen nur im einvernehmlichen Zusammenwirken mit dem Betriebsrat treffen kann; kommt keine Einigung zu Stande, entscheidet die -»• Einigungsstelle. Als Mitwirkungsrechte werden die übrigen Beteiligungsrechte (Informations-, Vorschlags-, Anhörungs- und Beratungsrechte) des Betriebsrats bezeichnet. Nicht zu den Aufgaben des Betriebsrates gehören überbetriebliche und allgemeine politische Angelegenheiten. Diese werden von den Gewerkschaften wahrgenommen. Die Wechselwirkungen von betrieblichen und überbetrieblichen Belangen berücksichtigen § 2 BetrVG, der den Betriebsrat zu einem Zusammenwirken mit den im Betrieb vertretenen Gewerkschaften und Arbeitgeberverbänden verpflichtet, und § 45 BetrVG, der die Betriebsversammlung und damit auch den Betriebsrat zur Auseinandersetzung mit tarifpolitischen, sozialpolitischen und wirtschaftlichen Fragen
Betriebssystem ermächtigt, die den Betrieb oder seine Arbeitnehmer unmittelbar betreffen. Bestehen in einem Unternehmen mehrere Betriebsräte, muss nach § 47 BetrVG ein Gesamtbetriebsrat errichtet werden. In einem Konzern (vgl. § 18 AktG) kann durch Beschluss der Gesamtbetriebsräte ein Konzernbetriebsrat errichtet werden, § § 5 4 ff. BetrVG. Bei gemeinschaftsweit tätigen Unternehmen werden nach dem Gesetz über Europäische Betriebsräte (EBRG) Europäische Betriebsräte oder Verfahren zur Unterrichtung und Anhörung der Arbeitnehmer vereinbart. Kommt es nicht zu einer entsprechenden Abrede, wird ein Europäischer Betriebsrat kraft Gesetzes errichtet. Gemeinschaftsweit tätig ist ein Unternehmen, wenn es in den Mitgliedstaaten der Europäischen Union und den Vertragsstaaten des Abkommens über den Europäischen Wirtschaftsraum mindestens 1.000 Arbeitnehmer und davon jeweils mindestens 150 in mindestens zwei Mitgliedstaaten beschäftigt, vgl. §§ 2, 3 EBRG. Christian Heinrich Betriebssystem Ein Betriebssystem ist eine spezielle Familie von Softwareprogrammen, die zwischen der Computer-Hardware einerseits und den Applikationsprogrammen andererseits angesiedelt ist (Abb. 1). Ein Betriebssystem abstrahiert die tatsächlich vorhandene Hardware, d.h. •
•
ein Applikationsprogrammierer kann Programme für das System erstellen und ein Benutzer kann mit dem System arbeiten,
ohne ware facht auch lich.
über die zu Grunde liegende HardBescheid zu wissen. Dies vereinsowohl die Programmierung als die Benutzung des Systems erheb-
Ein Betriebssystem verwaltet auf möglichst effiziente Weise die verfügbaren Hardware-Ressourcen wie CPU (zentrale 95
Betriebssystem
Betriebssystem Applikationsprogramme
Benutzeroberfläche
j Systemprogramme \
B
e
t
r
e
b
s
s
y
s
t
e
m
G e r ä t e t r e i b e r
CPU
virtueller Speicher
Festplatten
I
E/A-Geräte
I
physikal. Hauptspeicher | Abb. I: Schematische Positionierung des Betriebssystems in der
Recheneinheit, engl.: central processing unit), Hauptspeicher, Festplatten, Ein-/ Ausgabegeräte und sonstige Peripherie. Applikationsprogramme und Benutzer greifen nicht direkt auf die Hardware zu, sondern ausschließlich über das Betriebssystem. Zu diesem Zweck wird den Applikationsprogrammen ein Satz von Systemaufrufen zur Verfügung gestellt, die bestimmte Aufgaben (z.B. Öffnen einer Datei, Einlesen von bzw. Ausgeben auf eine Datei, Anfordern von Hauptspeicher) erledigen. Der Benutzer greift auf das Betriebssystem über eine sogenannte Benutzeroberfläche zu. Diese kann in Form eines Kommandointerpretierers (engl.: shell) oder in graphischer Form (engl.: graphical user Interface, "GUI") vorliegen. Der Betriebssystem-Code ist hardwarespezifisch und nur für die Rechnerplattform geeignet, für die er programmiert ist. Jedoch ermöglicht eine Modularisierung des Betriebssystem-Codes die leichte Portierung auf verschiedene Hardwareplattformen, da nur die hardwarenahen Programmteile neu erstellt werden müssen. Die Integration neuer Hardware in ein vorhandenes System wird mit Hilfe zusätzlicher Gerätetreiber bewerkstelligt damit bleiben sämtliche anderen Teile des 96
Systemarchitektur
Betriebssystems unverändert, insbesondere die dem Benutzer und dem Applikationsprogramierer zur Verfugung stehenden Funktionen des Betriebssystems. Die Zuordnung von Programmen zur Betriebssystem- oder Applikationsschicht ist in vielen Fällen nicht eindeutig möglich; man spricht dann oft von Systemprogrammen. Da mit einem Computersystem Daten verarbeitet werden, muss dem Benutzer (und den Applikationsprogrammen) ein Dateisystem zur Verfügung gestellt werden, das eine effiziente Datenorganisation ermöglicht. Heutige Betriebssysteme besitzen ein hierarchisches Dateisystem, d.h. logisch zusammengehörende Daten können als sogenannte Dateien in Verzeichnissen (Ordnern) abgelegt werden,
Abb. 2: Ausschnitt aus einem hierarchischen Dateisystem
Betriebssystem
Betriebssystem wobei Verzeichnisse selbst wieder Verzeichnisse enthalten können. In Abb. 2 sehen wir eine Datei mit dem Namen "passwd", die sich im Verzeichnis mit dem Namen "etc" befindet, welches selbst wieder in einem Verzeichnis mit dem Namen "/" (dem sogenannten Wurzelverzeichnis) enthalten ist. Betriebssysteme werden nach der Anzahl der Benutzer und der Anzahl der Programme, die gleichzeitig im System aktiv sein können, klassifiziert. •
•
•
Single User / Singletasking: Es kann nur ein Benutzer mit dem System arbeiten, und es kann höchstens ein Programm zu einer Zeit ablaufen. Ein typischer Vertreter dieser Betriebssystem-Gattung ist MS DOS. Single User / Multitasking: Es kann zwar nur ein Benutzer auf dem System arbeiten, es können aber mehrere Programme gleichzeitig ablaufen. Bei Einprozessorsystemen ist diese Gleichzeitigkeit scheinbar, da die CPU immer nur einem Programm gleichzeitig zur Verfügung stehen kann. Beispiel für diese Art von Betriebssystemen sind Microsoft Windows 95/98/ NT. Multi User / Multitasking: Hier können zusätzlich auch mehrere Benutzer gleichzeitig mit dem System arbeiten. Jeder Benutzer hat dabei den Eindruck, ihm stünde das System alleine zur Verfugung. Vertreter dieses Betriebssystem-Typs sind bestimmte Versionen von Microsoft Windows NT, die Unix-artigen Betriebssysteme sowie Großrechner-Betriebssysteme.
Der Eindruck der Gleichzeitigkeit bei Multitasking-Betriebssystemen wird durch ein sogenanntes Zeitscheibenverfahren erreicht. Dieses kommt zur Anwendung, wenn die Anzahl rechenwilliger Programme die Anzahl der vorhandenen CPUs übersteigt. Dabei stellt das Betriebssystem jedem rechenwilligen Programm eine CPU nur eine gewisse Zeit lang zur Verfügung (typischerweise
unter 0,5 Sekunden). Nach Ablauf dieser Zeitspanne wird das gerade aktive Programm unterbrochen, sein Zustand abgespeichert, und das nächste rechenwillige Programm aktiviert (Abb. 3). Multitasking-Betriebssysteme stellen einen sogenannten virtuellen Speicher zur Verfügung, der den tatsächlich vorhandenen physikalischen Hauptspeicher erweitert. Der virtuelle Speicher befindet sich auf - im Vergleich zum physikalischen Hauptspeicher - verhältnismäßig langsamen Speichermedien, z.B. Festplatten. Damit die CPU das gerade aktive Programm ausfuhren kann, müssen sich sowohl der Programmcode als auch die zugehörigen Daten im physikalischen Hauptspeicher befinden. Es ist eine wichtige Aufgabe des Betriebssystems, die jeweils benötigten Programme und Daten in den physikalischen Hauptspeicher zu transferieren und im Gegenzug - falls erforderlich - im Moment nicht benötigte Speicherinhalte in den virtuellen Speicher auszulagern (engl.: paging), so dass für die ablaufenden Programme der Eindruck entsteht, sie könnten auf einen sehr großen schnellen Hauptspeicher zugreifen. Bei Mehrbenutzersystemen muss das Betriebssystem effektive Mechanismen zum Datenschutz bereitstellen. Hierzu gehören insbesondere: •
Benutzerauthentifizierung: Es sollen nur registrierte Benutzer Zugang zum System erhalten, die auch in geeigneter Form ihre Identität gegenüber dem System belegen können. Oft wird dies vom System durch die Abfrage eines Benutzernamens und eines geheimen Passwortes im Rahmen eines sog. Anmeldevorgangs sichergestellt. Nur wenn Benutzername und Passwort korrekt sind, erhält der Benutzer Zugang zum System. Komplexere Authentifizierungsmechanismen wie Gesichts-, Fingerabdruck-, oder Spracherkennung sind in der Entwicklung. In Spezialbereichen werden sie bereits eingesetzt. 97
Betriebssystem •
Benutzerautorisierung: Bei jeder Aktion eines angemeldeten Benutzers muss das Betriebssystem prüfen, ob der Benutzer (bzw. das vom Benutzer ausgeführte Programm) zu der Aktion berechtigt ist und die Ausführung ggf. unterbinden. Solche Aktionen sind beispielsweise der Zugriff auf Bereiche des Hauptspeichers, Zugriffe auf Dateien, Nutzung bestimmter Ressourcen oder Peripheriegeräte. Das Betriebssystem kann in diesem Zuge auch prüfen, ob bestimmte mit dem Benutzerkonto verbundene Limits ausgeschöpft sind, z.B. belegter Speicherplatz, verbrauchte CPU-Zeit, Anzahl gedruckter Seiten etc. Welche Arten der Benutzerautorisierung es konkret gibt, hängt in hohem Maße vom eingesetzten Betriebssystem ab.
Jedes Betriebssystem stellt für den Benutzer Mechanismen zum Zugriff auf bzw. zur Verwaltung der angebotenen Ressourcen bereit (z.B. Kopieren, Umbenennen und Löschen von Dateien). Bei kommandozeilenorientierten Betriebssystemen sind dies spezielle Kommandos, bei Betriebssystemen mit graphischer Oberfläche stehen diese Mechanismen durch GUIs zur Verfugung. Letztere sind zwar für den Benutzer einfacher zu bedienen, andererseits bietet die Steuerung eines Betriebssystems über Kommandos die Möglichkeit, komplexere Aufgabenstellungen alleine durch geeignete Kombination der vom Betriebssystem bereitgestellten Kommandos zu erledigen. Das bekannteste Beispiel sind die Unixartigen Betriebssysteme, die eine Vielzahl solcher Kommandos anbieten; man spricht hier auch vom Unix-Werkzeugkasten. Im Zuge zunehmender Vernetzung stellen Betriebssysteme oft nicht nur Leistungen für die direkt am System arbeitenden Benutzer bereit. Viele Betriebssysteme gestatten es, über ein Netzwerk auf lokal vorhandene Ressourcen zuzugreifen. Bei einem System, das Dienste (z.B. Daten98
Betriebsvereinbarung haltung, Drucken, ->• E-Mail) über ein Netzwerk anderen Systemen durch das Betriebssystem (und evtl. zusätzliche Programme) zur Verfügung stellt, spricht man von einem Server; ein System, das diese Dienste nutzt, heißt Client. Es gibt dedizierte Netzwerk-Betriebssysteme, die ausschließlich Ressourcen im Netzwerk zur Verfügung stellen und - bis
Abb. 3: Zeitscheibenverfahren mit drei rechenwilligen Programmen einer CPU
auf administrative Tätigkeiten durch den Systemmanager - keinen lokalen Benutzerbetrieb zulassen (z.B. NOVELL Netware). Jedoch gestatten etwa Microsoft Windows NT und die Unix-artigen Betriebssysteme die lokale Nutzung und die Verwendung des Systems als Server. Christian Rank Betriebsvereinbarung Die Betriebsvereinbarung ist ein privatrechtlicher Vertrag zwischen Arbeitgeber und (Konzern-, Gesamt-) Betriebsrat, der durch einen Beschluss der Betriebspartner (§ 77 Abs. 2 BetrVG) oder durch einen Spruch der Einigungsstelle (vgl. § 76 Abs. 5, 6 BetrVG) zu Stande kommt. Sie ist schriftlich niederzulegen, im Be-
Betriebsvereinbarung trieb bekannt zu machen und - sofern sie nicht auf einem Spruch der Einigungsstelle beruht - von beiden Seiten zu unterschreiben. Nach überwiegender Auffassung können durch Betriebsvereinbarung alle Fragen geregelt werden, die den Betrieb und seine Arbeitsverhältnisse betreffen. Möglich sind also Regelungen über den Abschluss, den Inhalt und die Beendigung von Arbeitsverträgen sowie über betriebliche und betriebsverfassungsrechtliche Aspekte. Wie der -» Tarifvertrag kann eine Betriebsvereinbarung einen schuldrechtlichen Teil zur Regelung von Rechten und Pflichten der Vertragsparteien enthalten; im Vordergrund steht allerdings in der Regel der normative Teil, der das Arbeitsverhältnis betrifft. Die normativen Regelungen gelten unmittelbar und zwingend für den Arbeitgeber und sämtliche ->• Arbeitnehmer (mit Ausnahme der -> leitenden Angestellten) unabhängig davon, ob sie Gewerkschaftsmitglieder sind oder nicht. Räumlich erfassen Betriebsvereinbarungen den Betrieb, dessen Betriebsrat sie abgeschlossen hat. Betriebsvereinbarungen stellen das klassische Instrument der Mitbestimmung dar. Bezieht sich die Betriebsvereinbarung auf Tatbestände, die durch Spruch der Einigungsstelle erzwungen werden können (§§ 87, 94, 95, 112 BetrVG), spricht man von erzwingbarer Betriebsvereinbarung. Daneben ist der Abschluss freiwilliger Betriebsvereinbarungen möglich (vgl. §§ 88, 112a BetrVG); sie regeln vor allem die Gewährung zusätzlicher Leistungen, können aber auch Pflichten der Arbeitnehmer (z.B. Rauchverbote) enthalten. Bedeutsam ist die Unterscheidung von erzwingbaren und freiwilligen Betriebsvereinbarungen für die Nachwirkung einer gekündigten Betriebsvereinbarung. Nach § 77 Abs. 5 BetrVG kann eine Betriebsvereinbarung mit dreimonatiger Frist ordentlich gekündigt werden. Die Wirksamkeit der ordentlichen Kündigung hängt nicht von einem sachlichen Grund
Betriebsvereinbarung ab. Erzwingbare Betriebsvereinbarungen gelten gemäß § 77 Abs. 6 BetrVG nach Fristablauf weiter, bis sie durch eine andere Abmachung ersetzt werden. Erzwingbare Betriebsvereinbarungen können also nicht einseitig außer Kraft gesetzt werden. Freiwillige Betriebsvereinbarungen wirken hingegen nicht fort. Sind in einer Betriebsvereinbarung erzwingbare und freiwillige Regelungstatbestände enthalten, hängt die Nachwirkung davon ab, welche Elemente (Leistungsvolumen und/oder Verteilungsschlüssel) gekündigt werden. Neben einer ordentlichen ist auch eine außerordentliche Kündigung der Betriebsvereinbarung möglich. Die Betriebsvereinbarung endet darüber hinaus mit Ablauf der Zeit, für die sie abgeschlossen ist, oder, falls die Betriebsvereinbarung der Erreichung eines bestimmten Zwecks dient, mit Zweckverwirklichung. Möglich sind daneben ein Aufhebungsvertrag oder die Ablösung durch eine neue Betriebsvereinbarung. Grundsätzlich enden Betriebsvereinbarungen auch mit dem Untergang des Betriebes, insbesondere mit der endgültigen Betriebsstillegung. Keine Beendigungsgründe sind Veränderungen im Betrieb, solange der Betrieb als organisatorische Einheit bestehen und seine Identität gewahrt bleibt, wie es bei Tod des Arbeitgebers oder dem Amtsende des Betriebsrats der Fall ist. In der Normenhierarchie des Arbeitsrechts steht die Betriebsvereinbarung zwischen dem Tarifvertrag und dem Arbeitsvertrag. Das Verhältnis zum Tarifvertrag regelt § 77 Abs. 3 BetrVG, wonach Arbeitsbedingungen, die tariflich geregelt sind oder üblicherweise geregelt werden, grundsätzlich nicht Gegenstand einer Betriebsvereinbarung sein können. Es gilt das Vorrangprinzip; Betriebsvereinbarungen sind unwirksam, wenn die Voraussetzungen des § 77 Abs. 3 BetrVG erfüllt sind. Das gilt selbst dann, wenn die Arbeitsbedingungen in der Betriebsvereinbarung günstiger sind als die tariflichen Bestimmungen. Ausgeschlossen ist 99
Betriebsvereinbarung damit beispielsweise die Verlängerung des Erholungsurlaubs oder die Gewährung übertariflicher Zulagen durch Betriebsvereinbarung. Ein Tarifvertrag kann jedoch durch eine Öffnungsklausel den Abschluss ergänzender oder abändernder Betriebsvereinbarungen gestatten. Im Verhältnis zum Arbeitsvertrag ist entsprechend § 4 Abs. 3 TVG das Günstigkeitsprinzip anzuwenden. Individuell günstigere Arbeitsvertragsbedingungen gehen den Regelungen in einer Betriebsvereinbarung vor. Beruhen die einzelvertraglichen Ansprüche auf einer arbeitsvertraglichen Einheitsregelung oder einer Gesamtzusage, sind im Rahmen des Günstigkeitsvergleichs nicht die individualvertraglichen Ansprüche des einzelnen Arbeitnehmers mit den ihm aufgrund der Betriebsvereinbarung zustehenden Rechten zu vergleichen, sondern es ist die Gesamtheit der Leistungen des Arbeitgebers an alle betroffenen Arbeitnehmer vor und nach Abschluss der Betriebsvereinbarung gegenüberzustellen (sog. kollektiver Günstigkeitsvergleich). Streitigkeiten zwischen Arbeitgeber und Betriebsrat über eine Betriebsvereinbarung entscheidet das Arbeitsgericht im Beschlussverfahren. Im Urteilsverfahren wird entschieden, wenn Arbeitnehmer und Arbeitgeber über Ansprüche aus dem Arbeitsverhältnis streiten, die sich auf eine Betriebsvereinbarung stützen. Die Rechtsprechung prüft, ob die Betriebsvereinbarung höherrangigem Recht entspricht (sog. Rechtskontrolle), sowie, ob sie die Interessen des Arbeitgebers und der Belegschaft angemessen gegeneinander abwägt und den Grundsatz von Treu und Glauben wahrt (sog. Billigkeitskontrolle). Betriebsvereinbarungen, die ausschließlich die Arbeitnehmer zu Gunsten des Arbeitgebers belasten, sind aus Sicht der Rechtsprechung in der Regel unwirksam. Die Betriebsvereinbarung ist abzugrenzen von der Regelungsabrede (Betriebsabsprache). Regelungsabreden zwischen
100
Betriebsverfassung Arbeitgeber und Betriebsrat sind formlos möglich. Sie entfalten keine normative Wirkung im Verhältnis zu den Arbeitnehmern. Daher bedarf die Regelungsabrede der Umsetzung in die einzelnen Arbeitsverhältnisse. Christian Heinrich Betriebsverfassung 1. Anwendungsbereich Die Betriebsverfassung bildet die privatrechtliche Grundlage für eine selbstständige Geltendmachung betrieblicher Arbeitnehmerinteressen und regelt das Verhältnis von Arbeitgeber und Arbeitnehmervertretungen. Wesentliche gesetzliche Quelle ist das Betriebsverfassungsgesetz (BetrVG), das insbesondere Fragen des -> Betriebsrats zum Gegenstand hat. Daneben bestehen weitere betriebsverfassungsrechtliche Regelungen wie das -»Sprecherausschussgesetz, das sich mit der betrieblichen Vertretung der -> leitenden Angestellten befasst, oder das Schwerbehindertengesetz, in dem sich unter anderem Regelungen über den Vertrauensmann der Schwerbehinderten finden. Die Betriebsverfassung ist zum einen von der -»Unternehmensverfassung, zum anderen vom Personalvertretungsrecht abzugrenzen. Ersteres meint die Vertretung der -» Arbeitnehmer in den Gesellschaftsorganen, beispielsweise im Aufsichtsrat, letzteres die gesetzliche Vertretung der Beamten und der Arbeitnehmer des öffentlichen Dienstes (vgl. § 130 BetrVG). Kein Gegenstand der Betriebsverfassung ist die gewerkschaftliche Vertretung der Arbeitnehmer. Betriebsrat und Arbeitgeber haben nach § 2 Abs. 1 BetrVG allerdings mit den im Betrieb vertretenen Gewerkschaften und Arbeitgebervereinigungen zum Wohl der Arbeitnehmer und des Betriebes zusammenzuarbeiten. Das BetrVG gilt nach dem Territorialitätsprinzip für alle Betriebe der Privatwirtschaft in der Bundesrepublik
Betriebsverfassung Deutschland, sofern sie im Sinne des § 1 BetrVG eine Mindestzahl von wahlberechtigten und wählbaren Arbeitnehmern beschäftigen. Die Staatsangehörigkeit der Arbeitgeber und Arbeitnehmer ist für die Anwendung des Betriebsverfassungsrechts bedeutungslos. Das Gesetz gilt also auch für inländische Betriebe ausländischer Unternehmer. Ausländische Betriebe deutscher Unternehmen unterfallen im Grundsatz nicht dem BetrVG. Keine Anwendung findet das Betriebsverfassungsrecht außerdem auf Religionsgemeinschaften und ihre karitativen und erzieherischen Einrichtungen. Bei Tendenzbetrieben, also solchen Betrieben, die unmittelbar und überwiegend den in § 118 Abs. 1 S. 1 Nr. 1 und 2 BetrVG genannten Zwecken dienen, gelten die Vorschriften nur, soweit die Eigenart des Betriebes nicht entgegensteht. Für Seeund Luftfahrtunternehmen sind Besonderheiten zu beachten, vgl. § § 1 1 4 ff. BetrVG. 2. Grundsätze Die Betriebsverfassung kennt für die Zusammenarbeit von Arbeitgeber und Betriebsrat unterschiedliche Leitprinzipien. Zu nennen ist vor allem der Grundsatz der vertrauensvollen Zusammenarbeit, § 2 Abs. 1 BetrVG. Die häufig gegensätzlichen Interessen von Arbeitgeber und Betriebsrat sollen nicht in einem offenen Konflikt ausgetragen werden, sondern durch einen ständigen Dialog auf ehrliche und faire Weise einen Ausgleich finden (vgl. auch § 74 Abs. 1 BetrVG). Die Betriebspartner sollen dem Grundsatz von Treu und Glauben folgend bei der Ausübung der ihnen zustehenden Rechte weder mutwillig noch missbräuchlich handeln. Aus diesem generalklauselartig formulierten Leitprinzip ergeben sich gegenseitige Verhaltenspflichten. Eine vertrauensvolle Zusammenarbeit ist ohne eine gewisse Sachkenntnis nicht möglich; aus diesem Grund hat der Arbeitgeber den Betriebsrat von sich aus über alle für die
Betriebsverfassung Arbeitnehmer bedeutsamen Vorgänge im Betrieb zu unterrichten. Der Arbeitgeber hat überdies Maßnahmen zu unterlassen, welche die Wahrnehmung von Rechten des Betriebsrats erschweren. Bei groben Verstößen des Arbeitgebers gegen seine betriebsverfassungsrechtlichen Pflichten kann der Betriebsrat beim Arbeitsgericht beantragen, dem Arbeitgeber aufzugeben, dass er eine konkrete Handlung unterlässt, § 23 Abs. 3 BetrVG. Der Sicherung der vertrauensvollen Zusammenarbeit dient die in § 74 Abs. 2 BetrVG verankerte Friedenspflicht. Arbeitgeber und Betriebsrat haben Betätigungen zu unterlassen, durch die der Arbeitsablauf oder der Betriebsfrieden beeinträchtigt werden. Insbesondere Arbeitskampfmaßnahmen zwischen Arbeitgeber und Betriebsrat sind unzulässig. Betriebsräte dürfen ihr Amt nicht für Kampfmaßnahmen missbrauchen, dürfen also nicht in ihrer Funktion als Betriebsrat zum Streik oder zur Verweigerung von Überstunden oder Akkordarbeit aufrufen oder Betriebsratsmittel (Telefon, Kopierer, etc.) für den Arbeitskampf einsetzen. Arbeitskämpfe tariffähiger Parteien sind von dem Verbot ausgenommen; auch Mitgliedern des Betriebsrates bleibt es deshalb unbenommen, als Arbeitnehmer an Arbeitskampfmaßnahmen ihrer Gewerkschaft teilzunehmen. Das BetrVG untersagt in § 74 Abs. 2 Arbeitgeber und Betriebsrat ebenfalls eine parteipolitische Betätigung im Betrieb. Dazu zählen parteipolitische Werbung, die Organisation politischer Veranstaltungen und die Sammlung von Unterschriften oder Geldspenden für eine politische Partei. Räumlich beschränkt sich das Verbot auf die Betätigung im Betrieb und in unmittelbarer Betriebsnähe, also direkt vor dem Eingangstor. Außerhalb des Betriebes können Arbeitgeber und Betriebsrat uneingeschränkt parteipolitisch tätig werden. Hierbei ist es zulässig, dass sich die Betriebsräte als Inhaber betriebsverfassungsrechtlicher Funktionen und die Arbeitgeber als Betriebsinhaber bezeichnen. 101
Betriebsverfassung Die Betriebsverfassung enthält weiterhin Grundsätze für das Verhalten gegenüber Betriebsangehörigen. Nach § 75 BetrVG haben Arbeitgeber und Betriebsrat darauf zu achten, dass alle im Betrieb tätigen Personen nach den Grundsätzen von Recht und Billigkeit behandelt werden. Die Betriebsparteien sind darüber hinaus dafür verantwortlich, dass kein Beschäftigter wegen seiner Abstammung, Religion, Nationalität, Herkunft, politischen oder gewerkschaftlichen Betätigung oder Einstellung oder wegen seines Geschlechts ungleich behandelt wird. Arbeitnehmer dürfen überdies nicht wegen der Überschreitung bestimmter Altersstufen benachteiligt werden; der Betriebsrat hat gemäß § 8 0 Abs. 1 Nr. 6 BetrVG vielmehr die Beschäftigung älterer Arbeitnehmer im Betrieb zu unterstützen. Zu schützen und zu fordern ist die freie Entfaltung der Persönlichkeit der Arbeitnehmer. 3. Mitbestimmung Ein Bestandteil der Betriebsverfassung ist die Beteiligung der Arbeitnehmervertretung an den Entscheidungen des Arbeitgebers. Die Beteiligung ist in unterschiedlichen Formen möglich. Praktisch wichtigstes Element ist die Mitbestimmung (-> Mitwirkungs- und Mitbestimmungsrechte), weil hier der Arbeitgeber nicht ohne Beteiligung des Betriebsrats handeln kann bzw. der Arbeitgeber durch den Betriebsrat zu einer Maßnahme gezwungen werden kann. Ein erzwingbares Mitbestimmungsrecht gesteht das BetrVG dem Betriebsrat u.a. in zahlreichen sozialen Angelegenheiten zu, soweit keine gesetzliche oder tarifliche Regelung besteht. Die Aufzählung in § 87 BetrVG umfasst beispielsweise Beginn und Ende der täglichen Arbeitszeit einschließlich der Pausen sowie die Verteilung der Arbeitszeit auf die einzelnen Wochentage, die Aufstellung allgemeiner Urlaubsgrundsätze und des Urlaubsplans sowie die Festset102
Betriebsverfassung zung der zeitlichen Lage des Urlaubs für einzelne Arbeitnehmer, wenn zwischen dem Arbeitgeber und den beteiligten Arbeitnehmern kein Einverständnis erzielt wird, die Einführung und Anwendung von technischen Einrichtungen, die dazu bestimmt sind, das Verhalten oder die Leistung der Arbeitnehmer zu überwachen. Es werden weiterhin Fragen der betrieblichen Lohngestaltung, insbesondere die Aufstellung von Entlohnungsgrundsätzen und die Einführung und Anwendung von neuen Entlohnungsmethoden sowie deren Änderung oder die Festsetzung der Akkord- und Prämiensätze und vergleichbarer leistungsbezogener Entgelte, einschließlich der Geldfaktoren genannt. Die in § 87 Abs. 1 BetrVG enthaltenen Mitbestimmungstatbestände beziehen sich im Grundsatz auf alle Arbeitnehmer des Betriebes, nicht aber auf leitende Angestellte im Sinne des § 5 Abs. 3 BetrVG. Ein betriebsverfassungsrechtliches Mitbestimmungsrecht besteht auch in Eilfällen, nicht jedoch bei Notlagen, in denen sofort gehandelt werden muss, um Schaden abzuwenden, und der Betriebsrat nicht erreichbar oder nicht beschlussfahig ist. Die Beteiligung des Betriebsrats ist in Notsituationen unverzüglich nachzuholen. Eine kollektive Regelung kann durch -> Betriebsvereinbarung oder durch Regelungsabrede getroffen werden. Bei der inhaltlichen Ausgestaltung steht den Betriebspartnern ein weiter Spielraum offen; möglich sind detaillierte Vorgaben ebenso wie bloße Rahmenregelungen. 4. Streitigkeiten Streiten die Betriebspartner darüber, ob in einer bestimmten Angelegenheit ein Mitbestimmungsrecht besteht, entscheidet auf Antrag einer Seite das Arbeitsgericht im Beschlussverfahren. Steht die Existenz eines zwingenden Mitbestimmungsrechts fest, kommen Arbeitgeber und Betriebsrat jedoch hinsichtlich der Ausgestaltung
Beziehungsmarketing
Betriebsverfassung einer sozialen Angelegenheit nicht zu einer Übereinkunft, kann jeder Betriebspartner die Einigungsstelle (vgl. § 76 BetrVG) anrufen. Christian Heinrich Bewegungsbilanz -» Kapitalflussrechnung Bewegungsdaten In -» Anwendungssystemen versteht man darunter Daten, die im alltäglichen Geschäftsablauf in großen Mengen anfallen. Dies können beispielsweise Buchhaltungsbelege, Rechnungen oder auch Bewerbungen sein. Den Gegensatz zu den B. bilden die -» Stammdaten. Beziehungsmarketing /. Definition Unter Beziehungsmarketing (Relationship Management) versteht man ein Marketing-Konzept, in dessen Mittelpunkt die Ausrichtung der Marktaktivitäten auf individuelle Geschäftsbeziehungen steht. In Abgrenzung zum traditionell transaktionsorientierten Massenmarketing handelt es sich bei diesen Aktivitäten im Kern um die Anbahnung, Etablierung, Steuerung und Kontrolle von langfristigen, vertrauensvollen und für beide Seiten vorteilhaften Geschäftsbeziehungen (Win-WinSituation). 2. Prinzipien des Beziehungsmarketing • Interaktion Zentraler Ansatzpunkt bei der Realisierung eines Beziehungsmarketing ist die Interaktion zwischen Unternehmen und Kunden. Mit der Interaktion erhält der Unternehmer als Anbieter von Produkten und Dienstleistungen Informationen über den Kunden. Die so gewonnene Kundenkenntnis ermöglicht es Unternehmen, die Bedürfnisse der Kunden besser zu verstehen und zu befriedigen. • Integration Für den Kunden besteht der Vorteil darin, dass seine individuellen Wünsche in den Prozess der Leistungserstellung integriert werden. So können
•
ihm seinen Bedürfnissen entsprechende Produkte und Dienstleistungen angeboten werden. Individualisierung Die auf diese Weise realisierte Individualisierung der Geschäftsbeziehung ist eigentlicher Kern des Beziehungsmarketing. Dieser Prozess, der auch als "Customizing" bezeichnet wird, bedeutet eine Intensivierung der Kundenbeziehung, die im Idealfall zu einer erhöhten Kundenbindung und Kundenabschottung fuhrt und ein Eindringen für Wettbewerber erschwert.
3. Intensitätsstufen der Beziehungsgestaltung Das Ausmaß, in welchem ein Unternehmen in ein Beziehungsmarketing investiert, hängt sehr stark von der Intensitätsstufe der Beziehung ab. Als Regel kann hier definiert werden, dass je mehr ein Unternehmen in einem Markt mit vielen Kunden und geringen Deckungsbeiträgen agiert, desto mehr wird es einfache Kundenbeziehungen aufbauen, die wenig Pflegeaufwand erfordern. Bewegt sich das Unternehmen in einem Markt mit wenigen Kunden und hohen Gewinnspannen, werden die Anstrengungen für den Aufbau und Erhalt von intensiven Kundenbeziehungen um so größer sein. Die höchste Intensitätsstufe einer Kundenbeziehung ist erreicht, wenn mit einem Kunden eine vertrauensvolle und partnerschaftliche Beziehung aufgebaut werden kann. 4. Implikationen des elektronischen Geschäftsverkehrs Gerade im stark wachsenden Bereich des elektronischen Geschäftsverkehrs (-> ECommerce) gewinnt der Aufbau von langfristigen und profitablen Kundenbeziehungen eine zunehmende Bedeutung. Am Anfang des "Customer Life Cycle" (Kundenlebenszyklus) stehen hier hohe Investitionen für Aufbau und Pflege eines E-Commerce-Angebotes sowie für Werbeaufwendungen zur Bekanntmachung des Angebotes. 103
Beziehungsmarketing
Beziehungsmarketing Unternehmens mit den Kunden. Über die sozialen Kontakte erhofft das Unternehmen mehr über die Wünsche des Kunden zu erfahren, um seine Bedürfnisse besser befriedigen zu können.
Demgegenüber stehen aber die Risiken eines Online-Engagements, die durch hohe Markt- bzw. Preistransparenz, geringe Kundenloyalität, sinkende Markteintrittsbarrieren und globalen Wettbewerb gekennzeichnet sind und die eine Profitabilität erschweren. Erst mit zunehmender Kundenbindung und einer letztendlich anzustrebenden Kundenausschöpfung und -abschottung im weiteren Verlauf des "Customer Life Cycle" wird ein Unternehmen langfristig profitabel am Markt agieren können.
Gerade in der Business-to-BusinessBeziehung zwischen Geschäftspartnern kann zusätzlich eine strukturelle Bindung erfolgen. Durch die Vernetzung von EDV-Systemen über moderne Kommunikationsinfrastrukturen kann bspw. eine Optimierung der Geschäftsprozesse zwischen beiden Parteien herbeigeführt werden, die eine effizientere Geschäftsabwicklung ermöglicht. In diesem Zusammenhang seien etwa der EDIDatenaustausch (-> EDI) oder ExtranetLösungen (-> Extranet) als Beispiele genannt.
5. Realisierungsansätze Für das Unternehmen bieten sich verschiedene Lösungsansätze an, um langfristige Kundenbeziehungen zu etablieren. Zunächst bieten sich materielle Anreize an, wie sie von vielen Unternehmen bereits heute angeboten werden. Hierzu zählen bspw. die Miles & MoreProgramme der Fluggesellschaften.
6. Beziehungsfelder Neben der in den Absatzkanal gerichteten Kundenbeziehung bestehen in der geschäftlichen Tätigkeit des Unternehmens eine Reihe weiterer wichtiger Beziehungsfelder in Form von horizontalen,
Im Mittelpunkt der persönlichen Kommunikation steht dagegen der Aufbau von sozialen Kontakten von Mitarbeitern des
Profit
P t eist i ansp a 11 tu Geringe KandenJoyalität trittstoars Icrm Globale Wettbewerber
KundenAusschttpfung und
Invest
Abb.: Customizing
104
als
Wettbewerbsfaktor
Bezugsrechtsemission
Beziehungsmarketing vertikalen und lateralen Geschäftsbeziehungen. Auch diese Beziehungen sind für das Unternehmen von grundlegender Bedeutung und bedürfen der aktiven Gestaltung. In der horizontalen Beziehung finden sich bspw. andere Unternehmen, mit denen gemeinsame Ziele wie Gemeinschaftswerbung, Forschung und Entwicklung oder -> Joint Ventures verwirklicht werden sollen. Das vertikale Beziehungsmanagement umfasst z.B. die Geschäftsbeziehungen zu Lieferanten und Franchise-Nehmern, während die lateralen Beziehungen Forschungsinstitute, Behörden oder die Presse umfassen. 7. Ebenen von Geschäftsbeziehungen Geschäftsbeziehungen entstehen auf verschiedenen Ebenen und lassen sich integrativ gestalten. Auf der Sachproblemebene sind dabei alle Transaktionen angesiedelt, die der inhaltlichen Ausgestaltung der Beziehung dienen und deren Ergebnis gewinnsteigernde Problemlösungen sein sollen. Dagegen werden auf der Organisationsebene die formalen und informalen Parameter der Beziehung geregelt. Auf der Machtebene werden sowohl Art und Ausmaß von Abhängigkeiten der Partner als auch das Vertrauensverhältnis der Partner zueinander definiert. Hingegen geht es auf der menschlich-emotionalen Ebene um persönliche Aspekte wie Sympathie, Zuneigung und Offenheit, die in der Geschäftsbeziehung von nicht zu unterschätzender Bedeutung sind. Literatur: Diller, H.: Beziehungs-Marketing, 1995; Kotler, P./Bliemel, F.: Marketing-Management, Stuttgart 1995.
Ralf Pispers Bezugsrechtsemission Im Gegensatz zu den USA die in Deutschland vorherrschende Form der Emission neuer -» Aktien. Das gesetzlich verankerte Bezugsrecht räumt dem Altaktionär das Recht ein, entsprechend seinem Anteil am bisherigen Grundkapital neue Aktien zu erwerben. Hierdurch soll der Aktionär gegen eine Verwässerung (-> Verwässerungseffekt) seiner Anteils-
rechte geschützt werden. Ein Bezugsrecht wird bei der Kapitalerhöhung gegen Einlagen (§ 186 I AktG), beim genehmigten Kapital (§ 203 I AktG) und bei der Ausgabe von Wandel-, Gewinnschuldverschreibungen und Genussrechten gewährt ( § 2 2 1 IV AktG). Für die Ausübung des Bezugsrechts ist eine Frist von mindestens zwei Wochen einzuräumen. Bei Nichtausübung kann das Bezugsrecht an der Börse verkauft werden. Der rechnerische Wert des Bezugsrechts W hängt vom Bezugsverhältnis b (Relation zwischen der Zahl der alten und neuen Aktien), dem Bezugskurs der neuen Aktien B und dem Börsenkurs der alten Aktien K„ ab:
b+1 Der rechnerische Wert kann aufgrund von Transaktionskosten, Marktunvollkommenheiten und des Optionscharakters des Bezugsrechts von dessen tatsächlichem Wert abweichen. Das Bezugsrecht kann nur im Kapitalerhöhungsbeschluss mit Dreiviertel-Mehrheit des vertretenen Aktienkapitals ausgeschlossen werden. Durch Gesetz und Rechtsprechung werden hohe formelle und materielle Anforderungen an einen Bezugsrechtsausschluss gestellt (besondere Berichtspflicht des Vorstands, Anfechtungsrechte der Minderheit etc.). Ein Bezugsrechtsausschluss ist insbesondere dann zulässig, wenn eine Barkapitalerhöhung 10% des Grundkapitals nicht übersteigt und der Ausgabebetrag der neuen Aktien den Börsenpreis nicht wesentlich unterschreitet (§ 186 III 4 AktG). Bei diesem sog. vereinfachten Bezugsrechtsausschluss besteht die gesetzliche Vermutung, dass die Minderheit auch ohne Bezugsrecht hinreichend geschützt ist. Als Ausschluss des Bezugsrechts ist es nicht anzusehen, wenn die neuen Aktien von einem Kreditinstitut oder einem
105
Bezugsrechtsemission
Bilanzkennzahlen
anderen übernommen werden, um sie den Aktionären zum Bezug anzubieten (§ 186 V AktG). Im Vergleich zur bezugsrechtslosen Emission (-> Emission, freie) gilt die Bezugsrechtsemission wegen der Abwicklung des Bezugsrechts als teurer und zeitaufwendiger. Der Bezugsrechtsemission fehlt es u.a. an der erforderlichen Flexibilität, um eine günstige Kapitalmarktlage zur Beschaffung neuen Eigenkapitals rasch zu nutzen. Literatur: Drukarczyk, J.: Finanzierung, 8. Aufl., Stuttgart 1999; Perridon, L./Steiner, M.: Finanzwirtschaft der Unternehmung, 10. Aufl., München 1999; Raramert, S.: Der vereinfachte Bezugsrechtsausschluss - eine ökonomische Analyse, in: ZfbF 1998, S. 703-724.
Stefan Rammert Bid-Agents —>• Internet-Auktionen Bilanz Die Bilanz ist neben -> Gewinn- und Verlustrechnung, -> Anhang und dem Lagebericht Bestandteil des Jahresabschlusses. Sie dient der Gegenüberstellung von Vermögensgegenständen (Aktiva) mit dem Eigenkapital und den Verbindlichkeiten (Passiva) des Unternehmens. Die Gliederung der Bilanz sowie die Bezeichnung einzelner Bilanzpositionen hängt von der Rechtsform, Größe Aktiva A. Anlagevermögen I. Immaterielle Vermögensgegenstände II. Sachanlagen III. Finanzanlagen B. Umlaufvermögen I. Vorräte II. Forderungen und sonst. Vermögensgegenstände III. Wertpapiere IV. Schecks, Kassenbestand, Guthaben bei Kreditinstituten C. Rechnungsabgrenzungsposten Summe Aktiva
und der Branche des Unternehmens ab. Die Bilanzgliederung für Kapitalgesellschaften zeigt Abb. 1. Kleine Kapitalgesellschaften können das Gliederungsschema in verkürzter Form anwenden, Nicht-Kapitalgesellschaften müssen lediglich eine Mindestgliederung ausweisen. Bei der Bewertung von Bilanzpositionen sind allgemeine Bewertungsgrundsätze wie das Fortfuhrungsprinzip, das Prinzip der Vorsicht und der Bewertungsstetigkeit zu beachten. Für die Vermögensgegenstände sind Anschaffungs- oder Herstellungskosten anzusetzen, die im Falle der Abnutzbarkeit um Abschreibungen zu vermindern sind. Rückstellungen werden mit jenem Betrag angesetzt, der nach vernünftiger kaufmännischer Beurteilung dem vorsichtig geschätzten Erfüllungsbetrag entspricht, Verbindlichkeiten mit ihrem Rückzahlungsbetrag. Bilanzbonitätsanalyse —• Rating Bilanzkennzahlen 1. Typen von Bilanzkennzahlen Bilanzkennzahlen werden gebildet, um den Inhalt von Jahresabschlüssen hinsichtlich bestimmter Aspekte zu verdichten. Formell unterscheidet man GrundPassiva A. Eigenkapital I. Gezeichnetes Kapital II. Kapitalrücklage III. Gewinnrücklage IV. Gewinnvortrag/Verlustvortrag V. Jahresüberschuss/Jahresfehlbetrag B. Rückstellungen C. Verbindlichkeiten D. Rechnungsabgrenzungsposten
Summe Passiva
Abb. 1: Bilanzgliederung filr große Kapitalgesellschaften
106
Bilanzkennzahlen zahlen (absolute Zahlen, Summen oder Differenzen von Jahresabschlusszahlen) von Verhältniszahlen (zueinander ins Verhältnis gesetzte Zahlen). Diese werden wiederum als Gliederungszahlen (Teilgröße/Gesamtgröße), Beziehungszahlen (Größe x/Größe y) sowie als Indexzahlen (Verhältnis zu einem mit 100% gleichgesetzten Basiswert) definiert. Materiell unterscheidet man allgemein Bilanzkennzahlen nach den jeweils vorherrschenden Erkenntniszielen in Finanzwirtschaftliche Bilanzkennzahlen (zur Gewinnung von Aussagen über Investition, Finanzierung und Liquidität) von Ertragswirtschaftlichen Bilanzkennzahlen (zur Gewinnung von Aussagen über die Ertragskraft). Die Bildung und Interpretation von Bilanzkennzahlen stellt den Kern der Jahresabschlussanalyse dar. 2. Jahresabschlusszwecke und Bilanzkennzahlen Der -> Jahresabschluss ist ein Instrument, das hauptsächlich die Unternehmensleitung und die Eigenkapitalgeber über den Stand und die vergangene Entwicklung eines nach bestimmten Bilanzierungsund Bewertungsregeln ermittelten Eigenkapitals informiert. Daher sind Bilanzkennzahlen zunächst für die Unternehmensleitung sowie für die Eigenkapitalgeber bedeutsam. Am wichtigsten dürften Rentabilitätskennzahlen sein, weil diese direkt an den vermuteten Informationswünschen der Unternehmensleitung und der Eigenkapitalgeber anknüpfen. Sie setzen den erwirtschafteten Erfolg zu dem Kapital in Beziehung, mit dem der Erfolg erzielt wurde. Häufig werden Bilanzkennzahlen der Rentabilität zu Kennzahlensystemen (-* Kennzahlen und Kennzahlensysteme) ausgebaut, in denen die Ursachen der Rentabilität zum Ausdruck kommen. Das bekannteste System solcher Bilanzkennzahlen ist das von DuPont entwickelte System (-> DuPont-Kennzahlensystem). Große Bedeutung kommt in der Praxis auch der Liquiditätsanalyse zu, die sich - z u m i n d e s t bei Kapitalge-
Bilanzkennzahlen sellschaften - mittlerweile auf veröffentlichte Kapitalflussrechnungen stützen kann. Bei Orientierung am -» Shareholder Value ist auch der Free ->• Cash-flow zu nennen. 3. Zum gewünschten Informationsgehalt von Bilanzkennzahlen Bilanzkennzahlen werden von Eigenkapitalgebern gerne verwendet, um ihre Investitionsentscheidungen zu rechtfertigen. Ihnen geht es dann um die Schätzung zukünftiger Erträge und der Risiken, die mit diesen verbunden sind. Kennzahlen über die Vermögensstruktur sollen Hinweise über die Anpassungsfähigkeit eines Unternehmens an geänderte ökonomische Verhältnisse liefern. Kennzahlen über die Kapitalstruktur sollen über die Verfügbarkeit und Fristigkeit des eingesetzten Kapitals informieren. Ähnliche Aufgaben kommen auch der Wertschöpfungsanalyse und der Break-Even-Analyse zu. Im Zuge der zunehmenden Kapitalmarktorientierung von Investoren treten diese Bilanzkennzahlen über das Unternehmen jedoch hinter Kennzahlen über die Aktie zurück, in denen Kapitalmarktdaten zu Jahresabschlusszahlen ins Verhältnis gesetzt werden. Zu nennen sind insbesondere die Keimzahlen Preis j e Aktie/Gewinn je Aktie und Preis je Aktie/Buchwert des Eigenkapitals je Aktie. 4. Zur Interpretation von Bilanzkennzahlen Die Interpretation von Bilanzkennzahlen bereitet aus mehreren Gründen Schwierigkeiten. Meist fehlt ein direkter Vergleichsmaßstab. Deswegen lässt sich nicht sagen, ob die Ausprägung einer Bilanzkennzahlen als gut oder als schlecht zu beurteilen ist. Ersatzweise werden indirekte Vergleichsmaßstäbe verwendet: die Bilanzkennzahlen des gleichen Unternehmens im Geschäftsjahr vorher (Zeitvergleich) oder die Bilanzkennzahlen eines ähnlichen Unternehmens. Aber selbst wenn ein Vergleichsmaßstab vorliegt, ist die Aussagekraft eines Vergleiches in der Regel äußerst 107
Bilanzkennzahlen
Bonitätsprüfung
problematisch. Man weiß dann noch immer nicht, wie die Abweichung einer Bilanzkennzahl vom Vergleichsmaßstab zu werten ist. Die statistischen Häufigkeitsverteilungen von Bilanzkennzahlen sind nämlich extrem schief, so dass absolut gleich großen Abweichungen wegen ihres unterschiedlichen Vorzeichens sehr unterschiedliche Bedeutung zukommen kann. Im Rahmen der Wandlung von Jahresabschlüssen von reinen Berichterstattungsinstrumenten zu Informationsquellen für Investoren sind viele Bilanzkennzahlen neu zu interpretieren oder zu entwickeln. Peter Möller Bilaterales Clearing -> Cash-Management Bildschirminterview -» Marktforschung Bionik Synektik Board of Directors Während bei deutschen -> Aktiengesellschaften zwischen der Leitung durch den Vorstand und der Kontrolle durch den Aufsichtsrat unterschieden wird, obliegen in der amerikanischen Stock Corporation beide Funktionen dem Board of Directors. Die Aufgaben des Boards sind sehr heterogen: Neben der Führung der Geschäfte und der Kontrolle des Managements ist der Board die Interessenvertretung der Anteilseigner (Shareholder) sowie weiterer Interessengruppen (Stakeholder). Der Board unterteilt sich in Inside und Outside Directors. Inside Directors haben als leitende Angestellte die Geschäftsführung des Unternehmens inne. Outside Directors sind dagegen meist in den Boards mehrerer Unternehmen vertreten und erfüllen eher Beratungs- und Kontrollfunktionen. Folgende Stellen sind typischerweise im Board vertreten:
108
•
• •
•
Der Chairman of the Board, der sich mit der langfristigen Geschäftspolitik befasst, der President, der für tagesaktuelle Entscheidungen verantwortlich ist, der Chief Executive Officer (CEO), der oftmals in Personalunion mit dem President die Exekutive des Unternehmens darstellt und die Operating Vice Presidents (OVP) bzw. Executive Vice Presidents, die den CEO bei seiner Aufgabenerfüllung unterstützen.
Die Arbeit des Board erfolgt überwiegend in Ausschüssen, bei denen einige per Gesetz oder Börsenzulassungsvoraussetzung existieren müssen. Bombenwurfstrategie —> Management des Wandels Bonitätsprüfung 1. Gegenstand und Ziel der Bonitätsprüfung Gegenstand der Bonitätsprüfung ist die zielgerichtete Analyse entscheidungsrelevanter Informationen über (potenzielle) Kreditnehmer. Die Bonitätsprüfung wird mit der Zwecksetzung durchgeführt, Entscheidungen über die Geld-, Sach- oder Kreditleihe sachlich zu begründen. Neben dem Kreditwesen wird die Bonitätsprüfung somit auch im Bereich der Lieferantenkreditvergabe, im -»Leasing-, —> Factoring- und Versicherungsbereich sowie im Mietgeschäft durchgeführt. Unter Berücksichtigung dieser heterogenen Anwendungs- und Risikogruppen sind die Objekte der Bonitätsprüfung Kreditnehmer (Privatpersonen, Unternehmen), aber auch Branchen und Staaten. In Abhängigkeit vom jeweiligen Grundgeschäft werden kurz-, mittel- und langfristige Kreditentscheidungen durch die Bonitätsprüfung unterstützt. Liegt eine dauerhafte Geschäftsbeziehung vor, kommt die Bonitätsprüfung auch im Sinne des Monitoring von Kreditbeziehungen zum Einsatz.
Bonitätsprüfung Die bonitätsrelevanten Informationen werden mit dem Ziel ausgewertet, Aussagen über den wahrscheinlichen Kreditausgang abzuleiten. Zu prüfen ist somit die Frage, ob ein Schuldner zukünftig in der Lage sein wird, eingegangene Verpflichtungen vereinbarungsgemäß erfüllen zu können. Wesentlich ist dabei die Feststellung der Zahlungsfähigkeit (Solvenz) und Zahlungsbereitschaft. Kreditvergaben sind in die Zukunft gerichtet, somit bildet die zukünftige Fähigkeit des Kreditnehmers zur Erfüllung fälliger Zahlungsverpflichtungen den Gegenstand der Bonitätsprüfung (Prognoseproblem). Die Erkenntnis, dass ein Kreditnehmer heute zahlungsfähig ist und in der Vergangenheit nicht durch Zahlungsunfähigkeit aufgefallen ist, kann als notwendige, nicht aber als hinreichende Bedingung der Bonitätsprüfung angesehen werden. 2. Rechtliche Grundlagen der Bonitätsprüfung Die deutsche Insolvenzordnung (InsO) bestimmt drei Eröffnungsgründe für ein Insolvenzverfahren: 1) Zahlungsunfähigkeit ist allgemeiner Eröffnungsgrund und liegt vor, wenn der Schuldner nicht in der Lage ist, die fälligen Zahlungspflichten zu erfüllen (vgl. § 17 Abs. 1 und 2 InsO). 2) Drohende Zahlungsunfähigkeit ist ein spezieller Eröffnungsgrund des Schuldners, wenn er voraussichtlich nicht in der Lage sein wird, die bestehenden Zahlungspflichten zu erfüllen (vgl. § 18 InsO). 3) Überschuldung ist ein ergänzender Eröffnungsgrund für juristische Personen und liegt vor, wenn das bewertete Vermögen des Schuldners die bestehenden Verbindlichkeiten nicht mehr deckt (vgl. § 19 InsO). Zahlungsunfähigkeit und Überschuldung sind finanzwirtschaftliche Tatbestände. Somit bildet vordergründig die Finanzsphäre des Kreditnehmers den eigentlichen Analysebereich der Bonitätsprüfung
Bonitätsprüfung ab. Aufgrund der Zukunftsorientierung jeder Kreditentscheidung ist die frühzeitige Diagnose von Insolvenzen im Schuldnerbereich außerordentlich wichtig. Neben der Leistungsfähigkeit des Managements, der Positionierung der Produkte im Markt und der Branchen- resp. Marktentwicklung werden die Planungen des Kreditnehmers eine wesentliche Rolle spielen. Im Idealfall sind sämtliche Unternehmensbereiche bei der firmenbezogenen Bonitätsprüfung zu berücksichtigen, da betriebliche Fehlentscheidungen oder entwicklungen früher oder später die finanzielle Situation des gesamten Unternehmens wesentlich verändern und gefährden können. Bei internationalen Geschäftsbeziehungen tritt in der Regel eine Einschätzung des Partnerlandes hinzu, da durch staatliche Gewalt auch individuelle Zahlungserfüllungen maßgeblich verhinderbar sind. Diese Übersicht über denkbare Untersuchungsfelder verdeutlicht, dass eine umfassende Bonitätsprüfung erhebliche Informationsbeschaffungs- und -verarbeitungskosten verursachen kann. Um die Komplexität dieser Aufgabe zu reduzieren, werden in der Praxis lediglich einige wesentliche Indikatoren geprüft, von denen angenommen wird, dass sie gute Trenneigenschaften aufweisen. 3. Informationsquellen und Informationsarten Die Informationsquellen der Bonitätsprüfung können in grober Unterscheidung in interne und externe Quellen eingeteilt werden. Die unternehmensinterne Datenbasis beinhaltet Informationen über die Abwicklung der bisherigen Geschäftsbeziehungen und Strukturdaten über den vorhandenen Kundenstamm. Neben dem Rechnungswesen (Zahlungserfahrungen, Kontoinformationen) leisten in der Praxis besonders die Bereiche Vertrieb und Kundendienst (z.B. Reklamationsverhalten, Auftragsentwicklung, wirtschaftliche Situation) wichtige Beiträge. Im externen Bereich kann der Kreditentscheider auf 109
Bonitätsprüfung Informationen von Wirtschaftsauskunfteien, Ratingagenturen (-> Rating), Banken und Kreditversicherungen zurückgreifen. Neben einer externen Einschätzung des Kxeditengagements stellen die erhaltenen Auskünfte öffentlich verfügbare Fakten, Eigenangaben und Erfahrungswissen anderer Gläubiger über den Schuldner dar. Für anonyme Geschäftsbeziehungen leisten besonders Auskunfteien wertvolle Hilfe für die Kreditbeurteilung, da sie die folgenden bonitätsrelevanten Informationen vermitteln: •
•
•
•
Strukturelle Informationen: Rechtsform, Gründung, Handelsregisterinformationen; Personenbezogene Informationen: Gesellschafter, Geschäftsführer, Prokuristen, Beteiligungen; Zahlungsinformationen: Zahlungsweise, Inkassoverfahren, Negativmerkmale; Bewertungen: Bonitätsrating, Kreditbeurteilung, Höchstkreditempfehlungen.
In der folgenden Tabelle 1 werden unterschiedliche Einzelinformationen aufgelistet und eine qualitative Bewertung aus Sicht der Unternehmenspraxis wiedergegeben. Die Übersicht verdeutlicht die Vielfalt und Unterschiedlichkeit der Informationskomponenten praktischer Bonitätsprüfungen. Zu ergänzen ist diese Übersicht durch bilanzielle Informationen, die im Rahmen der Jahresabschlussanalyse grundlegend ausgewertet werden. 4. Verknüpfung von Informationen Die Bonitätsprüfung kann durch den Einsatz unterschiedlicher Methoden unterstützt werden. Neben Rating- und Scoring-Modellen (-»Rating, -»ScoringVerfahren) kommen -» Diskriminanzanalysen, Künstliche -> Neuronale Netze, -» Expertensysteme und die Fuzzy-Technik zum Einsatz. Abgesehen von erheblichen methodischen Unterschieden ist es das gemeinsame Anwendungsziel dieser
110
Bonitätsprüfung sehr Informationsart
wichtig
wichtig
Zahlungsverhal-
66,1%
24,4%
39,3%
42,9%
ten/Kontenanalyse Dauer der Geschäftsbeziehung Kieditbeurteilung der Bank
29,2%
45,2%
Integrität des Managements 25,0%
41,7%
Qualifikation des Manage-
22,0%
43,5%
20,8%
55,4%
ments Kreditbeurteilung der Auskunftei Auftragslage
19,0%
53,6%
Marktstellung
17,3%
46,4%
Rechtsform
12,5%
39,3%
Konjunkturelle Entwick-
11,9%
47,0%
lung Branche
11,9%
39,9%
Alter des Unternehmens
7,1%
31,5%
Handelsregistereintragung
6,5%
23,2%
Presseinformationen Tabelle 1: Bewertung von Informationen aus Sicht der
5,4% 26,2% bonitätsrelevanten Unternehmenspraxis
Instrumente, Aussagen über den wahrscheinlichen Kreditausgang mit hoher Treffergenauigkeit abzuleiten. Dies geschieht durch eine Kombination und Verknüpfung unterschiedlicher quantitativer und qualitativer Informationsarten. Zumeist bildet jedoch der Jahresabschluss des zu prüfenden Unternehmens die wichtigste Informationsquelle, die methodisch ausgewertet wird. Grundlage bildet jeweils das Erfahrungswissen aus erfolgreichen und gestörten Kreditbeziehungen der Vergangenheit. Die vorliegenden Merkmale eines zu prüfenden Kreditnehmers werden mit diesem Erfahrungswissen verglichen. Liegen überwiegend Merkmale vor, die negativ zu beurteilen sind, wird eine Ablehnung der Kreditvergabe empfohlen. Das Motiv des Methodeneinsatzes besteht darin, Sachverhalte durch einheitliche Prüfroutinen standardisiert zu überprüfen sowie im Massengeschäft das Processing der Bonitätsprüfung
Book-Building-Verfahren
Bonitätsprüfung wesentlich effizienter und mit guten Klassifikationsergebnissen zu gestalten. Literaturhinweise: Grunwald, E./Grunwald, S.: Bonitätsanalyse im Firmenkundengeschäft, Stuttgart 1999; Rödl, H./Weiß, B.: Insolvenzrisiken bei Geschäftspartnern frühzeitig erkennen und vermeiden, Eschborn 1995; Weiß, B.: Früherkennung von Insolvenzrisiken im Firmenkundengeschäft, in: Meyer, B.H./Pütz, H.C. (Hrsg.): Forderungsmanagement im Unternehmen. Sicherung v o n Außenständen im In- und Ausland, Losebl. Ausg., 7.Erg.-Lfg, Bonn 1997.
Bernd Weiß Book-Building-Verfahren Das Book-Building-Verfahren bezeichnet eine Form (andere Formen: Festpreisverfahren, Auktionsverfahren) der Aktienplatzierung im Rahmen einer Börseneinführung. Dieses Verfahren ist seit 1995/96 das in Deutschland gebräuchliche Platzierungsverfahren. Wesentliche Merkmale des Book-Building-Verfahrens sind die Einbindung der Nachfragesituation der potenziellen Anbieter und die Berücksichtigung der aktuellen Kapitalmarktverhältnisse auf den Aktienmärkten. Durch die Festlegung einer "Preisspanne" kann flexibel auf volatile Börsenphasen reagiert werden. Das Platzierungsrisiko für die Banken entfällt weitgehend. Mögliche Nachfrageschwächen oder -stärken werden sich in der Preisspanne niederschlagen. Zur Bestimmung der Preisspanne werden gängige Verfahren der Unternehmensbewertung herangezogen. Darüber hinaus finden die Emissionskurse und aktuellen Börsenkurse vergleichbarer Unternehmen Berücksichtigung. Zu- und Abschläge auf die Preisspanne werden durch das aktuelle Börsenklima, z.B. durch die Entwicklung des DAX, begründet. Das Book-Building-Verfahren stellt erhöhte Anforderungen im Hinblick auf die -»• Öffentlichkeitsarbeit an das Unternehmen und die Konsortialbank. Die Planung des Emissionserlöses ist zum Zeitpunkt der Preisfestlegung unsicher. Wichtigstes Instrument beim BookBuilding-Verfahren ist das Orderbuch,
das bei der konsortialfiihrenden Bank geführt wird. In dieses Buch werden sämtliche Angebote der Anleger über Preis und Menge eingetragen. Die anderen Konsorten teilen die Aufträge ihrer Kundschaft dem Konsortialführer mit. Durch die namentliche Erfassung, ausschließlich der institutionellen Anleger, wird die Transparenz erheblich verbessert. Der Ablauf des Book-Building-Verfahrens kann grundsätzlich in drei Phasen eingeteilt werden. •
In der Pre-Marketing-Phase werden potenzielle Anleger mit dem Emissionsunternehmen und dem dazugehörigen Chancen-/Risiko-Profil vertraut gemacht. In dieser Phase soll das Marktpotenzial abgeschätzt werden und eine konkrete Einschätzung der ermittelten Preisspanne vorgenommen werden.
•
In der Marketing-Phase wird die endgültige Preisspanne festgelegt, die sich in einer Breite von 10% bis 20% zwischen der unteren und der oberen Book-Building-Spanne bewegt. Auf Roadshows und One-to-one-Meetings werden die Anleger direkt angesprochen. In dieser Phase werden sämtliche Orders der Anleger in das Orderbuch eingetragen. Auf Basis der eingetragenen Orders erfolgt die Preisfestlegung und Zuteilung.
•
In der Stabilisierungsphase betreibt der Konsortialführer nach der ersten Notierung mit dem "Greenshoe" eine aktive Marktpflege. Hierbei handelt es sich um die Möglichkeit, innerhalb einer Frist (i.d.R. 30 Tage) aus dem Bestand des Unternehmens weitere Aktien zum Emissionspreis auszugeben. Hierdurch können übermäßige Kurssprünge gedämpft werden.
Literatur: Koch W . / W e g m a n n J.: PraktikerHandbuch Börseneinführung, 3. Aufl., Stuttgart 2000.
Jürgen Wegmann 111
Börse
Börse zes. Mit Hilfe von Zulassungsvoraussetzungen für Händler und Handelstitel wird die Sicherung einer Mindestqualität des Handels sowie von Clearing und Settlement angestrebt. Insbesondere sollen Informationsasymmetrien zwischen Emittenten und Anlegern vermindert werden (Gütestempel).
Börse 1. Definition und Aufgaben einer Börse Börsen sind organisierte Märkte, auf denen während fixierter Zeiten fungible, standardisierte Güter nach festgelegten Regeln gehandelt werden. Dabei kann es sich um Wertpapier-, Devisen- oder Warenbörsen wie z.B. die Strombörse handeln.
Zusätzlich entstehen endogen im Marktprozess Informationen über die Preise und Mengen, zu denen die Wertpapiere gehandelt werden. Die Sekundärmarktfunktion der Börse bezieht sich also auf die möglichst effiziente Ausgestaltung des Handels der Wertpapiere. 2. Ausgestaltung von Börsen - Das
Die Börse ist ein Finanzintermediär, der Marktfriktionen beim Zusammenbringen von Angebot und Nachfrage verringert. Dies geschieht durch Transformationsleistungen, die sich in Primär- und Sekundärmarktfunktionen der Börse unterteilen.
Marktmodell Wettbewerb unter den Börsen zwingt sie zur Erlangung eines möglichst hohen Grades an Effizienz, Transparenz und Fairness bei der Zulassung von Neuemissionen und im Handel. Ansatzpunkte für die effiziente Gestaltung der Börsenstruktur bietet das Marktmodell. Der Begriff Marktmodell bezeichnet das technische, rechtliche und organisatorische Strukturgerüst institutionalisierter Börsen. Die Einflussfaktoren des Marktmodells sind in Abbildung 1 dargestellt. • Marktorganisation: Der Handel an Börsen kann nach dem Auktionsprinzip oder dem MarketMaker-Prinzip durchgeführt werden.
Die Primärmarktfunktion (Emissionsfunktion) umfasst die möglichst effiziente Kapitalvermittlung durch Platzierung der Wertpapiere an der Börse. Voraussetzung für eine erfolgversprechende Emission ist die Inaussichtstellung möglichst fairer Handelsmöglichkeiten der emittierten Wertpapiere (Sekundärmarktfunktion). Das geschieht durch die Bereitstellung eines Treffpunktes für Kapitalanbieter und -nachfrager sowie durch die Standardisierung der gehandelten Finanzierungstitel. Dabei vollzieht sich das Zusammentreffen von Angebot und Nachfrage zunehmend nicht an einem räumlichen Marktplatz, sondern innerhalb eines Net-
Marklfrtquenz
| — f
Marktmodell
f—j
t Marktkoiiilguraiioa
Abb. 1: Das 112
Marktmodell
Marktsegmente
Börse
Börse Im Rahmen des Auktionsprinzips erfolgt eine beidseitige Auktion von Kauf- und Verkaufsaufträgen (doppelte Auktion). Der Marktpreis ergibt sich aus dem Ausgleich der gegenläufigen Kundenorders. Transaktionen kommen zu Stande, wenn sich Kaufund Verkaufslimit überschneiden. Deshalb wird die Preisbildung via Auktion als "order-driven" bezeichnet. "Quote-driven" ist die Preisbildung im Market-Maker-System. Market-Maker verpflichten sich, für bestimmte Wertpapiere stets verbindliche An- und Verkaufskurse (Quotes) zu stellen. Die Vergütung der Market-Maker erfolgt zumeist über den bid-ask-spread, der sich aus der Differenz zwischen Anund Verkaufskurs errechnet. Der bidask-spread stellt einen Preis für die Bereitstellung der jederzeitigen Transaktionsmöglichkeit (immediacy) sowie das Risiko der Market-Maker dar. Die Auswahl des Handelssystems bestimmt die Chancen zur jederzeitigen Handelsmöglichkeit und die Höhe der Transaktionskosten, wobei auch Kombinationen von Auktionssystem und Market-Making möglich sind. Ein derartiges hybrides System wird z.B. am —> Neuen Markt praktiziert. •
Marktfrequenz: Der Handel kann periodisch oder kontinuierlich erfolgen. Fortlaufende Auktionen und Market-Maker-Systeme stellen kontinuierliche Handelsformen dar. Ständige Transaktionsmöglichkeit gewährleistet im kontinuierlichen Handel aber nur das Market-Maker-System. Periodische Handelsformen werden auch als CallMarket bezeichnet, an dem nur zu bestimmten Zeitpunkten Auktionen stattfinden. Periodischer Handel wird häufig für relativ illiquide Titel gewählt, da die zeitliche Bündelung von Aufträgen zu höherer Liquidität und größerer Fairness (geringere Preisschwankungen) in der Preisfeststellung führt.
•
Marktkonfiguration: Wertpapierbörsen können als Parkettbörsen mit physischer Anwesenheit der Händler oder Computerbörsen (mit dezentralem Marktzugang) ausgestaltet werden. Computerbörsen sind dem Parketthandel in Bezug auf Transaktionskosten, Flexibilität der Handelszeiten und Standortunabhängigkeit überlegen. Zusätzlich lässt sich die Fairness des Handels leichter überwachen. Die gestiegene Leistungsfähigkeit, Benutzerfreundlichkeit und technische Zuverlässigkeit der elektronischen Handelssysteme führt zu einer Verdrängung des Parketthandels.
•
Marktstruktur: Die zunehmende Computerisierung der Finanzwelt legt die Einrichtung eines zentralen Handelsnetzes nahe. Vorteile im Vergleich zu einer dezentralen Struktur mit regionalen Börsen liegen in der Vermeidung von Mehrfachkosten und im Preisbildungsprozess. Durch höhere Liquidität wird eine weniger volatile und transparentere Preisbildung erreicht. Außerdem werden Arbitragetransaktionen zwischen unterschiedlichen Börsenplätzen vermieden. Andererseits führt der Wettbewerb zwischen den Börsenplätzen in einer dezentralen Börsenstruktur zu Innovationen, die für Anleger und Emittenten Vorteile bringen können. Dies kann durch eine Spezialisierung der Börsen auf bestimmte Marktsegmente oder durch den Wettbewerb hervorgerufene Veränderungen in der Börsenstruktur erfolgen. Durch die zunehmende Verflechtung der Kapitalmärkte wird sich der Wettbewerb immer mehr von der regionalen auf die internationale Ebene verlagern. Marktsegmente werden zunehmend durch die unterschiedlichen Anlegerbedürfnisse und weniger durch die Region bestimmt.
113
Brainstorming
Börse •
Marktsegmente: Marktsegmentierung kann in unterschiedlicher Weise erfolgen. Unter horizontaler Segmentierung versteht man Teilmärkte mit heterogenen Handelsgütern (z.B. Aktien, Optionen, Rentenpapiere). Bei vertikaler Segmentierung sind die Handelsgüter zwar homogen, aber es bestehen unterschiedliche Qualitätsstufen, ausgedrückt z.B. durch die Strenge der Zulassungsvoraussetzungen. So bestehen z.B. am deutschen Aktienmarkt die Segmente amtlicher Handel, geregelter Markt, Freiverkehr und Neuer Markt. Temporale Segmentierung bezeichnet schließlich Teilmärkte mit homogenen Handelsgütern, aber unterschiedlicher zeitlicher Dimension (Kassa- und Terminmarkt).
Literatur: Gerke, W./Rapp, H.-W.: Eigenkapitalbeschaffung durch Erstemission von Aktien, in: Gebhardt, G./Gerke, W./Steiner, M.: Handbuch des Finanzmanagements, München 1993, S. 287312; Gerke, W./Rapp, H.-W., Strukturveränderungen im internationalen Börsenwesen, in: Die Betriebswirtschaft, Vol. 54, 1994, S. 5 - 2 3 ; Gerke, W./Bosch, R.: Die Betreuer am Neuen Markt eine empirische Analyse, C F S working paper Nr. 12, Frankfurt 1999; Gerke, W ./Schaffner, D./Hennies, M.: Stromhandel - ein dynamischer Zukunftsmarkt, Frankfurt 2000; Gerke, W. (Hrsg.): Die Börse der Zukunft, Stuttgart 1997.
Wolfgang Gerke Botschaftsinvolvement Involvement Bottom-up Planung Bei der Gestaltung des Planungsprozesses geht es zunächst um die Frage, wie dieser organisatorisch in die Unternehmung eingegliedert werden soll. Grundsätzlich stehen zwei Möglichkeiten zur Verfügung, nämlich neben der Bottom-up Planung auch noch die -> Top-down Planung. Bottom-up Planung, auch als progressive Planung bezeichnet, bedeutet eine Ableitung der Pläne von unten nach oben. Sie beginnt auf der untersten Planungsebene mit der Planung. Die Teilpläne werden an 114
die jeweils übergeordnete Stufe weitergeleitet, die die Pläne koordiniert, zusammenfasst und wiederum weitergibt, bis die oberste Planungsebene erreicht ist. Diese Planungsrichtung hat den Vorteil, dass die Planung unmittelbar von den Durchführenden ausgeht, die sofortigen Zugang zu den benötigten Informationen haben. Die Beteiligten können sich mit dem selbst erarbeiteten Planinhalt identifizieren, wodurch ihre Motivation sehr gestärkt wird. Das wesentliche Problem dieser Planungsmethode besteht darin, dass sich die Teilpläne, die der übergeordneten Planungsebene eingereicht werden, inhaltlich widersprechen können bzw. nicht gleichzeitig realisieren lassen. Die Nachteile sowohl der Bottom-up Planung als auch der Top-down Planung können weitgehend durch den Einsatz des Gegenstromverfahrens ausgeschaltet werden. Beim Gegenstromverfahren stellt die Unternehmensfuhrung zunächst einen vorläufigen Rahmenplan auf, von dem die vorläufigen Teilpläne abgeleitet werden (retrograder Verlauf). Von der untersten Planungsebene bis hinauf zur Unternehmensführung erfolgt dann eine Überprüfung der Planvorgaben auf ihre Realisierbarkeit (progressiver Verlauf). Treten nun Abweichungen zwischen den Vorgaben und den Realisierungsmöglichkeiten auf, sind Abstimmungen und Koordinierungen vorzunehmen. Nachteilig kann sich hierbei auswirken, dass das Gegenstromverfahren relativ zeitintensiv ist. Claus Dieter Witt Brainstorming Brainstorming ist eine -> Kreativitätstechnik zur Ermittlung von Lösungsmöglichkeiten für ein vorgegebenes Problem. Eine Gruppe erfährt von dem Problem und soll Lösungsansätze zusammentragen. Ohne Zwänge und Vorgaben werden Vorschläge frei gesammelt; jeder soll seiner Fantasie freien Lauf lassen. Einwände und Einschränkungen sind nicht gestattet. Erst wenn die Vorschläge ge-
Brand Equity
Brainstorming sammelt sind und das Brainstorming abgeschlossen ist, werden die einzelnen Vorschläge von der Gruppe kritisch begutachtet und auf ihre Umsetzbarkeit geprüft. Das Brainstorming bietet den Vorteil, dass im ersten Schritt alles erlaubt ist. Damit erhalten ungewöhnliche Lösungsansätze, die auf den ersten Blick "unmöglich" erscheinen, eine Chance, und die Gruppenmitglieder können es wagen, auch nach abseitigen Lösungen zu suchen. Brand Equity (Markenwert) 1. Zielsetzung (allgemein) In gesättigten Märkten mit relativ homogenen Produkten kommt der Marke besondere Bedeutung zu, sie ist als Kapital zu verstehen, aus dem künftige Erträge zu erwirtschaften sind. Der Wert dieses Kapitals (Markenwert, brand equity) ist eminente Zielgröße des Markenmanagements, zumal der Wert des Unternehmens (-» Unternehmenswert) zunehmend vom Wert seiner Marken abhängt. Marke
Wert
Marke
Wert
1. Coca-Cola
84
6. Disney
32
2. Microsoft
57
7. Intel
30
3. IBM
44
8. McDonald's
26
4. G.E.
34
9. A T & T
24
33 21 5. Ford 10. Marlboro Tabelle 1: Die zehn wertvollsten Marken börsennotierter Unternehmen in Mrd. USD (Quelle: Interbrand 1999)
In der Hierarchie der Marketingziele bildet der Markenwert die Klammer zwischen verhaltensorientierten Zielen wie Bekanntheit, Vertrauen und Image und ökonomischen Zielen wie Umsatz, Marktanteil und Deckungsbeitrag. Ein hoher Markenwert kommt primär durch hohe Qualitätswahrnehmung und entsprechende Preisbereitschaft und Markentreue der Konsumenten zu Stande. Er bewirkt eine starke Wettbewerbsposition und u.a. ein hohes Potenzial für Geschäftsausweitungen unter dieser Marke durch Markentransfer bzw. "brand extension".
2. Definition Die Information über den Markenwert kann zwei Arten von Entscheidungen dienen: 1) Finanzielle Entscheidungen wie Markenveräußerung, -akquisition, -lizenzierung, Schadenersatz bei Markenverletzung oder 2) Marketing-Entscheidungen wie Markenbudgets, -> Markenpositionierung, Preise, Mediabudgets und - • Marketing-Controlling. Entsprechend sind finanzielle und marketingorientierte (verhaltensorientierte) Definitionen zu unterscheiden. Finanziell ist der Markenwert letztlich der -> Barwert aller künftigen Einzahlungsüberschüsse, die aus der Marke zu erwirtschaften sind. Für das -» Marketing ist dagegen eine instrumenteile und damit verhaltensorientierte Perspektive sinnvoll, die Ansatzpunkte zur Beeinflussung des Markenwerts aufzeigt, nämlich "die Gesamtheit aller positiven und negativen Vorstellungen, die im Konsumenten ... aktiviert werden, wenn er das Markenzeichen wahrnimmt, und die sich in den ökonomischen Daten des Marktwettbewerbs spiegeln" (Schulz/Brandmeyer 1989). 3. Messung Den beiden Verwendungszusammenhängen entsprechend gibt es zwei verschiedenartige Messansätze von "Markenwert": finanziell quantitativ beschreibende (preis-, kosten- und ertragsorientierte) und verhaltensorientiert erklärende (image-, einstellungs- und nutzen- bzw. conjoint-analytische) Ansätze. Der finanzielle Markenwert kann hilfsweise, da der Marken-Ertragswert kaum zu erfassen ist, direkt aus dem Preis von Akquisitionen, Markenveräußerungen oder -lizenzierungen abgelesen werden oder - indirekt hochgerechnet - aus dem relativen Absatz- oder Endverbraucherpreis (Preisabstand zur "durchschnittlichen" Marke oder zu einem No-Name-Produkt).
115
Browser
Brand Equity Verhaltensorientierte Markenbewertungen (Bekmeier-Feuerhahn 1998; Riedel 1996) erörtern die Determinanten des Markenwerts und erklären ihn als "Markenstärke", ohne ihn schon finanziell zu bewerten. Markenstärke-Scores können dann unter Berücksichtigung von Kosten und Erlösen finanziell bewertet werden. Zur Ermittlung der Markenstärke sind die psychischen Dispositionen des Konsumentenverhaltens zur Marke zu bestimmen. Dazu werden Konstrukte wie Markenbilder und Schemata herangezogen, neuerdings auch in Form von Kausalmodellen (-> Kausalanalyse). Markenstärke als strategische Zielgröße ist auf operative betriebswirtschaftliche Zielgrößen wie Bekanntheit, Marktanteil, Distributionsquote etc. hochzurechnen, die fur das Markenmanagement und -controlling operabel sind. 4.
Kritik
Der Wert einer Marke ist genau so wenig als "wahrer Wert" zu erfassen wie der Firmenwert. Ihn finanziell abzuschätzen, ist ein betriebswirtschaftlich notwendiges Ziel, und die Ansätze dazu sind, distanziert kritisch gewertet, recht nützlich. Für wissenschaftlich fundiertes Markenmanagement und -controlling können brauchbare, aber noch weiter zu entwickelnde Theorieansätze und Modelle in der Praxis verwendet werden. Dabei sollte aber beachtet werden, dass "Markenwert" ein vom Verwendungszusammenhang abhängiges Konstrukt ist, das letztlich auf subjektiven Dispositionen der Konsumenten beruht. Literatur: Riedel, F.: Die Markenwertmessung als Grundlage strategischer M a r k e n f ü h r u n g , Heidelberg 1996; Bekmeier-Feuerhahn, S.: Marktorientierte Markenbewertung, Wiesbaden 1998; Esch, F.R. (Hrsg.): Moderne Markenfuhrung, Wiesbaden 1999; Schulz, R./Brandmeyer, K.: Die Marken-Bilanz, in: Markenartikel, 51, 1989, Nr. 7, 363-370.
Volker Trommsdorff Break-Even-Analyse Die Break-Even-Analyse (auch: Gewinnschwellenanalyse) ist der Teil der be116
trieblichen Planerfolgsrechung. Untersucht wird, bei welcher Absatzmenge das Unternehmen gerade einen Gewinn von Null erwirtschaftet. Diese Absatzmenge wird Break-Even-Menge genannt. Bei Absatzmengen, die kleiner als die Break-Even-Menge sind, erwirtschaftet das Unternehmen einen Verlust. In diesem Fall sind die kumulierten Stückdeckungsbeiträge der verkauften Produkte kleiner als die Summe der betrieblichen Fixkosten. Bei Absatzmengen, die größer als die Break-Even-Menge sind, erzielt das Unternehmen einen Gewinn, d.h. die kumulierten Stückdeckungsbeiträge sind in diesem Fall größer als die betrieblichen Fixkosten. Die Break-Even-Analyse dient der Verdeutlichung des Zusammenhangs zwischen der Höhe der Stückdeckungsbeiträge bzw. der Höhe der betrieblichen Fixkosten und dem Erreichen der betrieblichen Gewinnschwelle. Es gilt; 1. Je höher die Stückdeckungsbeiträge, desto weniger Produkte müssen abgesetzt werden, um die Gewinnschwelle bei gleich hohen Fixkosten zu erreichen. 2. Je höher die Fixkostenbelastung, desto mehr Produkte müssen abgesetzt werden, um bei gleich hohen Stückdeckungsbeiträgen die Gewinnschwelle zu erreichen. Bridge Finanzierung Finanzierung im Vorfeld eines Börsengangs (-> Initial Public Offering), um die Mindestbeträge nach § 2 Abs. 1 der Börsenzulassungs-Verordnung zu erreichen. Brownfield Investment -» Auslandsgesellschaft Browser Als Browser wird Software zum Betrachten bestimmter Datenformate bezeichnet. Umgangssprachlich wird darunter aber stets ein -> WWW-Browser verstanden.
Bürokommunikationsmanagement Bürokommunikationsmanagement !. Definition Unter Bürokommunikationsmanagement versteht man die zielgerichtete Gestaltung der Bürokommunikation insbesondere unter strategischen Gesichtspunkten. Sie liegt im Verantwortungsbereich des Managements und umfasst organisatorische, personelle und technische Aspekte: -
Analyse und Gestaltung von Kommunikationssystemen und organisatorischen Regelungen sowie deren Integration in bestehende Arbeitssysteme und in die technologische Infrastruktur eines Unternehmens.
-
Strategie und Methodik zur Einfuhrung von Bürokommunikationssystemen.
-
Spezifikation von Kommunikationsstrukturen, Kommunikationsinhalten und organisatorischen Kommunikationsbedingungen.
-
Definition und Überwachung von Sicherheits- und Qualitätsanforderungen sowie technischer Standards von Netzen und Diensten (Schnittstellen, Protokolle, -» Firewalls).
-
Festlegung von Ergonomiestandards und sozialverträglichen Kommunikationsstrukturen.
-
Steuerung, Kontrolle und Optimierung der Bürokommunikation - unternehmensintern und mit externen Geschäftspartnern.
-
Finanzielle Bewertung geplanter oder eingesetzter Bürokommunikationssysteme.
2. Leitbild Die Vision des papierlosen Büros stellt das zentrale Leitbild des modernen Bürokommunikationsmanagements dar. Die Zielsetzung liegt in dem Aufbau integrierter Büroarbeitsplätze und deren unternehmensweiter Vernetzung. Auf diese Weise werden kostenträchtige und zeitintensive Medienbrüche vermieden, wie sie in herkömmlichen Büroprozessen zu verzeichnen sind.
Bürokommunikationsmanagement 3. Bürokommunikationstechnik Information stellt eine strategische Ressource und einen wichtigen Erfolgsfaktor für Unternehmen dar. Es ist notwendig, Informationsvorsprünge gegenüber Wettbewerbern zu erkennen, aufzubauen, sie zu nutzen und zu wahren. Dabei bedient man sich modernster Informations- und Kommunikationstechnik, die im Kontext des Büros auch als Bürokommunikationstechnik bezeichnet wird. Sie ermöglicht durch die Reduzierung von Verarbeitungs- und Transportzeiten eine signifikante Steigerung von Produktivität und Effizienz der Arbeitsprozesse. Der zielgerichtete Einsatz der Bürokommunikationstechnik eröffnet Kosteneinsparungspotenziale. Nach empirischen Erhebungen werden in produzierenden Unternehmen ca. 80% der Bürokosten durch Fachpersonal und Sachbearbeiter verursacht. Sie sind ungefähr 70% ihrer Zeit mit Routineaufgaben beschäftigt, wie Vervielfältigung, Ordnen, Suchen und Verteilen papiergestützter Dokumente. Diese Aufgaben können in hohem Grade automatisiert, an Büroinformationssysteme übertragen und damit die Büroarbeit rationalisiert werden. 4. Bürokommunikationssystem Die Entwicklung tendiert zu einem umfassenden Bürokommunikationssystem, das alle Bürotätigkeiten elektronisch unterstützt. Im Gegensatz zu den Insellösungen der Vergangenheit wird nun die integrierte Verarbeitung und elektronische Übertragung multimedialer Daten angestrebt. Ein multifunktionaler vernetzter Büroarbeitsplatz bietet hierzu dem Benutzer die gesamte Funktionalität über eine einheitliche graphische Benutzungsoberfläche an. Deshalb stellt die Auswahl oder Konzeption, Einfuhrung und Nutzung unternehmensweiter Bürokommunikationssysteme eine zentrale Aufgabe des Bürokommunikationsmanagements dar.
117
Bürokommunikationsmanagement Moderne Technologien wie das -* Internet ermöglichen bereits heute neue Wege in der Gestaltung der Bürokommunikation. So werden die Architekturen moderner Büroinformationssysteme verstärkt auf dieses Medium ausgerichtet. Ein -> Intranet stellt dabei einen Systemtyp dar, der dieser Entwicklung Rechnung trägt. Darunter versteht man ein Bürokommunikationssystem, das auf Basis des TCP/IP-Protokolls und der auf Hypermedia basierenden Navigationsparadigmen des World Wide Web (WWW) realisiert ist. Es kann zu einem -> Extranet erweitert werden, das einer Benutzergruppe fremder Unternehmen Zugriff auf einen Teil der eigenen Informationen ermöglicht. Hierbei kommen sowohl Händler und Zulieferer als auch Endkunden in Betracht. 5. Ausblick In der Zukunft werden sich Büroarbeit und Bürokommunikation stark verändern und durch integrierte, multimediale Bürokommunikationssysteme auszeichnen. Der Arbeitsplatz der Zukunft wird nicht mehr orts- und zeitgebunden sein. Die Büroarbeit der Zukunft wird sich in ein virtuelles Büro verlagern. Die durch Schrift und Sprache geprägte traditionelle Kommunikation wird durch die Integration audio-visueller Komponenten - wie Bildtelefon und Videokonferenz - erweitert. Groupware und Workflow-Management-Systeme (-» Workflow-Management) werden darüber hinaus zunehmend die kooperative Zusammenarbeit weltweit verteilter Organisationen informationstechnisch unterstützen. Walter Augsburger Business Angel Angel Investor Business Plan Synonym: Geschäftsplan. Definition: schriftliches Unternehmenskonzept zur Selbstkontrolle und Kapitalbeschaffung.
118
Business Plan Allgemeines: Planung erfolgt in zwei Schritten: Zunächst wird das angestrebte Ziel definiert. Sodann wird die Strategie ermittelt, mit der das definierte Ziel bestmöglich erreicht werden kann. Während eine Projektion nur denkbare Szenarien entwirft (-> Szenario-Technik) und eine Prognose nur wahrscheinliche Entwicklungen abbildet, dient der Business Plan der Verwirklichung des Unternehmenskonzepts. Funktion: Der Business Plan zwingt die Gründer, ihre Geschäftsziele zu definieren und die Maßnahmen und Ressourcen zu benennen, die für die Zielverwirklichung erforderlich sind. Die intensive Auseinandersetzung mit der eigenen Geschäftsidee mündet in einem widerspruchsfreien Unternehmenskonzept oder deckt unüberwindbare Hindernisse auf. Neben diese innenwirksame Selbstkontrolle der Gründer tritt die außenwirksame Präsentation des Unternehmenskonzepts zur Kapitalakquisition bei institutionellen und privaten Investoren, insbesondere Venture Capitalists.
Business Plan
|
Executive Summary!
r i Markt + Wettbewerb i Produkt
—
Team + Mitarbeiter |
i
Unternehmen Marketing Produktion
i
i i
Chancen + Risiken J Finanzplanung Abb. : Business
Plan-Gliederung
Business Plan
Business Plan Unabhängig davon, ob eine -> Untemehmensgründung, -Umstrukturierung oder Sanierung den Eigen- oder Fremdkapitalbedarf auslöst, ist der Business Plan die gängige Präsentationsform gegenüber Investoren.
•
Zeitpunkt: Da der Business Plan den Gründern auch zur Selbstkontrolle dient, wird er unabhängig von einem konkreten Finanzierungsbedarf so früh wie möglich erstellt. Lücken werden in diesem frühen Stadium durch Prämissen geschlossen. Dies ist unschädlich, weil bei einem Business Plan nur der Unternehmensgegenstand als statische Zielvorgabe zu verstehen ist, während alle anderen Inhalte einem dynamischen Anpassungsprozess unterworfen sind. Ein guter Business Plan wird regelmäßig aktualisiert. Der Planungszeitraum erstreckt sich auf drei bis fünf Jahre. Bei diesem mittelfristigen Planungshorizont sind erhebliche Abweichungen zwischen der ursprünglichen und der fortgeschriebenen Fassung eines Business Plans unumgänglich.
Die Produktbeschreibung orientiert sich am Kundennutzen. Die Wettbewerbsvorteile werden deshalb nutzenund nicht technikorientiert dargestellt: Ein Alleinstellungsmerkmal kann nur für sich in Anspruch nehmen, wer ein Kundenproblem schneller, billiger oder sicherer löst, nicht aber, wem eine technische Erfindung gelungen ist. Ob die Produktidee bereits zu einem Prototyp oder gar einem marktreifen Produkt weiterentwickelt wurde, ist für einen Investor ebenso wichtig wie die Schutzfahigkeit nach dem Patent- und Musterrecht.
•
Inhalt: Soweit Gliederung und Umfang nicht vom potentiellen Investor oder vom Veranstalter eines Business Plan-Wettbewerbs vorgegeben sind, werden folgende Themen auf höchstens 25 Seiten (ohne Anhang) behandelt (Siehe auch Abbildung):
Aus der Exitperspektive eines Venture Capitalists (-> Exit) verspricht nur ein Wachstumsmarkt eine überdurchschnittliche Unternehmenswertsteigerung. Der Business Plan beschreibt den Markt bzw. das Marktsegment deshalb hinsichtlich Größe, Eintrittsbarrieren, Renditen und Entwicklungstendenzen. Die Angaben werden durch Marktzahlen aus einer Marktstudie belegt. Eine Konkurrenzanalyse gibt über die Wettbewerber Aufschluss, die dasselbe Marktsegment besetzen.
•
Das Managementteam und die Mitarbeiter mit Schlüsselfunktionen müssen mit ihren unternehmensrelevanten praktischen und theoretischen Qualifikationen alle Führungsaufgaben besetzen. Damit jeder Aufgabenbereich komplett abgedeckt ist, wird hier auch die Kompetenz der externen Berater herausgestellt. Ein "eingespieltes Team" verweist zudem auf die Erfolge der bisherigen Zusammenarbeit. Detaillierte Lebensläufe gehören ebenso wie ein Organigramm in den Anhang.
•
Das Unternehmen wird chronologisch hinsichtlich Unternehmensgeschichte, aktueller Situation und künftiger Entwicklung dargestellt. Neben die Begründung der -> Rechtsformwahl tritt die Ausgestaltung der Beteiligungs-
•
In der Executive Summaty werden die Kernaussagen des Business Plans zusammengefasst. Die Executive Summary ist oft ausschlaggebend, ob der Investor den restlichen Business Plan überhaupt einer detaillierten Beteiligungsprüfung unterzieht. Nach zwei Seiten muss klar sein, warum welches Team mit welchem Produkt auf welchem Markt mit welchem Kapitalbedarf in welcher Zeit welchen Gewinn erzielen kann. Als komprimierter Abriss des gesamten Business Plans wird die Executive Summary zuletzt erstellt.
119
Business Plan Verhältnisse und die Besetzung der obligatorischen Organe und fakultativen Gremien. Geschäftsführungs-, Vertretungs- und Haftungsfragen beantwortet dann bereits das Gesetz. Die Unternehmensdarstellung kann durch Handelsregisterauszüge, Bilanzen und GuV-Rechnungen im Anhang abgerundet werden. •
Nach der Lektüre des Marketingkonzepts muss der Investor wissen, weshalb sich mit dem Produkt Geld verdienen lässt. Die Preispolitik kann sich an den Kosten, der Preisbereitschaft der Kunden oder am Wettbewerb orientieren. Das Vertriebskonzept stellt die logistische Verbindung zwischen Produkt und Kunden her. Die Werbestrategie lässt erkennen, welche Werbeträger mit welchen Werbemitteln belegt werden, um die Kundenkommunikation herzustellen.
•
Die Darstellung der Wertschöpfungskette wird durch organisatorische Angaben zur Beschaffung und Produktion ergänzt (-> Wertschöpfungskette).
•
Bei innovativen Start Ups mit neuartigen Produkten gehen Chancen und Risiken Hand in Hand. Auf eine selbstkritische Auseinandersetzung mit denkbaren Markt- und Technologieentwicklungen folgen die Konzepte, mit denen das Unternehmen wachstumshemmenden Faktoren begegnen wird und welche Folgekosten hierdurch entstehen.
•
Am Anfang der Finanzplanung steht eine mittelfristige GuV-Rechnung, bei der aus dem zeitlichen Abstand zwischen Ausgaben und Einnahmen der Kapitalbedarf errechnet wird. Da es sich um eine projektive GuVRechnung handelt, wird die Normalfallbetrachtung durch ein Best Caseund ein Worst Case-Szenarium ergänzt. Dem Kapitalbedarf werden die Finanzierungsarten gegenübergestellt. Am Ende kann ein konkretes Finanzie-
120
Business Process Reengineering rungsangebot stehen, dem der Investor entnimmt, wieviele Anteile zu welchem Nennwert für welches Kapital geboten werden. Dem Business Plan werden insbesondere Lebensläufe, Handelsregisterauszüge, Bilanzen, GuV-Rechnungen und Patentnachweise als Anlage beigefügt. Geheimhaltung: Die Veröffentlichung der Geschäftsidee in einem Business Plan ist zweischneidig. Je detaillierter um Investoren geworben wird, desto größer ist die Gefahr einer unerwünschten Fremdverwertung der Geschäftsidee. Wer durch eine freiwillige Offenbarung in einem Business Plan, also nicht durch eine strafbare Handlung nach §§17 f. UWG von einer Geschäftsidee Kenntnis erhält, darf diese wirtschaftlich verwerten, wenn er sich nicht zur Geheimhaltung verpflichtet hat. Ein Verwertungsverbot besteht zudem für patentierte Erfindungen. Doch weder eine Geheimhaltungsvereinbarung mit dem Investor noch die Patentierung der Erfindung bieten einen adäquaten Schutz: Dem Investor wird die Verletzung der strafbewährten Geheimhaltungspflicht nur schwer nachzuweisen sein. Eine formularmäßige Beweislastumkehr zu Lasten des Investors scheitert regelmäßig an § 11 Nr. 15 AGBG. Gegen die Patentierung einer Erfindung spricht insbesondere die Veröffentlichung der vollständigen Erteilungsunterlagen nach § 58 PatentG. Wandelt ein Dritter das patentierte Erzeugnis oder Verfahren hinreichend ab, liegt keine verbotene Ausführungsform mehr vor. Stefan Hanloser Business Process Reengineering 1. Basiselemente des Business Process Reengineering Trotz der vielfältigen Beiträge zum Thema Business Process Reengineering (BPR) gibt es einige konzeptionelle Gemeinsamkeiten, die in nahezu allen Arbeiten anzutreffen sind.
Business Process Reengineering Das fraglos wichtigste Fundament des BPR ist das Prozesskonzept. Es beinhaltet die Ablösung von funktionalen Organisationsprinzipien durch eine konsequente Orientierung auf bereichsübergreifende Geschäftsprozesse. Ein entsprechendes organisatorisches Design unterscheidet Kern- und Supportprozesse, wobei erstere i.d.R. auf externe Kunden ausgerichtet sind und Wettbewerbsvorteile generieren sollen und letztere für interne Kunden bzw. andere Geschäftsprozesse Leistungen erzeugen. Schnittstellen zwischen Bearbeitungsschritten sollen so entfallen und Abstimmungsaufwand reduziert werden. Ein zweites wesentliches Element ist die -> Kundenorientierung. Intern wie extern orientierte Prozesse werden an ihren Leistungen für Kunden beurteilt und ihre Wertschöpfung am Kundennutzen gemessen. Leistungsniveaus werden im Rahmen von Service Level Agreements zwischen den sog. Prozessownern ausgehandelt. -> Benchmarking und Outsourcingentscheidungen (-»Outsourcing) von Prozessen orientieren sich an dem Kriterium "Kundennutzen". Die "kundenorientierte" oder "vorgangsorientierte" Rundumbearbeitung erfolgt durch Teams. Prozessoder Case-Teams sollen Vorgänge ganzheitlich und integrativ bearbeiten, um Servicequalität des Prozesses zu verbessern und Durchlaufzeiten zu verringern. Entsprechend der Komplexität des Bearbeitungsvorganges einzelner Objekte bzw. Objektgruppen lassen sich Prozesse nach Produkt-, Kunden-, Lieferantengruppen segmentieren. Kundenorientierung und integrierte Rundumbearbeitung setzen voraus, dass Mitarbeiter ausreichende Handlungsspielräume besitzen und befähigt werden, nutzenstiftende Initiativen zu entfalten (-> Empowerment). Ein weiterer gemeinsamer Baustein wird in der Informationstechnologie gesehen. Kundenorientierung und Rundumbearbeitung verlangen dezentralen Daten-
Business Process Reengineering zugriff. Informationstechnologie wird daher als "Enabler" begriffen. Die IT ermöglicht es erst, integrierte Geschäftsprozesse neu zu entwickeln. Als Träger des Reengineering-Prozesses kommt ihr daher besondere Bedeutung beim innovativen Entwurf und effizienter technischer Umsetzung von Geschäftsprozessen zu. 2. Was ist ein Prozess? Einigkeit herrscht darüber, dass es sich bei Prozessen um Objekte handelt, die "funktionsübergreifend" angelegt sind. Ein Prozess ist eine zeitlich und räumlich spezifisch strukturierte Menge von Aktivitäten mit einem Anfang und einem Ende sowie klar definierten Inputs und Outputs. Zusammenfassend: "A structure for action". Hammer definiert Prozesse als Gruppen "verwandter Aufgaben, die zusammen für den Kunden ein Ergebnis von Wert ergeben". Kundennutzen entsteht nicht durch die Einzelaktivitäten einzelner Vorgänge oder Teilprozesse, sondern durch das Bündeln von Teilleistungen, die in ihrer Ganzheit eine nutzenstiftende Funktion mit identifizierbarem Wert für den Kunden erhalten. Prozesse sind Tätigkeitsfolgen, die Kundenwert schaffen. Je mehr die Informations- und Datenverarbeitung im Vordergrund steht, um so mehr wird auch die Binnenstrukturierung von Prozessen hervorgehoben. Die Frage, wie Arbeit effizient strukturiert werden soll, ist schon deshalb dem Reengineering immanent um Zeit und Kosten messen zu können. In der DV-orientierten Literatur werden zum besseren Prozessverständnis Referenzmodelle empfohlen. Vorgefertigte Referenzmodelle sollen es erleichtern, integrierte Geschäftsprozesse zu definieren und zu beschreiben. Dass die Aktivitäten in einer Reihenfolge strukturiert sind, macht einen wesentlichen Bestandteil des Prozessverständnisses aus. Es kann sich dabei um den Fluss und die Transformation von Material, Information, Operationen und Entscheidungen handeln. Gerade DV-nahe Arbeiten können hierzu Aufschluss geben, sind doch 121
Business Process Reengineering
Business Process Reengineering
Da ist einmal der eher deduktive Prozessentwurf. Ausgehend von "allgemeinen differenzierbaren Leistungsprozessen", die in allen Unternehmen in abstrakter Form vorfindbar seien, handelt es sich bei Identifikation und Definition allein um deren Konkretisierung. Demgegenüber sieht eine eher induktive Prozessidentifikation, die an konkreten Leistungen zur Generierung von Kundennutzen ansetzt, den schrittweisen Aufbau von Kernprozessen bzw. Supportprozessen vor. Für die sich anschließende Prozessbeschreibung werden eine Vielzahl von Softwaretools angeboten.
hier die Anforderungen an die Operationalität einer Prozessbeschreibung besonders hoch. Am Beispiel der Prozessauswahlmatrix von SAP R 3 wird deutlich, dass es sich um Vorgänge der Bearbeitung handelt, die jeweils Input-Informationsobjekte benötigen und Output-Informationsobjekte erzeugen. Einzelne "Prozesse" wie Kontaktbearbeitung, Anfragebearbeitung, Angebotsbearbeitung etc. sind allerdings keineswegs Geschäftsprozesse in dem Sinne, dass sie orginären Kundennutzen stiften, sondern können allenfalls als Bausteine für ein noch zu konstruierendes Geschäftsprozessmodell dienen. 3. Phasen des Reengineering-Prozesses Der Prozess der Veränderung umfasst eine Vielzahl von Aktivitäten, die aufeinander bezogen auch als Phasen des Reengineering-Prozesses beschrieben werden. So werden Aktivitäten unterschieden in Identifikation, Beschreibung, Design oder Implementierung. • Prozessidentifikation Bei der Prozessidentifikation handelt es sich fraglos um die alle weiteren Aktivitäten determinierende und damit zugleich erfolgsbestimmende Phase. Um so unverständlicher ist, dass ihr nur geringe Aufmerksamkeit geschenkt wird. Unter Prozessidentifikation und -Selektion werden folgende Schlüsselaktivitäten verstanden: -
Enumeration der Hauptprozesse Festlegung der Prozessgrenzen Bestimmung der strategischen Relevanz eines jeden Prozesses - Analyse der Pathologie bzw. Verbesserungsbedarf des Prozesses - Unternehmenspolitische und -kulturelle Bedeutung des Prozesses. In der Literatur lassen sich zumindest Hinweise für grundsätzliche Vorgehensweisen der Identifikation finden.
122
•
Prozessdesign Das Hauptaugenmerk gilt dem Design von Prozessen. Konzepte für eine prozessorientierte Gestaltung von Organisationen sind in unzähligen Veröffentlichungen anzutreffen. "Erfolgsrezepte" werden meist von Untemehmensberatungen vorgeschlagen, die ihre Kompetenz auf diesem Gebiet reklamieren. Eine kritische Auseinandersetzung mit ihrem Angebot fällt indes eher dürftig aus. Prozessoptimierung findet im Spannungsfeld von Qualitäts-, Kosten- und Zeitkriterien statt. Dabei wird implizit eine "neue Zielharmonie" unterstellt, wobei darauf verzichtet wird, der Frage nachzugehen, ob und unter welchen Bedingungen tiefgreifende Reorganisationsprozesse komplementäre Lösungen bezüglich dieser Ziele zulassen. Darüber hinaus werden Gestaltungsziele wie Stärkung der Innovationsfahigkeit oder Reduzierung der internen Komplexität vorgeschlagen. Die Prozesse müssen hinsichtlich dieser Kriterien Verbesserungsprogrammen unterworfen werden, um einer "BenchmarkingAnalyse der Wettbewerber" standzuhalten (-> Benchmarking). Es zählt zu den gesicherten Wissensbeständen, dass das Redesign von Prozessen nicht in einem, sondern in mehreren Opti-
Business Process Reengineering
Business Process Reengineering mierungsschritten - ergänzt um TQMMaßnahmen - sich zu vollziehen habe. Fundamentaler Wandel (Reengineering) wird von kontinuierlicher Verbesserung (-> Total Quality Management) begleitet. Wandel und Verbesserung werden mittels Verfahrensempfehlungen wie "Eliminieren", "Änderung der Reihenfolge", "Hinzufügen fehlender Schritte", "Integration", "Automatisieren", "Beschleunigen" oder "Parallelisieren" der Teilprozesse vollzogen. Meist werden jedoch nur Verfahrensempfehlungen darüber gegeben, was, aber nicht darüber, wie Prozesse zu reorganisieren sind. •
die bei der Übertragung von Geschäftsprozessen auf Teams gefordert wird. In aller Regel wird das Implementierungsproblem als technisch instrumentelle Fragestellung begriffen, die zu lösen eine Projektmanagementaufgabe darstellt (-> Projektmanagement). Barrieren bei der Umsetzung können den Erfolg von Reengineeringmaßnahmen in Frage stellen. Die Auseinandersetzung mit Widerständen ist mithin ein zentrales Thema der Initiierung des Wandels. Analyse sowie Grundsätze und Instrumente des Umganges mit dem Widerstand und "die Kunst, den Wandel zu verkaufen" sollen helfen, strukturelle Veränderungen vorzubereiten. Das Implementierungsproblem muss aber über die instrumentelle Fragestellung hinausgehend als grundsätzlicheres Problem des organisatorischen Wandels begriffen werden. Auch bei Osterloh/Frost wird Prozessmanagement als das "Management von Veränderungsprozessen" behandelt (-> Management des
Prozessimplementierung Für die Umsetzung des "Redesigns" gibt es eine Vielzahl von institutionellen und prozessualen Implementierungsvorschlägen. Einführungsmodelle zeichnen sich durch top down angelegte Zielvorgaben und bottom up generierte Umsetzungsmaßnahmen aus. Die Coaching-Aufgabe des Prozessverantwortlichen verlangt insbesondere kommunikative Fähigkeiten zur Förderung der Zusammenarbeit,
Anwendungsmöglichkeit Prozessidentifikation Prozesse im organisatorischen Gesamtzusammenhang abbilden Prozesse analysieren und optimieren Prozesse modellieren
Prozesse simulieren Qualitätsmanagement Geschäftsprozessbezogene Anwendungsentwicklung Koordination mit ERP-Software Unterstützung Workflow Supply Chain Management Customer Relationship Management (CRM)
Beispiele für Softwaretools: ADONIS; CASEwise; K O D A Toolset; Prometheus; ADONIS; AENEIS, CASEwise; D Y N A M X ; IvyFrame; K O D A Toolset, Prometheus; Alle Tools (außer den speziellen Workflow-Tools) ADONIS; AENEIS, ARIS Toolset, ARIS Easy Design; Bonapart; CASEwise, D Y N A M X ; IvyFrame, K O D A Toolset, Prometheus; ProzeßMonitor; Scitor Process v3 ADONIS; AENEIS; Bonapart; CASEwise; D Y N A M X ; iGrafx; IvyFrame; Scitor Process v3; ADONIS, AENEIS; ARIS Toolset; Bonapart; CASEwise; D Y N A M X ; EasyFlow; Iris; Prometheus; AENEIS, ADONIS; ARIS Toolset; Bonapart, CASEwise; D Y N A M X ; EasyFlow; IvyFrameAVebApp; ADONIS®, AENEIS, ARIS Toolset, ARIS Easy Design; Bonapart, CASEwise; EasyFlow; D Y N A M X ; IvyFrame; AENEIS, ADONIS; ARIS Toolset; CASEwise; D Y N A M X ; EasyFlow; IvyFrame; K O D A Toolset; Prometheus; Alle Tools, die eine ProzessmodellierungsfUhigkeit besitzen Alle Tools, die eine Prozessmodellierungsfähigkeit besitzen
Abb. 1: Softwaretools
zum
Geschäftsprozessmanagement
123
Buy Back
Business Process Reengineering Wandels). Dabei wird die Intensität des Wandels im Vergleich von revolutionärer und evolutionärer Strategie des Wandels thematisiert. In diesem Zusammenhang wird auch auf die Lern- und Wissenskomponente als Voraussetzung für erfolgreiche organisatorische Veränderungsstrategien eingegangen. Erst aus der Integration von Prozess- und Wissensmanagement können strategische Kernkompetenzen erwachsen. Die Aktivitäten der Prozessbeteiligten sind dazu in einzigartiger Weise zu Kernprozessen zu verknüpfen, die es ermöglichen, dass Wissen generiert und transportiert wird. 4. Softwaretools zum Geschäftsprozessmanagement Zur Unterstützung des BPR existiert eine kaum überschaubare Zahl von Softwaretools, mit deren Hilfe Geschäftsprozesse dargestellt, analysiert, simuliert, optimiert, modelliert und dokumentiert werden können. Meist sind sie auf spezifische Anwendungen spezialisiert. Die Abbildung 1 zeigt einige ausgewählte Tools und ordnet sie ihren Anwendungsmöglichkeiten zu. Auch wenn die genannten Tools das Geschäftsprozessmanagement hinsichtlich der effizienten Realisierung von Kostenund Zeiteinsparungen unterstützen können, bemisst sich der Erfolg eines Reengineering-Projektes vor allem nach seiner Effektivität. Prozessmanagement muss in diesem Sinn als strategische Ressource begriffen werden. Prozesse sind Werttreiber. Nur wenn es gelingt, nachhaltige Wettbewerbsvorteile durch nicht leicht zu imitierende Kernkompetenzen aufzubauen, kann von einem Change Management gesprochen werden, das langfristige Wertsteigerung des Unternehmens erwarten lässt. Literatur: Brenner, W./Keller, G. (Hrsg.): Business Reengineering mit Standardsoftware, Frankfurt/New York 1995; Davenport, Th. H.: Process Innovation, Reengineering Work through Information Technology, Boston (Mass.) 1993; Gaita-
124
nides, M./Scholz, R./Vrohlings, A./Raster, M. (Hrsg.): Prozeßmanagement, München, Wien 1994; Hammer, M./Champy, J.: Business Reengineering, Die Radikalkur für das Unternehmen, Frankfurt/New York 1993; Krickl, O. Ch. (Hrsg.): Geschäftsprozeßmanagement, Prozeßorientierte Organisationsgestaltung und Informationstechnologie, Heidelberg 1994; Nippa, M./Picot, A. (Hrsg.): Prozeßmanagement und Reengineering, Die Praxis im deutschsprachigen Raum, 2. Aufl., Frankfurt/New York 1996; Osterloh, M./Frost, J.: Prozeßmanagment als Kemkompetenz, 2. Aufl., Wiesbaden 1998; Osterloh, M./Wübker, S.: Wettbewerbsfähiger durch Prozeß- und Wissensmanagement, Wiesbaden 1999; Töpfer, A. (Hrsg.): Geschäftsprozesse: Analysiert, optimiert, Neuwied ua.O. 1996.
Michael Gaitanides Business-to-Business ->• E-Commerce Business-to-Consumer E-Commerce Button-Banner Das Button-Banner ist eine Sonderform der im Online-Marketing gängigen -> Bannerwerbung. Button sind kleine Banner, die daher auch nicht sofort den typischen Eindruck von Werbung, sondern eher den eines grafischen Gestaltungselements vermitteln. Der Klick auf diesen "Button" führt aber - wie beim großen Werbebanner - direkt zum Werbetreibenden. Buy-Back ->• Exit
Cafeteria-Systeme
Cache
c Cache Ein Cache ist allgemein ein Zwischenspeicher. Meist wird der Begriff im Zusammenhang mit -> WWW-Browsern verwendet: Um die Belastung des Internets durch redundanten Datenverkehr zu minimieren, speichert ein Web-Browser einmal aufgerufene Seiten in einem lokalen Zwischenspeicher. Geht der Nutzer innerhalb eines definierten Zeitraums erneut auf die bereits aufgerufene Seite, so werden die Inhalte dieser Webseite nicht "frisch" aus dem Internet geholt, sondern aus dem lokalen Zwischenspeicher gelesen. Internet-Provider nutzen diese Technik in größerem Stil, indem sie einen -> ProxyServer als Cache einsetzen. Cafeteria-Systeme Während Personalzusatz- bzw. Sozialleistungen bis heute vornehmlich ohne Beachtung individueller Bedürfnisse der Berechtigten vergeben werden, setzt sich in Wissenschaft und Praxis zunehmend die Erkenntnis durch, dass Vergütungssysteme die Präferenzen des einzelnen Mitarbeiters, besonders in höheren hierarchischen Positionen, stärker berücksichtigen sollte. Diese Bemühungen werden in der sog. Cafeteria-Idee konkretisiert. Der Cafeteria-Ansatz besagt, dass es dem einzelnen Mitarbeiter überlassen werden sollte, inwieweit er unter der Prämisse der Kostenneutralität zwischen inhaltlich und zeitlich verschiedenen Entgeltbestandteilen analog einer Menü-Auswahl in einer Cafeteria auswählen kann. Grundsätzlich sind mehrere Varianten des CafeteriaSystems denkbar. Dabei lassen sich drei substantielle Elemente als Grundbestandteil erkennen. Sie sind identisch mit der Definition des "cafeteria-plan" im amerikanischen Einkommenssteuergesetz (Internal Revenue Code [Income tax] § 125 d 1 A, B):
• • •
Wahlbudget für den einzelnen Mitarbeiter; periodisch wiederkehrende Wahlmöglichkeiten der Beteiligten; ein Wahlangebot mit mindestens zwei oder mehreren Alternativen, bestehend aus monetären oder anderen materiellen oder immateriellen Sozialleistungen.
Zunächst wird ftir die Belegschaft oder Teile davon ein periodisch wiederkehrender Wahlzeitraum bestimmt (z.B. ein Jahr). Zu Beginn des Wahlzeitraumes erhält jeder Mitarbeiter ein Budget zugeteilt, in dessen Rahmen er bestimmen kann, wie er einen Teil seines Einkommens oder sein gesamtes Einkommen empfangen will. Dadurch ergibt sich folgende personalpolitische Attraktivität: •
Durch die Individualisierung von betrieblichen Leistungen hat der einzelne Mitarbeiter die Möglichkeit, diejenigen Entgeltkomponenten zu wählen, die seinen Bedürfnissen oder seiner finanziellen Situation am ehesten entsprechen und gleichzeitig auf die Leistungen verzichten, die für ihn von geringer Bedeutung sind.
•
Die individuelle Ausrichtung der Personalkosten nach dem CafeteriaPrinzip hat - abgesehen von gewissen Transaktionskosten - den ökonomischen Vorteil, dass diese Größe konstant bleibt, weil nicht ihre Maximierung, sondern ihre optimale Ausprägung im Vordergrund der Betrachtung steht.
Die personalpolitische Zielsetzung besteht darin, über die individualisierten Entgeltsysteme das Verhalten der Arbeitnehmer im Sinne des Unternehmens zu beeinflussen. Als Hauptmotive für die Einführung eines Cafeteria-Plans in Deutschland gelten die Verstärkung der Leistungsmotivation der Mitarbeiter, die Erhöhung der Attraktivität des Unternehmens auf dem Arbeitsmarkt und die Erhöhung der Zufriedenheit der Mitar125
Cafeteria-Systeme beiter (-» Motivation; -> Öffentlichkeitsarbeit; Mitarbeiterzufriedenheit) (Wagner/Grawert/Langemeyer 1993). Cafeteria-Pläne können insofern aus sachrationalen als auch aus motivations- und anreizbezogenen Gründen eine erfolgsversprechende Alternative zu herkömmlichen Entgeltsystemen darstellen. In den Vereinigten Staaten, aus denen die Idee des Cafeteria-Systems stammt, bestehen Steuervergünstigungen für derartige Wahlmöglichkeiten, da dadurch eine Substitution von öffentlichen Sozialleistungen durch betriebliche gefördert werden soll. Zu diesen gehören z.B. die private Krankenversicherung oder eine Altersversorgung. Wegen dieser Vergünstigungen (Pretax Premiums) ist das Interesse der Unternehmen an der Einführung solcher Systeme recht groß. Gemäß einer Untersuchung von Forster Higgins Survey and Research fanden sich in immerhin 27% von 1236 befragten Unternehmen mit über 1000 Beschäftigten Cafeteria-Systeme (Langemeyer 1999). In Deutschland ist das soziale Netz durch staatliche Sozialpolitik sehr viel dichter als in den U.S.A. Zudem schränkt das Steuerrecht die Möglichkeiten der Steuervergünstigungen für Nebenleistungen nicht nur immer weiter ein, sondern beschneidet auch die Wahlmöglichkeiten zwischen den verschiedenen Vergütungsbestandteilen. Bis auf wenige Ausnahmen dürfen Beträge aus dem fest vereinbarten Gehalt nicht in andere Leistungen umgetauscht werden. Diese Restriktionen führen dazu, dass in Deutschland ein sehr viel geringerer Prozentsatz der Unternehmen ihren Mitarbeitern CafeteriaPläne offerieren. Für ein Cafeteria-Budget stehen deshalb auch neben einigen freiwilligen Sozialleistungen fast ausschließlich variable Vergütungsbestandteile, wie Tantiemen, Gewinnbeteiligungen oder Leistungsprämien, zur Verfügung. Neben diesen Leistungen können in das CafeteriaBudget unterschiedliche Zeitkomponen126
Cafeteria-Systeme ten einbezogen werden. Jeder Mitarbeiter könnte z.B. seinen über den gesetzlichen Mindesturlaub hinausgehenden Urlaubsanspruch dem Budget beisteuern und seine Urlaubsanwartschaft zeitlich verlagern - etwa um früher in den Ruhestand zu treten - oder in anderen Nebenleistungen bzw. in Direktentgelt umwandeln. Gleiches gilt für etwaige Zeitkontingente aus Arbeitszeitverkürzungen oder Mehrarbeit aus Projekteinsätzen. Als Gegenstand der Wahlmöglichkeiten kommt der größte Teil der Sozial- oder Nebenleistungen in Betracht. Dabei wird jeder Betrieb situationsspezifische Schwerpunkte finden müssen, z.B. im Hinblick auf Sortiment, Organisation, Finanzkraft. In Deutschland werden Cafeteria-Systeme überwiegend ausschließlich für die höheren Führungsebenen angeboten. Dabei kommen folgende Optionen vor: • • • • • • • •
Dienstwagen (-Leasing; -» Leasing), Arbeitszeitmodelle, Zusätzliche Altersversorgung, Versicherungsleistungen, Gewinn-/Kapitalbeteiligung, Arbeitgeberdarlehen, Erweiterte Lohnfortzahlung, Medical Check-up.
Vor allem die ersten fünf Leistungen werden in der Praxis vorrangig angeboten. Stark an Bedeutung gewonnen haben in den letzten Jahren Arbeitszeitmodelle. Hier ist insbesondere die Möglichkeit, Entgeltbestandteile und Zeitguthaben für die Erhöhung der betrieblichen Altersversorgung (Deferred Compensation) und einen vorgezogenen Eintritt in den Ruhestand zu verwenden durch die Änderung des "Gesetzes zur Verbesserung der betrieblichen Altersversorgung" zum 1.1.1998 Rechtssicherheit erreicht worden (Grawert 1998). Grundsätzlich ist bei der Festlegung der Optionen keine willkürliche Auswahl, kein Sammelsurium von Leistungen und Wahlmöglichkeiten, sondern ein gut
Campus Recruiting
Cafeteria-Systeme strukturiertes, breit gefächertes Mix an Optionen anzustreben. HEWLETT-PACKARD bietet seinen Mitarbeitern Wahlmöglichkeiten zwischen der Vergütung der Überstunden und mehr Freizeit, die bis zu mehreren Monaten angespart werden kann, sowie ein flexibles Frührentensystem an. Der Bremsenhersteller TEWES lässt seine leitenden Angestellten zwischen Dienstwagen, Fahrkostenzuschuss, Zinszuschuss oder einer Lebensversicherung wählen. Bei NCR haben die Mitglieder die Option, Mehrarbeit als Freizeit, in Form von Prämien oder einer Direktversicherung abzugelten. Das VW Zeit-Wertpapier bietet allen Mitarbeitern der Volkswagen AG die Möglichkeit, Gehaltsbestandteile und Zeitguthaben für einen vorgezogenen Ruhestand, eine Altersteilzeit oder eine höhere Betriebsrente einzusetzen. Die zunehmende Dynamik und Internationalisierung der Wirtschaft sowie die steigenden Anforderungen an Kreativität und Flexibilität der Mitarbeiter sprechen für eine generelle Zunahme von Flexibilisierung und Individualisierung in der Personalpolitik. Dabei spielen die Entgeltkomponenten als Teil der Motivations- und Anreizsysteme der Unternehmen eine wesentliche Rolle (-»Anreizmanagement). Gerade in der Flexibilisierung der Arbeitszeit wird - unter Beachtung der Bedürfnisse der Mitarbeiter - ein hohes Rationalisierungspotenzial vermutet. Der durch die hohen Kosten bedingte Rückzug des Staates aus dem System sozialer Sicherung könnte ihn dazu veranlassen, entsprechende Leistungen der Unternehmen stärker zu fordern. Letzteres wird entscheidend dafür sein, inwieweit sich die Wahlmöglichkeiten auch über die oberen hierarchischen Ebenen hinaus verbreiten. Literatur: Wagner, D./Grawert, A.: Sozialleistungsmanagement, München 1993; Wagner, D./Grawert, A./Langemeyer, H.: CafeteriaModelle; Stutgart/Zürich 1993; Langemeyer, H.: Das Cafeteria-Verfahren, München und Mering
1999; Grawert, A.: Deferred Compensation, Gestaltungsmöglichkeiten arbeitnehmerfinanzierter Altersversorgung, Köln 1998.
Achim Grawert/Dieter Wagner CAFM Facility Management CAM -> Automatisierung Campus Recruiting Campus Recruiting ist ein systematisch geplantes und strategisch ausgerichtetes Konzept von Personalmarketing- und -beschaffungsmaßnahmen, die sich auf die Zielgruppe der Studenten und Hochschulabsolventen aber im weiteren Sinn auch die der Young Professionals beziehen. Die spezifische Zielsetzung kann wie folgt beschrieben werden: •
Aufbau, Pflege und Kommunikation eines positiven Personalimages innerhalb der relevanten Studenten-, Absolventengruppe(n) und bei jungen Berufstätigen sowie
•
Kontaktanbahnung mit potenziellen Bewerbern und Gewinnung qualifizierter Mitarbeiter aus diesen Reihen.
Für das Unternehmen steht zu Beginn die Arbeitsmarktsegmentierung, mit dem Ziel homogene Zielgruppen festzulegen (-> Zielgruppenbildung). Sollen nicht in erster Linie Spezialisten sondern, mit langfristiger Perspektive, Generalisten eingestellt werden, ergibt sich das Anforderungsprofil an die zukünftigen Mitarbeiter aus der -> Unternehmenskultur abzuleitenden Erwartungen an Potenzial und Persönlichkeit eines Bewerbers. Ebenso wie die qualitative Komponente ist die quantitative Bedarfsplanung in Abhängigkeit von der geplanten langfristigen Entwicklung des Unternehmens vorausschauend zu bestimmen. Nach Analyse der externen Rahmenbedingungen und der relevanten Arbeitsmarktsegmente gilt es die Attraktivität des eigenen Unternehmens als Arbeitgeber im Vergleich zu den Konkurrenten einzuschät127
Campus Recruiting zen. Das Personalimage bildet sich dabei aus der kombinierten Wirkung des Unternehmensimages, des Produktimages und des Branchenimages. Diese Analysen stellen die Basis dar, um sowohl Ressourcen- und Budgeteinsatz, als auch die konkreten Maßnahmen ziel- und zeitgenau planen zu können. Eine räumliche und/oder sachliche Konzentration ist vor dem Hintergrund begrenzter Personalmarketingressourcen und ebenso im Zuge einer systematischen Beschaffung zu empfehlen. Neben der Bestimmung einzelner Schlüsseluniversitäten, relevanten Lehrstühlen und Studentenorganisationen, gilt es auch Medien und Veranstaltungstypen vorzuselektieren und den Maßnahmenmix zweckdienlich einzuschränken. So können Schlüsselhochschulen z.B. anhand des Renommees der Lehrstühle, der Absolventenzahlen, einer internationalen Ausrichtung aber auch anhand von Kriterien wie räumlicher Nähe und breiter Zielgruppenabdeckung sondiert werden. Die Aussagekraft von Rankings in Hochschulvergleichen sollte anhand der jeweiligen Untersuchungskriterien kritisch hinterfragt werden. Über Lehrstühle und Institute werden vor allem folgende Maßnahmen durchgeführt: Anzeigen, Diplomarbeiten, Dissertationen, Exkursionen, Ferienjobs, Förderkreise, Förderpreise, Lehraufträge, Messen, Praktika, Sponsoring, Stipendien, Vorträge, sowie Workshops. Unter Umständen ist auch die Einrichtung eines Stiftungslehrstuhls denkbar. Bekannte Beispiele aus dem breit gefächerten Angebot der Studenteninitiativen sind Firmenkontaktgespräche, Kurzseminare und Workshops. Neben Anzeigenschaltung und Fördermitgliedschaften werden zudem meist Diplomarbeitenbörsen, Exkursionen, Fachvorträge, Messeveranstaltungen oder Praktikantenvermittlung offeriert. Die immer zahlreicher werdenden studentischen Unternehmensberatungen stellen eine Plattform dar, auf der sich poten128
C'ampus Recruiting zielle Arbeitgeber und mögliche Bewerber genauer betrachten können. Auch professionelle Personaldienstleister bieten zahlreiche Rekrutierungsmöglichkeiten an. Zur Auswahl stehen u.a. Hochschulmessen, Rekrutierungsworkshops und spezielle Absolventenpools. Hochschulmessen sind geeignete aber auch kostenintensive Foren, um sich als attraktiver Arbeitgeber zu präsentieren, über die Einstiegsmöglichkeiten zu informieren und qualifizierten Nachwuchs zu gewinnen. Gleichzeitig kann man sich ein Bild vom Bewerberpotenzial als auch der eigenen Wettbewerbsposition machen. Die Messeveranstalter unterscheiden sich vor allem durch die eingesetzten Auswahlverfahren, die Anzahl und Qualifikation der eingeladenen Absolventen sowie die Anzahl der teilnehmenden Unternehmen. Zu unterscheiden von diesen Rekrutierungsmessen sind Rekrutierungs-Workshops und Special Events. Insbesondere auf der Mitarbeitersuche in schwierigen Arbeitsmärkten stellen derartige Workshops und Events Wege dar, attraktive Kandidaten anzuziehen und auch sich selbst als kreativen und engagierten Arbeitgeber zu präsentieren. Die Veranstalter bieten, von der Bestimmung des Anforderungsprofiis, der Konzeption, der gesamten Vermarktung des Workshops, der kompletten Teilnehmerauswahl, der Durchführung des Workshops bis hin zur Unterstützung bei der Auswertung, alle Leistungen an. Um den richtigen Anbieter zu finden, muss man sich über den Umfang des -» Outsourcings, den gewünschten Innovationsgrad der Veranstaltung und die Zielsetzungen im klaren sein. Einzelne Beratungsfirmen bieten spezielle Programme an, die sowohl einen intensiven Kontakt mit als auch den parallelen Qualifikationsaufbau der potentiellen Mitarbeiter beinhalten. Dazu werden handverlesene Studenten in einen branchen- und fakultätsübergreifenden, exklusiv geförderten Kreis aufgenommen, in dem sie während ihres Studiums durch Workshops, Semi-
Capital Asset Pricing Model
Campus Recruiting nare, Auslandaufenthalte und Praktika nicht nur fachlich und methodisch sondern auch persönlich entwickelt werden. Die Printmedien stellen aus Marketingund Beschaffungsgesichtspunkten weiterhin einen bedeutenden Kommunikationsweg dar. Um die Stärken effektiv nutzen zu können ist das Augenmerk auf eine unternehmenseinheitliche, zielgruppenorientierte und dem Zeitgeist entsprechende graphische und inhaltliche Aufbereitung der Anzeigen und Veröffentlichungen zu legen. Sowohl Tages- und Wochenzeitungen als auch Fachpublikationen und hochschulnahe Printmedien bieten geeignete Möglichkeiten für die Rekrutierung. Regelmäßig erscheinen auch spezielle, kostenlose Zeitungsbeilagen, deren Beiträge auf die Zielgruppe der Studenten und Absolventen zugeschnitten sind. In Verbindung mit der Schaltung einer Image- oder Stellenanzeige können oftmals kostenlos offene Praktikantenstellen ausgeschrieben werden, darüber hinaus ist eine Parallelveröffentlichung im Internet die Regel. Der Internet-Technologie sollte im Rahmen der Rekrutierung von Studenten, Hochschulabsolventen und jungen Berufstätigen ein zentraler Platz zukommen. Insbesondere da das Internet überwiegend (noch) von dieser Zielgruppe genutzt wird —> Elektronischer Stellenmarkt. In diesem Zusammenhang soll noch bemerkt werden, dass aufgrund der unterschiedlichen Stärken von Print- und elektronischen Medien, eine kombinierte Nutzung unbedingt zu empfehlen ist. Beim verwirklichten Maßnahmenmix gilt es die Effektivität von Zeit zu Zeit anhand von definierten Kriterien zu kontrollieren. Beispielsweise kann die Summe der Praktikanten und, oder Diplomanden bezogen auf bestimmte Schlüsselhochschulen in Vergleich mit den Investitionen des Unternehmens in die jeweilige Kooperation gesetzt werden und diese Kennzahlen untereinander oder mit einem vorgegebenen Wert abgeglichen werden.
Personalmarketing als integraler Bestandteil des Untemehmensmarketings, individuelle und maßgeschneiderte Maßnahmen, Kreativität sowie Glaubwürdigkeit können als beispielhaft herausragende Faktoren eines erfolgreichen Rekrutierungskonzeptes genannt werden. Literatur: Eisele, D./Horender, U.: Auf der Suche nach den High-Potentials, in: Personalwirtschaft, 12/1999, S. 2 7 - 3 4 ; Schröder, B./Steiner, A.: Wenig A u f w a n d , große Wirkung, in: Personalwirtschaft, 12/1999, S. 4 6 ^ 9 .
Daniela Eisele/Ulrike Hörender CAOE —1• Computer Aided Organizational Engineering Capital Asset Pricing Modell 1. Einordnung und Grundlagen Das Capital Asset Pricing Modell (CAPM) ist das historisch erste und nach wie vor populärste geschlossene Bewertungsmodell für fungible marktmäßig gehandelte Wertpapiere. Seine Entwicklung hat die moderne Finanztheorie (Theory of Finance) in Gang gesetzt. Es beruht neben den Annahmen •
• • •
friktionsloser Märkte (keine Transaktionskosten, keine Steuern, keine Leerverkaufsbeschränkungen, beliebige Teilbarkeit der Titel, Mengenanpassungsverhalten aller Marktteilnehmer) auf der Annahme, dass es effiziente Portfolios gibt, dass die Investoren solche realisieren wollen und dass sich schließlich die Wertpapiermärkte im Gleichgewicht befinden, dass also die gesamte Überschussnachfrage gleich Null ist.
Dabei ist eine Vermögensposition effizient, wenn es keine andere Position gibt, die a) weniger (oder höchstens gleich viel) kostet, die b) einen höheren (oder wenigstens gleich hohen) Erwartungswert aufweist und c) einer geringeren (höchstens gleich hohen) Varianz unterworfen ist (dabei müsste wenigstens eine der Ungleichungen strikt erfüllt sein; vgl. 129
Capital Asset Pricing Modell Portefeuille-Theorie). Das Postulat der Existenz effizienter Portfolios erlegt dem Preissystem am Markt bereits gewisse (der "Arbitragefreiheit" ähnliche) Beschränkungen auf, die durch die Gleichgewichtsbedingung noch weiter konkretisiert und mit empirischem Gehalt gefüllt werden. 2. Effiziente Portfolios und Preissystem Effiziente Portfolios können als (individuelle) Kombination zweier so genannter "Separationsfonds" zusammengestellt werden; je nachdem, ob eine risikofreie Anlage vorhanden ist (bzw. durch -> Hedging synthetisiert werden kann) oder nicht, ist das Verhältnis, in dem die beiden Fonds zum Gesamtportfolio kombiniert werden, individuell oder durch die Rendite r für risikofreie Anlagen bestimmt: Das effiziente Portfolio x bestimmt sich im Falle des Vorhandenseins einer risikofreien Anlage, von dem hier vereinfachend ausgegangen werden soll, nach der folgenden Gleichung: x = A-(yi-(\
+ r)-y0)
(X>0)
(1)
wobei der Fonds yi (bzw. der Fonds y0) mit den einzelnen Wertpapieren gerade eine Kovarianz in Höhe ihrer Erwartungswerte (bzw. Preise) aufweist. Bestimmt man die Kovarianz des effizienten Portfolios mit den einzelnen Wertpapieren, so ergibt sich folgende Formel für die Preise der Wertpapiere: ^
T
^ { E ( Z , ) - I C O V ( Z , , | : ^ ) }
(2)
dabei bezeichnet Z die jeweiligen unsicheren Endvermögenspositionen je Stück der einzelnen Wertpapiere und P ihre Preise. Die Preisgleichung (2) ist bereits der Kern des CAPM und beruht lediglich auf der Annahme, es gebe effiziente Portfolios. Sie besagt, dass der Preis eines Wertpapiers seinem diskontierten Sicherheitsäquivalent entsprechen muss, wobei das Sicherheitsäquivalent durch Korrektur des Erwartungswertes um einen Risikoabschlag gebildet wird; dabei bemisst sich 130
Capital Asset Pricing Modell das Risiko an der Kovarianz des betreffenden Wertpapiers mit dem effizienten Portfolio. Die Gleichung (2) lässt sich auch in der etwas bekannteren RenditeForm schreiben: E(Ä.)-r = [E(i?t)-r]
cov(Ä;,ÄT) var(X)
(3)
wobei Ri (bzw. Rx) die Rendite des i-ten Wertpapiers (bzw. des effizienten Portfolios) bezeichnet. In Verbindung mit einer Regression der Wertpapierrenditen auf die Rendite des effizienten Portfolios (vgl. -> Beta-Risiko) ergibt sich aus (3) die so genannte stochastische Form der Renditegleichung: (4) 1
"
J
var(7? )
( C O V ( E „ R , ) = E(E,) = 0)
3. Preissystem und Marktgleichgewicht Während (1), (2) und (3) nur mathematische Konsequenzen aus der Effizienz eines Portfolios sind, fugt die Gleichgewichtsbedingung der Theorie empirischen Gehalt hinzu; aggregiert man (1) über alle Investoren und berücksichtigt das Marktgleichgewicht, so ergibt sich X
M ~ ^M ' ( ^ 1
-
0 + R) '>O)
K > 0 )
(5)
mit dem "Marktportfolio" xM, das alle ausstehenden Wertpapierstückzahlen aller einbezogenen Wertpapiere enthält. (5) kann auf die Aussage reduziert werden: Das Marktportfolio ist effizient. Diese Aussage ist der empirische Kern des CAPM. Als Konsequenz ergibt sich die RenditeGleichung
1 investiert werden, da im Mittel eine überproportionale Reaktion der Einzelrendite zu erwarten ist; im umgekehrten Fall ist entsprechend umgekehrt (Beta < 1 oder, im praktisch irrelevanten Fall, kleiner als 0) zu verfahren. Eine weitere Anwendung besteht in der Beurteilung von Investitionsobjekten unter dem Aspekt einer Marktwertsteigerung: Eine Investition, die mit einem bestimmten Beta verbunden ist, muss wenigstens die durch (5) gegebene erwartete Rendite erwirtschaften. Zu Fragen der Erweiterung (z.B. dynamisches CAPM) wird hier aus Platzgründen auf die Stichworte Portefeuille-Theorie und -> Kapitalmarkttheorie verwiesen. Problematisch ist die Frage der empirischen Gültigkeit des Modells und der Korrektheit seiner Anwendung: Zum einen ist die materielle Abgrenzung des Marktportfolios offen: Aktienmarkt,
Capital Budgeting Process -> Investitionsmanagement Capital Gain - Exit CAQ-System Computer Aided Quality System
Assurance
CAS -»• Computer Aided Selling Cash-Burn-Rate Die Cash-Burn-Rate gibt wieder, welchen Betrag an -> Venture Capital junge -> Dotcom Unternehmen in den Ausbau ihrer Geschäftstätigkeit investieren. Der wurde einst bei Unternehmen ohne Umsätze oder gar Gewinne als "Erfolgsmaß" benutzt. Man ging davon aus, dass ein junges Unternehmen, welches viel invesitert, bald ein etabliertes Unternehmen mit hoher Marktpräsenz werden würde. Nachdem sich die Euphorie hinsichtlich der jungen Internet-Start Ups (-> Internet, -> Start Up -» E-Commerce) gelegt hat, wird eine hohe Cash-BurnRate eher als Vorzeichen einer drohenden -> Insolvenz gesehen. Cash-flow Rechnerisch ergibt sich der Cash-flow aus der Differenz betrieblicher Ein- und Auszahlungen. Diese Differenz kann entweder - direkt durch die Saldierung von Einund Auszahlungen oder - indirekt durch eine Bereinigung des Jahresüberschusses um ausgabenlose Aufwendungen und einnahmenlose Erträge bestimmt werden. 131
Cash-flow Return on Investment
Cash-flow Das einfachste Modell zur Cash-flowErmittlung geht vom Jahresüberschuss aus, der um Abschreibungen und Zuführungen zu den langfristigen Rückstellungen erhöht wird. Der Cash-flow bildet die Grundlage für die Ermittlung des Unternehmenswertes bzw. des Wertes einzelner Investitionen (-> Discounted Cash-flow, -> Shareholder Value). Cash-flow Return on Investment (CFROI) Der CFROI ist eine Renditekennzahl, die den unternehmerischen Erfolg (ausgedrückt durch den erzielten Cash-flow) relativ zu den eingesetzten Mitteln (ausgedrückt durch die Bruttoinvestitionsbasis) misst. Der CFROI vermeidet weitgehend die Schwachstellen herkömmlicher, buchhalterischer Kennziffern: •
• •
•
Der CFROI ist frei von buchhalterischen Verzerrungen (z. B. Abschreibungspolitik) Der CFROI berücksichtigt die Nutzungsdauer der gebundenen Mittel Der CFROI ermöglicht einen direkten Vergleich mit unterschiedlich strukturierten Bereichen und Neuinvestitionen Der CFROI korreliert mit dem eigentlichen Erfolgsmaßstab, nämlich der Wertentwicklung des Unternehmens.
Der CFROI ist definiert als der nachhaltige -» Cash-flow, den ein Geschäft relativ zu dem investierten Kapital innerhalb eines Jahres erwirtschaftet: CFROI =
Brutto C-ash - flow - Ökonomische Bruttoinvestition
Abschreibung
Der Brutto-Cash flow stellt die Konvertierung von Buchhaltungsdaten in reale, operative Geldflüsse auf Basis einer Gesamtkapitalbetrachtung dar:
132
Operativer Gewinn nach Steuern Abschreibungen Zuführung zu Pensionsrückstellungen Zinsaufwand Mietaufwand Inflationsverlust/-gewinn auf Nettoliquidität = Brutto-Cash-flow + + + + +
Die Bruttoinvestitionsbasis umfasst das gesamte, zu einem bestimmten Zeitpunkt in das Unternehmen investierte Kapital abzüglich der unverzinslichen Verbindlichkeiten (-> Pensionsrückstellungen werden als verzinslich betrachtet). Dabei wird das zu verzinsende Investment mit den historischen Anschaffungskosten ermittelt, um eine Art Nachkalkulation aller bisherigen Investitionen in ein Geschäft zu tätigen. Um die in der Vergangenheit getätigten Investitionen mit den heutigen Cash-flows geldmäßig vergleichbar zu machen, erfolgt je nach inflationärem Umfeld eine Inflationsanpassung.
+ + + + =
Nettoumlaufvermögen (liquide Mittel minus unverzinsliche Verbindlichkeiten) Anlagevermögen (ohne Goodwill) kumulierte Abschreibungen auf Sachanlagevermögen Inflationsanpassung zum heutigen Geldwert Kapitalisierte Mietaufwendungen Bruttoinvestitionsbasis
Die ökonomische Abschreibung ist der Betrag, der jährlich verzinslich beiseite gelegt werden muss, um in Zukunft nach der Nutzungsdauer - die Ersatzinvestitionen zu finanzieren, d. h. die ökonomischen Abschreibungen führen zu einer Rückgewinnung des eingesetzten Kapitals. Ökonomische
(1 +
Abschreibung
WACC ; WACC)Nu'ZUngSdaUer
x Abschreibbare -I
Aktiva
Cash-flow Return on Investment Im Vergleich zum ROI zeigt der CFROI keine Verzerrungen durch Abschreibungen. Bei Betrachtung einzelner Investitionen sinkt das Buchinvestment bei steigendem Alter der Anlage. Durch die zunehmende Abschreibung sinkt das investierte Kapital, und die Rentabilitätskennzahl ROI steigt dadurch bei konstantem Cash-flow kontinuierlich an. Rein operativ betrachtet hat sich die Performance der Investition nicht verändert. Eine Renditegröße sollte allerdings ohne Veränderung der operativen Performance keine Veränderung anzeigen. Der CFROI dagegen wird über die gesamte Nutzungsdauer der Investitionen immer auf voller Höhe der Bruttoinvestition gerechnet und bleibt dadurch konstant. Als absolute Größe hat der CFROI nur bedingte Aussagefähigkeit. Wichtig ist vor allem der Vergleich mit den Kapitalkosten und die Entwicklung über die Zeit. Nur wenn der CFROI über den Kapitalkosten liegt, schafft ein Unternehmenswachstum Wert. Liegt der CFROI unter den Kapitalkosten, muss erst die Rendite gesteigert werden. Ebenso schafft nur eine Steigerung der Profitabilität Wert, bei einer gleichbleibend hohen Rendite ohne Wachstum bleibt der Marktwert konstant. Der CFROI bildet wie jede Renditekennzahl nur eine Ebene der Wertschaffung ab. Der zweite Hebel ist das Wachstum. Um aber die Wertsteigerung eines Unternehmens intern adäquat nachzubilden, muss der CFROI in ein umfassendes Kennzahlensystem eingebunden werden. Der CVA als Übergewinnverfahren integriert Rentabilität und Wachstum. Der CVA berechnet sich als Absolutbetrag aus der Summe von CFROI minus Kapitalkosten, die mit der Bruttoinvestitionsbasis multipliziert wird: CVA = (CFROI - WACC) x
Bruttoinvestition
Die Hebel der Wertschaffung beim CFROI wiederum sind die Cash-flowMarge (Cash-flow / Umsatz) und der
Cash Management Kapitalumschlag (Umsatz / Bruttoinvestitionsbasis). Eingebettet in einem akkuraten Modell der Unternehmenswertsteigerung ist der CFROI ein wichtiges Steuerungsinstrument. Im Vergleich zu traditionellen Kennzahlen verarbeitet er zusätzlich Informationen, die Verzerrungen und damit verbunden Fehlentscheidungen der Unternehmensführung vermeiden. Daniel Stelter Cash Management 1. Begriff und Zielsetzung Das Cash Management einer Unternehmung umfasst alle Aufgaben und Maßnahmen der kurzfristigen Finanzdisposition und bezeichnet den zentralen Verantwortungsbereich des Treasurers. Dabei geht es um zweierlei: Zum einen muss sichergestellt werden, dass die fälligen Zahlungsverpflichtungen jederzeit termingerecht eingelöst werden können (Liquiditätsziel), denn der Verlust der Zahlungsfähigkeit ist für die Unternehmung unmittelbar existenzgefährdend; es droht die -* Insolvenz. Zum anderen steht auch das Cash Management unter dem übergeordneten Ziel des Gewinn- bzw. Rentabilitätsstrebens. Liquiditäts- und Rentabilitätsziel stehen dabei in einer konfliktären Beziehung: Die Sicherung der Zahlungsfähigkeit verlangt angesichts risikobehafteter Zahlungsströme (insbesondere unsichere Einzahlungen) nach einer Liquiditätsreserve in Form von Bargeld oder Sichtguthaben. Da liquide Mittel keine oder nur eine geringe Rendite abwerfen, wird durch die Kassenhaltung das Rentabilitätsziel beeinträchtigt. Dieser Zielkonflikt kann pragmatisch wie folgt gelöst werden: Ist die Zahlungsfähigkeit der Unternehmung gefährdet, so dominiert das Liquiditätsziel die finanzwirtschaftlichen Entscheidungen; bei ungefährdeter Zahlungsfähigkeit steht das Rentabilitätsziel im Vordergrund. In einem formalisierten Entscheidungsmodell nimmt die Rentabi133
Cash Management
Cash Management litätsmaximierung die Zielfunktion ein, während die Liquiditätssicherung eine strenge Nebenbedingung darstellt.
es daher sein, durch effiziente Gestaltung der Zahlungsströme die Transferkosten zu minimieren. Praktisch heißt dies, dass vor allem Anzahl und Volumen der (grenzüberschreitenden) Zahlungen reduziert werden. Dies wird durch Saldierung der gegenseitigen Zahlungsverpflichtungen erreicht, ein Vorgang, der auch als Clearing oder Netting bezeichnet wird.
Aus dem Gesagten ergeben sich für das Cash Management einer Unternehmung drei konkrete Aufgaben: • • •
die Kassenbestände möglichst gering zu halten, die freien Mittel möglichst ertragbringend anzulegen und die Zahlungsströme möglichst kostengünstig abzuwickeln.
Beim bilateralen Clearing verrechnet jede Konzerngesellschaft ihre Forderungen separat mit den Forderungen jeder anderen Konzemeinheit. Dadurch kann die Anzahl der Zahlungsakte erheblich (bis zu 50%) reduziert werden. Gelingt es, ein multilaterales Clearing-System zu etablieren, so ist das Einsparpotenzial noch deutlich höher (nach empirischen Beobachtungen konnte das Transfervolumen um mehr als zwei Drittel vermindert werden). Beim multilateralen Clearing wird für jede Konzerngesellschaft der Saldo aus Forderungen und Verbindlichkeiten gegenüber allen anderen Konzerngesellschaften ermittelt. Für jede Konzerngesellschaft ergibt sich auf diese Weise eine einzige Nettoschuldner- oder Nettogläubigerposition gegenüber allen anderen Teilnehmern am Clearing-System und demnach auch nur ein einziger Zahlungsakt. Üblicherweise findet die Zahlung monatlich einmal an einem bestimmten Termin statt, und zudem in der jeweiligen Landeswährung der Konzemgesellschaft. Organisation und Durchfuhrung des Kontenausgleichs liegen bei der Muttergesellschaft, einer konzemeigenen Servicegesellschaft oder bei einem konzernfremden Clearing-House. Der optimalen Ausnutzung des multilateralen Clearing setzen allerdings die Kapitalverkehrsbeschränkungen mancher Staaten eine Grenze.
Im folgenden sollen die Aufgabengebiete des Cash Management am Modell eines internationalen Konzerns besprochen werden, da hier die Vielfalt der Problemdimensionen verdeutlicht werden kann. 2.
Aufgabengebiete
•
Kurzfristige Liquiditätsplanung: Grundlage des Cash Managements und insbesondere der Liquiditätssicherung ist eine tagesgenaue Planung der Zahlungsein- und -ausgänge. In einem internationalen Konzern erfolgt diese Planung zunächst dezentral in jeder der in- und ausländischen Konzerngesellschaften, denn diese tragen als juristische Einheiten eigenständige Liquiditätsverantwortung. Erst in einem zweiten Schritt erfolgt eine konzernweite Abstimmung und gegebenenfalls ein Liquiditätsausgleich.
•
Gestaltung der Zahlungsströme: Die Abwicklung von Zahlungen verursacht Kosten, insbesondere wenn dabei Staatsgrenzen überschritten werden. Dazu zählen die Kosten der Bearbeitung der Zahlungsvorgänge in der Unternehmung, die Gebühren und Provisionen der mit der Abwicklung beauftragten Banken, der "Spread" zwischen Geld- und Briefkurs beim Währungsumtausch sowie die Zinsopportunitätskosten, die während der Transferzeit innerhalb des Bankensystems {float) anfallen. Eine wichtige Aufgabe des Cash Management muss
134
•
Disposition der Zahlungsmittelbestände: Zur Abwicklung der Zahlungsvor-
Cash Management
Cash Management gänge hält jede Unternehmung bzw. jede selbständig operierende Konzemgesellschaft eine Transaktionskasse. Die Unsicherheit der prognostizierten Zahlungsströme macht es - wie erwähnt - erforderlich, daneben noch eine Vorsichtskasse zu halten, die wegen der geringen Rendite so klein wie möglich dimensioniert sein sollte. In einem (internationalen) Konzern besteht die Möglichkeit, unter Beibehaltung der dezentralen Transaktionskassen die freien Mittel und die Vorsichtskassen zu zentralisieren (sog. Pooling). Dadurch lassen sich erhebliche Vorteile realisieren: -
-
Da die Zufallsschwankungen der Liquiditätsbedarfe der verschiedenen Konzerngesellschaften nicht vollkommen parallel ausfallen werden, hat die Zentralisierung der Vorsichtskasse einen PortfolioEffekt: Um ein bestimmtes Niveau der Liquiditätssicherheit zu gewährleisten, kommt ein zentraler Liquiditätspool mit einem geringeren Volumen aus, als es der Summe der dezentralen Vorsichtskassen entspricht. Die Rentabilitätseinbußen der Kassenhaltung werden vermindert. Durch eine zentrale Disposition líber die liquiden Mittel eines Konzems kann vermieden werden, dass einzelne Konzemgesellschaften Fremdmittel zu Sollzinsen am Markt aufnehmen, während andere ihre Überschüsse zum niedrigeren Habenzinssatz anlegen. Dem konzernintemen Finanzausgleich kommt in der Praxis große Bedeutung zu.
- Das zentrale Pooling setzt den Treasurer in die Lage, die freien Mittel besonders effizient anzulegen: Er kann Größenvorteile realisieren, die sich in besseren Konditionen niederschlagen, und er kann
Disponenten mit hoher Sachkompetenz einsetzen. •
Management des Währungsrisikos: Forderungen und Verbindlichkeiten sowie Kassenbestände in fremder Währung unterliegen dem Wechselkursrisiko. Ihr Wert - in Stammlandwährung ausgedrückt - verändert sich mit den Schwankungen der Währungsparitäten. Die Literatur spricht vom Transaktions-Exposure. Da sich solche Währungsverluste und gewinne unmittelbar auf Liquidität und Erfolg auswirken, wird die Handhabung des Wechselkursrisikos im allgemeinen ebenfalls dem Cash Management zugerechnet. Die entscheidenden Schritte dabei sind: Erfassung der Transaktions-Exposures, Saldierung von Forderung- und Schuldpositionen gleicher Währung und Laufzeit (Ermittlung des Net-Exposure) sowie Entwicklung einer Kurssicherungs(-> Hedging-)Strategie auf der Basis von (nicht unumstrittenen) Wechselkursprognosen. Ziel ist die Optimierung des Verhältnisses von Wechselkursrisiken und Sicherungskosten.
3. Organisatorisch-technische Abwicklung Eine wesentliche Voraussetzung für ein effizientes Cash Management ist ein ausgebautes Informationssystem und ein hoher Grad an Entscheidungszentralisierung. Es ist in der Regel die Konzemzentrale, in der die Informationen über Höhe, Laufzeit und Währung der Zahlungsverpflichtungen und Kassenbestände der Konzerngesellschaften zusammenfließen. Erst auf der Basis dieser Informationen können die Entscheidungen hinsichtlich des Pooling, des Clearing und des Währungsmanagements getroffen werden. In der Praxis weist das Cash Management in der Tat einen hohen Zentralisierungsgrad auf, was freilich die dezentrale Liquiditätsplanung nicht ausschließt, sondern voraussetzt.
135
Cash Management Die technische Abwicklung der Zahlungsdisposition erfolgt zunehmend unter Einsatz der Elektronik. Alle großen Banken und einige der Finanzdienstleister stellen sogenannte Electronic Funds Transfer Systems bzw. Cash Management Systeme zur Verfügung, die modular aufgebaut sind und in ihrer Leistungsbreite alle oben bezeichneten Aufgabengebiete abdecken. Die Banken ihrerseits sind durch weltweite Netzwerke miteinander verknüpft (z.B. durch SWIFT = Society for Worldwide Interbank Financial Telecommunication). Durch die Einführung des Euro wird die Zusammenführung der Liquidität im Bereich der Europäischen Währungsunion erheblich erleichtert. Im idealen Grenzfall lässt sich die Euro-Liquidität täglich und automatisch an einem Ort konzentrieren. In gleicher Weise wird die Möglichkeit eines multilateralen Clearing durch die einheitliche Währung und die freien Devisenmärkte im Euroland entscheidend verbessert. Literatur: Hormuth, M.W.: Recht und Praxis des k o n z e m w e i t e n Cash Managements, Berlin 1998; Pausenberger, E./Glaum, M./Johansson, A.: Das Cash M a n a g e m e n t internationaler Unternehmungen in Deutschland, in: Z f B , 65. Jg., 1995, S. 1365-1386; Pausenberger, E./Völker, H.: Praxis des internationalen Finanzmanagement. Eine empirische Untersuchung von Finanzierung, Kapitalstrukturgestaltung und Cash Management in internationalen Unternehmen, Wiesbaden 1985; Pausenberger, E./Glaum, M.: Electronic-BankingSysteme und ihre Anwendungsmöglichkeiten in internationalen Unternehmungen, in: Z f b F , 45. Jg., 1993, Nr. 1, S. 41-68; Steiner, M.: Cash Management, in: Gerke, W./Steiner, M . (Hrsg.): Handwörterbuch des Bank- und Finanzwesens, Stuttgart 1995, Sp. 386-399.
Ehrenfried Pausenberger Category Captain/Category Consultant -> Category Management Category Management 1. Der Category-Begriff Das Category Management bezieht sich auf Warengruppen, die nach Gesichtspunkten des Bedarfsverbunds gebildet und als jeweils eigenständige Geschäfts136
Category Management felder gefuhrt werden. "Management" bedeutet dabei sowohl einen Prozess, der insbesondere eine vertikale Kooperation zwischen Industrie und Handel einschließt, als auch eine organisatorische Zuständigkeit, die sich neuerdings in Handels- und in Industrieunternehmen findet. Relativ frühzeitig ist der Ausdruck "Category Management" in den USA bei Procter & Gamble flir eine Organisationsform verwendet worden, die dort 1987 das klassische Brand Management ergänzte. Es hatte sich gezeigt, dass Brand Manager, die innerhalb einer Produktart (z.B. Waschmittel) jeweils wie "MiniUnternehmer" für eine bestimmte Marke verantwortlich waren, im gegenseitigen Wettbewerb mitunter die übergreifenden Ziele des Gesamtunternehmens aus den Augen verloren. Daraufhin wurden sog. Category Managern Koordinationsaufgaben hinsichtlich aller Marken einer Produktart übertragen, übrigens auch hierbei schon unter dem Gesichtspunkt entsprechender Abstimmungen mit den Absatzmittlern auf der Handelsstufe. Während in dem genannten Beispiel ein negativer Bedarfsverbund angesprochen ist (Substitutionsbeziehungen zwischen den Marken), stehen heute bei der Bestimmung einer Category überwiegend komplementäre Zusammenhänge zwischen den Produkten (i.S. eines positiven Bedarfsverbunds) im Vordergrund. "Category" wird dabei als eine Gruppe von Produkten verstanden, die aus Konsumentensicht zu einem gemeinsamen Verwendungszusammenhang gehören und sich deshalb ergänzen können. Beispiele sind "Körperpflege" oder enger "Haarpflege", "Haushaltsreinigung", "Frühstücksbedarf', "Partybedarf', "Alles für das Bad", "Babypflege", "Geschenkartikel" usw. Innerhalb solcher Warengruppen bestehen zwar auch Substitutionsbeziehungen, nämlich zwischen verschiedenen Marken derselben Produktart (z.B. mehreren Shampoo-Marken in der
Category Management Category "Haarpflege") oder zwischen gegenseitig austauschbaren Produktarten (z.B. Fruchtsäften und Cola-Getränken in der Category "Erfrischungsgetränke"). Dennoch dominiert die Ausrichtung an gesamthaften Bedarfskomplexen der Konsumenten und damit an einem positiven Verbund. Die Category-Bildung entspricht dem verwendungsbedingten Suchverhalten des Konsumenten im Handelsgeschäft. Insofern trägt das Konzept des Category Management zu mehr Kundennähe bei. 2. Category Management als Prozess In Handelsunternehmen bedeutet Category Management eine Bildung von Teilsortimenten, für die eigenständige Geschäftsfeldstrategien entwickelt werden können. Diese strategischen Überlegungen beziehen sich auf die kundenorientierte Zusammensetzung der Category, die Lieferantenauswahl und Pflege der Beschaffungsbeziehungen sowie die grundsätzliche Angebotsgestaltung am Point of Sale (Platzierung, Unterstützung durch das -> Marketing-Mix). Im Einklang mit derartigen Basisfestlegungen sind sodann die operativen Entscheidungen über situationsabhängige Maßnahmen der Regalpräsentation, Preisstellung und Promotions zu treffen. Trotz relativer Eigenständigkeit der Category-Betreuung bedarf es einer Gesamtkoordination unter übergeordneten Gesichtspunkten, u.a. im Hinblick auf die Imageprofilierung des Handelsunternehmens, bei Engpässen in der verfügbaren Verkaufsfläche oder bei der Budgetverteilung. Der Prozess des Category Management spielt sich in enger Beziehung zu den Herstellern der einschlägigen Produkte ab, wenn es um die qualitative Strukturierung des Teilsortiments, die quantitative Abstimmung von Liefermengen und Lieferzeiten sowie die gemeinsame Förderung des Abverkaufs an die Bedarfsträger geht. Deshalb stellt das Category Management auch ein Konzept der vertikalen Kooperation zwischen Industrie
Category Management und Handel dar. Es ist eng verknüpft mit dem als -» "Efficient Consumer Response" (ECR) bezeichneten Ansatz, der auf eine am Konsumentenbedarf ausgerichtete vertikale Zusammenarbeit mit vier Schwerpunkten abzielt: eine wirkungsvolle Sortimentsgestaltung ( E f f i c i e n t Assortment), eine effiziente Verkaufsförderung ( E f f i c i e n t Promotion), die an die Kundennachfrage angepasste, rechtzeitige Nachbelieferung des Handels durch den Hersteller ( E f f i c i e n t Replenishment) und ein bedarfsentsprechendes Zusammenwirken in der Neuprodukteinführung (Efficient Product Introduction). Der Einsatz von Scanner-Kassensystemen im Handel und der elektronische Datenaustausch mit der Herstellerseite unterstützen das ECR-Konzept, insbesondere beim sog. Efficient Replenishment. Category Management als Kooperationsform ist nicht ohne Einfluss auf die Gestaltung des Produktprogramms beim Hersteller. Es erfolgen Anpassungen, um innerhalb einer Category möglichst weitgehend als Systemlieferant für große Handelsunternehmen auftreten zu können. Dennoch wird es bei vielfältig zusammengesetzten Teilsortimenten für komplexen Bedarf dem Hersteller meist nicht gelingen, die gesamte Category abzudecken. Das Handelsunternehmen (das ja ohnehin i.d.R. darauf abzielt, in seinem Sortiment konkurrierende Produkte verschiedener Herkunft als Auswahl für den Konsumenten anzubieten) wird dann ECR-Beziehungen mit mehreren Lieferanten pro Category unterhalten. Starke industrielle Partner kommen aber für eine gewisse Beraterrolle bei der gesamten Category-Gestaltung in Betracht. In diesem Zusammenhang wird dann von "Category Captain" oder "Category Consultant" gesprochen. 3. Category Management als organisatorische Zuständigkeit Die Betreuung bedarfsspezifisch gebildeter Teilsortimente obliegt seit den 90er Jahren in einigen größeren Handelsunter137
Category Management nehmen Aufgabenträgern, die als Category Manager bezeichnet werden. Grundsätzlich wird ihnen die Erfolgsverantwortung für eine Category übertragen, so dass sie ihren Zuständigkeitsbereich als Profit Center fuhren sollen. Dabei muss aber genau geprüft werden, inwieweit der Category Manager wirklich eigenständige Entscheidungen zu treffen vermag. Sofern der Category-Erfolg durch Dispositionen anderer Organisationsmitglieder - etwa einer übergeordneten Ebene - mitbeeinflusst wird, ergibt sich aus dem Profit-Center-Konzept eine Demotivation des Category Managers. Auch in manchen Herstellerunternehmen sind inzwischen Stellen fur Category Manager eingerichtet worden. In der Körperpflegebranche z.B. finden sich dafür konkrete Bezeichnungen wie "Category Manager Haar", "Category Manager Zahn", "Category Manager Haut/Duft" oder "Category Manager Pflege/Styling". Die organisatorische Zuordnung erfolgt in den Funktionsbereichen Verkauf/Vertrieb oder Trade Marketing. Solchen herstellerseitigen Category Managern kommt die Aufgabe zu, im Kontakt mit den Zuständigen für entsprechende Teilsortimente auf der Handelsstufe Konzepte des Efficient Consumer Response zu entwickeln und umzusetzen. Bei manchen Produzenten wird das Category Management aber auch durch Teams wahrgenommen, etwa unter der Bezeichnung "Customer-Business-Development-Team". Dies bietet sich besonders dann an, wenn auch beim Handel Teams mit Category Managern und anderen Fachexperten als Gesprächs- und Verhandlungspartner auftreten. Die Organisationseinheit Category Management ist in Herstellerunternehmen kein Ersatz für das Produktmanagement und i.d.R. auch nicht für das -> Key-AccountManagement. Produkt- oder Brand Manager bleiben nach wie vor mit der Erarbeitung von Marketing-Konzeptionen fiir bestimmte Markenartikel betraut, die 138
Center-Konzepte Bestandteile von Categories sind. Key Account Manager oder Kundenteams (denen dann Category Manager angehören können) sind für die umfassende Betreuung wichtiger Abnehmer auf der Handelsstufe und für Verhandlungen z.B. in den Jahresgesprächen, die über einzelne Categories hinausgehen, erforderlich. Insgesamt wird damit die Herstellerorganisation durch eine Einführung des Category Management im Regelfall komplexer. Literatur: Hahne, H.: Category Management aus Herstellersicht, Lohmar/Köln 1998; Hahne, H./Köhler, R.: Category Management: Organisatorische Konsequenzen aus Herstellersicht, in: Schmengler, H.J./Fleischer, F.A. (Hrsg.): Marketing Jahrbuch Praxis 1999, Düsseldorf 1999, S. 109-114; Holzkämper, O.: Category Management. Strategische Positionierung des Handels im Wertschöpfungssystem am Beispiel der Sortimentsgestaltung, Göttingen 1998; Möhlenbruch, D.: Kundenorientierung durch Category Management - Kritische Analyse eines Kooperationsmodells zwischen Industrie und Handel, in: Trommsdorff, V. (Hrsg.): Handelsforschung 1997/98. Kundenorientierung im Handel, Wiesbaden 1997, S. 113-133.
Richard Köhler Catering Catering ist die Zubereitung und Lieferung von Speisen durch darauf spezialisierte Unternehmen an bestimmte Einrichtungen (z.B. Alten- und Pflegeheime) oder Personengruppen (z.B. alte Menschen, Betriebsfeiern) CATI CATI (Computer Asisted Telephone Interview) ist ein -» Befragungsverfahren und bezeichnet computerunterstützte Formen des Telefoninterviews. Eingesetzt wird CATI in der -* Marktforschung während der Datenerhebung und beim Telefonmarketing. Center-Konzepte Center-Konzepte verbinden organisationsstrukturelle Merkmale mit steuerungstechnischen Elementen des Finanzund Rechnungswesens. Es werden Profit Center, -> Cost Center, -> Investment
Chancengleichheit
Center-Konzepte Center und —> Service Center unterschieden. Chance Risiko Chancengleichheit Mit dem Konzept der Chancengleichheit von Frauen und Männern ist eine Kurskorrektur gegenüber herkömmlicher Frauenforderung verbunden. Frauenförderung galt und gilt vielen Entscheidungsträgern in Wirtschaft und Verwaltung als überflüssiger Kostenfaktor und bürokratischer Hemmschuh. Dagegen betonen Konzepte wie -> Managing Diversity oder ->• Total EQuality, dass Chancengleichheit ein wichtiger Faktor für den ökonomischen Erfolg von Unternehmen, Verwaltungen und anderen Organisationen ist. Das legt es nahe, Chancengleichheit in den Zielkatalog einer Organisation aufzunehmen. Aber nicht nur das Ziel wird neu orientiert, sondern auch der Weg. Um Chancengleichheit zu realisieren, bedarf es einer integrativen Gleichstellungspolitik. Eine inhaltliche Orientierung hierfür bietet das Konzept der Ecksteine einer erfolgversprechenden Gleichstellungspolitik (Abb. 1), eine prozessbezogene das Gleichstellungscontrolling (Abb. 2). Chancengleichheit beim Zugang zu Fachund Führungspositionen ist zwar unbestreitbar wichtig, aber nur der erste Eckstein. Denn selbst wenn es gelänge, den Frauenanteil dort erheblich zu steigern, würde sich an den Arbeits- und Leistungsbedingungen der Mehrheit der weiblichen Beschäftigten nichts ändern. Deshalb ist der zweite Eckstein die Neugestaltung und -bewertung herkömmlicher Frauenarbeit. Zur Arbeitsgestaltung: Typisch für viele Frauenarbeitsplätze ist immer noch qualitative Unterforderung, z.T. gepaart mit quantitativer Überforderung. Hier liegen Mängel in der Arbeitsgestaltung vor, die nicht nur auf Kosten der weiblichen
Beschäftigten gehen, sondern auch auf die des Unternehmens (Stichworte: Demotivation, Fehlzeiten). Chancengleichheit beim Zugang zu Fach- und Führungspositionen
Neugestaltung und -bewertung herkömmlicher Frauenarbeit Ecksteine einer erfolgversprechenden Gleichstellungspolitik
Erleichterung der Vereinbarkeit für beide Geschlechter Abb.
1: Ecksteine
Aufklärung von und Anreize für Führungskräfte(n) einer
Gleichstellungspolitik
erfolgversprechenden (Krell
1998, S.
17)
Zur Arbeitsbewertung'. Wenn frauendominierte Tätigkeiten niedriger bewertet und bezahlt werden als männerdominierte, besteht der Verdacht des Verstoßes gegen das Verbot der mittelbaren Diskriminierung (s.u.). Hinzu kommt, dass eine nicht anforderungsgerechte Bezahlung auch demotivierend wirken kann. Sowohl die Gestaltung als auch die Bewertung von Frauenarbeit werden aber in herkömmlichen Frauenförderprogrammen nicht systematisch berücksichtigt. Beim dritten Eckstein liegt die Betonung auf für beide Geschlechter, und zwar aus zwei Gründen. Erstens: Auch wenn heute Haushalt und Kindererziehung i.d.R. auf den Schultern der Frauen lasten, so leisten doch MutterKind-Programme keinen richtungweisenden Beitrag zu deren Gleichstellung. Denn durch sie wird letztendlich die Zuständigkeit von Frauen für Hausarbeit und Kinder verfestigt, und die ist bekanntlich eine wichtige Ursache ihrer beruflichen Benachteiligung. 139
Chancengleichheit
Chancengleichheit
Zweitens haben zunehmend nicht nur Mütter, sondern auch Väter Vereinbarkeitswünsche. Wenn sie z.B. ihr Recht auf Erziehungsurlaub in Anspruch nehmen oder Teilzeit arbeiten, müssen diese Männer ebenfalls mit beruflichen Nachteilen rechnen. Zum vierten Eckstein: Frauenförderung wurde und wird oft als eine Art "Entwicklungshilfe für minderbemittelte weibliche Wesen" verstanden. Deshalb werden dann z.B. Karriereseminare speziell für weibliche Führungs-(nachwuchs)kräfte angeboten. Derartige Maßnahmen bewirken aber nur begrenzte Erfolge, solange die organisationalen Bedingungen insgesamt unverändert bleiben. Deshalb bedeutet Chancengleichheit auch und insbesondere Organisationsentwicklung sowie "Männerförderung". Eine Schlüsselrolle spielen männliche Führungskräfte. Deshalb sind sie die Zielgruppe des vierten Ecksteins. Aufklärung erfolgt, wenn Fragen der Chancengleichheit der Geschlechter zum Thema ihrer Weiterbildung gemacht werden. Anreize werden gesetzt, wenn Anstrengungen und Erfolge in Sachen Gleichstellung zum Kriterium ihrer Beurteilung gemacht werden. Mit Blick auf den Veränderungsproze.« erscheint herkömmliche Frauenförderung als "Flickenteppich" von Einzelmaßnahmen. Um Chancengleichheit zu realisieren, bedarf es dagegen einer systematisierten Vorgehensweise, wie sie das Gleichstellungscontrolling ermöglicht. Als Verknüpfung von Planung, Vorgabe, Kontrolle und Informationsversorgung lässt sich Gleichstellungscontrolling (Abb. 2) als Regelkreis - mit Rückkopplungsschleifen - darstellen. Der erste Schritt besteht im Setzen Solls.
von
Diese sind zunächst verbindlich gesetzt: Zahlreiche Normen des europäischen und bundesrepublikanischen Rechts verbieten die Diskriminierung aufgrund des Geschlechts, und zwar sowohl die 140
Abb. 2: Gleichstellungscontrolling als Regel kreis (Krell 1998, S. 21)
•
unmittelbare Diskriminierung - sie liegt vor, wenn Maßnahmen explizit Angehörige eines Geschlechts benachteiligen; dies gilt z.B. für den Fall, dass eine Stelle nur fur Männer ausgeschrieben oder dass gegen das Gebot des gleichen Entgelts für gleiche Arbeit verstoßen wird - als auch die
•
mittelbare Diskriminierung - sie liegt vor, wenn dem Anschein nach neutrale Maßnahmen einen wesentlich höheren Anteil der Angehörigen eines Geschlechts benachteiligen und durch nicht auf das Geschlecht bezogene sachliche Gründe gerechtfertigt sind; dies ist zum Beispiel der Fall, wenn gegen das Gebot des gleichen Entgelts für gleichwertige Arbeit verstoßen wird oder wenn Teilzeitbeschäftigte generell aus der betrieblichen Altersversorgung ausgeschlossen werden.
Auch einige Tarifverträge enthalten gleichstellungspolitische Solls. Und schließlich können diese Gegenstand von Betriebs- oder Dienstvereinbarungen sein. Sowohl in rechtlich verbindlicher Form als auch in Form einer Absichtserklärung oder Selbstverpflichtung kann Chancengleichheit als handlungsleitende Norm in Unternehmens- oder Führungsgrundsätzen festgeschrieben werden. Wo Management by Objectives (-» Management by Konzepte) bzw. (im öffentlichen Dienst) Kontraktmanagement
Change Management
Chancengleichheit
kriminierungspotenzial vorhanden ist. Beispielhaft sei hier die diskriminierungskritische Analyse der Kriterien und Verfahren zur Arbeits- und Leistungsbewertung genannt. Diese Analyse ergibt zugleich wertvolle Hinweise für eine diskriminierungsfreie(re) Gestaltung.
praktiziert wird, können auch entsprechende Ziele vorgegeben oder vereinbart werden. Die nächste Phase besteht in der Durchführung von Soll-Ist Vergleichen zur Ermittlung des Handlungsbedarfs. Um Daten über den Anteil von Frauen in Führungspositionen, die Beteiligung Teilzeitbeschäftigter an der Weiterbildung, den Anteil männlicher Erziehungsurlauber und Teilzeitbeschäftigter, die Verteilung von anforderungs- und leistungsabhängigen Entgeltbestandteilen auf Frauen und Männer usw. zu erhalten, ist eine entsprechende Gestaltung von Personalinformationssystemen erforderlich. Die Erfahrungen, Wahrnehmungen und Wünsche der Beschäftigten können durch Mitarbeiterbefragungen erhoben werden. Wenn diese ein entsprechendes Modul zur Vorgesetztenbeurteilung enthalten, können sie auch Informationen darüber liefern, ob das Verhalten der Führungskräfte den Solls entspricht. -> Mitarbeiterbefragungen dienen aber nicht nur der Informationsgewinnung für Soll-Ist-Vergleiche. Mit der Rückkopplung der gewonnenen Ergebnisse an die Befragten, der gemeinsamen Problemanalyse und der Erarbeitung von Aktionsplänen ist bereits die nächste Phase eingeleitet. Wenn, und das ist zu erwarten, sich als Ergebnis der Soll-Ist-Vergleiche herausstellt, dass Handlungsbedarf besteht, sind in der dritten Phase weitere Prüfschritte und Maßnahmen erforderlich. Hier sind grundsätzlich alle Prinzipien, Verfahren, Instrumente und Praktiken der betrieblichen Personalpolitik unter die Lupe zu nehmen, und zwar in zweierlei Hinsicht: •
Zum einen ist zu fragen, ob die Instrumente in der derzeitigen Ausgestaltung unmittelbar oder mittelbar diskriminierend wirken bzw. ob ein Dis-
•
Zum andern ist zu fragen, ob die Instrumente Ansatzpunkte für mehr Chancengleichheit bieten - wenn sie entsprechend ausgestaltet und eingesetzt werden. Hier sei an die o.g. chancengleichheitsförderliche Weiterbildung und Beurteilung von Führungskräften erinnert.
Das Ende und zugleich den (Neu-)Anfang des Gleichstellungscontrolling-Regelkreises bildet die Erfolgskontrolle. Hier können grundsätzlich die gleichen Instrumente und Verfahren verwendet werden wie beim Soll-Ist-Vergleich. Je nach dem, wie das Ergebnis der Erfolgskontrolle ausfällt, • •
•
können die Ziele "zurückgeschraubt" werden, kann durch erneutes Durchlaufen der dritten Phase versucht werden zu bewirken, dass die gesetzten Ziele doch noch erreicht werden, können für die nächste Runde anspruchsvollere Ziele in Angriff genommen werden, wodurch der Regelkreis zur Spirale wird.
Literatur: Krell, G. (Hrsg.): Chancengleichheit durch Personalpolitik. Gleichstellung von Frauen und Männern in Unternehmen und Verwaltungen. Rechtliche Regelungen - Problemanalysen Lösungen, 2. Aufl., Wiesbaden 1998.
Gertraude Krell Change Agent Management des Wandels Change Management Maßnahmen-Programm zur Initiierung und Umsetzung von Veränderungen in Organisationen. Die Entwicklung dieser Maßnahmen basiert auf der Analyse der 141
Change Management
Change Management Veränderungsbereitschaft und -fähigkeit der Zielgruppen der Organisation sowie auf der Analyse des Veränderungsimpakts. Change Management steht somit in Wechselwirkung zu dem(n) zugrunde liegenden Veränderungsvorhaben (neue Organisation, IT etc.). Es unterstützt die Entwicklung neuer Lösungen und gewährleistet die Umsetzung derartiger Konzepte. Die Change ManagementMaßnahmen werden eingeteilt in solche, die auf der Ebene der Führungskräfite (Macro) bzw. für Mitarbeiter (Micro) wirksam sind und in jene, die ein Angebot an Veränderung schaffen bzw. ab einem gewissen Zeitpunkt zu einer Stimulierung der Nachfrage nach Veränderung führen: Navigation-, Maßnahmen zur Steuerung und zum Management der Veränderungsinitiative wie etwa Projekt- und Programm-Management, Strukturierung von Entscheidungsprozessen, Business CaseManagement und auch der Aufbau einer Kaskade an Sponsoren und Change Agents, die die Veränderung legitimieren bzw. die Umsetzung vor Ort sicherstellen. Leadership: Maßnahmen, die die Rolle der Führungskräfte bei der Initiierung, Entwicklung und Umsetzung festlegen und unterstützen, z.B. durch Führungskräftetrainings, Szenarioentwicklung,
Journey Management: Das Change Management-Programm ist ein dynamisches Konzept. Durch Veränderung des Veränderungskontexts (Markt, Mitbewerber) und/oder der Inhalte des Veränderungsprozesses muss es zu einer kontinuierlichen Anpassung der Change Management-Maßnahmen kommen. Zudem haben diese Maßnahmen unterschiedliche zeitliche Gewichtungen: Stehen am Anfang des Veränderungsprozesses Maßnahmen der Navigation und des Lea-
Führung iebt die Veränderung vor. Steht hinter der Veränderung. Leistet die Überzeugungsarbeit bei den Mitarbeitern.
Projektmanagement koordiniert, integriert und unterstützt die Veränderung.
Mitarbeiter werden in die Lage versetzt, die Veränderungen anzunehmen. Demotivatoren werden aus dem W e g geräumt.
Konkrete Maßnahmen befähigen die Mitarbeiter, die Veränderungen zu realisieren.
Abbildung:
142
Krisenmanagement, Coaching und Interventionsmanagement. Befähigung: Die Nutzer der neuen Lösungen werden durch verschiedene Maßnahmen wie z.B. durch Trainingsmaßnahmen (trainerbasierte Schulungen, Computer Based Trainings etc.), Business Simulationen, Kommunikation, aber auch durch notwendige Anpassungen in der Organisation, in den Prozessen und den HR-Systemen in die Lage versetzt, mit den veränderten Organisationselementen umzugehen. Identifikation: Die Mitarbeiter werden durch Kommunikation/Feedback sowie andere Partizipationsmöglichkeiten angeregt, bei der Entwicklung und Umsetzung der neuen Lösung aktiv mitzuarbeiten. Dadurch erfolgt auch eine Identifizierung mit den Veränderungen.
Change
Management-Maßnahmenfelder
Change Management
Clearing
dership im Vordergrund, so werden gegen Ende des Veränderungsprozesses vor allem Maßnahmen im Bereich der Identifikation und Befähigung im Vordergrund stehen. Change Monitoring: Die Ergebnisse und Resultate von Veränderungsvorhaben werden bei den einzelnen Zielgruppen quantitativ und qualitativ gemessen, um den jeweiligen Fortschritt der Veränderung sowie die Effizienz und Effektivität der eingesetzten Change ManagementMaßnahmen zu beurteilen und um etwaige zusätzliche Maßnahmen abzuleiten. (-> Management des Wandels) Literatur: Gattermeyer, W./Al-Ani, A. (Hrsg.): Change Management und Unternehmenserfolg, Wiesbaden 2000; Hesselbein, F./Cohen, P.M. (Hrsg.): Leader to Leader, San Francisco 1999; Kieser, A./Hegele, C.: Komunikation des organisatorischen Wandels, Stuttgart 1998.
Ayad Al-Ani Change Monitoring Change-Management Chartanalyse Die Chartanalyse ist eine Technik zur Prognose und Bewertung von Kurs- und Zinsverläufen auf den Finanzmärkten. Im Gegensatz zur -> Fundamentalanalyse zieht die technische Chartanalyse ihre Erkenntnisse aus einer exakten Beobachtung der historischen Kursverläufe unter Berücksichtigung von Umsatzdaten und anderen Kriterien. Von den verschiedenen Chart-Techniken sind die Bar-ChartAnalyse und die Point & Figure-Analyse die gebräuchlichsten. Bei der Bar-ChartAnalyse wird für gleiche Zeitintervalle eine senkrechte Linie in ein Koordinationssystem eingetragen, die jeweils den höchsten und tiefsten Kurs dieses Zeitabschnitts verbindet. Auf der Abszisse werden für denselben Zeitabschnitt jeweils die Umsätze abgetragen. Chat Als Chat wird die synchrone Kommunikation per -»Internet zwischen räumlich entfernten Online-Usern bezeichnet.
Chats sind hervorragende Mittel, um Besucher einer Internetseite an diese zu binden. Sie werden dementsprechend gerne zum Aufbau einer Virtuellen Community (-»Virtual Community) eingesetzt. War es bisher nur möglich, die Unterhaltung per Tastatur zu fuhren, bieten inzwischen manche Plattformen (z.B. www.excite.com) Voice-Chats an: Mit Mikrofon und Lautsprecher versehen wird der Computer zum Telefon. So kann man mit der ganzen Welt plaudern oder sich in themenbezogenen Chats an Diskussionen beteiligen. Checkliste Im Bereich der strategischen Planung bspw. bei der Entscheidung über eine Produktelimination kann das Checklistenverfahren als einfaches Instrument eingesetzt werden. Hierbei sollen bestimmte Faktoren (Erfolgsfaktoren) anhand ihres Zielerreichungsgrades bewertet werden. Durch die Einteilung der Faktoren in "Muss-", "Soll-" und "Wunschfaktoren" kann das Verfahren etwas erweitert werden. Die Entscheidungsregel wird durch Mindestanforderungen an das Produkt im Vorhinein festgelegt. Der Vorteil dieses Verfahrens ist die einfache Handhabung. Nachteile zeigen sich jedoch in der subjektiven Beurteilung und Auswahl der Faktoren sowie in dem Mangel Schwächen bei einem Faktor nicht durch Stärken bei anderen Faktoren zu substituieren. Chief Executive Officer (CEO) -»Board of Directors Chronologie, Chronometrie -> Arbeitszeitmanagement City-Passage Handelsformen Classic Venture Capitalists -> Venture Capitalists Clearing Cash Management 143
Clusteranalyse
Clusteranalyse Clusteranalyse Häufigster Anwendungsfall für die Clusteranalyse ist in der Marktforschung der Versuch, die Käuferschaft in Zielgruppen zu segmentieren (-» Zielgruppenbildung): Angesichts der stark differenzierten Kundenwünsche ist es für ein Unternehmen in der Regel nicht vorteilhaft, ein einheitliches Leistungsangebot auf den Markt zu bringen. Es wird vielmehr versucht, "Kundencluster" zu bilden und diesen dann - in Preis, Gestaltung, Leistungsumfang usw. - speziell zugeschnittene Produkte und/oder Dienstleistungen anzubieten ("Target Marketing"). Dies gelingt jedoch nur, wenn die Kundencluster intern homogen und extern heterogen sind; hierin liegt freilich ein Dilemma: Je kleiner sie werden, desto homogener werden sie intern; gleichzeitig verlieren sie aber an externer Heterogenität (und umgekehrt). Die Clusteranalyse ist das klassische Verfahren zur Gruppierung von Objekten (z.B. Personen). Basis sind die - z. B. in Befragungen - erhobenen Merkmale der Objekte (z. B. Einstellungen, Motive). Es werden dann diejenigen Objekte zu Gruppen zusammengefügt, die ähnliche Merkmalskombinationen aufweisen; wegen der gleichzeitigen Heranziehung zahlreicher Merkmale ist die Clusteranalyse ein -» multivariates Analyseverfahren. Die "Ähnlichkeit" einer Merkmalskombination wird über Distanzmaße bestimmt. Das bekannteste Distanzmaß für metrische (oder als metrisch interpretierte Ordinaldaten) ist die Minkowski-Metrik:
d ik = Z b J=I
mit: dik= Distanz zwischen den Objekten i und k im n-dimensionalen Raum der Merkmale (x); r > 1. Es werden folglich alle Merkmalsunterschiede zwischen zwei Objekten betrach144
tet - bei r = 2 auf der Basis der euklidischen Distanz. Es gibt weitere Distanzmaße, z.B. für binäre Daten den Tanimoto-Koeffizienten. Führt man die Distanzmessung für alle möglichen Objektpaare durch, ergibt sich eine symmetrische Distanzmatrix, deren Hauptdiagonale mit Nullen besetzt ist. Es werden dann die Objekte zusammengeführt, die die geringste Distanz djk aufweisen. Im nächsten Schritt müssen die Distanzen dieses Clusters zu den übrigen Objekten neu berechnet werden. Hierzu steht eine Reihe von Vorgehensweisen zur Verfügung: •
•
•
Beim Single (Complete) linkageVerfahren errechnet sich die Distanz nach dem nächstgelegenen (entferntesten) Objekt im Cluster; das Average linkage-Verfahren ermittelt hingegen die Durchschnittsdistanz zwischen allen Objekten im jeweiligen Cluster und dem betrachteten "außenstehenden" Objekt bzw. Cluster. Das Ward-Verfahren fasst nicht die Gruppen zusammen, die die - nach einem der Linkage-Verfahren ermittelte - geringste Distanz aufweisen, sondern es werden die Objekte vereinigt, die die Fehlerquadratsumme (FQS) in den Clustern (g) am wenigsten erhöhen: FQS8=SI(x,Jg-xJg)2 ¡=i j=i mit: x- = Clusterspezifischer Mittelwert des j-ten Merkmals
Das Ward-Verfahren garantiert folglich, dass möglichst homogene Cluster gebildet werden; das Single linkage-Verfahren bewährt sich hingegen bei der Ausreißeranalyse und -bereinigung, weshalb es oft dem Ward-Verfahren vorgeschaltet wird. Bei fortschreitender Vereinigung der Objekte bzw. Cluster gerät ein immer größerer Teil der Fehlerquadratsumme in die Gruppen, bis sich schließlich 100%
Clusteranalyse davon in der - alle Objekte umfassenden - Ein-Cluster-Lösung befinden. Andererseits liegt bei der Startkonfiguration ("Jedes Objekt ein Cluster") 100% der Fehlerquadratsumme "außerhalb". Für die optimale Clusterzahl gibt es kein "objektives" Kriterium; hier greift wiederum das Dilemma der Marktsegmentierung: Je größer (kleiner) die Clusterzahl, desto homogener (heterogener) und unübersichtlicher (übersichtlicher) werden sie. Zwei Faustregeln stehen jedoch zur Verfügung: •
•
"Wähle eine möglichst geringe Anzahl von Clustern, wobei sich allerdings weniger als 50% der Fehlerquadratsumme in den Clustern befinden darf 1 . Manchmal steigt die Fehlerquadratsumme mit abnehmender Clusterzahl zunächst langsam, dann jedoch sehr schnell: "Wähle die Clusterzahl beim >Elbow E-Mail in ein System einschleichen und sich selbst anhand der Adressliste des EMail-Programms an andere E-Mail Empfanger weiterleiten. •
Trojaner: Der Trojaner (eigentlich Trojanisches Pferd) ist ein Programm, das selbst zerstörerischen oder anderweitig schädliche Programmteile enthält. Im Gegensatz zu Viren und Würmern sind Trojaner nicht in der Lage, sich selbst zu kopieren. Ein Trojaner kann etwa manipulierter Bildschirmschoner, eine elektronische Weihnachtskarte oder ein OfficeDokument sein. Häufig werden Trojaner ohne Wissen des PC-Anwenders zum Ausspähen von Kennwörtern oder zur Fernsteuerung bestimmter PC Funktionen (Kopieren, Löschen etc.) verwendet. Der mögliche Schaden (Spionage, Beeinträchtigung von Datenschutz und Vertraulichkeit bis hin zu Datenverlusten) ist gewaltig.
Prävention Da durch Viren verursachte Schäden oft irreversibel sind, ist das Augenmerk vor allem auf die Prävention zu legen. Hierfür werden unterschiedliche Softwareprodukte zur Erkennung und Beseitigung von Schadensprogrammen, sogenannte Virenschutzprogramme (Virenscanner), angeboten. Nach dem heutigen Stand der Technik ist aber ein hundertprozentiger Schutz gegen Computerviren nicht realisierbar. Vor allem neu auftretende Computerviren können den Schutz von AntiVirus Programmen unterlaufen. Virenscanner sollen vor allem höchste Erkennungsraten erzielen. Dabei darf aber die Erkennungsrate nicht auf Kosten von Fehlalarmen erkauft werden. Die AntiVirus Experten haben deshalb in den letzten Jahren verschiedenste Technologien zur Identifizierung und Beseitigung von Viren entwickelt. Gute Anti-Virus Programme wenden eine Kombination 154
Computerviren unterschiedlicher Methoden an, so vor allem: •
Fingerprint Beim Fingerprint Suchen wird eine bestimmte Bitfolge, die in einem Virus vorkommt gesucht. Dieses relativ einfache Verfahren führt dazu, das auch Textdateien, die eine Abhandlung über einen Virus enthalten als Computervirus identifiziert werden. Das Fingerprint Suchverfahren versagt auch bei polymorphen und verschlüsselten Viren, ist aber bei vielen einfach gestrickten Viren und Trojanern die schnellste und effektivste Suchmethode.
•
Code Emulation Bei der Code Emulation wird der untersuchte Programmcode in einem Emulator virtuell ausgeführt. Diese Methode prüft, ob der Programmcode ausführbar ist und ob sich der Virus verbreiten kann. Mit dieser Methode können auch komplexe selbstverschlüsselte und polymorphe Viren entlarvt werden. Allerdings müssen intelligente Maßnahmen getroffen werden, um eine gute Performance zu erzielen.
•
Heuristik Heuristische Suchverfahren untersuchen Dateien auf bestimmte Kommandostrukturen, Interrupt-Sequenzen oder Makrostrukturen, die für Viren typisch sind. Mit dieser Methode können bestimmte Virenklassen aufgespürt werden. Es wird - unter Umständen auch bei einem neuen Virus ein Alarm ausgegeben. Eine genaue Klassifizierung ist in der Regel nicht möglich. Die Gefahr der Fehlalarme bei zu "straffem Tuning" der Heuristik steigt. Ist das "Tuning" zu schwach, rutschen viele Viren durch.
•
Behavior Blocking Unter Behavior Blocking versteht man ein Verfahren, das in Echtzeit das Programmverhalten ausgeführter Dateien
Conjoint Measurement
Computerviren untersucht. Werden Aktionen durchgeführt, die eindeutig infektiöses Verhalten aufweisen, so wird die Ausführung durch den Behavior Blocker gestoppt. Ein Virus kann in diesem Fall keine weitere Datei infizieren. Eine eindeutige Klassifizierung eines Virus (exakter Virusname) ist mit dieser Technologie nicht möglich. Neue Viren und mutierte Varianten können aber erkannt werden. •
•
Checksummen Wenn ein Virus eine Datei infiziert, so verändert sich diese Datei. Dieses Phänomen nutzt die Checksummen Technologie. Über eine Datei wird eine Checksumme angelegt. In regelmäßigen Abständen wird diese überprüft. Ändert sich die Checksumme, so liegt eine Virusinfektion vor. Dieses Verfahren hat eine sehr hohe Fehlalarmquote (False Positives). Durch sich ständig ändernde Windows-Dateien (DLLs) und Office Dokumente ist eine Unterscheidung zwischen selbst- bzw. vom Anwender geändert oder durch einen Virus geändert nicht möglich. Köderprogramme Eine der ältesten Anti-Virus Technologien sind Köderprogramme. Diese Programme "fangen Viren ein". Sobald sich der Virus festsetzt wird ein Alarm ausgelöst. Obwohl viele Viren diese Programme umgehen stellen sie bei Bedarf einen zusätzlichen Schutz vor allem vor unbekannten Viren dar. Lutz Becker
Conglomerate Discount -> Fokussierung Conglomerate Discount Mit Conglomerate Discount wird der Abschlag im Unternehmenswert eines konglomerat diversifizierten Unternehmens bezeichnet, der dadurch entsteht, dass:
-
-
der Markt der Unternehmensleitung nicht in allen Geschäftsbereichen die gleiche Kompetenz unterstellt und man davon ausgeht, dass im konglomerat diversifizierten Unternehmen die Leitungskosten aufgrund schwierig zu beschaffender Information über Geschehnisse in Unternehmensteilbereichen stark ansteigen.
Eine Möglichkeit, den Conglomerate Discount zu verringern, besteht darin, aktive Investor Relations zu betreiben und darin auf ein z.B. verbessertes und effizienteres Informations- und Berichtswesen zu verweisen (s.a. Fokussierung). Conjoint Analysis -* Conjoint Measurement Conjoint Measurement Das Conjoint Measurement, auch Conjoint-Analyse, ist ein dekompositionelles Verfahren zur Erklärung von Präferenzen aufgrund von Einzelurteilen. Es findet Anwendung im Bereich der Marktforschung, um festzustellen welchen Beitrag bestimmte Komponenten zum Gesamtnutzen eines Objektes leisten. Die Testpersonen müssen Präferenzurteile (Ranking) abgeben. Es werden den Versuchspersonen Kombinationen verschiedener Merkmalsausprägungen von Objekten präsentiert, die sie nach ihren Präferenzen in eine Rangfolge oder Skala bringen sollen. Das Ziel ist die Zerlegung der Gesamturteile über Merkmalskombinationen in der Weise, dass auf das Gewicht oder den Nutzen der einzelnen Merkmalsausprägungen geschlossen werden kann. Einen großen Nachteil stellt die Datenerhebung dar, denn schon bei geringer Anzahl von Merkmalen eines Objektes mit wenigen möglichen Ausprägungen ergibt sich bereits eine sehr große Kombinationenvielfalt. Da alle Kombinationen in eine Rangordnung gebracht werden müssen, fuhrt dies zu einem Problem bei der Datenerhebung. Deshalb wird statt eines vollständigen Designs bei Proble155
Conjoint Measurement men realistischer Größenordnung stets ein unvollständiges Design benutzt, um den Aufwand für den Probanden in einem angemessenen Rahmen zu halten. Content Management Das Content Management umfasst alle Tätigkeiten der Erstellung, Bereitstellung, Pflege und Aktualisierung von Inhalten einer Internetpräsenz. Damit dient das Content-Management unmittelbar der Kundenbindung im —• Internet: Internetangebote müssen informativ, attraktiv und aktuell sein. Dies zu gewährleisten wird mit steigender Größe der Internetpräsenz ungleich schwieriger. ContentManagement-Systeme (CMS) bieten hier Abhilfe. Daher sind zumindest folgende Anforderungen an ein CMS zu stellen: •
Verwaltung verschiedenster Inhalte: Ob einfaches Text-Dokument, Acrobate Reader-Datei (pdf), Video oder Tonsequenz - das CMS sollte mit allen Dateiarten umgehen können. • Trennung von Layout und Inhalt: Das CMS muss Inhalte in verschiedene Vorlagen (Templates) einbinden können, denn nur dann bleibt die Flexibilität erhalten. • Differenziertes Berechtigungssystem: Es sollen viele Personen Inhalte in einem CMS erstellen können, allerdings sollte nur ein stark begrenzter Nutzerkreis die Berechtigung zur "Freigabe" der Inhalte besitzen. • Versionskontrolle: Zu jedem Dokument muss eine lückenlose Historie verfügbar sein. Diese gibt an, wer wann welche Änderungen am Dokument durchgeführt hat. • Automatisierte Freigabe oder Sperrung von Inhalten: Aktualität kann am geeignetsten durch Gültigkeitszeiträume gewährleistet werden. Wird das Datum der Gültigkeit einer Meldung erreicht, gibt das System die Meldung frei. Am Ende des Zeitraums wird die Meldung wieder gesperrt. So wird sicher ver156
Controlling mieden, dass am 28.12. das "Vorweihnachtliche Sonderangebot" beworben wird. Continuous Replenishment -> Wertschöpfungsmanagement Controlling Controlling ist - funktional gesehen - ein Subsystem der Führung, das Planung und Kontrolle sowie Informationsversorgung systembildend und systemkoppelnd koordiniert und auf diese Weise die Adoption und Koordination des Gesamtsystems unterstützt (Horväth). Die Aufgaben des Controlling in Bezug auf die Planung bestehen in der Koordination der Planungsgegenstände in sachlicher (z.B. Abstimmung der Produkt- auf die Marktstrategie) und zeitlicher (z.B. Abstimmung der operativen auf die taktische und strategische Planung) Hinsicht sowie im Aufbau eines geeigneten Planungssystems. Die Aufgaben des Controlling in Bezug auf die Kontrolle bestehen neben dem Aufbau eines geeigneten Kontrollsystems in der Koordination von Planung und Kontrolle über alle Ebenen des Unternehmens hinweg. Die Abstimmung von Planung und Kontrolle erfolgt im Rahmen des Controlling durch Feedback(Kontrollergebnisse wie etwa Soll-IstAbweichungen werden an die Realisationsbereiche zurückgemeldet) und durch Feed-Forward-Maßnahmen (Kontrollergebnisse beeinflussen die Planung in späteren Perioden). Die Grundlage für Planungs- und Kontrollaufgaben bildet das Informationsversorgungssystem des Unternehmens, das durch das Controlling aufzubauen und zu koordinieren ist. Das Informationsversorgungssystem greift auf Daten des betrieblichen Rechnungswesens zurück und bereitet diese entsprechend den unternehmerischen Entscheidungsproblemen auf (bspw. Definition von Kennzahlensystemen) oder generiert von Grund auf neue Informationen durch die Verwendung von Methoden der strategischen Analyse.
Controlling, internationales
Controlling Aufgrund der durchgängigen Problemorientierung und der mitunter strategischen Sichtweise kommt dem Controlling eine vom betrieblichen Rechnungswesen eigenständige Bedeutung zu. Controlling, internationales 1. Begriff und Aufgaben Mit Controlling wird eine Servicefunktion in der Unternehmung bezeichnet, nämlich eine im Wesentlichen auf das Rechnungswesen gestützte Koordinations- und Kontrollhilfe der Unternehmensführung. Unter internationalem Controlling versteht man das Controlling-System und die grenzüberschreitenden ControllingProzesse in internationalen Unternehmungen. In diesen Unternehmungen, deren Subsysteme in verschiedenen Staaten angesiedelt sind, ist das Controlling besonderen Anforderungen ausgesetzt: Die einzelnen Tochter- und Beteiligungsgesellschaften operieren in ihren jeweiligen Sitzländern unter heterogenen Bedingungen hinsichtlich des politischen Systems, der Wirtschafts- und Währungsordnung, des Rechts- und Steuersystems, der Marktgegebenheiten, der soziokulturellen Prägung von Mitarbeitern und Kunden etc. Diesen differenzierenden Einflüssen muss eine gesamtheitliche Unternehmenspolitik entgegengesetzt werden, die ein Mindestmaß an Einheitlichkeit sicherstellt, um Globalisierungsvorteile und Synergieeffekte zu realisieren. Die räumlich und organisatorisch dezentralen Aktivitäten bedürfen der Steuerung und Koordinierung. Hier setzt die Informations- und Unterstützungsfunktion des Controlling an. Die Aufgaben des internationalen Controlling können wie folgt aufgefächert werden: •
•
Abstimmung der Leistungs-, Ergebnisund Finanzpläne der ausländischen Einheiten und ihre Integration in die Gesamtkonzernplanung, Kontrolle der Zielerreichung der ausländischen Einheit, Abweichungsana-
•
•
•
lyse und gegebenenfalls Gestaltungsempfehlungen, Rechtzeitiges Erkennen der Stärken und Schwächen der Produkt- und Regionalsparten (Frühwarnfunktion), Unterstützung der Entscheidungsträger in der Konzernzentrale und in den peripheren Einheiten, insbesondere bei der strategischen Planung, Sicherstellung des konzemeinheitlichen Entscheidungsverhaltens.
2. Erfolgsbeurteilung der ausländischen Einheiten Als Kernstück des internationalen Controlling kann man die Erfassung und Beurteilung des Erfolgs der ausländischen Einheiten betrachten, wie dies auch in der US-amerikanischen Literatur geschieht. Im Rahmen dieser zugespitzten Aufgabenstellung müssen Festlegungen getroffen werden hinsichtlich des ControllingObjekts, der Erfolgsgrößen und der Beurteilungsperspektive. Als Controlling-Objekte kommen die ausländischen Tochtergesellschaften (bzw. deren Sparten) sowie deren Management in Frage. Diese Unterscheidung ist wichtig fur die Erfolgsdefinition. Die ausländische Tochtergesellschaft wird als Investitionsprojekt betrachtet, das nach seinem Beitrag zum Konzemergebnis zu beurteilen ist. Deshalb sind ihr sämtliche tatsächlich wirksamen positiven und negativen Erfolgskomponenten zuzurechnen, einschließlich etwaiger Quellensteuern und anderer Aufwendungen bzw. Belastungen der Finanztransfers an die Muttergesellschaft. Demgegenüber sind für die Leistungsbeurteilung des Managements nur jene Erfolgsfaktoren relevant, die von der (lokalen) Geschäftsleitung beherrscht und verantwortet werden können. Die verzerrenden Einflüsse einer Inflation sowie von Wechselkurs- und Zinsänderungen sind hier bei der Erfolgsermittlung ebenso herauszurechnen wie die Einflüsse nicht marktkonformer Transferpreise. Diesen Überlegungen 157
Controlling, internationales
Controlling, internationales entspricht es auch, für die Leistungsbeurteilung (und die daran anknüpfende Erfolgsbeteiligung) des Managements die lokale Währung heranzuziehen, während der Erfolgsbeitrag der ausländischen Tochtergesellschaften in Stammlandwährung auszudrücken ist, denn in dieser Währung werden die Eigenkapitalgeber entschädigt. In der Praxis kommt der Beurteilung der ausländischen Tochtergesellschaften und deren Produktsparten eine weit größere Bedeutung zu als der Leistungsbeurteilung des Managements. Angesichts unvorhergesehener und oft dramatischer Veränderungen der Umwelt kann die Leistungsbeurteilung der Manager nicht im schematischen Vergleich von Soll und Ist bestehen. Oft erfolgt im Evaluierungsgespräch zwischen den Repräsentanten von Mutter- und Tochtergesellschaft eine nachträgliche Korrektur der Budgetannahmen, was nicht ohne Ermessensentscheidung möglich ist. Zur Beurteilung des Erfolgs einer ausländischen Einheit werden stets mehrere, in erster Linie quantitative Maßgrößen herangezogen. Soweit es sich um monetäre Größen handelt, werden sie im Allgemeinen sowohl in Gastland- als auch in Stammlandwährung erfasst, um wechselkursbedingte Verzerrungen aufzudecken. In einer vom Verfasser durchgeführten empirischen Untersuchung von 19 internationalen (überwiegend deutschen) Unternehmungen wurden nebenstehende Beurteilungsmaße - geordnet nach abnehmender Bedeutung - erhoben: Die Eigenkapitalrentabilität wird erstaunlicherweise als "weniger wichtig" eingestuft. Dies mag mit der Problematik einer Abgrenzung des Eigenkapitals von konzerninternen Krediten und der oft zufallsbedingten Dimensionierung des Eigenkapitals einer Auslandsgesellschaft zu tun haben, erklärt sich aber auch aus der Dominanz einer Zahlungsstromorientierung. 158
Beurteilungsgrößen im internationalen Controlling in Landeswahrung
nach Umrechnung in Stammlandwahrung
1
Umsatz
3,42
3,47(1)
2
J a h r e s ü b e r s c h u s s vor Steuern
3,37
3,47(1)
3
Cash-flow
3,37
3,16(3)
4
Umsatzrentabilität
3,00
3,05 (5)
5
J a h r e s ü b e r s c h u s s nach Steuern
2,95
3,11 (4)
6
G e s a m t k a p i t a l rentabilität
2,63
2 , 6 8 (6)
7
Kapitalumschlagshäufigkeit
2,58
2,57 (9)
8
Forderungsumschlagszeit
2,53
2,63 (7)
9
Return on Investment ( R O I )
2,42
2,63 (7)
10
Materialumschlagszeit
2,32
2,47(10)
11
Eigenkapitalrentabilität
2,32
2,32(11)
12
Erzeugnisumschlagszeit
2,16
2,21 (12)
(Gewichtung:
4 = sehr wichtig, 1 = unwichtig)
Quelle: Pausenberger, E. 1996, S. 188
Neben den finanzwirtschaftlichen Größen werden auch andere Kriterien zur Beurteilung ausländischer Tochtergesellschaften verwendet, insbesondere Marktanteil, Innovationsgrad, Produktqualität und -> Kundenzufriedenheit. Die erhobenen Kennzahlen (-> Kennzahlen und Kennzahlensysteme) lassen für sich noch kein tragfahiges Urteil über die Leistung einer ausländischen Einheit zu. Erst die Einführung von Vergleichsgrößen und eine gründliche Abweichungsanalyse erlauben eine fundierte Urteilsfindung. In der Praxis dominieren als Vergleichsgrößen eindeutig die Planzahlen (Budget) und die Ist-Werte der vergangenen Periode(n). Vergleiche mit lokalen Konkurrenzbetrieben (->• Benchmarking) oder mit eigenen Tochtergesellschaften in anderen Ländern treten demgegenüber deutlich zurück. Entscheidend für die Beurteilung einer ausländischen Einheit ist letztlich ihr Beitrag zum
Corporate Behaviour
Controlling, internationales
externe Effekte, die eine genaue Erfolgsermittlung praktisch ausschließen.
Marktwert des Eigenkapitals der Obergesellschaft (-» Shareholder Value). 3. Störfaktoren Der Vollzug des Controlling in internationalen Unternehmungen erhält seine besondere Problematik durch die Heterogenität der Umwelten, in denen die verschiedenen Tochtergesellschaften tätig sind. Die Urteilsbildung über ausländische Einheiten wird durch eine Reihe von Störfaktoren behindert, deren wichtigste im folgenden kurz besprochen werden: •
Wechselkursveränderungen, die sich während der Planperiode vollziehen, verfälschen den Aussagegehalt der in Konzernwährung ausgedrückten IstWerte und beeinträchtigen so die Erfolgsbeurteilung der Auslandsaktivitäten. Durch eine geeignete Wahl der Umrechnungskurse von Soll- und IstWerten (etwa durch Beibehaltung der Prognosekurse für die ex-postAnalyse) können diese währungsbedingten Verzerrungen eliminiert werden.
•
Unterschiedliche ökonomische und rechtliche Rahmenbedingungen erschweren die Vorgabe eines situationsgerechten Soll-Wertes sowie eine vergleichende Beurteilung der Leistung des lokalen Managements. Diese Schwierigkeiten können durch die Mitwirkung der ausländischen Manager bei Planaufstellung und Abweichungsanalyse gemildert werden.
•
Ausländische Einheiten unterliegen im allgemeinen unterschiedlichen Länderrisiken, was eine länderspezifische Risikoanpassung der Erfolgsmaßstäbe erforderlich macht.
•
Konzerninterne leistungs- und finanzwirtschaftliche Verflechtungen erschweren die Erfolgsermittlung für einzelne Konzernteile, wenn die Transferpreise nicht marktkonform festgelegt wurden. Insgesamt erzeugt die Konzernzugehörigkeit bei jedem Konzernglied (positive und negative)
•
Die kulturelle Distanz zwischen der Konzernzentrale und den ausländischen Tochtergesellschaften hat häufig zur Folge, dass ControllingInformationen auf unterschiedliche Weise erhoben, aufbereitet und interpretiert werden. Diese Wahrnehmungs- und Bewertungsdifferenzen sollten bereits bei den Zielvereinbarungen berücksichtigt werden.
Die zunehmende Bedeutung des Auslandsgeschäfts für Wachstum und Erfolg der Unternehmungen hat auch den Fragen des internationalen Controlling größere Aufmerksamkeit verschafft. Dabei bemüht man sich in der Praxis angesichts der heterogenen Umwelt um eine einheitliche, von der Konzernleitung vorgegebene Controlling-Philosophie. Literatur: Liedl, R.: Controlling ausländischer Tochtergesellschaften, in: Pausenberger, E. (Hrsg.): Intemationalisierung von Unternehmungen, Stuttgart 1994, S. 117-133; Pausenberger, E.: Konzeminterner Leistungsaustausch und Transferpreispolitik in internationalen Unternehmungen, in: Kumar, B.N./Haussmann H. (Hrsg.): Handbuch der Internationalen Untemehmenstätigkeit, München 1992, S. 769-786; Pausenberger, E.: Controlling internationaler Unternehmungen, in: Engelhardt, J. (Hrsg.): Strategische Führung internationaler Unternehmen, Wiesbaden 1996, S. 179-198; Pausenberger, E.: Ansätze zur situationsgerechten Erfolgsbeurteilung von Auslandsgesellschaften, in: Macharzina, K./Oesterle M.-J. (Hrsg.): Handbuch Internationales Management, Wiesbaden 1997, S. 951-963; Pausenberger, E. /Roth A.: Störfaktoren im internationalen Controlling, in: zfbf, 49. Jg./1997, Nr. 6, S. 580-596.
Ehrenfried Pausenberger Corporate Behaviour Unter Corporate Behaviour versteht man ein Instrument zur Konkretisierung der Corporate-Identity-Strategie (-» Corporate Identity). Corporate Behaviour ist das Unternehmensverhalten - bezogen sowohl auf die Mitarbeiter als auch auf die Untemehmenspersönlichkeit selbst. In diesem 159
Corporate Design
Corporate Behaviour Sinne ist Corporate Identity der "Stil des Hauses" bzw. das Auftreten des Unternehmens nach innen und außen. Hierbei handelt es sich einerseits um die Beziehungen der Mitarbeiter zueinander, andererseits vor allem auch um ihr Auftreten gegenüber Kunden, Öffentlichkeit, Banken oder anderen externen Zielgruppen. Insofern ist Corporate Behaviour bewusst gelebte Unternehmenskultur (lat. cultura, colere, dt. Kultur, pflegen). "Wir beim Daimler", "Wir bei Bosch" oder "Wir Kruppianer" drückt dieses Wir-Gefuhl von Mitarbeitern in ihrem Unternehmen auch schon vor dem eigentlichen Siegeszug einer strategisch ausgerichteten Corporate Identity aus. In Zusammenhang mit dem Unternehmensverhalten kommt der gesellschaftspolitischen oder sozialen Verantwortung eines Unternehmens eine zusätzliche Rolle zu. Ethik, Umweltbewusstsein und das konsequente Einhalten von Rechtsvorschriften oder legalen Geschäftspraktiken sind hier unerlässlich. Weitere Instrumente zur Umsetzung der Corporate-Identity-Strategie sind Corporate Communication und -» Corporate Design. Weif Böttcher Corporate Communication Die Corporate Communication stellt (neben -» Corporate Behaviour und -> Corporate Design) ein Instrument zur Konkretisierung der Corporate-IdentityStrategie (-» Corporate Identity) dar. Bei der Umsetzung der Corporate Identity nimmt die Corporate Communications, d.h. interne und externe Kommunikation eines Unternehmens, eine Schlüsselrolle ein. Zur internen Kommunikation zählen das "Schwarze Brett", die Mitarbeiterzeitung, Newsletter für unterschiedliche Zielgruppen im Unternehmen wie Führungskräfte oder Außendienst, aber auch das Mitarbeitergespräch oder Betriebsversammlun-
160
gen. Bedeutung gewinnen immer mehr elektronische Medien wie -»Intranet, Videokonferenzen oder Business TV. Zur externen Kommunikation gehören die Public und Investor Relations, Firmenund Produktwerbung oder Verkaufsförderung. Auch hier setzen sich elektronische Medien hinsichtlich ihrer Vorteile bei Aktualität und Internationalisierung immer mehr durch. Interne und externe Aussagen sind dabei nicht nur von der eigenen Unternehmensphilosophie abhängig, sondern auch von den Aktivitäten der Konkurrenz und der Marktentwicklung. Weif Böttcher Corporate Design Das Corporate Design ist (neben Corporate Behaviour und -»Corporate Communication) ein Instrument zur Konkretisierung der Corporate-IdentityStrategie (-> Corporate Identity). Bei der Festlegung des Corporate Designs geht es vor allem um die Entwicklung eines einheitlichen und stimmigen Erscheinungsbildes, d.h. die Geschlossenheit und Kontinuität des visuellen Firmenauftrittes. Design-Elemente im einzelnen sind: •
• • •
•
das Logo (engl., gekürzt aus logotype: Wortzeichen), Firmenzeichen, das als Wortzeichen, Bildzeichen, kombiniertes Zeichen oder als Buchstabenzeichen eingesetzt werden kann; eine bestimmte Schrifltype oder Typographie; eine bestimmte Hausfarbe und zusätzliche Signal- und Codefarben; Bilder und Fotographien sowie technische oder illustrative Graphik, Diagramme, Organigramme; Formen wie Produktdesign, Ausstellungsdesign, Architektur (innen und außen), Verpackung, Medien, einheitliche Geschäftspapiere und Formulare.
Als Resultat der Corporate-DesignEntwicklung lässt sich ein Design-Manual ableiten, in dem möglichst umfassend das
Corporate Finance
Corporate Design visuelle Erscheinungsbild einer Firma vom Logo über Hausfarbe und -Schriften bis hin zu den diversen Präsentationsformen verbindlich festgeschrieben ist ("Gestalt schafft Geist"). Weif Böttcher Corporate Finance 1. Begriff und Geschäftsfelder Unter Corporate Finance kann grundsätzlich der gesamte Bereich der Unternehmensfinanzierung subsumiert werden. So behandeln angloamerikanische Lehrbücher mit dem Titel Corporate Finance die gleichen Inhalte, die in der deutschsprachigen Literatur zur Finanzwirtschaft der Unternehmung dargelegt werden (Brealey/Myers 1996). Die amerikanische Literatur zur Unternehmensfinanzierung ist kapitalmarktorientiert und unterstellt als finanzwirtschaftliche Zielsetzung die Steigerung des Unternehmenswertes (-» Shareholder Value); was bei der älteren deutschsprachigen Literatur nicht der Fall ist. Der Begriff Corporate Finance hat sich in Deutschland in den achtziger Jahren im Zusammenhang mit kapitalmarktorientierten Leistungsangeboten von Kreditinstituten eingebürgert. In den neu geschaffenen Geschäftsbereich "Corporate Finance" wurde insbesondere das Konsortialgeschäft der Kreditinstitute übernommen. Hierzu zählt vorrangig das klassische Aktien- und Anleihenemissionsgeschäft. Hinzu gekommen sind im Laufe der Zeit Commercial Paper- und Asset Backed Securities-Programme sowie strukturierte Finanzierungen die auf Projekt Cash-flows (-> Cash-flow) basieren. Gesteigerte Bedeutung hat bei dem zum Investmentbanking zählenden Corporate Finance die Beratungsdienstleistung erlangt. Bei US-amerikanischen Investmentbanken hat der Ertrag aus dem Beratungsgeschäft bereits den größten Umsatzanteil. Im Vordergrund steht hierbei das Mergers & AcquisitionsGeschäft, also die Beratung bei Kauf und
Verkauf von Unternehmen und Unternehmensfusionen, Unternehmenskauf; Friendly and unfriendly takeovers (Bilstein 2001). Im Beratungsbereich des Corporate Finance sind auch Unternehmensberatungen, Wirtschaftsprüfungsgesellschaften und Venture Capital Gesellschaften tätig. Der Begriff Corporate Finance kommt somit in einer weiten Begriffsfassung, die den gesamten Bereich der Unternehmensfinanzierung umfasst, insbesondere in angloamerikanischen Lehrbüchern vor, sowie in einer engeren Fassung im Bereich der kreditwirtschaftlichen Praxis, wobei vorrangig kapitalmarktorientierte Leistungsangebote zugeordnet werden. Welche Geschäfte in den Unternehmensbereich Corporate Finance einbezogen werden, ist in der deutschen Kreditwirtschaft nicht einheitlich. Häufig zerfällt der Corporate Finance Geschäftsbereich der Kreditinstitute in die drei Segmente: Klassisches langfristiges Emissionsgeschäft in equity und bonds, Innovatives kurzfristiges Emissionsgeschäft mit Asset Backed und Commercial Paper Transaktionen plus strukturierte Finanzierungen sowie in das Mergers & AcquisitionsGeschäft. 2. Financial Engineering Insbesondere bei strukturierten Finanzierungen kommt das Financial Engineering zum Einsatz, das auch als prägend für das moderne Corporate Finance angesehen werden kann. Im Rahmen des Financial Engineering erfolgt eine Aufspaltung (Stripping, Unbundling) von Finanzierungsinstrumenten in ihre Elementarbausteine (z.B. Zerobond, Option, Future). Dadurch wird die Bewertung komplexer Finanzinstrumente über ihre am Markt beobachtbaren Einzelbausteine möglich. Gleichzeitig können für Kapitalanbieter und -nachfrager maßgeschneiderte Lösungen durch entsprechende Synthese der finanzwirtschaftlichen Elementarbausteine (Replication, Bundling) gefunden werden. Financial Engineering beinhaltet 161
Corporate Finalice somit Entwurf, Entwicklung und Implementierung innovativer Finanzinstrumente und -prozesse sowie die Realisierung kreativer Lösungen für Finanzierungsprobleme im Rahmen des Corporate Finance. 3. Entwicklung Corporate Finance Die Entwicklung der Unternehmensfinanzierung in Deutschland ist derzeit durch eine gewisse Zurückhaltung der großen Kreditinstitute im Bereich des Buchkredits für mittelständische Unternehmen gekennzeichnet. Ähnlich wie in den USA wird es auch in Europa in den nächsten Jahren zu einer stärkeren Verlagerung vom Buchkredit zum wertpapierunterlegten Kapital- und Geldmarktkredit (Securitization) kommen. So werden Teile der Buchkredite in Zukunft durch Assel Backed Securities (ABS) ersetzt werden, was dem Corporate Finance Geschäft neuen Auftrieb gibt. Bei den Kreditinstituten erfolgt eine Verlagerung vom Zinsspannengeschäft zum Provisionsgeschäft bei gleichzeitigem Abbau des Kreditrisikos, das auf den Anleger in Asset Backed Wertpapieren verlagert wird. Dadurch wird die bei Kreditinstituten erforderliche Eigenkapitalunterlegung des Kreditgeschäfts reduziert. Der geringere Eigenkapitaleinsatz kann zu einer Steigerung der Eigenkapitalrendite und damit zu einem höheren Shareholder Value der Kreditinstitute fuhren, wie das Vorbild der US-amerikanischen Investmentbank zeigt. Bei Asset Backed Transaktionen werden Forderungen aus dem Bestand eines Unternehmens (Originator) auf eine nicht zu seinem bilanziellen Konsolidierungskreis gehörende Einzweckgesellschaft (single purpose Company) übertragen. Zur Finanzierung der gepoolten Forderungen werden Wertpapiere am Geld- oder Kapitalmarkt emittiert. Die Single Purpose Company oder der Forderungspool können ein bessere Risikoeinstufung (-* Rating) durch Rating-Agenturen erhalten als die forderungsverkaufende 162
Corporate Governance Unternehmung selbst. Die geringere Risikoeinschätzung des Forderungsportfolios trägt dazu bei, dass die Finanzierungskosten bei ABS niedriger ausfallen als bei vergleichbaren Buchkrediten. Als Collateralized Debt Obligations (CDO) werden Emissionen bezeichnet, die durch ein breit gestreutes Schulden-Portfolio gesichert sind. Eine Unterform davon stellen Collateralized Loan Obligations (CLO) dar, bei denen Kredite als Sicherungsunterlage für die emittierten Wertpapiere dienen. In Europa werden in den nächsten Jahren Kreditinstitute im Rahmen ihres Corporate Finance-Geschäfts verstärkt als Originatoren von ABS an den Geld- und Kapitalmarkt treten und Kredite, die sie an mittelständische Unternehmen gegeben haben, veräußern, um die Risiken in ihren Kreditportfolios und die damit zusammenhängende Eigenkapitalunterlegung zu reduzieren. Das Corporate Finance Geschäft der Kreditinstitute ist somit dadurch gekennzeichnet, dass die Banken ihre klassische Intermediationsfunktion verlieren und nur noch als Vermittler zwischen kreditsuchendem Unternehmen und Kapitalmarkt auftreten (Disintermediation). Literatur: Brealey R./Myers S., Principles of Corporate Finance, 5. Aufl., New York 1996; Damodaran A., Corporate Finance, New York 1999; Kaen F.R., Corporate Finance, Cambridge, Mass. 1995. Betsch O./Gork A./Lohmarm L , Corporate Finance, München 1998; Perridon L./ Steiner M., Finanzwirtschaft der Unternehmung, 10. Aufl., München 1999; Bilstein J., Corporate Finance, in: Gerke W./Steiner M. (Hrsg.): HWF, 3. Aufl., Stuttgart 2001.
Manfred Steiner Corporate Governance Begriff Unter Corporate Governance versteht man die Beziehung zwischen Anspruchsgruppen im Unternehmen, die dazu benutzt wird, um die strategische Richtung und die Leistung von Unternehmen zu bestimmen und zu steuern. Die Corporate Governance (C.G.) ist damit deutlich weiter gefasst als der deutsche Begriff der
Corporate Governance Unternehmensverfassung, der sich auf die Organe des Unternehmens sowie deren Rechte und Pflichten beschränkt. Die Diskussion über die C.G. verlässt diesen formaljuristischen Rahmen und fragt nach einer ökonomisch effizienten Gestaltung der Unternehmensleitung; sie versucht, die Rahmenbedingungen unternehmerischen Handelns so zu gestalten, dass effiziente strategische Entscheidungen gefallt werden. Anwendung Im Rahmen der C.G. interessiert vor allem das Verhältnis von Leitungs- und Kontrollorganen eines Unternehmens. Die Mechanismen der C.G. unterscheiden sich von Land zu Land, weil die Beziehung im Unternehmen abhängig ist vom jeweiligen Rahmen des Handels- und Unternehmensrechts. In den Vereinigten Staaten herrscht die Board-Verfassung (-» Board of Directors) vor: Leitung und Kontrolle des Unternehmens vereinigen sich im Board of Directors, das von der Hauptversammlung der Aktionäre bestimmt wird. Im Board können sowohl Manager des Unternehmens als auch Berater und Kontrolleure von außen sitzen. Effiziente C.G. in den USA stellt sicher, dass die Unternehmensleitung (CEO und executive team) und die externen Board-Mitglieder auch tatsächlich die Interessen der Aktionäre vertreten. Das deutsche System der dualistischen Untemehmensverfassung trennt dagegen strikt zwischen Leitung und Kontrolle des Unternehmens - in der AG zwischen Vorstand und Aufsichtsrat. So verbietet es der § 105 AktG, Vorstandsmitglieder oder andere Spitzenmanager des Unternehmens in den Aufsichtsrat zu entsenden. Die C.G. nach deutschem Recht konzentriert sich auf das Spannungsverhältnis zwischen Aufsicht und Leitung des Unternehmens, während das Verhältnis zwischen den Aktionären und den anderen Organen der Gesellschaft zweitrangig bleibt.
Corporate Governance Anwendung Der Rahmen der C.G. sollte so gestaltet werden, dass der Vorstand im besten Sinne der Eigentümer des Unternehmens handelt (Shareholder-Value-Orientierung, Aktionärsinteressen) und so langfristig den Erfolg und Bestand des Unternehmens sichert (Mitarbeiterinteressen, Gläubigerinteressen). Die Kontroll- und Steuerungsverantwortung für ein zielführendes Handeln der Unternehmensleitung liegt beim Aufsichtsgremium, das dafür die geeigneten Anreize für den Vorstand schaffen muss. Darunter zählen erfolgsorientierte Vergütungssysteme durch Aktienoptionen oder Bonuszahlungen ebenso wie die Kontrolle des Vorstands durch die Festlegung zustimmungspflichtiger Geschäfte. Auch der Aufsichtsrat muss im Rahmen der C.G. angehalten werden, im Sinne des Unternehmens zu entscheiden. Das kann gewährleistet werden, wenn Aktionärsvertreter im Aufsichtsrat vertreten sind, die unmittelbar interessiert sind am ökonomischen Erfolg des beaufsichtigten Unternehmens. Dagegen vermeidet eine erfolgsorientierte C.G., dass Aufsichtsratsposten wechselseitig besetzt werden weil dann die Gefahr besteht, dass die Kontrolleure im gegenseitigen Interesse sich bei der Kontrolle zurückhalten. Auch der Aufsichtsrat kann am Erfolg des Unternehmens beteiligt werden; in den Vereinigten Staaten ist es durchaus üblich, auch den Mitgliedern des "Board of Directors" Aktienoptionen zuzubilligen. Das deutsche Aktienrecht schließt solche Vergütungsregelungen zwar nicht aus, im § 1 1 3 Abs. 3 AktG sind allerdings nur Tantiemen vom Jahresgewinn der AG ausdrücklich erwähnt (-> Aufsichtsratsvergütung). Die Eigentümer sollen in einer effizienten C.G.-Struktur sicherstellen können, dass die Unternehmensleitung stets in ihrem Sinne handelt und dass das Aufsichtsorgan zu jeder Zeit die Leitung im Sinne des Unternehmens steuert und kontrol163
Corporate Governance liert. Probleme ergeben sich, wenn die Interessen großer und kleiner Anteilseigner in verschiedene Richtungen gehen. Im Sinne der C.G. ist vor allem darauf zu achten, dass Kleinaktionäre nicht durch Verfahrensregeln ungerechtfertigt benachteiligt werden. Allerdings zeigt die Praxis, dass es vor allem die großen Einzelaktionäre (institutionelle Anleger) sind, die über die Mittel und Möglichkeiten verfügen, Unternehmensleitung und Aufsichtsorgan im Sinne der Eigentümer zu beeinflussen. Ein spezifisch deutsches Problem der C.G. ist das Depotstimmrecht der Geschäftsbanken. Die meisten Kleinaktionäre übertragen ihre Aktionärsrechte an ihre Bank; dadurch verfügen die Banken über erhebliche Stimmpakete bei der Hauptversammlung. Da die Banken auch Geschäftspartner und Geldgeber der Unternehmen sind, handeln sie bisweilen mit den Stimmen der Kleinaktionäre im eigenen Sinn und gegen die Interessen der Eigentümer. Der Gesetzgeber hat die C.G. deutscher Unternehmen seit 1998 durch das KonTraG verbessert. Seither muss der Vorstand einer AG ein angemessenes Risikomanagement und eine interne Revision im Unternehmen einrichten; außerdem hat er über die Unternehmensplanung zu berichten. Auch für den Aufsichtsrat hat sich die Transparenz der C.G. in Deutschland erhöht. Die Praxis wurde erschwert, Aufsichtsräte wechselseitig zu besetzen, was bisher wesentlich zum Bild der "Deutschland AG" beigetragen hat: Seit 1998 werden Vorsitzmandate in Aufsichtsräten auf die zulässige Höchstzahl (10 Sitze) doppelt angerechnet. Die Aktionäre erhalten seit dem -> KonTraG umfangreichere Informationen über die Kandidaten für den Aufsichtsrat, darunter deren übrige gesetzliche Mandate und ihre hauptberufliche Tätigkeit. Der Aufsichtsrat hat bei börsennotierten Gesellschaften viermal im Jahr zu tagen, statt 164
Corporate Identity bisher zweimal. Die Arbeit der Abschlussprüfer ist durch das KonTraG enger an den Aufsichtsrat gebunden worden: Der Auftrag an den Abschlussprüfer ergeht nicht mehr vom Vorstand, sondern vom Aufsichtsrat, an dessen Bilanzsitzung der Abschlussprüfer ebenfalls teilnehmen muss. Die Aktionärsrechte sind durch das KonTraG deutlich gestärkt worden. Weitgehend gilt nun das Prinzip "eine Aktie, eine Stimme". Dementsprechend sind Mehrfachstimmrechte und Höchststimmrechte (bei börsennotierten AGs) nicht mehr erlaubt. Die Banken werden vom KonTraG in die Pflicht genommen, die Interessen ihrer Depotkunden genauer zu erkunden, bevor sie deren Depotstimmen in der Hauptversammlung einsetzen dürfen. Außerdem sind börsennotierte AGs nun gezwungen, alle Beteiligungen über 5 Prozent im Jahresabschluss öffentlich zu machen. Für die Gesellschaften ist es seit dem KonTraG möglich, eigene Aktien (bis zu einer Höhe von 10 Prozent) zurückzukaufen, Das erleichtert es den AGs, ihren Führungskräften, Aktienoptionspläne zu gewähren, die im internationalen Wettbewerb ein wesentlicher Bestandteil erfolgsorientierter Vergütung sind. Im Ganzen hat das KonTraG die C.G. in Deutschland klarer und übersichtlicher gemacht. Einige Besonderheiten der "Deutschland AG", die deutschen Unternehmen den Stand auf den internationalen Kapital- und Arbeitsmärkten erschwert haben, wurden abgeschafft. Dennoch bleiben die Reformen der deutschen C.G. behutsam, am Grundsatz der Mitbestimmung wurde ebenso wenig gerüttelt wie an den Prinzipien der dualen deutschen Vorstandsverfassung. Corporate Identity Corporate Identity ist die zentrale Kommunikationsaufgabe eines Unternehmens, um eine Unternehmensidentität, d.h. ein stimmiges Firmenbild im Hinblick auf
Corporate Identity das eigene Selbstverständnis, das Leistungsangebot (Produkte und Dienstleistungen) und seine Arbeitsweise zu schaffen. Das Ziel eines Corporate-IdentityKonzeptes ist darauf ausgerichtet, ein Unternehmen einheitlich, deutlich und sympathisch nach außen (s.a. -> Öffentlichkeitsarbeit), aber auch nach innen wirken zu lassen ("PR begins at home!"). Die Basis einer Corporate-IdentityStrategie ist die Unternehmensphilosophie. Bei der Unternehmensphilosophie handelt es sich um das "Grundgesetz" eines Unternehmens. Sie ist in modernen Firmen meist schriftlich festgelegt und beinhaltet ein Leitbild, die Vision oder Mission sowie die Unternehmens- und —> Führungsgrundsätze. In der Unternehmensphilosophie sind damit konkrete Unternehmensziele erfasst, die den Grundcharakter des Unternehmens festlegen. Derartige Unternehmensleitlinien sollen realistisch und für jedermann verständlich sein, um in der täglichen Arbeit als Richtschnur für alle Mitarbeiter zu Grunde gelegt und von den Führungskräften im besonderen vorgelebt zu werden. Die bestimmenden Teile einer Corporate Identity sind der Strategie-, Maßnahmenund Ergebnisteil. Der Strategieteil setzt sich aus der Unternehmensphilosophie zusammen und beinhaltet den Unternehmenszweck, die Unternehmensgrundsätze und die langfristige Untemehmensziele. Prozess der ldentitätsflndung Um zu einer glaubwürdigen und praktikablen Unternehmensphilosophie zu kommen, ist es notwendig, den Prozess der ldentitätsflndung im Unternehmen zu organisieren. Basis dieser ldentitätsflndung sind sowohl eine Mitarbeiter- als auch Kunden- wie auch Expertenbefragung. In der -> Mitarbeiterbefragung soll das Selbstwertgefiihl der Mitarbeiter, ihre Identifikation mit dem Unternehmen analysiert werden und gleichzeitig durch
Corporate Identity eine Mitwirkung am Identitätsfindungsprozess ein hohes Maß an Engagement und Einbringung eigener Ideen erzeugt werden ("Der Weg ist das Ziel"). Bei der Kundenbefragung geht es um die gegenwärtigen und zukünftigen Erwartungen der Nutzer von Produkten und Dienstleistungen eines Unternehmens, ihre Erfahrungen und -> Kundenzufriedenheit vor allem auch im Vergleich zu den wichtigsten nationalen und internationalen Wettbewerbern. Ein sog. Polaritätenprofil bringt im Hinblick auf das Image der Firma positive und negative Abweichungen zur Konkurrenz zum Ausdruck. Schließlich darf eine Expertenbefragung (interne und externe Fachleute) nicht fehlen, die in einem Szenario Aufschluss gibt über zukünftige Trends im Hinblick auf Märkte, Technologien, Mitarbeiterqualifikationen und andere wichtige externe Rahmenbedingungen des Unternehmens. Die Corporate-Identity-Strategie erfahrt ihre Realisierung auf der operativen oder Umsetzungsebene durch die CIInstrumente: -* "Corporate Behaviour" (Unternehmensverhalten), -> "Corporate Design" (Unternehmenserscheinungsbild" und "Corporate Communications" (Untemehmenskommunikation). In diesem Kontext ergibt sich zwangsläufig als Ergebnis ein Corporate Image, das hinsichtlich Persönlichkeit, Verhalten, Kommunikation und Erscheinungsbild wie aus einem Guss wirkt. Nur wenn Fremdbild und Selbstbild übereinstimmen, kann wirklich von einer erfolgreichen Corporate-Identity-Strategie gesprochen werden. Corporate Identity ist außerdem ein dynamischer Prozess, der nicht als abgeschlossen angesehen werden darf. Die ständige Integration von neuen Einflussgrößen (Mitarbeiter, Märkte, Wissen, Technologien, Organisationen oder Regionen) erfordert eine permanente Anpassung der Corporate Identity an
165
Corporate Identity diese Veränderungen. Insofern ist Corporate Identity keine Einmal-Aktion oder kurzfristige Maßnahme, sondern ein langfristiges Instrument der Untemehmensführung und -Sicherung. Ihr Nutzen liegt darin, dass Kompetenz sichtbar ist und von relevanten Zielgruppen unmissverständlich wahrgenommen wird. Corporate Identity in diesem Sinne steigert die Unternehmenseffizienz. Maßnahmen der Gestaltung und Kommunikation sind aufeinander abgestimmt. Kunden, Geschäftspartner und Mitarbeiter können sich leichter mit dem Unternehmen identifizieren, was schließlich Akzeptanz und Sympathie deutlich verbessert. Weif Böttcher Corporate Image -> Corporate Identity Corporate Venture Capitalists Venture Capitalists Cost Center Center-Konzepte verbinden organisationsstrukturelle Merkmale mit steuerungstechnischen Elementen des Finanzund Rechnungswesens. Ein Cost Center ist ein organisatorisch abgegrenzter Teilbereich eines Unternehmens, der aus Sicht des Finanz- und Rechnungswesens eine reine Kostenverantwortung trägt. Cost Center sind typischerweise Unternehmensbereiche ohne einen direkten Zugang zum Absatzmarkt wie beispielsweise Produktionsabteilungen. Kennzeichen bzw. Voraussetzung für die Einrichtung von Cost Centern ist die Vorgabe eines Outputs, d.h. Art, Umfang und Verrechnung der zu erbringenden Leistungen liegen außerhalb der unmittelbaren Beeinflussbarkeit des Cost-CenterManagements. Die Aufgabe für das Cost Center besteht in der Minimierung des Inputs, also der kostenminimalen Erbringung der Leistung. Ein Cost Center trägt somit Verantwortung für die Kosteneffizienz, die Beurteilungsgrundlage für die Leistung eines Cost Centers ergibt sich 166
Customer Relationship Management aus Kostenabweichungen im Rahmen der Plankostenrechnung. Ziel der Einrichtung von Cost Centern ist die Erhöhung des Kostenbewusstseins der Mitarbeiter und die Minimierung des Inputs insgesamt. Durch die in der Regel jährlich erfolgende Plankostenrechnung werden einem Cost Center Referenzwerte für die zu erwartenden Kosten der zu erbringenden Leistungen gesetzt. Der Leistungsanreiz besteht in der Einhaltung bzw. Unterschreitung der vorgegebenen Kosten. Innerhalb der den Cost Centern vorgegebenen Plankostenbudgets gibt es eine gewisse Handlungsfreiheit in der Verwendung der Mittel. Literatur: Coenenberg, A.G.: Kostenrechnung und Kostenanalyse. 4., aktual. Aufl., Landsberg am Lech 1999; Kreuter, A.: Verrechnungspreise in Profit-Center-Organisationen, 2. Aufl., München/ Mering 1999.
Andreas Kreuter Counter-Trades -> Export CPM Netzplan,
Projektmanagement
Critical Path Method Netzplan, —• Projektmanagement CRM Customer Relationship Management Cross Hegde Hedging Cross licensing Lizenzierung CUL -> Computergestützte Aus- und Weiterbildung Customer Life Cycle Beziehungsmarketing Customer Relationship Management 1. Definition Customer Relationship Management (CRM), im deutschen Sprachgebrauch auch als Kundenbeziehungspflege bezeichnet, ist eine Geschäftsphilosophie, deren Ziel die Optimierung der Kunden-
Customer Relationsship Management identifizierung, der Kundengewinnung, der Kundenbindung und der Kundenprofitabilität ist. Im Mittelpunkt des CRM steht dabei der Wert eines Kunden über die Gesamtdauer der Kundenbeziehung (Life Time Value). CRM versteht sich als ein iterativer Prozess, in welchem über die Integration des Kunden alle Informationen gesammelt, gespeichert und analysiert werden, um ihn mit dem richtigen Angebot, über den richtigen Kanal, zur richtigen Zeit ansprechen zu können. 2. Voraussetzungen für ein CRM Als analytisch fundierte Basis für ein CRM dient die Sammlung und Auswertung von Kundendaten in einer zentralen, kundenfokussierten Datenbank (Data Warehouse -> Data Warehousing). Um langfristige und profitable Kundenbeziehungen aufbauen zu können, ist die detaillierte Kundenkenntnis elementare Voraussetzung. Erst die ganzheitliche Betrachtung des Kunden und das Wissen um seine Bedürfnisse und Präferenzen erlauben es dem Unternehmen, individualisierte und personalisierte Produkte und Dienstleistungen anzubieten, die dem Kunden einen Mehrwert bieten und für das Unternehmen einen echten Wettbewerbsvorteil bedeuten. Das Data Warehouse dient als Datenlieferant für sämtliche Analysen zur Kundenbeziehungspflege. Methoden zur Gewinnung der entscheidungsrelevanten Informationen sind u.a. Kundensegmentierung, Life Time Value-Prediction, Score Card-Analysen und vor allem das -» Data Mining. Die Fülle der Informationen und die Komplexität der Analyse-Anforderungen zur Generierung von Kennzahlen, Indices, Ranglisten, Trend- und Prognosebetrachtungen bedingt den Einsatz von innovativer Data Warehouse-Technologie mit den entsprechenden Analysefunktionalitäten. Aufgrund der großen und ständig wachsenden Datenmenge, die für ein umfassendes und integratives CRM von Relevanz ist, muss die Skalierbarkeit der eingesetzten Lösung gegeben sein.
Customer Relationsship Management 3. Anforderungen an ein CRM Das ganzheitliche Konzept des CRM verlangt eine marketing-, Vertriebs- und serviceübergreifende Betrachtung von Märkten, Kunden und Transaktionen, die es dem Unternehmen erlauben, eine "360 Grad-Sicht" auf den Kunden zu erlangen ("Customer Intelligence"). Die Integration und Koordination der verschiedenen Kanäle zum Kunden wie Internet, Call Center, Geschäftsstelle, Vertriebspartner oder Außendienst kann als kritischer Faktor für ein erfolgreiches CRM identifiziert werden. Durch die vollständige Integration des CRM in Finanzwesen, Fertigung, -> Supply Chain Management, und Personal- oder Projektmanagement, ermöglicht es dem Unternehmen, ein Höchstmaß an Transparenz in der Kundenanalyse zu erzielen. Ein innovatives und umfassendes CRM muss darüber hinaus eine klare Orientierung in Richtung Internet-Technologie besitzen, um auch den zukünftigen Trends und Entwicklungen gewachsen zu sein. Gerade die Konvergenz von Internet und Mobilfunk stellt Anforderungen an ein Multichannel-Management, das eine gezielte Ansprache des Kunden über verschiedene Kanäle und Endgeräte erlaubt. 4. Phasen des CRM Der Prozess des CRM kann in sechs Phasen eingeteilt werden. •
•
Erhebung aktueller Kundendaten In der Initial-Phase werden alle erforderlichen Daten zu Bestandskunden und potentiellen Neukunden gesammelt und strukturiert in einem Data Warehouse gespeichert. Kundenanalyse Im Mittelpunkt der Kundenanalyse steht die Klassifizierung und Segmentierung der im Data Warehouse gespeicherten Kundeninformationen. Ziel ist die Identifikation von Kunden mit hoher Kaufwahrscheinlichkeit und attraktiver Wirtschaftlichkeit, mit denen langfristige und profitable Geschäftsbeziehungen aufgebaut werden 167
Customer Relationship Management
•
•
•
•
können. Diese Phase wird auch als Knowlegde Discovery bezeichnet. Entwicklung eines maßgeschneiderten Marketing-Konzeptes Inhalt eines solchen Konzeptes ist die Planung von zielgruppenspezifischen und kundenindividuellen Werbekampagnen und Angeboten über verschiedene Kanäle. Durchführung der Werbemaßnahmen Diese Phase dient der Durchfuhrung der zuvor entwickelten Kampagnen und Angebote. Besonderes Potenzial bieten moderne E-BusinessInfrastrukturen, die den Kunden gezielt und aktiv mit personalisierten Informationen und Angeboten auf verschiedenen Ausgabegeräten ansprechen. Messen der Effektivität Die Wirkung der durchgeführten Aktivitäten wird genau beobachtet und die Reaktion der Kunden auf die Werbeaktionen und Angebote gesammelt, analysiert und bewertet. Optimierung Anhand der gewonnen AnalyseErkenntnisse können Werbemaßnahmen und Angebote angepasst und verfeinert werden. Das Wissen des Unternehmens zur Optimierung der Strategien wird iterativ und inkrementell vergrößert.
Der CRM-Prozesskreislauf stellt einen Zyklus dar, der die kontinuierliche, qualitative Verbesserung der im Data Warehouse gespeicherten Daten sicherstellt und das Potenzial des CRM optimal ausschöpft. Bei einer erfolgreichen Implementierung des Prozesskreislaufes kann von einer lernenden Organisation gesprochen werden. 5. Komponenten des CRM • Kollaboratives CRM Mit kollaborativem CRM ist das Management der unterschiedlichen Vertriebskanäle gemeint. Es umfasst das Identifizieren von Kanalkonflikten, -kosten und -Potenzialen. 168
Customer Relationship Management
Abbildung:
•
•
CRM-Kreislauf
Analytisches CRM Die detaillierte Kenntnis über den Kunden und seine individuelle Ansprache gemäß des One-to-OnePradigma ist Inhalt des analytischen CRM. Operatives CRM Kern des operativen CRM ist die künden- und kanalspezifische Implementierung und Abwicklung der Geschäftsprozesse.
6. Nutzenpotenziale Ziel des CRM ist es, mit jedem einzelnen Kunden den Dialog und die Interaktion auf allen Kanälen zu optimieren, um Differenzierungspotenziale zu erschließen und die Vertriebsproduktivität zu steigern. Dies gelingt über die Befriedigung der spezifischen Bedürfnisse jedes einzelnen Kunden mit individuell zugeschnittenen, personifizierten Angeboten. Dies entspricht der Konzeption des auf D. Peppers und M. Rogers zurückgehenden One-to-One-Marketingansatzcs, welcher im Pradigmenwechsel vom produkt- zum kunden-orientierten Unternehmen zunehmend an Bedeutung gewinnt. Langfristige Kundenloyalität und Kundenprofitabilität erlangen auf diese Weise Priorität in der Marketingstrategie des Unternehmens.
Customer Relationsship Management Wettbewerbsvorteile durch ein CRM lassen sich vor allem in Märkten erzielen, die durch eine hohe Intensität des Wettbewerbs, eine große Alternativenvielfalt für den Kunden und einer geringen Kundenbindung aufgrund mangelnder Produktdifferenzierungsmöglichkeiten gekennzeichnet sind. Denn ein umfassendes CRM gibt dem Unternehmen die Fähigkeit, Kunden schnell, individuell und personalisiert anzusprechen und flexibel auf die unterschiedlichsten Kundenwünsche zu reagieren. Der hierdurch generierte Mehrwert fur den Kunden wirkt sich positiv auf Kundenbindung und -profitabilität aus. Durch die wachsende Bedeutung von Web-basierten Prozessen und Applikationen ist das Internet als Schlüsseltechnologie des modernen CRM zu identifizieren.
Customer Relationsship Management CRM nur um einen weiteren Entwicklungsschritt in Richtung einer optimalen Kundenorientierung handelt. Über CRM hinausgehende Ansätze befinden sich bereits in der Entwicklung. I-Commerce (Integrated Commerce) und eCRM (Electronic Customer Relationship Management), die in diesem Zusammenhang genannt werden, erweitern den klassischen CRM-Ansatz um die Integration weiterer, in erster Linie Web-basierter Datenquellen, zur Implementierung einer "Information Supply Chain", die am Ende der CRM-Evolution in Informationsportale übergehen werden. Literatur: Kurz, A.: Data Warehousing, Landsberg 1999; Kropp, M.: E-Commerce Magazin, 5/1999; Martin, W.: E-Commerce Magazin, 6/1999; Martin, W.: Data Warehousing, Landsberg 1999.
Ralf Pispers
7. Neuere Ansätze des CRM Erste Tendenzen lassen bereits heute erkennen, dass es sich beim klassischen
169
Dachmarke
D Dach marke Ein Dach ist der obere Abschluss eines Gebäudes. Das Gebäude ist in diesem Fall eine Produktfamilie, also im Absatz miteinander verbundene Produkte (z.B. Pflegeserie bei Kosmetika). Der Vertrieb erfolgt dann unter einem gemeinsamen Markennamen (Dachmarke). S.a. Herstellermarken Data Mining Data Mining bezeichnet den Auswertungsvorgang über die in einem -> Data Warehouse gesammelten Daten, mit dem besonderen Anspruch, auch bisher unbekannte Zusammenhänge zwischen Daten entdecken zu können. Die Fähigkeit, Unbekanntes im Datenwust zu entdecken, erfordert von der Data Mining-Software "künstliche Intelligenz". Umgesetzt wird dies über Fuzzy-Logik ("Unscharfe Logik"), -> Neuronale Netze und spezielle Suchalgorithmen. Data Warehouse "Data Warehouse" (DWH) - dieses Schlagwort war der Begriff des Jahres 1996. Doch was versteht man unter diesem Begriff? Es ist kein neuer Ansatz, was man heute unter dem Begriff des Data Warehouses versteht. Die IBM propagierte bereits Ende der 80er Jahren einen ähnlichen Lösungsweg unter dem Begriff des "Information Warehouse", was eigentlich die korrekte Bezeichnung für diesen Prozess ist, da das Wort "Information" den Nutzen wesentlich besser verdeutlicht. Erst in 1993 tauchte der Begriff "Data Warehouse" zum ersten Mal durch eine Veröffentlichung von W. H. Inmon auf. Was jedoch verbirgt sich im pragmatischen Ansatz und welche technischen Varianten gibt es bei der Implementierung eines Data Warehouses?
170
Data Warehouse 1. Was versteht man unter Data Warehouse? Data Warehouse bedeutet nicht, wie viele meinen und oft suggeriert wird, "Datenwarenhaus", sondern, wie der Blick in ein Englischwörterbuch verrät, schlicht und einfach "Lagerhaus". Unter dem DWH-Konzept versteht man die Gesamtheit von Prozessen, die durch verschiedene Technologien und Services unterstützt werden und dabei -
-
-
Daten aus verschiedenen Anwendungssystemen sammeln, diese in einem logischen Modell integrieren, so speichern und zur Verfügung stellen, dass sie für den Endbenutzer zugänglich und verständlich sind, und sie Unternehmens weit zur Verfügung stellen.
Das bedeutet im Wesentlichem, es handelt sich um ein Konzept einer zentralen Datenhaltung und Zusammenfuhrung von mehreren, verschiedenen dezentralen Datenquellen, mit dem Zweck, diese gewonnene Informations-Ressource den End-Anwendern als Entscheidungsgrundlage zur Verfugung zu stellen. Dabei werden die Daten aus allen relevanten Bereichen eines Unternehmens (sowohl strukturiert als auch unstrukturiert wie z.B. Karten (Maps), Bilder (Images) und WEB-Pages) angesammelt. Es können nicht nur die Zahlen aus typischen Backoffice-Systemen wie z.B. SAP R/3 (FI, CO, MM, SD), als Datenbasis in diese zentrale Informationsdatenbank integriert werden, sondern selbstverständlich auch die Daten aus den immer mehr von Bedeutung gewinnenden Frontoffice-Systemen (z.B. Siebel, Vantive, Clarify), die sämtliche Aktivitäten mit dem Kunden (Pre-Sales, Sales und AfterSales Prozesse) festhalten. Das bedeutet eine Integration von mehreren operativen Systemen in ein einheitliches zentrales Datenhaltungssystem.
Data Warehouse
Data Warehouse Bevor die Daten aus den verschiedenen Systemen zusammengeführt werden, d.h. physikalisch redundant gespeichert werden, müssen sie auf ihre inhaltliche und semantische Bedeutung, auf den Detaillierungsgrad und -tiefe, sowie auf ihre Datenqualität analysiert werden. Diese gewonnenen Informationen werden im Meta-Daten-Repository (= Daten über Daten) bei der Integration gespeichert. Gegebenenfalls ist eine Datenbereinigung und/oder Datenanreicherung bei der Übernahme erforderlich. Zugleich werden die Daten auf ein höheres Aggregationsniveau transformiert bzw. zusammengefasst oder gefiltert. Die Speicherung der Daten erfolgt in einer für die Auswertung und Analyse optimierten Form. Das bedeutet, dass kein normalisiertes EntityRelationship Datenmodell zu Grunde gelegt wird, sondern ein denormalisiertes Star- oder Snowflake Schema zum Einsatz kommt, das für die Auswertung optimiert ist. Die Informationsgewinnung und Präsentation der Inhalte der zentralen Informationsquelle ist eine eigene sehr bedeutende Komponente des Data Warehouses. Im Wesentlichen übernehmen Management Informationssysteme diese Aufgabe. Man
fasst diese Analyse-Instrumente auch unter dem Begriff "Business Intelligence" zusammen (-> Entscheidungsunterstützende Systeme). Das Data Warehouse ist sowohl eine Architektur als auch eine Technologie, aber kein Produkt. Das Erstellen eines Data Warehouses ist ein Prozess, der für jedes Unternehmen wiederum unterschiedlich ist und eine Vielzahl von Variationen bei der Realisierung und Implementierung ausweist. Data Warehousing ist keine Standardlösung, sondern bietet die Chance individuelle Informationenskonzepte proaktiv im Unternehmen zu gestalten. Methodische Ansätze wie zum Beispiel das von CSC PLOENZKE eingesetzte "Catalyst" unterstützen den gesamten Prozess von der Strategieentwicklung bis hin zur Architektur und Einführung. 2. Was sind die Komponenten Warehouses?
eines Data
Das Data Warehouse setzt sich aus folgenden Komponenten zusammen: -
-
Daten-Extraktion (Informationsgewinnung aus den einzelnen Datenquellen inklusive Datenbereinigung), Daten-Transformation (Denormalisie-
stark aggregierte
1. Daten-Extraktion •r / Zugriff
2. Daten-Bereinigung, Transformat, Aggregation, Speicherung ,
3. Daten-Präsentation Auswertung / Analyse
Abb. 1: Schema eines Data Warehouse
171
Data Warehouse
-
ren, Summieren und Speichern inklusive Erstellung der Meta-Daten), Präsentation (Auswertung und Analyse).
Eine erfolgreiche Implementierung eines Enterprise Data Warehouses erfordert unbedingt die Integration aller dafür notwendigen Produkte. Die meisten großen Softwareanbieter bieten deshalb komplette Lösungen, d.h. Produkte zur Extraktion, Transformation und Präsentation an, um somit Probleme bei der Integration zu umgehen. Die Gärtner Group (eines der fuhrenden Marktforschungsinstitute auf dem Gebiet der Informationstechnik) beschreibt die Einbindung von Produkten in eine Data Warehouse-Architektur wie folgt: Unternehmen, die sich auf nur ein Produkt zur Implementierung eines Data Warehouse konzentrieren, setzen sich dem Risiko eines Scheitern des Projektes aus. Die Integration eines Data Warehouses mit ihren Quellen und Auswertungsmöglichkeiten verdeutlicht die Abbildung. Die Präsentationskomponente (= Komponente 3) ist für den Anwender eine der Schlüsselkomponenten, die den eigentlichen Nutzen des Data Warehouse darstellt: die anwenderfreundliche Auswertung und Analyse von Informationen. Hier entstehen für den Anwender aus Daten letztendlich transparente konsistente Informationen, die wiederum als Grundlage für Entscheidungen dienen. Der einfache Zugang auf die zentrale Datenbank ermöglicht dem Endanwender je nach Bedarf des Wissens den direkten Zugriff auf Steuerungs- und Entscheidungsgrößen. Die Informationen können nach unterschiedlichen Betrachtungs- und Sichtweisen dargestellt werden. Für diese Art von Auswertungen eignen sich besonders zwei Technologien, die sich am Markt durchgesetzt haben: OLAP für mehrdimensionale Analysen und -> Data Mining zum automatische Erkennen von
172
Data Warehouse Trends, Affinitäten und Verhaltensmustern. Die OLAP-Technik (= On-Line Analytical Processing) hat sich in den letzten Jahren enorm weiterentwickelt. Neben den mehrdimensionalen DatenbankServern (= M-OLAP) gibt es am Markt auch relationale Datenbankmodelle, die einen mehrdimensionalen View auf die Daten erlauben (R-OLAP), sowie Produkte, die beide Ansätze (= hybrides OLAP) unterstützen. R-OLAP-Produkte basieren auf relationalen Datenbanksystemen, die besonders bei sehr großen Datenvolumina zum Einsatz kommen. Besonders bei kundenzentrierten Data Warehouses ist mit sehr hohen Datenmengen (bis hin zu Terrabytes) zu rechnen, die den Einsatz dieser Technologien erfordern. Derzeit zeichnet sich bei den Unternehmen eine Wandel von der Produkt- zur Kundenorientierung ab. Der Kunde steht im Mittelpunkt. Die Fokussierung auf den Kunden als wertvollstes Unternehmenskapital und die Neugestaltung der Kundenbeziehung mit dem Ziel, die damit verbundenen Geschäftspotenziale optimal zu nutzen und profitable Kundengruppen stärker an sich zu binden, ist der Weg. Speziell im Umfeld des Individual-, Massen- und Verdrängungsmarktes gewinnt der Endkunde immer mehr an Bedeutung. Innovative Lösungen, die es ermöglichen, den Endkunden zu erkennen, besser zu verstehen, ihn in individuelle Segmente zu gliedern, über One-to-One Marketing individuell zu bewerben und letztendlich eine langfristige Kundenbeziehung sicherzustellen, fordern den Einsatz von modernen Konzepten und Technologien wie Customer Care Center, -» Customer Relation Management (CRM), —• Database Marketing, Data Warehousing (DWH) und Data Mining. So zum Beispiel im Kundenmanagement, wo sich der Kundenwert (= Customer Value) aus Ergebnissicht,
Database Marketing
Data Warehouse Kontaktfrequenz, -> Kundenzufriedenheit und weiteres Potenzial betrachten lässt. Es ist zu erwarten, dass Customer Relationship Management (CRM) in Verbindung mit -» Internet und e-Business fundamental die Art und Weise von Kundenkontakten und Kundenpflege ändern wird. 3. Zusammenfassung Voraussetzung sind zum einen die richtigen Informationen, die in Kennzahlensysteme (~> Kennzahlen- und Kennzahlensysteme) integriert werden sowie deren Datenqualität, als auch die Qualität der Konzeption/Architektur, die im Rahmen des Data Warehouse-Projektes gewählt wird. Aktuelle, flexible, intelligente und integrierte Lösungen zur Analyse und Auswertung vervollständigen das DWHKonzept. Eine erfolgreiche Umsetzung und Implementierung des DWHKonzeptes erfordert unbedingt die Verfügbarkeit eines dedizierten, (= fulltime zugeteiltes) überschaubaren und kompetenten Projektteams (-> Projektmanagement). Außerdem erfordert die Implementierung einer Komplettlösung unbedingt die Abstimmung der einzelnen Hard- und Software-Komponenten aufeinander, die Einbeziehung des Managements und der Anwender, die Unterstützung durch Expertenteams, sowie den Willen, diese komplexe Aufgabe zum Ergebnis zu bringen. Stefan Gilmozzi Database Marketing 1. Hintergrund Klassische Massenmedien erreichen bestimmte Zielgruppen immer schlechter; die Streuverluste der Marketingkommunikation steigen. Hierzu trägt auch die allgemeine Informationsüberlastung der Kunden bei (information overload). Auch die immer größer werdende Heterogenität der Kundenwünsche erfordert mehr Zielgenauigkeit der Kundenansprache. Die höchste Zielgenauigkeit stellt die Behandlung des einzelnen Kunden als gesondertes Marktsegment (segment of one)
dar. Dadurch können alle Marketingaktivitäten speziell auf diesen Kunden abgestimmt werden. 2. Inhalt Database Marketing (DBM) ist ein Marketing auf Basis individueller Kundendaten, die in einer Datenbank gespeichert und verwaltet werden. Derartige Kundendatenbanken sind damit als notwendige Voraussetzung für effizientes —> Direktmarketing zu sehen. Ziel des DBM ist es, selbst auf Massenmärkten dem richtigen Kunden zum richtigen Zeitpunkt mit den richtigen Argumenten ein maßgeschneidertes Informations- oder Leistungsangebot zu machen (Link/Hildebrand 1997). DBM kann über sein Individualisierungs-, Schnelligkeits-, Lern- und Rationalisierungspotenzial sowie auch u.U. durch sein Innovationspotenzial zu strategischen Wettbewerbsvorteilen führen. 3. Informationselemente Grundsätzlich sind alle Informationen pro Kunde von Bedeutung, die geeignet sind, Interessenten für spezielle Informationsund Leistungsangebote zu identifizieren, die Investitionswürdigkeit verschiedener Kunden zu beurteilen, einen Einblick in bisherige Interaktionen zu gewähren sowie Erfolgskontrollen und -prognosen zu unterstützen. Es empfiehlt sich für eine konkrete Selektion der Kunden neben den klassischen soziodemographischen Merkmalen die Einbeziehung weiterer Daten, die Hinweise auf einen vorhandenen Bedarfliefern. Eine Einteilung der zu erhebenden Daten kann erfolgen in: •
•
Grunddaten: In erster Linie längerfristig gleichbleibende und weitgehend leistungsunabhängige Kundendaten (z.B. Name, Adresse, Alter, Beruf oder aber bei Firmenkunden Ansprechpartner, Branche, Untemehmensgröße). Potenzialdaten: Leistungs- und zeitpunktbezogenen Informationen, die Rückschlüsse auf das zukünftige kun173
Datenschutz
Database Marketing
•
•
denindividuelle Nachfragevolumen zulassen (z.B. derzeitige Ausstattung/ Leistungsinanspruchnahme, Kundenklassifizierung). Aktionsdaten: Dokumentation der kundenspezifischen Marketingaktivitäten (z.B. Außendienstbesuch, Mailing). Reaktionsdaten: Dokumentation des Kundenverhaltens als Reaktion auf eigene oder von der Konkurrenz veranlasste Werbeaktivitäten (z.B. Anfragen, Bestellmengen, -wert, -Zeitpunkt).
Es ist generell darauf zu achten, dass die Daten aller Felder einer permanenten Aktualisierung unterliegen. 4. Kundenanalyse, -Selektion und -ansprache: Auf dieser Datengrundlage lassen sich Kundenanalysen sowie die gezielte Selektion von Kunden durchfuhren. Hierbei steht eine Fülle von Bewertungsmethoden für Kunden und Interessen zur Verfügung. Auf Basis der gewonnenen Analyseerkenntnisse werden dann konkrete, kundenspezifische Marketingmaßnahmen (Außendienstbesuch, Mailing, Telefonkontakt etc.), die ein adäquates Angebot beinhalten, initiiert. Database Marketing erstreckt sich grundsätzlich auf sämtliche Instrumente des Marketing-Mix (Kommunikations-, Distributions-, Kontrahierungs-, Produktpolitik); die weitaus häufigste Anwendung findet es jedoch im Bereich der Kommunikationssteuerung. Die gewählten Aktivitäten wie auch die ausgelösten Reaktionen sind wiederum in der Datenbank festzuhalten. Hierdurch entsteht im Laufe der Zeit ein immer exakteres Bild vom Kaufverhalten der Kunden und somit eine verbesserte Informationsgrundlage. Untersuchungen von insgesamt 1000 Unternehmen haben gezeigt, dass sowohl Großunternehmen wie auch mittelständische Betriebe in hohem Maße Gebrauch von DBM machen, dabei allerdings j e nach Branche und Professionalität unterschiedlich vorgehen.
174
Literatur: Link, J./Hildebrand, V.: Grundlagen des Database Marketing, in: Link, J. u.a. (Hrsg.): Handbuch Database Marketing, Ettlingen 1997; Link, J./Hildebrand, V.: Database Marketing und Computer Aided Selling, München 1993; Link, J./Hildebrand, V.: Verbreitung und Einsatz des Database Marketing und CAS, München 1994; Link, J./Hildebrand, V.: EDV-gestütztes Marketing im Mittelstand, München 1995.
Jörg Link/Daniela Tiedke Datenauswertung Data Mining Datenerhebung Marktforschung Datenschutz Der Schutz des Rechts auf informationelle Selbstbestimmung, d.h. die Befugnis des Einzelnen grundsätzlich selbst über Preisgabe und Verwendung seiner persönlichen Daten zu bestimmen. 1. Entstehung Das Recht auf informationelle Selbstbestimmung wurde vom Bundesverfassungsgericht abgeleitet aus Art. 2 Abs. 1, Art. 1 Abs. 1 Grundgesetz. Das dort geschützte sog. allgemeine Persönlichkeitsrecht gibt jedem Bürger das Recht auf freie Entfaltung seiner Persönlichkeit. Konkretisiert wurde das informationelle Selbstbestimmungsrecht insbesondere im sog. Volkszählungsurteil des Bundesverfassungsgerichts vom 15.12.1983. Durch den Schutz der Privatsphäre soll verhindert werden, dass der Einzelne zunehmend in Abhängigkeit von Staat und Wirtschaft gerät, weil diese immer mehr von ihm wissen. 2. Gesetzliche Regelungen Der Rahmen für den Datenschutz in Deutschland wird vorgegeben durch das Bundesdatenschutzgesetz (BDSG). Zweck des Gesetzes ist es, "den Einzelnen davor zu schützen, dass er durch den Umgang mit seinen personenbezogenen Daten in seinem Persönlichkeitsrecht beeinträchtigt wird" (§ 1 Abs. 1 BDSG). Eine Reihe von dem BDSG meist vorrangigen Spezialvorschriften regeln den Umgang mit personenbezogenen Daten in besonderen
Datenschutz Bereichen, z.B. im Sozial-, Arbeits-, Steuer- und Telekommunikationsrecht. Die Europäische Datenschutzrichtlinie vom 24.10.1995 hat zu einer weitgehenden Harmonisierang des Datenschutzes in Europa geführt. Auswirkungen hat die Richtlinie u.a. auf den grenzüberschreitenden Datentransfer, der innerhalb Europas vereinfacht wurde, während für Übermittlungen in Staaten ohne adäquates Datenschutzniveau höhere Anforderungen gelten. 3. Anwendungsbereich des BDSG Im nicht-öffentlichen Bereich gilt das BDSG für Unternehmen ebenso wie für Privatpersonen. Es setzt jedoch voraus, dass Daten "in oder aus Dateien" verarbeitet werden. Daten in unstrukturierten Akten werden nicht geschützt. Auch der Umgang mit personenbezogenen Daten zu rein persönlichen Zwecken (z.B. die Adressenliste auf dem privaten Computer) fällt nicht unter das Gesetz. Im öffentlichen Bereich gilt das BDSG für alle Behörden und sonstigen Einrichtungen des Bundes. Für Landesbehörden gelten i.d.R. die Datenschutzgesetze der einzelnen Bundesländer, die ähnlich wie das BDSG aufgebaut sind. 4. Geschützte Daten Das BDSG schützt personenbezogene Daten, d.h. Einzelangaben über persönliche oder sachliche Verhältnisse einer bestimmten oder bestimmbaren natürlichen Person (§ 3 Abs. 1 BDSG). Nicht erforderlich ist, dass es sich um besonders sensible Daten handelt. Geschützt sind also auch Daten wie Alter, Adresse, Telefonnummer, usw. 5. Grundsätzliches Verbot Nach § 4 BDSG ist der Umgang mit personenbezogenen Daten grundsätzlich verboten, sofern nicht durch Gesetz oder die ausdrückliche Einwilligung des Betroffenen gestattet. Eine unbefugte Verwendung personenbezogener Daten untersagt das sog. Datengeheimnis, auf dessen Einhaltung sämtliche mit der Datenverarbei-
Datenschutz tung beschäftigte Personen zu verpflichten sind (§ 5 BDSG). 6. Was ist erlaubt? Erlaubt ist zunächst jeder Umgang mit personenbezogenen Daten, der zur Erfüllung gesetzlicher Verpflichtungen erforderlich ist, z.B. zur Erfüllung der Meldepflichten des Arbeitgebers. Im nichtöffentlichen Bereich ist der Umgang mit personenbezogenen Daten ferner gestattet im Rahmen der Zweckbestimmung eines Vertragsverhältnisses mit dem Betroffenen, z.B. zwischen Bank und Kunden (§ 28 Abs. 1 Satz 1 Nr. 1 BDSG). Soweit es zur Wahrnehmung berechtigter Interessen der speichernden Stelle erforderlich ist, dürfen personenbezogene Daten ebenfalls erhoben und verwendet werden, sofern kein Grund zu der Annahme besteht, dass ein überwiegendes Interesse des Betroffenen entgegensteht (§ 28 Abs. 1 Satz 1 Nr. 2 BDSG). Daten aus allgemein zugänglichen Quellen können i.d.R. verwendet werden, sofern keine offensichtlichen Interessen des Betroffenen überwiegen (§ 28 Abs. 1 Satz 1 Nr. 3 BDSG). Soll die Einwilligung des Betroffenen eingeholt werden, muss er über deren Tragweite aufgeklärt werden und die Erklärung i.d.R. schriftlich abgeben. Behörden dürfen personenbezogene Daten im Rahmen der Erfüllung ihrer Aufgaben verwenden, jedoch i.d.R. nur für solche Zwecke, für die die Daten ursprünglich erhoben worden sind. 7. Datensicherung Zur Sicherstellung des Datenschutzes sind technische und organisatorische Maßnahmen vorgeschrieben, um personenbezogene Daten vor Missbrauch und Fehlern zu schützen (§ 9 BDSG mit Anlage). 8. Kontrolle des Datenschutzes Damit der Betroffene selbst die Einhaltung datenschutzrechtlicher Vorschriften kontrollieren kann, hat er Anspruch auf Benachrichtigung und Auskunft. Außerdem kann er unter bestimmten Vorausset-
175
Datensicherheit
Datenschutz zungen die Berichtigung, Löschung und Sperrung seiner Daten verlangen. In Unternehmen, die mindestens 5 Mitarbeiter beschäftigen, die mit personenbezogenen Daten umgehen, ist zur Sicherstellung des Datenschutzes ein betrieblicher Datenschutzbeauftragter zu bestellen. Zusätzlich überwachen Aufsichtsbehörden die Einhaltung des Datenschutzes im nicht-öffentlichen Bereich. Der Betriebsrat hat weitgehende Kontrollund Mitwirkungsrechte bezüglich Arbeitnehmerdaten. Bundes- und Landesbehörden unterliegen der Kontrolle des Bundesbzw. jeweiligen Landesbeauftragten für den Datenschutz. Berndt Schlemann Datensicherheit Der Begriff Datensicherheit (umfassender: IT-Sicherheit - IT-Security, auch: Informationssicherheit) umfasst im ursprünglichen Sinne organisatorische und technische Maßnahmen zur Gewährleistung von • • •
Integrität Verfügbarkeit Vertraulichkeit
von Daten, Informationen und informationsverarbeitenden Systemen (primäre Sicherheitsziele). Dem gegenüber bezeichnet -* Datenschutz Maßnahmen zur Gewährleistung der informationellen Selbstbestimmung (engl. Privacy) und Regeln zum Umgang mit personenbezogenen Daten. Das Ziel der Integrität (Integrity) besagt, dass Daten unverändert zu bleiben haben. Unter Integritäts Verletzungen versteht man demnach eine beabsichtigte oder ungewollte Manipulation der Daten. Beispiele für Integritätsrisiken sind Manipulationen an Webseiten, Manipulation an Transaktionen und Finanzdaten oder Veränderungen von Daten und Programmen durch Computerviren. So wurden etwa in der Vergangenheit Fälle bekannt, bei denen Finnenmeldungen und Finanzdaten 176
auf Internet-Seiten manipuliert wurden, um den Verlauf von Börsenkursen zu beeinflussen. Bei zunehmender Abhängigkeit von informationsverarbeitenden Systemen spielt das Ziel der Verfügbarkeit (Availability) eine große Rolle. Die Verfügbarkeit kann etwa durch instabile —> Betriebssysteme, menschliches oder technisches Versagen sowie durch gezielte Angriffe beeinträchtigt werden. Das Ziel der Vertraulichkeit (Confidentiality) besagt, dass nur autorisierte Personen Zugang zu bestimmten Daten und Informationen zu bekommen haben. Nur derjenige, für den Daten bestimmt sind sollte Zugang haben. Die Vertraulichkeit zielt auf persönliche Daten (-»Datenschutz ) sowie auf Geschäftsvorfälle (die Wahrung von Betriebsgeheimnissen) ab. Historisch betrachtet entstammt die Sicherheitsdiskussion den Zeiten des Kalten Krieges. So ist die chaotische Struktur des Internets aus der Angst begründet, dass größere Teile des Netzes durch Kriegswirkungen ausfallen könnten. Jeder Teil des Netzes sollte soweit autonom sein, dass selbst massive Ausfälle keine über den unmittelbaren Schadensbereich hinausgehenden Verfügbarkeitsprobleme mit sich bringen sollten. Vor diesem Hintergrund wurde - und wird - Datensicherheit oftmals als Selbstzweck gesehen. Anfang der 90er Jahre wurde dann aber zunehmend die Frage nach den schätzenswerten Gütern, etwa Arbeitszeit, persönliche Daten oder betriebswirtschaftlichen Werten gefragt. Seit Verbreitung und Kommerzialisierung des Internets wird Sicherheit zunehmend als Enabling Technology für den Digitalen Geschäfts- und Verwaltungsverkehr (-» E-Commerce) betrachtet. E-Commerce und Datensicherheit: Electronic Commerce im Internet basiert auf einem Geschäftsmodell, bei dem weltweit jeder mit jedem ad-hoc in eine Geschäftsbeziehung treten kann. Zwar hat
Datensicherheit
Datensicherheit
die absolute Offenheit des Netzes erst den Zugang breiter Anwenderschichten und damit die enormen Wachstumszahlen ermöglicht. Für die kommerzielle Nutzung erweist sich diese ursprüngliche Stärke jedoch als Pferdefuß. Prinzipiell kann jede "offene" Kommunikation auf dem Internet mitgelesen, vernichtet, vervielfältigt, geändert oder auf sonstige Art und Weise manipuliert werden. Elektronisch abgegebene Willenserklärungen können angefochten und schützenswerte Daten unbefugt gesammelt und weiter verwendet werden. Da die konventionellen und rechtlich anerkannten Sicherheitsfunktionen von Geschäftspapier und eigenhändiger Unterschrift fehlen, können elektronische Dokumente grundsätzlich einfach und ohne Hinterlassen von Spuren manipuliert werden. Da sich zudem eine digitale bzw. digital manipulierte Kopie nicht von einem Original unterscheiden lässt, können Geschäftspartner weder sicher sein, dass ein digitales Dokument unverfälscht übermittelt wird, noch dass der vermeintliche Urheber mit dem wahren Urheber
identisch ist. Systemimmanente Funktionen zur Gewährleistung von Vertrauen fehlen heute noch weitgehend. Die Kommunikation im Internet kann man am besten mit einer Postkarte vergleichen, bei der jeder Hausmeister (sprich: der Administrator) aber auch ein anderer Unbefugter neugierige Blicke in den Briefkasten werfen oder sogar die Nachricht auf der Postkarte manipulieren kann. Deshalb müssen Verfahren zur Anwendung kommen, die sicherstellen, dass • •
• •
der Gegenüber auch derjenige ist, der er vorgibt zu sein ( I d e n t i f i z i e r u n g ) , Transaktionen und Nutzer einander eindeutig zugeordnet werden können {Authentifizierung), das, was er im Internet macht, auch wirklich will (Verbindlichkeit), alle Transaktionen auch wirklich verbrieft sind (Nachvollziehbarkeit).
Neben diesen sekundären Sicherheitszielen stellt E-Commerce vor allem auch hohe Ansprüche an die Vertraulichkeit: Daten und Informationen dürfen nicht an unbefugte Dritte gelangen. So werden für
Verschlüsselung und Digitale Signatur
Unbefugte Kenntnisnahme vermeiden
Nachricht/ Transaktion Urheberschaft verifizieren und V e r f ä l s c h u n g vermeiden
© Dr. Lutz Becker
(1993 • 1999) 3
177
Datensicherheit bestimmte Geschäftsprozesse Pseudonymität als Schutz vor namentlicher Identifizierung und Anonymität als Schutz gegen ungewollte Identifizierung gefordert. Wissenschaft und Industrie haben leistungsfähige Verfahren entwickelt, die die Probleme der Identifizierung und Authentisierung, der Vertraulichkeit und der Verbindlichkeit lösen. Mit kryptographischen Methoden, also mathematischen Verfahren zur Verschlüsselung von Daten und Informationen, können die oben beschriebenen Probleme weitgehend gelöst werden. Dabei sollte sehr sorgfältig zwischen Verfahren zur Gewährleistung der Unverfälschtheit und der Identifizierung des Absenders mittels Digitaler Signatur und dem "digitalen Umschlag", der Vertraulichkeit gewährleistet (Verschlüsselung), unterschieden werden. Beide Aspekte haben nur vordergründig und vor allem auf der technischen Ebene (Nutzung kryptographischer Verfahren) etwas gemein. Die Digitale Signatur soll die Identifizierung des Absenders und gegebenenfalls auch des Empfängers ermöglichen. Sie soll sicherstellen, dass degenige, der eine Nachricht verfasst, auch deijenige ist, der er zu sein vorgibt. Die Verbindlichkeit der Transaktion im Sinne einer Willenserklärung muss sichergestellt sein. Vereinfacht gesagt, müssen auch elektronische Bestellungen oder Überweisungen mit einem Absender versehen und unterschrieben werden, um rechtsgültig zu sein. Darüber hinaus soll die Digitale Signatur mittels eines Prüfsummenverfahrens sicherstellen, dass die Nachricht auf dem Transportwege oder beim Empfänger nicht manipuliert wird. Die Digitale Signatur schützt etwa davor, dass Rechnungssummen oder Kontonummern in einem elektronische Dokument geändert werden. Liegt eine Manipulation vor, kann dies anhand einer Digitalen Signatur 178
Datensicherheit - oder genauer gesagt mittels eines im Signaturprozess angewendeten Prüfsummenverfahrens - erkannt werden. In den Fällen, wo ein vertrauliches Dokument auf dem elektronische Wege verschickt aber gleichzeitig vor unbefugter Kenntnisnahme geschützt werden soll, muss auch ein digitaler Umschlag her. Der sollte so fest verschlossen sein, dass nur der Empfänger - aber keinesfalls ein Unbefugter - vertrauliche Informationen einsehen kann. In diesem Fall muss das Dokument so verschlüsselt - mittels sogenannter harter Kryptographie - werden, dass es nur vom Absender und einem ganz bestimmten Empfänger(kreis) gelesen werden kann. Geschäftspartner untereinander oder etwa ein Bankkunde und der Bankrechner identifizieren sich gegenseitig durch einen digitalen Identitätsbeweis und eine digitale Signatur, einen wirklich einmaligen kryptographischen Schlüssel. Erst wenn sich in diesem Verfahren die Parteien eindeutig gegenseitig identifiziert und anerkannt (authentisiert) haben, wird eine Transaktion ermöglicht. Die Kommunikation der Parteien und die Transaktion selbst können dann durch einen gegenseitig ausgehandelten einmaligen Sitzungsschlüssel verschlüsselt werden, den nur die beiden Teilnehmer, oder besser gesagt, ihre Systeme kennen und die auch im Internet geheim gehalten werden. Wie immer diese Verfahren aussehen, unter anderem müssen sie einfach - das heißt von jedem auch so unbedarften Nutzer - angewendet werden können, möglichst international akzeptiert sein und für unterschiedlichste Geschäftsvorfälle in den unterschiedlichsten Branchen und auf unterschiedlichsten Systemen geeignet sein. Es fehlen zur Zeit noch international verbreitete und anerkannte Verfahren und Infrastrukturen, die es Unternehmen und Konsumenten ermöglichen, sicher an elektronische Schlüssel zu gelangen.
Datensicherheit Derzeit gibt es unterschiedliche Konzepte Signaturen auszutauschen. Der auf den ersten Blick einfachste und heute vor allem in Hochschulkreisen verbreitete Weg, ist ein WEB of Trust, wie man es etwa aus der PGP Welt kennt. Mittels einer Software, wie Open-PGP ("Pretty Good Privacy"), wird ein Schlüsselpaar (jeweils eine Folge hexadezimaler Werte) bestehend aus einem geheimen Schlüssel - den der Nutzer auch tunlichst geheim halten sollte - und einem öffentlichen Schlüssel, der per E-Mail verschickt oder etwa auf bestimmten Uni-Servern oder neuerdings auch durch kommerzielle Dienstleister verbreitet wird. Allerdings hat dieses Verfahren zahlreiche Schwächen und ist für kommerzielle Anwendungen im Internet kaum praktikabel. Der aus Sicherheits- und Praktikabilitätsgründen beste Weg ist, eine intelligente Chipkarte (Smart Card) als Träger von Zertifikat und Schlüssel entsprechenden technischen und organisatorischen Infrastruktur zu verbinden. Während einfache Chipkarten, wie die Telefonkarte, nur dazu geeignet sind, Kleinstsummen abzubuchen, warten prozessorgesteuerte Chipkarten mit einem ganzen Sortiment an Funktionen auf. Man spricht deshalb auch von der multifunktionalen Chipkarte oder Smart Card. Ein typisches Einsatzfeld für Chipkarten sind Bankanwendungen, wie: Electronic Cash - bei dieser Form des bargeldlosen Zahlens, die den Bankkunden bereits von den Bankkarten her hinlänglich bekannt ist, wird online eine Verbindung zum Bankrechner hergestellt, die Bonität geprüft und eine Abbuchung vom Konto angestoßen. Durch einen Mikroprozessor kann diese Funktion auf einen wesentlich höheren Sicherheitsstandard gehoben werden. Darüber hinaus kann eine Mikroprozessor-besetzte Karte auch in einem PC oder Laptop für OnlineTransaktionen über das Internet genutzt werden.
Datensicherheit Electronic Purse - die elektronische Geldbörse wird an zentraler Stelle - oder gar auf dem privaten PC - mit einem bestimmten Betrag aufgeladen, um dann offline - ohne irgendwelche Kommunikationsverbindungen zur Bank aufzubauen - für Zahlungen verwendet zu werden. Vor allem aber - und das ist für den Electronic Commerce nicht minder entscheidend - kann sich ein Anwender mit einer solchen Chipkarte gegenüber einem beliebigen System identifizieren und authentisieren, eine elektronische Unterschrift abgeben, oder das Bahn- oder Flugticket ersetzen. Hierzu werden Karten mit einem sogenannten Kryptoprozessor eingesetzt, auf denen die für die Transaktion notwendigen Ver- und Entschlüsselungsmechanismen durchgeführt werden. Jedoch ist die intelligente Chipkarte allein nicht ausreichend, um in einer globalen Informationsinfrastruktur vertrauenswürdige Geschäftsprozesse zu etablieren. Entscheidend ist die Zuordnung einer Person oder ihrer Rolle in einem Geschäftsprozess. Um dies national und gar international sicherzustellen, werden derzeit Zertifizierungsinstanzen und -netzwerke aufgebaut. Es soll eine vertrauenswürdige Infrastruktur geschaffen werden, anhand derer Schlüssel für die Verschlüsselung von Kommunikation und zur Verifikation von Personen und ihrer elektronischen Unterschriften hinterlegt werden. Zur Überwindung des technisch implizierten Mangels an Vertrauenswürdigkeit bedarf es übergelagerter technischer wie organisatorischer Infrastrukturen, die Urheberschaft und Authentizität von Vorgängen sowie die Sicherheit, Vertraulichkeit, Integrität und Verbindlichkeit eines Geschäftsvorfalls gewährleisten können. Als Basis einer solchen Sicherheitsinfrastruktur fördert die internationale Gesetzgebung sogenannte Trusted Third Parties, neutrale und vertrauenswürdige Zertifi179
Datensicherheit zierungsinstanzen, die den ordnungsgemäßen elektronischen Geschäftsverkehr und somit ein Höchstmaß an Vertrauenswürdigkeit sicherstellen sollen. In einer komplexen Electronic Commerce Infrastruktur haben solche Zertifizierungsinstanzen eine überaus exponierte Stellung. Nur so können in der allseits offenen "All-to-All" Kommunikationsinfrastruktur des Internets, individuelle und vertrauenswürdige "One-to-One" Kommunikations- und Kommerzmodelle realisiert werden. Zertifizierungsinstanzen gewährleisten die eindeutige Zuordnung einer elektronischen Signatur und eines damit verbundene Zertifikates, das wesentliche Informationen über den Unterzeichnenden enthält, zu einer natürlichen oder juristischen Person. Vereinfacht gesagt, kann eine elektronische Nachricht - zum Beispiel eine Bestellung im Internet, eine -> E-Mail (elektronischer Brief) oder eine Datei mit Hilfe eines elektronischen Schlüssels signiert werden. Die Signatur soll - wie
Datensicherheit bereits erwähnt - die Unverfalschtheit des Dokumentes, die Urheberschaft sowie gegebenenfalls eine Willenserklärung des Absenders belegen. Das Trustcenter hat nun die Aufgabe, elektronische Signaturen und Zertifikate zu vergeben und der jeweiligen Person zuzuordnen. Im Geschäftsverkehr kann die elektronische Signatur mit Hilfe der Zertifizierungsinstanz verifiziert und gegebenenfalls mit zusätzlichen Informationen verknüpft werden. Darüber hinaus können ungültig gewordene Schlüssel und Zertifikate zurückgewiesen (Key Revocation) werden. In den Zertifizierungsinstanzen (unter anderem auch CA - Certification Authorities oder TC - Trust Center genannt) werden in einer Art Telefonbuch (Directory, Yellow Pages) bestimmte Unternehmens- bzw. Personendaten und ein elektronischer Identitätsbeweis für das Unternehmen bzw. die Person hinterlegt der jeweiligen Person wird eine elektronische Kennung und ein kryptographischer Schlüssel zugeordnet. Darüber hinaus
Vertrauenswürdige Geschäftsprozesse
TRUST CENTER Schlüsselgenerierung Zertifikatserstellung
J
(Datenbank, Directory..; Revocation
•"'^erifikationsprozeß*' Firma Mitarbeiter
^ßeschäftsprozeß^
Anwendungen
Mitarbeiter
Firma Anwendungen
© Dr. Lutz Becker (1993-193$
180
2
Datensicherheit
Datensicherheit stellt die Zertifizierungsinstanz bei Bedarf einen Zeitstempel zur Verfügung, der sicherstellen soll, dass eine Transaktion weder vor- noch rückdatiert werden kann. Ferner gibt es die Revocation List, in der ungültig gewordene - zum Beispiel missbrauchte - Schlüssel hinterlegt werden. Wirtschaftlichkeit: Es ist unumstritten, dass eine hundertprozentige Sicherheit weder technologisch noch wirtschaftlich realisierbar ist und nach menschlichem Ermessen auch nicht realisierbar sein wird. In diesem Sinne kann man Sicherheit so definieren, dass diese immer dann gegeben ist, wenn die verbleibenden Risiken als tragbar betrachtet werden können. Man unterscheidet dabei zwischen dem Betriebsrisiko, das sind Schäden, die bei bestimmungsgemäßer Verwendung des Systems entstehen können, dem Versagensrisiko - Schäden, die bei einem Störfall auftreten können - und dem Missbrauchsrisiko, also Schäden, die bei nicht bestimmungsgerechten Gebrauch auftreten können. Dabei werden Risiken
als eine Resultierende aus Schadenswahrscheinlichkeit und Schadenspotenzial (Schadensausbreitung und -höhe) betrachtet. Daher muss ein wirtschaftlich optimales Maß an Sicherheit gefunden werden, was auch die wirtschaftliche Bewertung von Risiken (wirtschaftlich akzeptables Restrisiko) beinhaltet. Versuche, dieses Maß zu bestimmen, sind bislang gescheitert, da es nicht gelungen ist, den Aspekt Datensicherheit ausreichend zu operationalisieren. So fehlt es an fundierten Methoden und Kenngrößen für die Bewertung und Budgetierung von Datensicherheit. Bislang gibt es daher allenfalls Faustregeln, die etwa besagen, dass 5-10% des ITBudgets notwendig sind, um ein angemessenes Maß an Sicherheit zu gewährleisten. Da aber der Sicherheitsbedarf von zahlreichen äußeren aber vor allem auch untemehmensspezifischen Einflussfaktoren, wie Branche, Mitarbeiter- und Organisationsstrukturen, Technologieausstattung, Image des Unternehmens, Geschäftsprozessen etc. abhängt, sind solche
Sicherheitsmanagement
• Passive Angriffe • Aktive Angriffe • Hacking/Internetattacken • Computerviren • Menschliches Versagen • Komplexitätsprobleme • Vertrauensbrüche
Sicherheitskonzept
A
• • • • •
Organisation Netzwerke/Schnittstellen Anwender Software Bauliche Infrastruktur • Betriebssysteme
'j^^ag^
•4
Kritische Geschäftsprozesse Kosten- und Wertanalyse Rationalisierungspotential Haftungskosten ideelle Werte "Innere Sicherheit"
Sicherheitssystem
^ICHERHEITSMANAGEMENT^ > Dr.
Lutz Bockt* ¡1883
1SSS) 1
181
Datensicherheit Faustregeln wie auch Grundschutzüberlegungen aus ökonomischer Sicht mit äußerster Vorsicht zu genießen. Umsetzung: Für die Gewährleistung von Datensicherheit ist ein unternehmensindividuelles Sicherheitsmanagement unabdingbar. Dies ergibt sich nicht zuletzt auch aus den Forderungen des -> KonTraG - Gesetz zur Kontrolle und Transparenz im Unternehmensbereich - bzw. § 91 Abs. 2 des AktG, der Maßnahmen und Überwachungssysteme fordert, "damit den Fortbestand der Gesellschaft gefährdende Entwicklungen früh erkannt werden." Das Sicherheitsmanagement steht auf drei Säulen. Der Sicherheitsanalyse, dem Sicherheitskonzept sowie dem Sicherheitssystem. Aufgabe der Sicherheitsanalyse ist es, individuell für ein einzelnes Unternehmen Bedrohungen und Schwachstellen zu analysieren und auf mögliche wirtschaftliche Effekte hin zu bewerten. Da die Sicherheit aber eine Resultierende aus gesellschaftlicher und vor allem technologischer Entwicklung ist, sind Querschnittsbetrachtungen (statische Sicherheitsanalyse) nicht hinreichend. Stattdessen muss die Sicherheitsanalyse permanent die relevanten Beobachtungsfelder abscannen und gegebenenfalls an die sich wandelnden Rahmenbedingungen angepasst werden (dynamische Sicherheitsanalyse/ Früherkennung). Aufbauend auf der Sicherheitsanalyse ist ein - ebenfalls dynamisches - Sicherheitskonzept zu entwickeln. Je nach Unternehmen sollte das Sicherheitskonzept mindestens folgende Elemente umfassen: Sicherheitsrelevanz der Geschäftsprozesse, räumliche Sicherheit (Physikalischer Zutritt, Brandschutz u.v.m.), Datensicherungskonzept (Back-Up und Recovery), Notfallkonzept, Datenschutzkonzept (im Sinne der Datenschutzgesetze, darüber hinaus Imageaspekte), Identifizierung und Authentisierung (z.B. Corporate Trust 182
Debitorenmanagement Center), Schutz vor Missbrauch durch interne Anwender (z.B. Verschlüsselung), Schutz vor externen Attacken (z.B. Firewalls), Schutz vor Contentattacken (wie Computerviren und Trojaner), Kommunikationspolitik (intern / extern), Organisation, Verantwortlichkeiten und Pflege (Servicekonzept), Wirtschaftlichkeitsbetrachtung (z.B. Budget). Darauf aufbauend wird ein unternehmensspezifisches Sicherheitssystem entwickelt. Grundsätzlich sollte die Sicherheit im System und nicht im Anwenderverhalten implementiert werden. Das Sicherheitssystem umfasst unter anderem das Management-System, Hard-und Softwarelösungen für Virenschutz, Verschlüsselung u. a. sowie ein Protokollierungs- und Auditierungssystem. Das Sicherheitssystem ist regelmäßig auf Funktionsfahigkeit, Angemessenheit und Wirtschaftlichkeit zu prüfen. Hierzu können regelmäßige Datensicherheits-Audits einen Beitrag leisten. Literatur: Becker, L.: Digitale Signaturen und die Institutionalisierung von Vertrauen; in: Gora, W./Mann, E.; Handbuch Electronic Commerce, Berlin/Heidelberg 1999; Becker, L.: Secure Commerce & Communication - Die kommerzielle Vision des Internet; in: Lange, Th. A., Internet Banking - Der Bankvertrieb im Umbruch, Wiesbaden 1998.
Lutz Becker Deal Flow Summe der an Venture Capitalists gerichteten Investitionsvorschläge, beispielsweise aus -> Business Plänen. Debitorenmanagement 1. Gegenstand, Bedeutung und Ziele Unter funktionalen Gesichtspunkten ist das Debitorenmanagement auf die Planung, Kontrolle und Steuerung der Forderungen des Unternehmens ausgerichtet. Neben dieser prozessualen Dimension obliegt es dem Debitorenmanagement Regelungen im Sinne der Disposition und Organisation des Kreditvergabeverhaltens des Unternehmens zu entwickeln (strukturelle Managementdimension). Weiterer
Debitorenmanagement
Debitorenmanagement Gegenstand ist die Führung der Mitarbeiter, die im Zusammenhang mit der Entstehung, Administration und Realisation von Forderungen tätig sind (personelle Dimension). Die wirtschaftliche Bedeutung dieses Managementbereichs ist aus dem Volumen der Vermögensposition Forderungen ableitbar. In der folgenden Tabelle 1 wird der Anteil der Forderungen an der Bilanzsumme in ausgewählten Wirtschaftszweigen aufgeführt.
Insolvenzen 1999
Durchschnittlicher
Land
(Veränderung zu 1998)
Zahlungseingang
Großbritannien
46.900 (+25 %)
59 Tage
Frankreich
41.800 ( - 2 4 % )
60 Tage
Deutschland
33.500 (-1,4%)
41 Tage
Italien
12.800 (-14,7%)
92 Tage
Österreich
8.900 (+21,6%)
48 Tage
8.500 (-4,0%)
41 Tage
7.300 (-20,7%)
31 Tage
Belgien
7.200 (+4,0%)
64 Tage
Niederlande
3.800 (-24,5%)
44 Tage
Schweiz Schweden
Wirtschaftszweig
F o r d e r u n g s b e s t ä n d e in % der Bilanzsumme
kurzfristig
langfristig
gesamt
Verarbeitendes Gewerbe
29,1
2,6
31,7
Baugewerbe
27,7
1,7
29,4
Großhandel u. Handelsvermittlung
43,4
2,5
45,9
Einzelhandel
24,7
2,1
26,8
Datenverarbeitung u. Datenbanken
35,7
11,4
47,1
Dienstleistungen
34,3
1,9
36,2
Tabelle 2: Insolvenzen und Zahlungsverhalten in ausgewählten Ländern Quelle: V e r b a n d der V e r e i n e C r e d i t r e f o r m e.V., Insolvenzen in E u r o p a 1999/2000, N e u s s 2 0 0 0
Tabelle 1: Forderungsbestände in ausgewählten Wirtschaftszweigen
Wesentliche Ziele, die das Debitorenmanagement im Sinne der Unternehmenszielsetzung anstreben sollte, sind: •
Optimierung der Administrations-, Finanzierungs- und Kreditsicherungskosten mit dem Ziel der Rentabilitätsbzw. Wertsteigerung des im Unternehmen gebundenen Kapitals,
•
Vermeidung von Forderungsausfällen mit dem Ziel der Risikooptimierung im Sinne sicherer Kapitalbindungen im Forderungsbereich unter Berücksichtigung des Umsatz- und Rentabilitätsstrebens,
•
Sicherung der Einzahlungen von Debitoren mit dem Ziel der Liquiditätsoptimierung zur Gewährleistung der Aufrechterhaltung der jederzeitigen Zahlungsfähigkeit des Unternehmens.
Quelle. D e u t s c h e B u n d e s b a n k , Verhaltniszahlen aus J a h r e s a b schlüssen w e s t - und o s t d e u t s c h e r U n t e r n e h m e n f ü r 1996, Statistische S o n d e r v e r ö f f e n t l i c h u n g 6, F r a n k f u r t a m Main 1999
Die finanzwirtschaftliche Effektivität des Unternehmens kann durch Etablierung eines aktiven Debitorenmanagements wesentlich verbessert werden, da Forderungen hohe Finanzkapazitäten binden und somit erhebliche Finanzierungskosten verursachen. Nicht zuletzt sind mit Forderungen Ausfallrisiken verbunden, die negativ auf den Erfolg des Unternehmens wirken. Die Bedeutung des Finanzierungs- und Insolvenzrisikos in ausgewählten europäischen Ländern wird grundlegend durch die Tabelle 2 ersichtlich.
Im Folgenden werden ausgewählte Funktionsbereiche des Debitorenmanagement aus Sicht der Unternehmenspraxis näher betrachtet.
183
Debitorenmanagement
Debitorenmanagement 2. Organisation Funktion des
und Disposition als Debitorenmanagement:
Gestaltung der Kreditvergabepolitik: Auf der Unternehmensgesamtebene sind Richtlinien über das Kreditvergabeverhalten zu gestalten. Diese Richtlinien müssen die gegebene -»Organisationsstruktur des Unternehmens berücksichtigen und gerade auch bei dezentralen Einheiten als verbindlicher Handlungsrahmen durchgesetzt werden. Es ist zu entscheiden, welcher Institution Kreditverantwortung übertragen wird und wer welche Kreditvergabekompetenzen (Vollmachten der Kreditgewährung) hat. Das grundlegende Problem dieser Aufgabenstellung besteht darin, dass die Kreditgewährung maßgeblich die Umsatztätigkeit des Unternehmens beeinflusst. Es besteht somit ein Zielkonflikt zwischen anzustrebenden Umsatz- und Sicherheitszielen. Da sich beide Einzelziele nicht simultan maximieren lassen, ist von der Unternehmensleitung eine Grundsatzentscheidung hinsichtlich der anzustrebenden Zielorientierung zu treffen. Entscheidungsaspekte, die es dabei zu berücksichtigen gilt, sind die jeweilige Markt- und Wettbewerbsposition, die Finanzierbarkeit von Forderungen sowie die Möglichkeit Forderungsrisiken auf andere Wirtschaftssubjekte (Kreditversicherung, Factor; s.a.
wenn auch entsprechende -> Cash-flows erzielt werden. Sofern eine Weisungsbefugnis des Kreditbereichs gegenüber dem Vertriebsbereich vermieden werden soll, erarbeitet das. -> Kreditmanagement auf der Grundlage einer umfassenden Bonitätsprüfung lediglich eine empfohlene Kreditlinie je Kunde. Als unzureichend haben sich in der Praxis Organisationsformen herausgestellt, bei denen der Vertrieb Kreditlinien prüft und autonom entscheidet. Als ursächlich dafür wird die im Vertriebsbereich vorherrschende Dominanz des Umsatzstrebens angesehen, wobei Sicherheitsaspekte nicht hinreichend berücksichtigt werden. Dispositive Entscheidungen des Debitorenmanagement: Im Lieferantenkreditbereich wird die Dauer der Kreditbeziehung maßgeblich determiniert durch die Zahlungskonditionen sowie die Aktivitäten nach Fälligkeit zur Realisation der Forderungen. Das Debitorenmanagement hat Vorgaben zur Disposition der Forderungen zu gestalten, auf die die ausführenden Ebenen Bezug nehmen können; hierbei handelt es sich insbesondere um folgende Problembereiche: •
Beurteilung und Überwachung der Bonität der Kreditnehmer Das Debitorenmanagement hat festzulegen, welche Informationen zu berücksichtigen und wie diese methodisch auszuwerten sind, um ein Bonitätsurteil über Einzelrisiken zu erstellen. In diesem Zusammenhang ist grundsätzlich über die Zusammenarbeit mit Wirtschaftsauskunfteien zu entscheiden. Um eine dynamische Bonitätsprüfung zu erreichen, sind Vorgaben für die Überwachung (Monitoring) der Kundenbonitäten zu entwickeln.
•
Bestimmung der Zahlungskonditionen und Kreditlimite: Die grundsätzlich möglichen Zahlungskonditionen sind vom Debitorenmanagement in Abstimmung mit
Factoring) abzuwälzen. Verbunden mit diesem Entscheidungsproblem ist die Frage, ob der Kreditbereich gegenüber dem Vertriebsbereich weisungsbefugt ist. International agierende Unternehmen haben diese Frage durch eine Kompetenzstärkung des Kreditbereichs gelöst. In diesen Unternehmen ist die Institution "Creditmanagement" geschaffen worden, die aufgrund der engen Verknüpfung mit der Liquiditätssituation oftmals mit der Funktion Finanzadministration ("Financial Administration") verbunden wird. Motiv für diese Aufgabenund Kompetenzzuweisung ist die Erkenntnis, dass Umsatztätigkeit nur dann zum Unternehmenserfolg beitragen kann,
184
Debitoren management dem Vertrieb zu definieren. Die Bedingungen für die Entscheidung maximal zulässiger Kredithöhen (Kreditlimite) je Einzelrisiko sind in diesem Zusammenhang festzulegen. •
•
•
Steuerung und Überwachung der Zahlungseingänge: Eine funktionstüchtige Überwachung der Einzahlungen aus dem Forderungsbereich ist wichtigste Grundlage für die Zielerreichung des Debitorenmanagement. Im Massengeschäft ist diese Anforderung nur durch den Einsatz von leistungsfähigen Informationssystemen möglich. Oftmals reichen die Grundfunktionalitäten von Standardsoftware nicht aus. Das Debitorenmanagement hat somit Vorgaben zur Weiterentwicklung der Systeme im Rechnungswesen zu entwickeln. Beurteilung und Bewertung von Kreditsicherungsinstrumenten: In Abhängigkeit von der wirtschaftlichen Stellung können Kreditgeber unterschiedliche Instrumente zur Absicherung der Forderungen realisieren. Im Bereich der Lieferantenkredite ist das übliche Sicherungsinstrument der Eigentumsvorbehalt. Praxiserfahrungen belegen, dass im Falle der -» Insolvenz eines Schuldners dieses Sicherungsinstrument nicht hinreichend ist. Das Debitorenmanagement ist somit gefordert alternative Strategien zur Absicherung der Einzelforderungen zu entwickeln. Soweit keine geeigneten Instrumente bei Vertragsverhandlungen durchsetzbar sind, ist zur Erhöhung des Sicherheitsgrades der Forderungen die Zusammenarbeit mit Kreditversicherungen erfo 1 gs wi rtschaftlich zu prüfen. Organisation und Durchführung des Mahn- und Inkassowesens: Das Verhalten des Unternehmens bei Zielüberschreitungen von Kunden ist eine weitere Grundsatzentscheidung des Debitorenmanagement. Es sind Richtlinien vorzugeben, wie und mit
Debitorenmanagement welchen Methoden säumige Zahler zu behandeln sind. Wesentlich dabei erscheint der Hinweis, dass das Debitorenmanagement grundsätzlich alternative Mahnstrategien mit dem Vertrieb abzustimmen hat. Auch sind alle administrativen Bereiche (z.B. Fakturierung, Kundendienst) dahingehend zu optimieren, dass dem Kunden keinerlei Ansätze geboten werden, um gerechtfertigt Zahlungen zu verweigern. Eine Analyse von Soll-IstAbweichungen bietet Anhaltspunkte zur Effizienzsteigerung in diesem Bereich. Ob eigene Mahnaktivitäten durch den Einsatz von Dienstleistungsunternehmen (Inkassounternehmen) wirkungsvoll zu ergänzen sind, ist unter wirtschaftlicher Perspektive zu prüfen. 3. Planung, Kontrolle und Steuerung der Forderungen: Das Forderungscontrolling unterstützt das Debitorenmanagement bei der Koordination des unternehmensweiten Forderungsbestandes. Um die oben angeführten Erfolgs-, Sicherheits- und Liquiditätsziele nicht zu gefährden, sind Forderungsbestände zu planen und zu kontrollieren. Wesentlich für die Steuerung der Forderungsbestände sind aktuelle und umfassende Informationen über die eigene Forderungsstruktur und das Zahlungsverhalten der Kunden. Das permanente Monitoring der Forderungsbestände macht aktuelle Entwicklungen deutlich und unterstützt das Debitorenmanagement um auf negative Entwicklungen rasch zu reagieren. Ohne eine systematische Informationsgrundlage werden problematische Veränderungen im Debitorenbestand zu spät wahrgenommen. Einige bewährte Kennzahlen zur Steuerung werden im Folgenden genannt. Sie sollten in periodischen Abständen in einem standardisierten Report zusammengefasst werden. 185
Debitorenmanagement Kennzahlen zur Struktur der Forderungen • Summe der Außenstände je Periode im In- und Ausland; • Außenständekonzentrationen auf Kunden, Branchen, Länder; • Außenstände nach Restlaufzeiten (Altersstruktur); • Außenstände in Risikoländern, Fremdwährungen; • Überfällige Forderungen; • Gesicherte und ungesicherte Forderungen. Kennzahlen zum Zahlungsverhalten • Forderungsausgleich nach Zahlungsarten (Lastschriften, Scheck, Überweisungen Wechsel); • Forderungsausgleich nach Zahlungsverhalten (Skonto, Ziel in Tagen); • Forderungsausgleich nach Zielüberschreitung (Tage); • Forderungsbestand nach Zahl der Mahnungen; • Forderungsbestand je Bonitätsklasse; • Durchschnittliches Zahlungsziel (DSO; days sales outstanding) je Kunde, Division, Vertriebsbereich und unternehmensweit. 4. Zusammenfassung In Zeiten steigender Forderungsbestände und hoher Insolvenzverluste im internationalen Bereich erlangt das Debitorenmanagement eine wichtige Stellung im Unternehmen. Als grundlegende Funktion dieses Managementbereichs wird die organisatorische Etablierung und Steuerung des Forderungsbereichs hervorgehoben. Aufgrund der engen Verbindung zum Absatzbereich sollten sämtliche Aktivitäten mit dem Vertriebsmanagement abgestimmt werden. Über den Ansatz des Forderungscontrolling ist das Management zeitnah über die Effizienz des Debitorenmanagement zu informieren. Literatur: Rödl, H./Weiß, B.: Insolvenzrisiken bei Geschäftspartnern frühzeitig erkennen und vermeiden, Eschborn 1995; Weiß, B.: Computerunterstütztes Forderungsmanagement - Schwachstellen und exemplarische Systemlösung, in: Meyer, H.B./Pütz, H.C. (Hrsg.): Forderungsmanage-
186
Deckungsbeitragsrechnung ment im Unternehmen. Sicherung von Außenständen im In- und Ausland, Losebl. Ausg., 8. Erg.Lfg., Bonn 1998; Weiß, B./Breitenfelner, R.: Die Organisation des Kreditmanagements, in: Meyer, H.B./Pütz, H.C. (Hrsg.): Forderungsmanagement im Unternehmen. Sicherung von Außenständen im In- und Ausland, Losebl. Ausg., 6. Erg.-Lfg., B o n n 1997
Bernd Weiß Debt-Rating -> Rating Décision Support Systems Entscheidungsunterstützende Systeme Deckungsbeitragsrechnung Ein Deckungsbeitrag ist der Differenzbetrag zwischen mindestens 2 Größen, von welchen in der Regel eine die definierte Erlösgröße und die andere(n) eine definierte Kostengröße(n) darstellt. Die Deckungsbeitragsrechnung stellt ein Ermittlungsverfahren zur Bestimmung der genannten Differenzbeträge dar. Der Standort der Deckungsbeitragsrechnung ist das Gebiet der Teilkostenrechnungen, die entwickelt wurden, um dem Management für kurzfristige Planungsund Steuerungsentscheidungen relevante Informationen zu liefern. Aggregierte Deckungsbeiträge haben einen mittelbaren Entscheidungsbezug (Anregungsfunktion), während differenzierte Deckungsbeiträge einen unmittelbaren Entscheidungsbezug (Bewertungsfunktion) haben. In der Regel werden Deckungsbeiträge als Bewertungsgröße produktbezogen berechnet, so dass sie vom Ansatz her auf produktbezogene Planungs- und Steuerungsentscheidungen gerichtet sind. In der betriebswirtschaftlichen Kostenrechnung sind bisher drei Ansätze der Deckungsbeitragsrechnung bekannt: (1) Deckungsbeitragsrechnung auf der Basis variabler (proportionaler, direkter) Kosten, (2) Deckungsbeitragsrechnung auf der Basis relativer Einzelkosten und (3) Deckungsbeitragsrechnung auf der Basis prozessbezogener Kosten.
Deckungsbeitragsrechnung
Deckungsbeitragsrechnung (1) Deckungsbeitragsrechnung auf der Basis variabler Kosten: Die Deckungsbeitragsrechnung auf der Basis variabler Kosten geht von der Grundaussage aus, dass fixe Kosten für kurzfristige Produktentscheidungen nicht entscheidungsrelevant sind und daher bei der Berechnung der Vorzugswürdigkeit (des Erfolgsbeitrags) eines Produkts keine Rolle spielen. In seiner gröbsten Form wird ein Deckungsbeitrag (DB) für die Produkteinheit (Stück) nach der Gleichung berechnet: DB pro Stück = Nettoerlös pro Stück variable Kosten pro Stück Etwas differenzierter lautet die chung: H-H = -r H-
Glei-
Bruttoerlös pro Stück variable Erlösschmälerungen pro Stück variable Sondereinzelkosten des Vertriebs pro Stück Nettoerlös pro Stück variable Vertriebsgemeinkosten pro Stück variable Herstellkosten pro Stück
= Deckungsbeitrag pro Stück (DB1 Ein positiver Deckungsbeitrag pro Stück drückt aus, dass das betrachtete Produkt einen Beitrag zur Deckung der fixen Kosten und des Erfolgs erbringt. Werden alle Deckungsbeiträge pro Stück mit den Absatzmengen des jeweiligen Produkts multipliziert und werden alle Produktdeckungsbeiträge zum Gesamtdeckungsbeitrag addiert, muss geprüft werden, ob dieser die fixen Kosten der Periode deckt: H=
Gesamt-Deckungsbeitrag fixe Kosten der Periode Erfolg der Periode (Nettoergebnis. kalkulatorischer Periodenerfolel
Übersteigt der Gesamt-Deckungsbeitrag die fixen Kosten, ergibt sich ein Periodengewinn, sonst ein Periodenverlust. Gelingt es andererseits, für die fixen Kosten der Periode mehrere Einflussbzw. Bezugsgrößen zu bestimmen (hier:
Produkte (I - V), Produktgruppen (A, B, C), Bereiche (1 und 2) sowie das Unternehmen) und lassen sich Teile der fixen Kosten auf diese Bezugsgrößen ohne Schlüsselungen gestuft zurechnen (aufspalten), ergibt sich das vereinfachte Schema der mehrstufigen Deckungsbeitragsrechnung auf der Basis variabler Kosten als Stück- und Periodenrechnung (vgl. Tab. 1). Die Höhe eines Deckungsbeitrags pro Stück drückt die Vorzugswürdigkeit einer Produkteinheit aus. Der Deckungsbeitrag pro Stück besitzt daher für die Planung des erfolgsoptimalen Absatzprogramms unmittelbare Entscheidungsrelevanz. Erwirtschaften einzelne Produkte positive Deckungsbeiträge pro Stück und lassen sich ihrer Produktgruppe gleichzeitig hohe Fixkostenanteile zurechnen, dann sagt z.B. ein relativ niedriger Deckungsbeitrag III, dass das Management eine gründliche Analyse der Produkt- und Produktgruppenfixkosten veranlassen muss. Diese kann sich auf den Personal-, Produktions-, Absatz- oder Investitionsbereich beziehen, je nachdem wo und in welcher Höhe der Fixkostenblock entsteht. Dabei ist ein Zurückfahren oder Aufgeben einzelner Produkte nicht ausgeschlossen. Diese Interpretation des Deckungsbeitrags III lässt erkennen, dass er keine Bewertungsfunktion eines Produkts, sondern eine Anregungsfunktion zu Verbesserungsmaßnahmen und daher nur eine mittelbare Entscheidungsrelevanz besitzt. (2) Deckungsbeitragsrechnung auf der Basis relativer Einzelkosten: Die Deckungsbeitragsrechnung auf der Basis relativer Einzelkosten geht davon aus, dass auch für fixe Kosten Einflussbzw. Bezugsgrößen gefunden werden können, in Bezug auf welche bestimmte Fixkostenanteile den Charakter von Einzelkosten bekommen. Diese Fixkostenanteile nennt Riebel "relative Einzelkosten" der jeweiligen Bezugsgröße. Die für einen bestimmten Entscheidungsfall for187
Deckungsbeitragsrechnung
Deckungsbeitragsrechnung
(3) Deckungsbeitragsrechnung auf der Basis variabler Prozesskosten: Eine Deckungsbeitragsrechnung kann auf der Basis variabler Prozesskosten aufgebaut werden. Dies ist dann möglich, wenn es sowohl für den direkten Fertigungsbereich als auch für den gesamten indirekten Verwaltungsbereich gelingt,
mulierbaren Bezugsgrößen lassen sich zu einer Bezugsgrößenhierarchie anordnen, welche zu einer entscheidungsbezogenen Kostenstruktur führt. Jeder Entscheidungstyp verlangt nach einer speziellen Bezugsgrößenhierarchie. Entscheidungsrelevante Kosten werden schließlich aus einer umfangreichen, nach Bezugsgrößen strukturierten, zweckneutralen Grundrechnung herausgezogen und in einer Auswertungsrechnung fiir den jeweiligen Entscheidungsfall verdichtet.
Bereiche Produkte Produktgruppen Bruttoerlös j e Produkteinheit - Erlösschmälerungen (20% für Rabatt und StückSkonti) rechnung Nettoerlös j e Produkteinheit Variable Kosten je Produkteinheit Stückdeckungsbeiträge je Produkteinheit Absatzmengen (Stück) Bruttoerlöse je Produktart - Erlösschmälerungen Nettoerlöse je Produktart - Variable Kosten je Produktart * Deckungsbeitrag / je Produktart - Produktfixkosten Deckungsbeitrag II Deckungsbeitrag II je Perioden- Produktgruppe rechnung - Produktgruppenfixkosten Deckungsbeitrag III Deckungsbeitrag III je Bereich - Bereichsfixe Kosten Deckungsbeitrag IV Deckungsbeitrag IV des Unternehmens - Unternehmensfixkosten Kalkulatorischer Periodenerfolg (Nettoergebnis) * gerundete Zahlen Tab. 1: Schema der mehrstufigen
188
•
•
stellenübergreifende Prozesse und Prozessbezugsgrößen (Einflussgrößen, driver) zu definieren, in Bezug auf jeden Prozess fixe und
1
I
2
II
42,50
20,00
III B 37,50
8,50
4,00
34,00
1 A
v
IV C 30,00
25,00
7,50
6,00
5,00
16,00
30,00
24,00
20,00
23,32
6,27
20,17
14,99
9,78
10,68
9,73
9,83
9,01
10,22
400 17.000,00 3.400,00 13.600,00 9.328,00
360 7.200,00 1.440,00 5.760,00 2.257,00
460 17.250,00 3.450,00 13.800,00 9.278,00
535 16.050,00 3.210,00 12.840,00 8.020,00
490 12.250,00 2.450,00 9.800,00 4.792,00
4.272,00
3.503,00
4.522,00
4.820,00
5.008,00
4.272,00 3.503,00 7.775,00
100,00 4.422,00 4.422,00
4.820,00 5.008,00 9.828,00
150,00 7.625,00 12.047,00
250,00 4.422,00
4.295,00 7.752,00
9.578,00 9.578,00 4.795,00 4.783,00
12.535,00 690,00 11.845,00 Deckungsbeitragsrechnung
auf der Basis variabler
Kosten
Deckungsbeitragsrechnung
Deckungsbeitragsrechnung • •
variable Kosten präzise abzugrenzen, für jede Prozesswiederholung variable Stückkosten zu bestimmen sowie Prozesskoeffizienten zu berechnen, die angeben, wie viele Wiederholungen eines Prozesses für die Bearbeitung eines Produkts erforderlich sind.
Soweit diese Anforderungen erfüllt werden, lassen sich jedem Produkt neben den Produkteinzelkosten (Materialeinzelkosten, Lohneinzelkosten, Sondereinzelkosten) variable Produktgemeinkosten als Prozesseinzelkosten zurechnen. Das Ergebnis dieser Zurechnung sind die variablen Stückkosten, mit welchen wiederum nach dem bekannten Verfahren der Deckungsbeitrag pro Stück kalkuliert werden kann. Für den Fall, dass Prozesse hierarchisch differenziert abgegrenzt werden (z.B. als stück-, losgrößen-, produkt- und unternehmensbezogene Prozesse), müssen die variablen Prozesskosten pro Stück entsprechend hierarchisch verfeinert berechnet werden. Es sei aber darauf hingewiesen, dass die bisher entwickelten —> Prozesskostenrechnungen bei der Berechnung der Prozesskostensätze erhebliche Anteile fixer Gemeinkosten proportionalisieren und damit sowohl gegen das Verursachungs- als auch gegen das Relevanzprinzip verstoßen. 4. Bedeutung: Deckungsbeiträge haben große Bedeutung, wenn sie als Gewichtungsgrößen für Entscheidungsvariablen in der Zielfunktion eines Entscheidungsmodells auftreten. Sie sind in dieser Bewertungsfunktion stets unmittelbar entscheidungsrelevant. Die Planung des deckungsbeitragsmaximalen Absatzprogramms ist ein derartiger Entscheidungsfall; er lässt sich wie folgt modellieren: A d
x < b x > 0 x —• Max!
Legende: X
A b d
=
Vektor der Absatzmengen Matrix der Produktionskoeffizienten Vektor der Begrenzungsgrößen (Restriktionen) Vektor der Deckungsbeiträge pro Stück
Sind im formulierten Entscheidungsmodell alle Funktionen in x linear, handelt es sich um ein Modell der linearen Planungsrechnung. Seine Lösung (z.B. nach dem Simplexverfahren) gibt an, von welchem Absatzgut unter den gegebenen Restriktionen wie viele Einheiten zu produzieren und zu vermarkten sind, wenn der Gesamtdeckungsbeitrag der Planperiode maximiert werden soll. Für die Formulierung dieses Entscheidungsmodells sind Deckungsbeiträge pro Stück unverzichtbar, da sie für die gewählte Zielvorstellung unmittelbar entscheidungsrelevant sind. Das beschriebene Entscheidungsmodell liefert als Nebenergebnis sog. Opportunitätskostensätze (Schattenpreise, Dualwerte -»Opportunitätskosten), die für weitere produkt- und kapazitätsbezogene Entscheidungsrechnungen hilfreich sind. Die Opportunitätskostensätze stellen hier Grenzdeckungsbeiträge pro Engpasseinheit dar und erlauben beispielsweise eine exakte Beurteilung der Vorzugswürdigkeit von Zusatzaufträgen. Ein Zusatzauftrag ist unter rein wirtschaftlichem Aspekt nur vorteilhaft (und sollte daher angenommen werden), wenn er selbst mehr Deckungsbeiträge erbringt, als er an Deckungsbeiträgen verdrängt. Die durch ihn verdrängten Deckungsbeiträge lassen sich jedoch nur berechnen, wenn die Opportunitätskosten pro Engpasseinheit und alle Produktionskoeffizienten des Zusatzauftrags fiir die Engpässe, die er durchläuft, bekannt sind. Die durch den Zusatzauftrag verdrängten Deckungsbeiträge werden ermittelt, indem für jeden beanspruchten Engpass der Produktionskoeffizient mit dem zugehörigen Opportunitäts-
189
Delphi-Methode
Deckungsbeitragsrechnung kostensatz multipliziert und über alle Engpässe die Summe der verdrängten Deckungsbeiträge, d.h. die Opportunitätskosten, berechnet wird. Sind die Opportunitätskosten des Zusatzauftrags höher als sein Deckungsbeitrag, ist er abzulehnen und umgekehrt, wobei Auswirkungen einer Ablehnung oder Annahme auf andere Aufträge und auf das Verhalten enttäuschter Kunden im Modell nicht berücksichtigt werden. Weitere Entscheidungsunterstützungen durch Deckungsbeiträge sind denkbar in der Preispolitik (Preisuntergrenzen), bei der Durchfuhrung von Break-evenAnalysen und bei der Bildung von Lenkpreisen. Auch die Entwicklung mehrdimensionaler Deckungsbeitragsrechnungen ist möglich, wenn z.B. fixe Kosten verschiedenen Bezugsgrößen nicht nur nacheinander, sondern auch nebeneinander zurechenbar sind. Literatur: Coenenberg, A.G. u.a.: Kostenrechnung und Kostenanalyse, 4. Aufl., Landsberg am Lech 1999; Kilger, W.: Flexible Plankostenrechnung und Deckungsbeitragsrechnung, bearb. durch Vikas K., 10. Aufl., Wiesbaden 1993; Kloock, J./Sieben, G./Schildbach T.: Kosten- und Leistungsrechnung, 7. Aufl., Düsseldorf 1993; Riebel, P.: Einzelkosten- und Deckungsbeitragsrechnung, 7. Aufl., Wiesbaden 1994; Scherrer, G.: Kostenrechnung, 3. Aufl., Stuttgart 1999; Schweitzer, M.: Prozeßorientierung der Kostenrechnung, in: Kötzle A. (Hrsg.): Strategisches Management, Stuttgart 1997, S. 85-101; Schweitzer, M./Friedl B.: Aussagefähigkeit von Kostenrechnungssystemen fur das programmorientierte Kostenmanagement, in: Seicht G. (Hrsg.): Jahrbuch für Controlling und Rechnungswesen 1994, Wien 1994, S. 65-100; Schweitzer, M./Trossmann E.: Breakeven-Analyse, Grundmodell, Varianten, Erweiterungen, 2. Aufl., Stuttgart 1998; Schweitzer,M./Küpper H.-U.: Systeme der Kostenrechnung, 7. Aufl., München 1998.
Marceil Schweitzer Deferred Compensation Cafeteria-Systeme Defínanzierung Rücklagen- und Ausschüttungsmanagement 190
Delphi-Methode Die Delphi-Methode ist eine Prognosetechnik, die eng mit der Kreativitätstechnik verwandt ist. Sie dient zur Ermittlung, Einschätzung und Bewertung von Expertenmeinungen zu einer erwarteten zukünftigen Entwicklung. Die Delphi-Methode ist nach dem Orakel der griechischen Antike benannt. Das Verfahren läuft in zwei Stufen ab. Zunächst werden ausgewählte Experten gefragt, wie sie die kommende Entwicklung eines bestimmten Sachverhaltes einschätzen. Dazu benutzt man einen geschlossenen Fragebogen, die Experten müssen ihre Bewertung also auf einer geschlossenen Skala von vorgegebenen Antwortmöglichkeiten abgeben. Die Fragebögen werden dann vom Auftraggeber statistisch ausgewertet. In einem zweiten Schritt legt man den selben Experten die Ergebnisse des Fragebogens vor. Besonderes Augenmerk gilt den Antworten, die deutlich vom Durchschnitt abweichen. Der Experte, der die "Außenseitermeinung" vertreten hat, wird um seine Einschätzung gebeten und soll seine abweichende Ansicht begründen. So kann das Unternehmen erkennen, ob eine uneinheitliche Einschätzung auf • •
• •
tatsächlicher Unsicherheit der Entwicklung, unterschiedlicher Bewertung der Entwicklung durch Experten mit gleichem Wissensstand, mangelnder Sachkenntnis des abweichenden Experten oder auf überlegener Sachkenntnis des abweichenden Experten beruhen.
Die Delphi-Methode setzt voraus, dass der Auftraggeber die relevanten Experten für das Untersuchungsfeld kennt und diese für die Mitarbeit gewinnen kann. Das Verfahren ist zeitaufwendig, personalintensiv und deswegen vergleichsweise teuer. Daher wird es im privatwirtschaftlichen Sektor nur von größeren Unternehmen eingesetzt. Auch hier eignet es
Delphi-Methode sich nur zur Ermittlung und Bewertung von Entwicklungen, die den Unternehmenserfolg auf Dauer nachhaltig beeinflussen. Delta-Hedge -> Hedging Deining Prize -> Qualitätsauszeichnungen Deming-Zyklus Kontinuierliche Verbesserung ist das zentrale Anliegen des Qualitätsmanagement. Deming stellt mit seinem Zyklus einen revolvierenden Prozess vor, wonach Qualitätsbemühungen in vier Phasen verlaufen sollten: •
•
• •
Plan: Maßnahmen zur Qualitätsverbesserung werden geplant und Ansatzpunkte der Maßnahmen identifiziert. Do: Die geplanten Maßnahmen sind im gesamten Unternehmen umzusetzen. Check: Die Maßnahmen werden auf ihre Wirksamkeit überprüft. Act: Ausgehend von den CheckErgebnissen werden eventuell notwendige Korrekturmaßnahmen eingeleitet.
Das erreichte Qualitätsniveau ist der Ausgangspunkt für ein erneutes Durchlaufen des Zyklus. Der Zyklus verläuft dabei auf zwei Ebenen: Ein äußerer Zyklus wird auf das gesamte Unternehmen angewendet, in seiner Do-Phase werden in einem inneren Zyklus lokale Detailmaßnahmen geplant, umgesetzt, kontrolliert und gegebenenfalls angepasst. Aufgrund der Anfangsbuchstaben der englischen Phasenbezeichnung wird der Deming-Zyklus auch PDCA-Zyklus genannt Descending Auction -> Internet-Auktionen
Desktop Purchasing Designated Sponsor Den Designated Sponsors kommt eine besondere Bedeutung im Zusammenhang mit der Bildung des SMAX zu: Wollen kleinere börsennotierte Unternehmen in den SMAX, müssen sie ein Kreditinstitut oder ein Finanzdienstleistungsunternehmen als sogenannten "Designated Sponsor in Xetra" beauftragen. Das sind Betreuer, die einen reibungslosen Ablauf des Handels garantieren sollen. Der Designated Sponsor ist dafür zuständig, verbindliche Kauf- und Verkaufsangebote in das elektronische Orderbuch von Xetra zu stellen. Findet sich zum offiziellen Tageskurs kein Käufer, übernimmt die Bank das Geschäft. Dadurch soll die Liquidität des betreuten Werts erhöht werden, damit auch kleine Werte jederzeit handelbar sind. Desintegration, Desinvestition Unternehmensspaltung Desktop Publishing Beim Desktop Publishing wird ein Schriftstück am Arbeitsplatz (Desktop) auf dem Bildschirm eines Computers dem Mitarbeiter zur Bearbeitung bereitgestellt. Die Weiterleitung kann dann per Workflow (-> Workflow-Management), durch das lokale Netz (-> LAN) erfolgen. Die Vorteile des Desktop-Publishing liegen in der einfachen Handhabung sowie der Zeit- und Kostenersparnis. Desktop Purchasing Desktop Purchasing Systeme dienen der unmittelbaren -> Beschaffung von geringwertigen (Bürobedarfs-) Gütern durch den Mitarbeiter. Per -* Internet oder Intranet können z.B. Stifte direkt bestellt werden. Bestellungen werden eventuell automatisch noch hausintern gebündelt und werden dann an den Lieferanten weitergereicht. Durch dieses Vorgehen sind enorme Einsparungen im Beschaffungswesen erzielbar, Bestellvorgänge laufen schneller ab; so dauert der übliche Bestellvorgang laut Aberdeen Group über 7 Tage, kann aber durch ein DPS auf zwei Tage gesenkt werden. 191
Dienstleistungskalkulation
Desktop Purchasing Anforderungen an ein DPS sind: • •
•
• •
Abdeckung eines möglichst breiten Produktbereichs. Einbindung verschiedener Lieferanten in die Datenbasis, den sog. Lieferanten-Katalog. Leichte Navigation zwischen den Angeboten verschiedener Lieferanten, evtl. Unterstützung durch eine "Angebot-Vergleichsfunktion". Sicherheit des Bestellvorgangs muss gewährleistet sein. "Tracking" von Bestellvorgängen.
DPS sind in der Regel direkt mit Portalen oder ~> Marktplätzen verbunden, da so eine größere Angebots- und Nachfragemasse zusammengeführt werden kann. Anbieter von DPS sind z.B. Ariba, CommerceOne und BuyerXpert.
währt, das zumindest im Bereich der unmittelbaren Wertschöpfung bei der Produkterstellung mit einer leistungs- und prozessorientierten Bezugsgrößenkalkulation dem geforderten Verursachungsund Identitätsprinzip gerecht wird. Es war naheliegend, bei ähnlichen Aufgabenstellungen des Dienstleistungsbereiches auf die in der Industrie gewonnenen Erfahrungen zurückzugreifen. Folgende wichtige Voraussetzungen (Plaut 1953) wurden daher als Grundlage der Dienstleistungskalkulation übernommen: • • • • •
Dienstleistungskalkulation 1. Entwicklung und heutiger Stand der Dienstleistungskalkulation Betrachtet man den volkswirtschaftlichen Wandel der letzten Jahre, der in den Ländern der Triade den Anteil des tertiären Sektors am Bruttosozialprodukt rasant ansteigen ließ - inzwischen wird in den USA bereits die 70% Marke erreicht - so wird die Bedeutung eines für diese Bereiche maßgeschneiderten Kostenrechnungssystems leicht verständlich.
• • •
detaillierte Kostenstellengliederung; Wahl der richtigen Leistungs-Bezugsgrößen; Innerbetriebliches Festpreissystem; Festlegung einer Planbeschäftigung nach dem Engpass-Prinzip; Analytische Kosten- und Leistungsplanung, verbunden mit einer Kostenauflösung; Aufbau aussagefähiger Soll-Ist-Vergleiche der Kostenstellen; Plankalkulationen für alle Produkte mit repetitivem Charakter; Vertriebssteuerung mit Deckungsbeiträgen.
Die besonderen Spezifika des Dienstleistungsbereiches, wie Immaterialität der Leistungserstellung, fehlende Speichermöglichkeit, daher gleichzeitige Verwertung im unmittelbaren Kundenkontakt und deren Auswirkungen auf die Kostenstruktur - hohe Bereitschaftskosten bei stark schwankender Inanspruchnahme und das Qualitätsmanagement - jeder Fehler wird unmittelbar für den Kunden spürbar - fordern spezifische Lösungen, die im traditionellen industriellen Rechnungswesen nicht verfügbar waren.
Auf dieser Basis wurde die Dienstleistungskalkulation als ein Instrument zur Planung und Steuerung von immateriellen Prozessen entwickelt. Sie wurde zunächst als "Vorgangskalkulation" (Vikas 1988) beschrieben, in einem gemeinsamen Projekt mit dem Softwarehersteller SAP zur "Dienstleistungskalkulation" entwickelt und als "Dienstleistungskostenrechung" (Bungenstock 1995) ausführlich gewürdigt. Zunächst für reine Dienstleistungsunternehmen entwickelt, kommt dem Verfahren inzwischen auch in Industrieunternehmen als Instrument des Prozesskostenmanagements für die stets wachsenden indirekten Leistungsbereiche gesteigerte Bedeutung zu.
Dort hat sich im deutschsprachigem Raum das System der Grenzplankostenund -> Deckungsbeitragsrechnung be-
Parallel dazu wurde in den USA ein Verfahren des Activity Based Costing (ABC) (Johnson/Kaplan 1987) propagiert, das
192
Dienstleistungskalkulation
Dienstleistungskalkulation
sich international rasch durchsetzte. Trotz vieler Gemeinsamkeiten des Ansatzes bestehen gewichtige Unterschiede zur Dienstleistungskalkulation, von denen insbesondere die reine Vollkostenbetrachtung des ABC, die pragmatische Top-down-Verteilung von Kostenstellenkosten auf die Prozesse, sowie die fehlende Integration - one cost accounting system is not enough - hervorgehoben werden müssen.
sowohl hinsichtlich der für die einzelnen Tätigkeiten zu planenden Ressourcen als auch hinsichtlich einer Kostenauflösung in leistungsproportionale und zeitabhängige Bestandteile. Leistungsstandards je Kostenstelle und Tätigkeit bilden das Ergebnis. Werden diese Standards nun mit den erwarteten Verkehrsmengen des Planungszeitraumes multipliziert, ergibt sich daraus die Planbeschäftigung der Kostenstelle.
2. Wesentliche Bausteine der Dienstleistungskalkulation Die Dienstleistungskalkulation als ein Instrument des Prozesskostenmanagements ist nicht nur ein statisches Planungsinstrument sondern auch ein dynamisches, der periodischen Abrechnung dienendes Konzept, das in ein klassisch geschlossenes System der controllingorientierten Leistungs- und Kostenrechnung voll integriert wird.
Für die periodische Abrechnung sind für diese Prozesskostenstellen Leistungserfassungen einzurichten, in denen die monatlichen Ausbringungsmengen der unterschiedlichen Teilprozesse und Prozesse (Cost Driver) für die Bildung flexibler Bezugsgrößenmengen bereitgestellt werden. Diese wieder führen zu monatlichen Sollkosten als Grundlage für den Soll-IstKostenvergleich zum Zwecke der Kontrolle des Ressourceneinsatzes.
In der Kostenartenrechnung treten noch keine Besonderheiten auf, wenn man von der strikten Forderung nach perioden- und leistungsgerechten Abgrenzung des Kostenanfalls, insbesondere der Personalkosten, absieht.
Als Objekte der Kostenträgerrechung dienen die erwähnten Teilprozesse und Prozesse, die in der Regel abteilungsübergreifend in Form von Prozessketten dargestellt werden müssen. Die geplanten Ausbringungsmengen - als Cost Driver messbar gemacht - werden mit den Leistungsstandards (s.o.) multipliziert und so der Ressourcenbedarf der am Prozess beteiligten Kostenstellen ermittelt. Um die meist angestrebten Rationalisierungserfolge zu erzielen, ist dieser analytische Ansatz (bottom up) unerlässlich. Das unkritische Divisionsverfahren (top down), bei dem die Kostenstellenkosten auf die einzelnen Cost Driver verteilt werden, kann nicht empfohlen werden. Mit den aus der Kostenstellenrechnung gewonnenen Kostensätzen der an den Prozessen beteiligten Kostenstellen kann nun der jeweilige Ressourceneinsatz bewertet werden, so dass für die einzelnen Teilprozesse und Prozesse eine vollständige Kalkulation vorliegt, die nach den Ergebnissen der Kostenauflösung sowohl leistungsabhängige als auch zeitabhängige Kosten der am Prozess beteiligten
Bei der Kostenstellengliederung und Bezugsgrößendefinition sind wichtige Entscheidungen für die weiteren Verrechnungswege zu treffen. Dies sind bei primären Kostenstellen •
•
•
mit repetitiven Leistungen - häufig zwischen 50 und 70% des Kostenvolumens im Betriebsbereich - der Weg über Teilprozesse und Prozesse, mit kreativen, zumindest nach Zeitaufwand messbaren Leistungen, der Weg über eine Projektabrechnung und ohne messbare Leistung der W e g in die stufenweise, mehrdimensionale Deckungsbeitragsrechnung (Riebel 1994).
Die Kostenplanung der Stellen mit repetitiven Leistungen basiert auf den Ergebnissen einer nach arbeitstechnischen Grundsätzen vollzogenen Prozessanalyse
193
Dienstleistungskalkulation Kostenstellen, allerdings in einem getrennten Ausweis, enthält. Die Konsistenz dieser Kalkulationsdaten wird in einem monatlichen Herstellkosten-Soll-Ist-Vergleich auf Ebene der beteiligten Kostenstellen überprüft, der auch die Grundlage des Produktkosten/Leistungscontrolling darstellt. Für den Ausweis der Prozesskosten in der Ergebnisrechnung gibt es grundsätzlich zwei Möglichkeiten: •
•
Kosten der Prozesse, die direkt mit der fakturierten Leistung in Zusammenhang stehen, fuhren mit den zugehörigen Erlösen unmittelbar zu einem ersten Deckungsbeitrag, wobei zwischen einem DB 1 a (nur mit leistungsabhängigen Kostenberechnet) und einem DB lb ( einschließlich der zeitabhängigen Kosten) unterschieden werden kann Kosten von Prozessen, die zwar nicht mit der fakturierten Leistung, jedoch mit anderen Bezugsobjekten, wie Kunden, Kundengruppen oder Produkten, Produktgruppen in Zusammenhang stehen, werden diesen zugeordnet und in einer stufenweisen, mehrdimensionalen Deckungsbeitragsrechung ausgewiesen
Damit kann ein aussagefahiger Deckungsbeitrags-Soll-Ist-Vergleich als Grundlage des Vertriebscontrolling monatlich erstellt werden. 3. Dienstleistungskalkulation und Controlling Der Nutzen dieses Konzeptes liegt einerseits in einer objektivierten Unterstützung der Steuerung der Ressourcen, insbesondere des Personals, und im transparenten Nachweis der durch die einzelnen Dienstleistungen verursachten Kosten. Weitere Nutzanwendungen können sein • •
Personalkostensenkung durch Ablaufund Strukturoptimierung Leistungsabhängige und flexible Personaleinsatzsteuerung
194
Dienstleistungskalkulation •
Bewertung von Prozessen und Teilprozessen zur Entscheidungsunterstützung (make or buy)
Erst mit diesem Instrument ist man in der Lage, auch immaterielle Leistungen prozesskonform zu bewerten und damit nicht nur im reinen Dienstleistungsuntemehmen die erforderlichen Kalkulationsgrundlagen verfügbar zu machen, sondern auch in Industrieunternehmen die immer wichtiger werdenden Komplexitätskosten im Bereich der Logistik und der Kundenbeziehungen gezielt zu managen. Ein willkommener Effekt nach der führung derartiger Systeme ist der zicht auf die immer im Zentrum der tik stehenden Kalkulationszuschläge Umlagen, die der Akzeptanz des chenwerkes schaden.
EinVerKrioder Re-
4. Dienstleistungskalkulation und Datenverarbeitung Bei einigen hundert Prozessen, Teilprozessen und meist Tausenden von Tätigkeiten ist eine Realisierung des beschriebenen Konzeptes ohne Unterstützung durch leistungsfähige Informationstechnologie nicht vorstellbar. Wie üblich entstanden zunächst Insellösungen, die in Form von Prozessdatenbanken die erforderlichen Informationen über Prozessstrukturen und den daran beteiligten Kostenstellen einschließlich der Verwaltung der Leistungsstandards übernahmen. (z.B. ARIS-Promt von IDS Prof. Scheer). Die fehlende Integration in eine geschlossene, abstimmbare Lösung behinderte hier eine weite Verbreitung. Der nächste Schritt war die Ablösung von individuellen, maßgeschneiderten Anwendungsprogrammen durch leistungsfähige Standard-Softwaresysteme. Das Projekt der SAP zur Entwicklung eines Moduls "Dienstleistungskalkulation" innerhalb der Produktfamilie R/2 war umfassend angelegt und betriebswirtschaftlich anspruchsvoll. Es wurde bei einigen großen Finanzdienstleistern eingesetzt,
Dienstleistungskalkulation kam aber im Lebenszyklus der R/2 Systeme zu spät, um erfolgreich zu sein. Erst mit der Entwicklung des Moduls COABC (Activity Based Costing) im Rahmen eines Entwicklungsprojektes in den USA im Jahre 1997 wurde der Durchbruch erreicht. Damit steht nun ein integriertes Lösungskonzept zur Verfügung, das allen genannten betriebswirtschaftlichen Anforderungen einer Dienstleistungskalkulation gerecht wird. Neben dem Zugriff auf im Industriebetrieb unmittelbar kalkulationsrelevante Größen, wie Stücklisten und Arbeitsplänen stehen somit auch Daten aus Logistik und anderen Komponenten zur Verfugung. Neben der damit verbundenen Verkürzung und Verbilligung derartiger Projekte wurde damit auch der Lösungsansatz - unter der inzwischen populären Bezeichnung "Activity Based Costing" - allgemein zugänglich. Die internationale Verbreitung dieses Gedankengutes durch die am Weltmarkt fuhrende Anwendungssoftware der SAP ist vorprogrammiert. 5. Ausblick Nachdem kein Zweifel besteht, dass einerseits der Dienstleistungsbereich weiterhin an Bedeutung gewinnen wird, andererseits auch die indirekten Leistungsbereiche der Industriebetriebe einen immer höheren Stellenwert erhalten, werden die dargestellten Ansätze der Dienstleistungskalkulation in der Praxis weiteren Raum und weitere Verbreitung finden. Die zunehmende Durchdringung aller betrieblichen Abläufe und Prozesse durch die Informationstechnologie, der Einsatz von Work Flow Systemen zur Normung und Systematisierung administrativer Abläufe und die Ergebnisse von Restrukturierungen von Geschäftsprozessen werden die Voraussetzungen für einen effizienten Einsatz dieser Planungs- und Steuerungsverfahren schaffen. Damit wird die Transparenz dieser Kostenblöcke und die Aussagefähigkeit von Ergebnisin-
Dienstleistungsmanagement formationen im Dienstleistungsbereich überhaupt erst möglich und in der Industrie spürbar verbessert. Literatur: Bungenstock, Ch.: Entscheidungsorientierte Kostenrechnungssysteme, Wiesbaden 1995; Johnson, Th.: Relevance Lost - The Rise and Fall of Management Accounting, Boston 1987; Kilger, W.: Flexible Plankostenrechnung und Deckungsbeitragsrechnung. 10. Aufl., vollst. Überarb. und erw. von Kurt Vikas, Wiesbaden 1993; Plaut, H G.: Die Grenz-Plankostenrechnung, in: ZfB 23.Jg., 1953; Riebel, P.: Einzelkosten- und Deckungsbeitragsrechnung. 7., Überarb. und wes. erw. Aufl., Wiesbaden 1994; Vikas, K.: Controlling im Dienstleistungsbereich mit Grenzplankostenrechnung, Wiesbaden 1988; Vikas, K.: Neue Konzepte für' das Kostenmanagement. Controllingorientierte Modelle für Industrie- und Dienstleistungsuntemehmen, 3., Überarb. und wes. erw. Aufl., Wiesbaden 1996.
Kurt Vikas Dienstleistungsmanagement Das Dienstleistungsmanagement umfasst die Planung, Durchfuhrung und Kontrolle von Maßnahmen zur Erstellung von Dienstleistungen sowie zur Sicherstellung dienstleistungsorientierten Verhaltens. Dabei ist zwischen institutionellem, funktionalem und intentionalem Dienstleistungsmanagement zu unterscheiden. Das institutionelle Verständnis betrifft das Management von Dienstleistungsunternehmen (wie Hotels). Demgegenüber betont das funktionale Verständnis die Managementanforderungen, die sich branchenübergreifend aus den konstitutiven Merkmalen von Dienstleistungen ergeben. Dazu zählen vor allem Intangibilität (Nichtgreifbarkeit) und Integrativität (Kundenbeteiligung). Intangibilität besagt, dass Dienstleistungen nicht physisch präsent sind, Integrativität, dass sich Kunden an der Leistungserstellung beteiligen. Dabei ist es gleichgültig, ob es sich um die Kernleistung von Dienstleistungsunternehmen, um angebotsbegleitende Dienstleistungen von Sachgüterunternehmen oder untemehmensintern erstellte Dienstleistungen handelt. In intentionaler Hinsicht umfasst Dienstleistungsmanagement alle Bemühungen, unterneh-
195
Dienstleistungsmanagement
Dienstleistungsmanagement mensintern Dienstleistungsorientierung im Sinne einer grundlegenden Bereitschaft, dem Kunden zu dienen, zu verwirklichen. Intentionales und funktionales Dienstleistungsmanagement haben branchenübergreifende strategische und operative Implikationen. 1. Strategisches Dienstleistungsmanagement Die wesentliche strategische Aufgabe des intentionalen Dienstleistungsmanagements besteht in der Schaffung, Entwicklung und Aufrechterhaltung einer dienstleistungsorientierten -»Unternehmenskultur. Dazu bedarf es der Aufnahme der Dienstleistungsorientierung als zentralen Wert in die Unternehmensphilosophie und deren konsequente Umsetzung. Dies erfolgt u.a. durch eine Vorbildfunktion der Führungskräfte, eine flache -» Organisationsstruktur, -» Teamstrukturen sowie ein hohes Maß an Delegation. Im Mittelpunkt des funktionalen leistungsmanagements steht die gung des Integrativitätsgrades. sind Entscheidungen hinsichtlich cher, zeitlicher, funktionaler und Dimensionen zu fällen.
DienstFestleHierbei räumlisozialer
In Bezug auf die räumliche Integration steht zur Wahl, ob der Kunde den Dienstleister oder der Dienstleister den Kunden aufsuchen soll bzw. ob die Dienstleistung raumüberwindend durch den Einsatz von Kommunikationsmedien (z.B. Telefon) erstellt werden soll. In zeitlicher Hinsicht ist zu beachten, dass beteiligte Kunden selbst Zeit einsetzen, so dass Dienstleistungen Zeitverwendungsangebote darstellen. Dabei liegt ihr Nutzen entweder darin, dem Kunden Zeit zu sparen (wie Express-Reinigungen) oder eine attraktive Zeitnutzung zu ermöglichen (wie ein Konzert). Bei Zeitsparangeboten bestehen strategische Alternativen u.a. darin, dass eine Spezialisierung in Bezug auf Schnelligkeit gewählt wird
196
oder eine Kopplung zeitlicher Qualitätsund Preisdifferenzierung erfolgt. Funktional ist das Ausmaß festzulegen, in dem sich Anbieter und Kunde an der Leistungserstellung beteiligen. Die Spannweite reicht von der autonomen Erstellung durch den Anbieter bis zur weitgehenden Übertragung der Leistung auf den Kunden (Selbstbedienung). Die Chancen für eine Erhöhung der Kundenleistung (Externalisierungsstrategie) hängen vor allem von Bereitschaft und Fähigkeit des Kunden ab. Bezüglich der sozialen Dimension geht es um die Fixierung des Interaktionsgrades als Anteil der persönlichen Interaktion an der Leistungserstellung. Mit einer Reduzierung des Interaktionsgrades durch Automatisierung ist eine stärkere Standardisierung und die Sicherung einer gleichbleibenden Qualität verbunden, aber auch ein Verlust an Individualisierung mit möglichen negativen Effekten auf die -> Kundenbindung. 2. Operatives Dienstleistungsmanagement Die Merkmale einer Dienstleistung und die strategischen Grundentscheidungen haben Folgen für eine Vielzahl von Aktivitäten, die man folgenden Managementbereichen zuordnen kann. •
Tangibilitätsmanagement: Aus der Intangibilität ergibt sich für Unternehmen das Problem, den nicht greifbaren Kundennutzen zu kommunizieren. Insofern müssen vor allem Markierung und Werbung geeignete tangible Surrogate finden. Dazu gehört zum einen die Wahl von Kontaktelementen als Träger der Markierung (z.B. Ausrüstung, Mitarbeiter). Zum anderen gilt es, in Logo und Werbegestaltung tangible Elemente einzusetzen, die vom Kunden als Symbol des intangiblen Nutzen interpretiert werden (z.B. Fels als Symbol der Sicherheit für eine Versicherung).
Dienstleistungsmanagement
Dienstleistungsmanagement •
•
Umfeldmanagement: Wird die Dienstleistung beim Anbieter erstellt, kommt der Kunde mit den dort wahrnehmbaren tangiblen Elementen in Kontakt. Dieses physische Umfeld bestimmt nachhaltig den Qualitätseindruck des Kunden. Zudem beeinflusst es das Kundenverhalten (z.B. Verweildauer, Effizienz der Mitwirkung), das Verhalten der Mitarbeiter (z.B. Leistungsniveau) und die Interaktionen zwischen den Kontaktpartnern. Insofern ist es Aufgabe des Umfeldmanagements, das physische Umfeld so zu gestalten, dass die angestrebte Qualitätsposition kommuniziert sowie Kunden und Mitarbeitern eine effiziente Aufgabenerfüllung ermöglicht wird. Als Gestaltungselemente kommen Umgebungsbedingungen (wie Temperatur), funktionelle Raumelemente (wie Möblierung) und Zeichen (wie Hinweisschilder) in Betracht. Zeitmanagement: Da Dienstleistungskonsum vom Kunden Zeiteinsatz verlangt, gilt es, seine Zeitausgaben und Zeitstrukturen zu ermitteln und zu optimieren sowie dessen Zeitwahrnehmung zu beeinflussen. Bei der Ermittlung der Zeitausgaben sind nicht nur die Zeiten der Leistungserstellung (Transaktionszeiten) zu berücksichtigen, sondern auch die Transferzeiten für die Überwindung der räumlichen Distanzen, Abwicklungszeiten für die Erledigung vorund nachgelagerter Aktivitäten (z.B. Check-In) und Wartezeiten. Ein wesentlicher Ansatzpunkt des Zeitmanagements liegt darin, die nicht der Transaktion dienenden Zeiten zu minimieren (z.B. durch Terminvereinbarungssysteme). Zudem sind interne Zeitstrukturierungen auf Nachfragerbedürfnisse abzustimmen (z.B. durch Öffnungszeiten). Sollten sich Wartezeiten nicht grundsätzlich verhindern lassen, ist zudem die negative subjektive Zeitwahrnehmung des Kunden
abzuschwächen (z.B. durch Informationen und Unterhaltungsmöglichkeiten). •
Personalmanagement: Sofern die Produktion der Dienstleistungen in persönlicher Interaktion zwischen Mitarbeitern und Kunden erfolgt, beeinflusst das Mitarbeiterverhalten entscheidend die Qualitätswahrnehmung. Deshalb ist dafür zu sorgen, dass Mitarbeiter nicht nur über die erforderliche fachliche Qualifikation, sondern auch über eine dienstleistungsorientierte Einstellung und die Fähigkeit zur erfolgreichen Bewältigung von Kundenkontaktsituationen verfügen. Hierfür steht eine Reihe von Instrumenten zur Verfügung. Erstens sind die klassischen personalpolitischen Instrumente (wie Personalauswahl oder Entlohnung; —• Entgeltmanagement) dienstleistungsorientiert einzusetzen. Zweitens bedarf es der Aufwendung von Methoden der internen Kommunikation zur Vermittlung von Kenntnissen und Fähigkeiten. Drittens erhalten externe Marketinginstrumente eine personalpolitische Dimension, wenn sie sich auch an die Mitarbeiter wenden (z.B. Werbung unter Bezugnahme auf Mitarbeiterqualitäten).
•
Kundenmanagement: Eine effiziente Leistungserstellung impliziert auch Anforderungen an den beteiligten Kunden. Er hat z.B. Informationen bereitzustellen, Geräte zu bedienen und Rollenerwartungen zu erfüllen. Daher bedarf es eines Kundenmanagements im engen Sinne einer Steuerung des Kundenverhaltens in der Kontaktsituation. Damit ist der Kunde vor, während und nach der Leistungserstellung mit Hinweisen über den üblichen Ablauf des Erstellungsprozesses, seine Rolle darin und das von ihm gewünschte Verhalten zu versorgen. In einem weiten Sinne von Kundenmanagement als Gestaltung von Ge197
Dienstleistungsqualität
Dienstleistungsmanagement
lisiert. Damit wird eine Sequenz von Kontaktpunkten aus Kundensicht mit den jeweiligen Interaktionen identifiziert. Eine Sichtbarkeitslinie macht zudem kenntlich, welche Bereiche des Leistungserstellungssystems für den Kunden wahrnehmbar sind. Auf diese Weise besteht die planerische Basis für eine zielgerechte Koordination der Prozesse zwischen Kundenkontaktund Unterstützungsbereichen.
schäftsbeziehungen ist zu beachten, dass sich Dienstleistungskonsum meist nicht auf Einzeltransaktionen beschränkt, sondern innerhalb langfristiger Beziehungen erfolgt. Daher gehört es zu den bedeutsamen transaktionsübergreifenden Aufgaben des Dienstleistungsmanagements, stabile Beziehungen aufzubauen, zu entwickeln und zu halten. •
•
Kapazitätsmanagement: Eine unmittelbare Folge aus der Integrativität ist, dass viele Dienstleistungen im Moment des Dienstleistungskonsums erstellt werden, also nicht lagerfähig sind. Damit ergeben sich die Probleme von Leerkosten bei Überdimensionierung bzw. entgangener Gewinne bei Unterdimensionierung der Kapazität. Kapazitätsmanagement zielt darauf ab, diese Probleme durch eine quantitative Abstimmung von Angebot und Nachfrage zu reduzieren. Ansatzpunkte hierfür bieten sowohl die internen Ressourcen (wie flexibler Arbeitseinsatz) als auch die Kunden selbst, deren Nachfrageverhalten gesteuert werden kann (z.B. durch zeitliche Preisdifferenzierung, Yield Management). Prozessmanagement: Wesentlich für das -» Prozessmanagement im Dienstleistungsbereich ist, dass die internen Abläufe (Unternehmensprozesse) im Kontaktbereich wegen der Kundenbeteiligung nicht autonom gestaltet werden können. Auch ist relevant, dass der Kunde während seiner Beteiligung selbst einen Prozess (Kundenprozess) durchläuft. Dieser ist zum Ausgangspunkt der internen Prozessorganisation zu nehmen. Er muss daher erfasst, analysiert und optimiert werden. Zu diesem Zweck steht das Planungsinstrument der Kundenpfadanalyse (Blueprinting, Service Mapping) zur Verfügung. Hierbei wird der Kundenprozess in Teilphasen zerlegt und in einem Ablaufdiagramm visua-
198
•
Qualitätsmanagement: Ein Teil der genannten Handlungsbereiche lässt sich als Bestandteil eines umfassend verstandenen -> Qualitätsmanagements interpretieren. Darüber hinaus haben Intangibilität und Kundenbeteiligung auch Folgen für den spezifischen Aspekt der Qualitätsmessung. Bestimmte standardisierte Formen der Qualitätskontrolle sind nur begrenzt einsetzbar, weil die in der Interaktion erstellten Leistungen qualitativ variieren. Damit gewinnen subjektive Qualitätsstandards, die auf der Qualitätswahmehmung des Kunden beruhen, an Bedeutung. Entsprechend sind hier vor allem Methoden zur Messung der wahrgenommenen Qualität einzusetzen, zu denen vor allem Befragungen (Zufriedenheitsmessung, Methode der Kritischen Ereignisse), Beobachtungen (Silent Shopper-Werfahren; Silent Shopper; Testkunden) und Dokumentenauswertungen (Beschwerdeanalyse) gehören. Zudem ergibt sich als Folge aus dem prozesshaften Qualitätserleben von Dienstleistungskunden die Forderung, auch die kundenorientierte Qualitätsmessung am Kundenprozess auszurichten. Bernd Stauss
Dienstleistungsqualität 1. Begriff Fähigkeit eines Anbieters, die Beschaffenheit einer primär intangiblen und der Kundenbeteiligung bedürfenden Leistung gemäß den Kundenerwartungen auf ei-
Dienstleistungsqualität nem bestimmten Anforderungsniveau zu erstellen. Die Dienstleistungsqualität bestimmt sich aus der Summe der Eigenschaften bzw. Merkmalen der Dienstleistung, bestimmten Anforderungen gerecht zu werden und stellt einen zentralen Erfolgsfaktor für Dienstleistungsunternehmen dar (-» Qualitätsmanagement). Die Erwartungen an das Anforderungsniveau werden dabei aus Sicht des Kunden festgelegt. Deshalb wird ein absoluter Qualitätsbegriff im Dienstleistungsbereich den subjektiven Ansprüchen - den Einzelanforderungen an die Beschaffenheit einer Einheit - nicht gerecht. 2. Dienstleistungsqualität und Marketing: Im Dienstleistungsmarketing stellen die • • •
Operationalisierung, Messung und das Management der Dienstleistungsqualität
zentrale Problemstellungen dar. Operationalisierung: Bevor die Dienstleistungsqualität gemessen werden kann, muss ihre Operationalisierung vorgenommen werden. Aufgrund der Mehrdimensionalität der Qualität werden zumeist verschiedene Dienstleistungsqualitätsdimensionen anstatt einer absoluten Dienstleistungsqualität analysiert. Qualitätsdimensionen sind die verschiedenen, durch unternehmensinterne und -externe Zielgruppen wahrgenommenen Qualitätseigenschaften. 1. Anhand der Erstellungsphasen einer Dienstleistung lassen sich die Potenzialqualität, Prozessqualität und Ergebnisqualität differenzieren. 2. Bei einer Betrachtung von Umfang und Art der erstellten Dienstleistungen kann eine Unterteilung in die technische Qualität und funktionale Qualität vorgenommen werden. 3. Im Hinblick auf die Erwartungshaltung des Kunden können eine Routinequalität und Ausnahmequalität un-
Dienstleistungsqualität terschieden werden. Zur Routinequalität einer Dienstleistung gehören Eigenschaften, die als Standard einer Dienstleistung angesehen werden. Sind Routineeigenschaften nicht erfüllt, bewertet der Kunde die Leistung negativer, eine Existenz dieser Eigenschaft wirkt sich jedoch nicht positiv auf die Kundenbewertung aus. Der Ausnahmequalität sind Leistungsmerkmale zuzurechnen, die der Kunde von sich aus nicht vom Anbieter erwartet und somit bei seiner Erfüllung positiv, bei einer Nichterfüllung jedoch nicht negativ bewertet. 4. Unterschiedliche Grade der Beurteilbarkeit einer Dienstleistung führen zur Differenzierung in Such-, Erfahrungsund Glaubenskomponenten. So suchen sich Kunden, die noch keine Erfahrung mit einem Dienstleistungsanbieter gemacht haben, Indikatoren (search elements) zur Beurteilung der Qualität von Dienstleistungen (z.B. Prämienhöhe, Leistungsumfang). Liegen Erfahrungen vor, können während des Leistungserstellungsprozesses bzw. an dessen Ende Beurteilungen der "experience elements" vorgenommen werden (z.B. Qualifikation der Mitarbeiter). Unter "credence elements" werden all jene Merkmale verstanden, die sich einer genauen Beurteilung entziehen bzw. erst mit zeitlicher Verzögerung eingeschätzt werden können (z.B. Richtigkeit einer medizinischen Diagnose). 5. Darüber hinaus wurden im Rahmen von empirischen Untersuchungen fünf Qualitätsdimensionen aus Kundensicht identifiziert: (a) Annehmlichkeit des tangiblen Umfeldes, (b) Zuverlässigkeit, (c) Reaktionsfähigkeit, (d) Leistungskompetenz und (e) Einfühlungsvermögen. Messung: Unter Messung der Dienstleistungsqualität wird die Erfassung und Bewertung des Niveaus einer Dienstleistung aus Sicht der Ziel- und Anspruchsgruppen verstanden. Sie dient der Identi199
Dienstleistungsqualität
Dienstleistungsqualität fizierung von Ansatzpunkten für Qualitätsverbesserungen eines Dienstleistungsunternehmens durch Maßnahmen des Qualitätsmanagements und der Kontrolle des Zielrealisierungsgrades der eingesetzten Maßnahmen. Durch die Messung der Dienstleistungsqualität werden die Kundenerwartungen und/oder der Erfiillungsgrad der Kundenerwartungen durch die Leistungen eines Dienstleistungsanbieters gemessen. In Abhängigkeit des Beurteilungssubjektes einer Dienstleistung lassen sich nachfrager-, anbieterund mitarbeiterbezogene Messverfahren differenzieren. 1. Bei der nachfragerbezogenen Messung wird die Bewertung einer Dienstleistung durch die Kunden vorgenommen. Dies ist zum einen durch eine quasiobjektive Messung der Dienstleistungsqualität durch das SilentShopper- Verfahren und Expertenbeobachtungen möglich, bei denen die Leistungsbeurteilung zwar aus Kundensicht, allerdings nicht durch den Kunden im realen Kontakt mit dem Anbieter vorgenommen wird. Im Rahmen der subjektiven Messung der Dienstleistungsqualität werden drei Instrumentengruppen unterschieden: (a) Eine merkmalsorientierte Messung wird anhand von systematisch abgeleiteten Dienstleistungsqualitätsdimensionen und -merkmalen vorgenommen. Exemplarisch seien Verfahren wie der SERV QUAL-Ansatz, der PenaltyReward-Faktoren-Ansatz, die Vignette-Methode und der Willingness-topay-Ansatz genannt, (b) Bei der ereignisorientierten Messung der Dienstleistungsqualität wird die aus Kundensicht relevanten (positiven und/oder negativen) Ereignisse erfasst. Sie trägt somit dem prozessualen Charakter der Dienstleistungserstellung und der Integration des externen Faktors Rechnung. Exemplarische Methoden sind die Sequenzielle Ereignismethode und die Critical-Incident-Technik. (c) Durch
200
eine
problemorientierte
Messung der Dienstleistungsqualität werden ausschließlich für den Kunden relevante negative Leistungsaspekte berücksichtigt. Auf diese Weise können Dienstleistungsanbieter Leistungsmerkmale identifizieren, bei denen ein besonderer Verbesserungsbedarf besteht. Verfahren in dieser Kategorie sind beispielsweise die Beschwerdeerfassung, die ProblemDetecting-Methode und die FrequenzRelevanz-Analyse für Probleme (FRAP). 2. Bei der anbieterbezogenen Messung der Dienstleistungsqualität werden die Qualität selbst (z.B. durch ein Qualitätsaudit) oder ihre unternehmensinternen Ursachen (z.B. -»Statistical Process Control, -»Ishikawa-Diagramm, Fehlermöglichkeiten- und -einflussanalyse) sowie die Wirkungen für den Anbieter (z.B. Qualitätskostenanalyse) untersucht. 3. Bei der mitarbeiterbezogenen Messung der Dienstleistungsqualität wird die (externe) Qualität aus Sicht der Mitarbeiter beurteilt. Hierbei kommen etwa ->• Mitarbeiterbefragungen oder das betriebliche Vorschlagswesen zum Einsatz. In Abhängigkeit von der spezifischen Untemehmenssituation und dem konkreten Untersuchungszweck müssen Dienstleistungsanbieter die für sie sinnvollen Messverfahren auswählen. Bei dieser Entscheidung sollten folgende Beurteilungskriterien berücksichtigt werden: -
-
-
Relevanz der gemessenen Merkmale der Dienstleistungsqualität für die Kaufentscheidung des Kunden, Vollständigkeit der erhobenen Qualitätsmerkmale, Aktualität der erhobenen Merkmale, Eindeutigkeit der Messergebnisse, Steuerbarkeit im Sinne einer Identifizierung von Ansatzpunkten für eine Qualitätsverbesserung durch die Messung, Wirtschaftlichkeit der Methoden.
Dienstleistungsqualität Dienstleistungsqualität: Das Qualitätsmanagement für Dienstleistungen hat die Aufgabe, die Kundenanforderungen zu erfassen (operative Qualitätsplanung), umzusetzen (Qualitätslenkung), ihre Erfüllung zu überprüfen (Qualitätsprüfung), und die Qualitätsfähigkeit des Dienstleistungsanbieters nach innen und außen zu dokumentieren (Qualitätsmanagementdarlegung). 1. Nach dem Regelkreis des Qualitätsmanagements werden die Instrumente des Qualitätsmanagements gemäß den klassischen Managementaufgaben Planung, Durchführung und Kontrolle in verschiedene Phasen strukturiert. 2. Im Rahmen der strategischen Qualitätsplanung gilt es, den grundsätzlichen Handlungsrahmen des Qualitätsmanagements und somit die qualitätsbezogene strategische Ausrichtung des Unternehmens in Abstimmung mit der Unternehmensstrategie festzulegen. Eine Konkretisierung erfährt die Qualitätsstrategie durch die Festlegung von Qualitätsgrundsätzen. Die Formulierung verbindlicher Qualitätsgrundsätze bildet das Fundament für die im Unternehmen durchzuführenden Qualitätsaktivitäten. Die Richtlinien sollten durch entsprechende Kommunikationsmaßnahmen (z.B. Qualitätsgrundsatzheft) sämtlichen Mitarbeitern transparent gemacht werden. 3. Im Rahmen der Qualitätsumsetzung soll die Qualitätsstrategie realisiert werden. Im Mittelpunkt stehen dabei die - vor allem durch Kunden gestellten - Qualitätsanforderungen, die in der operativen Qualitätsplanung ermittelt, in der Qualitätslenkung realisiert, und deren Erfüllung in der Qualitätsprüfung überprüft werden. Häufig wird zudem die Qualitätsverbesserung angeführt, die sich der Qualitätsprüfung anschließt. Gemäß der Aufgabe der Qualitätslenkung kann dieser die Qualitätsverbesserung jedoch subsumiert werden. Als flankierender Baustein der Qualitätsumsetzung ist die
DIN EN ISO 9000ff. Qualitätsmanagementdarlegung anzusehen, die der Schaffung von internem und externem Vertrauen in die Qualitätsfähigkeit des Unternehmens gilt, d.h. der Fähigkeit, seine Leistungen gemäß den Kundenanforderungen zu erstellen. 4. Gegenstand des Qualitätscontrolling ist die strategische Kontrolle der Qualitätsaktivitäten eines Unternehmens. Literatur: Bruhn, M.: Qualitätsmanagement für Dienstleistungen, 2. Aufl., Berlin 1997; Bruhn, M./Stauss, B. (Hrsg.): Dienstleistungsqualität. Konzepte, Methoden, Erfahrungen, 3. Aufl., Wiesbaden 2000; Masing, W . (Hrsg.): Handbuch Qualitätsmanagement, 4. Aufl., München/Wien 1999; Meffert, H./Bruhn, M.: Dienstleistungsmarketing, 3. Aufl., Wiesbaden 2000; Parasuraman, A./Zeithami, V.A./BerTy, L.L.: S E R V Q U A L . A Multiple-Item Scale for Measuring Consumer Perceptions of Service Quality, in: Journal of Retailing, Vol. 64, 1988, No. 1, S. 12^10.
Manfred Bruhn Digitale Signatur -> Datensicherheit Digitaler Umschlag Datensicherheit DIN EN ISO 9000ff. Ist eine branchenneutrale, international anwendbare Norm zum Aufbau von ->• Qualitätsmanagement-Systemen. Die DIN EN ISO 9000ff. gliedert sich in den Leitfaden DIN EN ISO 9000, der Hilfen zur Auswahl und Anwendung gibt, die Darlegungsnormen DIN EN ISO 90019003, anhand derer eine -> Zertifizierung von Qualitätsmanagement-Systemen erfolgen kann und dem Leitfaden DIN EN ISO 9004, der Anleitungen zum Aufbau von Qualitätsmanagement-Systemen enthält. Die Darlegungsnormen DIN EN ISO 9001-9003 unterscheiden sich in den Anwendungsbereichen: • • •
9001: Design, Entwicklung, Produktion, Montage und Kundendienst 9002: Produktion, Montage und Kundendienst 9003: Endprüfung 201
DIN EN ISO 9000ff. Die weiteste Darlegungsnorm, die DIN EN ISO 9001, umfasst 20 Qualitätsmanagement-Elemente. Engelbert Westkämper/ Alexander Schloske Direktinvestitionen Direktinvestitionen sind eine in der Praxis sehr bedeutende Intemationalisierungsforrn von Unternehmen. Direktinvestitionen fuhren zum Kapitalaufbau im Ausland. Zudem muss ein Kontrollmotiv des Investors vorliegen, das sich konkret auf Strategie und Wertschöpfungsaktivitäten bezieht. 1. Begriff, Ziele und Risiken Unter internationale Direktinvestitionen (D.) fallen Kapitalanlagen, die mit der Absicht getätigt werden, Einfluss auf die Geschäftsführung des empfangenden Unternehmens zu gewinnen, das Kapital eines bereits beeinflussten Unternehmens aufzustocken bzw. ein neues Unternehmen im Ausland zu gründen. Anders als bei Portfolioinvestitionen muss also ein Kontrollmotiv des Investors gegeben sein. Die Einflussnahme konkretisiert sich in einer gemeinsamen Strategie von Investor und empfangendem Unternehmen und kann sich somit auf alle betrieblichen Wertschöpfungsaktivitäten beziehen. Somit wird nicht nur Kapital, sondern auch Technologie und ManagementKnow-how übertragen. Motive für D. sind die Ausnutzung internationaler Standortunterschiede, die konzernweite Steueroptimierung sowie die Stärkung der Stellung auf ausländischen Absatz- und Beschaffungsmärkten. D. implizieren i.d.R. einen hohen finanziellen und personellen Aufwand, eine lange Amortisationsdauer sowie die Desinvestitionsproblematik im Falle des Misserfolgs. Somit sind D. eine Internationalisierungsform mit hohem wirtschaftlichem Risiko. Das empfangende Unternehmen kann rechtlich selbstständig oder eine Betriebsstätte des Stammhauses sein. Als D. werden sowohl die Bewegungen von 202
Direktinvestitionen Kapital als auch der über die Jahre gebildete Bestand bezeichnet. Werden Gewinne im Ausland thesauriert oder dort Kredite bzw. Eigenkapital aufgestockt, erhöht sich der Bestand an D. auch, wenn kein Kapitaltransfer aus dem Stammland erfolgt. Unmittelbare D. setzen sich aus Beteiligungskapital, Krediten von Investoren sowie konzeminternen Krediten zusammen. Die Globalisierung hat den Aufbau neuer Konzernstrukturen zur Folge. Die Führung unterschiedlicher internationaler Geschäftsbereiche erfolgt in zunehmendem Maße in Form von Holdingstrukturen (-> Management-Holding). Wenn ein ausländischer Konzern Mittel an eine inländische Holding überträgt, kommt es zu mittelbaren D. im Inland. Insgesamt tragen D. zu einer stärkeren internationalen Arbeitsteilung bei. Dies steigert einerseits weltweit den Anpassungsdruck im Strukturwandel und bietet andererseits die Chance, mehr Wohlstand durch Globalisierung zu generieren. 2. Umfang und regionale Verteilung D. werden in der Zahlungsbilanz im Rahmen der Kapitalbilanz ausgewiesen. Der Bestand unmittelbarer deutscher D. im Ausland hat sich von 1989 bis 1997 kontinuierlich von 133 Mrd. DM auf 503 Mrd. DM erhöht. Im gleichen Zeitraum wuchs der Bestand an ausländischen D. in Deutschland von 155 Mrd. DM auf 333 Mrd. DM. Die Zunahme deutscher D. im Ausland war in den letzten Jahren deutlich höher als der Zuwachs ausländischer D. in Deutschland. Dies kann als ein Indikator für eine relativ ungünstige Einschätzung des Standorts Deutschland durch ausländische Investoren gewertet werden. Hierbei spielt, neben Kostenfaktoren und hoher Regulierungsdichte, das deutsche Corporate Governance-System (-> Corporate Govemance) eine Rolle: In Deutschland sind vergleichsweise wenige Unternehmen börsennotiert und somit leicht fungibel. Zudem stoßen Untemehmensübernahmen, insb. wenn sie feindlicher Natur sind, auf erhebliche institutionelle Hindemisse. Bei der regionalen
Direktmarketing
Direktinvestitionen Verteilung der D. zeigt sich, ähnlich wie beim Außenhandel, eine Konzentration auf die Industrieländer. So verteilte sich bspw. der deutsche Bestand an D. in 1997 zu 49% auf andere EU-Länder, zu 36% auf andere Industrieländer, zu 5% auf Reformländer und zu 10% auf Entwicklungsländer. 3. Perspektiven Im Rahmen der Globalisierung hat sich in den letzten Jahren das Tempo grenzüberschreitender -> Untemehmenszusammenschlüsse beschleunigt. Zudem konfigurieren immer mehr Konzerne ihre Aktivitäten in Form internationaler Netzwerke (-> Unternehmensnetzwerke) oder sie kooperieren verstärkt mit anderen Unternehmen, bspw. durch Gründung von Joint Ventures (s.a. —• Kooperation). Wenn sich diese Trends fortsetzen, ist auch in Zukunft mit einer weiteren Zunahme der D. zu rechnen. Welche Rolle hierbei der Standort Deutschland spielen wird, hängt von der Einschätzung ausländischer Investoren ab. Maßgeblich wird sein, inwieweit die Möglichkeiten des Beteiligungserwerbs, sowie der Mergers & Acquisitions in Deutschland verbessert werden. Die Etablierung des "Neuen Markts" (-> Neuer Markt), dessen Regeln an den Interessen internationaler Investoren ausgerichtet sind, ist in diesem Zusammenhang ein wichtiger Fortschritt.
zept des Direktmarketing der einzelne Kunde in den Mittelpunkt der Bemühungen gestellt (one-to-one Marketing). Das klassische Massenmarketing richtet sich an einen anonymen Gesamtmarkt, der über Massenmedien angesprochen wird. Direktmarketing befasst sich dagegen mit der Aufnahme unmittelbarer Kundenkontakte bzw. der Herstellung unmittelbarer Kundenbeziehungen. Dies kann sowohl auf informationeller Ebene (Direktwerbung) als auch auf leistungsbezogener Ebene (Direktvertrieb) geschehen. Dabei bestehen individuelle Ausgestaltungsmöglichkeiten auch im Bereich Produktpolitik (persönliche Leistungsdifferenzierung) und -»Preispolitik (persönliche Preisdifferenzierung) (Link/Schleuning 1999). Der Nutzen des Direktmarketing für Unternehmen liegt in der verbesserten Möglichkeit •
•
• • •
Manfred Perlitz/Frank Seger
des Aufbaus einer dauerhaften Kundenbeziehung (Relationship Marketing) einer gewinnorientierten Mittelallokation und geringerer Streuverluste durch genauere Selektion der Zielpersonen der persönlichen und bedarfsgerechten Ansprache des Dialogs mit den einzelnen Kunden genauerer Erfolgskontrolle durch Response-Messung
Direktmarketing 1. Hintergrund und Inhalt Vor dem Hintergrund eines veränderten Unternehmensumfeldes, was sich in Zahl und Leistungsfähigkeit der Konkurrenten, in Sättigungserscheinungen der Märkte, differenzierteren Kundenwünschen sowie dem sog. "information overload" äußert, sind die Unternehmen vermehrt gezwungen, sich vom Wettbewerber abzuheben und neue Wettbewerbsvorteile zu generieren.
2. Instrumente und Informationssysteme Direktmarketing bedient sich einer Reihe von Instrumenten, die sich nach verschiedenen Kriterien untergliedern lassen:
Im Gegensatz zum klassischen, massengerichteten Marketing wird beim Kon-
Die verschiedenen Phasen des Interaktionsprozesses (Vorkaufphase, Kaufphase,
• • •
nach dem Grad der Kundenaktivierung nach der Phase im Interaktionsprozess nach der Art des Kundenkontaktes
Der Grad der Kundenaktivierung ergibt eine Einteilung in das passive, das reaktionsorientierte sowie das interaktionsorientierte Direktmarketing.
203
Direktmarketing
Direktmarketing Nachkaufphase) lassen jeweils verschiedene Instrumente des Direktmarketing besonders effektiv erscheinen. Somit kann jede Phase des Kaufprozesses branchenspezifisch auf ihr Individualisierungspotenzial untersucht und entsprechende Direktmarketing-Maßnahmen geplant werden. Die Art des Kundenkontaktes ist eine der gängigsten Einteilungen. Hier wird unterschieden zwischen dem direkten persönlichen, dem direkten, nicht persönlichen und dem medialen Kontakt. Der mediale Kontakt zeichnet sich durch den zunächst einmal breit streuenden Charakter der Medien (elektronische Medien oder PrintMedien) aus. Diese haben nur dann Direktmarketing-Charakter, wenn sie mittels eines Response-Elements (z.B. Angabe der Telefonnummer) auf die direkte Rückkopplung abzielen. Damit lassen sich die Instrumente des Direktmarketing kategorisieren: Instrumente Kontakts: •
•
des
direkten
persönlichen
Persönliches Gespräch (Außendienstbesuch, Messegespräch, Informationsveranstaltung, Events), Telefon (-> Telefonmarketing)
Instrumente des direkten, nicht persönlichen Kontakts: • • •
Werbebrief, Prospekt, Katalog.
Instrumente des medialen Kontakts (jeweils mit Response-Element): • • • •
Zeitung, Zeitschrift, Anzeigenblätter, Beilagen, Plakat, Außenwerbung, Fernsehen, Radio.
Auf allen drei vorgenannten Kontaktebenen können Individualität, Schnelligkeit und Kosten der in Richtung Einzelkunde ablaufenden Kommunikations- und Leistungsprozesse wesentlich verbessert wer204
den durch den Einsatz kundenorientierter Informationssysteme: -* Database Marketing (DBM), -> Computer Aided Selling (CAS), Online-Marketing (OM). Auf der Ebene des direkten persönlichen Kontaktes geschieht dies z.B. durch den Einsatz von Laptops (CAS-Systemen) im Rahmen von Gesprächen mit dem Kunden. Auf der Ebene des nicht persönlichen Kontaktes lässt sich durch Kundendatenbanken (DBM-Systeme) beurteilen, zu welchen Interessenten/Kunden engere Beziehungen aufgebaut werden sollten, welcher Aufwand unter Kosten/NutzenGesichtspunkten gerechtfertigt erscheint und wie jedem Kunden zum richtigen Zeitpunkt ein maßgeschneidertes Informations- und Leistungsangebot gemacht werden kann. Auf der Ebene des medialen Kontaktes kommen heute die Neuen Medien, insbesondere das interaktive Marketing über elektronische Netzwerke (OM-Systeme) zum Einsatz; hierbei findet im Einzelfall nicht nur eine direkte Werbeansprache, sondern auch die Bestellung und - bei digitalisierten Produkten - die Auslieferung über das Internet statt. 3. Rechtliche Aspekte Besondere Bedeutung im Direktmarketing kommt dem Datenschutz zu. Gesetzliche Regelungen, insb. des BDSGs {-* Datenschutz) sind sowohl hinsichtlich Erhebung und Verarbeitung als auch im Hinblick auf die Nutzung der Daten zu beachten. Im Zusammenhang mit interaktiven Netzwerken, wie dem Internet, bedarf z.B. auch das Thema "Direktwerbung in elektronischen Briefkästen" entsprechender Regelung. Die Möglichkeit, weltweit mit (potenziellen) Kunden direkt in Kontakt zu treten eröffnet neue Dimensionen des Direktmarketing. Begriffe wie JunkMail und Spamming beschreiben die Negativerscheinungen unaufgefordert zugesandter -> E-Mails.
Discounted Cash-flow Methoden
Direktmarketing 4. Integration Während das Direktmarketing lange Zeit in Wissenschaft und Praxis als "belowthe-line"-Budget betrachtet wurde, haben in den vergangenen Jahren zunehmend deutsche Unternehmen die Bedeutung dieses Instrumentes erkannt und ihre Aufwendungen für Direktmarketing im letzten Jahrzehnt nahezu verdreifacht. Hierbei steht im Hinblick auf die Höhe der Ausgaben das klassische Mailing (adressierte Werbesendung) an vorderster Stelle. Zur gesteigerten Beachtung des DM trägt auch die zunehmende Bedeutung interaktiver Netzwerke im Marketing bei (Hünerberg 1998). Direktmarketing in Form von Online-Marketing hat bereits heute in diversen Branchen beachtliche Umwälzungen ausgelöst (Buchhandel, Softwarevertrieb, Tourismusbranche) und wird vor dem Hintergrund immer differenzierterer Kundenwünsche zu bedeutenden Veränderungen innerhalb der -> Wertschöpfungsketten der verschiedenen Branchen fuhren (Link/Tiedtke 1999) Die Wirksamkeit des Marketing wird auch in Zukunft durch ein fein aufeinander abgestimmtes integriertes Marketing determiniert. Die Herausforderungen bestehen darin, die Instrumente des Direktmarketing im Rahmen eines integrierten Ansatzes mit den übrigen Marketinginstrumenten (-> Marketing Mix) zu koordinieren und dadurch Synergieeffekte zu realisieren. Literatur: Link, J./Schleuning, Chr.: Das neue interaktive Direktmarketing, Ettlingen 1999; Hünerberg, R.: Bedeutung von Online-Medien für das Direktmarketing, in: Link, J. (Hrsg.): Wettbewerbsvorteile durch Online Marketing, Berlin u.a. 1998, S. 107-133; Link, J./Tiedtke, D.: Erfolgreiche Praxisbeispiele im Online Marketing, Berlin u.a. 1999.
Jörg Link/Daniela Tiedke Direktorialprinzip Verfahren zur Willensbildung bei Entscheidungen in hierarchischen Systemen. Die Entscheidung wird Bottom-up getroffen, d.h. die in der Hierarchie am höchsten stehende Person entscheidet allein für
alle zur Organisationseinheit gehörenden Mitglieder. Gegenteil ist das -* Kollegialprinzip. Discounted Cash-flow-Methoden (DCF-Methoden) DCF-Methoden sind Gesamtbewertungsverfahren der Unternehmensbewertung (-> Unternehmenswert). Man unterscheidet • •
den Netto- oder Eigenkapitalansatz (equity approach) und den Brutto- oder Gesamtkapitalansatz (entity approach) in den Varianten des WACC-Ansatzes (Konzept der durchschnittlichen gewogenen Kapitalkosten) und des APV-Ansatzes (Adjusted Present Value = angepaßter Barwert). Innerhalb des WACC-Ansatzes lässt sich nochmals der Total Cash-ßowAnsatz (TCF) vom Free CashßowAnsatz (FCF) unterscheiden (Zum Überblick: Ballwieser 1998).
Wie die Ertragswertmethode berechnen die DCF-Methoden einen Kapitalwert. Obwohl alle Verfahren konzeptionell gleich sind, ist ihre Rechentechnik verschieden. Das erschwert ihre unmittelbare Vergleichbarkeit und wirft die Frage auf, unter welchen Bedingungen identische Bewertungsergebnisse resultieren. Zur Errechnung eines Kapitalwertes werden künftige Zahlungsströme auf den Bewertungsstichtag abgezinst und summiert. Bei Unternehmensbewertungen interessieren die Zahlungsströme, die die Eigentümer des Unternehmens erlangen. Diese resultieren aus Gewinnausschüttungen (Dividenden; s.a. —> Rücklagenund Ausschüttungsmanagement) bzw. Entnahmen, Verkaufserlösen für die Untemehmensanteile und, bei anrechnungsberechtigten Inländern, Körperschaftsteuergutschriften. Diese Komponenten sind periodengenau zu schätzen, um Einlagen der Eigentümer zu vermindern und zu diskontieren. Der Diskontierungssatz spiegelt risikoadäquate -»• Opportunitätskosten (entgangene Vorteile) zum Unter205
Discounted Cash-flow Methoden
Discounted Cash-flow Methoden nehmenseigentum wider. Die Summe der diskontierten Beträge ist der Betrag, den ein Käufer für das Unternehmen maximal bezahlen darf bzw. ein Verkäufer des Unternehmens mindestens erhalten muss, ohne sich ökonomisch zu verschlechtern (Grenzpreis oder Entscheidungswert). Er ist ein potenzieller Marktwert. Die an die Eigentümer fließenden Zahlungsströme heißen bei der Ertragswertmethode Ertrag. Sie entsprechen bei der DCF-Methode dem -> Cash-flow, wenn es sich um den Netto- oder Eigenkapitalansatz handelt. Dieser unterscheidet sich von der Ertragswertmethode nur durch die Ermittlung der risikoadäquaten Opportunitätskosten der Eigentümer nach dem -> Capital Asset Pricing Model (CAPM), die für die Anwendung der Ertragswertmethode zwar denkbar, aber nicht zwingend ist. Daneben existiert der Brutto- oder Gesamtkapitalansatz, bei dem andere Zahlungsströme mit zum Teil anderen Diskontierungssätzen als den risikoadäquaten Opportunitätskosten zum Eigentum diskontiert werden. Ermittelt wird zuerst der Wert des gesamten Kapitals, d.h. des Eigen- und des Fremdkapitals, von dem der Marktwert des Fremdkapitals abzuziehen ist, um zum Unternehmenswert für die Eigentümer zu gelangen. Der Bruttoansatz existiert als WACC-Ansatz oder APVAnsatz. Um die Beziehungen deutlich zu machen, bezeichnen im folgenden: CF'E
R
E
= 1 +
T EK EW DCFE
206
Z
den Erwartungswert der den Eigentümern in Periode t zufließenden Zahlungsströme, den risikoangepassten Zinsfuß der Eigentümer eines verschuldeten Unternehmens (i = Basiszins, z = Zuschlagssatz), Planungshorizont, den (potenziellen) Marktwert des Eigenkapitals, den Ertragswert, den Netto-DCF.
Dann gilt (1): EK
= EW
= DCFE
=
CF'E
I
L
'=>(1+1+2)'
CF'E
= 1 '='(1+ ,-»)'
Hierbei wurde von periodenabhängigen Cash-flows, aber konstantem Zinsfuß ausgegangen. Da sich hinter den Erwartungswerten der Zahlungsströme unterschiedliche Wahrscheinlichkeitsverteilungen mit unterschiedlichem Risiko verbergen können, ist die Annahme des konstanten Zinsfußes nicht unproblematisch. Sie erleichtert aber die Darstellung. Aus demselben Grund werden persönliche Steuern der Eigentümer nicht explizit in die Darstellung einbezogen. Beim Bruttoansatz mit gewogenen durchschnittlichen Kapitalkosten gilt (2): EK
= G K - F K
= x'
=
DCFWACC-FK
CF'C „
(1 + ri
EK GK
-FK
+ rF
FK GK
'
)
= J.
CF'C
'(1+A)'
-FK
Als Symbole neu hinzugekommen sind: CF'C
der Erwartungswert der den Eigentümern und den Fremdkapitalgebern in Periode t zufließenden Zahlungsströme, TF die Renditeforderung der Fremdkapitalgeber, die gewogenen durchschnittlik chen Kapitalkosten (WACC), FK der (potenzielle) Marktwert des Fremdkapitals, GK = EK + FK der (potenzielle) Marktwert des Gesamtkapitals, DCFWACC der Brutto-DCF in Form des WACC-Ansatzes. Die Brutto-Cash-flows CF'(- stellen die den Kapitalgebern zufließenden Zahlungsströme dar. Sie entsprechen den aus der Unternehmenstätigkeit nach Abzug der laufenden Ausgaben, der Unternehmenssteuem und der Investitionsausgaben, aber vor Finanzierung verbleibenden Zahlungsüberschüssen und sind "operativ" im Sinne von finanzierungsunab-
Discounted Cash-flow Methoden
Discounted Cash-flow Methoden hängig oder "frei" im Sinne von an die Kapitalgeber verteilbar. Für die Darstellung wurde -
-
unterstellt, dass weder das Eigen- noch das Fremdkapital in Schichten zerlegt wird. Die Aufteilung der Fremdkapitalgeber in Arbeitnehmer, die Pensionszusagen erhalten und Finanzierungskosten verursachen, und in andere Fremdkapitalgeber ist möglich. Dann erhöht sich die Zahl der Komponenten im gewogenen Kapitalkostensatz k. wurde angenommen, dass die unternehmensbezogenen Steuern richtig, d.h. unter Berücksichtigung des tatsächlichen Verschuldungsgrades, berechnet wurden und den Cash-flow CF'C gemindert haben.
Dann handelt es sich um den Total Cashflow-Ansatz. Sofern die Literatur den Cash-flow als Zahlungsüberschuss eines fiktiv rein eigenfinanzierten Unternehmens CF'U versteht und ihn um dann zu hohe Steuerlasten mindert, welche die tatsächliche Verschuldung noch unberücksichtigt lassen, ist der aus der Verschuldung resultierende Steuervorteil (das sog. tax shield) im Nenner im gewogenen Kapitalkostensatz zu erfassen.
Hierbei ist CF'U der Erwartungswert der Cash-flows an die Eigentümer eines fiktiv unverschuldeten Unternehmens in Periode t, r"E sind die zugehörigen Opportunitätskosten. BW steht für Barwert. Der Barwert der Steuervorteile ist im Modell mit endlichem Planungshorizont nicht ohne größeren Formelaufwand zu schreiben (Hachmeister 1999). Investmentbanken und Berater bevorzugen das Free Cash-flow- Verfahren. Die Schätzung der Cash-flows kann direkt aus Zahlungsgrößen oder indirekt über eine Plan-GuV erfolgen. In den gewogenen Kapitalkostensatz geht u.a. die Renditeforderung der Eigentümer ein. Sie ergibt sich nach dem CAPM aus der Summe aus • •
risikolosem Zins und einer Risikoprämie als Produkt aus Unternehmensbeta und Überrendite bei der Anlage in Aktien gegenüber einer solchen in festverzinslichen Wertpapieren.
Die historische Überrendite beträgt in Deutschland rd. 5-6%. Das Beta ist ein unternehmensindividueller Faktor. Die Anwendung des WACC-Verfahrens hat Nachteile: •
Dieser ergibt sich dann als k = r": EK/GK + r F (l - s)FK/GK statt als k = r \ E K / G K + rpFK/GK. Hierbei sind r"E die Opportunitätskosten eines Eigentümers eines unverschuldeten Unternehmens und s der unternehmensbezogene Steuersatz, der die falschen Steuern bei den Cash-flows korrigiert. Dieses Verfahren heißt Free Cash-FlowVerfahren. Nach dem APV-Ansatz gilt (3): EK = GK - FK = DCFAPY ~ FK
r Qp' -y —v BW (Steuervorteile aus Verschuldung) - FK "' (1 + r":)'
Der Unternehmenswert wird durch Rückgriff auf den konstanten WACC bestimmt, in dem der Untemehmenswert selbst enthalten ist. Das schafft ein Zirkularitätsproblem. Es ist durch Iteration (mehrmaliges Durchrechnen und Abgleichen) oder die Vorgabe einer Zielkapitalstruktur (EK/GK bzw. FK/GK) und deren Aufrechterhaltung im Zeitablauf beseitigbar. Das Problem der konstanten Zielkapitalstruktur besteht wiederum darin, dass sie eine bestimmte Verschuldungs- bzw. Ausschüttungspolitik voraussetzt. Man kann nicht davon ausgehen, dass sich das Management eines Unternehmens diese bedeutsame Politik durch ein Rechenverfahren vorgeben lässt. Schwankt die Kapitalstruktur im 207
Discounted Cash-flow Methoden
Discounted Cash-flow Methoden Zeitablauf, dann ist der WACC periodengenau zu bestimmen. Da er die Kapitalstruktur in Marktwerten verarbeitet, ist eine Planung rückwärtsschreitend von der letzten Periode bis zum Bewertungszeitpunkt nötig, was umständlich ist. •
•
Finanzierungsunabhängige Cash-flows sollen geschätzt werden, um Prognosevorteile zu erzielen und Zurechnungsprobleme von Steuern zu vermeiden, die z.B. entstehen, wenn rechtlich unselbstständige Konzernteile zu bewerten sind. Das Problem in Deutschland besteht darin, dass die Schätzung finanzierungsunabhängiger Cash-flows durch das System der Körperschaftsteuer misslingt. Die an die Eigentümer ausschüttbaren Cashflows werden durch die Ausschüttungspolitik geprägt. Diese bestimmt in der betrachteten Periode die anrechenbare Körperschaftsteuer in Form der Ausschüttungsbelastung (= Cashflow-Bestandteil) und die die Cashflows mindernde Thesaurierungsbelastung (= kein Cash-flowBestandteil). Man muss bei geplanten Investitionen also die Ausschüttungsund damit die Finanzierungspolitik kennen, um die Cash-flows prognostizieren zu können. Damit sind sie finanzierungsabhängig. Beim FCF-Verfahren werden die den Cash-flow mindernden zu hohen Steuerlasten, die die Abzugsfähigkeit der Fremdkapitalzinsen vernachlässigen, durch Multiplikation der Fremdkapitalzinsen mit dem Komplement des Unternehmenssteuersatzes korrigiert: ri (l-s). In Deutschland kann s nur die Gewerbeertragsteuer erfassen. Wegen der Abzugsfähigkeit der Hälfte der Zinsen auf Dauerschulden vom Gewerbeertrag ist s der halbe effektive Gewerbeertragsteuersatz. Der Versuch, verkehrte Körperschaftssteuer im Zähler (bei den Cash-flows) durch
208
den Satz s im Nenner zu korrigieren, scheitert daran, dass in Deutschland gespaltene Körperschaftsteuersätze auf Ausschüttung und Thesaurierung gelten und Gewinne regelmäßig anteilig ausgeschüttet werden. •
Das CAPM zur Bestimmung der risikoangepassten Eigentümerrenditeforderung ist kritisierbar, weil es ein Gleichgewichtsmodell für Aktienkurse darstellt. Die für die Bewertung herangezogene Gleichung stammt aus einer Gleichgewichtssituation, in der weder ein Bewertungsproblem für Aktien noch für Unternehmen besteht. Das Modell geht darüber hinaus von sehr engen Prämissen, wie Einperiodigkeit, fehlende Steuern, identische Erwartungen der Marktteilnehmer u.a.m. aus. Auch seine Benutzung als empirisch gültige Beziehung setzt die zeitliche Stabilität der Parameter voraus, die sich nicht bestätigt hat. Die Beliebtheit des CAPM dürfte darauf zurückgehen, dass überzeugende Alternativen fehlen.
Der APV-Ansatz ist vom Problem konstanter gewogener durchschnittlicher Kapitalkosten frei, verlangt aber die Schätzung des risikoangepassten Zinsfußes bei einem rein eigenfinanzierten Unternehmen. Dieser ist empirisch nicht beobachtbar und seine modellmäßige Bestimmung leidet an inkonsistenten Annahmen (Hering 1999). Identische Bewertungsergebnisse nach Ertragswert- und DCF-Methoden verlangen das richtige Cash-flow-Verständnis (keine Zahlungen zwischen Unternehmen und Umwelt, sondern zwischen Unternehmen und Kapitalgeber), identische Parameter (z.B. zur Bestimmung der risikoangepassten Renditeforderung der Eigentümer), die Sicherung der Verfahrensprämissen (beim WACC-Ansatz die Konstanz der Kapitalstruktur) und die richtige Steuererfassung (beim Free Cash-flowVerfahren nur die Abbildung der
Discounted Cash-flow Methoden Gewerbeertragsteuer in s). Soweit Ergebnisunterschiede resultieren, hat man i.d.R. gegen (mindestens) eine der Bedingungen verstoßen. Literatur: Ballwieser, W . : U n t e r n e h m e n s b e w e r tung mit D i s c o u n t e d C a s h F l o w - V e r f a h r e n , in: Die W i r t s c h a f t s p r ü f u n g , 51. Jg., 1998, S. 8 1 - 9 2 ; D r u k a r c z y k , J. (unter M i t a r b e i t v o n . B. S c h w e t z ler): U n t e m e h m e n s b e w e r t u n g , 2. Aufl., M ü n c h e n 1998; Hachmeister, D.: D e r D i s c o u n t e d C a s h Flow als M a ß der U n t e r n e h m e n s w e r t s t e i g e r u n g , 3. Aufl., F r a n k f u r t a m M a i n u.a. 1999; Hering, T., Finanzwirtschaftliche Unternehmensbewertung, W i e s b a d e n 1999.
Wolfgang Ballwieser Discountmarken Handelsmarken Diseconomies of Large Scale Komplexitätskosten
Diskriminanzanalyse Merkmale in Vektor x voraussetzen. Zu unterscheiden ist, ob die Parameter dieser Verteilung bekannt oder unbekannt sind. Die angewandten Klassifikationsregeln ordnen Objekt j derjenigen Gruppe zu, für die bei gegebenem Merkmalsvektor x die Wahrscheinlichkeit dafür, dieser Gruppe anzugehören, maximal ist. Die überwiegend angewandte Regel ist die MaximumLikelihood-Regel. Diese lautet unter obigen Voraussetzungen im speziellen Zweigruppenfall (g = 2): "Ordne Objekt j mit dem Merkmalsvektor x derjenigen Klasse Q k (k = 1,2) zu, deren Klassenmittelpunkt (Vektor der Erwartungswerte bzw. der Stichprobenmittelwerte der Merkmale X | , . . . , K p in Klasse
^ k . |± k = (M-ki
M-kp)'
die
kleinste euklidische Distanz: Diskriminanzanalyse Die Diskriminanzanalyse (DA) ist ein multivariates statistisches Verfahren (-> multivariate Analyseverfahren), mit Hilfe dessen folgende Problemstellung gelöst werden soll: Eine betrachtete Gesamtheit Q von Objekten bestehe aus g > 2 disjunkten Teilgesamtheiten (Gruppen, Klassen) An jedem Objekt j aus Q wird ein pdimensionaler, im allgemeinen metrisch skalierter Merkmalsvektor (z.B. Eigenschaftenvektor) erhoben, aufgrund dessen mit Hilfe der DA dieses Objekt einer der Gruppen zugeordnet werden soll. Die Wahrscheinlichkeit einer Fehlklassifikation ist dabei möglichst gering zu halten, d.h. die Teilgesamtheiten sollen bestmöglich getrennt werden. Dies bedeutet, dass die Klassenmittelpunkte möglichst weit voneinander entfernt liegen und die Streuung innerhalb der Klassen möglichst gering ist. Im allgemeinen erfolgt diese Trennung mit Hilfe linearer Diskriminanzfunktionen (klassische DA), die eine multivariate Normalverteilung mit identischen Gruppenkovarianzmatrizen der p
=
~ ^ k i ) 2 +••• + ( x p - | i k p ) 2
zum gegebenen Merkmalsvektor x besitzt". Aufgrund der konkreten Vorschrift wird diese Zuordnung auch als "MinimumDistanz-Klassifikation" bezeichnet. Im Mehrgruppenfall (g > 2) werden die euklidischen Distanzen in allen k Gruppen (1 < k < g) berechnet. Objekt j wird wiederum derjenigen Klasse fik zugeordnet, für die diese am kleinsten ist. Weitere bekannte Zuordnungsregeln sind die Bayes-Regel, der Ansatz von Fisher und die Nächste-Nachbarn-Methode; die beiden letzteren unterstellen keine Verteilungsvorschrift. Eine Schätzung der Fehlklassifikationswahrscheinlichkeiten ist u.a. mit Hilfe der Resubstitutionsmethode möglich. Dabei werden Elemente der Stichprobe, deren Klassenzugehörigkeit bekannt ist, mittels der berechneten Diskriminanzfunktionen neu klassifiziert. Die resultierende relative Häufigkeit der zwischen zwei Klassen
209
Diskriminanzanalyse
Diversifikation
falsch klassifizierten Elementen ist die Schätzung der jeweiligen Fehlklassifikationswahrscheinlichkeit. Testverfahren für die Voraussetzungen der klassischen DA und der Güte der Trennung existieren. Gertrud Moosmüller Distributionslogistik Die Distributionslogistik umfasst den gesamten Material- und Informationsfluss von der Produktion über das Distributionslager bis hin zu den Kunden. Aus Kundensicht ist dabei die termingenaue Lieferung ein wesentlicher Zufriedenheitsmaßstab. Ziel der Distributionslogistik ist es deshalb, den Material- und Informationsfluss vom Unternehmen zum Kunden so zu planen, zu gestalten, zu steuern und zu kontrollieren, dass die Kundenanforderungen erfüllt werden. Speziell in der Distributionslogistik für den -»E-Commerce gibt es zwei verschiedene Konzepte: 1. Alles-in-einer-Hand: Der Anbieter der Ware tritt direkt mit dem Kunden in Verbindung und liefert seine Waren direkt an den Endverbraucher aus. Dabei kann es sich sowohl um den Vertrieb eigener als auch um den fremder Produkte handeln. Die Auslieferung erfolgt dann mittels eigener Fahrzeuge bzw. per Dienstleister. (Beispiel: Quelle mit dem Versanddienst Hermes). 2. Arbeitsteilung entlang der Wertschöpfungskette: Der DistributionsLogistiker handelt im Auftrag eines Anbieters und übernimmt von diesem auch Teile dessen Wertschöpfungskette, tritt für den Kunden/Endverbraucher aber nur bei der Auslieferung der Produkte in Erscheinung (Beispiel Deutsche Post für Amazon) Die Wahl des entsprechenden Konzeptes hängt ab vom Produktsortiment, von der Kundenstruktur und vom UmsatzVolumen. 210
Distributionspolitik Die Distributionspolitik ist Teil des ->• Absatzpolitischen Instrumentariums. In einer engen Auslegung des Begriffs bezeichnet die Distributionspolitik die Gestaltung des physischen Distributionsprozesses und damit einhergehend die Entscheidung über Lieferkonditionen und Maßnahmen der Marketing-Logistik. Nach der heute vorherrschenden weiten Begriffsinterpretation wird zusätzlich die Gestaltung des Warenverkaufsprozesses der Distributionspolitik zugerechnet. Die Distributionspolitik umfasst demnach auch die Verkaufs- und Außendienstpolitik sowie die Wahl des Absatzkanals (-> Absatzwegewahl). Aus den absatzpolitischen und lieferungspolitischen Entscheidungskriterien ergeben sich die Ziele der Distributionspolitik Die Ziele der Distributionspolitik können letztlich zusammengefasst werden als Schaffung von Präsenz im Absatzmarkt. Die Distributionspolitik hat die zur Erreichung dieses Ziels notwendigen Maßnahmen zu planen, durchzuführen und zu kontrollieren. Der Bestimmung der Absatzkanalstrategie kommt dabei eine zentrale Rolle zu. In der Praxis unterscheidet man nach folgenden Ausprägungen: 1. Ubiquität: hohe Distributionsdichte; 2. Vertikale Kooperation: enge Zusammenarbeit zwischen Herstellern und Absatzmittlern; 3. Selektion und Exklusion: Exklusivvertrieb durch qualitative und quantitative Selektion der Absatzmittler; 4. Integration: Integration der Präsenz von Herstellern und Absatzmittlem etwa durch Franchise- oder Shop-inthe-shop-Konzepte (-> Franchising, -> Handelsformen). Diversifikation I. Begriff und Formen der Diversifikation In Wissenschaft und Praxis findet sich bisher noch kein Konsens bezüglich einer allgemeingültigen Definition der Diversifikation.
Diversifikation
Diversifikation
zeichnet. Da an der Verwertung der auf diese Weise neu in das Programm aufgenommenen Leistungen neben untemehmensinternen Bereichen in erster Linie unternehmensexteme Bereiche beteiligt sind, lässt sich der Begriff der vertikalen Diversifikation klar von der vertikalen Integration abgrenzen. Letztere zeichnet sich durch eine Befriedigung ausschließlich des eigenen Bedarfs durch die neu angebotenen Leistungen aus.
Dennoch lässt sich den verschiedenen Begriffsauffassungen ein gemeinsamer Kern entnehmen, wonach das Leistungsangebot eines Unternehmens auf neue Märkte ausgedehnt und die Unternehmensaktivitäten somit auf eine verbreiterte Basis gestellt werden. Im Vordergrund der Betrachtung steht hierbei die Verschiedenartigkeit der neuen Absatzmärkte von den traditionellen Marktbereichen einer Unternehmung. In der Diversifikation kann folglich eine langfristige Strategie der planmäßigen Ausdehnung des einstigen Tätigkeitsschwerpunkts einer Unternehmung auf verwandte oder vollkommen neue Leistungsbereiche und Märkte gesehen werden mit dem Ziel, durch eine verbesserte Anpassung an die veränderten Marktbedingungen eine Reduktion des Unternehmensrisikos, ein erhöhtes Wachstum sowie eine langfristig gesicherte Positionierung der Unternehmung zu erreichen.
Bestehen hingegen keine oder kaum Verbindungen zwischen den vorhandenen und den neu hinzugekommenen Produkt-Markt-Bereichen, so liegt eine konglomerate oder laterale Diversifikation vor. •
Verwandte und unverwandte Diversifikation: Diversifikationsmaßnahmen lassen sich auch nach der Intensität der Verflechtungen des neuen mit dem vorherigen Leistungsprogramm in verwandte und unverwandte Diversifikationen einteilen. Derartige Verbindungen liegen beispielsweise bei der Nutzung gleicher oder ähnlicher Produktionstechnologien, Absatzwege oder Fertigkeiten vor.
•
Interne und externe Diversifikation: Das Augenmerk der wissenschaftlichen Forschung ist im wesentlichen auf die externe Diversifikation gerichtet, welche sich mittels eines Unternehmenskaufs vollzieht. Demgegenüber findet eine durch Eigenentwicklung unter Verwendung unternehmenseigener Ressourcen gekennzeichnete interne Diversifikation weniger Beachtung. Daneben sind weitere Zwischenformen wie z.B. -> Joint Venture und Lizenznahme ( ^ L i z e n zierung) denkbar.
2. Formen der Diversifikation In der Literatur finden sich verschiedene Klassifikationen, die an unterschiedlichen Dimensionen des Diversifikationsbegriffs anknüpfen. •
Horizontale, vertikale und konglomerate Diversifikation: Am häufigsten findet eine auf Ansoff zurückgehende Einteilung Anwendung, bei der nach dem Kriterium der Diversifikationsrichtung eine Unterscheidung in horizontale, vertikale und konglomerate Diversifikation erfolgt. Im Rahmen der horizontalen Diversifikation wird der Unternehmensschwerpunkt auf ein neues Geschäftsfeld ausgedehnt, welches sich auf derselben gesamtwirtschaftlichen Produktionsstufe befindet und sich durch erhebliche Ähnlichkeiten mit dem bisherigen Tätigkeitsbereich auszeichnet. Eine vertikale Diversifikation ist durch eine Ausdehnung der Schwerpunkttätigkeit in vor- bzw. nachgelagerte Produktions- und Absatzstufen gekenn-
3. Ziele der Diversifikationsstrategie Das Überleben der Organisation und die Erhaltung und Verbesserung ihrer Leistungsfähigkeit stellen die zentralen Ziele 211
Diversifikation
Diversifikation der Diversifikationsstrategie dar. Mit der Verfolgung dieser Strategie gehen darüber hinaus weitere Teilziele einher, die sich wie folgt unterteilen lassen: Ziele des Wachstums, der Risikoreduktion, der Wettbewerbsfähigkeit und der Rentabilität sowie personalpolitische Ziele. Gewöhnlich sind mit der Diversifikation langfristig orientierte Ziele verbunden, zwischen denen interdependente Beziehungen bestehen. In diesem Abschnitt sollen die wesentlichen Teilziele einer Diversifikation dennoch isoliert betrachtet werden. Dies lässt sich damit begründen, dass auch in der Unternehmenspraxis durchaus eines der genannten Ziele dominieren kann. In Anbetracht der bestehenden Interdependenzen lassen sich hierbei jedoch Überschneidungen nicht vollkommen vermeiden. •
Wachstum Zur Erreichung der übergeordneten Ziele "Überleben der Organisation" und "Erhaltung und Verbesserung ihrer Leistungsfähigkeit" dient oftmals das Wachstumsziel als eines der zentralen Teilziele der Diversifikation. Die abnehmende Attraktivität des angestammten Marktes aufgrund von Marktsättigungserscheinungen, Konzentrationsprozessen, steigender Wettbewerbsintensität und damit verbundenen Renditerückgängen sowie eine unzureichende Anzahl von attraktiven Unternehmen derselben Branche, die für eine Akquisition oder Kapitalbeteiligung in Frage kommen könnten, zwingen Unternehmer zunehmend zum Eintritt in neue Märkte, um Ziele des Wachstums zu erreichen. So belegen auch Befunde der empirischen Forschung die These, dass häufig Unternehmen mit starker Angebotskonzentration in den angestammten Märkten, stagnierenden Gewinnerwartungen und begrenzten Wachstumsmöglichkeiten in den bisherigen Branchen eine Diversifikationsentscheidung treffen.
212
•
Risikoreduktion Ein weiteres Ziel der Diversifikation ist in der Reduktion des Risikos zu sehen. In diesem Zusammenhang erfolgt der Eintritt in neue Märkte mit der Absicht, durch die Streuung der Betätigungsfelder das aus einer allzu ausgeprägten Spezialisierung resultierende Unternehmensrisiko zu mindern. Eventuell gegenläufige saisonale oder konjunkturelle Schwankungen in den einzelnen Märkten sollen auf diese Weise ausgeglichen und die Ertragssituation des Unternehmens gefestigt werden. Darüber hinaus können aber auch Managementmotive eine Diversifikation begründen. So ist die Entlohnung des Managements oftmals an den Unternehmenserfolg gebunden (-»Führungskräfteentlohnung) und Schwankungen des Unternehmenserfolges ziehen für die Manager daher nicht nur ungewollte Einkommensschwankungen mit sich, sondern können im Extremfall zu einer Gefährdung der Beschäftigung fuhren. Eine Diversifikation vermag hierbei das Einkommensund Arbeitsplatzrisiko abzuschwächen und aufgrund einer Stabilisierung der Ergebnisentwicklung mittelfristig den "Marktwert" und somit das Einkommen des Managements zu verbessern. Der Risikominderungseffekt der Diversifikation ist bei einer stark negativen Korrelation der Absatz- und Gewinnerwartungen eines neuen Tätigkeitsfeldes mit denen des angestammten Geschäftsbereiches sehr hoch einzustufen. Demgegenüber ist aber auch der Eintritt in recht unbekannte Märkte, in denen man noch nicht über ausreichendes Know-how verfügt, mit erheblichen Risiken gekoppelt. Mit zunehmender Unabhängigkeit der Märkte voneinander nimmt die Möglichkeit ab, bereits vorhandenes Wissen auf den neuen Geschäftsbereich zu übertragen und ein Scheitern im neuen Tätigkeitsfeld zu verhindern.
Diversifikation
Diversifikation •
•
Wettbewerbsfähigkeit Häufig liegt das Ziel von Diversifikationsentscheidungen darin, die Wettbewerbsfähigkeit zu sichern oder gar zu steigern. Dies ist für die Gesamtunternehmung beispielsweise durch einen Eintritt in Märkte möglich, in denen die eigenen Stärken einen entscheidenden Wettbewerbsvorsprung gegenüber bereits etablierten Unternehmen verschaffen. Mit der Strategie der Diversifikation kann aber auch eine Festigung der Wettbewerbskraft im Stammgeschäft verbunden sein. So lassen sich z.B. mittels der Akquisition eines Unternehmens dann erhebliche Wettbewerbsvorteile erzielen, wenn Technologien des in anderen Branchen tätigen, akquirierten Unternehmens auch in dem angestammten Betätigungsfeld erfolgreich genutzt werden können. Zudem ermöglicht die Verfolgung der Diversifikationsstrategie, einen Ausgleich zwischen den Schwächen im bisherigen Geschäftsfeld der Unter. nehmung und den Stärken in neuen Tätigkeitsfeldern zu schaffen. Oftmals liegt es aber an einer schwachen Marktposition, die Unternehmenskonglomerate veranlasst, in neue Märkte einzutreten mit dem Ziel, die Wettbewerbsfähigkeit der Gesamtunternehmung zu verbessern. Rentabilität Ein weiteres Ziel der Diversifikation ist in der Erhöhung der Rentabilität, welche sich durch eine effiziente Nutzung der Unternehmensressourcen auszeichnet, zu sehen. So sollen mittels der Diversifikationsstrategie entweder im Überschuss vorhandene oder nicht optimal eingesetzte Ressourcen des Unternehmens besser genutzt werden. In enger Beziehung hierzu steht die gewünschte Realisierung synergetischer Effekte, verstanden als die erhöhte Wirkung einer Zusammenarbeit
•
zweier oder mehrerer verschiedener Geschäftsfelder oder Unternehmen. Des weiteren können Transaktionskosten insbesondere in Form von Informations- und Kommunikationskosten das Verfolgen einer Diversifikationsstrategie begünstigen (-»Transaktionskostentheorie). Lässt sich ein bestimmtes Geschäft nur zu verhältnismäßig hohen Transaktionskosten über den Markt abwickeln, wird man sich dafür entscheiden, diese Transaktion zu den vergleichsweise niedrigeren Kosten innerhalb des diversifizierten Unternehmens abzuwickeln (Jacobs 1992). Personalpolitische Ziele Die Diversifikation kann überdies auch als eine Strategie der Arbeitsplatzsicherung und der Beschäftigungsgarantie dienen. So können soziale Motive ein Unternehmen dazu veranlassen, mittels Diversifikation die negativen Auswirkungen von Nachfrageschwankungen auf die Beschäftigungssituation der Mitarbeiter abzuschwächen.
4. Bedeutung der Diversifikationsziele Angesichts einer zunehmenden Wettbewerbsintensität verbunden mit einem verlangsamten Wirtschaftswachstum hat sich die Bedeutung der einzelnen aufgeführten Diversifikationsziele in den vergangenen Jahren offensichtlich gewandelt. Während das Wachstum im Zielsystem der Unternehmung erheblich an Wichtigkeit eingebüßt hat, verzeichnet nach Porter die Generierung von Wettbewerbsvorteilen eine zunehmende Bedeutung (Porter 1985). Besonders erfolgreich diversifizierte Unternehmen zeichnen sich durch eine Diversifikation um ihre -» Kernkompetenzen aus (s.a. -»Fokussierung). So beschränken diese Unternehmen ihre Geschäftstätigkeit auf jene Branchen, die einen erfolgversprechenden Einsatz ihrer Kernkompetenzen ermöglichen. Auf diese
213
Diversifikation Weise können sie ihre zentralen Fähigkeiten in mehreren attraktiven Geschäftseinheiten nutzen und daraus -> Economies of Scope in Form von Kosten- und Differenzierungsvorteilen erzielen. Kostenvorteile können beispielsweise bei der Forschung und Entwicklung, welche unabhängig von der Menge der hergestellten Produkte erhebliche Fixkosten aufweist, entstehen. Gelingt es, die Forschungsergebnisse fiir verschiedene Tätigkeitsfelder umzusetzen, so können in der Tat beträchtliche Kosten eingespart werden. Demgegenüber entstehen Vorteile der Differenzierung im F&E-Bereich beispielsweise durch den Einsatz einer einzigen Technologie in mehreren Produkten mit der Folge, eine stärkere Investition in die Forschung und Entwicklung ohne Kostennachteile tätigen zu können. 5. Diversifikationsstrategien und Unternehmenserfolg Angesichts eines seit den fünfziger Jahren deutlichen Trends zunehmender Diversifikationsbestrebungen beschäftigen sich zahlreiche empirische Studien mit der Frage, ob sich ein Zusammenhang zwischen der Diversifikationsstrategie und dem Unternehmenserfolg herstellen lässt. Im Folgenden sollen drei bedeutende Forschungsrichtungen dargestellt werden, welche die Beziehung zwischen finanzieller Performance und Diversifikation eingehend analysieren. •
Ausmaß der Diversifikation und Performance: Nach diesem Ansatz wird untersucht, ob eine Relation zwischen dem rein quantitativ messbaren Ausmaß der Diversifikation und dem Erfolg von Unternehmungen besteht. Die zahlreichen empirischen Arbeiten dieses Ansatzes zeichnen sich allerdings durch erheblich widersprüchliche oder nicht signifikante Ergebnisse aus, weswegen sich theoretisch sowohl ein positiver als auch ein negativer Bezug zwischen dem Ausmaß der Diversifikation und dem finanziellen Er-
214
Diversifikation folg von Unternehmungen herstellen lässt. Aus diesem Resultat sind zwei denkbare Interpretationen ableitbar: - Es besteht kein systematischer Zusammenhang zwischen dem Ausmaß der Diversifikation und der finanziellen Performance der Unternehmung. - Es besteht zwar ein Zusammenhang zwischen dem Ausmaß der Diversifikation und dem finanziellen Unternehmenserfolg, doch existieren noch weitere Einflussfaktoren auf die Performance, welche sich nur mit Schwierigkeiten kontrollieren und kaum isolieren lassen. •
Relative Performance von Konglomeraten: Die zweite Forschungsrichtung geht der Frage nach, mit welchem Erfolg Konglomerate im Vergleich zu alternativen Kapitalanlagen abschneiden. Sie identifiziert erhebliche Unterschiede bezüglich des Risikos zwischen Nichtkonglomeraten und Konglomeraten. So zeichnen sich die Konglomerate durch ein höheres systematisches Risiko aus, was auf eine über dem Durchschnitt liegende Fremdfinanzierung zurückgeführt werden kann. Da das unsystematische Risiko dieser diversifizierten Unternehmungen gegenüber alternativen Kapitalanlagen geringer anzusetzen ist, entsprechen die Konglomerate eher einem Marktportfolio. Allerdings sind beim Verfolgen von Diversifikationsstrategien erhebliche Kosten zu berücksichtigen, welche bei der Erschließung neuer Märkte oder der Restrukturierung übernommener Unternehmungen anfallen. Somit ist in der Diversifikation eher eine Defensivstrategie zu sehen, bei der ungenügende Erträge im angestammten Geschäftsfeld ein Unternehmen veranlassen, durch den Vorstoß in neue Märkte eine befriedigende Rentabilität wieder herzustellen.
Diversifikation •
Diversifikationsstrategien und Performance: Aufbauend auf eine Einteilung der Geschäftsfelder nach ihrem Grad der Verbundenheit untersucht dieser Forschungsansatz die Frage, ob der Erfolg zusammenhängender Einheiten vom Erfolg unabhängiger Einheiten abweicht. Die empirischen Ergebnisse lassen jedoch keinen systematischen Zusammenhang zwischen der finanziellen Performance einer Unternehmung und der verfolgten Diversifikationsstrategie erkennen. Zwar weisen diversifizierte Einheiten, welche sich durch vollkommen verbundene Geschäftsfelder auszeichnen, in der Tendenz einen höheren finanziellen Erfolg auf. Doch lässt sich dies neben der methodischen Problematik der Kategorienbildung damit begründen, dass Marktstrukturvariablen gleichzeitig den Unternehmenserfolg und die Diversifikationsstrategie beeinflussen.
6. Fazit Die Diversifikation versteht sich als eine Untemehmensstrategie, die sich in der Praxis recht hoher Beliebtheit erfreut, obwohl eine direkte Verbesserung des finanziellen Erfolges bisher nur für den Fall einer Relativierung unattraktiv gewordener Geschäftsfelder und einer damit verbundenen Steigerung der Rentabilität nachgewiesen werden konnte. Allerdings fuhren die Diversifikationsbemühungen nicht immer zu dem gewünschten Erfolg. Häufigste Ursachen für das Scheitern einer Diversifikation sind in einer Fehleinschätzung der Absatzchancen, einer unzureichenden Berücksichtigung der Marktfaktoren, einer Unterschätzung der Kosten- und Preisrisiken und einer Überschätzung der erzielbaren Synergieeffekte zu sehen. Literatur: Ansoff, I.H.: Corporate Strategy, New York 1965; Bea, F.X./Haas, J.: Strategisches Management, 2. Aufl., Stuttgart, Jena 1997; Gómez, P./Ganz, M.: Diversifikation mit Konzept -
Domain Name Server den Unternehmenswert steigern, in: HARVARDmanager, Jg. 14 (1992), Heft 1, S. 44-54; Jacobs, S.: Strategische Erfolgsfaktoren der Diversifikation, Wiesbaden 1992; Kunz, R.M.: Diversifikationsstrategien und Unternehmenserfolg, in: Die Unternehmung, Jg. 47 (1993), Heft 4, S. 293-310; Markides, C.C.: Warm Diversifikation gewagt werden kann, in: HARVARDmanager, Jg. 20 (1998), Heft 2, S. 75-81; Porter, M.: Competitive Advantage - Creating and Sustaining Superior Performance, New York 1985; Porter, M.: Diversifikation - Konzerne ohne Konzept, in: HARVARDmanager, Jg. 9 (1987), Heft 4, S. 30- 49; Rumelt, R.: Strategy, Structure and Economic Performance, Boston 1974; Schüle, F.M.: Diversifikation und Unternehmenserfolg: Eine Analyse empirischer Untersuchungsergebnisse, Wiesbaden 1992.
Franz Xaver Bea/Irina Stoß Divisionalorganisation -> Geschäftsbereichsorganisation DNC-Systeme -»Automatisierung DOE (Design of Experiments) -»Statistische Versuchsplanung Dokumentenmanagementsystem Das Dokumentenmanagement umfasst das Einlesen, Archivieren, Bearbeiten, Aufrufen, Drucken und Löschen von Dokumenten jeder Art. Wird das Dokumentenmanagement elektronisch, über ein sog. Dokumentenmanagementsystem, durchgeführt, wird es möglich, Dokumente schnell und effizient zu archivieren und zu verwalten. Der Zugriff ist von jedem berechtigten Arbeitsplatz per -»Intranet oder -> Extranet möglich. Einsparungen von Zeit, Raum und Personalkosten sind so möglich, ebenso können Entscheidungsprozesse beschleunigt werden. Domain Name Server Der Domain Name Server ist ein spezieller -> Web-Server, dessen Aufgabe darin besteht, den Klartext (die -> URL) einer Web-Präsenz (z.B. "www.bmw.de") in die zur eindeutigen Lokalisierung benutzte -> IP-Adresse umzuwandeln. 215
Du Pont-Kennzahlensystem
Dotcom Dotcom Bezeichnung für ein (junges) Unternehmen, dessen Geschäftsmodell auf den technischen Möglichkeiten der Internettechnologie basiert (->• Internet). Double Auction Internet-Auktionen Down Side Risk -> Risiko
Das Ergebnis kennzeichnet den Erfolg der operativen betrieblichen Tätigkeit vor Zinsen und Abschreibungen. Der Vermögenseinsatz umfasst die der Einheit zugerechneten Vermögenswerte mit Ausnahme der zentral bewirtschafteten liquiden Mittel. Der ROI ist also das Maß für die Produktivität des in der Einheit arbeitenden Vermögens, indem er in Prozent des
DSS Entscheidungsunterstützende Systeme Du Pont-Kennzahlensystem 1. Ausgangspunkt Wachstum und -* Diversifikation veranlassten den Du Pont-Konzern Anfang des zwanzigsten Jahrhunderts zur organisatorischen Neustrukturierung des —> Konzerns in ergebnisverantwortliche strategische Geschäftseinheiten (Divisions) unabhängig von ihrer formalen Zugehörigkeit zu juristisch selbstständigen Unternehmen. Um diese neu entstehenden Ergebniseinheiten gleichartig planen, steuern, überwachen und um ihre Performance einheitlich beurteilen zu können, wurden die als Du Pont System of Financial Control, als Du Pont-Kennzahlensystem bzw. als Du Pont-System bekannt gewordenen Executive Committee Control Charts entwickelt. Dieses Chartsystem gilt als Urvater aller betriebswirtschaftlichen Kennzahlensysteme, welche die zu berücksichtigenden betriebswirtschaftlichen Informationen mathematisch einfach und transparent unter Verwendung der Grundrechenarten als Rechensysteme miteinander verknüpfen. 2. Konzeption: Zentrale Elemente des Systems sind Umsätze, Umsatzkosten und betrieblicher Vermögenseinsatz. Der Return on Investment (ROI) als Spitzenkennzahl des Systems berechnet sich als Quotient aus Ergebnis und Vermögenseinsatz. Den schematischen Aufbau des Systems zeigt Abbildung 1. 216
Return on I n v e s t m e n t
Umsatzrentabilität
Vermögensumschlag
, Ergebnis
H—; Umsatz
~
;
Umsatz
Umsatz
I ;
, Vermögen
1 Umsatzkosten
Herstellkosten
Anlagevermögen Umlaufvermögen •
Vertriebskosten Verwaltungskosten
Abbildung 1
Vermögenseinsatzes anzeigt, wie viel es insgesamt sowohl zur Bedienung der Eigen- und Fremdkapitalgeber als auch zum Ersatz seines eigenen Werteverzehrs (Abschreibung) erwirtschaftet (Value Added; -> Shareholder Value). Um jeder Verfälschung betriebswirtschaftlicher Tatbestände durch bilanzpolitische Maßnahmen vorzubeugen berücksichtigt das Du PontKennzahlensystem ausschließlich internes Zahlenmaterial. Rechnerisch resultiert der ROI aus der Umsatzrentabilität als Maßgröße der ertragswirtschaftlichen Leistungsfähigkeit und dem Vermögens- bzw. Kapitalumschlag als Maßgröße der Effizienz des Vermögenseinsatzes. In den Umsatzkosten werden weder Abschreibungen noch Zinsen berücksichtigt. Jedoch leistet bereits die ursprüngliche Konzeption des Du Pont-Kennzahlensystems hinsichtlich Funktionalität und Anwendungsmöglichkeiten mehr als aus Abbildung 1 erkennbar ist.
Du Pont-Kennzahlensystem
Du Pont-Kennzahlensystem Kapitalrentabilität
V e r m
ö g e n s u m
U m
s c h l a g s h ä u f i g k e i t
Satzrentabilität
Abbildung 2 3. Das Du Pont-Kennzahlenals Vergleichs- und Prognosesystem: Zumindest die Entwicklung der Spitzenkennzahlen ROI, Umsatzrentabilität und Vermögensumschlag wird im Du PontKennzahlensystem über ein Zeitraster von 7 Jahren gemäß Abbildung 2 dargestellt: Jahres-Istwerte für die letzten fünf Jahre, Ist- und Planwerte für das aktuelle Jahr nach Monaten sowie Quartals-Planwerte für jeweils vier weitere Quartale. Der Vergleich der monatlich kumulierten Werte mit dem budgetierten Planwert für das Jahr lässt den bestehenden Handlungsbedarf erkennen und zeigt, wo man im Vergleich zu den Vorperioden steht. Die Istwerte werden kumuliert. Aus den monatlich neu zu ermittelnden Durchschnittswerten werden Hochrechnungen auf das aktuelle Gesamtjahr erstellt. Der Wert der Hochrechnung verschlechtert (verbessert) sich im Zeitablauf, wenn der Istwert des letzten Monats niedriger (größer) ist als der anhand der vorange-
gangenen Monate ermittelte Durchschnittswert. Die Negativwirkung jeder Verschlechterung bzw. die Positivwirkung jeder Verbesserung wird hinsichtlich ihrer Auswirkung auf das Jahresergebnis übertrieben prognostiziert, da der Unterschiedsbetrag zwischen aktuellem und vorherigem Durchschnittswert bei der Hochrechnung mit der Anzahl der Monate bis zum Jahresende multipliziert wird. Zwar sieht das originäre Konzept die Berücksichtigung saisonaler Schwankungen im Rahmen der Hochrechnung nicht vor, jedoch lässt es sich ohne weiteres dahingehend erweitem. 4. Rollierende Planung im Du PontKennzahlensystem: Das Du Pont-Kennzahlensystem beinhaltet eine rollierende Planung in dem Sinn, dass das auf Monatsebene detailliert geplante und budgetierte Jahr um eine Grobplanung über vier weitere Quartale ergänzt wird. Mit Ablauf jedes Quartals des aktuellen Planjahres wird die bisherige Grobplanung des entsprechenden 217
Du Pont-Kennzahlensystem Quartals des Folgejahres einer zunehmend detaillierteren Monatsplanung unterzogen. Die Planung für jedes Quartal wird also mehrfach überarbeitet. Zum einen wird der Planungsprozess auf diese Art routinierter und professioneller und zum anderen wird so die Einbeziehung der stets aktuellsten Informationen in den Budgetierungsprozess gewährleistet. Deshalb sollte das endgültige Budget den höchstmöglichen Realitätsgehalt aufweisen. Literatur: Botta, V.: Keimzahlen und Kennzahlensysteme als Führungsinstrumente, 5. Aufl., Berlin 1997; Kaplan, R. S.: The Evolution in Management-Accounting, in: The Accounting Review, Vol. LIX, No. 3, July 1984, S. 394^118; Vellmann, K.: ROI-Kennzahlensysteme im Konzern, in Rüting K./Weber C.-P. (Hrsg.): Handbuch der Konzernrechnungslegung, Stuttgart 1989, S. 327— 390.
Volkmar Botta Due Dilligence Due Diligence bezeichnet die erforderliche Sorgfalt, die ein Unternehmen im Sinne der eigenen Anteilseigner (-• Shareholder-Value) aufbringen muss, bevor es sich für einen Firmenkauf (-• Unternehmensakquisition) entscheidet. Dazu wird vor dem Vertragsabschluss geprüft, ob die Investition tatsächlich die erwarteten Ergebnisse erwirtschaften wird oder welchen Wert man für den Kauf des Zieluntemehmens ansetzen muss. Basisdaten für die Due-Diligence-Prüfung lassen sich aus den Geschäfts- und Finanzberichten (-»Jahresabschluss) des Zielunternehmens ebenso entnehmen wie aus Produktbroschüren und anderen allgemein zugänglichen Quellen. Eine weitergehende Prüfung umfasst daneben auch Gespräche mit der Unternehmensleitung, Besichtigungen vor Ort, Referenzen von Banken und anderen Geldgebern, Kundeneinschätzungen (-» Stakeholder-Management), Wettbewerbsanalysen (-> SWOT-Analyse), Einschätzungen von Analysten und Beratern sowie interne
218
Dynamische Investitionsrechenverfahren Berichte (-»Controlling) des Zielunternehmens. Dutch-Auction -* Internet-Auktionen Dynamische Investitionsrechenverfahren -> Investitionsrechnung
Early Stage
Early Stage Frühphase. Oberbegriff fur die -> SeedPhase (= Vorgründungsphase) und die Start Up-Phase (= Gründungsphase). Die Begrifflichkeit ist uneinheitlich: Als Early Stage wird auch teilweise der Zweijahreszeitraum nach der Erwirtschaftung des ersten Umsatzes bezeichnet. EBIT und EBITDA Die Abkürzungen EBIT und EBITDA stehen fur "Earnings before interest and tax" (EBIT) bzw. für "Earnings before interests, tax, depreciation and amortisation" (EBITDA). Man findet die Begriffe häufig als Gliederungspunkte innerhalb der -> Gewinn- und Verlustrechnung einer Unternehmung, die wie folgt definiert sind:
+ + -
+ =
Umsatzerlöse Aktivierte Eigenleistungen/ Bestandsveränderungen Sonstige betriebl. Erträge Gesamtleistung Materialaufwand Personalaufwand Sonst, betriebl. Aufwendungen EBITDA Abschreibungen EBIT Finanzergebnis Ergebnis vor Steuern Steuern Jahresüberschuss
Der EBIT entspricht bei dem vorliegenden Gliederungsschema dem betrieblichem Ergebnis, also dem erwirtschafteten Überschuss aus der operativen Geschäftstätigkeit vor -> Finanzierung und Steuern. Um vom EBIT zum EBITDA zu gelangen, ist lediglich eine Korrektur um die Abschreibungen notwendig. Die direkte Übersetzung aus dem Englischen ist hierbei irreführend, da nicht Abschrei-
EBIT und EBITDA bung und Tilgung abgezogen werden, sondern nur die erfolgswirksame Abschreibung. Der EBIT trifft eine Aussage über die Qualität des operativen Geschäftes vor Finanzierungstätigkeit und Steuerwirkungen und ist somit unabhängig von veränderten Finanzierungsstrukturen und Steuergesetzänderungen. Der EBITDA berechnet sich darüber hinaus auch vor Abschreibungen und damit vor Reinvestition des Sachanlagevermögens. Die Begriffe EBIT bzw. EBITDA werden zu unterschiedlichsten betriebswirtschaftlichen Analysezwecken verwendet. Neben der Bilanzanalyse finden die Begriffe Anwendung im -* Wertmanagement und in der Unternehmensbewertung. In den beiden letzten Fällen nutzt man die Begriffe, um nachhaltige Aussagen über die gewöhnliche betriebliche Geschäftstätigkeit zu erhalten. Im Wertmanagement kann der EBIT als Maß für ein erwirtschaftetes Ergebnis dienen, welches entsprechenden Buchwertgrößen gegenübergestellt wird. Benutzt man hierzu den EBITDA, so ist als entsprechendes Äquivalent eher die Größe von Anschaffungs- und Herstellungskosten geeignet, da die Reinvestitionsquote vernachlässigt wird. Vorteil der Berechnung von Wertkennzahlen mit EBIT bzw. mit EBITDA ist die Einfachheit der Berechnung und der Kommunizierbarkeit. Nachteil ist die bilanzpolitische Ausnutzbarkeit von Wahlrechten, die den EBIT/EBITDA in einzelnen Jahren verfalschen können. Zur Korrektur der Abschreibungen wird beispielsweise oft eine ökonomische Abschreibung angewandt, die zum einen die tatsächliche wirtschaftliche Nutzungsdauer unterstellt und zum anderen Zinsaspekte beim Reinvestitionsansatz berücksichtigt. Bei der Berechnung von Unternehmenswerten können die Größen EBIT bzw. EBITDA in zwei Facetten Eingang finden. Erstens werden oft -+ Multiples aus vergangenen Transaktionen auf den EBIT/EBITDA ermittelt, um marktseitig 219
EBIT und EBITDA abgeleitete Vergleichswerte zu erzielen. Diese Multiples werden auf das EBIT/ EBITDA des zu bewertenden Unternehmens im letzten verfugbaren Ist-Jahr angewandt, um einen ersten Eindruck über das Niveau des Unternehmenswertes zu erhalten. Grundvoraussetzung ist hierbei das Vorliegen möglichst ähnlicher Transaktionen in jüngerer Vergangenheit, um eine höchstmögliche Vergleichbarkeit zu erreichen. Dieser Ansatz kann jedoch eine differenzierte Unternehmensbewertung nicht ersetzen, sondern nur zur Plausibilisierung der Ergebnisse helfen. Zweiter Einsatzbereich von EBIT/ EBITDA-Größen ist die Prognose des Wertes fiir die ewige Rente. Als Alternative zur Fortschreibung des letzten Planjahres in die Ewigkeit kann ein EBIT/ EBITDA-Multiplikator verwandt werden, der im Gegensatz zur klassischen ewigen Rente eher einem Marktwert gleichkommt. Das hierbei angesetzte EBIT/ EBITDA muss nachhaltig zu erwirtschaften sein. Die Einsatzgebiete der Werte EBIT und EBITDA sind vielfältig, da sie Grundelemente der Gewinn- und Verlustrechnung darstellen. Die Begriffe gehen daher in ihrer Bedeutung über reine Gliederungspunkte weit hinaus. Achim Schröder E-Commerce Der Begriff E-Commerce (eC) wird in Wissenschaft und Praxis sehr unterschiedlich definiert. Das Spektrum reicht von der Subsumtion sämtlicher auf elektronischem Wege getätigter Transaktionen (z.B. auch VAN-basierte -> Electronic Data Interchanges, EDI, und -* Electronic Funds Transfers, EFT) bis hin zur Beschränkung auf das Electronic Shopping in offenen Netzwerken. Hier soll in Übereinstimmung mit der Mehrzahl aktueller Definitionsvorschläge eine mittlere Linie verfolgt und unter ECommerce die Durchführung von internet-gestützten geschäftlichen Transaktionen verstanden werden (-»Internet). 220
E-Commerce Damit ist vor allem die web-bezogene kommerzielle Nutzung des Internets, aber auch von ->• Intranets (unternehmensinterne Netzwerke) und -> Extranets (Koppelung der Intranets von Geschäftspartnern) gemeint. Nach der Art der Transaktionspartner lassen sich drei Ausprägungsformen des E-Commerce unterscheiden: Business-toBusiness- (B2B-), Business-to-Consumer(B2C-) und Administration-to-Business(A2B-) E-Commerce. B2B-eC beinhaltet vor allem den unternehmerischen elektronischen Ver- bzw. Einkauf oder Austausch von Waren (Internet Selling/Procurement) oder Dienstleistungen {Internet Booking, Corporate Internet Banking etc.) im Rahmen von festen (web-EDI-basiertes Selling/Procurement) oder fallweisen, direkt angebahnten Geschäftsbeziehungen, Börsen, Ausschreibungen, Auktionen (-> InternetAuktionen), Barter-Clubs (-> Bartering) etc. B2C-eC bezieht sich auf den unternehmerischen Verkauf und privaten Einkauf von Waren (Internet Selling/Shopping) oder Dienstleistungen (Internet Booking, Gambling, Retail/Private Internet Banking etc.). Unter einem A2B-eC ist schließlich die elektronische Ausschreibung und/oder Vergabe von öffentlichen Aufträgen an private Unternehmen zu verstehen. Der Erfolg jedes E-Commerce ist von der Ausgestaltung seiner Rahmenbedingungen abhängig. Hierzu zählen vor allem die infrastrukturellen Rahmenbedingungen, d.h. das Vorhandensein und die Leistungsfähigkeit von • • • •
Telekommunikationsnetzen (InternetZugangs- und -transportnetzen), Hardware (PC, Modem, Router, Server etc.), Netzwerkserviceprovidern (Zugang zum Internet), Software (zum Hardwarebetrieb und zur eC-Durchführung) und
E-Commerce •
eC-Dienstleistern (zur elektronischen Zahlungsabwicklung, Authentifizierung/Zertifizierung, Warendistribution etc.)
Die Erhöhung der Datenübertragungsgeschwindigkeit in den Zugangs- und Transportnetzen (backbones) mittels Satellitentechnik, Kupfer- und Glasfaserkabeln sowie digitaler Übertragungstechniken, die zunehmende Zahl privater PCgestützter Internetanschlüsse, Einfuhrung von WebTV, Ablösung der Programmiersprache -* HTML (Hypertext Markup Language) durch XML (Extensible Markup Language), die zusammen mit dem parallel entwickelten Resource Description Framework (RDF) eine direkte Koppelung von Internet und untemehmensinternen Datenbanken ermöglicht, Entwicklung von digitalen Zahlungssystemen (z.B. eCash, SET, MilliCent, Cyber Cash, CyberCoin) und von internationalen Standards für den Produkt- und Katalogdatenaustausch sowie die Etablierung von eC-Dienstleistern (Zertifizierungsanbietern, Internet Payment Services, Webhosts etc.) werden diese Rahmenbedingungen kurz- und mittelfristig gravierend verbessern. Politisch-rechtliche Rahmenbedingungen betreffen die Art und das Ausmaß der national- und supranationalstaatlichen Förderung und Regulierung des E-Commerce. Förderprogramme, die sowohl vom Bund als auch von einzelnen Bundesländern und der EU aufgelegt worden sind, sollen insbesondere kleinen und mittleren Unternehmen (KMU) Anschub und nachhaltige Unterstützung beim E-Commerce geben und damit zu dessen größerer Akzeptanz und Verbreitung beitragen. Seiner besonderen Natur wegen, die es z.B. ermöglicht, digitale Produkte (Software, Informationen, Musiktitel etc.) an allen "Zollbäumen" vorbei weltweit zu vertreiben, sind spezifische rechtliche Regulierungen des E-Commerce sowohl im staatlichen Eigeninteresse (Steuern, Zölle) als auch im Interes-
E-Commerce se der Transaktionspartner (Datenschutz, Sicherheit, Haftung, Gerichtsbarkeit, Urheberrecht etc.) unabdingbar. Unterschiedliche nationalstaatliche Regulierungen ("e-mess"), mit denen ein international agierendes E-Commerce heute noch konfrontiert ist, tragen aber kaum zu einer Rechtssicherheit bei. Gefordert und bereits in Angriff genommen sind daher supranationale Regulierungen (im Rahmen der WTO, EU etc.) und internationale Harmonisierungen nationalstaatlicher Regulierungen gepaart mit internationalen Selbstregulierungsabkommen der eCUnternehmen, die z.B. von der Industrieorganisation "Global Business Dialogue on Electronic Commerce" (GBDe; www.gbde.org) angestrebt werden. Sozio-kulturelle Rahmenbedingungen beziehen sich auf die Fähigkeit (digital literacy) und Bereitschaft von Untemehmen(smitarbeitern) und Privatpersonen, die ihnen zur Verfügung stehenden Internetzugänge auch tatsächlich für ein ECommerce zu nutzen. Diese Fähigkeit wird mit dem Heranwachsen der "Nintendo-Generation" sowie dem Auswirken staatlicher und privater Ausbildungsinitiativen und Förderprogramme wohl bald bei einem hinreichend hohen Anteil der Bevölkerung (critical mass) aller Industrieländer vorhanden sein. Das Ausmaß der Bereitschaft ist von der Höhe psychologischer Barrieren abhängig, die in Sicherheitsbedenken, einem fehlenden Vertrauen in die Anbieter, UnÜberschaubarkeit des Angebots etc. begründet sein können. Generell sind solche Barrieren niedriger bei Personen, die häufig im Versandhandel einkaufen und/oder per Kreditkarte bezahlen (und damit auch in Ländern, wie den USA, in denen diese Einkaufs- und Bezahlverhaltensformen verbreitet sind), sowie gegenüber bekannten (Marken-)Anbietern. Ansonsten tragen zu ihrem Abbau transparente staatliche Regulierungen des E-Commerce, die Verleihung von Gütesiegeln (wie z.B. des Gütesiegels " G e p r ü f t e r
221
E-Commerce Online-Shop" des Euro Handelsinstituts, EHI), der Ausweis klarer und verständlicher Liefer- und Zahlungsbedingungen, die Verbreitung von Teleworking (-> Telekooperation) und die Nutzbarmachung intelligenter Software-Agenten (-> Software-Agenten) bei. Dank ständig verbesserter Rahmenbedingungen hat sich das Volumen der weltweit im E-Commerce getätigten Transaktionen nach Angaben der OECD von nahezu Null im Jahre 1995 innerhalb zweier Jahre explosionsartig auf ca. 26 Mrd. US $ ausgeweitet. Prognos schätzt, dass 1999 ein Wert von 43 Mrd. US $ und 2003 gar ein Wert von 1.300 Mrd. US $ erreicht wird. Andere Prognoseinstitute warten zwar infolge unterschiedlicher eC-Definitionen und Einschätzungen der weiteren Entwicklung der Rahmenbedingungen mit anderen Zahlenwerten auf, doch stimmen alle in der Aussage überein, dass in den USA (mit einem gegenwärtigen Weltmarktanteil von ca. 70-80%), insbesondere aber auch in Europa (Weltmarktanteil ca. 1015%) mit enormen Steigerungsraten des E-Commerce gerechnet werden muss. Der überwiegende Teil (ca. 80%) der eCUmsätze fällt immer noch im B2BGeschäft an, wenngleich die Zahl und Umfange von B2C-Transaktionen in jüngster Zeit rasant gestiegen sind. A2BTransaktionen haben (noch) keinerlei Bedeutung. In der Gunst deutscher eCPrivatkunden, die 1999 einen Umsatz von ca. 2,2 Mrd. DM und damit ein Wachstum gegenüber dem Vorjahr von 200% erbracht haben, steht das Buchen von Reisen, das Brokerage und der Kauf von Büchern, Computern, Unterhaltungselektronik, Textilien, CDs, Videos und Tickets ganz oben. In den USA sind nach Angaben der National Retail Association dagegen die schnell wachsenden Auktionshäuser (eBay, uBid, FirstAuction) treibende Kräfte des B2C-eC, gefolgt von Buch-, Computer-, Software-, Musik-, CD-, Video- und Textilienanbietern. 222
E-Commerce Die digitale, nicht an Raum und Zeit ("anywhere & anytime") gebundene Abwicklung geschäftlicher Transaktionen durch E-Commerce impliziert insbesondere für KMU gravierende Chancen und Risiken, die vor allem in folgenden Entwicklungen bzw. Möglichkeiten begründet sind: Raum-zeitliche Ausweitung der Beschaffungs- und Absatzmärkte, Aggregation von nationalen Nischen- zu größeren internationalen Teilmärkten, Erhöhung der Attraktivität des Leistungsangebotes durch zusätzliche (kostenlose) digitale Dienstleistungsangebote (z.B. Buchangebot mit Buchkritiken, Chat-Foren etc.), Individualisierte Leistungsangebote (mass customization), Schaffung und Pflege engerer Kundenbeziehungen (-> Customer Relationship Management, CRM) z.B. durch die Implementierung von -» Data Warehousing und -> Data Mining oder den Aufbau von -» "virtual communities", Senkung von Transaktions-, Produktions- und Lagerhaltungskosten und damit Eröffnung von Preissenkungsspielräumen, Verringerung von Auftragsabwicklungszeiten und -fehlem, Nutzung neuer Preisbildungsmechanismen (z.B. durch Auktionen), Veränderung der -> Wertschöpfungskette durch Direktvertrieb (-> Absatzwegewahl) und Entbündelung der traditionellen Handelsfunktionen (physische Distribution, Sortimentsgestaltung, Information, Beratung, Inkasso) mit der Folge einer Disintermediation "alter" Akteure und dem Auftreten neuer Intermediäre, Erhöhung des Wettbewerbs durch größere Markttransparenz sowie dem Auftreten neuer Wettbewerber (-* "Start Ups", Verschmelzung von Branchen). Sollen die Chancen gezielt genutzt und die Risiken gesenkt werden, bedarf es neben der von einer ganzheitlichen eCStrategie geleiteten Entwicklung neuer bzw. Veränderung (reengineering) alter Geschäftsprozesse und -strukturen eines professionellen, den Bedürfnissen und
Efficient Consumer Response (ECR)
E-Commerce Erwartungen (einfache Handhabung, Offerierung eines Mehrwertes für den Kunden etc.) der Zielgruppe Rechnung tragenden Internet-Auftrittes - möglicherweise in vertikaler oder horizontaler Kooperation mit anderen Unternehmen (webbing). Literatur: Albers, S./Clement, M./Peters, K./Skiera, B. (Hrsg.): eCommerce, Frankfurt a.M. 1999; Hermans, A./Sauter, M.: ManagementHandbuch Electronic Commerce, München 1999; Kalakota, R./Whinston, A. B.: Frontiers of Electronic Commerce, Reading, Ma., 1996; Mattes, F.: Electronic Business-to-Business, Stuttgart 1999; OECD (Hrsg.): The Economic and Social Impact of Electronic Commerce: Preliminary Findings and Research Agenda, Paris 1999.
Erich Bauer Economies of Scale Skalenerträge Economies of Scope Unter Economies of Scope versteht man die Kostenvorteile, die ein Unternehmen erzielt, wenn es in mehreren unterschiedlichen Bereichen tätig ist. Dazu zählt der Einsatz von Kuppelprodukten (-> Kuppelproduktion), Markennamen, Vertriebskanälen, die gemeinsame Nutzung von Ressourcen in Geschäftsbereichen verschiedener Branchen bzw. in Bereichen mit unterschiedlicher Tätigkeit. Economies of Scope treten nur zwischen unterschiedlichen Bereichen auf, während -» Synergien auch auftreten können, wenn zwei Einheiten in derselben Branche tätig sind bzw. identische Tätigkeiten ausfuhren. Economies of Speed Economies of Speed sind Kostenvorteile durch Zeitersparnis. Besonders in technikorientierten Branchen ist der Zeitbedarf bei der Entwicklung neuer Produkte bis zur Marktreife ein entscheidender Erfolgsfaktor ("Time to market"). Economies of Speed entstehen, wenn das Unternehmen mit einem neuen Produkt Monopolgewinne abschöpfen kann oder Markteintrittsbarrieren für Konkurrenten aufbaut - etwa durch Patente oder das Setzen von Standards. Man spricht auch
von "First Mover Advantages" hohes Tempo beim Markteintritt.
durch
Den Vorteilen des Ersten im Markt stehen die Risiken eines Misserfolgs gegenüber, "Economies of Speed" lassen sich aber auch für Technologiefolger ermitteln, die als Zweite auf dem Markt auftreten. Mit der Strategie "Quick second to market" versuchen sie, ihr Konkurrenzprodukt am Markt einzuführen, sobald der Markterfolg des Technologiefuhrers erkennbar ist. Je schneller der Folger auf den Markt kommt, desto weniger Monopolgewinne kann der Technologieführer für sich abzweigen. ECR Efficient Consumer Response EDI Electronic Data Interchange (EDI) EDIFACT EDIFACT (Electronic Data Interchange For Administration, Commerce and Transport) ist ein Standard der Kommunikation (-» Electronic Data Interchange) zwischen Unternehmen der aus dem amerikanischen JEDI und dem UN Standard für Europa hervorging und dient dem Austausch von Geschäftsdokumenten in einheitlicher Form. Der EDIFACT Standard ist: • anwendungsunabhängig, • medienunabhängig und • unabhängig von einer bestimmten Rechnerarchitektur oder bestimmten Betriebssystemen. EDIFACT bietet dem Nutzer: • • •
Fehlerfreie Übertragung, schnellere Lieferung, verbesserte Logistik.
Insbesondere im Rahmen neuerer Konzepte (wie ->• Efficient Consumer Response) gewinnt EDIFACT an enormer Bedeutung. Efficient Consumer Response (ECR) Neue Informations- und Kommunikationstechnologien bewirken bei Industrie 223
Efficient Consumer Response (ECR) und Handel seit geraumer Zeit eine unternehmensübergreifende Umstrukturierung und Verzahnung der Aufbau- und Ablauforganisationen durch Maßnahmen des -»Business Process Reengineering. Im Mittelpunkt steht dabei die konsequente Ausrichtung der Geschäftsprozessen auf den Kunden. Es entstehen Netzwerke, weil nicht nur intra-, sondern vor allem auch interorganisationale Prozessabläufe optimiert werden sollen. Dadurch ergibt sich ein Übergang von der traditionellen, oft funktional ausgerichteten Intraorganisation zu einer prozessorientierten Interorganisation. Die sich so bildenden Wertschöpfungspartnerschaften dienen den Koalitionen zur Sicherung und Steigerung von Effizienz und Effektivität durch Kostensenkung, Leistungsverbesserung und Flexibilisierung. In den durch Diskontinuitäten und neue Machtverhältnisse geprägten Absatzkanälen des Konsumgüterbereiches wird das Business Process Reengineering als Efficient Consumer Response (ECR) diskutiert. Dabei handelt es sich um ein Management-Konzept, bei dem Hersteller und Händler durch Kooperationen sowie systematische Kundenfokussierung strategische Wettbewerbsvorteile erzielen können. Bereits terminologisch umfasst ECR zwei sich ergänzende Stoßrichtungen: die Orientierung an Kundenwünschen ("Consumer") sowie die inner- und zwischenbetriebliche Optimierung der Warenflüsse ("Efficie nt Response"). Erstgenannte Stoßrichtung wird als Category Management bezeichnet und umschließt alle Strategien, die über eine Optimierung der warengruppenbezogenen Vermarktungsmaßnahmen sowie ein streng marktorientiertes Gesamtsortiment Umsätze und Wertschöpfung verbessern sollen (Marketingoptimierung). Der Komplementärbereich, das -*Supply Chain Management, umfasst alle Strategien, welche die Reduzierung von Kosten sowie eine Qualitätsverbesserung entsprechender Waren- und Informations224
Efficient Consumer Response (ECR) flüsse im Sinne der Logistikoptimierung zum Ziele haben. Ein bedarfsgerechtes Leistungspaket für den Verbraucher zu erbringen, erfordert eine Warenbereitstellung am POS, welche es über die Faktoren Menge, Qualität, Preis und Zeitpunkt (Real Time Merchandising) zu optimieren gilt. Dafür ist es nicht nur erforderlich, die Anforderungen und Wünsche des Kunden permanent zu ermitteln, sondern diese auch als Lenkungsmechanismus der Beschaffungssowie Logistikaktivitäten zu begreifen. Zur Erreichung einer kostengünstigen Versorgung richtet sich das Supply Chain Management deshalb, im Gegensatz zu einer bloßen Kostenverschiebung zwischen den beteiligten Wirtschaftseinheiten, auf eine Reduzierung der in der gesamten Prozesskette anfallenden Logistikkosten. Alle Aktivitäten ohne Wertschöpfung und daraus resultierende redundante Ressourcenbindungen sollen durch eine effiziente, auf betriebliche Kernkompetenzen ausgerichtete Verteilung der Aufgaben eliminiert werden. Dies ermöglicht schnellere Durchlaufzeiten und damit eine möglichst absatzsynchrone Belieferung der Filialen durch den Einsatz von Methoden wie z.B. dem Continuous Re- bzw. Preplenishment in Verbindung mit Computer Aided Ordering sowie dem Cross Docking. Beim Continuous Replenishment stellt eine Handelsunternehmung seinen Lieferanten im Hinblick auf die Gewährleistung einer bedarfsgerechten Bestandshöhe und eines festgelegten Lieferservicegrades kontinuierlich Lagerbestands- und Abverkaufsdaten zur Verfügung, was zu einer Reduktion von Warenbeständen, besserer Warenverfügbarkeit sowie Lieferkosteneinsparungen beiträgt. Darüber hinaus werden beim Continuous Preplenishment Prognosen über kurzfristig erwartete Nachfrageänderungen (durch Großveranstaltungen, Wetteränderungen etc.) in die Bestellmengenübermittlung integriert. Eine solche effiziente Lager-
Efficient Consumer Response (ECR) nachschubversorgung bewirkt Economies of Speed durch Realisierung einer zeitlich bedarfsgerechten Disposition und einer -> Just-In-Time-Belieferung der Einkaufsstätten. Das bisherige "PushSystem" in der Distributionslogistik zwischen Industrie und Handel wird so durch ein "Pull-Prinzip" ersetzt. Gleichzeitig werden die Warenverfügbarkeit erhöht und Fehlmengenkosten reduziert. Cross Docking ermöglicht dabei, auf Bestände und zusätzliche Kommissionierungsarbeiten im Zentrallager weitgehend zu verzichten, indem verschiedene vorkommissionierte Lieferungen von jeweils unterschiedlichen Lieferanten synchron erfasst, direkt zu Filial-Liefereinheiten zusammengestellt und ohne aufwendige Kommissionierungstechniken sofort an ihre Bestimmungsorte weitergeleitet werden. Der Einsatz dieser Methoden ist jedoch nur möglich, wenn auch die dafür erforderlichen Informationen zur Verfügung stehen. Somit muss neben dem Kooperationswillen der Beteiligten auch eine hinreichende Leistungsfähigkeit der eingesetzten Informations- und Kommunikationssysteme (IKS) gegeben sein. Dafür muss nicht nur die Architektur der IKS auf jeder einzelnen Wertschöpfungsstufe den Anforderungen entsprechen, sondern auch die zwischenbetriebliche Verbindung dieser Systeme sichergestellt sein. Im Handel setzt dies integrierte Warenwirtschaftssysteme voraus, in welchen Scannerdaten die Basis darstellen. Deren elektronische Erfassung verlangt ein einheitliches Nummerierungssystem (z.B. EAN-Code) zur Warenkennzeichnung. Nur dann lässt sich jede Verkaufseinheit hinsichtlich Farbe, Größe, Modell, Zugehörigkeit zu einer Warengruppe, Lieferant, Preis etc. exakt bestimmen. Das Einlesen artikelgenauer bzw. versandeinheitsspezifischer Daten an bestimmten Punkten der Wertschöpfungskette (Lager, Rampe, Kasse) lässt
Efficient Consumer Response (ECR) den Warenfluss transparent werden und ermöglicht eine permanente Warensteuerung und -Verfolgung (Tracking). Von besonderer Bedeutung sind die am Point of Sale gewonnenen und bestenfalls in einem - » D a t a Warehouse gespeicherten Bondaten, weil sie sich beim Category Management insbesondere für Warenkorb-, Warengruppen- und Zielgruppenanalysen sowie die Ausarbeitung von Merchandisingplänen pro Category und Geschäftsstelle nutzen lassen (-> Merchandising). Mit Management Support Systemen sind Erfolg versprechende Marketing-Maßnahmen in Bezug auf Artikelauswahl, Preispolitik, Warenplatzierung etc. zu testen, so dass Promotionplanprogramme zeigen, welche Produkte unter welchen marketingpolitischen Maßnahmen sich am besten für bestimmte kurz- und mittelfristige Aktionen eignen. Interorganisatorisch können selektierte POS-Daten an vorgelagerte Wertschöpfungsstufen zum Zwecke der Produktentwicklung, Verbesserung von Promotionmaßnahmen und Produktnachlieferung übermittelt werden. Für den letztgenannten Punkt ist es zwingend erforderlich, dass die Kooperationspartner den Datenaustausch standardisiert, schnell und sicher abwickeln, was nur durch den Einsatz von EDI-Lösungen (-» Electronic Data Interchange) erreicht werden kann. Neuerdings wird die Kopplung der Informationssysteme der Koalitionen durch Internet-EDI wesentlich erleichtert, weil dieses eine zeitnahe sowie kostengünstige Kommunikationsanbindung mit hoher Verbindungsdichte und weltweiter Verfügbarkeit schafft. Literatur: Barth, K./Kloth, R.: Efficient Consumer Response (ECR), in: Hermanns, A./Schmitt, W./Wißmeier, U.K. (Hrsg.): H a n d b u c h ModeMarketing (Band I), 2. Aufl., Frankfurt/M. 1999, S. 775-793; Barth, K./Möhlenbruch, D.: Beschaffung, Logistik und Controlling, in Dichtl, E./Lingenfelder M. (Hrsg.): Meilensteine im deutschen Handel, Frankfurt/M. 1999, S. 207-240; Heydt, A. v. d. (Hrsg.): H a n d b u c h Efficient Consumer Response: Konzepte, Erfahrungen,
225
Efficient Consumer Response (ECR) Herausforderungen, München 1999; Zeisel, S.: Efficient Pricing und Efficient Assortaient Planning fur große Handels- und Dienstleistungssortimente, Münster, Hamburg, London 1999.
Klaus Barth Efficient Replenishment -> Wertschöpfungsmanagement EFQM European Foundation for Quality Management. Von 14 Unternehmensleitern führender Europäischer Unternehmen (aus Deutschland Fa. Bosch und Volkswagen) 1988 gegründete gemeinnützige Organisation zur Erhöhung der Wettbewerbsfähigkeit europäischer Unternehmen auf dem Weltmarkt durch Förderung eines europäischen TQM (-» Total Quality Management)-Ansatzes. 1. Grundsätze Der Ansatz beruht auf der Philosophie eines "Umfassenden Qualitätsmanagements". Dazu hat EFQM für sich und seine Mitglieder folgende Prinzipien entwickelt: Die EFQM sieht als Vision eine Welt, in der sich Organisationen in Europa entwickeln und prosperieren, erreicht durch die Mission, die treibende Kraft für nachhaltige Excellenz in Organisationen in Europa zu sein unter Berücksichtigung folgender Werte: Mitglieder und Mitarbeiter der EFQM • • • • •
streben nach organisatorischer Excellenz; sind kundenbestimmt und auf sie fokussiert; schätzen Menschen und Teamarbeit; zeigen Respekt für die Gesellschaft; handeln integer.
2. Aktivitäten Zur praktischen Umsetzung wurde seit 1991 ein Modell (-> EFQM-Modell für Excellenz) entwickelt, das es Organisationen erlaubt, sich selbst zu bewerten und sich um den Europäischen Qualitätspreis EQA (->• European Quality Award) zu bewerben. 226
EFQM-Modell Die Aktivitäten der EFQM umfassen: • • • • • •
Bereitstellen eines Modells, das die geforderte Philosophie umfasst, Betreiben des Award-Prozesses auf Europäischer Ebene, Bereitstellen angemessener Unterstützung und Dienstleistung, Unterstützen bei Networking, -» Benchmarking, Forschung und Training, Zusammenarbeit mit Partnern auf nationaler Ebene, Einbringen dieser Gedanken in öffentliche Institutionen.
Alle Aktivitäten basieren auf acht Eckpfeilern von Excellenz: • • • • • • • •
Ergebnisorientierung, Kundenorientierung, Führung und Zielkonsequenz, Management mit Prozessen und Fakten, Mitarbeiterentwicklung und —beteiligung, Kontinuierliches Lernen, Innovation und Verbesserung, Aufbau von Partnerschaften, Verantwortung gegenüber der Öffentlichkeit.
Die EFQM umfasst zehn Jahre nach ihrer Gründung ca. 800 Mitgliedsorganisationen in ganz Europa. Darüber hinaus wird die Durchführung ähnlicher nationaler Programme zur Förderung des Umfassenden Qualitätsmanagements unterstützt; in Deutschland ist das der "Ludwig Erhard Preis zur Auszeichnung von Spitzenleistungen im Wettbewerb" (-»Qualitätsauszeichnungen). Henning Kirstein EFQM- Modell für Excellenz Das EFQM-Modell stellt Umfassendes Qualitätsmanagement in einer aus neun Hauptkriterien bestehenden Struktur dar; alle Kriterien sind untereinander vernetzt (Abb. 1).
EFQM-Modell
EFQM-Modell 1. Grundprinzip Dem Modell liegt folgendes Prinzip zugrunde: Exzellente Ergebnisse im Hinblick auf Leistung, Kunden, Mitarbeiter und Gesellschaft werden durch Führung erreicht, die Politik & Strategie, Mitarbeiter, Partnerschaften & Ressourcen und Prozesse einbezieht. Das Modell ist als Verbesserungskreis angelegt, der durch Anwenden der "Befahiger" zu "Ergebnissen" fuhrt, die wiederum dadurch verbessert werden können, dass Innovation und Lernen dazu benutzt werden, die Befähiger ihrerseits zu optimieren, wodurch sich der Kreis im Sinne einer Ständigen Verbesserung schließt. 2. Aufbau Das Modell ist in die zwei großen Bereiche "Befahiger" und "Ergebnisse" aufgeteilt, die in ihrer relativen Gewichtung am Gesamtmodell je 50% ausmachen. Es ist einer der fundamentalen Grundsätze des EFQM- Modells, dass es nicht ausreicht, nur Ergebnisse zu managen, sondern dass es erforderlich ist, die Vorgehensweise dazu (die Befähiger) einzubeziehen. Deshalb wird auch die Hälfte der Gewichtung auf die Vorgehensweise gelegt, obwohl es Ergebnisse sind, die letztlich erreicht werden sollen. Exzellenz wird also nicht nur durch Ergebnisse, - "Was will die Organisation erreichen?" - , son-
dem auch durch die Mittel und Wege des Umsetzens, - "Wie geht die Organisation dabei vor ?" - , bewertet. Ergebnisse sind immer das Produkt der Vergangenheit; das Einbeziehen von Prozessen erlaubt es, auch eine Projektion in die Zukunft vorzunehmen. 3. Struktur Drei Hauptsäulen (die senkrechten Kästen) bilden das Fundament des Modells: durch Einbindung aller Mitarbeiter (Führung) in einen kontinuierlichen Verbesserungsprozess (Prozesse) bessere Ergebnisse (Schlüsselleistungen) erzielen. Die jeweils dazwischenliegenden, waagerechten Kästen bilden eine weitere Untergliederung und geben an, mit welchen Mitteln die Umsetzung des Modells erreicht werden soll und welche Zwischenergebnisse dafür erforderlich sind. Grundsätzlich erklärt das Modell, dass gute Ergebnisse im Umgang mit Kunden, Mitarbeitern und Gesellschaft erreicht werden durch Führung mit Hilfe von Politik und Strategie, Mitarbeiterorientierung sowie Umgang mit Partnern und Management von Ressourcen, was schließlich mit Hilfe von geeigneten Schlüsselprozessen zu Excellenz in Unternehmensergebnissen führt.
Befähiger
Ergebnisse
Innovation und Lernen Abb. I: Gesamtaufbau des EFQM-Modells für
Exzellenz
227
EFQM-Modell
EFQM-Modell 4. Kriterien Eine weitere Differenzierung erfolgt durch die relative Gewichtung der jeweiligen Kriterien, wie sie durch die Prozentzahlen in den einzelnen Kriterienkästen dargestellt sind. Die Prozentzahlen, addiert zu 100%, geben somit den relativen Anteil des jeweiligen Einzelkriteriums am Gesamtmodell an. Diese Gewichtung wurde mit Schaffung des Modells von den Gründerfirmen als für den Unternehmenserfolg wichtig angesehen und ist seit der ersten Fassung des EFQM- Modells unverändert geblieben. Ergebniskriterien: Positive Schlüsselleistungen sind das Hauptziel, das eine Organisation erreichen will. Sie sind mit 15% am Gesamtmodell beteiligt. Ergebnisse aus den Schlüsselprozessen ermöglichen alle weiteren Aktivitäten von Investitionen bis Erhaltung der Arbeitsplätze. Schlüsselprozesse sind dabei die Prozesse im Unternehmen, die vorrangig zur Wertschöpfung aus Kundensicht beitragen. Zu den Resultaten aus Schlüsselleistungen gehören dabei finanzielle wie nicht- finanzielle Ergebnisse. Das Kriterium Kunden ist mit der höchsten Einzelgewichtung von 20% am Gesamtmodell beteiligt: Positive Ergebnisse aus Kundensicht sind das bestgeeignete Instrumentarium zur Erreichung von Unternehmensergebnissen. Mit Kundenergebnissen ist z.B. die langfristige -» Kundenzufriedenheit gemeint, d.h. dass der Kunde langfristig an das Unternehmen gebunden bleibt, und zwar nicht nur durch das Produkt, sondern auch durch alle Dienstleistungen und das Verhalten des Unternehmens. Die Fortsetzung dieser Denklinie beinhaltet, dass Kundenergebnisse in hohem Maße von der Haltung der Mitarbeiter abgeleitet werden, deren Meinung über das Unternehmen deshalb mit 9% am Gesamtmodell angesetzt sind.
228
Im Zeitalter des globalen Austausches von Technik und Arbeitsweisen spielen diese Gesichtspunkte heute eine eher untergeordnete Rolle im Vergleich zu Zufriedenheit und Leistungsbereitschaft der Mitarbeiter, die vom Unternehmen permanent herbeigeführt werden müssen (-> Mitarbeiterzufriedenheit). Da Produkte immer auch dienstleistungsabhängig sind, d.h. direkt vom Verhalten der Mitarbeiter abhängen, werden Ergebnisse in diesem Bereich als eigenes Kriterium behandelt. Die Ergebnisse, die in Bezug auf die Gesellschaft zu sehen sind, werden mit 6% im Modell gewichtet. Grundannahme dieses Kriteriums: ein Unternehmen, das ein schlechtes Image bzgl. Gesellschaft oder Umwelt hat, wird es schwerer haben, seine Produkte zu vertreiben, als ein Unternehmen mit gleich guten Produkten, aber besserem Ansehen in diesen Positionen. Befähiger
Kriterien:
Aus der Erkenntnis, dass Ergebnisse nur durch entsprechende Prozesse erzielt werden können, werden 50% des Modells für die Befähiger angesetzt. Der Ausdruck "Befähiger" wird auch mit "Mittel und Wege", "Potenzialfaktoren" oder "Einsatzfaktoren" bezeichnet. Sie bringen zum Ausdruck, dass es sich um Vorgehensweisen, um Vorgänge, um Prozesse handelt. Einer der wichtigsten Befähiger hat deshalb "Prozesse" als direkte Kriterienbezeichnung. Das größte Einzelkriterium ist die Säule Prozesse mit 14%; das unterstreicht die wesentliche Bedeutung dieses Denkansatzes, wie Ergebnisse erzielt werden sollen. Es umfasst alle wesentlichen Fragen, die mit Prozessen verbunden werden können. Prozesse werden durch Menschen betrieben, deshalb wird die Behandlung der Mitarbeiter mit 9% Gewichtung als wichtiges Kriterium angesetzt. Die Betei-
EFQM-Modell
EFQM-Modell
ligung der Mitarbeiter an der Gesamtaufgabe des Unternehmens und ihre damit verbundene Bevollmächtigung zur Durchfuhrung eigenständiger Aufgaben ist einer der Hauptgesichtspunkte in diesem Kriterium; basierend auf der Erkenntnis, dass es nicht möglich ist, alle Einzelheiten zu reglementieren und zu verwalten; damit muss man sich mehr auf die Eigeninitiative und das Verantwortungsbewusstsein des einzelnen verlassen. Das Kriterium Partnerschaft und Ressourcen, mit ebenfalls 9%, bewertet im Unternehmen die bereitzustellenden Mittel und Wege, um geforderte Aufgaben durchfuhren zu können. Darüber hinaus behandelt es den sorgfaltigen Umgang mit finanziellen und nicht- finanziellen Ressourcen, wozu z.B. Informationen oder Technologie gehören. Partner in verschiedenen Positionen spielen eine wesentliche Rolle im Unternehmensgeschehen, sei es als Lieferant, als Kooperationspartner, als Lizenznehmer oder in anderen Eigenschaften. Politik und Strategie (8%) kann als "Ausführungsbestimmung" zum Führungsverhalten angesehen werden, da Politik und Strategie weitgehend durch die Führung formuliert wird. Dabei ist es auch beson-
Abb. 2: Schema der
ders wichtig, wie Politik und Strategie auf die Gesamtorganisation ausgedehnt (Deployment) wird, damit "alle am gleichen Strang ziehen". Führung ist der übergeordnete Aspekt und soll deshalb Elemente des gesamten Modells im Führungsverhalten des Managements und Topmanagements widerspiegeln. Die Führung mit 10% als zweithöchstes Befahiger-Kriterium zeigt, wie wichtig eine generelle Orientierung durch die Führung im Unternehmen ist, die vorgelebt werden muss. 5. Unterkriterien: Jedes der neun Kriterien ist in mehrere Unterkriterien aufgeteilt, die mit a, b, c usw. bezeichnet sind; in der Regel sind es 4-6 Kriterien bei den Befähigern, jeweils zwei bei den Ergebnissen. Jedes dieser Unterkriterien hat wieder eine Reihe von beispielhaften Ansatzpunkten, die in der Bewerbung bzw. in der Selbstbewertung des Unternehmens angesprochen werden sollten.(Abb. 2) Die grundsätzliche Fragestellung bei allen Befähiger-Kriterien ist immer in der Form "Wie wird etwas gemacht?". D.h. nicht die Frage nach dem "Was" wird gestellt, vielmehr wird unterstellt, dass etwas
Unterkriterien
229
Einzel-Assessment
EFQM-Modell vorhanden ist, und somit gefragt wird, wie dieses Vorhandene in der Regel verbessert oder gemanagt und anderweitig im Rahmen der Modellvorgaben benutzt wird. Obwohl vordergründig damit nur ein geringer Unterschied besteht, ist jedoch die Unterscheidung in "was" und "wie" fundamental. Es ist wesentlich schwieriger darzustellen, wie etwas gemacht wird, und zu begründen, warum es so und nicht anders gemacht wird, als nur Fakten und Ergebnisse aufzuzählen. Hierin liegt eine der größten Anforderungen an die Erfüllung der Modellvorgaben. Auf Basis einer Bewertung nach dem EFQM-Modell für Excellence wird jährlich der European Quality Award vergeben. Organisationen mit Sitz in Europa können sich um Preis oder Award bewerben. Ein genau definierter Bewertungsprozess nach dem -»RADARBewertungsschema unter Einsatz internationaler Assessoren garantiert eine objektive Beurteilung nach den Kriterien des EFQM-Modells (s.a. —> Qualitätsauszeichnungen). Teilnahmeberechtigt sind größere Unternehmen, in einer gesonderten Kategorie Kleine und Mittelständische Unternehmen ("KMU" • Betriebsrat gemeinsam gebildetes Organ der ->Betriebsverfassung, dem kraft Gesetzes die Befugnis zur Beilegung von Meinungsverschiedenheiten übertragen ist. Die Einigungsstelle trifft ihre Entscheidung durch Beschluss, der im zwingenden Einigungsstellenverfahren die Einigung zwischen Arbeitgeber und Betriebsrat ersetzt. Der Spruch der Einigungsstelle unterliegt der gerichtlichen Prüfung im arbeitsgerichtlichen Beschlussverfahren. Christian Heinrich Einkauf —> Beschaffung Einkaufsgenossenschaften Handelsformen Einkaufszentrum -> Handelsformen Einlagenfinanzierung Finanzierung Einmalfertigung Einzelfertigung Einstufige Werbung Begriff des Direktmarketings. Als einstufige Werbung charakterisiert man Aktionen, bei denen mit einem Mailing (welches normalerweise ein Anschreiben, weitere Unterlagen zum beworbenen Produkt sowie ein Bestellformular enthält) direkt ein Kaufabschluss angestrebt wird (Impulskauf). Im Gegensatz zur zweistufigen Werbung oder —> Nachfasswerbung eignet sich diese - auch als One-Shot-Mailing bezeichnete - Werbeform nur für geringwertige, wenig erklärungsbedürftige Produkte. Da der Absatz von der Art und dem Preis des beworbenen Gutes abhängt, ist eine Absatzprognose schwer zu erstellen (-> Lieferbereitschaft). Einzel-Assessment -> Assessment-Center
Einzelfertigung Einzelfertigung Der Begriff Einzelfertigung beschreibt einen Produktionstyp hinsichtlich der Auflagenhöhe der Produkte bzw. der Wiederholhäufigkeit des Produktionsprozesses. Bei der Einzelfertigung wird innerhalb des Planungshorizonts je Produkt nur eine Mengeneinheit produziert. Sind die Produkte Unikate, so spricht man von Einmalfertigung, wird das gleiche Produkt in großen zeitlichen Abständen produziert, von Wiederholproduktion. Gegenstücke der Einzelfertigung sind die -> Serienfertigung und Massenfertigung. Für die Einzelfertigung werden in der Regel Fertigungsanlagen großer Flexibilität verwendet, deren Bedienung den Einsatz qualifizierter Arbeitskräfte erfordert. Beispiele für Einzelfertigung finden sich im Großfahrzeugbau (Schiffe, Flugzeuge) sowie im Maschinen- und Anlagenbau (Gasturbinen, Lackieranlagen). Prinzipiell erfolgt die Produktion zugeschnitten auf die Anforderungen der einzelnen Kunden als Auftragsproduktion (make-to-order). Die Auslastung der Fertigung ist stark von einzelnen Aufträgen abhängig, deren Eingang schwierig zu prognostizieren ist. Erfolgt der Beginn der Fertigung auf den ersten Fertigungsstufen deshalb erst nach Auftragseingang, können die Durchlauf- und damit auch Lieferzeiten in der Einzelfertigung sehr hoch sein. In geeigneten industriellen Bereichen wird daher mit Hilfe einer sog. assemble-to-order Produktion angestrebt, die Vorteile einer Lagerproduktion hinsichtlich vereinfachter Beschäftigungsglättung und kürzerer Lieferzeiten auch in der Einzelfertigung nutzbar zu machen, indem Vorprodukte bzw. Module auf Lager gefertigt werden, aus denen die Endprodukte dann nach Auftragseingang entsprechend den Kundenanforderungen zusammengesetzt werden. Die Produktionsplanung der Einzelfertigung weicht stark von der Planung in der Serien- und Massenproduktion ab. Es sind
Electronic Data Interchange (EDI) in der Regel nur wenige Arbeitsobjekte mit jeweils großem Arbeitsinhalt zu fertigen. Ihre einzelnen Arbeitselemente sind durch eine große Anzahl von technischen und organisatorischen Interdependenzen miteinander verknüpft, was die Koordination, Termin- und Ablaufplanung zu einer komplexen Aufgabe macht, insbesondere da auch die beschränkten personellen und technischen Kapazitäten zu berücksichtigen sind. Für diese Aufgabe werden daher häufig dedizierte Organisationseinheiten gebildet, die z.B. als Projektteams die Angebotserstellung, die Arbeitsstrukturierung, die Ermittlung der Liefertermine, laufende Terminplanung sowie die Bewirtschaftung knapper Ressourcen, die Kostenplanung und das Projektcontrolling übernehmen (Günther 1998). Die Bearbeitung dieser Aufgaben kann durch den Einsatz leistungsfähiger Planungssoftware unterstützt werden, die z.B. die Terminplanung durch Berechnungen von -> Netzplänen weitgehend automatisch durchfuhrt und graphisch veranschaulicht. Literatur: Günther, H.O.: Produktion, in: Springers Handbuch der Betriebswirtschaftslehre, Bd. 1, Kap. 8, Berlin et al. 1998.
Martin Grunow Einzelkosten —• Kostenarten Einzelmarke Herstellermarken Electronic Data Interchange (EDI) Unter EDI versteht man die elektronische unternehmungsübergreifende Übermittlung von normierten Geschäftsdokumenten direkt zwischen den beteiligten Anwendungssystemen, wofür einheitliche Übertragungsstandards erforderlich sind. EDI trägt innerbetrieblich dazu bei, administrative Kosten, Lagerbestände und die Kapitalbindung zu reduzieren, die Planungs- und Dispositionssicherheit zu erhöhen sowie das Personal von Routinearbeiten zu entlasten; zwischenbetrieblich bewirkt es eine Beschleunigung der Ge231
Electronic Data Interchange (EDI) schäftsabwicklung und des kehrs, eine Intensivierung bzw. Lieferantenkontaktes, der Zusammenarbeit sowie neuer Leistungen.
Zahlungsverdes Kundenneue Formen das Angebot Klaus Barth
Electronic Funds Transfer (EFT) Electronic Funds Transfer (EFT) ist der Oberbegriff für elektronisch abgewickelten Zahlungsverkehr. Einerseits fällt darunter der elektronische Geldverkehr der Banken, andererseits umfasst der Begriff Zahlungen zwischen Konsumenten und Unternehmen im Rahmen des ->• E-Commerce (—• E-Payment). Elektronischer Stellenmarkt Der elektronische Stellenmarkt lässt sich im Rahmen der -> Personalbeschaffung grundsätzlich in einen externen und einen internen Markt unterteilen. Als Technologie wird entsprechend das -> Internet bzw. das unternehmensspezifische -»Intranet genutzt. Der externe Stellenmarkt im Internet lässt sich weiter differenzieren in öffentliche Stellenbörsen, respektive Jobbörsen und Stellenausschreibungen auf unternehmenseigenen Homepages. Bei Jobbörsen finden sich kommerzielle und nichtkommerzielle Anbieter (Hochschulen, Studenteninitiativen, Verbände) sowie Verlage, die eine oftmals kostenlose Parallelschaltung zum Printmedium bereitstellen. Als relevantes Auswahlraster können Kriterien wie Bekanntheitsgrad, Zielgruppenorientierung, Kosten, Anzahl und Aktualität der Stellenofferten, Benutzerfreundlichkeit der Suchmechanismen, das Vorhandensein von Stellengesuchen und das allgemeine Erscheinungsbild, herangezogen werden. Festgemacht werden kann der Bekanntheitsgrad z.B. an den Zugriffen pro Tag oder über Befragungsergebnisse. Eine Zielgruppenorientierung erfolgt objektbezogen, über Einsatzort, Funktion, Branche etc. Ähnlich dem Stellenmarkt in Printmedien sind die Datenbanken von Jobbörsen nicht nur zur 232
Elektronischer Stellenmarkt Schaltung eigener Stellenanzeigen, sondern auch zur aktiven Auswertung von Stellengesuchen geeignet. Die wichtigsten Erfolgsfaktoren, um über die Gestaltung der firmeneigenen Internetseite als attraktiver Arbeitgeber wahrgenommen zu werden, sind die adäquate Informationsbereitstellung und zielgruppenorientierte Darstellung. Neben der ausführlichen Untemehmenspräsentation dürfen detaillierte Angaben zu offenen Stellen und Praktikumplätzen sowie Hinweise auf Einstiegsund Karrieremöglichkeiten nicht fehlen. Eine Stellenmarkt-Rubrik, überschrieben mit "Jobs, Karriere, Career, Ihr Einstieg,...", sollte idealerweise schon auf der Start-up Seite anwählbar sein. Eine ansprechende graphische Gestaltung, hohe Benutzerfreundlichkeit, sinnvolle Navigationstools sowie Möglichkeiten der direkten Kontaktaufnahme sind Grundvoraussetzungen. Über die direkte Kontaktaufnahme hinaus können und sollten weitere Möglichkeiten des Internets genutzt werden. Hierzu zählen das Angebot der direkten elektronischen Bewerbung und die (teilweise) Virtualisierung des Bewerberauswahlverfahrens. Unabhängig von der Ausschöpfung dieser Potenziale muss eine konsequente Pflege der Seiten und eine prinzipielle Erreichbarkeit der Kontaktperson(en) gewährleistet sein. Der virtuelle Stellenmarkt über das Intranet bietet ebenso eine optimale Möglichkeit für eine Effizienzsteigerung in der Personalarbeit. Schnell und kostengünstig kann über offene Stellen und Anforderungsprofile unternehmensweit informiert werden. Bei der Nutzung des Intranets für die Personalarbeit wird dem elektronischen Stellenmarkt so zur Zeit auch die größte Bedeutung beigemessen. Neben der Kommunikations- und Beschaffungsfunktion stellen das Internet und das Intranet also zahlreiche Möglichkeiten zur Verfügung, eigene Prozesse und Strukturen zu verbessern, Erreichbarkeit, Geschwindigkeit und Kosten zu
Elektronischer Stellenmarkt optimieren und damit Ressourcen zu sparen. Es können mehr Informationen für einen geographisch ausgedehnteren Raum zur Verfügung gestellt werden. Nationale Grenzen werden durch die Technologie quasi aufgehoben. Über die Navigationstools der Jobbörsen ist die zielgruppenorientierte Ansprache gegenüber den Printmedien selektiver möglich. Zudem ist die Interaktion der Kommunikationspartner möglich. Dem Vorteil einer hohen Informationsaktualität steht aber auf der anderen Seite ein erhöhter Pflegeaufwand gegenüber. So kann auch die große Datenmenge für den Einzelnen schnell zur unübersichtlichen Datenflut werden. Da die Nutzerstruktur des Internets nicht allen potenziellen Zielgruppen entspricht, kann die elektronische Ausschreibung auch (noch) nicht für alle offenen Positionen ein adäquater Weg sein. Durch das elektronische Speichern von Bewerberdaten ergeben sich außerdem unmittelbare Fragen zum -> Datenschutz, die bisher noch nicht abschließend geklärt sind. Zu der Imagesteigerung, die sich viele Unternehmen erhoffen, bleibt zu sagen, dass im Internet präsent zu sein nicht mehr nur ein Vorteil, es nicht zu sein, vielmehr schon ein Nachteil ist (->• Öffentlichkeitsarbeit) Literatur: Känzig, T.: Rekrutierungskonzept für das Internet, in: Personalwirtschaft 12/1998, S. 5 4 - 5 8 ; Döbler, T.: Gestaltungsmöglichkeiten für die firmeneigene Homepage, in: Personalwirtschaft 3/1999, S. 6 0 - 6 6 .
Daniela Eisele/Ulrike Hörender E-Mail E-Mails sind elektronische Briefe, die über einen der -> Internet-Dienste versendet werden können. Die Geschwindigkeit der Datenübermittlung sowie die Möglichkeit, der E-Mail einen Anhang, z.B. ein am Computer verfasstes Dokument, beizufügen, machen die Geschäftskommunikation über dieses Medium attraktiv. Gerade die Schnelligkeit der Kommunikation beinhaltet für den Empfanger eine
Emission, freie große Verpflichtung: Der Absender weiß, dass die Mail innerhalb von Sekunden ihr Ziel erreicht. Wird auf diese E-Mail nicht im Zeitraum weniger Stunden reagiert, so wird dies schnell als Desinteresse oder Unhöflichkeit des Empfängers gedeutet. Emission, freie Verfahren zur Unterbringung einer Kapitalerhöhung, bei dem die neuen Aktien direkt einem breiten Publikum {public placement) oder bestimmten Investoren im Rahmen einer Privatplatzierung (private placement) angeboten werden, ohne den Altaktionären ein Bezugsrecht einzuräumen. Während bei größeren Publikumsgesellschaften in den USA fast ausschließlich die freie Emission vorzufinden ist, stellt in Deutschland aufgrund des gesetzlich verankerten Bezugsrechts die -> Bezugsrechtsemission traditionsgemäß die dominierende Methode dar. Mit Einführung des sog. vereinfachten Bezugsrechtsausschlusses (§ 186 III 4 AktG) ist die Durchführung einer freien Emission in Deutschland erheblich erleichtert worden. Die freie Emission weist gegenüber der Bezugsrechtsemission Kosten- und Finanzierungsvorteile auf. Bei einer freien Emission können die neuen Aktien kurzfristig zu einem Ausgabebetrag nahe am aktuellen Börsenkurs ausgegeben werden. Hierdurch lässt sich eine Verwässerung des Aktienkurses ganz oder zumindest weitgehend vermeiden (-> Verwässerungseffekt). Bei der Bezugsrechtsemission ist hingegen zur Bestimmung des Ausgabebetrags wegen der zeitaufwendigen Abwicklung des Bezugsrechts ein relativ hoher Risikoabschlag vom Börsenkurs notwendig, um zu verhindern, dass der Börsenkurs im Emissionszeitpunkt unter den Ausgabebetrag fällt und die Kapitalerhöhung scheitert. Für die freie Emission spricht auch, dass keine Kosten für die Abwicklung des Bezugsrechts anfallen. Analog zur Bezugsrechtsemission wird eine freie Emission im Allgemeinen nicht 233
Entgeltmanagement
Emission, freie vom Emittenten selbst (Selbstemission), sondern durch Zwischenschaltung eines Bankenkonsortiums bzw. Underwriters (Fremdemission) durchgeführt. Hierbei kann das Konsortium als Kommissionär bzw. Geschäftsbesorger (Begebungskonsortium) oder als "Selbstkäufer" (Übernahmekonsortium) auftreten, der das Platzierungsrisiko übernimmt. Die Einbeziehung eines Underwriters wird u.a. mit dessen Beglaubigungsfunktion für die Angemessenheit des Emissionspreises der neuen Aktien begründet. Bei der Wahl des Underwriters kann der Emittent zunächst die Konditionen der Emission festlegen, um dann Angebote für die Durchführung der Emission einzuholen 0competitive bid). Alternativ dazu kann der Emittent auch die Konditionen mit einem im Voraus ausgewählten Underwriter aushandeln (negotiated underwriting). Literatur: Drukarczyk, J.: Finanzierung, 8. A., Stuttgart 1999; Perridon, L./Steiner, M.: Finanzwirtschaft der Unternehmung, 10. A., München 1999; Wöhe, G./Bilstein, J.: Grundzüge der Untemehmensfinanzierung, 8. A., M ü n c h e n 1998.
Stefan Rammert Emissionsbank Bank, die gegen eine Provision die gesamten Aktien aus der Kapitalerhöhung einer -> Aktiengesellschaft zeichnet und an der Börse platziert oder zur Kurspflege einbehält. Die Bank trägt hier das Emissionsrisiko, da ein festes Agio mit der Aktiengesellschaft vereinbart ist. Üblich ist der Zusammenschluss mehrerer Banken zu einem Emissionskonsortium, insbesondere beim Börsengang eines -> Start Ups. Emittentenrating Rating Employee Seif Service Employee Seif Service (ESS) umfasst alle Konzepte auf Basis der Internettechnologie, die es den Mitarbeitern erlauben, Routinevorgänge (z.B. Adressänderung) selbst - und damit ohne Einschaltung der Personalabteilung - vorzunehmen. 234
Dies führt zu folgenden Vorteilen: •
•
•
Bisher manuell ausgeführte Tätigkeiten der Personalabteilung können vermieden werden. Der Mitarbeiter pflegt seine Daten selbst: Somit geringere Fehlerwahrscheinlichkeit, die Datenqualität verbessert sind. Keine Redundanzen: Wurden bisher Mitarbeiterdaten u.U. mehrfach im Unternehmen gehalten, ist nun nur noch ein zentraler Datenbestand erforderlich.
Inzwischen bieten auch die großen Hersteller betriebswirtschaftlicher Standardsoftware (wie z.B. SAP) ESS-Funktionalitäten in ihren Produkten an. Empowerment Das englische Wort "to empower" bedeutet auf Deutsch "befähigen" oder "ermächtigen". Empowerment heißt dann in der Mitarbeiterfiihrung, dass den Mitarbeitern Verantwortung und Kompetenzen übertragen werden, die es ihnen erlauben, ihre Aufgaben weitgehend eigenständig und selbstverantwortlich auszuführen. Zu den Methoden des Empowerment zählen vor allem -> Job Enlargement, Job Enrichment und -» Job Rotation. Mit dem Empowerment wird angestrebt, die -> Mitarbeiterzufriedenheit zu erhöhen und damit die Arbeitsleistung zu steigern. Endwertverfahren -> Investitionsrechnung English Auction -> Internet-Auktionen Enterprise-Self-Audit Management Audit Entgeltmanagement 1. Begriffliches Unter Entgeltmanagement wird im Folgenden die Entwicklung und Anwendung von Entgelt- bzw. Vergütungssystemen auf einzelwirtschaftlicher Ebene verstanden. Es geht darum, allgemeine, über den Einzelfall hinausreichende Regelungen zu
Kntgeltmanagement entwerfen und zu handhaben, nach denen die Beschäftigten der Organisation (der Unternehmung) vergütet werden. Diese Regeln sind bzw. werden Bestandteil des Arbeitsvertrages und legen fest, auf welche Weise die Vergütung als Hauptleistung der Organisation an ihre Beschäftigten ermittelt und geleistet wird. Entgeltmanagement steht für viele Organisationen in einem engen Zusammenhang zu den überbetrieblichen, auf der kollektiven Ebene im Rahmen des Systems der Arbeitsbeziehungen abgeschlossenen —> Tarifverträgen. Sie stellen Regelungswerke dar, die den Rahmen für das Entgeltmanagement der individuellen Organisation bilden. Tarifverträge (in Österreich Kollektivverträge) nehmen dem Entgeltmanagement allerdings nicht die Gestaltungsaufgabe ab: Sofern die Organisation einem Tarifvertrag unterliegt, enthalten sie Mindestregelungen, ansonsten vermitteln sie für das Entgeltmanagement eine Orientierung. Abgesehen von der Verpflichtung, die Mindestbedingungen einzuhalten, stehen im Rahmen des Entgeltmanagements auf einzelbetrieblicher Ebene zahlreiche zusätzliche Freiheitsgrade und Gestaltungsmöglichkeiten zur Verfügung. In letzter Zeit wird in Deutschland angesichts verbreiteter Zweifel an der Leistungsfähigkeit sog. Flächentarife (Verträge mit branchenweiter Geltung) auch die Frage, ob sich eine Organisation noch der Tarifbindung unterwerfen soll, zum Entscheidungsgegenstand des Entgeltmanagements. 2. Zielsetzung Auf einer abstrakten Ebene formuliert, soll durch Entgeltmanagement das Arbeitsverhalten der Beschäftigten im Interesse der Organisation beeinflusst werden. In konkreterer Perspektive sollen durch Entgeltmanagement insbesondere Anreize zum Erhalt bzw. zur Steigerung der Leistungsmotivation gesetzt werden. Dahinter steht die Auffassung, dass durch das Versprechen von Geldleistungen für
Entgeltmanagement zu erbringende Arbeitsleistungen im Sinne einer Leistungssteuerung auf die Beschäftigten eingewirkt wird. Weitere Ziele des Entgeltmanagements bestehen darin, durch als attraktiv empfundene Vergütungen die Akquisition neuer Beschäftigter auf dem externen Arbeitsmarkt zu erleichtern und bereits in einem Arbeitsverhältnis befindliche Beschäftigte an die Organisation zu binden. Diese Ziele verbinden sich stets mit dem Wirtschaftlichkeitsprinzip, das hier fordert, im Rahmen des Entgeltmanagements die Kosten-Leistungsrelation zu beachten. 3. Akteure des Entgeltmanagements Entsprechend dem bereits erwähnten Tatbestand, dass Entgeltregelungen Bestandteil des Arbeitsvertrages darstellen, der zwischen dem Unternehmen und den Beschäftigten beschlossen wird, gehört das Entgeltmanagement zwingend zur Aufgabe des legitimierten Leitungsorgans der Organisation, also des/der Inhabers/in, des Vorstands, der Geschäftsführung. Diese können die Aufgabe des Entgeltmanagements jedoch an nachgeordnete Beauftragte (z.B. Personalleiter/in, Vergütungsspezialist/in) delegieren, was regelmäßig in größeren Organisationen geschieht. Als weitere Akteure von Seiten der Organisation sind die direkten Vorgesetzten zu nennen, die insbesondere mit der Umsetzung vorhandener Entgeltsysteme auf den Einzelfall befasst sind. Das Ganze der Handhabung von Einzelfällen schafft zum Teil eine Faktizität der Entgeltregelungen, die von den geplanten Regelungen des Entgeltmanagements abweichen kann: Mit Leistungszulagen z.B. sollen besondere, überdurchschnittliche Leistungen abgegolten werden. Ein Blick auf die Lohnliste zeigt häufiger, dass faktisch nahezu alle Beschäftigten diese Zulage erhalten, ohne dass generell ein überdurchschnittliches Leistungsniveau erkennbar ist. Hier hat sich das Vergütungssystem durch seine Handhabung vor Ort offenbar "schleichend" fortentwickelt, 235
Entgeltmanagement indem die nen Ziele unter dem schäftigten
Linienvorgesetzten ihre eigeund Problemwahrnehmungen empfundenen Druck der Beeinfließen lassen.
Die Beschäftigen selbst, die ihrerseits eigene Interessen realisieren möchten und dazu auch Schritte unternehmen (s.o.), haben zwar Einfluss auf die faktisch entstehenden Vergütungssysteme, werden jedoch hier nicht als Akteure, sondern eher als Adressaten bzw. Betroffene gesehen, weil sie nicht über die formale Legitimation als Akteure des Entgeltmanagements verfugen. Diese Legitimation ist aber für einen weiteren Akteur, den -> Betriebsrat als Beschäftigten-Vertreter gegeben, zumindest insoweit, als dieser nach § 87 Abs. 1, Ziffer 10 und 11 BetrVG ein direktes gesetzliches Mitbestimmungsrecht (-> Mitwirkungs- und Mitbestimmungsrechte) in Hinblick auf Entgeltregelungen auf betrieblicher Ebene besitzt. Die Sichtweise des Betriebsrats als Akteur des Entgeltmanagements setzt freilich voraus, dass ein Betriebsrat überhaupt in einer Organisation existiert und dass er weiterhin willens und genügend einflussreich ist, das Entgeltmanagement mit zu beeinflussen. 4. Zentrale Gestaltungsbereiche und -instrumente: Die meisten Entgeltsysteme sehen eine Kombination von Festkomponenten und variablen Komponenten vor. Entsprechend sind im Rahmen des Entgeltmanagements Entscheidungen über diese Komponenten zu treffen. •
Grundlohndifferenzierung: Im Rahmen von Praxis und Lehre des Entgeltmanagements hat sich als grundlegende Konvention herausgebildet, das Festentgelt (Grundlohn, Grundgehalt) nach Maßgabe der Bedeutung einer Person bzw. Stelle für die Leistungserstellung der Organisation zu bemessen. Dem Entgeltmanagement kommt die Aufgabe zu, über die Wahl von be-
236
Entgeltmanagement stimmten Entscheidungsregeln zu konkretisieren, aufweiche Weise diese Konvention im Rahmen der Grundlohnbestimmung operationalisiert werden soll. Der am häufigsten gewählte Ansatz besteht darin, sich an den Arbeitsanforderungen, die mit einer Stelle verbunden sind und die sich an eine fiktive Person als Stelleninhaber richten, zu orientieren. Instrumenteil kann die Höhe der Arbeitsanforderungen durch Arbeitsbewertungsverfahren ermittelt werden, die insbesondere aus den notwendigen Qualifikationen und Erfahrungen, aus der Bedeutung der Aufgaben im Gesamtzusammenhang der Organisation, der daraus resultierenden Verantwortung der Positionsinhaber sowie aus belastenden Arbeitsumgebungsfaktoren abgeleitet wird. Ergänzend wird in Hinblick auf die Grundlohndifferenzierung auf die angebotene Qualifikation konkreter Personen sowie auf das Dienstalter (Seniorität) der jeweiligen Personen abgestellt. Dem Dienstalter als Differenzierungskriterium kommt generell im öffentlichen Dienst und ergänzend im Angestelltenbereich zahlreicher Branchen traditionsgemäß noch eine hohe Bedeutung zu (besonders in Österreich), die allerdings von Arbeitgeberseite zunehmend in Frage gestellt wird. In einem nächsten Schritt sind den jeweiligen Arbeitsanforderungen (gegebenenfalls auch Qualifikationen bzw. Dienstaltersklassen) Geldbeträge in Form von Lohnsätzen pro Stunde, Monat oder Jahr zuzuordnen, wobei der Einfachheit halber die Bildung von Lohn- bzw. Gehaltsgruppen vorgezogen wird. Im Grundsatz geht es hierbei um die Zahl und die Abgrenzung (z.B. durch die Beschreibung der Anforderungen der Stellen) der Vergütungsgruppen und um ihre betragsmäßige Dotierung. Innerorganisatorisch sind
Entgeltmanagement
Entgeltmanagement
Leistungsaspekte unberücksichtigt bleiben. Beispiel: Ein Leistungsentgeltsystem, das auf Mengenleistung abstellt, riskiert, die Qualitätsdimension zu vernachlässigen, und gibt möglicherweise das unerwünschte Signal an die Beschäftigten, Leistung auf Kosten von Qualität zu maximieren. Die Realität der Arbeitssituationen in vielen Organisationen ist heute dadurch charakterisiert, dass Leistung als sehr komplexes Phänomen angesehen wird, das sich einer direkten Messbarkeit teilweise entzieht. Dies wird besonders deutlich am Beispiel der Leistung von Führungskräften. In der Praxis behilft man sich angesichts dieser Problematik vielfach durch Systeme der Zielvereinbarung, die anhand mehrerer Indikatoren Dimensionen und wertmäßige Ausprägungen der erwarteten Leistung zum Ausdruck bringen. Für Führungskräfte wird die variable Komponente z.B. am Erfolg des Unternehmens bzw. des Unternehmensbereichs und durchgeführter Programme, neuerdings auch an der Wertschaffung für den Unternehmenseigner bzw. Aktionär (-> Shareholder Value) festgemacht.
die Einkommensrelationen zwischen den Vergütungsgruppen zu fixieren und dadurch eine Vergütungsstruktur zu entwickeln. Darüber hinaus sind im Rahmen der Grundlohnbestimmung, unter dem Aspekt der Anreiz- und Kostenwirksamkeit die Entgeltrelationen zwischen den Stellen der Organisation und jenen vergleichbarer Organisationen festzulegen, mit denen die Organisation um Beschäftigte konkurriert. •
Variable Entgeltkomponenten: In vielen Organisationen wird neben den Fixlohnbeträgen auch zusätzlich eine variable Entgeltkomponente angeboten. Mit ihr soll üblicherweise ein besonderer Anreiz (zumeist Leistungsanreiz) ausgeübt werden. Variable Entgeltregelungen stellen eine Verknüpfung zwischen einer unabhängigen Variablen (Leistung, gemessen nach Menge und Qualität, beurteiltes Verhalten, Erfahrungen bzw. Beschäftigungsdauer auf einer Position) und der Lohnhöhe als abhängiger Variable dar. Typische Regelungspakete in diesem Sinn sind fur Beschäftigte in der Fertigung der Akkordlohn und der Prämienlohn sowie bei Gehältern Bandbreitenregelungen, wonach ein Gehaltsbetrag aus einem Gehaltsband nach Maßgabe gezeigter Leistung und anderer Faktoren gewählt wird. Für Personal im Verkauf und Außendienst sind Provisionssysteme (Festgehalt zuzüglich z.B. umsatzabhängiger Provision) verbreitet. Oftmals bereitet es im Rahmen des Entgeltmanagements erhebliche Schwierigkeiten, eine sinnvolle Dimension für die erbrachte Leistung bzw. generell fur die Bezugsbasis der variablen Komponente festzulegen. Im Allgemeinen gilt, dass gute Erfassbarkeit und Messbarkeit von Leistungsgrößen nur für Teilaspekte der erbrachten Gesamtleistung gegeben ist, so dass andere weniger gut messbare
•
Zusatzleistungen: Entgeltsysteme enthalten oftmals neben den geldlichen Leistungen an die Beschäftigten auch geldwerte Zusatzleistungen (betriebliche Sozialleistungspolitik). Hiermit verbinden sich unterschiedliche Zielvorstellungen, z.B. die der Feinsteuerung des Entgeltsystems, der bewussten Schaffung von Intransparenz, der Nutzung von steuersparenden Möglichkeiten des Aufbaus spezifischer Attraktions- und Bindungspotenziale.
5. Entwicklung und Implementierung von Entgeltsystemen: Da durch Entgeltsysteme in der betrieblichen Praxis auf komplexe Weise Einfluss auf Personalkosten und die Beschäftigten genommen wird, verbindet sich mit ihnen ein hohes Maß an Sensibilität. Nicht 237
Entgeltmanagement abgestimmte Entscheidungen können zu sehr problematischen Folgen fuhren. Deshalb empfiehlt es sich, Modifikationen von Entgeltsystemen im Rahmen von Projekten durchzuführen, an denen die maßgeblichen Akteure sowie Macht- und Fachpromotoren beteiligt werden (-> Management des Wandels). Auf diese Weise kann am ehesten sichergestellt werden, dass Veränderungen von den meisten Beteiligten akzeptiert werden und dass die Modifikationen bei der Umsetzung die angestrebte Wirkung entfalten können. Inzwischen haben sich auch spezialisierte Fachberater als Vergütungsberater und Beratungsorganisationen auf dem Beratungsmarkt herausgebildet, die bei der Konzeption des Entgeltmanagements eine professionelle Hilfestellung anbieten. Wichtig erscheint insbesondere, dass Entgeltmanagement allenfalls ein Instrument der Leistungssteuerung ist, das neben anderen Instrumenten wie Führung (Zielvereinbarung, Rückmeldung, Mitarbeitergespräch), -» Personalentwicklung (Qualifizierungsmaßnahmen, Laufbahnperspektiven, lernförderliche Aufgabenstrukturen) in eine leistungsorientierte Personalstrategie zu integrieren ist (-> Führungsstil, Feedback, —> Karriereplanung) Literatur: v o n Eckardstein, D./Janes, A. (Hrsg.): Neue Wege der Lohnfindung für die Industrie, München 1995; von Eckardstein, D. (Hrsg.): Variable Vergütung für Führungskräfte, München 2000; Deutsche Gesellschaft für Personalführung (Hrsg.): N e u e Wege der Vergütung. Fallstudien und Werkstattberichte, Köln 1995.
Dudo von Eckardstein Entscheidungstheorie 1. Gegenstand und Gliederung Gegenstand der Entscheidungstheorie (ETh.) ist die Entscheidung als solche, das abstrakte Entscheidungsproblem "Wahl einer Handlungsmöglichkeit aus einer Alternativenmenge". D.h.: Entscheidungsvorgang und -ergebnis werden analysiert, um Aussagen zu gewinnen, die 238
Entscheidungstheorie für jedwede Entscheidung gelten, unabhängig von ihrer inhaltlichen Konkretisierung als Investitions-, Produktions-, Absatzentscheidung usw. Als wesentliche Entscheidungsdeterminanten gelten: • •
•
•
die Zielsetzung (Ziele) des Entscheiders, der Handlungsrahmen, d.h. die Alternativen, zwischen denen der Entscheider zu wählen hat, die Handlungsergebnisse, verstanden als zielrelevante Konsequenzen der Alternativen, und der Informationsgrad: vollständige (sichere) oder unvollständige (unsichere) Information des Entscheiders über die Handlungsergebnisse bzw. über die sie determinierende Zukunftsentwicklung.
Je nach verfolgter Fragestellung gliedert sich die ETh. grds. in zwei Bereiche: •
Die präskriptive oder entscheidungslogische ETh. Deren Ziel ist die Entscheidungsunterstützung. Sie will Entscheidern helfen, rationale Entscheidungen (unter Sicherheit und unter Unsicherheit) zu treffen. Ihr Aussagensystem ist praktisch-normativer, entscheidungslogischer Art und beinhaltet Regeln für die Explikation individueller Zielsysteme sowie Empfehlungen für die Konstruktion von Entscheidungsmodellen.
•
Die deskriptive oder empirische ETh. zielt auf die Beschreibung, Erklärung und Prognose des tatsächlichen Entscheidungs- und Risikoverhaltens. Gewonnen werden sollen empirisch gehaltvolle Hypothesen über Zielbildung und Zielbildungsprozess, Entscheidungsverhalten und Entscheidungsprozess, Risikoverhalten, Bildung von Wahrscheinlichkeitsurteilen sowie über Informationsbeschaffung und -Verarbeitung.
2. Präskriptive Entscheidungstheorie Grundaxiom der präskriptiven ETh. (zu der teilweise auch die ->• Spieltheorie
Entscheidungstheorie
Entscheidungstheorie gerechnet wird; dem wird hier nicht gefolgt) ist das ordinale Prinzip. Es besteht aus dem Ordnungs- und dem Transitivitätsaxiom. Ersteres verlangt, dass der Entscheider in der Lage ist, die Ergebnisse von Handlungsalternativen miteinander zu vergleichen und nach ihrer Vorziehungswürdigkeit zu ordnen, d.h. für jedes beliebige Ergebnispaar e, und gilt: e, >- ej oder ej ~ e j oder ej -< e j . Das Transitivitätsaxiom
dagegen
verlangt,
dass die Präferenzen eines Entscheiders (zu einem bestimmten Zeitpunkt) bezüglich dreier beliebiger Ergebnisse e i ; e j , e k in folgendem Sinn konsistent sind: wenn e, ~ e f und ej ~ e k , dann ej ~ e k ; wenn ej >- e^ und ej >- e k , dann ej >- e k .; wenn e ; >- ej und ej ~ e k , dann e : >- e k (vgl. Laux 1998). Entscheidungsmodelle beinhalten als Basiselemente die Zielfunktion und das Entscheidungsfeld. Die Zielfunktion bildet die Zielvorstellung (Ziele und Präferenzen) des Entscheiders im Entscheidungsmodell ab. Dies geschieht durch Präzisierung der Präferenzfunktion , die den Alternativen A a (a = 1, 2, ..., A ) Präferenzwerte 0 ( A a ) eindeutig zuordnet, und Festlegung des Optimierungskriteriums (Zielmaximierung, -minimierung, -satisfizierung, -fixierung). Wird z.B. Zielmaximierung angestrebt, so lautet die Zielfunktion allgemein: 5 > ( A a ) —> Max! bzw. in
Bezüglich der Zukunftserwartungen sind folgende Fälle zu unterscheiden: 1. Sicherheit: der wahre Umweltzustand ist bekannt, das Ergebnis eindeutig. 2. Unsicherheit: mehrere (mindestens zwei) Umweltzustände werden für möglich gehalten. 2,a Unsicherheit i.e.S.: die Eintrittswahrscheinlichkeiten der möglichen Umweltzustände sind nicht bekannt. 2.b Risiko: der Entscheider kann den möglichen Umweltzuständen Eintrittswahrscheinlichkeiten (zumindest in Form subjektiver Glaubwürdigkeiten) zuordnen. Manche Autoren verwenden statt "Unsicherheit i.e.S." die Bezeichnung Ungewissheit, während sich für andere der Terminus Ungewissheit auf den (praktisch kaum bedeutsamen) Fall des Fehlens jeglicher Zukunftsvorstellungen bezieht. Zum Teil werden auch Ungewissheit und Unsicherheit synonym verwendet. Die allgemeinste Form der Darstellung eines beliebigen Entscheidungsproblems liefert das "Grundmodell der ETh". Es besteht aus der Zielfunktion (s.o.) und der wie folgt aufgebauten Ergebnismatrix: w(S,)
w(S2) • "
S,
S2
A,
en
e12
A2
e
21
e22
AA
e
al
• ••
w(S s ) • •
SS
w(s s )
• •
Ss
'
e
,s
'
•
e
2S
'
'
e
aS
• "
e
ls
'
"
e
2s
a2
' " '
e
as
*
* • •
•
• •
•
a
Worten: wähle aus der gegebenen Alternativenmenge A = (Ai, A2, ..., A ^ ) diejenige mit dem größten Präferenzwert (A a ). Das Entscheidungsfeld besteht aus den Handlungsalternativen, den Ergebnissen (Werte der Zielgrößen, zielrelevante Konsequenzen der Handlungsalternativen) und den die ex ante für möglich gehaltenen zukünftigen Entwicklungen beschreibenden Umweltzuständen.
AX
e
A.
e
C
Ä2
'
e
Xs
. ,
' '
e
Xs
Den in der Vorspalte genannten Alternativen A a (a = 1, 2, ..., A ) werden in den Hauptspalten die bei Eintritt des jeweiligen Umweltzustandes S s (s = 1, 2, ..., S ) 239
Entscheidungstheorie erzielbaren Ergebnisse
Entscheidungstheorie eas
Dabei sind die Ergebnisse
zugeordnet. eas
einele-
mentig, wenn der Entscheider nur ein Ziel verfolgt, e
sie
e
sind
mehrelementig
z
( as = ( L . e « , . . . ,e a 5 )), wenn mehrere Ziele Z = 1, 2,..., Z gleichzeitig verfolgt werden. In der Kopfzeile werden ggf. außerdem die den Umweltzuständen S s zugeordneten Eintrittswahrscheinlichkeiten w( S s ) expliziert. In der aufgezeigten Form bezieht sich das Grundmodell direkt auf die Entscheidung bei Risiko. Im Sicherheitsfall reduziert sich die Ergebnismatrix auf nunmehr eine Ergebnisspalte (da nur ein Umweltzustand zu beachten ist), bei Unsicherheit i.e.S. entfallen die Eintrittswahrscheinlichkeiten. Zentrales Problem der ETh. ist dann die Explikation geeigneter Zielfunktionen oder Entscheidungskriterien, die es erlauben, für jede Alternative die zustandsabhängig und/oder zielmengenabhängig grds. mehrwertigen Ergebnisse zusammenfassend anhand eines einheitlichen Präferenzwertes so zu bewerten, dass das anzuwendende Optimierungskriterium zu einer für den Entscheider rationalen (nutzenmaximalen) Auswahl unter den gegebenen Alternativen fuhrt. Die Analyse erfolgt zweckmäßigerweise getrennt für die Entscheidung bei Sicherheit und bei Unsicherheit. Entscheidung
bei
Sicherheit:
Keine besondere entscheidungslogische Problematik besteht bei Sicherheit über die Handlungsaltemativen und ihre Ergebnisse, wenn der Entscheider nur ein Ziel verfolgt oder wenn mehrere, im Verhältnis zueinander indifferente oder komplementäre Ziele verfolgt werden. Dementsprechend konzentriert sich das Interesse der entscheidungstheoretischen Forschung hier auf Entscheidungsmodelle mit mehreren konkurrierenden Zielgrößen (multikriterielle Entscheidungsmodelle).
240
Einen ersten, sehr wesentlichen Lösungsbeitrag liefert die Erkenntnis, dass generell nur effiziente Alternativen optimal sein können. Als effizient wird dabei eine Alternative A a bezeichnet, wenn keine andere, A a dominierende Alternative A a , existiert, die alle Ziele des Entscheiders mindestens gleich gut und wenigstens ein Ziel besser erfüllt. Durch Anwendung des Effizienzkriteriums reduziert sich zwar zumeist der relevante Handlungsrahmen auf die effizienten Alternativen durch Streichung der nichteffizienten, ergebnismäßig dominierten Handlungsmöglichkeiten, bezüglich der verbleibenden Menge effizienter Alternativen ist das Entscheidungsproblem damit aber noch nicht gelöst. Dazu bedarf es eines Meta- oder Oberziels, das die konkurrierenden Einzelziele entsprechend ihrer relativen Bedeutung erfasst. Dieses Oberziel bezeichnen wir im Allgemeinen als Nutzen. Zielfunktion des multikriteriellen Entscheidungsmodells ist dann die zu maximierende Nutzenfunktion-. U a ( z f , Z\, ...,Zdk) -> Max, wenn a
Zj 1 , Z j , ...,Z|J die Zielgrößenwerte der Handlungsalternativen a ( a = 1, 2, ..., A ) bezeichnen. Abgesehen vom wenig realistischen Fall vollständiger Nutzenunabhängigkeit, in dem Additivität der zielbezogenen Nutzengrößen besteht, so dass
u a = u, (z:) + U 2 (z|) + - + Uk (zl) gilt, erfordert die Bestimmung individueller Nutzenfunktionen einen hohen Planungsaufwand und stellt hohe Anforderungen an den Entscheider. Gesucht sind daher, besonders für Zwecke der Praxis, einfachere und leichter zu handhabende Lösungsansätze. Als derartige Ersatzkriterien, bei denen die Zielfunktion nicht explizit bzw. nur in vereinfachter Form bestimmt werden muss, kommen z.B. in Betracht (Laux 1998):
Entscheidungstheorie
Entscheidungstheorie (1) Zielunterdrückung (Berücksichtigung nur des wichtigsten Ziels). (2) Lexikografische Ordnung (Berücksichtigung auch des zweitwichtigsten Ziels bei Mehrfachlösung gem. (1) usw.). (3)Maximierung einer Zielgröße unter Berücksichtigung von Mindestanforderungen (Anspruchsniveaus) bezüglich der übrigen Ziele. (4)Zielgewichtung: es wird die Summe der gemäß subjektiver Vorgabe gewichteten Zielgrößen maximiert.
wahre Ergebnis vom erwarteten Ergebnis abweicht, verstanden. Wichtigste Risikomaße sind Varianz ( a ) und Standardabweichung (CT2 ) der zufallsvariablen Zielgröße, gelegentlich ergänzt um die Berücksichtigung der Schiefe und (selten) weiterer Verteilungsmomente. Während sich die Risikomaße auf das Sicherheitsziel des Entscheiders beziehen, misst der mathematische Erwartungswert der Zielgröße, symbolisiert durch demgegenüber die Erfüllung des Gewinn- oder Erfolgsziels.
Eine Vielzahl weiterer Lösungsverfahren und -algorithmen findet sich im Schrifttum zum Multi Criteria Decision Making (MCDM), z.T. getrennt zwischen Verfahren, die direkt auf Zielgrößen abstellen {Multi Objective Decision Making) und solchen, die ersatzweise an Eigenscbaftsmerkmalcn der Handlungsalternativen, sog. Attributen, ansetzen (Multi Attribute Decision Making). Beispielhaft seien dazu folgende Verfahren genannt: Analytic Hierarchy Process (AHP), Präferenzrelationen (ELECTRE), Wertaggregationsverfahren, Goal Programming, Nutzwertanalyse, Interaktive Verfahren (Weber 1993; Zimmermann/Gutsche 1991).
Analog zum Effizienzkriterium im Sicherheitsfall kann eine Vorauswahl der relevanten Alternativen aus der vorgegebenen Alternativenmenge generell anhand des Kriteriums der Stochastischen Dominanz 1. Ordnung, bei Risikoaversion des Entscheiders auch anhand der Stochastischen Dominanz 2. Ordnung erfolgen. Die wichtigsten Entscheidungskriterien bei Risiko sind 1. die n -Regel, 2. das n a -Prinzip und 3. das Bernoulli-Prinzip. • Die pi -Regel bewertet die gegebenen Handlungsalternativen einzig und allein anhand des Erwartungswertes der Zielgröße
Entscheidung
bei
Z: 0 ( A a ) = |i a = I w ( S s ) Z a s ,
Unsicherheit:
s
Nur geringe praktische Bedeutung kommt der Unsicherheit i.e.S. zu, weshalb wir uns mit der Aufzählung der hierzu vorgeschlagenen traditionellen Entscheidungskriterien begnügen: Maximin-Regel, Maximax-Regel, Hurwicz-Prinzip, Savage-Niehans-Kriterium, Laplace-Regel (Laux 1998). Reale Entscheidungssituationen sind dagegen grundsätzlich Risikosituationen, d.h. der Entscheider verfügt zumindest über subjektive Wahrscheinlichkeitsvorstellungen bezüglich der Zukunftsentwicklung bzw. des Eintritts möglicher Umweltzustände. Dabei wird -> Risiko in der ETh. grds. im weiten Sinne als Variabilität bzw. als Möglichkeit, dass das
•
so dass bei Zielmaximierung diejenige Alternative gewählt wird, die den höchsten Zielgrößenerwartungswert aufweist. Erkennbar wird damit dem Risiko bzw. dem Sicherheitsziel des Entscheiders keinerlei Rechnung getragen, so dass die -Regel im Wesentlichen nur bei Risikoneutralität des Entscheiders als geeignet gelten kann. Das fi-a -Prinzip trägt dieser Kritik Rechnung und berücksichtigt neben dem Erwartungswert \± die Standardabweichung Ü als Maß für die Erfüllung des Sicherheitsziels: ® ( A a ) = (n a ,a a ). Damit lässt sich sowohl einer risikoaversen Einstellung des Entscheiders ( O sinkt mit stei241
Entscheidungstheorie
•
gendem a a ) als auch einer risikofreudigen Einstellung ( O steigt mit cr a ) Rechnung tragen. (Und bei Risikoneutralität reduziert sich das |I-CTPrinzip auf die |i -Regel). Hauptnachteile dieses Prinzips sind: a. Die Verwendung der Standardabweichung als Risikomaß wird dem Tatbestand nicht gerecht, dass risikoaverse (risikofreudige) Entscheider der Gefahr einer negativen Abweichung vom Erwartungswert ein größeres (kleineres) Gewicht beimessen als der Chance einer positiven Abweichung. b. Das |a-CT-Prinzip kann zu problematischen Entscheidungen führen, insbesondere kann das Dominanzprinzip verletzt werden. Das Erwartungsnutzenprinzip oder Bernoulli-Prinzip gilt weitgehend als das bislang beste Konzept für die Risikobewertung. Es geht auf den Mathematiker Daniel Bernoulli zurück und löst das insgesamt recht komplexe Entscheidungsproblem unter Risiko in zwei Schritten: a. Empirische Bestimmung der individuellen Risikoneigung (Art und Intensität) anhand einfacher Risikosituationen, die das Wirtschaftssubjekt bewerten muss. Das Ergebnis dieser Analyse wird in Form der sogenannten Risikonutzenfunktion u ( ) dargestellt, die die Basis für Schritt b. bildet. b. Nun bezogen auf das aktuell zu bewertende Objekt (z. B. eine riskante Investition) werden alle möglichen Ergebnisse in der zugehörigen Ergebnisverteilung nutzenmäßig anhand der Risikonutzenfunktion bewertet. Sodann wird der Erwartungswert über die Nutzenwerte, statt wie bei der (i-Regel über die Ergebniswerte selbst, berechnet: cp(A a ) = E [ u ( e J = £ w ( S s ) U ( e a s )
242
Entscheidungstheorie Der Erwartungsnutzen E[u(e as )] ist ein Präferenzwert, er erlaubt es, unterschiedliche Objekte oder Entscheidungsalternativen nach ihrer Vorziehungswürdigkeit zu ordnen: je höher E[u(e as )], desto vorteilhafter die zugehörige Alternative. Der ökonomische Wert des Bewertungsobjektes (also der individuelle Grenzpreis als Geldbetrag) der Alternative A a bestimmt sich als das zugehörige Sicherheitsäquivalent SÄ(Aa)aus u[sÄ(Aj] = E[u(eJ] zu SÄ(A a ) = u "1 [E(e as )]. Dieser Formalismus besagt dabei sachlich nichts anderes, als dass das Sicherheitsäquivalent derjenige sichere Geldbetrag ist, den der Entscheider ebenso hoch schätzt wie den Besitz des riskanten Objektes: Objekt und sicherer Geldbetrag stiften ihm also den gleichen Nutzen. Dass nun gerade diese Vorgehensweise eine logisch einwandfreie, "rationale" Lösung des Risikobewertungsproblems darstellen soll, leuchtet kaum auf Anhieb ein, sondern erfordert ein vertieftes Eindringen in die theoretischen Grundlagen. Auf das Prinzipielle konzentriert, liegt der Grund darin, dass sich das BernoulliKonzept axiomatisch fundieren lässt und insofern eine Entscheidung nach diesem Prinzip für jeden Entscheider als rational eingestuft werden kann, der die zu Grunde liegenden Axiome akzeptiert. Eine ersichtliche Qualität des Bernoulli-Prinzips ist zudem die vollständige Berücksichtigung aller möglichen Ergebnisse im Bewertungsvorgang, womit grds. allen Eigenheiten der Wahrscheinlichkeitsverteilung Rechnung getragen wird. In der Literatur nimmt die kritische Diskussion zum Bernoulli-Prinzip großen Raum ein (vgl. Bamberg/Coenenberg 1996). Breiter Ak-
Entscheidungstheorie
Entscheidungstheorie
scheider die Ergebnisse der verfügbaren Handlungsalternativen oft relativ zu einem vorher gesetzten individuellen Referenzpunkt bewerten: einmal ist z.B. das Gesamtvermögen oder -einkommen, ein anderes mal nur das Finanzvermögen oder das Periodeneinkommen der Bezugspunkt, von dem es abhängt, was als positiv und was als negativ empfunden wird. Problematisch dabei ist, dass der Referenzpunkt nicht konstant ist, sondern situations- oder kontextabhängig variieren kann. In engem Zusammenhang mit dem Referenzpunktkonzept zu sehen ist auch der sog. "Status quoBias". Er besteht darin, dass die gleichen Konsequenzen bzw. Ergebnisse anders bewertet werden, wenn sie mit der Erhaltung des Status quo verbunden sind, als wenn sie zu einer Änderung desselben führen.
zeptanz stehen dabei neben reinen Widerlegungsbemühungen zunehmend auch Versuche zur Weiterentwicklung bzw. Verallgemeinerung dieses Risikobewertungskonzeptes gegenüber. 3. Deskriptive Entscheidungstheorie In der Realität verhalten sich die Menschen oft keineswegs gemäß den Vorstellungen der präskriptiven Theorie, und wenn es anders wäre (alle verhielten sich wie selbstverständlich "rational"), dann bedürfte es der Theorie und der von ihr vermittelten Hilfestellung ja nicht. Andererseits wirft die offenkundig häufige Diskrepanz zwischen präskriptivem und realem Entscheidungsverhalten einige grundlegende Fragen auf: Wie und nach welchen Gesichtspunkten werden Entscheidungen tatsächlich getroffen? Gibt es bestimmte Konstellationen oder Einflussgrößen, die Entscheidungen systematisch in eine bestimmte Richtung lenken und/oder die eine Verletzung der präskriptiven Anforderungen verursachen usw. Derartige Fragen sind Gegenstand der empirischen Entscheidungs- und Risikoforschung, deren Hauptproblem allerdings darin besteht, dass sich das menschliche Verhalten - keineswegs sehr überraschend - als äußerst komplex erweist und die Zahl der erkannten Entscheidungsdeterminanten und Verhaltensweisen mit fortschreitender Forschung ständig wächst. Zudem sind die herausgearbeiteten Effekte und Phänomene oft weder konstant noch voneinander unabhängig, so dass eine überzeugende Systematik der vorliegenden Forschungsergebnisse noch weitgehend fehlt. Im Folgenden konzentrieren wir uns auf die überblicksmäßige Darstellung von Untersuchungsergebnissen zum individuellen Entscheidungsund Risikoverhalten. Entscheidungsverhalten und nanten der Risikobereitschaft: •
Referenzpunkt-Effekt: Beobachtungen belegen,
•
Isolierungseffekt: Unterschiedliches Verhalten ein und derselben Person in formal gleichartigen Situationen entsteht auch dann, wenn Entscheidungen nur anhand der unmittelbar verfügbaren Informationen getroffen werden und man sich nicht oder nur ansatzweise die Mühe macht, sich weitere Informationen zu erschließen (Slovic: concreteness principle). Das führt dazu, dass Entscheider ggf. nur die vordergründigen Konsequenzen und nicht die eigentlich zielrelevanten Ergebnisse der Handlungsalternativen erfassen und berücksichtigen.
•
Vorzeichenwechsel-Effekt (reßection effect): Risikobereitschaft hängt oft davon ab, ob es sich um Verluste oder Gewinne handelt. Risikoscheuem Verhalten gegenüber unsicheren Gewinnsituationen steht risikofreudiges Verhalten in gleichartigen Verlustsituationen (nur die Vorzeichen wurden vertauscht) gegenüber.
•
Kontrollillusion: Personen verhalten sich in signifikantem Ausmaß risikofreudiger bzw. weniger risikoscheu, wenn sie die Illusion haben, den Zu-
DetermiEmpirische dass Ent-
243
Entscheidungstheorie
Entscheidungstheorie fallsprozess irgendwie beherrschen/beeinflussen zu können. Diese Kontrollillusion entsteht dabei nicht durch rationale Erkenntnis, sondern erwächst rein gefühlsmäßig. Sie wird insbesondere durch aktive Beteiligung an der zu lösenden Aufgabe und Bedingungen wie Vertrautheit und Erfahrung mit der Spiel- oder Entscheidungssituation hervorgerufen. Ausfluss von Kontrollillusion ist letztlich auch der sog. "Overconfidence-Bias", der darin besteht, dass Menschen dazu neigen, ihre Fähigkeiten und Kenntnisse deutlich zu überschätzen. So hält sich gar mancher - objektiv zu Unrecht - für einen begnadeten Autofahrer, Geiger, Börsenspekulanten o.ä. •
Kontexteffekte bezeichnen zum einen Verhaltensweisen, bei denen die Präferenzen von Entscheidern trotz materiell gleichen Aufgabeninhalts durch die Art und Weise der Aufgabenstellung und -darbietung beeinflusst werden, z.B. mit der Folge, dass die den vorgegebenen Handlungsalternativen zugeordneten Sicherheitsäquivalente der unabhängig davon geäußerten Rangordnung über diese Alternativen widersprechen (Präferenzumkehreffekt, preference reversal).
Weiterhin lassen sich hier die folgenden situationsspezifischen Entscheidungsdeterminanten einordnen: •
Der Besitztumseffekt: Er beschreibt das Phänomen, dass die Wertschätzung eines Gegenstandes davon abhängt, ob man ihn bereits besitzt oder nicht, nach dem Motto: was ich habe, gebe ich nicht gern wieder her. Das führt dazu, dass der Wert als subjektiver Grenzpreis beim Kauf niedriger ist als beim Verkauf ein und desselben Objektes. • Der Sicherheitseffekt besteht darin, dass der Unterschied zwischen zwei Wahrscheinlichkeiten dann besonders hoch bewertet wird, wenn es sich um
244
•
•
einen Übergang von "fast sicher" auf "sicher" handelt. Der Omission-Bias beschreibt den Tatbestand, dass Handlungen per se als riskanter eingestuft werden als das Nichtstun. Das kann zu einem Verzicht auf eigentlich vorteilhafte Handlungsalternativen fuhren. Ambiguitätsscheu bedeutet die Abneigung eines Entscheiders gegenüber solchen Alternativen, bei denen er sich über die Eintrittswahrscheinlichkeiten der Handlungsergebnisse unsicher ist.
Heuristiken sind Vereinfachungsstrategien, die der menschliche Wahrnehmungs- und Informationsverarbeitungsapparat im Laufe des Lebens entwickelt, um trotz unvollständiger Information und beschränkter Informationsverarbeitungskapazität rasch (z.B. bei Gefahr) oder bequem/einfach entscheiden zu können. Dazu werden alle nach bisheriger Lebenserfahrung für den gegebenen Fall irrelevanten Informationen verdrängt/nicht berücksichtigt u.ä. Beispiele für derartige Heuristiken sind: •
Die Repräsentativitäts-Heuristik, die darin besteht, dass sich Entscheider auf die spezifischen Merkmale des zu betrachtenden Ereignisses konzentrieren und Zusatzinformationen wie insbesondere die Größe und Zusammensetzung der Grundgesamtheit (des Ereignisraums) und damit die relative Häufigkeit des Ereignisses im Rahmen der Grundgesamtheit ignorieren. Je länger z.B. die Rotfolge beim Roulette bisher war, für desto wahrscheinlicher wird es gehalten, dass der nächste Wurf auf Schwarz landet ("Gambler's fallacy"). • Verfügbarkeits-Heuristik (Availability Bias): Aus der Tatsache, dass man sich an häufig wiederholte Vorgänge am besten erinnert, wird der nicht immer zutreffende Umkehrschluss gezogen, dass den am besten erinnerlichen Vorgängen auch die größte Wahrscheinlichkeit oder Häufigkeit zuzuordnen
Entscheidungsunterstützende Systeme
Entscheidungstheorie
•
sei. Beispiel: Versuchspersonen wird eine Folge von Namen unterschiedlich gut bekannter Frauen und Männer vorgelesen. Die absolute Mehrheit der Versuchspersonen glaubt - unabhängig von der tatsächlichen Anzahl - , die Gruppe mit den bekannteren Namen sei auch zahlenmäßig stärker in der Folge vertreten. Anker-Heuristik (Anchoring): Bei der Schätzung subjektiver Wahrscheinlichkeiten konzentriert sich der Entscheider auf einen - etwa durch die Aufgabenstellung induzierten - Ausgangspunkt und nutzt weitere Informationen nur unzureichend.
Überblick über weitere determinanten: •
•
•
•
•
Entscheidungs-
Disappointmenf. die Ergebnisse anderer Alternativen beeinflussen die Bewertung der Konsequenzen einer bestimmten Alternative. Regret-Effekte\ Berücksichtigung der Enttäuschung/des Bedauerns, dass sich eine andere Alternative im nachhinein als besser erweisen könnte als die gewählte. Unsicherheitsdauer (Resolution of Uncertainty): ähnlich dem Pay backKriterium der Investitionsrechnung werden Alternativen bevorzugt, bei denen sich die Unsicherheit tendenziell früher auflöst (oder auch umgekehrt). Splitting Bias: Aufspaltung eines Oberziels in Teilziele verändert die Bewertung. Überschätzung kleiner Wahrscheinlichkeiten.
Literatur: Bamberg/Coenenberg: Betriebswirtschaftliche Entscheidungslehre, 9. Aufl., München 1996; Bitz, M.: Entscheidungstheorie, München 1981; Eisenfuhr/Weber: Rationales Entscheiden, 3. Aufl., Berlin u.a. 1999; Engelhardt, Dietmar von: Risikobereitschaft bei betriebswirtschaftlichen Entscheidungen, Berlin 1981; Laux, Helmut: Entscheidungstheorie, 4. Aufl., Berlin u.a. 1998; Sieben/Schildbach: Betriebswirtschaftliche Entscheidungstheorie, 4. Aufl., Düsseldorf 1994; Weber, Karl: Mehrkriterielle Entscheidungen, München-Wien 1993; Zimmermann/Gutsche: Multi-Criteria Analyse, Einfuhrung in die Theorie
der Entscheidungen bei Berlin u. a. 1991.
Mehrfachzielsetzungen,
Bernhard Kromschröder Entscheidungsunterstützende Systeme Entscheidungsunterstützende Systeme {ETJS) oder Decision Support Systems (DSS) sind computerbasierte, interaktive Informationssysteme, die Entscheidungsträger in Entscheidungssituationen unterstützen. In Abhängigkeit von der Struktur des Entschei dungsprob lems (strukturiert, teilstrukturiert, unstrukturiert) variiert der Grad der Unterstützung der Entscheidung bzw. der Grad der Automatisierung der Generierung von Entscheidungen. Strukturierte Entscheidungsprobleme (z.B. Bestellmengenplanung) lassen sich durch ein formales Entscheidungsmodell abbilden und durch ein mathematisches Lösungsverfahren (Algorithmus) eindeutig lösen. Unstrukturierte Entscheidungsprobleme (z.B. Personalplanung) entziehen sich einer Lösung durch ein mathematisches Lösungsverfahren, da z.B. die Zielsetzung nicht quantifizierbar ist, Informationen ungenau sind oder kein geeigneter Algorithmus bekannt ist, und erfordern zu deren Lösung den Einsatz der menschlichen Erfahrung, Intuition und Urteilsfähigkeit. Im Gegensatz zu unstrukturierten Entscheidungsproblemen umfassen teilstrukturierte Entscheidungsprobleme Teilprobleme, die strukturiert und damit durch Algorithmen lösbar sind. Durch die auf der menschlichen Erfahrung und Urteilsfähigkeit basierende Integration der Lösungen der Teilprobleme erhält der Entscheidungsträger dann eine Lösung für das übergeordnete teilstrukturierte Entscheidungsproblem. EUS mit geringem Automatisierungsgrad beschränken sich auf eine Bereitstellung und Aufbereitung der relevanten Informationen zur Vorbereitung der Entscheidungsfindung, welche dem Entscheidungsträger überlassen bleibt. Zu dieser Gruppe von EUS zählen Managementinformationssysteme, welche Managern 245
Entscheidungsunterstützende Systeme aller Hierarchieebenen in der Vergangenheit gewonnene Informationen in der Form von aggregierten und gefilterten Daten, periodisch standardisierten Berichten und Analysen mit unterschiedlichen, von der Hierarchieebene abhängigen Verdichtungsgraden zur Verfügung stellen. Dagegen können EUS mit hohem Automatisierungsgrad in eng abgegrenzten Anwendungsbereichen eigenständige Entscheidungsvorschläge generieren. EUS bieten sich insbesondere für die Unterstützung der Lösung von teilstrukturierten Entscheidungsproblemen an, indem eine interaktive, dialogorientierte Arbeitsteilung zwischen dem EUS und dem Entscheidungsträger vorgenommen wird. Dabei werden die strukturierten Entscheidungsaufgaben vom Computer gelöst, die unstrukturierten jedoch nach wie vor vom Entscheidungsträger übernommen. Die Entscheidungsunterstützung eines EUS kann aktiv oder passiv sein. Eine passive Entscheidungsunterstützung liegt vor, wenn vom Anwender definierte Entscheidungsalternativen in ein EUS eingegeben werden und das EUS die Ermittlung und Bewertung der Konsequenzen der einzelnen Alternativen vornimmt. Bei einer aktiven Entscheidungsunterstützung liefert ein EUS Entscheidungsvorschläge, die vom Manager in modifizierter oder verfeinerter Form wieder dem EUS zur Überprüfung und Neubewertung der Konsequenzen übergeben werden können. Durch diese Form des Dialoges sollen EUS Entscheidungsträgern helfen, schneller zu Entscheidungen zu gelangen und bessere Entscheidungen zu treffen. Der Einsatz von EUS zur interaktiven Unterstützung von Entscheidungsträgern in abgegrenzten Anwendungsbereichen bietet sich für Situationen an, bei denen die Menge der zu berücksichtigenden Daten und Informationen sehr groß ist, Informationen unvollständig oder unscharf sind, Zufallseinflüsse und konkur246
Entscheidungsunterstützende Systeme rierende Ziele zu berücksichtigen sind, die Daten und Informationen für die Entscheidung entsprechend verarbeitet und aufbereitet werden müssen, Entscheidungen zeitlich schnell zu treffen sind und der Entscheidungsprozess komplex ist. Typische Anwendungsbeispiele von EUS sind die Finanzplanung, die Planung von Marketingaktivitäten oder die Kapazitätsterminierung im Rahmen der Produktionsplanung und -Steuerung (Klein/ Methlie 1990). Die vier wesentlichen Komponenten eines EUS sind das Dialog-, das Datenbank-, das Methodenbankund das Reportsystem. Das Dialogsystem bildet die Schnittstelle zum Anwender, indem es die Kommunikation zwischen dem Anwender und den anderen Komponenten des EUS gewährleistet. Es legt die Gestaltung der Interaktion zwischen dem EUS und dem Entscheidungsträger fest, z.B. in der Form von menügesteuerten Eingabe- und Auswahlmöglichkeiten sowie der Unterstützung zusätzlicher Eingabemedien, wie Touch-Screen. Das Datenbanksystem dient der Speicherung und Verwaltung aller dem EUS zur Verfügung stehenden Daten und Informationen. Es ermöglicht die Anbindung externer Informationsquellen, die Interaktion mit Modellen und Problemlösungsverfahren des Methodenbanksystems sowie die Bereitstellung der vom Manager gewünschten Daten. Wesentliche Elemente der Schnittstelle zwischen dem Datenbanksystem und dem Anwender sind dabei die Datenabfrageund Datenmanipulationssprache. Das Methodenbanksystem bildet den Kern eines EUS und dient der Verwaltung aller in dem EUS gespeicherten Modelle und Problemlösungsverfahren. Neben Methoden der Künstlichen Intelligenz werden in EUS überwiegend Methoden des -> Operations Research (OR) eingesetzt. Dabei werden strukturierte Probleme üblicherweise so gelöst, dass eine abstrakte und vereinfachte Problembeschreibung (das Modell) aufgestellt wird, aus welcher mit Hilfe eines geeigneten Lösungsverfahrens
Entscheidungsunterstützende Systeme (des Algorithmus) eine Problemlösung berechnet wird. Eine Kombination von Modell und Algorithmus, mit welcher ein bestimmtes Problem gelöst werden kann, bildet dann eine Methode zur Lösung des Problems. Zu den Modellen des OR gehören u.a. Optimierungsmodelle (lineare, nichtlineare, dynamische, stochastische, ganzzahlige), Simulationsmodelle, Lagerhaltungsmodelle, Netzflussmodelle, Reihenfolgemodelle und Warteschlangenmodelle. Wesentliche Methoden des OR sind z.B. die mathematische Optimierung (Simplex-Verfahren, Gradientenmethoden, Branch-and-Bound, dynamische Programmierung), die Netzplantechnik, Prognoseverfahren, Methoden der Graphentheorie, der Spieltheorie, der Warteschlangentheorie und der Entscheidungstheorie. EUS verfugen in der Regel über ein offenes und erweiterbares Methodenbanksystem, welches ausreicht, auf einem begrenzten Entscheidungsumfeld alle relevanten Entscheidungsalternativen darzustellen, alle relevanten Konsequenzen von Entscheidungen zu ermitteln und bezüglich der zu berücksichtigenden Kriterien zu bewerten. Das Reportsystem dient der Aufbereitung der ermittelten Ergebnisse, welche z.B. in der Form von Tabellen oder Grafiken die Grundlage für die Entscheidung des Anwenders bilden. Wird ein EUS um eine zusätzliche Komponente erweitert, in welcher die Funktionen wissensbasierter Systeme (-» Expertensystem) abgebildet sind, so entsteht ein wissensbasiertes EUS (Reinersmann 1997). Durch die Integration wissensbasierter Techniken wird dabei versucht, das Problemlösungsverhalten eines menschlichen Experten in einem EUS abzubilden. EUS können Manager bei der Lösung von teil- und unstrukturierten Entscheidungsproblemen nicht ersetzen, aber sie können dazu beitragen, dass der Entscheidungsträger schneller Entscheidungen fällen kann und das effektivere und/oder effi-
Entwicklungscontrolling zientere Entscheidungen getroffen werden, indem eine kooperative und kreative Arbeitsteilung zwischen dem Entscheidungsträger und dem EUS vorgenommen wird. Dabei sollen sich die Fähigkeiten des Managers (Fachwissen, Erfahrung, Urteilsfähigkeit, Kreativität und Intuition) und die des EUS (Rechengeschwindigkeit und Speicherfähigkeit) gegenseitig ergänzen. Literatur: Klein, M./Methlie, L.B.: Expert Systems: A Decision Support Approach, Workingham u.a. 1990; Mittra, S.S.: Decision Support Systems: Tools and Techniques, New York u.a. 1986; Reinersmann, M.: Wissensbasierte Entscheidungsunterstützungssysteme, Bochum 1997.
Oliver Holthaus EntwicklungscontroUing 1. Grundlagen Entwicklungscontrolling als ein wesentlicher Bestandteil des -> Controlling in Forschung und Entwicklung umfasst ergebniszielorientiert den Gesamtprozess von der Zielsetzung über die Planung, Koordination, Steuerung bis zur Analyse und Kontrolle abgelaufener Prozesse, bezogen auf Entwicklungsvorhaben. Dabei beinhaltet Entwicklung die Umsetzung wissenschaftlicher Erkenntnisse in neue Produkte, Verfahren und Dienstleistungen. Diese Aufgabe ist strategischer und operativer Art. Aus der stark zunehmenden Komplexität und Dynamik der Prozesse und der Umweltbedingungen, die sich u.a. in verstärkter Internationalisierung, steigender Programmkomplexität, sinkenden -> Produkt- und -»Prozesslebenszyklen und einem Wandel der Erfolgsfaktoren zeigt, sowie der Tatsache, dass große Teile der Kosten künftiger Produkte bereits in der Entwicklung festgelegt werden, ergibt sich die ständig wachsende Bedeutung eines aussagefähigen Entwicklungscontrolling zur Unterstützung des Managements. Es gilt, in Vorbereitung qualifizierter Entscheidungen von diesen differenzierten Bedingungen auszugehen, daraufhin Entscheidungsfelder (Ge247
Entwicklungscontrolling
Entwicklungscontrolling
gesetzt werden. Das verlangt, bereits zu diesem frühen Zeitpunkt die in Abb. 1 aufgezeigten Interdependenzen wesentlicher Entscheidungskriterien bei Produktinnovationen im Einzelnen und in ihrer Wirkung auf die unternehmerische Gesamteffizienz über den gesamten Produktlebenszyklus umfassend einzubeziehen.
schäftsprozesse, Projekte, Bereiche) zu bestimmen und zu strukturieren und erst daraus den jeweils notwendigen Informationsbedarf für die Führung abzuleiten. Ebenso wie die Unternehmensführung ist insbesondere auch das Entwicklungscontrolling strategisch auszurichten, auf den Kunden zu orientieren und prozessorientiert zu gestalten. Entwicklungsprozesse mit hoher Effektivität und Effizienz müssen längerfristig zur Sicherung der Existenz des Unternehmens beitragen.
Auf dieser Grundlage werden strategische Entscheidungen abgeleitet. Daraufhin erfolgt projekt-, prozess- und bereichsbezogen die konkrete Themenbearbeitung und -realisierung (vgl. Graßhoff/Gräfe 1997, S. 14 ff.; Schmelzer 1993, S. 180 ff.). Analoge Überlegungen gelten auch für Dienstleistungen. In Abb. 2 sind die Bestandteile eines (Forschungs- und) Entwicklungscontrolling zusammenfassend dargestellt (Eine saubere theoretische Trennung zwischen beiden Begriffen erscheint schwer und ist oftmals kaum möglich).
Dazu ist es erforderlich, neue Produkte mit hohem Gebrauchswert (= Gesamtheit der vom Anwender nutzbaren Eigenschaften) und niedrigsten Herstellkosten kurzfristig und in bedarfsdeckenden Stückzahlen zu entwickeln und zu produzieren. Bereits im Entscheidungsprozess müssen dafür klare ökonomische Ziele GebrauchswertEntwicklung der Gebrauchseigenschaften
Einmalaufwand/Projektkosten
Bedarf/zu produzierende Stückzahl
Entwicklungszeit i.w.S.
Zielpreis (Target Price)
Zielgewinn (Target Profit)
Allowable Cost Zielkosten *
Zielkostenspaltung mit ständiger Rückkopplung
unter B e r ü c k sichtigung des anteilig über den P r o d u k t l e b e n s z y k l u s auf die zu p r o d u z i e rende S t ü c k zahl/Totalperiode zu verrechnenden (kapitalisierten) Einmalaufwands
Abb. I: Verflechtung wesentlicher Kriterien im Entscheidungsprozess von Produktinnovationen
248
2. Strategisches Entwicklungscontrolling Im Mittelpunkt stehen Planung und Kontrolle von Leistungspotenzialen und Erfolgsfaktoren. Auf der Basis der Unternehmensstrategie sind Potenziale, Produkte, Prozesse ergebniszielorientiert zu koordinieren. Dazu gehören die Bestimmung wettbewerbsentscheidender Faktoren, Stärken/Schwächen-Analyse unter konsequenter Einbeziehung des Benchmarking, daraufhin die Festlegung, Spezifizierung und Bewertung strategischer Ziele für Produkt- und Prozessentwicklungen bis zu daraus resultierenden Organisationsanforderungen (Abb. 3). Wesentlich ist in diesem Prozess die strikte Markt- bzw. Kundenorientierung (-»Target Costing) sowie, abgeleitet aus einem Reengineering der gesamtunternehmerischen Prozesse, eine konsequente Prozessorientierung (-» Prozesskosten-
Entwicklungscontrolling
Entwicklungscontrolling
diese Weise sind strategische Ziele zu konkretisieren, verantwortungsbewusst zu detaillieren und bis zur Zielrealisierung zu verfolgen. Wichtige Instrumente sind differenzierte Target Costs (z.B. für produktabhängige Kosten, anteilige Entwicklungskosten, Investitionskosten, Anlauf- und Auslaufkosten), Grob-Vorkalkulation u.a. (Ehrlenspiel/Kiewert/Lindemann 1998; Graßhoff/Gräfe 2000). Abb. 4 zeigt vereinfacht eine (Grob)Vorkalkulation als Entscheidungsgrundlage für Produktinnovationen.
rechnung) in der Entwicklung (Schmelzer 1993; Horväth 1998). Auf der Grundlage umfassender Marktanalysen ist zu bestimmen, welche Produktgruppen in welchen Varianten für welche Kunden in welchen Zeiträumen zu entwickeln sind und welche Ergebniszielwirkungen daraus resultieren (sollen). Zunehmend sind wertorientierte Konzepte zu präferieren. Die Konzeption zur strategischen Entwicklung ist aus den Wertbeiträgen, die die einzelnen Alternativen auf den Unternehmensgesamtwert haben, abzuleiten (DFCF-Konzept). ControllingInstrumente sind neben Target Costing und Prozesskostenmanagement insbesondere ->• Life Cycle Costing, Shareholder Value Analysis (-> Shareholder Value), Performance Measurement sowie Portfolios (Völker 1999).
Eine Koordinierung zwischen strategischen Zielen, marktzielorientierten Entscheidungen und der detaillierten Umsetzung über einzelne Projekte und in unterschiedlichen Bereichen ist über die Balanced Scorecard qualifiziert möglich.
Wesentlich zur Realisierung der strategischen Ziele ist eine strikte Prozessorientierung von der Projektidee über Markterschließungsprozesse und die eigentliche Entwicklung bis (zumindest) zur Produktion unter Serienbedingungen. Nur auf
3. Operatives Entwicklungscontrolling Grundüberlegungen und Instrumente des strategischen Entwicklungscontrolling werden im Rahmen des operativen Controlling ebenso genutzt und weitergeführt. Überschneidungen sind möglich. Mit dem
Bestandteile
Objektbezug
(Operatives) Projektcontrolling
(einzelne) Entwicklungsprojekte
Steuerungsgrößen (Projekt-) Kosten und Termine
Instrumente •
• • (Operatives) Bereichsund Programmcontrolling
Entwicklungsprogramm Entwicklungsbereich
F&E-Bereichskosten und -kapazitäten
• • •
(Strategisches) Marktzielorientiertes Controlling
(zu entwickelndes) Produkt
• • • •
• •
F&E-Strategiecontrolling
F&E-Strategie
• •
Zielerlöse Zielkosten Durchlaufzeiten Gebrauchswert / Qualität Periodenergebnis Erfolgspotenziale des Unternehmens
• • • • •
Abb. 2: Bestandteile
eines Entwicklungscontrolling
(in Anlehnung
Wirtschaftlichkeitsrechnungen zur Projektbeurteilung und Selektion Projektsteuerung Projektbudgets Bereichsbudgets Kapazitätspläne Programmbezogene Wirtschaftlichkeitsrechnungen Target Costing Prozesskostenmanagement Zeit-Kennzahlen Life Cycle Costing Performance Measurement Portfolios Shareholder Value Analysis
an Horväth, S. 840)
249
Entwicklungscontrolling
Entwicklungscontrolling
operativen Entwicklungscontrolling werden die strategischen Entscheidungen nach Projekten und Bereichen in konkrete (Jahres-)Budgetpläne einbezogen, damit realisierbar und kontrollierbar gestaltet. Für einzelne Entwicklungsprojekte erfolgt die Integration gemäß Abb. 1 sowie die Realisierung auf der Basis einer mitlaufenden Kalkulation, die die Zielerreichung sichert. Dabei ist immer die Einheit von Gebrauchswert/Qualität (Funktionserfullung), Termin/Zeit und Preis/Kosten/Gewinn über den gesamten Produktlebenszyklus zu sehen. Über Pflichtenhefte/Lastenhefte sind die Projektfortschritte zu planen, zu koordinieren und zu kontrollieren (vgl. VDI 2221 und 2235). Im Rahmen des Entwicklungsbereichscontrolling sind die vorhandenen (evtl. zu erweiternden) Potenziale in materieller, zeitlicher, personeller und finanzieller Hinsicht mit den Potenzialanforderungen vorgesehener Projekte in Übereinstim-
mung zu bringen. Vielfach werden vergleichbare Projekte und Maßnahmen unter Einbeziehung von Einsparpotenzialen zu Grunde gelegt. Progressive Normative erhöhen die Qualität von Planung und Koordinierung und ermöglichen eine gesicherte Zielrealisierung (Graßhoff/Gräfe 1997). 4. Ausgewählte Aufgaben lungscontrolling
des
Entwick-
Übergreifende Aufgaben: • Entwurf, Implementierung, Fortschreibung, Pflege und Dokumentation des Planungs-, Kontroll- und Informationsversorgungssystems. • Bewertung, Auswahl, Bereitstellung, Anpassung und Anwendungsunterstützung von dazu erforderlichen Instrumentarien. • Service- und Beratungsleistungen für o.g. Aufgaben.
Marketing
Geschäftsbereich Umsatzwachstum
Wirtschaftsergebnis
Entwicklungs leistung
Gebrauchswert/ Produktqualität
Entwicklungskosten
Entwicklungsprojekte
Produkte Produktumsatz/ -ergebnis
Markteintrittstermin
Produktkosten, -preis
Abb. 3: Integriertes
250
Entwicklungszeiten
Wettbewerbsstellung
Produktivitätszuwachs
(T
Entwicklungsbereich
Entwicklungscontrolling
Projekttermine (Meilensteine)
Gebrauchswert/ Produktqualität
(in Anlehnung
an Schmelzer,
Projekt-, Produktkosten
S. 182)
N
Entwicklungscontrolling
Entwicklungscontrolling Planungsaufgaben: •
Sicherstellung der Durchführung und Dokumentation der Zielplanung.
•
Mitwirkung bei der strategischen und operativen Zielplanung: Entwicklungsstrategie, -bereichsziele, -projektziele.
•
Mitwirkung bei der Durchführungsplanung des Entwicklungsbereiches: Budget-, Investitions-, Ressourcen-, Programmplanung.
•
•
Mitwirkung bei der Durchführung von Entwicklungsproj ekten: Proj ektstruktur-, Arbeitspaket-, Projektablauf-, Qualitätssicherungs-, Meilenstein-, Termin-, Kapazitäts-, Kostenplanung. Koordination Teilplänen.
von
Teilzielen
•
•
und
Bezüglich der Kontrolle und Informationsversorgung sind analoge Aufgaben zu erfüllen (Schmelzer 1993).
Abb. 4: (Grob)-Vorkalkulation
5. Ausblick Für die Unternehmensfiihrung und deren Subsystem Entwicklungscontrolling ergeben sich Anforderungen insbesondere in folgenden Richtungen, die unter aktuellen und künftig absehbaren Bedingungen unbedingt zu erfüllen sind (Grundlage bilden immer die strategischen Ziele des Unternehmens):
•
ah Entscheidungsgrundlage
Grundsätzliche Stärkung eines Entwicklungscontrolling im Unternehmen, um die ökonomische Durchdringung in für die Existenzsicherung entscheidenden Prozessen in erheblich höherer Qualität zu sichern. Stärkere Koordinierung von strategischem und operativem Entwicklungscontrolling mit dem Schwerpunkt strategischer Entwicklung und dem besseren Beherrschen der Schnittstellen. Prozessorientierte Umgestaltung der Entwicklungsaktivitäten und daraufhin
für Produktinnovalionen
(vereinfacht)
251
Entwicklungscontrolling
•
• •
•
•
Ereignisablaufanalyse (EAA)
des Controlling. Controller müssen zu einem integralen Bestandteil der Projekt- (Prozess-) -> Teams werden. Schaffung von komplexen Bewertungsansätzen zur Bestimmung der Rangfolge von Entwicklungsprojekten gemäß Abb. 1. Die Kriterien können infolge variierender Umweltbedingungen unterschiedliches Gewicht erhalten (z.B. Entwicklungszeit). Wertorientierte Beurteilung von Entwicklungsproj ekten. Bereitstellung eines komplexen Instrumentariums einer Kosten- und Leistungsrechnung als projektbezogene Lebenszyklusrechnung und deren Zusammenführen mit einer unternehmerischen Gesamtrechnung (auch unter dem Gesichtspunkt einer Vereinheitlichung von internem und externem Rechnungswesen). Schaffung von Nutzensrechnungen unter Einbeziehung von Anwendernutzenskomponenten. Zusammenführen strategischer Entwicklungsziele zu einem komplexen -» Innovationsmanagement und daraufhin zu einem komplexen Innovationscontrolling über die gesamte -> Wertschöpfungskette.
Literatur: Ehrlenspiel, K./Kiewert, A./Lindemann, U.: Kostengünstig Entwickeln und Konstruieren, 2. Auflage, Berlin/Heidelberg 1998; Graßhoff, J./Gräfe, C.: Kostenmanagement in der Produktentwicklung, in: Controlling 1 (1997), S. 14-23; Graßhoff, J./Gräfe, C.: FuE-Kosten, in: KostenControlling (Fischer), Stuttgart 2000, S. 325 351; Graßhoff, J./Gräfe, C./Nitschke, F.: Strategische Entwicklungskostenkalkulationen u n d Entwicklungsbedarfs-Portfolios als Instrumente des Kostenmanagements von Produktinnovationen, in: Controlling, 3 (1999), S. 121-127; Horväth, P.: Controlling, 7. Auflage, München 1998; Schmelzer, H. J.: Entwicklungscontrolling, in: Controlling, 4 (1993), S. 1 8 0 - 1 8 9 ; Völker, R.: Wertorientiertes Controlling der Produktentwicklung, in: krp, 4 (1999), S. 201 - 2 0 8 .
Jürgen Graßhoff Entwicklungspotenzial (personell) Potenzialbeurteilung
252
E-Payment E-Payment ist ein Teilbereich des Electronic Funds Transfer und umfasst alle Arten des elektronischen Zahlungsverkehrs des -» E-Commerce im -» Internet. Mit wachsender kommerzieller Bedeutung hat auch der Vertriebsweg "Internet" an Relevanz gewonnen. Hemmschuh dabei ist nach wie vor die gesicherte Zahlungsabwicklung zwischen Nachfrager und Anbieter eines Gutes/einer Dienstleistung - viele Online-Käufe werden nach wie vor per Lastschrift bezahlt, da dort das Vertrauen der Konsumenten noch am größten erscheint. An Ideen, wie ein Zahlvorgang im Internet sicher gestaltet werden kann, mangelt es nicht. Dabei werden zwei grundsätzlich unterschiedliche Wege eingeschlagen: 1. Online-Bezahlung mit "elektronischem Geld": Dabei werden Dateien als elektronische "Repräsentanten" von realem Geld eingesetzt. 2. Sicherung der Verbindung zwischen Käufer und Verkäufer: Durch ein spezielles Protokoll (SSL - Secure Socket Layer) wird die Datenübertragung verschlüsselt sowie Sender und Empfänger einer Authentifizierung unterworfen. Über die so gesicherte Verbindung können auch kritische Informationen, wie z.B. Kreditkartennummern, übertragen werden. EQA ->• European Quality Award Equity Carve-out Unternehmensspaltung Equity-Rating -> Rating Ereignisablaufanalyse (EAA) Die Ereignisablaufanalyse (DIN 25419) ist eine -> Qualitätsmanagement-Methode zur systematischen (induktiven) Analyse aller potenziellen Ereignisabläufe (Folgen), die von einem gegebenen Anfangsereignis (z.B. Fehler) ausgehen können.
Ereignisablaufanalyse (EAA) Dabei werden den potenziellen Folgeereignissen JA- und NEIN-Ausgänge zugeordnet, bis man zum Endereignis gelangt. Durch zusätzliche Beurteilung der Auftretenswahrscheinlichkeiten der Folgeereignisse lassen sich die kritischen Pfade, die ein unerwünschtes Ereignis am wahrscheinlichsten nach sich ziehen, ermitteln.
Erfahrungskurve Ein Beispiel einer Erfahrungskurve mit einer Ausgangsmenge x o = 10, Stückkosten k o = 100 und einer Kostenreduktionsrate a = 3 0 % ist in der folgenden Abbildung graphisch dargestellt. Eine Funktion wird auch solche 70% - Erfahrungskurve bezeichnet. Die Erfahrungskurve stellt mit dem fa-
Engelbert Westkämper/ Alexander Schloske Erfahrungskurve Das Konzept der Erfahrungskurve ist gegen Ende der 1960er Jahre von der Boston Consulting Group entwickelt worden. In der Betriebswirtschaftslehre wird es seit der Veröffentlichung von Henderson (1974) diskutiert. Die Erfahrungskurve stellt eine Erweiterung der schon zuvor bekannten ->• Lernkurve dar. Sie ist gegenüber der Lernkurve insofern weiter gefasst, als sich nach ihrer Definition mit steigender kumulierter Produktionsmenge ein Stückkostensenkungspotenzial nicht nur für die variablen Produktionskosten der Fertigung eröffnet, sondern für alle mit der Wertschöpfung verbundenen Kosten. Die Höhe wird bei konstanten Geldwerten mit 2 0 - 3 0 % j e Verdopplung der kumulierten Produktionsmenge angegeben. Formal wird die Erfahrungskurve wie folgt beschrieben: Bei einer Produktionsmenge x „ , der n-fachen Verdopplung der Ausgangsmenge x o , d.h. *b=2"-*O, (1) sowie einer Kostenreduktionsrate a ergeben sich gegenüber den Ausgangsstückkosten k o (potenziell) reduzierte Stückkosten k n von kn=(\-a)"-k0. (2) Durch Einsetzen der Gleichungen (1) und (2) ineinander und U m f o r m e n ergibt sich die Funktionsgleichung der Erfahrungskurve mit: 'og('-a)
0
200
400 600 kumulierte Produktionsmenge
800
1000
kultativen Charakter ihrer Definition keine Gesetzmäßigkeit dar, sondern spiegelt regelmäßige Beobachtungen zunächst aus der Praxis der Unternehmensberatung wider. Zahlreiche empirische Studien sind in der Folge zur Überprüfung des Konzeptes durchgeführt worden. Für bestimmte Sachgüter wie z.B. S/WFernsehgeräte oder Industriefolien ließen sich der Verlauf der Erfahrungskurve sowie die Größenordnung der Kostenreduktion erhärten. Für Konsumgüter liegt die Kostenreduktionsrate nach diesen Studien in der Regel etwas niedriger als für Produktionsgüter. In Ermangelung von aussagefahigen Angaben zu Stückkosten basieren diese Studien jedoch auf der Analyse von Preisentwicklungen. Es wird von einem starren Zusammenhang zwischen Preis und Stückkosten ausgegangen. Eine Reihe von Gründen kann filr Kostenreduktionen ursächlich sein, deren Eintreffen das aktive Gestalten des Management voraussetzt. Die variablen Produktionskosten sind Teil der vom Erfahrungskurvenkonzept erfassten wertschöpfungsbezogenen Kosten. Der von der Lernkurve beschriebene produktionskostenmindernde Übungseffekt ist demnach auch eine Ursache des durch die 253
Erfahrungskurve Erfahrungskurve beschriebenen Kostensenkungspotenzials. Produktionsverfahren und Methoden werden mit zunehmender Wiederholung besser beherrscht. Der Übungseffekt tritt nicht nur in der Produktion, sondern auch in anderen betrieblichen Funktionalbereichen auf. Das erweiterte Konzept der Erfahrungskurve erfasst diese Übungseffekte ebenfalls. Die Verbesserung bestehender Prozesse durch den technischen Fortschritt kann eine weitere wesentliche Ursache für Kostenreduktionen sein. In der Elektronikindustrie hat beispielsweise der Übergang von der Montage bedrahteter Bauelemente zu dem Aufsetzen oberflächenmontierter Bauelemente für einen starken Rückgang der Montagekosten geführt. Damit einher ging die -» Automatisierung der Produktionsprozesse. Voraussetzung ist eine Änderung auch der Produktkonstruktion entsprechend der fertigungstechnischen Erfordernisse. Auch zunehmende Standardisierung (bzw. —• Normung) der Produkte, beispielsweise durch Modulbauweise, kann Kosten senken. Standardisierung bewirkt eine Zunahme der Wiederholungen und damit des Lerneffekts. Die Verbesserung von Methoden, z.B. der Übergang zu computergestützten Planungsverfahren, kann ebenfalls zu Kostenreduktionen fuhren. Eine weitere Gruppe von Ursachen hängt mit dem Betriebsgrößeneffekt (-» economies of scale) zusammen. Bei steigender periodenbezogener Produktionsmenge können Kapazitäten besser ausgelastet werden, es können Formen der Fertigungsorganisation und der Organisation anderer Funktionalbereiche eingesetzt werden, die größere Ausbringungsmengen pro Periode ermöglichen. Damit kann jedoch die Notwendigkeit zu weiteren Investitionen einhergehen. Bedeutung hat die Erfahrungskurve in erster Linie im Rahmen der strategischen Planung erlangt. Die Auseinandersetzung mit der Erfahrungskurve hat vor allem das Bewusstsein für die Bedeutung des (rela254
Erfah rungsku rve tiven) Marktanteils eines Unternehmens geschärft. Je größer der Marktanteil ist, desto schneller steigt die kumulierte Produktionsmenge. Bei sonst gleichen Bedingungen kann ein Unternehmen mit hohem Marktanteil daher eher Punkte geringerer Stückkosten auf der Erfahrungskurve erreichen als Konkurrenten mit niedrigerem Marktanteil. Darauf aufbauend werden die Normstrategien des Portfoliomanagement definiert. Der Kostenvorteil kann zur Realisierung höherer Gewinne oder zur Ausweitung des Marktanteils über Preissenkungen genutzt werden. Im Rahmen der Preispolitik kann die Erfahrungskurve z.B. auch bei Neuprodukteinführungen genutzt werden. Eine Möglichkeit ist, den Preis in Antizipation der Kostensenkung von vornherein so niedrig anzusetzen, dass der Markteintritt für Konkurrenten unattraktiv wird und somit ein Erfahrungsvorsprung gewonnen werden kann. In dieser Betonung des Marktanteils liegt zugleich ein Schwachpunkt der Interpretationen des Erfahrungskurvenkonzeptes. Ein problemloser Absatz der Produkte kann nämlich ebenso wenig vorausgesetzt werden, wie eine problemlose Ausweitung der Produktionskapazitäten, die insbesondere an die Voraussetzung ausreichender Finanzierungsmöglichkeiten geknüpft ist. Die zunehmende Spezialisierung von Anlagen und Personal führt darüber hinaus zu einem Verlust an Flexibilität. Kosten werden als Grundlage der Preisbildung und das Gewicht des Preises wiederum als Teil des Marketingmix überbewertet. Die Möglichkeit einer Produktdifferenzierung bleibt unberücksichtigt. Mit steigender Betriebsgröße und Arbeitsteilung nehmen ferner die Koordinationskosten zu. Ein Einsatz der Erfahrungskurve als Instrument der operativen Kostenprognose oder Kostenkontrolle ist ebenfalls kritisch zu bewerten. Unklar ist schon die Definition der Kosten als Marginalstückkosten oder Durchschnittsstückkosten der
Ermahnung
Erfahrungskurve letzten Periode oder aller Perioden. Auch die Beschränkung der Kosten auf den Wertschöpfungsanteil kann kritisiert werden. Sowohl durch den Lerneffekt (Einkäufer gewinnen einen besseren Marktüberblick) als auch den Betriebsgrößeneffekt (z.B. durch Mengenrabatte) sind Kostenreduktionen auch für fremdbezogene Leistungen möglich. Ein weiteres Problem ergibt sich hinsichtlich der Kostenzurechnung insbesondere bei mehrfach genutzten Anlagen und damit auch Erfahrungen, die der Produktion mehrerer Produkte zugute kommen. Insofern sind auch die Ergebnisse der empirischen Studien zurückhaltend zu bewerten, zumal der in ihnen vorgenommene direkte Schluss vom Preis auf die Kosten die Realität industrieller Preissetzung stark vereinfacht. Die Anwendung der Erfahrungskurve ist in der strategischen Planung besonders für Bereiche geeignet, in denen in erster Linie über den Preis verkauft wird, das Wachstum groß ist und sich somit die kumulierte Produktionsmenge rasch vergrößert. Bei Stagnation oder zyklischen Schwankungen werden die Auswirkungen der Erfahrungskurve in der Regel durch andere Einflüsse überdeckt. Literatur: Henderson, B.D.: Die Erfahrungskurve in der Unteraehmensstrategie, Frankfurt-New York 1974; Wright, T.P.: Factors affecting the cost of airplanes, Journal of Aeronautical Science, 3, Feb.. 1936, 122-128; ZFB Ergänzungsheft 2/1987, 57. Jg.
Martin Grunow Erhaltungsakquisitionen -» Unternehmensakquisition Ermahnung Die arbeitsrechtliche Praxis bezeichnet mit der Ermahnung üblicherweise das Verlangen des Arbeitgebers, die arbeitsvertraglichen Pflichten einzuhalten, ohne eine Rechtsfolge anzudrohen. Oft droht der Arbeitgeber aber bereits in der Ermahnung eine rechtlich relevante Konsequenz an: Die Ankündigung des Arbeitgebers, bei dem nächsten Verstoß gegen
die arbeitsvertraglichen Pflichten eine -> Abmahnung auszusprechen, ist ihrer Konstruktion nach formalrechtlich betrachtet mit einer Abmahnung vergleichbar. Der Übergang zwischen bloßer Ermahnung und Abmahnung ist fließend. Das Arbeitsrecht regelt die Ermahnung nicht. Sie gewinnt erst aus der Abgrenzung zur Abmahnung Kontur. Die Abmahnung ist eine "Erfindung" der Arbeitsgerichtsbarkeit; die Ermahnung ist eine "Erfindung" der Praxis. Der Arbeitgeber spricht eine Ermahnung aus, wenn er vorrangig Interesse an der Fortsetzung des Arbeitsverhältnisses hat, weitere Vertragsverstöße aber sein Beendigungsinteresse entstehen lassen würden. Die Ermahnung ist wie die Abmahnung keine auf den Abschluss eines Rechtsgeschäfts gerichtete Willenserklärung. Bei ihr handelt es sich gleichermaßen um eine tatsächliche Erklärung des Arbeitgebers, die keine unmittelbaren Rechtsfolgen auslöst. Die Ermahnung will neben der Beanstandung des vertragswidrigen Verhaltens zur Besserung aufrufen. Sie hat keine unmittelbaren rechtlichen Auswirkungen auf den Arbeitsvertrag. Sie mag die soziale Stellung des Arbeitnehmers im Betrieb beeinträchtigen. Auch kann sie im Sinne einer Abmahnung wirken, so dass im Wiederholungsfall eine Kündigung möglich ist. Auf die vertraglichen Rechte und Pflichten hat sie aber keine unmittelbaren Auswirkungen. Die Rechtsprechung hat mit dem Erfordernis der vorherigen einschlägigen Abmahnung eine "Kündigungssperre" errichtet. Die Ermahnung kann diese Sperre nicht beseitigen. Sie ist mangels eindeutiger Warnung nicht die Vorstufe zu einer Kündigung, sondern bloße Vertragsrüge. Im Gegensatz zur Abmahnung hat der Arbeitnehmer grundsätzlich keinen Anspruch auf Entfernung einer Ermahnung aus seiner Personalakte. Das gilt selbst dann, wenn sich im Nachhinein heraus-
255
Europäische Aktiengesellschaft
Ermahnung stellt, dass die beanstandeten Vertragsverletzungen nicht vorgelegen haben. Wenn der Arbeitgeber aber bei der Beanstandung des vertragswidrigen Verhaltens die Schriftform wählt und in der von ihm so bezeichneten Ermahnung eine Warnung ausspricht, nähert er sich der Abmahnung. Dann hat der Arbeitnehmer gegen den Arbeitgeber einen Entfernungsanspruch, falls das beanstandete Verhalten tatsächlich nicht vorlag. Der Entfernungsanspruch besteht auch, falls der Arbeitnehmer den Nachweis nicht führen kann, dass der Verbleib der "falschen" Ermahnung in der Personalakte sein berufliches Fortkommen behindern könnte. Literatur: Kranz, D i e E r m a h n u n g in der arbeitsrechtlichen Praxis, D B 1998, S. 1464 ff.
Nicolai Kranz Ertragswert -» Unternehmenswert ESS Employee Seif Service Ethnozentrische Strategie -» Management, internationales Europäische Aktiengesellschaft 1. Historie Seit 1970 bemüht sich die Kommission um die Schaffung einer supranationalen Europäischen Aktiengesellschaft (Societas Europaea - SE). Dem ersten, auf Art. 235 EWGV (Art. 308 EGV) gestützten und heftig kritisierten Vorschlag der Kommission vom 30.6.1970 über ein SEStatut (ABl. 1970, C 124/1) folgte ein geänderter Verordnungsvorschlag am 30.4.1975 (Bull.EG 1975, Beilage 4/75), der gleichermaßen in den Mitgliedstaaten auf schwere konzern- und mitbestimmungsrechtliche Bedenken stieß. Erst fünfzehn Jahre später wurde mit dem geänderten und nunmehr auf Art. 100a EWGV (Art. 95 EGV) gestützten Vorschlag vom 25.8.1989 für eine Verordnung (EWG) des Rates über das Statut der Europäischen Aktiengesellschaft 256
(ABl. 1989, C 263/41) ein weiterer Umsetzungsversuch unternommen, der am 16.5.1991 eine erneute Änderung (ABl. 1991, C 176/1) erfahren hat. Dabei wurden wegen der Kritik das Konzern-, Steuer- und Rechnungslegungsrecht sowie die Mitbestimmungs- und Arbeitnehmervertretungsfragen ausgeklammert. Die Mitbestimmungsfragen sollen auf der Grundlage des Vorschlags vom 25.8.1989 für eine auf Art. 54 EWGV (Art. 44 EGV) zu stützende Richtlinie des Rates zur Ergänzung des SE-Statuts hinsichtlich der Stellung der Arbeitnehmer (ABl. 1989, C 263/58), geändert durch den Vorschlag für eine Richtlinie zur Ergänzung der Verordnung über die europäische Aktiengesellschaft (zur Mitbestimmung der Arbeitnehmer) vom 29.5.1991 (ABl. 1991, C 138/8), eine Regelung erfahren (Ergänzungsrichtlinie - ErgRL). Die Arbeitnehmervertretungsfragen wurden zwischenzeitlich durch die Richtlinie 94/45/EWG zur Schaffung Europäischer Betriebsräte vom 30.9.1994 (ABl. 1994, L 254/64) einer Regelung zugeführt. 2. Gründung der SE Vorbehaltlich der Regelungen im SEStatut, die gewisse Zugangsbeschränkungen normieren, beurteilt sich die Gründung einer SE nach dem Recht des Sitzstaates. Nach dem Verordnungsentwurf 1991 sind folgende Gründungsvarianten vorgesehen, denen das Erfordernis des Prinzips der Mehrstaatlichkeit gemein ist: •
• • • •
Gründung durch Verschmelzung von mindestens zwei Aktiengesellschaften in unterschiedlichen Mitgliedstaaten zu einer SE; Errichtung einer Holding-SE; Gründung einer SE als gemeinsame Tochtergesellschaft; Gründung einer Tochtergesellschaft durch eine SE; Gründung einer SE durch Umwandlung einer nationalen -* Aktiengesellschaft.
Europäische Aktiengesellschaft
Europäische Aktiengesellschaft 3. Organisation und Verfassung der SE Die SE ist ohne Rücksicht auf den Gegenstand des Unternehmens Handelsgesellschaft mit eigener Rechtspersönlichkeit, deren festes Mindestkapital (€ 100.000) in Aktien zerlegt ist. Der Kapitalschutz folgt den Vorgaben der Zweiten gesellschaftsrechtlichen EGRichtlinie vom 31.1.1977 (Kapitalrichtlinie - ABl. EG Nr. L 26). Die Aktionäre haften für Verbindlichkeiten der Gesellschaft nur bis zur Höhe ihrer Einlage. Satzung- und Verwaltungssitz müssen zusammenfallen und in der Gemeinschaft liegen. Die SE ist im Handelsregister des Sitzstaates einzutragen. Die handelsrechtliche Publizität richtet sich nach der Richtlinie 68/151/EWG vom 9.3.1968 (Publizitätsrichtlinie) sowie ergänzend nach dem SE-Statut. Als Organe der SE kommen eine Hauptversammlung der Aktionäre sowie entweder ein Leitungsbzw. Aufsichtsorgan (dualistisches System) oder ein Verwaltungsorgan (monistisches System) in Betracht. Die Mitglieder des Aufsichts- sowie des Verwaltungsorgans werden grundsätzlich von der Hauptversammlung bestellt. Dem jeweiligen Mitglied- als Sitzstaat steht es frei, sich hinsichtlich der in seinem Bereich registrierten Gesellschaften für eines der beiden Systeme zu entscheiden. Trifft der Staat keine Vorgaben, so kann die Gesellschaft frei wählen. Die Hauptversammlung hat über alle Angelegenheiten zu beschließen, die ihr das SE-Statut zuweist, darüber hinaus aber auch über alle Angelegenheiten, für die keine ausdrückliche Zuständigkeit des Leitungs-, Aufsichts- oder Verwaltungsorgans begründet worden ist. Das Aufsichtsorgan führt die Aufsicht über das Leitungsorgan. Darüber hinaus bedürfen bestimmte, besonders wichtige Geschäftsführungsentscheidungen der Zustimmung des Aufsichtsorgans bzw. eines Beschlusses aller Mitglieder des V erwaltungsorgans. Das Leitungs- bzw. das Verwaltungsorgan führt die Geschäfte der SE und ver-
tritt diese gegenüber Dritten. Im SE-Statut nicht geregelte Gegenstände beurteilen sich nach EU-Richtlinienrecht bzw. dem nationalen Recht des Mitgliedstaats am Verwaltungssitz. Auch das Konzernrecht bestimmt sich nach dem Recht des Sitzstaates. 4. Der Aktionär Eine Beteiligung der Aktionäre am Kapital erfolgt durch Namens- oder Inhaberaktien (-» Aktie). Im Falle einer Kapitalerhöhung haben die Aktionäre ein (allerdings ausschließbares) Bezugsrecht. Die Aktionäre haben Stimmrecht in der Hauptversammlung und können sich auch vertreten lassen. Ihnen ist Zugang zu bestimmten Informationen zu geben. Ein Auskunftsrecht steht ihnen nach dem jeweiligen Recht des Mitgliedstaates jedoch nur nach Maßgabe des Vorschlags für eine Fünfte gesellschaftsrechtliche EG-Richtlinie vom 9.9.1983 (Strukturrichtlinie - ABl. EG Nr. C 240) zu. 5. Mitbestimmung in der SE Die SE unterliegt der Mitbestimmung nach den rechtlichen Vorgaben des Sitzstaates, die jedoch den Regelungen der ErgRL (dazu unter 1.) entsprechen müssen. Die Bestimmungen der ErgRL stellen eine untrennbare Ergänzung der VO über das SE-Statut dar. Es wird daher sicherzustellen sein, dass die Richtlinienbestimmungen zum gleichen Zeitpunkt wie die VO anwendbar sind. Die Mitgliedstaaten haben die erforderlichen Maßnahmen zu treffen, um die Arbeitnehmer der SE an der Aufsicht und Entwicklung der SE-Unternehmensstrategie zu beteiligen. Ihnen stehen hinsichtlich der unternehmerischen Mitbestimmung nach der ErgRL (die den Vorgaben der Strukturrichtlinie folgt) folgende Modelle zur Verfügung: Mitbestimmung • •
•
im Aufsichts- bzw. Verwaltungsorgan, in einem gesonderten Arbeitnehmervertreter-Organ unterhalb der Leitungsebene, aufgrund einer Vereinbarung zwischen den Arbeitnehmern und der Unter257
European Quality Award
Europäische Aktiengesellschaft nehmensleitung, die bestimmte Mindestbedingungen erfüllen muss. Für die SE selbst ist die Wahl oder Vereinbarung eines dieser Modelle Gründungsvoraussetzung. 6. Rechnungslegung Für die SE-Rechnungslegung gelten die •
•
Vierte Richtlinie (Bilanzrichtlinie 76/660/EWG vom 25.7.1978) sowie die Siebente Richtlinie (Konzernabschlussrichtlinie - 83/349/EWG vom 13.7.1984).
7. Auflösung und Liquidation Eine SE soll unter folgenden Voraussetzungen aufgelöst werden können: • • •
Ablauf der in der Satzung oder dem Gründungsakt bestimmten Dauer; Hauptversammlungsbeschluss der Aktionäre; Auflösungsbeschluss des Gerichts des Sitzes.
Nach Auflösung der SE findet die Liquidation ihres Vermögens statt. In Bezug auf Zahlungsunfähigkeit oder -einstellung unterliegt die SE den innerstaatlichen Rechtsvorschriften am Sitzort. 8. Verschmelzung Das SE-Statut nennt vier Fälle, in denen eine SE mit einer anderen SE oder mit Aktiengesellschaften, die nach dem Recht eines Mitgliedstaates gegründet worden sind, verschmolzen werden kann: • • • •
Gründung einer neuen SE; Aufnahme einer oder mehrerer Aktiengesellschaften durch die SE; Aufnahme der SE durch eine Aktiengesellschaft; Gründung einer neuen Aktiengesellschaft.
In Bezug auf die für die Verschmelzung geltenden Vorschriften wird danach differenziert, ob die an der Verschmelzung beteiligten Gesellschaften ihren Sitz im gleichen oder in verschiedenen Mitgliedstaaten haben. Im ersten Fall gelten 258
die in Anwendung der Dritten Richtlinie 78/855/EWG vom 9.10.1978 (sog. Verschmelzungs-/Fusionsrichtlinie) erlassenen Vorschriften. Ansonsten finden die SE-Gründungsbestimmungen sinngemäße Anwendung. 9. Resümee Die den Mitgliedstaaten in vielfältiger Weise durch das SE-Statut eingeräumten Wahlrechte fuhren zu einem Verzicht auf eine einheitliche und geschlossene SERegelung, wodurch die supranationale Gesellschaftsform "renationalisiert" wird. Gerhard Ring European Quality Award Der European Quality Award (EQA) stellt wie der -> Malcolm Baldrige National Quality Award eine -> Qualitätsauszeichnung dar. Er wird durch die European Foundation for Quality Management (-> EFQM) verliehen und hat zum Ziel, die Wettbewerbsfähigkeit europäischer Organisationen zu steigern. Das dem Preis zu Grunde liegende Kriterienmodell wurde kontinuierlich gepflegt und weiterentwickelt und stellt sich heute in seiner Grundstruktur gemäß Abb. 1 dar. Das Kriterienmodell des EQA ist gekennzeichnet durch eine klare Trennung in Befähiger- und Ergebnis-Kriterien. Während sich die Befähiger-Kriterien insbesondere mit der Systematik befassen, mit der eine Organisation vorgeht, um den inhaltlichen Anforderungen zu genügen, beziehen sich die Ergebnis-Kriterien darauf, welche Leistungen die Organisation erreicht hat. Im EFQM-Modell (-+ EFQM-Modell für Excellence) werden im Einzelnen folgende neun Aspekte betrachtet (EFQM 1999): •
Führung: Dieses Kriterium fordert das Engagement der Führungskräfte bei der Entwicklung und Umsetzung einer Mission und Vision. Daneben wird von der Führung erwartet, die Anstrengungen und Erfolge der Mitarbeiter anzuerkennen und sich um Kunden und Lieferanten zu bemühen.
European Quality Award
European Quality Award •
•
•
•
Politik und Strategie: Hier fordert das Modell die Ausrichtung der Organisation an strategischen Zielen, die regelmäßig den Anforderungen der Interessengruppen anzupassen sind. Zudem wird die Forderung formuliert, diejenigen Prozesse zu ermitteln, welche die strategischen Ziele unterstützen. Mitarbeiter: Hier werden Aktivitäten im Hinblick auf die Mitarbeiter der Organisation betrachtet, wie z.B. die Ermittlung und der Aufbau von Kompetenzen und Wissen sowie die Gestaltung von Anerkennungssystemen. Partnerschaften und Ressourcen: Dieses Kriterium fordert Konzepte, die auf das Management der Finanzen, Gebäude, Informationen gerichtet sind und langfristige strategische Allianzen mit externen Partnern fördern. Prozesse: Hier wird betrachtet, wie ein systematisches Management der Prozesse aufgebaut wird und in welcher Weise Produkte und Dienstleistungen anhand von Kundenwünschen entworfen und entwickelt werden. Weitere Themenfelder sind die Gestaltung und das Management von Kundenbeziehungen
•
Mitarbeiter-, kündenund gesellschaftsbezogene Ergebnisse: Bei diesen Kriterien beschreibt die Organisation neben der Zufriedenheit und der -* Motivation der Mitarbeiter, wie die Kunden die Organisation im Hinblick auf das Image und die Produkte und Dienstleistungen wahrnehmen und inwieweit diese sich loyal verhalten. Darüber hinaus sind auch Resultate hinsichtlich der Gesellschaft von Bedeutung (z.B. soziale Verantwortung im regionalen Arbeitsmarkt).
•
Wichtige Ergebnisse der Organisation: Schließlich wird die Leistungsfähigkeit der Organisation betrachtet, die sich unter anderem in den Ergebnissen der Schlüsselprozesse (z.B. Durchlaufzeiten) und den finanziellen Messgrößen (z.B. Gewinne, Renditen) widerspiegelt.
Literatur: Zink, K.J.: T Q M als integratives Managementkonzept, Das europäische Qualitätsmodell und seine Umsetzung, München, Wien 1995; Schmidt, A. / Zink, K.J.: Nutzt ein nationaler Qualitätspreis? QZ - Qualität und Zuverlässigkeit, 39. Jg., 11/1994, S. 1242-1244; EFQM (Hrsg.): Das EFQM Modell für Excellence 1999, Brüssel 1999.
Befahiger
Klaus J. Zink
Ergebnisse
Die Werte geben die Bedeutung des Kriteriums wider (Gesamtpunktzahl 1000)
Innovation und Lernen Abb. 1: Der European
Quality
Award
259
EUS
Eventmarketing
EUS Entscheidungsunterstützende Systeme Event Unter einem Event ist eine untemehmensoder markenbezogene Veranstaltung zu verstehen, die den Rezipienten ein starkes Erlebnis im Sinne einer psychologischen Aktivierung vermitteln soll. Dieser letzte Aspekt impliziert, dass Events außerhalb der Alltagswirklichkeit der Rezipienten liegen, d.h. den Charakter eines außergewöhnlichen (innovativen) bzw. spektakulären Ereignisses aufweisen. Aus inhaltlicher Sicht lassen sich drei Arten von Events unterscheiden: •
•
•
Infotainment-Veranstaltungen: Unterhaltungsshow-ähnliche Aktionen oder Wettbewerbe, die in bestimmten Städten oder bei ausgewählten Händlern (sog. Road-Shows) abgehalten werden. anlassbezogene Veranstaltungen: z.B. Aktivitäten zu Betriebsjubiläen, Startveranstaltungen für Neuprodukte oder Filialeröffnungen (sog. Kick-Offs). Know-How-orientierte Veranstaltungen (z.B. Seminare, Kongresse, die vom Unternehmen ausgerichtet werden).
Literatur: Bruhn, M., Kommunikationspolitik, München 1997; Nickel, O, Eventmarketing, München 1998.
Hans Pechtl Eventmarketing bezeichnet die systematische Planung, Durchführung und Kontrolle von -> Events im Rahmen der Kommunikationspolitik eines Unternehmens. Das Eventmarketing hat sich aus dem traditionellen Veranstaltungsmarketing entwickelt, weist aber einige Unterschiede zu ähnlichen Aktivitäten in diesem Bereich auf: Event-Maßnahmen wenden sich primär an die (potenziellen) Kunden des Unternehmens (Konsumenten, Händler/Franchisenehmer) bzw. allgemein an die Medien (Fachpresse). Eine Teilnahme an der Veranstaltung ist hierbei aber nicht 260
als explizite Belohnung für besondere Leistungen der Rezipienten konzipiert. Dies unterscheidet Events von IncentiveVeranstaltungen, die sich bspw. an verdiente (Außendienst-)Mitarbeiter oder Großkunden richten. Auch - finanziell durchaus aufwendige - Maßnahmen zur Pflege der Geschäftsbeziehungen zählen noch nicht zum Event-Marketing, wenn diese Veranstaltungen (z.B. Theateraufführung) auch außerhalb der Planungsinitiative des Unternehmens stattfinden; hier ist das Kriterium der Einzigartigkeit des Events nicht gegeben. Umgekehrt gelten wiederkehrende Ereignisse wie bspw. Sportveranstaltungen (z.B. Adidas Streetball-Cup; Camel Trophy) als Event, da sich Teilnehmerfeld und Sieger ändern. Anders als bei Verkaufsveranstaltungen steht bei Events der unmittelbare Verkauf von Produkten im Hintergrund; allerdings können durchaus Probe- oder Geschenkpackungen verteilt werden. Vom -> Sponsoring unterscheidet sich Eventmarketing schließlich dahingehend, dass das Unternehmen selbst die Veranstaltung "inszeniert" und finanziert, während sich bei Sponsoring-Maßnahmen das Unternehmen in das Reglement des (Sport-) Veranstalters einordnen muss. Dadurch steht bei Events das Unternehmen oder die Marke stärker im kommunikativen Mittelpunkt der Aktion. Aus verhaltenspsychologischer Sicht spricht Eventmarketing zum einen die Erlebnisoricnticrung der Rezipienten an, die ein Wertemuster bzw. einen Lifestyle (Erlebniskonsum) in der modernen Konsumwelt darstellt. Zum anderen versucht Eventmarketing durch die Auffälligkeit der Aktionen die Abnutzung traditioneller Kommunikationsinstrumente (z.B. ~> Mediawerbung) in der Werbewirkung zu umgehen. Hieraus leiten sich drei Werbeziele des Eventmarketings ab: •
Die spektakuläre Gestaltung des Events soll die Aufmerksamkeit der Rezipienten auf das Werbeobjekt len-
Eventmarketing
•
•
ken. Daher sind Informations- und Displaymaterialien zu Unternehmen, Marke und Produkten während der Veranstaltung deutlich präsent. Zudem besteht während des Events eine hohe Kontaktintensität und ein direkter Kommunikationskontakt mit den Rezipienten. Markenführung: Die (emotionale) Positionierung der Marke (Image) soll durch den Event physisch erlebbar gemacht werden (inszenierte Markenwelt). Kundenbindung-. Die stark aktivierenden Erlebnisse der Rezipienten, die ein Event auslöst, stiften Nutzen und erhöhen im Sinne einer "Dankbarkeit" das Commitment (innere Beziehung) der Rezipienten zur Marke und zum Unternehmen. Dadurch steigt das akquisitorische Potenzial.
Events verursachen durch ihren spektakulären Charakter vergleichsweise hohe Kosten. Sollen solche Veranstaltungen nicht der "Selbstverwirklichung von Kreativabteilungen" dienen, sondern Marketingerfolg aufweisen, sind einige Problembereiche zu beachten: •
•
Begrenzte Reichweite: Mit dem Event können zunächst nur die unmittelbaren Teilnehmer erreicht werden, was in der Regel einen Bruchteil der relevanten Zielgruppen eines Markts umfasst. Daher ist es notwendig, durch begleitende Kommunikationsmaßnahmen (z.B. Massenmedien) den Event anzukündigen, nachzubereiten und kommunikativ "nachbrennen" zu lassen. Durch eine gezielte Ansprache von anvisierten Zielgruppen (z.B. entsprechende gestalterische Aufmachung der Ankündigungen, explizite Einladungen) können ferner Streuverluste im Teilnehmerkreis vermindert werden (Zielgruppenfokussierung). Ein Eventcontrolling setzt voraus, dass bereits im Vorfeld operational messbare Werbeziele formuliert werden, die durch Events erreicht werden sollen.
Eventmarketing
•
•
Diese Soll-Vorgabe ist durch ex-postMarktforschung - auch außerhalb des Teilnehmerkreises - auf ihren Zielerreichungsgrad hin zu überprüfen. Erst dann kann beurteilt werden, ob sich die getätigten Investitionen in den Event gelohnt haben. Kreativitätsprobleme: Events bergen die Gefahr, dass die auffällige "Rahmenhandlung" vom intendierten Werbeziel ablenkt. Zudem verschleißt sich der Innovationsgehalt einer Aktivität sehr schnell, was zu einer Spirale "nach oben" führt, um den Charakter des Spektakulären zu erhalten. Ferner können mangelhaft konzipierte Events negative Kommunikationswirkungen auslösen (das Unternehmen macht sich lächerlich). Daher übertragen Unternehmen in der Regel die Vorbereitung und auch Durchfuhrung eines Events spezialisierten (Event-) Agenturen. Das Konzept des hybriden Käufers zeigt, dass die Erlebnisorientierung nur ein mögliches Konsummuster darstellt. Viele Nachfrager kaufen Produkte unter einer Sparorientierung, nicht weil sie sich Luxus nicht leisten könnten, sondern weil sie für ein bestimmtes Produkt nicht mehr Geld auszugeben bereit sind. Diese nüchtern kalkulierenden Nachfragersegmente werden möglicherweise durch spektakuläre Events "vor den Kopf gestoßen", oder sie nehmen als Trittbrettfahrer den Fun-Charakter der Veranstaltung mit, ohne dass sich ihr Markenbild und ihre Kundenbindung verbessern.
Zusammenfassend ist Eventmarketing in das übergeordnete Kommunikationskonzept des Unternehmens einzuordnen. Es ergänzt, aber ersetzt keinesfalls traditionelle Kommunikationsmittel wie Mediawerbung, Verkaufsförderung oder Public Relations (-* Öffentlichkeitsarbeit). Vielmehr müssen Event-Aktionen durch weitere kommunikationspolitische Maßnahmen flankiert werden. Aufgrund der 261
Export
Eventmarketing Erlebnisfokussierung ist Eventmarketing nur in bestimmten (erlebnisorientierten) Produktkategorien und bei spezifischen Zielgruppen erfolgreich. Literatur: Bruhn, M.: Kommunikationspolitik, München 1997; Nickel, O.: Eventmarketing, München 1998.
Hans Pechtl Evolutionsstrategie -> Management des Wandels Executive Summary Allgemein ist der Executive Summary eine knappe Zusammenfassung zur Information von Entscheidungsträgern. In letzter Zeit wird der Begriff - auch als Mission Statement oder Statement of Purpose bezeichnet - fur das erste Kapitel eines -»Business Plans verwendet, in dem das Unternehmenskonzept prägnant zusammengefasst wird. Exit Gewinnrealisierung durch einen -> Venture Capitalist im Wege der Anteilsveräußerung. Drei Exitvarianten sind zu unterscheiden: •
Buy Back: Veräußerung der Aktien bzw. Geschäftsanteile des Venture Capitalists an die Altaktionäre bzw. die übrigen GmbH-Gesellschafter. Statt dessen kann auch die Aktiengesellschaft in den engen Grenzen des § 71 AktG eigene Aktien vom Venture Capitalist zurückerwerben; dasselbe gilt für die -»Gesellschaft mit beschränkter Haftung hinsichtlich eigener Geschäftsanteile nach § 33 GmbHG.
•
Trade Sale: Veräußerung der Aktien bzw. Geschäftsanteile an einen industriellen Investor.
•
Secondary Purchase: Veräußerung der Aktien bzw. Geschäftsanteile an einen anderen Venture Capitalist.
Going Public: Veräußerung der Aktien bzw. Geschäftsanteile im Zuge des Bör-
262
sengangs (-> Initial Public Offering) des -» Start Ups. Der realisierte Veräußerungsgewinn (Capital Gain) ergibt sich aus dem Pay Back abzüglich des investierten Kapitals. Stefan Hanloser Exklusivvertrieb Auch: Alleinvertrieb. Ein Hersteller vertreibt sein Produktsortiment oder Teile davon in einer festgelegten Region ausschließlich über einen Händler. Zumeist geht dies mit der Pflicht des Händlers einher, nur von diesem einen Händler Ware dieser Art zu beziehen bzw. die Ware nur an bestimmte Kunden in der abgegrenzten Region zu vertreiben. Gegensatz: -> Universalvertrieb. Expertensystem Ein Expertensystem ist eine spezielle Software, die der Erfassung, Speicherung und Wiedergabe des Wissens menschlicher Experten dient. Von einer normalen Datenbank unterscheidet sich das Expertensystem durch dialogorientierte Schnittstellen zum Benutzer: Ein Nicht-Experte kann Fragen an das System stellen, dieses fragt bei Erklärungsbedarf oder Zewideutigkeiten nach und schlussfolgert aus dem Dialog auf die treffende Antwort. Die Antwort sowie das Zustandekommen der Auswahl können vom Expertensystem erläutert werden. Export 1. Begriff Unter Export (Ausfuhr) versteht man den Absatz von im Inland hergestellten Waren oder Dienstleistungen im Ausland (für eine Gegenleistung). Es handelt sich um ein Liefergeschäft ins Ausland, bei dem die Wertschöpfung hauptsächlich im Inland stattfindet. 2. Formen Nach Art des Kontaktes zwischen Hersteller und ausländischem Endabnehmer lassen sich direkter und indirekter Export unterscheiden.
Export •
•
Beim indirekten Export bedient sich der Hersteller externer Absatzmittler, welche die Ware auf eigene Rechnung beziehen und weiterverkaufen. Als Absatzmittler kommen dafür Importfirmen im Ausland und inländische Exporthändler in Frage. Diese können jeweils auf der Einzelhandels- und Großhandelsstufe operieren. Sinnvoll ist die Einschaltung von Absatzmittlern bei mangelnder Marktkenntnis des Herstellers, wodurch die Gefahr besteht, dass die Produkte nicht den Erfordernissen des jeweiligen ausländischen Marktes entsprechen. Durch die Einschaltung von zusätzlichen Handelsstufen schmälert sich jedoch einerseits die Gewinnspanne für den Hersteller; andererseits begibt er sich in eine gewisse Abhängigkeit vom Absatzmittler, da dieser einen Informationsvorsprung besitzt und der Hersteller die Möglichkeit einer unmittelbaren Einflussnahme auf das Absatzgeschehen verliert. Letztendlich wird der Hersteller auch nur begrenzt in die Lage versetzt, sich ein eigenes Image auf dem ausländischen Markt aufzubauen oder sich die für den direkten Export notwendigen Erfahrungen selbst anzueignen. Beim direkten Export wird der Endabnehmer im Ausland unmittelbar, d.h. ohne Einschaltung von Absatzmittlern beliefert. Der Hersteller entscheidet selbst über Gestaltung der Exporttätigkeit. Der direkte Export ist für den Hersteller aufwendiger als der indirekte Export, da Kenntnisse des Auslandsmarktes notwendig sind, die sich der Hersteller möglicherweise erst aneignen rnuss. Aus dem direkten Export ergibt sich meist die Notwendigkeit des Aufbaus einer eigenen Exportabteilung und eines eigenen Vertriebssystems im Ausland inklusive Servicenetz.
Export Dienstleistungsexport (unsichtbare Ausfuhr) unterscheiden. Güterexport bezeichnet den grenzüberschreitenden Verkauf von Waren. Dienstleistungsexport bezeichnet die entgeltliche Bereitstellung von Service über Ländergrenzen hinweg. Der Dienstleistungsexport kann den Güterexport begleiten, etwa durch Ausbildung der die exportierten Güter nutzenden Mitarbeiter des Importeurs oder Endverbrauchers; der Export von Dienstleistungen kann auch unabhängig vom Güterexport, etwa in Form grenzüberschreitender Beratungs-, oder Transportleistungen, erfolgen. Z u m Dienstleistungsexport zählt auch die inländische Bereitstellung von Dienstleistungen für Ausländer (z.B. Fremdenverkehrseinrichtungen wie Hotels etc.). 3. Bedeutung des Exports für das exportierende Unternehmen Die Aufnahme des Exports führt in der Regel zu einer besseren Auslastung vorhandener Kapazitäten, der Erreichung von Skalen- und Lerneffekten sowie einer Erhöhung des Umsatzes. Aufgrund der Exportaktivitäten ergeben sich jedoch auch organisatorische und personelle Konsequenzen für das Unternehmen. Mit zunehmender Bedeutung des Exports bedarf die Abwicklung des Exportgeschäftes der Einrichtung einer Exportabteilung, die mit entsprechend qualifiziertem Personal (z.B. Fremdsprachenkenntnisse) besetzt ist. In Prozessmodellen der Internationalisierung steht die Aufnahme des Exports an als erste Phase. Grund hierfür liegt in den im Vergleich zu den folgenden Phasen, wie Lizenzfertigung oder Auslandsproduktion, geringeren Anforderungen an die Auslandskenntnisse des Unternehmens. Durch die (direkte) Exporttätigkeit erwirbt das Unternehmen Wissen, welches eine Intensivierung des Auslandsengagements, z.B. Aufbau von Produktionsstätten im Ausland, ermöglicht.
Nach Art der exportierten Leistung lassen sich Güterexport (sichtbare Ausfuhr) und 263
Export 4. Vor- und Nachteile des Exports Der bloße Export vermeidet die höheren Kosten und Risiken der intensiven Formen der Auslandstätigkeit, insbesondere des Aufbaus einer Produktionsstätte im Ausland. Weiterhin führt die Zentralisierung der Produktion im Heimatland zu potenziellen Skaleneffekten und zu einem Fortschreiten der exportierenden Unternehmen auf der Erfahrungskurve. Die Nachteile des Exports liegen in der Tatsache, dass Lieferungen aus anderen Ländern kostengünstiger sein können, und vor allem darin, dass die Markterschließung nicht so intensiv betrieben werden kann wie bei der Wertschöpfung vor Ort. Weiterer Nachteil des Exports ist in den Transportkosten zu sehen, die zusammen mit eventuell höheren Herstellkosten im Stammland die globale Wettbewerbsfähigkeit des Unternehmens beeinträchtigen können. 5. Besonderheiten des Exports: Bei Vorliegen von (tarifären oder nichttarifären) Handelshemmnissen kann der Export in bestimmte Länder verboten, beschränkt oder erschwert sein. Insbesondere beim Export in Entwicklungsländer besteht weiterhin die Gefahr der Zahlungsunfähigkeit des Abnehmers. Lösungsmöglichkeiten liegen in der Durchführung von Gegengeschäften (CounterTrades), d.h. durch die Bezahlung mittels anderer Güter oder Dienstleistungen des Abnehmers (z.B. Rohstoffe), oder durch Inanspruchnahme staatlicher Ausfuhrbürgschaften (z.B. Hermes-Bürgschaften). 6. Exporterfolg Der Erfolg der Exportaktivitäten eines Unternehmens kann über Exportvolumen oder dessen Wachstum, die Exportintensität (Anteil des Exportumsatzes am Gesamtumsatz des Unternehmens), den Marktanteil im Zielmarkt, die Exportprofitabilität oder eine Kombination dieser Kcnnzahlen bestimmt werden. Wichtig ist die Unterscheidung, ob der Exporterfolg innerhalb eines Unternehmens oder der Exporterfolg eines(r) Unternehmens 264
Export (gruppe) im Vergleich zu anderen Unternehmen(sgruppen) betrachtet wird. Faktoren, die sich auf den Exporterfolg auswirken, können in unternehmensexterne und unternehmensinterne Faktoren eingeteilt werden: Erfolgsfaktoren ( 1 ) Unternehmensexterne beziehen sich auf die wirtschaftliche und nicht-wirtschaftliche Unternehmensumwelt und sind vom Unternehmen nicht beeinflussbar; (2) Unternehmensinterne Erfolgsfaktoren sind direkt durch das Unternehmen steuerbar und ermöglichen eine aktive Beeinflussung des Exporterfolges. Unternehmensinterne Erfolgsfaktoren lassen sich gliedern in - strategieinduzierte Erfolgsfaktoren (z.B. Produkt-Markt-Konzept, Basisstrategie, Marketing-Mix), - exportfördernde Unternehmenskompetenzen, welche die erstgenannten Faktoren unterstützen (z.B. Exporterfahrung, Marktinformationssysteme) und - Unternehmenscharakteristika (z.B. Unternehmensgröße, Auslandsorientierung, bestehende Geschäftsbeziehungen). Empirische Untersuchungen belegen bspw. einen positiven Zusammenhang zwischen den Faktoren Unternehmensgröße, Auslandsorientierung, Exporterfahrung oder Verwendung von Marktinformationssystemen und dem Erfolg von Exportaktivitäten. Entsprechend der Einteilung der unternehmensinternen Erfolgsfaktoren lässt sich der Exporterfolg in dreierlei Weise beeinflussen: •
Beeinflussung der Strategieinduzierten Erfolgsfaktoren. Neuere Untersuchungen betonen hierbei insbesondere den "Fit" zwischen spezifischen Fähigkeiten und Ressourcen des Unternehmens zum einen und den Bedingungen des Export-Marktes zum anderen als Voraussetzung der erfolgrei-
Extranet
Export chen Exportaktivität. Dieser Fit sollte zur Erzielung von Wettbewerbsvorteilen insbesondere in den Bereichen Service und Produktqualität fuhren, die von größerer Bedeutung für den Exporterfolg sind als geringere Kosten und Preise. Die Erreichung dieses Fit bedingt die Entwicklung einer internationalen Marketing-Konzeption, die - ausgehend von der Gesamtstrategie des Unternehmens - Exportintensität und länderspezifische Marketingstrategien festlegt (Raffee/ Segler 1984). •
•
Beeinflussung exportfördernder Unternehmenskompetenzen. Die zentrale Rolle bei der Erarbeitung einer Marketing-Konzeption kommt dem Informationssystem zu, das Kenntnisse über Stärken/Schwächen des Unternehmens sowie Chancen/Risiken der Umwelt(en) vermittelt. Zur Generierung dieser Information werden neben Verbänden oder staatlichen Stellen, wie die Bundesstelle für Außenhandelsinformation (BfAI), insbesondere Kontakte zu Kunden, Lieferanten etc. bzw. die Einbindung des Unternehmens in Unternehmensnetzwerke immer wichtiger. Diese polylokalen Sensoren sind in der Lage, frühzeitige Marktchancen bzw. -risiken zu erkennen und zu übermitteln. Die hierdurch komplexer werdende Informationsverarbeitung bedarf der Ausbildung effizienter und dezentral angelegter Informationsselektionspotenziale, um die Informationen auf ein für die Untemehmens-/Vertriebsleitung handhabbares Maß zu reduzieren. Hierzu sind die organisatorischen und personellen Voraussetzungen zu schaffen. Beeinflussung der Unternehmenscharakteristika. Als grundlegende Voraussetzung für den Export können die Exportbereitschaft oder -neigung sowie die Auslandsorientierung der Entscheidungsträger gesehen werden (Dichtl et al. 1984). Bei fehlender Exportneigung werden interne und externe Faktoren, welche die Aufnahme
von Exportaktivitäten rational erscheinen lassen, nicht wahrgenommen bzw. führen nicht zur Aufnahme des Exports. Methoden zur Förderung der Exportbereitschaft haben die Erhöhung der Sensibilität für das Exportgeschäft, die Aufdeckung und den Abbau von Exportwiderständen sowie die Veränderung von Flexibilität, Änderungsbereitschaft der und Risikowahrnehmung durch die Entscheidungsträger zum Ziel (Dichtl/Müller 1992). Verantwortlich für diese Veränderungsprozesse ist das -» Personalmanagement, welches durch unternehmensexteme, beispielsweise von Industrie- und Handelskammern durchgeführte Maßnahmen (z.B. Sprachkurse, Informationsreisen ins Ausland) unterstützt werden kann. Entsprechende personalwirtschaftliche Maßnahmen, wie die Einstellung exporterfahrener Führungskräfte oder auch die Verwendung exportbezogener Personalbeurteilungskriterien können maßgebliche Anstöße für die Exporttätigkeit geben. Literatur: Dichtl, E./Köglmayr, H.-G./Müller, S.: Die Auslandsorientierung von Führungskräften. Eine Schlüsselvariable fur Exportförderung und Exporterfolg, in: Dichtl, E./Issing, O. (Hrsg.): Exporte als Herausforderung für die deutsche Wirtschaft, Köln 1984, S.430^»62; Dichtl, E./MUller, S.: Merkmale erfolgreicher Exporteure, in: Kumar, B. N./Haussmann, H. (Hrsg.): Handbuch der internationalen Unternehmenstätigkeit, München 1992, S.429-446; Raffée, H./ Segler, K.: Marketingstrategien im Export, in: Dichtl, E./ Issing, O. (Hrsg.): Exporte als Herausforderung für die deutsche Wirtschaft, Köln 1984, S. 2 7 7 333.
Brij Nino Kumar/Alexander Mohr External Auditing -> Auditing Extranet Das Extranet ist eine Erweiterung des -> Intranets. Bestimmten bekannten Personengruppen (z.B. Lieferanten, Zulieferer, Großkunden) werden über das öffentlich zugängliche Internet nach Authentifizierung (z.B. durch ein Passwort) 265
Extranet nicht-öffentliche Daten zur Verfugung stellt. Diese Daten können Dokumente (Bestellformulare, technische Produktspezifikationen), Online-Formulare (Direkte Bestellmöglichkeiten, Abfragetools für ein Warenwirtschaftssystem u.ä.) oder der Status einer Bestellung sein. Horn nennt bei den Vorteilen des Extranets u.a.: • •
Geschäftspartner können auf aktuellste Informationen zugreifen, Kopplung von Warenwirtschaftssystemen,
266
Extranet • •
Verwirklichung von -> Just-in-Time Produktion und -» Lean Production, Beschleunigung der Geschäftsvorgänge, Fehlervermeidung und generelle Verringerung des Arbeitsaufwands.
Wird der Datenverkehr innerhalb eines Extranet über besondere Verschlüsselungsverfahren geschützt und sind weiterreichende Authentifizierungsvorgänge zur Benutzung des Extranet erforderlich, spricht man von einem Virtual Private Network. Literatur: Horn, T.: Internet - Intranet - Extranet, München, Wien 1999.
Fachgeschäfte
Facility Management
Fachgeschäfte Handelsformen Fachhandelskooperationen Handelsformen Fachpromotor Promotorenkonzept, des Wandels
Management
Facility Location Problem Standortwahl Facility Management Facility Management (auch Facilities Management/FM) ist ein aus den USA stammendes Konzept der ganzheitlichen Bewirtschaftung von Immobilien mit dem Ziel, die Verfügbarkeit, die Funktionalität, die Nutzungsflexibilität, die Flächenproduktivität und die Kapitalrentabilität zu steigern. Nach Berechnungen des Fraunhofer-Instituts liegen die Bewirtschaftungskosten von Immobilien in ihrem gesamten Lebenszyklus ca. fünf bis sieben mal höher als die Produktionskosten. Der Deutsche Verband für Facility Management e.V. (GEFMA) definiert FM als integrativen, unternehmerischen Planungs-, Bewirtschaftungs- und Kontrollprozess von Immobilien, durch den Nutzer- und Betreiberinteressen optimiert werden sollen. Facility Management vereint betriebswirtschaftlich/technische und planerisch/gestalterische Funktionen. Strategisches Facility Management bezieht sich auf den gesamten Lebenszyklus einer Immobilie. Bereits in der Planungsund Projektierungsphase werden die Voraussetzungen für eine optimale Bewirtschaftung der Objekte geschaffen. Ein wesentlicher Bestandteil des FM ist das Informationsmanagement zwischen den am Bau- und Nutzungsprozess Beteiligten, das sich auf wirtschaftliche, rechtliche, technische, soziale und ökologische Parameter des Objektes bezieht. Facility
Management liefert einen ganzheitlichen strategischen Rahmen für die Projektentwicklung. Dieser Anspruch erfordert die Kooperationsbereitschaft der Planer, Investoren, Bauunternehmer und Mieter. Das Einführen von Feedback-Schleifen kann die Wechselbeziehungen zwischen den einzelnen Bestandteilen des Facility Management verdeutlichen und positive Auswirkungen auf den Cash-flow bzw. Verkehrswert haben. Computer aided Facility Management (CAFM) schafft die Möglichkeit eines effizienten und transparenten Informationsmanagements zur Koordination der Interessen von Eigentümern, Nutzern, Verwaltern und Dienstleistern. Grundlage dafür ist eine Datenbank, die nicht nur immobilien-, sondern auch marktbezogene und untemehmensinterne Daten enthält, Benchmarks liefert und Soll/IstVergleiche von Kennzahlen ermöglicht. Ein Leistungsbereich von FM ist das Gebäude- oder Objektmanagement, das die kaufmännische, technische und infrastrukturelle Bewirtschaftung baulicher Anlagen umfasst. Es beinhaltet die Verwaltung, die technische Instandhaltung der Objekte und das Angebot von Service- und Dienstleistungen für die Nutzer. Durch das Gebäudemanagement soll die Verfügbarkeit und Nutzungsintensität von Flächen gesteigert, der Ressourceneinsatz minimiert und die Transparenz sowie Wirtschaftlichkeit der Objekte verbessert werden. Je nach Zielsetzung des Eigentümers kann FM auch als Evaluierungsinstrument von Gebäuden verwendet werden, um die Kosten pro Arbeitsplatz zu senken oder die Drittverwendungsfähigkeit der Objekte zu steigern. Da FM meist modular aufgebaut ist, beziehen sich die Kennzahlen z.B. auf das Flächen-, Instandhaltungs- und Kostenmanagement der Objekte. In der Regel besitzen FMSysteme eine Client-Server-Architektur, die Mitarbeitern an unterschiedlichen Standorten den Zugriff auf die Daten und Pläne gewährleistet. Weitere Komponen267
Facility Management
Faktorenanalyse
ten eines umfassenden Facility Managementkonzepts können das Dienstleistungs-, Finanz-, Personal- und Kommunikationsmanagement sein. Wolfgang Pelzl/Kristin Wellner Factoring Unter Factoring versteht man die Übertragung von Forderungen gegen Entgelt. Spezialisierte Finanzdienstleister übernehmen Forderungen eines Unternehmens und damit auch das Risiko des Forderungsausfalls. Aufgrund der Risikoprämie fällt das Entgelt des Factoring-Unternehmens an das abtretende Unternehmen deutlich geringer aus als der Betrag der abgetretenen Forderung. Factory-Outlet-Center -> Handelsformen Faktorenanalyse, lineare Die lineare Faktorenanalyse (FA) ist ein multivariates statistisches Verfahren (-> multivariate Analyseverfahren), das zur Datenreduktion eingesetzt wird, d.h. aus einer Menge von an n Objekten beobachteten p Merkmalen sollen q (< p) latente Einflussgrößen (Faktoren) als Linearkombination der ursprünglichen Merkmale extrahiert werden; deskriptive und stochastische Analyse ist möglich. Ziel der FA kann auch das Schätzen und Testen von Parametern eines theoretischen Modells sein, das die Kovarianzen der beobachteten p Merkmale durch q (< p) latente Faktoren erklärt (stochastische Analyse). Aus dem stochastischen
Ansatz
y = Ax + u (A: = Matrix der Koeffizienten/"Faktorenladungen"; u : = Vektor der Störgrößen; x : = Vektor der latenten Faktoren; y : = Vektor der beobachtbaren Merkmale) folgt - unter Beachtung bestimmter Annahmen - das "Fundamentaltheorem " der FA,
268
Ilyy
=
A A+Zyy " ,
mit Z y y bzw. 2 U U : = Kovarianzmatrix der beobachtbaren Merkmale bzw. Störgrößen. Aus der gegebenen Stichprobe sollen die "Faktorenladungsmatrix" A, deren Elemente den Einfluss eines Faktors xj auf die Beobachtung y¡ wiedergeben, und bestimmte Verteilungsparameter (vgl. 2 U U ) geschätzt werden. Bezüglich der Identifizierbarkeit entsteht erstens das "Rotationsproblem" (eindeutige Festlegung von A; geometrisch: Festlegung der Richtung der den Faktoren entsprechenden Achsen durch die beobachtete Datenstruktur). Grundlegendes Prinzip ist die Rotation "zur Einfachstruktur" (möglichst wenige Faktoren sollen gut interpretierbar den gegebenen Datensatz erklären); die bekanntesten Rotationsmethoden sind die orthogonale VARIMAX-Methode und die schiefwinklige PROMAX-Methode. Zweitens existiert das "Kommunalitätenproblem", das sich auf die Eindeutigkeit von I u u - und damit der Hauptdiagonalelemente von A'A - bezieht. Behelfsverfahren zur Bestimmung existieren. Die Schätzung der Größen A und S u u erfolgt mit Hilfe der MaximumLikelihood-Methode. Die bekannteste Art der deskriptiven Datenreduktion innerhalb der FA ist die "Hauptkomponentenanalyse". Der lineare, meist standardisierte Ansatz ist nicht mehr durch Störvariablen überlagert. Die q ( < p ) zu extrahierenden, "erklärenden" Faktoren (Hauptkomponenten) für die gegebene Datenstruktur, die wiederum Linearkombinationen der ursprünglichen Merkmale darstellen, werden sukzessive derart bestimmt, dass der durch sie erklärte Anteil an der (Rest-)Varianz der gegebenen Daten maximal ist. Der Ansatz führt zu einem Eigenwert-/EigenvektorProblem: Die Hauptkomponenten werden nach den ihnen - der Größe nach geord-
Fehlerbaumanalyse (FBA)
Faktorenanalyse neten - zukommenden Eigenwerten bestimmt. Üblicherweise werden nur diejenigen Faktoren ausgewählt, deren zugehörige Eigenwerte größer Eins sind, da diese dann mehr als eine gegebene Variable beeinflussen. Eine andere Möglichkeit der Festlegung der Anzahl der Hauptkomponenten ist die Verwendung des "Scree-Tests". Weitere Verfahren der linearen FA sind die "Image-Analyse", die "a-FA", die "Kanonische FA (RAO)" oder das "Minres-Verfahren". Gertrud Moosmüller Fast-Track-Karrierepfad -> Karriereplanung Feedback Um effektiv handeln und sich systematisch weiterentwickeln zu können, müssen Menschen in Unternehmen über die durch ihr gezeigtes oder geplantes Handeln erzeugten Effekte informiert sein. Bspw. ist ein Mitarbeiter, der kein Feedback zu der Art und Weise der Präsentation seines Projektentwurfs, zu diesem Projektentwurf selbst oder allgemein zu seinem Verhalten als (potenzieller) Projektleiter (-»Projektmanagement) erhält, weder in der Lage, sein Projekt optimal zu managen, noch diesen Bereich seiner beruflichen Handlungskompetenz weiterzuentwickeln. Die Bedeutung von Feedbackprozessen als Voraussetzung für die Selbststeuerung und -entwicklung von Mitarbeitern ist in der Managementpraxis lange wenig berücksichtigt worden. Dabei setzen all jene Managementkonzepte, die an Grundsätzen wie -» "Empowerment, internes Unternehmertum" (-> Mitunternehmertum) oder "organisationales Lernen" orientiert sind und im Kern darauf abzielen, die Potenziale von Mitarbeitern umfassender als bislang für das Unternehmen nutzbar zu machen, eine ausgeprägte FeedbackKultur voraus.
Dies stellt hohe Anforderungen insbesondere an die Vorgesetzten in Unternehmen, die ihren Mitarbeitern über entsprechende Rückmeldungen eine eindeutige Standortbestimmung hinsichtlich ihrer beruflichen Leistungen sowie ihrer persönlichen Stärken und Schwächen ermöglichen müssen. Unterstützend können hier auf Zielvereinbarungen basierende -* Führungskonzepte wirken, weil in Form der laufend zu führenden Umsetzungs- und Kontrollgespräche bzw. der jährlichen Zielerreichungsgespräche "Feedback-Arenen" implementiert werden. Gefordert ist aber auch Feedbackkompetenz i.e.S., die insbesondere auf der Beachtung der zentralen Feedbackregeln beruht: • • •
•
•
•
Erst positive, dann negative Rückmeldungen geben. Negative Rückmeldungen mit einem Verbesserungsvorschlag koppeln. Feedback auf gemachte Wahrnehmungen beziehen ("Ich habe beobachtet, dass ...") und dabei beschreibend und nicht deutend oder wertend formulieren. Feedback als Ich-Aussage mit einen "Selbstoffenbarungsteil" ("Diese Beobachtung hat bei mir folgende Empfindung ausgelöst.") formulieren. Auf die Kontingenz des Feedbacks zur Tätigkeit achten (Rückmeldungen zu komplexen Zielen oder lange Feedbackzyklen erschweren es dem Feedbacknehmer, einen konkreten Bezug zur Handlung herzustellen). Emotional und kognitiv verarbeitbares Feedback geben. Michael Touet
Fehlerbaumanalyse (FBA) Die Fehlerbaumanalyse (Engl.: Fault Tree Analysis (FTA)) ist nach DIN 25424 eine Qualitätsmanagement-Methode zur systematischen (deduktiven) Analyse der potenziellen Ursachen, die zu einem vorgegebenen unerwünschten Ereignis
269
Festpreisverfahren
Fehlerbaumanalyse (FBA) (z.B. Fehler) fuhren können. Dabei können die ermittelten Ursachen über UNDund ODER-Verknüpfungen verbunden werden. Durch zusätzliche Beurteilung der Auftretenswahrscheinlichkeiten der Ereignisse lassen sich kritische Pfade, die am häufigsten zu dem unerwünschten Ereignis fuhren, ermitteln. Engelbert Westkämper/ Alexander Schloske Fehlermöglichkeitsund einflussanalyse (FMEA) Die FMEA (Am.: Failure Mode and Effect Analysis) ist eine formalisierte, teamorientierte (-» Qualitätszirkel) -> Qualitätsmanagement-Methode zur systematischen, präventiven Risikoanalyse in der Planungsphase von Produkten und Herstellungsprozessen. Die im interdisziplinär besetzten Team ermittelten Risiken (Fehlerfolge-Fehler-Fehlerursache) werden unter Zuhilfenahme von Tabellen anhand der Kriterien Auftretenswahrscheinlichkeit (A) einer Fehlerursache, Bedeutung (B) der Fehlerfolge für den Kunden und der Entdeckungswahrscheinlichkeit (E) eines Fehlers vor Auslieferung an den Kunden bewertet. Anhand der bewerteten und priorisierten Risiken lassen sich vermeidende und/oder entdeckende Maßnahmen noch vor Produktionsbeginn planen und deren Einführung überwachen. Man unterscheidet Arten: •
•
•
folgende
FMEA-
System-FMEA analysiert das funktionsgerechte Zusammenwirken einzelner Komponenten eines Systems. Konstruktions-FMEA analysiert die funktionsgerechte Auslegung einer Komponente auf Merkmalsebene. Prozess-FMEA analysiert die Eignung von Prozess(schritt)en zur Herstellung eines Produktes.
Schwachpunkte der FMEA stellen die monokausale Betrachtung von FehlerFehlerursache-Kombinationen und die fehlende Bewertung der Übergangswahr270
scheinlichkeiten dar. Bei komplexen vernetzten Fehlerfolge-Fehler-FehlerursacheKombinationen empfiehlt sich daher auch die Anwendung der -> Fehlerbaumanalyse und/oder der -> Ereignisablaufanalyse. Engelbert Westkämper/ Alexander Schloske Fehlersammel- oder Strichliste Die Fehlersammelliste ist ein elementares Werkzeug des Qualitätsmanagements (-* Qualitätsmanagement-Werkzeuge) zum einfachen Erfassen und zur übersichtlichen Darstellung von attributiven Daten (i.a. Fehler) nach Art und Anzahl. Anhand von Fehlersammellisten können Gesetzmäßigkeiten bzw. Häufigkeiten erkannt werden. Engelbert Westkämper/ Alexander Schloske Feldexperiment Marktforschung Fertigungsteams -> Team, --» Gruppenkonzepte Festpreisverfahren Das Festpreisverfahren bezeichnet eine mögliche Form (andere Formen: -* BookBuilding-Verfahren, Auktionsverfahren) der Platzierung von Aktien bei den Anlegern im Rahmen einer Börseneinführung. Dieses Verfahren war bis 1994/95 das in Deutschland gebräuchliche Platzierungsverfahren. Wesentliches Merkmal des Festpreisverfahrens ist die Garantie des Bankenkonsortiums, im Vorfeld einer Börseneinführung alle zur Platzierung vorgesehenen Aktien zu einem Festpreis zu übernehmen. Die Garantiefunktion der Banken steht bei diesem Verfahren im Mittelpunkt. Das Platzierungsrisiko der Aktien liegt alleine bei dem Bankenkonsortium. Die Konsortialbank und das emittierende Unternehmen handeln den Preis für eine Aktie aus. Der Preis, d.h. der Emissionskurs, basiert auf einer Analyse und Bewertung des Emissionsunternehmens. Bei der Unternehmensbewertung können un-
Finanzierung
Festpreisverfahren terschiedliche Bewertungsverfahren zur Anwendung kommen. In Deutschland sind das Ertragswert-, das DCF-Wertund das DVFA-Wert-Verfahren gebräuchlich. Zunehmende Bedeutung gewinnen aber auch die Berücksichtigung der Aktienkurse vergleichbarer Unternehmen sowie das allgemeine Marktniveau der Aktienmärkte. Die Beteiligten im Bankenkonsortium verpflichten sich, einen prozentual ausgehandelten Anteil am gesamten Platzierungsvolumen zu übernehmen und bei ihren Kunden zu platzieren. Hierbei besteht die Möglichkeit für den Emittenten, gemeinsam mit den Banken im Konsortium im Konsortialvertrag festzulegen, welchen Anlegergruppen - nationale, internationale, private, institutionelle welche Aktientranchen angeboten werden sollen. Durch die Übernahme des Platzierungsrisikos durch die Konsortialbanken bleibt das Risiko der Platzierung für das Emissionsunternehmen gering. Besonders in volatilen Phasen ist dies ein großer Vorteil für das Emissionsunternehmen. Unternehmer, die einen Teil ihrer Anteile im Rahmen der Börseneinführung veräußern, benötigen für ihre private Liquiditätsplanung, z.B. für Steuerzahlungen, vorab Angaben über den Emissionspreis. Für diese Fälle bietet sich das Festpreisverfahren an. Den Anlegern bringt das Festpreisverfahren den Vorteil, dass sie im Voraus wissen, wieviel eine Aktie kostet. Insbesondere für den Privatanleger kann dieses Wissen für seine individuellen Investitionsentscheidungen von Vorteil sein. Darüber hinaus ist das Festpreisverfahren mit weniger Aufwand, z.B. durch das Wegfallen von Roadshows, One-toone-Meetings, verbunden. Literatur: Koch, W./Wegmann, J.: PraktikerHandbuch Börseneinführung, 3. Aufl., Stuttgart 2000.
Jürgen Wegmann
Finanz-Holding Wenn sich die Holding-Gesellschaft (-> Holding) darauf beschränkt, ein Portfolio von Unternehmensbeteiligungen zu verwalten, ohne in die strategischen Entscheidungen der Tochterunternehmen einzugreifen, spricht man von einer Finanz-Holding. Damit der Unternehmensverbund nicht führungslos agiert, wird die Führungsfunktion an eine - zum Konzern gehörende - rechtlich selbstständige Management-Gesellschaft delegiert. Sind Manager der Finanz-Holding per Personalunion gleichzeitig Leiter der ManagementGesellschaft, so liegt nur noch "dem Anschein nach" eine Finanz-Holding vor: praktisch nähert man sich der -» Management-Holding. Finanzierung Der Begriff der Finanzierung wird in der Literatur sehr unterschiedlich ausgelegt. Dabei lassen sich im Wesentlichen drei Kategorien unterscheiden: 1. Die kapitalorientierten Definitionen stellen auf das bilanzielle Kapital ab. Die Bandbreite der Definitionen reicht von bilanziell engen Fassungen (nach Liefmann bedeutet Finanzierung eine Kapitalbeschaffung, die zu einer Erhöhung der Passivseite der Bilanz fuhrt) über kapital- und vermögensorientierte Definitionen (Beckmann, Rössle, Sandig verstehen unter Finanzierung die gesamte Kapitalaufbringung und -disposition) bis hin zu investirions- und kapitalorientierten Spielarten (Hax versteht unter Finanzierung die Beschaffung des für die Durchfuhrung der betriebsnotwendigen Investitionen erforderlichen Kapitals). 2. Bei den monetären Definitionen wird der Finanzierungsbegriff rein zahlungsstromorientiert ausgelegt und nur auf die Kapitalbeschaffung bezogen (die Kapitalverwendung wird als Investition bezeichnet). Finanzierung bezeichnet demnach eine Zahlungsrei271
Finanzierung
Finanzierung
seits nach laufenden Finanzierungen im Rahmen der routinemäßigen Leistungserstellung und Leistungsverwertung und andererseits nach Finanzierungen aufgrund von Sonderanlässen. Letztere lassen sich wiederum gliedern in Gründungsfinanzierungen, Erweiterungsfinanzierungen, Umfinanzierungen, Sanierungsfinanzierungen sowie Liquidationsfinanzierungen.
he mit mindestens einer Einzahlung zu Beginn und nachfolgenden Auszahlungen. Teilweise wird auch der Zugang nicht monetärer Güter unter den Finanzierungsbegriff subsumiert. So verstanden umfasst Finanzierung die Gesamtheit der Zahlungsmittelzuflüsse und die beim Zugang nicht monetärer Güter vermiedenen sofortigen Zahlungsmittelabflüsse. 3. Die neoinstitutionellen Definitionen der Finanzierungstheorie stellen die Interaktionsbeziehung der Beteiligten in den Vordergrund. Finanzierung wird demnach als Gestaltung der Beziehungen zwischen Unternehmung und Kapitalgebern definiert. Finanzierung erfüllt im zwei Grundaufgaben:
2 Sicherung der Liquidität: Um einen auf Illiquidität zurückzuführenden Konkursantrag der Gläubiger zu vermeiden, müssen Unternehmen jederzeit fähig sein, ihren Zahlungsverpflichtungen nachzukommen. Dementsprechend stellt die Planung und Sicherung der Zahlungsfähigkeit die zweite Hauptaufgabe der Finanzierung dar. Klassifikationsmöglichkeiten: Finanzierungsformen lassen sich nach den verschiedensten Kriterien klassifizieren. Die wichtigsten dieser Klassifikationsmöglichkeiten sind: Bei der Klassifikation nach Finanzierungsanlass unterscheidet man einer-
272
Bei der Klassifikation nach Rechtsbeziehungen zwischen Unternehmen und Kapitalgeber wird in Eigen- und Fremdfinanzierung unterschieden. Bei der Eigenfinanzierung handelt es sich um die Zuführung von Eigenkapital durch Gewinnthesaurierung oder um Kapitaleinlagen der Unternehmenseigner. Dieses Kapital partizipiert am Erfolg und am Risiko eines Unternehmens und stellt somit Haftungskapital dar. Durch Fremdfinanzierung aufgebrachtes Fremdkapital lässt ein Gläubigerverhältnis entstehen. Hierbei handelt es sich um Kapital, das nicht fiir Verbindlichkeiten der Unternehmung haftet.
•
Bei der Klassifikation nach Fristigkeit unterscheidet man zum einen in unbefristete Finanzierungen, bei denen die Mittel dem Unternehmen dauerhaft zur Verfügung gestellt werden, und zum anderen in befristete Finanzierungen, bei denen innerhalb eines mehr oder minder langen Zeitraums eine Rückzahlung der aufgenommenen Gelder bzw. eine Rückgabe der Sacheinlagen erfolgt. Bei den befristeten Finanzierungen lassen sich wiederum lang-, mittel- und kurzfristige Finanzierungen unterscheiden. Die Grenzen sind hierbei fließend; einen Anhaltspunkt bieten §§ 268 V und 285 Ziff. 1 HGB, die Kapitalgesellschaften den Ausweis von Verbindlichkeiten in drei Fristigkeitskategorien vorschreiben. Danach werden die kurzfris-
Wesentlichen
1. Deckung des Kapitalbedarfs der Unternehmung: Der Prozess der Leistungserstellung und die damit verbundenen Auszahlungen sind in der Regel dem Eingang der Entgelte aus der Leistungsverwertung zeitlich vorgelagert. Die Überbrückung des so entstehenden temporären Kapitalbedarfs, d.h. die Finanzierung der Auszahlungen bis zum Zahlungseingang, ist eine der Kemaufgaben der Finanzierung.
•
•
Finanzierung tigen Verbindlichkeiten mit einer Restlaufzeit von unter einem Jahr, die mittelfristigen mit ein bis fünf Jahren und die langfristigen mit über fünf Jahren abgegrenzt. •
Bei der Klassifikation nach Form des Mittelzuflusses unterscheidet man in Geldfmanzierung (Zufluss von Zahlungsmitteln) und Sachfinanzierung (Zufluss von Sachvermögen, Beteiligungen, Patenten etc.).
•
Bei der Klassifikation nach Mittelherkunft werden die Finanzierungsformen in Außenfinanzierung und Innenfinanzierung untergliedert. 1. Bei der Außenfinanzierung erfolgt eine Zuführung finanzieller Mittel von außen, d.h. durch Unternehmenseigner, Gläubiger oder den Staat. Dabei kommen folgende Finanzierungsformen in Frage: Einlagenund Beteiligungsfinanzierung: Hierunter fallen alle Formen der Eigenkapitalbeschaffung wie (stille) Einlagen und Kapitalerhöhungen über bereits vorhandene oder neue Anteilseigner der Unternehmung. Kreditfinanzierung: Diese Finanzierungsform umfasst sowohl kurzfristige Bereitstellungen von Fremdkapital (Lieferanten-, Kunden-, Lombard- oder Kontokorrentkredite) als auch langfristige Finanzmittelüberlassungen (Realkredite, Schuldverschreibungen oder Schuldscheindarlehen). Finanzierung durch kapitalsubstitutive Maßnahmen: Hierunter fällt das Leasing, bei dem der Schuldner zur Finanzierung eines Wirtschaftsguts einen einmaligen Finanzmittelverbrauch (Kauf) durch mehrere spätere kleinere Auszahlungen (Leasingraten) substituiert. Es wird also auf eine
Finanzierung Geldkapitalaufnahme verzichtet und stattdessen Realkapital (Leasingobjekt) zugeführt. Subventionen: Hierbei wird durch die öffentliche Hand i.d.R. Geldkapital zugeführt, wobei die Rückzahlungs- und/oder die Zinszahlungsverpflichtungen im Vergleich zu den Marktusancen in begünstigter Form erfolgen bzw. entfallen. 2. Von Innenfinanzierung spricht man, wenn die Finanzmittel aus der Unternehmenstätigkeit heraus entstehen, d.h. aus Umsatzerlösen. Hierbei unterscheidet man wie folgt: Selbstfinanzierung: Diese kann offen durch Thesaurierung des ausgewiesenen versteuerten Jahresüberschusses geschehen oder still über Einbehaltung nicht ausgewiesener unversteuerter Gewinne, also durch Schaffung stiller Reserven. Finanzierung aus Abschreibungen: Hierunter versteht man zugeflossene Umsatzerlöse in Höhe der bilanziellen Wertminderungen des Vermögens. Diese erhöhen die Finanzmittel der Unternehmung und werden weder als Gewinne ausgewiesen noch fuhren sie zu einer Erhöhung der stillen Reserven. Finanzierung aus Rückstellungen: Ähnlich wie Abschreibungen fuhren auch neu gebildete Rückstellungen zu Finanzmitteln, ohne dass dadurch Gewinne oder stille Reserven zunehmen. Hierbei ist allerdings zu beachten, dass diese Finanzmittel dem Unternehmen nur bis zur Auflösung der Rückstellungen zur Verfugung stehen (-> Rückstellungsmanagement). Finanzierung durch Vermögensumschichtung: Eine Freisetzung von Finanzmitteln wird hierbei z.B.
273
Finanzierung durch die Veräußerung nicht betriebsnotwendigen Vermögens oder eine Verringerung von Lagerbeständen erreicht. Die Entscheidung, welche Finanzierungsform zur Deckung eines Finanzmittelbedarfs herangezogen wird, muss - wie jede andere unternehmerische Entscheidung an den Unternehmenszielen ausgerichtet werden. Deshalb unterscheiden sich die Beurteilungskriterien für die relative Vorteilhaftigkeit der verschiedenen Finanzierungsformen von Unternehmen zu Unternehmen. Dennoch lassen sich einige allgemeingültige, an traditionellen betriebswirtschaftlichen Zielsetzungen ausgerichtete Beurteilungskriterien anführen: 1. Rentabilität/Kosten: Die Wahl der Finanzierungsform determiniert die Höhe der Kapitalkosten einer Unternehmung und hat damit Einfluss auf die Gesamtkapitalrentabilität. Dabei ergeben sich die Fremdkapitalkosten als Summe aus Zinsen und Nebenkosten aus dem Kredit Verhältnis und die Eigenkapitalkosten als Renditeforderungen der Eigenkapitalgeber aus kapitalmarkttheoretischen Überlegungen. 2. Liquidität: Unter Liquiditätsaspekten spielt die Kapitalbindung einer Finanzierungsform bei der Vorteilhaftigkeit eine wichtige Rolle. Je länger die Kapitalbindung einer Finanzierungsform ist, desto länger stehen die Finanzmittel zur Verfügung. 3. Sicherheit/Risiko: Während die Zahlungen an Eigenkapitalgeber in der Regel vom Untemehmenserfolg abhängen, geht die Aufnahme von Fremdkapital mit einem unbedingten Rückzahlungsversprechen einher. Dementsprechend steigt das Insolvenzrisiko einer Unternehmung mit dem Verschuldungsgrad. 4. Unabhängigkeit: Hierbei interessiert, inwieweit die (Alt-)Eigentümer eines Unternehmens den jeweiligen Fi274
Firewall nanzmittelgebern Mitspracherechte einräumen müssen bzw. inwieweit die jeweilige Finanzierungsform die Dispositionsfreiheit der Unternehmung einschränkt. Unter diesem Gesichtspunkt ist die Innen- der Außenfinanzierung vorzuziehen. 5. Flexibilität: Hierunter versteht man die Fähigkeit, auf Änderungen der Finanzsituation reagieren zu können. Unter diesen Gesichtspunkt müssen Finanzierungsformen sowohl unter dem Blickwinkel kurzfristiger Erhöhungen des Volumens als auch unter dem Blickwinkel von Umfmanzierungsmöglichkeiten bei veränderten Rahmenbedingungen beurteilt werden. Jürgen Steiner Firewall Eine Firewall ist ein Rechner, der ein Computernetzwerk (z.B. ein firmeninternes -> LAN) mit anderen Rechnernetzen verbindet und den durchfließenden Datenverkehr kontrolliert. Firewalls nehmen eine zentrale Rolle für die -» Datensicherheit eines jeden Unternehmen ein. Knotenpunkte, an denen eine Firewall eingesetzt werden sollte, sind die Datenverbindungen eines Unternehmens nach "draußen" oder aber auch zwischen Abteilungen eines Unternehmens (z.B. zum Schutz der F&E-Abteilung). Firewalls lassen sich mit einem "Pförtner" vergleichen, der jeden Besucher (also jedes Datenpaket) überprüft, ob er verdächtig ist oder nicht. Je nach Firewalltyp werden so virenverseuchte Mails (-> Computerviren; E-Mail) ausgesondert, Hackerangriffe auf Firmendaten gemeldet sowie Nutzerdaten des geschützten Bereichs verborgen. Die Preise für eine Firewall sind sehr verschieden und können - inklusive Hardware - bis € 50.000 reichen. Dazu müssen dann noch der Aufwand für Installation der Software sowie die laufende Administration gerechnet werden, denn nur eine richtig installierte und konfigurierte Firewall bietet Schutz.
Fokussierung
Firewall Ein neuer, erfolgsversprechender Ansatz ist die Firewall-on-CD (Im Internet: http://www.anduras.de): Die komplette Firewall wird - bereits konfiguriert - auf einer CD geliefert, Installations- und Konfigurationskosten fallen somit weg. Durch den Einsatz des Betriebssystems (-> Betriebssysteme) LINUX werden die Kosten weiter gesenkt, so dass der Schutz wichtiger Daten selbst für Klein- und mittlere Unternehmen erschwinglich wird. First Mover Advantage Wettbewerbsvorteil des ersten Anbieters eines neuen Produkts auf dem Markt. First Price Sealed Bid Auction Internet-Auktion Fishbone-Diagramm -> Ursache-Wirkungs-Diagramm Fixe Kosten -> Kostenarten Flexibilitätspotenziale Produktionsflexibilität Fließfertigung Unter Fließfertigung versteht man eine Anordnung von Betriebsmittel und Arbeitsplätzen nach dem Produktionsablauf, so dass die Bearbeitung vom Rohstoff bis zum Fertigprodukt von Produktionsstufe zu Produktionsstufe ohne Unterbrechung erfolgt. Formen der Fließfertigung sind: •
Fließbandfertigung Mit Hilfe von Fließbändern werden Werkstücke mechanisch zu den Arbeitsplätzen befördert.
•
Reihenfertigung Bei Reihenfertigung erfolgt die Anordnung der Betriebsmittel nach dem Produktionsablauf, ohne dass die einzelnen Verrichtungen zeitlich unmittelbar aufeinander abgestimmt sind.
Die Fließfertigung weist gegenüber der -> Werkstattfertigung folgende Vor- und Nachteile auf:
•
•
Vorteile - Kürzere Durchlaufzeit; - Keine Wartezeit zwischen den einzelnen Arbeitsverrichtungen; - Materialverbrauch und Bestände lassen sich exakt ermitteln; - Spezialisierungsvorteile bei der Herstellung homogener Produkte. Nachteile - monotone Verrichtungen sind oft eine hohe Belastung für die Mitarbeiter; - hohe Fixkostenbelastung; - geringe Flexibilität.
Siehe auch -> Produktionslogistik, —> Produktionsorganisation Flussdiagramm Ist ein elementares Werkzeug des Qualitätsmanagements zur Visualisierung von Abläufen (-> QualitätsmanagementWerkzeuge). Die grafischen Elemente sind in DIN 66001 genormt. Vielfach werden die Darstellungselemente auch firmen- und/oder problemspezifisch abgewandelt. Flussdiagramme werden häufig zur Darstellung von Abläufen im Rahmen der Dokumentation von Qualitätsmanagement-Systemen verwendet. Engelbert Westkämper/ Alexander Schloske FMEA Fehlermöglichkeits- und lyse
Einflussana-
Fokussierung In Verlautbarungen von Unternehmen zu ihrer Strategie kann man seit einigen Jahren feststellen, dass die Fokussierung sehr häufig als die im Moment verfolgte strategische Ausrichtung bezeichnet wird. Interessanterweise fehlt in der deutschsprachigen akademischen Fachliteratur aber die Auseinandersetzung mir der Fokussierung weitgehend, und auch in der amerikanischen Strategietheorie taucht der Begriff recht selten auf. Meistens wird die Fokussierungsstrategie im Zusammenhang mit -» Restrukturierungen 275
Fokussierung oder -* Diversifikationen am Rande erwähnt. Eingehend setzt sich lediglich Markides mit dem Fokussierungsphänomen auseinander. Zwischen Theorie und Praxis besteht also ein eklatanter Graben. Gemäß Markides kann von einer Fokussierungsstrategie (de-conglomerating, dediversifying) gesprochen werden, wenn sich Unternehmungen auf ihre Kerngeschäfte konzentrieren und in diesem Sinne ihre bestehende Diversifikationsbreite reduzieren. Damit ist eine zentrale Frage der unternehmerischen Leistungsgestaltung angesprochen, nämlich die Breite bzw. Vielfältigkeit des Tätigkeitsgebietes (Scope). Fokussierung erscheint in dieser Perspektive als Gegenbegriff zur Diversifikation. Hierbei wird die Untemehmensebene betrachtet (Corporate Level). Die Unternehmung wird als ein Portfolio von Geschäften (Business) betrachtet, das in seiner Vielfalt bzw. Breite optimiert werden soll. Diese Sichtweise der PortfolioOptimierung hat vor allem in den sechziger Jahren eine große Bedeutung erlangt. Die Diversifikationsstrategie wurde damals als jene Strategie betrachtet, welche in stagnierenden oder schrumpfenden Märkten, bei saisonalen Schwankungen, bei raschem technologischen Wandel oder beim Vorliegen von "Business Cycles" die richtige sei. Diese einseitig positive Sicht der Diversifikation hat sich aber seit einigen Jahren grundlegend gewandelt. Mit der steigenden Funktionstüchtigkeit der Finanzmärkte wuchs die Ansicht, dass die Anleger heute besser als früher in der Lage seien, die Ressourcenallokation optimal zu vollziehen. Den Managern wird zudem weniger als ehedem zugetraut, dass sie in der Lage seien, ein diversifiziertes Geschäft erfolgreich zu führen. Vielmehr soll ihnen eine Fokussierung eine effiziente Leitung und bessere Kontrolle des engeren Geschäftsfeldes sowie eine Reduktion der Koordinations-, Integrations- und Kompromisskosten (Managerial Diseconomies of Scope) ermöglichen. Als Resultat davon kann man be276
Fokussierung obachten, dass heute an den Börsen diversifizierte Unternehmen mit einem "Conglomerate Discount" bestraft bzw. dass Bemühungen zur Fokussierung von der Börse in aller Regel positiv honoriert werden. Dies hat in den letzten Jahren zu einem starken Trend zur Fokussierung und damit zum Abbau der Diversifikationsbreite, insbesondere in Konglomeratskonzernen, geführt. Die Fokussierung und der Trend zum Einproduktunternehmen werden bevorzugt. Hierzu setzen allerdings neuere Untersuchungen bereits wieder Fragezeichen. Im Vergleich von Einproduktuntemehmen (fokussiertes Unternehmen) und Mischkonzern (diversifiziertes Unternehmen) scheint, bei richtiger Konfiguration und Führung, der Mischkonzern den heutigen Wettbewerbsverhältnissen besser angepasst zu sein. Fokussierung wird in einer Zeit des raschen Wandels und der zunehmenden Ungewissheit als riskant betrachtet. Wohl mag die Rendite fokussierter Unternehmungen kurzfristig wegen der Konzentration der Kräfte und der Kostenvorteile besser sein, längerfristig bieten sie aber im Wandel weniger Optionen. Die ökonomische Berechtigung des heute an der Börse zu beobachtenden "Conglomerate Discount", d.h. die Bevorzugung einer Fokussierung, wird aufgrund dieser Argumentation stark in Zweifel gezogen. In dieser Kontroverse zwischen Fokussierung und Diversifikation ist nun durch die Betrachtung des Ressourcenansatzes der Strategietheorie (Resource-based View, Ressourcentheorie) eine interessante neue Position hervorgetreten. Es handelt sich um das Konzept der verbundenen Diversifikation (Related Diversification). Insbesondere die Untersuchungen von Rumelt (1986) haben eine intensive Diskussion ausgelöst. Hierbei wird plausibel dargelegt, dass Unternehmen dann am erfolgreichsten sind, wenn sie zwar am Markt mit verschiedenen Produkten auf verschiedenen Märkten diversifiziert er-
Fokussierung scheinen, aber gleichzeitig diese Produkte auf wenigen Kernbauteilen und vor allem Kernkompetenzen basieren. Auf der Stufe der Kernkompetenzen und der Kernbauteile lässt sich so durch Fokussierung (z.B. Konzentration der Mittel) eine starke Stellung erringen, und es können dort -> "Economies of Scale" realisiert werden. Andererseits ergeben sich bei der Anwendung der Kernkompetenzen auf verschiedene Geschäftsbereiche Optionen fur die Zukunft und -» "Economies of Scope", d.h. einmal im Rahmen der Fokussierung getätigte Investitionen in Kernkompetenzen lassen sich auf ein breites Sortiment verteilen. Auf dem Hintergrund der realen wirtschaftlichen Entwicklung der letzten Jahre hat sich aus dieser Denkweise ein deutlicher Trend zur kernkompetenzorientierten Fokussierung ergeben, ohne dass der Schritt zum Einproduktbetrieb gemacht wurde. Es lässt sich tatsächlich z.B. bei Akquisitionen (-> Unternehmenskauf), bei Mergers oder strategischen Allianzen - beobachten, dass Unternehmungen zwar alle jene Geschäftszweige eliminieren oder verkaufen, die nicht direkt von den Kemkompetenzen profitieren, gleichzeitig aber die kernkompetenzbasierenden Geschäfte ausbauen. Die Fokussierung auf Kemkompetenzen bzw. das Konzept der Diversifikation um Kernkompetenzen lassen die herkömmliche Auffassung, Fokussierung beziehe sich immer auf das Kerngeschäft, als zu eng erscheinen. Fokussierung auf Kemkompetenzen umfasst sowohl das Kemgeschäft wie auch Diversifikationsbereiche, die auf diese Kemkompetenzen abgestützt sind. Und Optimierung eines Geschäftsportfolios heißt - in der Perspektive einer Fokussierungsstrategie Konzentration der Kräfte auf Kernkompetenzen und geschickte Nutzung dieser Kemkompetenzen in verbundenen Geschäftsfeldern.
Formwechsel Literatur: Markides, C.C.: Diversification, restructuring and economic performance, in: Strategie Management Journal, Vol. 16/1995, S. 101118; Porter, M.H.: Diversifikation - Konzerne ohne Konzept, in: H A R V A R D m a n a g e r , 4/1987, S. 3 0 - 4 9 ; Rühli, E./Sachs, S.: Challenges for Strategie competitive intelligence at the corporate level, in: Competitive Intelligence Review, 8 ( 4 ) / l 9 9 7 , S. 5 4 - 6 4 ; Rühli, E./Sachs, S.: Case study: The Novartis mega-merger An intraorganizational evolutionary perspective, in: Journal of Strategic Change, 8(4)/1999, S. 2 1 7 226; Zahn, E.: Innovation als Strategie in turbulenter Zeit, in: A u f der Suche nach Erfolgspotentialen, Stuttgart 1991; Barney, J.B.: Diversification strategies, Gaining and sustaining competitive advantage, 1996, S. 3 5 6 - 3 9 4 ; Rumelt, R. P.: Strategy, structure and economic performance, Boston, M A 1986. .
Edwin Rühli
Formale Organisation Der Begriff bezeichnet in der betriebswirtschaftlichen Organisationslehre die bewusst geschaffene, rational gestaltete Struktur zur Erfüllung der unternehmerischen Zielsetzung. Die formale Organisation wird als gewollt und gewünscht angesehen, da sie -» Aufbauund -> Ablauforganisation eindeutig regelt. Neben der formalen steht in der betrieblichen Praxis die informale Organisation. Formwechsel Bei einem Formwechsel ändert ein Rechtsträger lediglich seine Rechtsform. Seine rechtliche Identität bleibt gewahrt. Formwechsel fuhrt zu einem Wechsel der Rechtsform bei Wahrung der rechtlichen Identität des Rechtsträgers (§ 190 Abs. 1 UrawG). Da sich allein die rechtliche Organisation des Unternehmensträgers ändert, findet ein Vermögensübergang nicht statt. Alle Aktiva und Passiva werden vom selben Rechtsträger in neuer Rechtsform fortgeführt. Prokuren, Handlungsvollmachten und sonstige Vollmachten bleiben bestehen, ebenso grds. die Mitgliedschaften der Anteilsinhaber (§ 202 Abs. 1 Nr. 2 S. 1 UmwG). Rechtsstreitigkeiten werden nicht unterbrochen. Vollstreckbare Titel (z.B. Urteile) bleiben
277
Formwechsel für und gegen den Rechtsträger wirksam, öffentlich-rechtliche Berechtigungen unverändert in Kraft, ebenso Verträge (sofern sich aus ihnen selbst nichts anderes ergibt). Gleiches gilt grds. für Unternehmensverträge (unklar ist, ob diese enden, wenn sich als Folge des Formwechsels die kraft Unternehmensvertrag bestehenden Rechte und Pflichten beider Vertragsteile mit der neuen Rechtsform nicht vereinbaren lassen). Gründe für einen Formwechsel: Durch einen Formwechsel wird die nachträgliche Änderung der Rechtsform von Unternehmen erleichtert, um sie zum einen gewandelten wirtschaftlichen Verhältnissen bzw. dem Interesse der Beteiligten anzupassen (z.B. Kapitalbeschaffung und Kapitalausstattung, Haftungsfragen, Verkehrsfähigkeit der Anteile, Fragen der Mitbestimmung, Publizitäts- und Bilanzierungspflichten, Organisationsstruktur, Vorbereitung einer erleichterten Unternehmensnachfolge). Dabei wird die Liquidation des umzuwandelnden Rechtsträgers, die in vielen Fällen mit erheblichen Komplikationen verbunden sein kann, vermieden. Gründungs- und Löschungskosten können eingespart werden. Weiterer Beweggrund für einen Formwechsel kann die z.T. unterschiedliche Besteuerung der jeweiligen Unternehmensformen sein. Eine wichtige Rolle kann der F. auch beim Unternehmenskauf zur Optimierung des -» Cash-flows spielen, da der Formwechsel die mit dem Kaufpreis für die Beteiligung abgegoltenen stillen Reserven steuerlich über ein erhöhtes Abschreibungspotenzial nutzbar machen kann, so dass eine Reduzierung der laufenden Steuerlast entsteht. Außerdem kann der Formwechsel beim Verkauf von Immobilien unter Vermeidung der Gewerblichkeit und zur Vermeidung der GrESt bei ihrem Übergang sinnvoll sein. Formwechslungsfahige
Rechtsträger:
Formwechselnde Rechtsträger können sein (§191 Abs. 1 UmwG): ^ O f f e n e Handelsgesellschaft (OHG), Komman278
Formwechsel ditgesellschaft (KG), Gesellschaft mit beschränkter Haftung (GmbH), -*• Aktiengesellschaft (AG), -* Kommanditgesellschaft auf Aktien (KgaA), eingetragene -> Genossenschaften, e. V., VVaG, Körperschaften und Anstalten des öffentlichen Rechts. Rechtsträger neuer Rechtsform können sein (§191 Abs. 2 UmwG): ->• Gesellschaft bürgerlichen Rechts (GbR), OHG, KG, GmbH, AG, KGaA und eingetragene Genossenschaften. Ablauf eines Formwechsels (Grobraster): Das Vertretungsorgan des formwechselnden Rechtsträgers erstellt den Entwurf eines Umwandlungsbeschlusses (§ 192 Abs. 1 S. 3 UmwG). Sodann erstattet es den Umwandlungsbericht unter Beifügung einer Vermögensaufstellung, die eine detaillierte Prüfung der Vermögenslage ermöglicht (§ 192 UmwG). Die Anteilsinhaber des formwechselnden Rechtsträgers fassen anschließend den Umwandlungsbeschluss (§§ 193 ff. UmwG). Die neue Rechtsform ist zur Eintragung im maßgeblichen Register anzumelden (§§ 198 f. UmwG). Wirksam wird der Formwechsel mit Eintragung der neuen Rechtsform im Register (§ 202 UmwG). Diese ist durch das Gericht bekannt zu machen (§ 201 UmwG). Handelsbilanzielle Behandlung: Die Buchwerte sind fortzuführen (h.M.). Für den ersten auf den F. folgenden -> Jahresabschluss sind ggf. andere Ansatzvorschriften und Bilanzierungswahlrechte der neuen Rechtsform zu beachten. Die wesentlichsten Änderungen betreffen den Ausweis des Eigenkapitals: Gemäß § 197 UmwG sind die Gründungsvorschriften der neuen Rechtsform zu beachten. Für den Formwechsel in eine Kapitalgesellschaft hat dies zur Folge, dass der nach § 194 Abs. 1 Nr. 4 UmwG im Umwandlungsbeschluss festzusetzende Betrag des Nennkapitals der Kapitalgesellschaft den Zeitwert des Vermögens des formwechselnden Rechtsträgers im Zeitpunkt der Handelsregisteranmeldung nicht überstei-
Formwechsel gen darf (führt eine Vermögensminderung zwischen Umwandlungsbeschluss und Handelsregisteranmeldung zum Absinken des Zeitwerts des Vermögens unter den Nennbetrag des gezeichneten Kapitals, kommt es zur Differenzhaftung). Im umgekehrten Fall des Formwechsels einer -> Kapitalgesellschaft in eine -> Personengesellschaft treten an die Stelle des bisherigen gezeichneten Kapitals und etwaiger Kapital- oder Gewinnrücklagen die Kapitalkonten der Gesellschafter. Steuerliche Behandlung: Der Formwechsel kann weitgehend steuemeutral durchgeführt werden. Dies wird beim Wechsel von der Personenhandelsgesellschaft in die Kapitalgesellschaft durch die Buchwertfortführung auf Ebene der übernehmenden Kapitalgesellschaft (§§ 25, 20 Abs. 2 UmwStG) und beim Wechsel einer Kapitalgesellschaft in die Personengesellschaft durch das Recht zum Buchwertansatz auf Ebene der übertragenden Kapitalgesellschaft (§ 3 UmwStG) und die Bindung der übernehmenden Personengesellschaft an diese Werte (§ 4 Abs. 1 UmwStG) erreicht. Alternativen zum Formwechsel i.S.d. UmwG: Zum einen gibt es Gestaltungen, die das Ergebnis eines F. mit den Mitteln des UmwG in anderer Weise herbeiführen. Bsp. ist die Mischverschmelzung: Wird z.B. der Formwechsel einer OHG in eine GmbH angestrebt, kann alternativ zum Wechsel zunächst eine GmbH ausgegründet werden, auf die dann die OHG verschmolzen wird (sinnvoll, wenn der Formwechsel i.S.d. UmwG zwischen den betreffenden Rechtsformen nicht zugelassen ist, ferner evtl. aus bilanziellen Gründen: Verschmelzung bewirkt bilanzielles Bewertungswahlrecht, Formwechsel dagegen die grds. Fortführung der Bilanz). Zum anderen gibt es Möglichkeiten der Rechtsformänderungen außerhalb des UmwG für Personengesellschaften. Bsp. sind der Übergang einer GbR in eine Personenhandelsgesellschaft durch Veränderung des Unternehmensgegenstandes
Franchise-Systeme i.S.d. § 105 Abs. 1 HGB oder die Fälle der Anwachsung (vgl. § 738 BGB). Helge-Torsten Wöhlert Forschung und Entwicklung (F&E) Abteilung eines Unternehmens, deren Ziel es ist, nach Innovationen unter Anwendung wissenschaftlicher Methoden zu suchen. Die Forschung beschäftigt sich dabei mit generellem Erwerb neuer Kenntnisse. Das Aufgabengebiet der Entwicklung besteht in deren erstmaliger praktischer Umsetzung. Der zunehmende Wettbewerb und der technische Fortschritt haben die Bedeutung dieses betrieblichen Teilbereichs enorm erhöht, da sich heute kaum noch ein Unternehmen am Markt halten kann, ohne immer wieder Innovationen zu entwickeln. Franchise-Systeme Kaum eine Organisationsform ökonomischer Aktivität verbreitet sich so rasch wie Franchising, dies gilt insbesondere im Bereich der Produktion und Distribution von Dienstleistungen. Gerade in diesem Bereich entwickeln sich FranchiseSysteme immer häufiger zu Marktführern in ihrem jeweiligen Geschäftsfeld: McDonald's im Fast Food-Geschäft, OBI bei den Bau- und Heimwerkermärkten, die Schülerhilfe im Bereich des organisierten Nachhilfeunterrichts u.v.a.m. Franchising, dem auch angesichts der Forderung nach mehr Unternehmertum zunehmende Bedeutung zuzukommen scheint, bezeichnet dabei eine langfristige vertragliche Kooperation rechtlich selbständiger Unternehmungen. Eine dieser Unternehmungen, der Franchisegeie/-, stellt den anderen Unternehmungen, den Franchisenehmern, ein von ihm entwickeltes Beschaffungs-, Absatz- und Organisationskonzept als "System-Paket" gegen Entgelt zur Verfugung, gewährt entsprechende Nutzungsrechte (u.a. auch an der Marke) sowie - in der Regel Schutzrechte für ein territorial begrenztes Gebiet. Dabei behält sich der Franchisegeber sehr weitgehende Weisungs- und 279
Franchise-Systeme Kontrollrechte vor, um sein Konzept gegenüber den Franchisenehmern durchzusetzen. Mit ähnlicher Absicht sorgt er für die Aus- und Weiterbildung der Franchisenehmer sowie für die Weiterentwicklung des System-Pakets. Die Franchisenehmer stellen ihrerseits Kapital, Arbeit sowie Informationen (z.B. über das regionale Einzugsgebiet) zur Verfügung; sie werden im eigenen Namen und auf eigene Rechnung tätig. Franchising wird anderen Organisationsformen, insbesondere dem Filial-System, vorgezogen, weil mit ihm verschiedene ökonomische Vorteile verbunden werden. Die Begründung der ökonomischen Vorteilhaftigkeit des Franchising, einer netzwerkförmigen Organisationsform ökonomischer Aktivität zwischen Markt und Hierarchie, gegenüber dem Filialsystem, der hierarchischen Lösung, stützte sich zunächst auf kapitalmarkttheoretische Erklärungen. Danach ist die Entscheidung für ein Franchise-System im Kapitalmangel der Franchisegeber begründet, eine Expansion des Distributionssystems aus "eigener Kraft" zu finanzieren. Andere ökonomische Theorieansätze, wie der Transaktionskostenansatz (-> Transaktionskostentheorie) und die PrinzipalAgenten-Theorie (-> Agency-Theorie), verbinden mit dem Franchising Koordinationskostenvorteile, die sich unter bestimmten, jeweils genauer zu untersuchenden Bedingungen (z.B. räumliche Konzentration der Geschäfte) ergeben können. Kritische Ansätze heben die Produktionskostenvorteile dieser Organisationsform hervor, die sich aus der engeren Führung durch den Eigentümerunternehmer sowie durch die oft mitarbeitenden Familienangehörigen ergeben. In der Praxis kommt es häufig zu einer Koexistenz von Franchise- und FilialSystemen. Dies ist bei allen , großen Namen' der Fall, die (vermeintlich) für Franchising stehen: McDonald's, Pizza Hut, Dunkin' Donuts etc. Die Existenz dieser "plural form" (Bradach) findet ihre 280
Franchise-Systeme ökonomische Begründung vor allem darin, dass Lemeffekte, die in der einen Form erzielt werden, in die jeweils andere transferiert werden können. Die Führung bzw. das Management kann von der Einsicht profitieren, dass es sich bei Franchise-Systemen letztlich um strategische Netzwerke, eine im Vergleich zum Filial-System loser gekoppelte Organisationsform ökonomischer Aktivität, handelt. Gleichwohl ist und bleibt der Franchisegeber - zumindest im Fall erfolgreicher Franchise-Systeme - unangefochtener Netzwerkfuhrer, versteht es beispielsweise, dauerhaft einen Wissensvorsprung gegenüber den Franchisenehmern zu bewahren. Dies gilt es für das Management des Franchisegebers entsprechend zu organisieren bzw. durch die Franchisenehmer bei ihrem Handeln entsprechend zu berücksichtigen. Wie in Netzwerken allgemein, fallen auch beim Management von FranchiseSystemen die Funktionen der Selektion, Allokation, Regulation und Evaluation an. Die Managementfunktion der Selektion erstreckt sich auf die Suche und Auswahl geeigneter Netzwerkpartner. Im Falle von Franchise-Systemen, zumindest wenn man sie als strategische Netzwerke begreift, beschränkt sich diese Managementfunktion nicht allein auf die Selektion der Franchisenehmer, sondern auch auf die Einbeziehung geeigneter Lieferanten und Dienstleister (z.B. ITDienstleister). Die Managementfunktion der Allokation erstreckt sich auf die Verteilung von Aufgaben und Ressourcen im Netzwerk, die der Regulation auf die Entwicklung effektiver, vertraglicher sowie organisatorischer Regeln der Zusammenarbeit zwischen den Partnern im Netzwerk. Die Evaluation schließlich erstreckt sich auf die einzelnen Netzwerkpartner, ihre Beiträge zum Netzwerk sowie auf den gesamten Netzwerkerfolg, aber auch auf die Selektions-, Allokations- und Regulationspraktiken im Franchisenetzwerk.
Freihandelszone
Franchise-Systeme Aus der Perspektive der Beschäftigten, aber auch der Franchisenehmer (also der Unternehmer), wirft die Organisationsform des Franchising viele Fragen jenseits des Managements solcher Systeme auf. Diese reichen von den Möglichkeiten einer wirksamen betrieblichen Interessenvertretung bis zur Frage, ob Franchisenehmer im Angesicht der durch den Franchisegeber üblicherweise ausgeübten Weisungs- und Kontrollrechte wirklich Unternehmer oder doch nicht nur "abhängige Selbständige" sind. Literatur: Bradach, J.L.: Franchise organizations. Boston, Mass 1998; Felstead, A.: The corporate paradox: Power and control in the business franchise, London 1993; Stein, G.: Franchisingnetzwerke im Dienstleistungsbereich. Wiesbaden 1996; Sydow, J.: Franchisingnetzwerke - Ökonomische Analyse einer Organisationsform der Dienstleistungsproduktion und -distribution. In: Zeitschrift fur Betriebswirtschaft 64 (1)/1994, S. 9 5 - 1 1 3 ; Sydow, J./Kloyer, M.: Managementpraktiken in Franchisingnetzwerken - Erkenntnisse aus sechs Fallstudien. Arbeitspapier Nr. 171 des FB Wirtschaftswissenschaften der Bergischen Universität Wuppertal 1995.
Jörg Sydow Freihandelszone Eine Freihandelszone ist ein Zusammenschluss mehrerer Länder zur Förderung des Außenhandels untereinander. Die Freihandelszone kann zwischen den beiden Polen "Autarkie" und "weltweiter Freihandel" in eine Rangfolge von Integrationsformen eingeordnet werden. Die nach der Autarkie niedrigste Form der Integration ist die Präferenzzone. In ihr werden lediglich Vorzugsbedingungen für den Handel spezieller Güter eingeräumt. Eine Freihandelszone bezieht dagegen in der Regel den gesamten Güterverkehr zwischen den Mitgliedsstaaten ein, der von Zöllen und nicht-tarifaren Handelsbeschränkungen befreit ist. Während damit innerhalb des Integrationsgebietes Freihandel besteht, kommt es zu keiner Harmonisierung der Außenzölle gegenüber Drittstaaten. In der nächsthöheren Integrationsstufe, der Zollunion, vereinbaren die Mitglieder neben dem Wegfall aller
Handelshemmnisse untereinander auch einen gemeinsamen einheitlichen Außenzoll. Unterliegt auch die Wirtschaftspolitik einer engen Harmonisierung, so handelt es sich um eine Wirtschaftsunion. Durch die Existenz unterschiedlich hoher Außenzölle entsteht in einer Feihandelszone ein Arbitrageproblem. Importe aus Drittländern werden in der Regel über das Land abgewickelt, das den niedrigsten Außenzoll aufweist. Von diesem Land aus können die Güter dann zollfrei innerhalb der Freihandelszone verteilt werden, wodurch die Außenzölle der anderen Mitgliedsstaaten ihre praktische Wirkung verlieren. Zur Lösung dieses Problems werden meist Ursprungsregeln eingeführt, durch die man unterscheiden kann, ob Güter ihren Ursprung innerhalb der Freihandelszone haben oder aus Drittländern importiert wurden. Eine solche Regelung erfordert naturgemäß einen hohen Verwaltungsaufwand. Bei den ökonomischen Wirkungen einer Freihandelszone können in Anlehnung an Viner (1950) ein handelsschaffender (trade creation) und ein handelsumlenkender (trade diversion) Effekt unterschieden werden. Zur Handelsumlenkung kommt es bei Gründung einer Freihandelszone durch die Verschiebung der Preisrelationen auf den Importgütermärkten zugunsten der Anbieter aus den Mitgliedsstaaten, da bei ihnen die Zollbelastung wegfällt, während sie für Drittstaatenanbieter bestehen bleibt. Anbieter, die vor Bildung der Freihandelszone auf dem Weltmarkt nicht konkurrenzfähig waren, können ihre Produkte durch diese Preisverzerrung nun möglicherweise innerhalb der Zone absetzen. Sie ersetzen damit den Import aus Drittländern, wodurch eine handelsumlenkende Wirkung entsteht. Zu einer Handelsschaffung kommt es, wenn die Beseitigung von protektionistischen Maßnahmen zwischen den Mitgliedsstaaten in mindestens einem Land zu einer Preissenkung bei den betroffenen Gütern führt. Güter von international inef-
281
Frühwarnsystem
Freihandelszone fizienten Produzenten des Inlands werden dann durch Importe eines anderen Mitgliedslandes der Freihandelszone ersetzt. Aufgrund des gesunkenen Preisniveaus kann es auch zu einem generellen Anstieg des Konsums und damit zu einer Nachfragesteigerung nach Produkten aller Mitgliedsländer kommen. Bedeutsame Freihandelszonen sind z.B. die Europäische Freihandelsassoziation (EFTA), die Nordamerikanische Freihandelszone (NAFTA) und die Südostasiatische Freihandelszone (ASEAN). Obwohl Freihandelszonen das postulierte Prinzip der Meistbegünstigung im Rahmen des GATT (Art. I) verletzen, sind sie ausdrücklich als Ausnahme von der Meistbegünstigung zugelassen (Art. XXIV). Man verspricht sich durch regionale Freihandelsgebiete die Ebnung des Weges zu generellem Freihandel. Literatur: Meade, J.E.: The Theory of Custom Unions, A m s t e r d a m 1955; Robson, P.: The Economics of International Integration, London 1987; Rose, K./Sauemheimer, K.: Theorie der Außenwirtschaft, 13. Aufl., München 1999; Viner, J.: T h e Customs Union Issue, N e w York 1950.
Gerhard Rübel Freiverkehr -» Aktienmarkt Fremdkapitalkosten -» Kapitalkosten Frühwarnsystem 1. Frühwarnung wird verstanden als die rechtzeitige Wahrnehmung und Information über latente, d.h. verdeckt bereits vorhandene Bedrohungen bzw. Risiken, die von besonderer Bedeutung für den Fortbestand und die erfolgreiche Weiterentwicklung der Unternehmung sind. Frühwarnsysteme stellen eine spezielle Art von Informationssystemen für die Unternehmung dar, die latente Bedrohungen/Risiken so frühzeitig signalisieren können, dass noch hinreichend Zeit für die Ergreifung geeigneter Maßnahmen zur Abwendung oder Minderung der wahrgenommenen Situation/Entwicklung 282
besteht. Im Rahmen der betriebswirtschaftlichen Forschung und Praxis werden Konzepte der Frühwarnung seit Ende der 70er Jahre diskutiert (Hahn/Krystek, 1979). Das Gesetz zur Kontrolle und Transparenz im Unternehmensbereich (-»KonTraG) hat mit der Novellierung des § 91, Abs. 2 AktG die Diskussion um Frühwarnsysteme für Unternehmungen aktualisiert indem es fordert, dass der Vorstand von Gesellschaften, die in den Gültigkeitsbereich dieser Vorschrift fallen, geeignete Maßnahmen zu ergreifen hat, damit den Fortbestand der Gesellschaft gefährdende Entwicklungen früh erkannt werden. Da in den meisten Anwendungsfällen mit denselben Instrumenten (Kennzahlen, Indikatoren, Weak Signals), mit denen latente Bedrohungen/Risiken frühzeitig signalisiert werden können, auch verdeckt bereits vorhandene Chancen/Gelegenheiten wahrnehmbar sind, hat sich der Begriff der Früherkennung/Früherkennungssysteme für solche Informationssysteme durchgesetzt. Sie können sowohl latente Bedrohungen/Risiken, als auch verdeckt bereits vorhandene Chancen/Gelegenheiten frühzeitig orten. Darauf aufbauend steht der Begriff Frühaufklärung/Frühaufklärungssysteme für das rechtzeitige Erkennen latenter Chancen und Bedrohungen sowie für eine informationelle Sicherung dafür zu planender und zu realisierender Strategien und Maßnahmen (Krystek/Müller-Stewens 1993). Frühwarnsysteme sind als betriebliche, zwischen- und überbetriebliche Informationssysteme bekannt, wobei betriebliche Frühwarnsysteme lediglich Bedrohungen frühzeitig wahrnehmen, die auf die eigene Unternehmung zusteuern. Zwischen- und überbetriebliche Frühwarnsysteme stellen spezifische Frühwarn-Kooperationen zwischen Unternehmungen dar, ggf. unter Einschaltung einer neutralen Institution (überbetriebliche Frühwarnsysteme). Davon zu unterscheiden sind Frühwarnsy-
Frühwarnsystem
Frühwarnsystem steme, die latente Bedrohungen bei Marktpartnern (z.B. Kreditnehmern) wahrnehmen sollen und zumeist auf Verfahren der statistischen Jahresabschlussanalyse - bis hin zum Einsatz künstlicher neuronaler Nutzer (-> Neuronale Netze) basieren. Im Hinblick auf ihre Entwicklung und konzeptionelle Ausgestaltung lassen sich drei Generationen von (betrieblichen) Frühwarnsystemen kennzeichnen. Frühwarnsysteme der ersten Generation ermitteln Frühwarninformationen entweder durch einen Zeitvergleich von Kennzahlen oder durch innerjährliche Hochrechnungen (forecasts) von bestehenden Jahresplänen (Budgets). Frühwarnsysteme der zweiten Generation bedienen sich spezifischer ¥mh-Indikatoren (leading indicators), die mit zeitlichem Vorlauf Informationen über latente, mit den herkömmlichen Instrumentarien der Unternehmung nicht oder erst zu spät wahrnehmbare Erscheinungen/Entwicklungen innerhalb und/oder außerhalb der Unternehmung liefern. Frühwarnsysteme der dritten Generation schließlich sind als "Strategisches Radar" auf die systematische Erfassung und Beurteilung ausschließlich strategisch relevanter Frühwarninformationen spezialisiert. Eine Begrenzung solcher Systeme auf latente Bedrohungen ist allerdings nicht immer möglich, da sich die hier in sehr frühen Stadien ihrer Entwicklung wahrgenommenen Signale häufig noch nicht eindeutig als Bedrohung oder Chance interpretieren lassen. Üblicherweise wird die erste und zweite Generation von Frühwarnsystemen dem operativen Bereich zugeordnet (operative Frühwarnsysteme), während die dritte Generation besondere Bedeutung für den Bereich des strategischen Managements hat (strategische Frühwarn/Früherkennungssysteme). 2. Operative Frühwarnsysteme basieren auf Kennzahlen, Hochrechnungen sowie auf Indikatoren.
•
Frühwarnsysteme auf Basis von Kenn zahlen und Planhochrechnungen Die ursprünglichste Form von Frühwarnung erfolgt mit Hilfe von Kennzahlen (Alarmkennziffern), denen Frühwarneigenschaften zugeschrieben werden (Oehler 1980). Dabei sind insbesondere ein Zeitvergleich sowie das Über-/Unterschreiten zuvor definierter Schwellenwerte von Bedeutung. Bei Planhochrechnungen wird der übliche Soll-Ist-Vergleich durch einen SollWird- Vergleich erweitert. Während Soll-Ist-Vergleiche nur Aufschlüsse über bereits abgelaufene Ereignisse bzw. deren Ergebnisse liefern, bieten solche Hochrechnungen der Ist-Zahlen auf das Perioden- oder Projektende schon frühzeitig Erkenntnisse über sich abzeichnende Abweichungen ("Wird"-Zahlen), die sonst erst später (z.B. am Perioden- oder Projektende) in Soll-Ist-Vergleichen deutlich würden.
•
Während Kennzahlen in aller Regel nur begrenzte Früherkennungskraft besitzen, da die sich in ihnen widerspiegelnden Ereignisse bereits abgeschlossen sind und Steuerungshandlungen somit meist nur noch reaktiven Charakter haben können, stellen Planungshochrechnungen grundsätzlich eine bessere Möglichkeit der kurzfristigen Früherkennung dar. Moderne Controllingkonzeptionen haben diese Form von Früherkennung bereits in ihre Plan- und Berichtssysteme integriert.
•
Frühwarnsysteme auf Basis von Indikatoren Indikatoren sind zunächst "Anzeiger" für verborgene Ereignisse/Entwicklungen. Sie üben eine Stellvertreterfunktion aus und sollen das ursprünglich gemeinte, direkt aber nicht wahrnehmbare Phänomen (Indikandum) hilfsweise erkennbar machen. Sie müssen sich dabei nicht nur in re-
283
Frühwarnsystem lativen oder absoluten Zahlen ausdrücken, sondern können auch qualitativ definiert sein, was sie grundlegend von Kennzahlen unterscheidet. Der prinzipielle Aufbau sowie die Funktionsweise von indikatororientierten Frühwarnsystemen ist den in Abb. 1 dargestellten Schritten zu entnehmen. Ausgangspunkt ist die Ermittlung von Beobachtungsbereichen außerhalb, ggf. aber auch innerhalb der Unternehmung, in denen latente Bedrohungen vermutet werden (vgl. Abb. 2). Darauf folgt die Suche nach Indikatoren. Sie vollzieht sich zweckmäßigerweise in Form von Projekt-Kollegien, die aus Mitarbeitern/Führungskräften unterschiedlicher Kerntätigkeitsbereiche und Hierarchieebenen der Unternehmung zusammengesetzt sein sollten. Sofern möglich, sind pro Indikator Sollwerte und Toleranzgrenzen festzulegen, um Warnmeldungen nur auf Werte in den kritischen Bereichen (außerhalb der Toleranzgrenzen) zu beschränken und so die zu verarbeitende Informationsmenge zu reduzieren. Die Nominierung von Beobachtern soll sicherstellen, dass Mitarbeiter/Führungskräfte, die sich als Beobachter jeweiliger Indikatoren im Rahmen ihrer hauptamtlichen Tätigkeit zur Verfügung stellen, bekannt sind und zur Wahrnehmung dieser Tätigkeit verpflichtet werden. Die Aufgaben der Informationsverarbeitungsstelle(n) sind ebenfalls festzulegen, wobei sich das -> Controlling als Träger der Zentrale eines Frühwarnsystems besonders eignet. Schließlich sind die relevanten Informationskanäle so auszugestalten, dass Frühwarninformationen sowohl von den Beobachtern zur Zentrale wie auch von der Zentrale zu den Nutzern des Frühwarnsystems (i.d.R. oberes Management der 284
Frühwarnsystem Unternehmung) schnell und störungsfrei übermittelt werden können. 3. Strategische Frühwarn-ZFrüherkennungssysteme gehören der jüngsten Generation an. Sie haben die zeitlich größte Reichweite, dafür aber einen vergleichsweise geringen Konkretisierungsgrad der von ihnen abgegebenen FrühwanWFrüherkennungsinformationen. Während die Durchführung operativer Frühwarnung im Rahmen institutionalisierter Prozeduren delegierbar erscheint, findet strategische Früherkennung in eher informellen Foren und Arenen statt. Sie erfordert verstärkt einen Umgang mit Diskontinuitäten und die Bereitschaft zu einem Paradigmawechsel (Krystek/ Müller-Stewens 1999). Die strategische Frühwarnung/Früherkennung ist maßgeblich durch das Ansoff'sehe Konzept der "Schwachen Signale" sowie durch Erkenntnisse der Diffusionstheorie geprägt. Ausgangspunkt des Ansoff'sehen Konzepts ist die Vorstellung, dass Diskontinuitäten sowohl im technologischen als auch im ökonomischen, sozialen und im politischen Bereich nicht blind zufällig ablaufen, sondern sich durch sogenannte Schwache Signale ("Weak Signals") ankündigen, da solche Diskontinuitäten von Menschen gemacht und von deren Interessen gelenkt werden. Schwache Signale sind schlecht definierte und unscharf strukturierte Informationen oder Informationsrudimente, die auf strategische Diskontinuitäten (Trendveränderungen/Trendbrüche) hindeuten. Obwohl die strategische Frühwarnung/ Früherkennung weniger stark strukturiert ist, lassen sich dennoch die grundlegenden Elemente des Prozesses dieser an Schwachen Signalen orientierten Form der Frühwarnung/ Früherkennung/ Frühaufklärung latenter Chancen/ Bedrohungen grob skizzieren (vgl. Abb. 3) (Hammer 1998).
Frühwarnsystem
Frühwarnsystem Unternehmensexterne Beobachtungsbereiche Wirtschaftlicher Bereich
Strukturelle Entwicklung - Investitionstendenzen - Bruttosozialprodukt pro Kopf
Konjunkturelle Entwicklung -Auftragseingänge - Geschäftsklima Absatzmarkt - Auftragseingänge (Produkte/Regionen) - Nachfragevolumen wichtiger Kunden - Preis- und Programmpolitik der Konkurrenz
Arbeitsmarkt - Gewerkschaftsforderungen - Zahl der offenen Stellen
Beschaffungsmarkt - Volumen bekannter Rohstoffvorkommen - Durchschnittlicher Jahresverbrauch je Rohstoff - Preise/Konditionen der Lieferanten
- Informationen über mögliche Änderungen der Verfahrens- und Produkttechnologie bei Wettbewerbern/ Forschungsinstituten - Unterbrechung technologischer Trendlinien
UNTERNEHMEN
Kapitalmarkt - Inflationsraten - Zinsen - Wechselkurse
- Bevölkerungszahlen/-struktur - Information aus Ausschüssen, Ministerien - außen-/innenpolitische Ereignisse/ Tendenzen
Technologischer Bereich
Sozio-politischer Bereich
Unternehmensinterne Beobachtungsbereiche Unternehmen Produktprogramm:
Programmbreite im Vergleich zur Konkurrenz Anteil der Nachwuchs-, Star-, Cash- und Problemprodukte
Mitarbeiter:
Fluktuationsraten
Maschinelle Ausrüstung:
Altersstruktur/Technologiestand im Vergleich zur Konkurrenz
Krankenstände, Lohn-/Gehaltszuwächse im Konkurrenzvergleich
Ergebnis- und Finanzlage: Forschung und Entwicklung: - F&E-Kosten im Vergleich zur Konkurrenz - Patentanmeldungen - Patentverletzungen
x
Instandhaltungskosten Kalkulatorisches Ergebnis (Hochrechn.) - Bilanzielles Erg. (Hochrechn.) - Cash-flow (Hochrechn.) - Liquiditätsreserve (Hochrechn.)
Absatz:
Produktion und Beschaffung: - Ausstoß-Hochrechnungen - Beschaffungspreise im Vergleich zur Konkurrenz
- Umsatzhochrechn. - Nettopreise im Vergleich zur Konkurrenz - Konsumentenstimmungen
Verwaltung: - Verwaltungskosten im Vergleich zur Konkurrenz - DV-Kosten
Großprojekte: Verhältnis von Anfragen zu Aufträgen
Abb.l: Auftjaustufen/Funktionsweisen
eines indikatororientierten
Frühwarnsystems
285
Frühwarnsystem
Frühwarnsystem
1. Ermittlung von Beobachtungsbereichen zur Erkennung von Gefährdungen und Chancen unternehmensextem/-intern
2. Bestimmung von Indikatoren je Beobachtungsbereich
Auswahlkriterien: • Eindeutigkeit • Frühzeitigkeit • Vollständigkeit • rechtzeitige Verfügbarkeit • ökonomische Vertretbarkeit
Suche nach Indikatoren
Auswahl von Indikatoren erfolgt? ja
3. Festlegung von Soll-Werten und Toleranzgrenzen je Indikator Maßgrößen: z.B. $-Kurs, Auftragseingang, Umsatz i
ZI
kritischer Bereich Toleranzbereich kritischer Bereich
ToleranzgrenSoll-Wert
bV.
Toleranzgren-
4. Nominierung von Beobachtern - Beobachtung von Indikatoren - Weiterleitung von Frühaufklärungsmeldungen sofern außerhalb der definierten Grenzen
I 5. Festlegung von Aufgaben der Informationsverarbeitungsstelle(n) - Aufnahme und Überprüfung von Warnsignalen - Verarbeitungsprozesse und Weiterleitung von Frühwarninformationen
6. Ausgestaltung der Informationskanäle Strukturierung der Informationsbeziehungen zwischen - Umwelt, Unternehmung und FAS - den Elementen des FAS - dem FAS und seinen Benutzern
Abb. 2: Externe/interne
286
Beobachtungsbereiche
mit beispielhaften
Indikatoren
Frühwarnsystem
Frühwarnsystem Eine zentrale Rolle kommt dabei der Ortung und Erfassung Schwacher Signale zu, insbesondere dem sog. Scanning und Monitoring als Basisaktivitäten strategischer Frühwarnung/Früherkennung/Frühaufklärung. Scanning kann dabei als eine Suche im Sinne eines 360-Grad-Radars verstanden werden, über welches im Prinzip überall und zu jeder Zeit nach Schwachen Signalen gesucht wird. Monitoring dagegen
kennzeichnet eine auf der Ortung Schwacher Signale aufbauende, vertiefende, gerichtete und dauerhafte Beobachtung identifizierter Phänomene. Der Übergang zwischen Scanning und Monitoring ist dabei relativ fließend. Die Dokumentation Schwacher Signale dient ihrer Erfassung und liefert die Grundlage für die nachfolgenden Aktivitäten der Analyse erfasster Signale, ihrer Relevanzbeurteilung bis hin zur Formulierung von Reaktionsstrategien (strategische Frühaufklärung).
Prozess der strategischen Früherkennung (-aufklärung)
Ofl C 3
C C
JS :3
O c/l '5b u ö 55
C: ET £0 C
3 TO
Abb. 3: Prozess strategischer
Frühwarnung/Früherkennung
287
Führungsinstrumente
Friihwarnsystem 4. Die Integration von Ansätzen zur operativen und strategischen Frühwarnung/ Früherkennung scheint zunächst wegen der starken Unterschiedlichkeit beider Ansätze problematisch. Sie ist allerdings zu fördern und gestaltet sich einfacher als zunächst anzunehmen, da zwischen beiden Ansätzen (insbesondere zwischen Indikatoren und Schwachen Signalen) nur unscharfe Trennungslinien bestehen. Im Kern kann die operative Frühwarnung parallel zur strategischen Frühwarnung/ Früherkennung erfolgen und/oder die operative Frühwarnung kann die Funktion des Monitoring ausfüllen. In jedem Falle ist durch eine geeignete Integration von operativer und strategischer Frühwarnung/Früherkennung sicherzustellen, dass das Lernpotenzial aus beiden Ansätzen gesichert und kumuliert wird. Literatur: Hahn, D./Krystek, U.: Betriebliche und Uberbetriebliche Frühwarnsysteme für die Industrie, in: Z f b F 1979, S. 76 ff.; Krystek, U./MüllerStewens, G.: Frühaufklärung für Unternehmen. Identifikation und Handhabung zukünftiger Chancen u n d Bedrohungen, Stuttgart 1993; Krystek, U./Müller-Stewens, G.: Strategische Frühaufklärung als Element strategischer Führung, in: Hahn, D./Taylor, B. (Hrsg.): Strategische Unternehmungsplanung. Strategische Unternehmungsführung, 8. Aufl., Heidelberg 1999; Oehler, 0 . : Checklist Frühwarnsystem mit Alarmkennziffern, München 1980; Hammer, R.M.: Strategische Planung und Frühaufklärung. 2. Aufl., München, Wien 1998.
Ulrich Krystek Führungsinstrumente 1. Terminologische und systematische Grundlagen Bezüglich der Verwendung des Begriffs "Führungsinstrument" herrscht selbst im wissenschaftlichen Schrifttum ein heilloses Durcheinander. Es bereitet offenbar erhebliche Schwierigkeiten, die Termini Führungsinstrument, Führungsaufgabe, Führungsverhalten, Führungsstil, Führungstechnik, -> Führungsgrundsatz und Führungskonzeption in einer Weise voneinander abzugrenzen und zu ordnen, die 288
den Eindruck einer wechselseitigen Austauschbarkeit zu Gunsten der Vorstellung eines systematischen Zusammenhangs korrigiert. Führungsinstrumente i.e.S. sind Handlungen sowie Ergebnisse von Handlungen, die von Personen in Führungspositionen als prinzipiell geeignet angesehen werden, einen positiven Einfluss auf das Verhalten ihrer Mitarbeiter auszuüben. Sie dienen der Lösung von Führungsaufgaben (der Erfüllung von Führungsfunktionen, der Erreichung von Führungszielen), die sich in der Ausrichtung des Mitarbeiterverhaltens an den Organisationszielen und damit in der Herstellung und Sicherung der Wirksamkeit des Mitarbeiterverhaltens konkretisieren. Die tatsächliche Kombination (Auswahl und Einsatz) von Führungsinstrumenten durch einen Vorgesetzten charakterisiert dessen Führungsverhalten. Folgen die Auswahl und der Einsatz der Führungsinstrumente und damit das Führungsverhalten bestimmten Regeln oder Mustern, so spricht man - je nach Anspruch, Kohärenz und Spezifität - von Führungsstilen, Führungstechniken, Führungsgrundsätzen oder Führungskonzeptionen. Alle Führungsinstrumente aufzuzählen wäre ein kaum zu bewältigendes Unterfangen. Mit mehr Aussicht auf Erfolg kann man versuchen, Klassen von Führungsinstrumenten zu bilden und exemplarisch auszufüllen. Dabei ist weniger an Einteilungen zu denken, wie die in "harte" und "weiche" Führungsinstrumente oder in "klassische" und "moderne" Führungsinstrumente, die häufig rein deklamatorische Bedeutung haben, sondern eher an solche, die sich an den "Phasen" der Personalverhaltensbeeinflussung orientieren, und daran, ob die dort jeweils einzuordnenden Instrumente zur Behandlung von Einzelfällen (dispositive Instrumente) oder zur Lösung einer Klasse thematisch verwandter Probleme (strukturelle Instrumente) herangezogen werden sollen. Im einzelnen unterscheiden wir:
Führungsinstrumente Instrumente der Verhaltenslenkung Verhaltenssteuerung): •
•
•
•
Verhaltensbeurteilung:
Strukturelle Führungsinstrumente: z.B. Personalbeurteilungskonzepte (incl. Vorgaben für die Ermittlung und Analyse von Soll-Ist-Abweichungen). Dispositive Führungsinstrumente: z.B. Anwendung der Personalbeurteilungskonzepte, d.h. Durchführung von SollIst-Vergleichen und Abweichungsanalysen mit anschließenden Beurteilungs- und Fördergesprächen im Einzelfall; Kontrollen außerhalb institutionalisierter Beurteilungskonzepte.
Instrumente der •
(bzw.
Strukturelle Führungsinstrumente: z.B. Arbeitsstrukturen (incl. der darauf bezogenen Organigramme, Stellenbeschreibungen, Inhalts-, Ergebnis- und Verfahrensnormen, Symbole, Ressourcen, Budgets usw.); Dispositive Führungsinstrumente: z.B. Ad-hoc-(An-)Weisungen; temporäre Bereitstellung von zusätzlichen Ressourcen, Vermittlung von Kontrollund Anreizperspektiven (Ankündigung, Androhung) im Einzelfall.
Instrumente der •
Führungsinstrumente
Verhaltensabgeltung:
Strukturelle Führungsinstrumente: z.B. Anreizsysteme (u.a. Entlohnungssysteme, Beteiligungssysteme, Sozialleistungssysteme, Systeme von Betriebsbußen). Dispositive Führungsinstrumente: z.B. Anwendung der Anreizsysteme, d.h. Gewährung von Gratifikationen und Verhängung von Sanktionen im Einzelfall; Belohnungen (z.B. Anerkennung) und Bestrafungen (z.B. Kritik) außerhalb institutionalistierter Anreizsysteme.
Die Führungsinstrumente können weiter ausdifferenziert werden; damit entstehen Hierarchien von Führungsinstrumenten. 2. Handlungstheoretische Bezüge In entscheidungsorientierter Sicht spielen Führungsinstrumente eine Doppelrolle.
Unter Berücksichtigung des Einflusses jeweils geltender Bedingungen sind sie •
•
(potenzielle) Mittel zur Erreichung von Führungszielen (Ziel-MittelZusammenhang) und (potenzielle) Ursachen für das Eintreten von (Führungs-)Wirkungen (Ursache-Wirkungs-Zusammenhang).
Der entscheidende Unterschied zwischen beiden Zusammenhängen besteht darin, dass Ziel-Mittel-Zusammenhänge (erst) durch Wahlakte begründet werden (Selektivität), während Ursache-WirkungsZusammenhänge empirische Gesetzmäßigkeiten widerspiegeln (Kausalität). Führungsinstrumente Zusammenhang
im
Ziel-Mittel-
Ausgangspunkt der Überlegungen zum Ziel-Mittel-Zusammenhang sind die zu erreichenden Führungsziele. Sie leiten zu der Frage über, welche Führungsinstrumente prinzipiell zu ihrer Erreichung eingesetzt werden können. In aller Regel kommen mehrere Instrumente in Betracht, die alternativ oder kombinativ verwendet werden können. Beispiel: Eine Steigerung der Arbeitsproduktivität kann durch genauere Informationen über das erwartete Arbeitsergebnis, durch zusätzliche Qualifizierung, durch bessere Ressourcenausstattung, durch strengere Kontrollen oder durch stärkere Anreize erzielt werden (vgl. in diesem Zusammenhang auch die in der Informationsökonomie thematisierte Moral-Hazard-Problematik, Informationsasymmetrie). In einem weiteren Schritt zur endgültigen Festlegung eines Ziel-Mittel-Zusammenhangs ist nach solchen Bedingungen zu fragen, die den Entscheidungsspielraum (z.B. finanzielle, organisatorische, personalpolitische, rechtliche Restriktionen) und die Entscheidungsprozedur (z.B. Beteiligung der Mitarbeiter oder ihrer Interessenvertretung an der Entscheidungsfindung) betreffen. Im Zuge dieser Vorklärungen kann es zur Reformulierung der ursprünglichen Ziele kommen. 289
Führungskräfteentlohnung
Führungsinstrumente Führungsinstrumente Wirkungs-Zusammenhang
im
Ursache-
Führungsinstrumente bilden zusammen mit den ex ante meist unsicheren Bedingungen, die ihre Anwendung begleiten und häufig als Moderatorvariablen bezeichnet werden, einen Ursachenkomplex für das Eintreten bestimmter Wirkungen. Bezüglich der Wirkungen von Führungsinstrumenten ist zwischen unternehmensseitig beabsichtigten und unbeabsichtigten zu unterscheiden. Die beabsichtigten Wirkungen stehen in direktem Zusammenhang mit den verfolgten Zielen (zu bewirkende Wirkungen). Dies trifft auf unbeabsichtigte (Neben-) Wirkungen nicht zu; sie werden mitgenommen, so sie positiv bewertet werden, und hingenommen, so sie negativ beurteilt werden. Beispiel: Im Zuge strengerer Kontrollen eintretende Steigerungen der Arbeitsproduktivität entsprechen der Zielsetzung und sind folglich beabsichtigte Wirkungen. Eine unbeabsichtigte, gleichwohl positiv beurteilte Nebenwirkung kann die durch die gleichmäßigere Verteilung der Arbeitsbelastung auf die betroffenen Mitarbeiter hervorgerufene Verbesserung des Arbeitsklimas sein. Führen strengere Kontrollen dagegen zu größerer Unzufriedenheit, zu höheren Fehlzeiten und schließlich zu stärkerer Fluktuation der Mitarbeiter, dann sind darin negativ beurteilte Nebenwirkungen des Führungsinstruments zu sehen. Wer das Eintreten unerwünschter Wirkungen vermeiden will, muss andere Instrumente wählen oder die Bedingungen ändern. Auswahl der
Führungsinstrumente
Die Auswahl unter den Führungsinstrumenten, die in einer konkreten Entscheidungssituation als prinzipiell tauglich, zulässig und verfügbar gelten, erfolgt implizit oder explizit unter zwei Gesichtspunkten (Entscheidungskriterien): dem der sozialen Vertretbarkeit (abhängig vom soziokulturellen Kontext) und dem der ökonomischen Vernünftigkeit (abhängig von den Kosten und dem Nutzen). 290
Diese Legitimationsgrundlagen für Führungshandeln stehen im ungünstigen Fall in einem konfliktären, im günstigen Fall in einem komplementären Verhältnis zueinander. Beispiel: Extreme Formen persönlicher Kontrolle können ökonomisch vernünftig, jedoch sozial unvertretbar sein; die Einführung eines JobEnrichment-Programms (-»Job-Enrichment) kann ökonomisch vernünftig und sozial vertretbar (ja erwünscht) sein. Solchen Mehrfachzielsetzungen kann im Fall der Auswahl von Führungsinstrumenten über formale Kalküle durch die Formulierung übergeordneter Nutzenfunktionen oder über das Restriktionensystem Rechnung getragen werden. Literatur: Drumm, Hans-Jürgen: Personalwirtschaftslehre, 3. Aufl., Berlin u.a. 1995; Kossbiel, Hugo: Personalwirtschaft, in Bea, F.X./Dichtl, E./Schweitzer, M.: Allgemeine Betriebswirtschaftslehre, Bd. 3: Leistungsprozeß, 6. Aufl., Stuttgart/Jena 1994, S. 395^179; Spengler, Thomas: Grundlagen und Ansätze d e r strategischen Personalplanung mit vagen Informationen, München, Mering 1999; Steinle, C.: Führung: Grundlagen, Prozesse und Modelle der Führung in der Unternehmung, Stuttgart 1978; Kieser, A./Reber, G./Wunderer, R. (Hrsg.): Handwörterbuch der Führung, 2. Aufl., Stuttgart 1995 (mehrere Artikel zum Thema "Führungsinstrumente")
Hugo Kossbiel Führungskräfteentlohnung Die Führungskräfteentlohnung besteht üblicherweise aus fixen und variablen Bestandteilen. Die variablen Bestanteile richten sich i.d.R. nach dem individuellen, bereichsbezogenen oder unternehmensbezogenen Erfolg. Mit der variablen Entlohnung wird das Ziel verfolgt, der Führungskraft einen Anreiz zur Steigerung des Unternehmenserfolges zu geben. Als theoretische Grundlage zur Analyse der Führungskräfteentlohnung wird in der betriebswirtschaftlichen Literatur überwiegend die sehr formal ausgerichtete Prinzipal-Agenten-Theorie (-»AgencyTheorie) herangezogen. Diese unterstellt einen Interessenkonflikt zwischen Führungskräften und Eigentümern, der sich durch unterschiedliche persönliche Ziel-
Führungskräfteentlohnung Setzungen ergibt. Ausgehend von dieser Situation wird ein Entlohnungsvertrag gesucht, der hilft, den Interessenkonflikt zu entschärfen. Als normative Implikation der Prinzipal-Agenten-Theorie ergibt sich, dass eine erfolgsabhängige Vergütung bezahlt werden sollte. Bei der praktischen Umsetzung dieser Empfehlung treten allerdings eine Reihe von gravierenden Problemen auf. So können die in der Theorie als bekannt angenommenen Parameter in der Praxis nicht bestimmt werden, wodurch die Ermittlung eines optimalen Entlohnungsvertrages faktisch nicht möglich ist. Daneben treten weitere Umsetzungsprobleme der theoretischen Empfehlung dadurch auf, dass das "richtige" Erfolgsmaß, an das die Entlohnung gekoppelt werden sollte, in der Praxis häufig nicht so einfach bestimmt werden kann. Wichtige Gestaltungsparameter der Führungskräfteentlohnung umfassen : a) die absolute Höhe der Entlohnung, b) den maximalen Anteil der variablen Entlohnung an der Gesamtentlohnung, c) die Stärke des Zusammenhanges zwischen der Variation der Bemessungsgrundlage und der Variation der Entlohnung (sog. Anreizintensität) und d) die Art der Bemessungsgrundlage, an der sich die variable Entlohnung orientiert. a) Die absolute Höhe der Führungskräfteentlohnung hat einen maßgeblichen Einfluss auf die Attraktivität des Unternehmens als Arbeitgeber für Führungskräfte. Ein dauerhaftes Unterschreiten des marktüblichen Entlohnungsniveaus seitens des Unternehmens kann mittel- bis langfristig zu Problemen bei der Bindung und Rekrutierung besonders fähiger Führungskräfte führen. Daher wird bei der Bestimmung der Zielentlohnung für ein vorgegebenes Leistungs- bzw. Erfolgsniveau häufig auf Entlohnungsstudien zurückgegriffen, die überwie-
Führungskräfteentlohnung gend von Verbänden und Beratungsgesellschaften angeboten werden. b) Der maximale Anteil der variablen Vergütung an der Gesamtentlohnung spiegelt die relative Bedeutung der variablen Entlohnung für die Führungskraft. Empirisch lässt sich beobachten, dass der Anteil der variablen Entlohnungskomponenten mit der Hierarchiestufe steigt, jedoch selten mehr als 50% der Gesamtvergütung ausmacht. Im Zeitablauf lässt sich über die vergangenen Jahrzehnte allerdings eine deutliche Zunahme des Anteils der variablen Entlohnung feststellen. Durch den Anteil der variablen Entlohnung wird das individuelle Chancen/Risikenprofil der Führungskraft festgelegt. Hierbei muss ein Ausgleich zwischen der Anreizwirkung (tendenziell hoher variabler Anteil) und dem damit verbundenen persönlichen Risiko (tendenziell niedriger variabler Anteil) gefunden werden. Hierzu muss allerdings festgestellt werden, dass es derzeit keine theoretisch oder empirisch vernünftig begründeten Aussagen zum optimalen Variabilitätsgrad der Entlohnung gibt. Eng verbunden mit der Frage nach dem Variabilitätsgrad ist die Frage nach der Intensität, mit der sich eine Veränderung der Bemessungsgrundlage auf die Höhe der variablen Entlohnung auswirkt. Je höher diese Intensität ausfällt, desto höher ist der Anreiz der Führungskraft, die Bemessungsgrundlage zu steigern. Während man also bei geringer Variabilität und geringer Intensität nur geringe Anreizwirkungen in Bezug auf eine Erhöhung der Bemessungsgrundlage erwarten kann, dürfte von einer hohen Variabilität und Intensität auch eine hohe Anreizwirkung ausgehen. c) Die Bemessungsgrundlage legt fest, woran die Leistung bzw. der Erfolg einer Führungskraft gemessen wird und determiniert damit die Höhe der 291
Führungskräfteentlohnung variablen Entlohnung. In der Praxis findet sich eine Vielzahl von unterschiedlichen Bemessungsgrundlagen, die nach verschiedenen Kriterien systematisiert werden können. In einem ersten groben Schritt lassen sich inputund ergebnisabhängige Bemessungsgrundlagen unterscheiden. Die inputorientierten Bemessungsgrundlagen bewerten den Einsatz, den die Führungskraft in den Leistungserstellungsprozess einbringt. Neben der Arbeitszeit kommen hier vor allem Persönlichkeitseigenschaften und Verhaltensindikatoren wie Führungsstil, Kollegialität, Pünktlichkeit usw. in Betracht. Allen inputorientierten Bemessungsgrundlagen haften aber erhebliche Probleme an, die Zweifel an deren Brauchbarkeit für die Gestaltung der Führungskräfteentlohnung aufkommen lassen. Aufgrund des nicht nachweisbaren Kausalzusammenhanges zwischen diesen Inputgrößen und dem Erfolg des Unternehmens bzw. Bereiches ist eine Fehlsteuerung anhand inputorientierter Bemessungsgrundlagen kaum zu verhindern. Daneben ist die Bewertung von Persönlichkeitseigenschaften oder Verhalten hochgradig subjektiv und damit anfällig gegen Willkürakte des jeweiligen Bewerters. Bei den ergebnisabhängigen Bemessungsgrundlagen kann prinzipiell danach unterschieden werden, anhand welcher Daten Ergebnisse bewertet werden. In der Praxis finden überwiegend folgende ergebnisorientierte Bemessungsgrundlagen Verwendung: - Rechnungswesenorientierte Kennzahlen. Es werden entweder Kennzahlen als Bemessungsgrundlagen benutzt, die vom Rechnungswesen ohnehin bereit gestellt werden, oder es werden eigene Kennzahlen berechnet. Typisch ist die Verwendung von Jahresgewinn, -> Betriebsergebnis, Cash-flow oder auch Rentabilitätskennzahlen wie 292
Führungskräfteentlohnung Eigen- oder Gesamtkapitalrentabilität. Als großes Manko dieser Kennzahlen wird gesehen, dass das Rechnungswesen lediglich vergangenheitsorientiert aufgebaut ist. Bei Unterstellung eines kurzen persönlichen Planungshorizontes der Führungskraft ergeben sich bei Verwendung rechnungswesenorientierter Keimzahlen Anreize, die Kennzahlen kurzfristig zu maximieren oder zu manipulieren, auch wenn dies langfristig nicht im Sinne des Unternehmens bzw. der Eigentümer ist. So kann der ausgewiesene Gewinn gesteigert werden, wenn kurzfristig nicht aktivierbare Investitionen z.B. in Forschung und Entwicklung oder in die Weiterbildung der Mitarbeiter reduziert werden. Ferner sind Gewinnsteigerungen auch durch die Änderung von Bewertungsmethoden oder Abschreibungsverfahren möglich. Schließlich vernachlässigen Gewinn und Betriebsergebnis die Rentabilität und das Risiko, mit denen sie erwirtschaftet wurden. Ähnliche Aussagen lassen sich auch für Rentabilitätskennzahlen treffen, die ebenfalls durch die kurzfristige Maximierung des ausgewiesenen Gewinns erhöht werden können. Unter dem Stichwort -> "Management Accounting" sind Anpassungen der herkömmlichen Kennzahlen diskutiert worden, mit denen unerwünschte Verhaltensanreize herkömmlicher Kennzahlen eingedämmt werden können, bspw. die Korrektur des Gewinns in der Art, dass nichtaktivierbare Aufwendungen für F&E oder Weiterbildung bei der Berechnung des korrigierten Gewinns nun doch aktiviert und über einen längeren Zeitraum abgeschrieben werden. Dadurch, so die Idee, kann der kurzfristige Anreiz zur Reduktion dieser Aufwendungen reduziert werden.
Führungskräfteentlohnung -
-
Shareholder-Value-Kennzahlen. Aufbauend auf der Kritik an den herkömmlichen Kennzahlen des Rechnungswesens sind alternative Kennzahlen vorgeschlagen worden, die sich auf den -> ShareholderValue-Ansatz berufen. Dieser formuliert zunächst eine eindeutige Zielfunktion, nämlich die Maximierung des Vermögens der Unternehmenseigentümer bzw. Investoren. Um dieses Ziel zu erreichen, soll die Führungskräfteentlohnung direkt an die Steigerung des Eigentümervermögens gekoppelt werden. Zur Messung der Steigerung des Eigentümervermögens sind für die Praxis eine Reihe verschiedener Kennzahlen entwickelt worden. Diese sind dabei entweder einperiodig und gegenwartsbezogen (z.B. -> Economic Value Added, EVA) oder mehrperiodigzukunftsbezogen (z.B. -» Discounted Cash flow, DCF). Neben der geringeren Vergangenheitsbezogenheit der Shareholder-ValueKennzahlen unterscheiden sich diese von den herkömmlichen Kennzahlen vor allem auch dadurch, dass sie über die adäquate Wahl des Diskontierungszinssatzes die risikoangepassten ->Opportunitätskosten der Investoren explizit bei der Erfolgsbeurteilung berücksichtigen können. Allerdings werden die Vorteile gegenüber den herkömmlichen Kennzahlen teilweise mit neuen Problemen erkauft. So müssen bspw. zur Berechnung des DCF die zukünftigen Cash-flows prognostiziert werden, was üblicherweise mit erheblichen Unsicherheiten behaftet sein wird. Marktwert. Für börsennotierte Unternehmen kann der Unternehmenswert und damit das Eigentümervermögen direkt an den Aktienkursen festgemacht werden. Unter Annahme informationseffizien-
Führungskräfteentlohnung ter Kapitalmärkte kann im Marktwert des Eigenkapitals die bestmögliche Schätzung des Barwertes aller zukünftigen Zahlungsströme an die Aktionäre gesehen werden. In diesem Sinn zeigt eine Veränderung des Marktwertes des Eigenkapitals unmittelbar eine Veränderung der Vermögensposition der Aktionäre an. Um den Führungskräften einen Anreiz zur Steigerung des Aktionärsvermögens zu geben, kann die Entlohnung somit direkt an die Entwicklung des Marktwertes gekoppelt werden. Da im Marktwert sowohl die zeitliche Verteilung zukünftiger Zahlungsströme als auch das Investitionsrisiko der Aktionäre zum Ausdruck kommt und eine Marktwertorientierung keine Anreize zu kurzfristigem Verhalten setzt, wird der Marktwert als Bemessungsgrundlage überwiegend positiv beurteilt. In der Praxis findet sich die Verwendung von Marktwerten als Bemessungsgrundlage der Führungskräfiteentlohnung häufig in Form von -> Optionsplänen (Aktienoptionspläne). d) Erfolgsfaktoren und Persönliche Arbeitsziele. Schließlich besteht noch die Möglichkeit, sog. Erfolgsfaktoren oder persönliche Arbeitsziele als Bemessungsgrundlage heranzuziehen. Hierfür kommen Maße wie Innovationsraten, Umsatzanteil junger Produkte, Wiederkaufraten, Markenbekanntheit usw. in Frage, meist ergänzt um zeitliche Vorgaben. Vorteilhaft wirkt sich hier aus, dass die Zielvorgaben sehr spezifisch auf jede einzelne Führungskraft zugeschnitten werden können. Empirisch zeigt sich jedoch das Problem, dass immer dort, wo der Zielerreichungsgrad zur Grundlage der Entlohnung gemacht wird, ein erheblicher Anreiz für die Führungskräfte besteht, möglichst geringe Zielvorgaben durchzusetzen. Dies kann den Zielver293
Führungskräfteentwicklung
Führungskräfteentlohnung einbarungsprozess derart erschweren, dass keine brauchbaren Ziele mehr vereinbart werden können. Schließlich besteht das Problem, dass häufig nicht bekannt ist, welcher Zusammenhang zwischen Zielerreichungsgrad und Unternehmenserfolg tatsächlich besteht, was die Gefahr einer Fehlsteuerung impliziert. Bis heute existieren keine gesicherten empirischen Belege dafür, dass mit einer bestimmten Gestaltung der Führungskräfteentlohung der Unternehmenserfolg nachhaltig gesteigert werden kann. Stefan Winter Führungskräfteentwicklung Die Führungskräfteentwicklung oder auch Management Development wird in Deutschland verstärkt seit den 80-er Jahren diskutiert. Dies liegt zum einen an den immer komplexer werdenden Führungsaufgaben und den damit verbundenen neuen Anforderungen, die sich an die Leitenden stellen. Zum anderen hat die Bedeutung der Human Resources als wichtiger Erfolgsfaktor im Unternehmen in den letzten Jahren zugenommen, denn speziell Führungskräfte spielen eine entscheidende Rolle bei der langfristigen Sicherung der Wettbewerbsfähigkeit und der Erreichung der Unternehmensziele. Insbesondere im momentan diskutierten Konzept der lernenden Organisation ist eine systematische Entwicklung von Führungskräften unabdingbar, um die zahlreichen Veränderungsprozesse im Unternehmen engagiert und kompetent zu unterstützen. Die Führungskräfteentwicklung als kontinuierlich durchgeführtes, langfristig orientiertes Konzept dient zur gezielten Entdeckung, Förderung und Platzierung von Führungskräften. Sie ist ein auf eine spezielle Mitarbeitergruppe ausgerichteter Teil der Personalentwicklung und gehört zu den zentralen Aufgaben eines -> Personalmanagements, da auf eine interne Entwicklung und Rekrutierung von Füh294
rungskräften und -nachwuchs nicht verzichtet werden kann. Zwei Zielkategorien müssen dabei betrachtet werden, die Ziele des Unternehmens wie auch die der Führungskräfte, z.B. nach Selbstverwirklichung oder Persönlichkeitsentwicklung. Das Hauptziel des Unternehmens ist die heutige und zukünftige Deckung des quantitativen und qualitativen Bedarfs an qualifizierten Führungskräften auf allen Ebenen mit einer Reihe von unternehmensindividuellen Unterzielen wie Marketingfunktion, Motivationsfunktion und auch eine Verbesserung der Führung und des Leistungsverhaltens der Führungskräfte. Eine völlige Deckung beider Zielkategorien ist als kaum realisierbar anzusehen. Es ist jedoch wichtig, der Führungskraft die Möglichkeit zu geben, an der Gestaltung ihrer Aufgaben sowie an den Überlegungen zu ihrer Entwicklung und Karriereplanung mitzuwirken, um zu gewährleisten, dass Entwicklungsmaßnahmen zum Erfolg führen. Zielbereiche und Methoden Es stellt sich einerseits die Frage nach den Kompetenzen, die erweitert und verbessert werden können, und zum anderen nach den Methoden dafür. In der Literatur werden folgende Kompetenzarten unterschieden: • • • •
Fachkompetenz Methodenkompetenz Sozialkompetenz Persönlichkeitskompetenz.
In der Vergangenheit war eine -» Personalentwicklung vor allem auf die Fachkompetenz ausgerichtet, die heutigen Führungsaufgaben verlangen aber immer stärker die Fähigkeit, effektiv mit anderen Menschen und sich selbst umgehen zu können; deshalb rückt die Verbesserung der Sozial- und Persönlichkeitskompetenz stärker in den Mittelpunkt. Zur Schulung der einzelnen Schlüsselqualifikationen existiert eine Vielzahl von
Führungskräfteentwicklung Methoden; es bieten sich dabei zur Systematisierung von Personalentwicklungsmaßnahmen grundsätzlich folgende Konzepte an: Into-the-job-Methoden, im Rahmen der Führungskräfteentwicklung beispielsweise ein Trainee-Programm für Nachwuchskräfte. Weiterhin lassen sich Off-the-job-Methoden identifizieren, diese werden in passive und aktive eingeteilt. In passiven Maßnahmen wie Vorträgen, Seminaren und Lehrgängen fehlt die Möglichkeit, das Erlernte einzuüben. Deshalb sind die aktiven Methoden vor allem zur Schulung von Sozial- und Methodenkompetenz vorzuziehen. Beispiele hierfür sind Planspiele, Fallstudien, Rollenspiele, gruppendynamische Methoden und Lernkonferenzen. Deren Durchfuhrung kann sowohl unternehmensintern wie auch von externen Anbietern erfolgen, wichtig jedoch ist, den Transfer des Gelernten auf die Arbeitssituation der Führungskraft zu gewährleisten. Dies ist bei on-the-job und damit eng verknüpft auch near-the-job Maßnahmen besser sichergestellt. Dabei ist -» Job Rotation vor allem bei der Ausbildung des Führungsnachwuchses von besonderer Bedeutung, da ein Arbeitsplatzwechsel den Einblick in unternehmerische Zusammenhänge fördern kann. Aber auch Methoden wie -> Job Enlargement, Projektarbeit (-> Projektmanagement) und ein Einsatz als Assistent werden häufig in der stellengebundenen Führungskräfteentwicklung angewandt. Das Führungskräfteentwicklungssystem: Häufig wurden in der Vergangenheit die beschriebenen Methoden nach dem Gießkannenprinzip auf alle Führungskräfte angewandt. Aber nur wenn Methoden und Konzepte in ein Führungskräfteentwicklungssystem eingebunden werden, kann eine für das Unternehmen zielgerichtete Führungskräfteentwicklung erfolgen. Die Schwierigkeit liegt dabei sowohl in der
Führungskräfteentwicklung Auswahl der am besten geeigneten Methode wie auch in der Identifikation der geeigneten Personen, hier können beispielsweise Assessment Center eine Hilfestellung geben. Beim Aufbau eines Führungskräfteentwicklungssystems sollte nach drei Entscheidungsebenen unterschieden werden: • • •
Ebene der Personalentwicklungsstrategie (= strategische Ebene), Personalentwicklungsprogramme (= taktische Ebene) und konkrete Umsetzung (= operative Ebene).
Außerdem darf dieses System nicht isoliert gesehen, sondern muss mit anderen Personalfunktionen verknüpft werden. Denn zur Bestimmung des notwendigen Entwicklungsbedarfs ist auch eine quantitative und qualitative Personalbedarfsplanung und eine Kenntnis der im Unternehmen vorhandenen und gewünschten Potenziale notwendig. Darauf aufbauend bietet sich eine systematische Karriereplanung einzelner ausgewählter Führungskräfte mit Hilfe von Karrieregesprächen an. Neben der klassischen Führungskarriere stellen heute auch Fachund Projektlaufbahnen eine wichtige Karrieremöglichkeit dar. Der Aufbau eines derartigen Systems ist mit einem hohen Aufwand verbunden. Auf lange Sicht sollte der Nutzen aber den damit verbundenen Aufwand, v.a. in Form von Kosten, übersteigen. Hierzu ist es notwendig, ein Bildungscontrolling zu integrieren, das die Effektivität und die Effizienz des Systems vorausschauend steuert und evaluiert. Unterstützend wirkt hierbei die Nutzung eines Personalinformationssystems zur Verarbeitung und Speicherung der großen Datenmengen. Dennoch muss die Flexibilität eines derartigen Systems gewährleistet sein, denn die Anforderungen an Führungskräfte unterliegen einem ständigen Wandel. En twickl ungstendenzen Das Führungskräfteentwicklungssystem ist demnach kein statisches Gebilde, son295
Führungskräfteentwicklung dem muss den Gegebenheiten angepasst werden. Ein Beispiel ist die zunehmende Internationalisierung, die zu teilweise völlig neuen Anforderungen an die Führungskräfte, wie Sprachen und die Fähigkeit mit anderen Kulturen umgehen zu können, führt. Aber auch die Methoden der Führungskräfteentwicklung werden durch die Möglichkeit des Einsatzes von multimedialer Instrumente einem Wandel unterzogen. Eine weitere Tendenz ist das steigende Interesse der Mitarbeiter an der eigenen Weiterentwicklung und der Bereitschaft, selbst etwas dazu beizutragen. Das Selbstlemkonzept mit einer Selbsttrainingsbedarfanalyse gewinnt zunehmend an Bedeutung. Diesen Entwicklungen sollte im Rahmen eines modernen und zukunftsorientierten Führungskräfteentwicklungssystems Rechnung getragen werden. Literatur: Dahlems, R.: Handbuch des Führungskräfte-Managements, München 1994; von Rosenstiel, L u.a.: Perspektiven der Karriere, Stuttgart 1997.
Karl-Friedrich Ackermann Führungsqualität Führung dient dazu, die wirtschaftliche und soziale Effizienz des betrieblichen Leistungsprozesses zu gewährleisten. Unterschiede in der Führungsqualität bedingen Erfolgsdifferenzen. Die Gestaltung der Einflussfaktoren der Führungsqualität trägt mittelbar zur Erfolgssicherung bei. I. Grundlagen Führung ist zielorientierte Gestaltung. Als Managementfunktion bezieht sie sich auf Personen (Personalführung, Mitarbeiterführung) und Unternehmungen bzw. Betriebe (Unternehmungsführung, Betriebsfuhrung). Betriebliche Arbeitsteilung und die Regulation von Herrschaftsinteressen machen Führung notwendig. Unternehmungen und Betriebe erstellen und verwerten ihre Leistungen aus wirtschaftlichen und technologischen Gründen arbeitsteilig. Diese Zergliederung erfordert Integration und Koordination. Planung, 296
Führungsqualität Organisation, Durchsetzung und Kontrolle des Betriebsgeschehens sind notwendig, um das sozio-technische System Unternehmung auf Ziele auszurichten und zu steuern (Bisani 1995). Die Führungskräfte bringen hierzu Überblick, Übersicht und ganzheitliche Sichtweisen ein. Führung ist auch ein zielgerichteter Prozess sozialer Einflussnahme. Das wirtschaftliche Oberziel der Unternehmung muss mit den Interessenlagen, Erwartungen und Bedürfnissen der Mitglieder und Teilnehmer der Unternehmung zum Ausgleich gebracht werden, um die Unternehmung als Ganzes funktions- und leistungsfähig zu halten (Fontin 1997). Dies leistet Führung als sozialer, interpersonaler und organisationspolitischer Prozess. Sie ist dann interpersonell, beabsichtigt, informierend, motivierend, mit direktem Führer-Geführten-Bezug, wobei Führer und Geführte über unterschiedliche Machtgrundlagen verfugen (Neuberger 1990). Konflikte müssen gehandhabt werden, und Arbeitsbeziehungen sind zu pflegen: Beide sind wichtige Einflüsse des konkreten Führungsgeschehens und wirken auf den Führungserfolg (Schirmer 1992). Die betriebliche Wertschöpfung muss gestaltet und geleitet werden, Löhne, Gehälter und Gewinneinkommen sind festzulegen (Staehle 1992). Das Arbeitsund Leistungsverhalten und die Mitwirkungsbereitschaft der Mitarbeiter ist zu sichern und zu kontrollieren (Brünnecke 1998), wobei die Handlungsspielräume durch die Mitbestimmung beeinflusst und begrenzt werden (Drumm 1995). Führung ist Leistungsaufgabe im Sinne der Unternehmungszielsetzung, sie ist Leitungsaufgabe im Sinne der Koordination und Steuerung des Betriebsgeschehens, und sie ist Legitimationsaufgabe, indem sie Konflikte kanalisiert und reguliert sowie unterschiedliche Interessen ausgleicht. Sach- und personenbezogene Führungsaufgaben werden arbeitsteilig durchgeführt, Abstimmung und Verzahnung sind notwendig. Dem dient die Führungs- bzw. Leitungsorganisation. Sie umfasst in
Führungsqualität
Führungsqualität mittleren, größeren und großen Unternehmungen mehrere Personen (Führungskräfte, Führungspersonal) und Managementaufgaben unterschiedlicher geschäftspolitischer Bedeutung. Das oberste Management formuliert die unternehmungspolitischen Ziele und Grundsätze und trifft die strategischen Entscheidungen, das mittlere Management hat die Aufgabe, diese grundlegenden Entscheidungen in Programme, Regeln und konkrete Vorgaben zu übersetzen sowie die Einhaltung und Ausfuhrung zu überwachen und zu sanktionieren. Das untere Management ist die Verbindung zur Ausführungsebene und den damit beauftragten Mitarbeitern. Die Führungsebenen unterscheiden sich in den Aufgabenstellungen, ihren Handlungsspielräumen und im Verantwortungsumfang. In einem umfassenden Sinn ist Führung (Führungsaufgaben und Organisation des Führungsprozesses, Führungskräfte und ihre Persönlichkeitseigenschaften, ihre Arbeits- und Verhaltensweisen und die zur sach- bzw. personenbezogenen Führung eingesetzten Instrumente) ein zentraler Einflussfaktor der betrieblichen und unternehmerischen Effektivität und Effizienz. Sie beeinflusst wesentlich die Gesamtleistungsfahigkeit der Unternehmung. Aus Managementsicht ist es daher sinnvoll, ihre Leistungseigenschaften und Qualität zu bestimmen, sie zu verbessern und zu erhöhen. 2 Führungsqualität Der Begriff Führungsqualität hat zwei unterschiedliche Bedeutungen. Zum einen dient Führung als Instrument dazu, um Leistungsunterschiede von Unternehmungen bzw. von Betrieben herzustellen (oder zu erklären). Führung ist dann das Managementinstrument, mittels dessen sich Unterschiede in der wirtschaftlichen und sozialen Effizienz erzeugen (bzw. erklären) lassen. Führungsqualität führt zu Führungserfolg, und unterschiedliche Führungsqualitäten bedingen Erfolgsdifferenzen. Hierzu gehört es
auch, Führung als Mittel der Qualitätssicherung des betrieblichen Leistungsprozesses zu sehen. Zum zweiten geht es um die Frage, wie z.B. Führungsstrukturen, Verhaltensweisen der Führungskräfte oder —> Führungsinstrumente verbessert werden können, damit Führungsqualität entstehen kann. Hier geht es um die Suche nach Einflussfaktoren auf Führungsqualität. Indem man Führungsqualität bewusst gestaltet, wird sie verändert, und dies trägt mittelbar zum Unternehmungserfolg bei. Beide Betrachtungsweisen von Führungsqualität stehen daher in einem Zweck-Mittel-Verhältnis. Führung dient der Zielerreichung, sie hat Mittelcharakter. Folgende miteinander verzahnte Teilbereiche machen Führung in ihrer Gesamtheit aus: • • •
•
•
die Führungsaufgaben (Führungsfunktionen), die Organisation des Führungsprozesses (Führungsorganisation), die Führungskräfte und ihre Persönlichkeitseigenschaften (Führungspersonal), die Arbeits- und Verhaltensweisen der Führungskräfte (Führungsverhaltensweisen) sowie die zur Führung eingesetzten Instrumente (Führungsinstrumente).
Diese Teilbereiche sind als Wirkfaktoren auf die betriebliche Leistungsfähigkeit zu verstehen, sie entfalten sich im Führungsprozess unter den spezifischen betrieblichen Bedingungen und im Hinblick auf die konkret geführten Mitarbeiter mit ihren Persönlichkeits- und Leistungseigenschaften. Da die genannten Teilbereiche gestaltbar sind, können sie auch Gegenstand von Veränderungsentscheidungen (z.B. Organisations- und Personalentwicklung) sein. Werden die Wirkfaktoren im Hinblick auf ihre Zielerreichung beurteilt, so handelt es sich um zweckorientierte Einschätzungen. Anteilseigner, Führungskräfte, Mitarbei297
Führungsqualität ter, Kunden oder Konkurrenten einer Unternehmung haben zumindest teilweise unterschiedliche Bewertungsstandards, ihre Urteile können variieren und unterschiedliche Bewertungen entstehen. Führungsqualität ist insoweit eine relative Größe. Darüber hinaus kann Führungsqualität auch als persönlicher Erfolg interpretiert werden. Dies trifft dann zu, wenn Manager bei der Verfolgung individueller Ziele erfolgreich sind (z.B. bei der eigenen Gehaltsentwicklung oder ihrer Karriere). Führungsqualität kann auch eine subjektiv zugeschriebene Leistungseigenschaft sein, die nicht immer dem tatsächlichen Erfolg entspricht (Hansen 1994). Ein generell gültiger Maßstab für Führungsqualität lässt sich daher nicht entwickeln. Unternehmungen dienen der Gewinnerzielung, dazu stellen sie Sach- und Dienstleistungen her und vermarkten sie. Führungsqualität wird deshalb in aller Regel auch mit dem Formalziel Gewinn verknüpft. Hierbei bestehen Einschränkungen in der Zurechenbarkeit des Nutzens von Führung für den betrieblichen Erfolg. Weder existiert eine verbindliche Auswahl von Erfolgskriterien noch lässt sich Führungsqualität eindeutig ermitteln (Berthel 1997). Sofern exakte Messungen der Formalzielerreichung im Zeitablauf erfolgen können, ist es beim heutigen Stand der Wissenschaft nicht möglich, die verschiedenen Zielerreichungsbeiträge bestimmter Führungssysteme, Führungspersonen oder Führungshandlungen exakt zu isolieren. 3 Dimensionen von Führungsqualität Führungsqualität lässt sich anhand ihrer Folgen ermitteln. Dazu bezieht man sich auf mehrere Beschreibungsdimensionen (Witte 1987), wobei die wirtschaftliche und soziale Effizienz vorrangig sind. Das Formalziel Gewinn wird zur wirtschaftlichen Effizienz ausgeweitet und mit sozial-psychologischer Effizienz verknüpft. Die Begründung dafür ist, dass es kaum, zumindest aber nur schwer möglich ist, 298
Führungsqualität die ökonomische Zielsetzung ohne Berücksichtigung der Bedürfnisse und Interessenlagen der Mitarbeiter zu erreichen (Berthel 1997). Man kommt so zu drei Beschreibungsdimensionen von Effizienz, die durch die Qualität von Führung beeinflusst werden (Berthel 1997; Bühner 1999): •
•
•
die generelle ökonomische Effizienz; hier wird die wert- und mengenmäßige Ergiebigkeit der Leistungserstellung und -Verwertung beschrieben und erfasst; die Effizienz des Leistungsprozesses; hier wird der Sach- oder Dienstleistungsprozess anhand mehrerer Merkmale beschrieben. Dazu dienen einzelne Kennzahlen oder Kennzahlensysteme (-> Kennzahlen und Kennzahlensysteme); die Personen- und Sozialeffizienz; hier werden arbeitsbezogene und individuelle Einstellungen beschrieben .
4 Instrumente zur Erfassung von Führungsqualität Im Bereich der generellen ökonomischen Effizienz werden monetäre Bezugsgrößen eingesetzt. Hierzu dienen innerbetriebliche Vergleiche und BenchmarkingStudien (-> Benchmarking), die aus dem Vergleich mit relevanten Wettbewerbern (best practice-Untemehmungen) Gestaltungshinweise auf eigene Verbesserungsmöglichkeiten liefern. Weniger zeitpunktbezogene Vergleiche, sondern die Analyse von Bezugsgrößen im Zeitablauf ist hier von besonderer Bedeutung. Gewinnorientierte Ansätze mit Kennzahlen (z.B. Gewinn, -> Return on Investment, Residualeinkommen) und wertorientierte Ansätze (z.B. Cash-flow-Analysen -> Cash-flow) sind zu unterscheiden (Bühner 1999). Sie werden in aller Regel durch nicht-monetäre Bezugsgrößen erweitert (z.B. Marktanteilsentwicklung, Produktivitätsentwicklung). Im Bereich der Leistungsprozesse werden Sach- oder Dienstleistungsprozesse an-
Führungsqualität hand mehrerer Merkmale beschrieben. Dazu dienen einzelne Kennzahlen (z.B. Planabweichungen, Arbeitswiederholungen, Zahl an Arbeitsunfällen), aussagekräftiger sind Kennzahlensysteme. Außerdem kann hier die Qualität des Führungssystems direkt über Maßzahlen ermittelt werden; hierzu dienen Auditierungsverfahren. Sie regeln generell die Organisation und Sicherung von Qualitätsstandards. Grundsätzlich besteht keine Beschränkung auf die materielle Produktion, auch die interne Organisation und Führung (Führungs-Audit, ManagementAudit) kann so bewertet werden. Für den Personalbereich wurden in den letzten Jahren einschlägige Qualitätssicherungskonzepte entwickelt und erfolgreich umgesetzt (zum Europäischen Modell für umfassende Qualitätssicherung vgl. Wunderer/von Arx 1998). Die Personen- und Sozialeffizienz lässt sich über Erhebungen zur Arbeitszufriedenheit, zur Führungszufriedenheit oder zur Leistungsorientierung ermitteln. Das Ausmaß der sozialen Integration ergibt sich durch Studien zum Organisationsklima und zur Organisations- oder Führungskultur. Ebenfalls auf dem Befragungswege lassen sich die Einstellungen der Mitarbeiter ermitteln, die auf Kooperationsbereitschaft, Vertrauen oder Gruppenzusammenhalt bezogen sind. Auch eine zusammenfassende Darstellung der wirtschaftlichen, sozialen und personalen Ergebnisgrößen kann Führungsqualität nur näherungsweise bestimmen. Inhaltlich wird der Qualitätsbegriff auf Effektivität und Effizienz verkürzt. Überwiegend sind die Merkmale vergangenheitsorientiert. Sie liefern kaum Aussagen darüber, wie Führungsqualität mit unternehmerischer Wandlungsfähigkeit, Veränderungsbereitschaft und nachhaltigem Erfolg korrespondiert. Der Funktionswandel von Führung als Voraussetzung der unternehmerischen Anpassungsfähigkeit wird ebenfalls kaum betrachtet (vgl. z.B. Steinmann/Schrey-
Führungsrichtlinien ögg 1997). Neben der Erfassung ist auch die Zuordnung der Art und Qualität von Führung zum unternehmerischen Erfolg nicht hinreichend geklärt. Die Einzelbeiträge der genannten Teilbereiche von Führung zum Erfolg sind nicht exakt bestimmbar. Man greift daher auf qualitative Ersatzkriterien zurück, die in einer vermuteten Zweck-Mittel-Beziehung zu den Untemehmungszielen stehen (vgl. Link 1995). Literatur: Berthel, J.: Personal-Management, 5., aktual. und korr. Aufl., Stuttgart 1997; Bisani, F.: Personalwesen und Personalfuhrung., 4. vollst, überarb. und erw. Aufl., Wiesbaden 1995; Brünnecke, K.C.: Autorität des Managements, Wiesbaden 1998; Bühner, R.: Personalmanagement, 2., Überarb. Aufl., Landsberg/Lech 1997; Bühner, R.: Betriebswirtschaftliche Organisationslehre, 9., bearb. und erg. Aufl., München/Wien 1999; Conrad, P./Keller, M.: Mitarbeiterfuhrung - Grundlagen und Konzepte, Zentrum für Fernstudien und universitäre Weiterbildung, Universität Kaiserlautern, Kaiserlautern 1998; D r u m m , H. J.: Personalwirtschaftslehre, 3., neu bearb. u n d erw. Auflage, Berlin u s w 1995; Fontin, M.: Das Management von Dilemmata. Wiesbaden 1997; Hansen, K.P.: Die Mentalität des Managers, in: Schreyögg, G./Conrad, P.(Hrsg.): Managementforschung 4 Dramaturgie des Managements, Laterale Steuerung, Berlin/New York 1994; Link, J.: Führungskräfte und Führungserfolg - eine Einführung, in: Krystek, U./Link, J.(Hrsg.): Führungskräfte und Führungserfolg, Wiesbaden 1995; Neuberger, 0.: Führen und geführt werden, 3., völlig überarb. Aufl., Stuttgart 1990; Ridder, H.-G.: Personalwirtschaftslehre, Stuttgart, Berlin, Köln 1999; Schirmer, F.: Arbeitsverhalten von Managern, Wiesbaden 1992; Staehle, W.H.: Funktionen des Managements, 3. Aufl., Bern/Stuttgart 1992; Staehle, W.H.: Management - eine verhaltenswissenschafiliche Perspektive, 8. Aufl., erw. und Überarb. von Conrad, P./Sydow, J., München 1999; Steinmann, H./Schreyögg, G.: M a n a g e m e n t , 4., überarb. und erw. Auflage, Wiesbaden 1997; Wunderer, R./von Arx, S.: Personalmanagement als Wertschöpfungscenter, Wiesbaden 1998.
Peter Conrad Führungsrichtlinien Führungsrichtlinien sind ein Instrument zur Durchsetzung bestimmter, als richtig oder erfolgreich erachteter Führungsauffassungen. Weitgehend synonym zum Ausdruck Führungsrichtlinien werden die Begriffe -> Führungsgrundsätze, Füh299
Führungsrichtlinien
Führungsrichtlinien rungsprinzipien oder Führungsanweisungen verwendet. Führungsrichtlinien können • •
als verbindliche Vorschrift oder lediglich als Empfehlungen gemeint sein, die Vorgesetzten-Mitarbeiter-Situation im engen Sinne oder aber die Führung ganzheitlich erfassen.
Führungsrichtlinien werden überwiegend schriftlich festgelegt. Indessen sind auch Normen zur Führungstätigkeit denkbar, die als Teil der -> Unternehmenskultur nur latent vorhanden sind. Die Definition des Begriffes "Führungsrichtlinien" sowie der praktische Inhalt desselben hängen maßgeblich von der zu Grunde liegenden Führungsauffassung (frame) ab: Der sogenannte "Zürcher Ansatz" ist ein solches "Framework" (Rühli 1996; Sachs 1995). Hierbei ist Führung Steuerung der multipersonalen Problemlösung. Diese hat nun - vorerst völlig unabhängig vom materiellen Gehalt des jeweiligen Führungsproblems - einerseits eine menschenbezogene und andererseits eine fuhrungstechnische Dimension: Menschenbezogen deshalb, weil jede Form der Führung Interaktion zwischen Menschen bedingt. Technisch (im Sinne von Führungstechnik) deshalb, weil die Steuerung der Problemlösung in der Realität immer eine institutionelle sowie eine raum-zeitliche Dimension aufweist und mit Instrumenten unterstützt werden kann. Dazu kommt die inhaltlich-materielle Dimension: Es handelt sich um die der Führung zugemessenen oder zugedachten Hauptaufgaben, nämlich die Gestaltung der Innen- und Außenpolitik der Unternehmung. In der Optik eines solchen holistischen Führungsansatzes sind Führungsrichtlinien Grundsätze sowohl im Bereich der Menschenführung wie der Führungstechnik und der Führungsinhalte.
300
Die Führungsrichtlinien in der Unternehmung dienen letztlich dem Zweck der Effizienzsteigerung. Sie zielen darauf ab, eine gewollte, als effizient betrachtete Form der Führung zu verwirklichen. In dieser Optik ordnet Lattmann den Führungslinien folgende Zwecke zu (Lattmann 1982): •
•
•
•
•
•
Einen Deklarationszweck, in dem der Wille zur Verwirklichung einer bestimmten Art der Führung zum Ausdruck gebracht wird. Einen Orientierungszweck, in dem dieser Wille den Betroffenen zur Kenntnis gebracht wird. Einen Appellzweck, in dem mit den Richtlinien die Aufforderung zur Befolgung verbunden ist. Einen Motivationszweck, wenn die Richtlinien einen Nutzen- oder Belohnungswert haben. Einen Koordinationszweck, in dem bei der Führung durch eine einheitliche geistige Ausrichtung Reibungsverluste vermieden werden können. Einen Aktionszweck, in dem von den Betroffenen aktives Handeln im Sinne der Richtlinien erwartet wird.
Die Annahme bei all diesen Zwecksetzungen ist, dass dadurch ein positiver Effekt auf den Erfolg der Unternehmung erreicht werde. Obwohl dies als plausibel erscheint, ist diesbezüglich doch auch Kritik geübt worden. Umfassende empirische Untersuchungen zur Effizienzhypothese fehlen aber einstweilen noch. Aufgrund der Tatsache, dass Führungsrichtlinien bestimmte Führungsauffassungen zum Ausdruck bringen, die man unterschiedlich beurteilen kann, sowie bedingt durch ihren präskriptiven Charakter, stellen sich besondere Probleme der Akzeptanz durch die Beteiligten und Betroffenen. Divergierende Führungsauffassungen und das Streben nach Handlungsfreiheit können zu Widerstand und Ablehnung führen. Die Erfahrungsberichte zur Implementierung von Führungsrichtlinien
Führungsrichtlinien weisen darauf hin, dass ablehnende Haltungen vor allem durch eine breite Partizipation bei der Ausarbeitung sowie durch eine eingehende Diskussion im Rahmen der Schulung bei der Einführung aufgebaut werden können. Die Akzeptanz von Führungsrichtlinien erscheint demgegenüber besonders gefährdet, wenn sie von einzelnen Personen oder Gruppen dekretiert werden und partikuläre Interessen zum Ausdruck bringen. Die Glaubwürdigkeit von Führungsrichtlinien ist zudem maßgeblich von ihrer laufenden Bestätigung abhängig. Im Hinblick auf die Bedeutung und Implementierung von Führungsrichtlinien in der Praxis hat der Arbeitskreis Führungsorganisation der Schmalenbach-Gesellschaft eine empirische Untersuchung angeregt (Hoffmann 1989). In die Analyse miteinbezogen wurden die 130 größten Industrieunternehmungen, Banken, Versicherungen und Handelsuntemehmungen der Bundesrepublik Deutschland. Dabei zeigten sich unter anderem folgende Resultate: •
•
•
56% der befragten Unternehmungen verfugten über Grundsätze, weitere 36% beabsichtigten die Einfuhrung. Der wichtigste Grund für die Ausformulierung und Einführung von Führungsgrundsätzen besteht im Wandel zu einer immer partizipativeren Führung. Wird dieser Wandel nicht vollzogen, so leidet die Effizienz. Aus der Sicht der Anwender werden Grundsätze positiv beurteilt. Vorbehalte werden dagegen am mangelnden Verbindlichkeitsgrad und an der begrenzten Durchsetzung angebracht.
Die positive Grundeinstellung, wie sie in dieser Erhebung zum Ausdruck kommt, verdeutlicht den Wert von Führungsrichtlinien als Führungsinstrument in der Praxis. Literatur: Töpfer, A./Zahnder, E. (Hrsg.): Führungsgrundsätze und Führungsinstrumente, Frankfurt a.M. 1982; Tschirky, H.: Führungsrichtlinien, Zürich 1980; Wunderer, R. (Hrsg.): Führungs-
Funktionaie Teilstrategien grundsätze in Wirtschaft und öffentlicher Verwaltung, Stuttgart 1983; Rühli, E.: Unternehmensfuhrung und Unternehmenspolitik, Band 1, 3. Aufl., Bern 1996; Sachs, S.: Strategie und Ökonomie, in: Die Unternehmung, der 49. Jg. (1995) 4, S. 2 4 5 - 2 5 7 ; Lattmann, C.: Die verhaltenswissenschaftlichen Grundlagen der Führung des Mitarbeiters, Bern 1982; Töpfer, A.: Führungsprinzipien, in Kieser, A. et al. (Hrsg.): Handwörterbuch der Führung, Stuttgart 1987; Hoffmann, F.: Unternehmens- und Führungsgrundsätze, in: Zeitschrift für betriebswirtschaftliche Forschung, 41 (1989) 3, S. 167 ff.
Edwin Rühli Fund Raising Werben um private und institutionelle Anleger in der Aufbauphase eines ->Classic Venture Capitalists oder werben um Spenden für eine -> NonprofitOrganisation. Fundamentalanalyse Die Fundamentalanalyse stützt sich im Gegensatz zur -* Chartanalyse auf "fundamentale" Untemehmensdaten. Mit Hilfe der Fundamentalanalyse werden im Rahmen der -» Aktienanalyse vor allem spezifische Unternehmensfaktoren (Umsatz, Gewinn, Gewinnmargen, Marktanteile, Produkte, Dividendenrendite u.a.) ausgewertet und beurteilt. Fünf"S" Die Fünf "S" sind grundlegende japanische Begriffe, deren Beachtung eine Verbesserung der unternehmensweiten Qualitätsorientierung zur Folge hat. • Ordnung schaffen (japanisch: Seiri) • Ordnungsliebe (japanisch: Seiton) • Sauberkeit (japanisch: Seiso) • persönlicher Ordnungssinn (japanisch: Seiketsu) • Disziplin (japanisch: Shitsuke) Funktionale Teilstrategien Während die -»Untemehmungsstrategie das Strategische Management für das gesamte Unternehmen umfasst, orientieren sich die funktionalen Teilstrategien auf die Ebene der einzelnen Funktionen, wie etwa -» Beschaffung (s.a.-* Beschaffungsstrategie), Produktion (-> Produktionslogistik, -> Produktionsmanage301
Fusion
Funktionale Teilstrategien ment), Marketing. Dabei besteht zwischen den funktionalen Teilstrategien und der Unternehmensstrategie eine MittelZweck-Beziehung, die Teilstrategien müssen also so ausgerichtet sein, dass sie der übergeordneten Unternehmensstrategie zuarbeiten.
302
Funktionalorganisation —> Organisationsformen Funktions-Management Organisationsformen Fusion Unternehmenszusammenschluss
Genossenschaft
Gateway
(Meffert 1998). Siehe auch -»Handelsmarken
G Gateway Als Gateway bezeichnet man einen Computer, der ein -> LAN, z.B. ein firmenintemes Computernetzwerk, mit anderen Netzwerken (-> WAN) verbindet. Vorteile dieser konzentrierten Verbindung über einen Computer sind: • • •
Es wird nur eine Datenleitung "außen" benötigt. Die Anbindung an das WAN leichter administriert werden. Das Gateway kann durch eine -» wall Firmendaten optimal vor ckerangriffen schützen.
Oft ist das Gateway gleichzeitig Proxy-Server ausgelegt.
nach kann FireHaals
Gattungsmarken Gattungsmarken werden auch als sogenannte "no names" oder auch "weiße Marken" bezeichnet, da die Verpackung oft nur in weiß gehalten und mit der Gattungsbezeichnung (z.B. "Waschpulver") versehen ist. Preislich liegen sie meist 40% unter den herkömmlichen Markenprodukten und bilden so das Preiseinstiegssegment. In Bezug auf Qualität bieten sie häufig nur Mindestanforderungen. Doch werden die Produkte keineswegs aufgrund ihrer gewollten Schlichtheit übersehen, sondern erhalten dadurch vielmehr eine sortimentseinheitliche Gestaltung und werden vom Käufer schnell wiedererkannt. Gattungsmarken werden in den Bereichen angeboten, die von den Konsumenten als Käufe mit geringem Risiko wahrgenommen werden und von den Produzenten als Verbrauchsgüter angesehen werden (-> Involvement). Heute hat sich das Sortiment von anfänglich 20 bis 30 Artikeln bis auf 700 unterschiedliche Produkte ausgedehnt. In der Warengruppe "Tissue Toilettenpapier" lag der Marktanteil von no names bei rund 40 Prozent
Gefangenendilemma Spieltheorie Gegenstromverfahren Bei der Gestaltung des Planungsprozesses geht es zunächst um die Frage, wie dieser organisatorisch in die Unternehmung eingegliedert werden soll. Das Gegenstromverfahren kombiniert die Verfahren der -» Top-down Planung und der -> Bottom-up Planung, um so deren jeweilige Nachteile weitgehend zu vermeiden. Beim Gegenstromverfahren stellt die Unternehmensführung zunächst einen vorläufigen Rahmenplan auf, von dem die vorläufigen Teilpläne abgeleitet werden (retrograder Verlauf)- Von der untersten Planungsebene bis hinauf zur Unternehmensfiihrung erfolgt dann eine Überprüfung der Planvorgaben auf ihre Realisierbarkeit (progressiver Verlauf). Treten nun Abweichungen zwischen den Vorgaben und den Realisierungsmöglichkeiten auf, sind Abstimmungen und Koordinierungen vorzunehmen. Nachteilig kann sich hierbei auswirken, dass das Gegenstromverfahren relativ zeitintensiv ist. Geldflnanzierung -> Finanzierung Gemeinkosten Kostenarten Gemeinschaftsunternehmen -> Unternehmenszusammenschluss Genossenschaften Genossenschaften sind wirtschaftliche Vereine, die - getragen von ihren Mitgliedern - einen wirtschaftlichen Zweck verfolgen. Alle Mitglieder sind stimmlich gleichberechtigt, unabhängig von der Höhe ihrer Kapitaleinlage ("one man, one vote"). Die Beteiligung der Mitglieder sowie die Höhe der Haftsumme sind in der Satzung einer Genossenschaft festgelegt. Die rechtliche Grundlage für das
303
Gesamtkostenverfahren
Genossenschaft Genossenschaftswesen ist das Genossenschaftsgesetz (GenG); eingetragene Genossenschaften (e.G.) werden amtlich im Genossenschaftsregister gefuhrt. Genossenschaften spielen im deutschen Wirtschaftsleben eine tragende Rolle; die Volks- und Raiffeisenbanken sind ebenso genossenschaftlich organisiert wie zahlreiche Wohnungsbaugesellschaften. Auch in der New Economy finden sich genossenschaftliche Strukturen; die Verwaltungsstelle, welche die deutschen Adress-Namen in der .de-Hierarchie des World Wide Web (WWW) einträgt und überwacht, ist eine eingetragene Genossenschaft (DENIC e.G.). Genusskapital Das Genusskapital ist eine wichtige Form der -> Mitarbeiterbeteiligung: Genussrechte sind eine Zwischenform zwischen Aktie und Anleihe. Die Inhaber von Genussrechten werden am Gewinn und meist auch am Verlust des Unternehmens beteiligt. Sie haben weder Stimm- noch Mitspracherechte. Die Verträge können flexibel ausgestaltet werden und eignen sich für Unternehmen jeder Rechtsform. Weitere Formen der Mitarbeiterbeteiligung sind -> Belegschaftsaktien und -> Mitarbeiterdarlehen. Geozentrische Strategie Management, internationales Geregelter Markt Aktienmarkt Geringfügige Beschäftigung -» Beschäftigung, geringfügige GERT -> Projektmanagement,
> Netzplan
Gesamtanlageneffektivität - » T o t a l Productive Maintenance Gesamtkostenverfahren Gesamtkostenverfahren (GKV) und Umsatzkostenverfahren (UKV) bezeichnen für Industrieunternehmen typische Methoden, die auf die Ermittlung 304
des Periodenerfolges und die Darstellung seiner Zusammensetzung im Rahmen der handelsrechtlichen -» Gewinn- und Verlustrechnung (GuV) sowie der Kurzfristigen Erfolgsrechnung (KFE) abzielen. Sie kommen aber auch in anderen Wirtschaftszweigen wie etwa Handel und Dienstleistung zum Einsatz. Während für Zwecke der externen Rechnungslegung die Strukturen beider Verfahren weitgehend vorgeschrieben sind, besteht im innerbetrieblichen —> Rechnungswesen nach Maßgabe der verfolgten betriebswirtschaftlichen Ziele grundsätzlich Gestaltungsfreiheit. Im Gegensatz zur GuV, die dem System der Finanzbuchhaltung entspringt und der Aufwendungen und Erträge zugrunde liegen, werden die Ergebnisse der KFE aus der auf Kosten und Leistungen basierenden Betriebsabrechnung abgeleitet (-> Kosten- und Leistungsrechnung; -» Rechnungswesen, Verbindung externes und internes). GuV und KFE stellen zwei i.d.R. voneinander unabhängige Rechenkreise dar, wobei in jüngerer Zeit, bedingt durch die Internationalisierung der Rechnungslegung, eine Annäherung beider Systeme erfolgt. Aus handelsrechtlicher Sicht verkörpern GKV und UKV nach den -> GoB anerkannte formelle Methoden zur Erfolgsermittlung und -darstellung, die auch für die steuerrechtliche Gewinnermittlung (§ 5 Abs. 1 EStG) maßgebend sind. Unternehmen können die nach § 242 Abs. 2, § 264 Abs. 1 Satz 1, § 264a Abs. 1, § 336 Abs. 2 Satz 1 HGB und § 5 Abs. 1 Satz 2 PublG zu fertigende GuV auf der Basis des GKV oder des international üblichen UKV aufstellen. Dieses Wahlrecht gilt auch im Rahmen der Aufstellung einer Konzern-GuV (§ 298 Abs. 1 HGB, § 1 3 Abs. 2 PublG). Die Erfolgskonsolidierung lässt sich im Falle der Entscheidung für ein einheitliches Verfahren im Konzernverbund erheblich vereinfachen. Allerdings ist aufgrund des in § 265 Abs. 1 Satz 1 HGB verankerten Prinzips der Darstellungsstetigkeit ein beliebiger Wechsel zwischen GKV und
Gesamtkostenverfahren UKV nicht möglich. Nur in Ausnahmefällen kann wegen besonderer Umstände (z.B. Änderung des Kostenrechnungssystems) ein Übergang auf das jeweils andere Verfahren in Betracht kommen (§ 265 Abs. 1 Satz 1 2. HS HGB). Diese Abweichungen sind im - » A n h a n g anzugeben und zu begründen (§ 265 Abs. 1 Satz 2 HGB). GKV und UKV führen bei Zugrundelegung identischer Prämissen hinsichtlich der Aufwands- und Ertragserfassung stets zum gleichen Jahresergebnis. Allerdings bestehen elementare Unterschiede im Hinblick auf den Ausweis einzelner Erfolgskomponenten. Diesen Abweichungen muss bereits beim Aufbau der Finanzbuchhaltung Rechnung getragen werden. Beim GKV werden im Grundsatz die nach bestimmten Arten gegliederten gesamten Aufwendungen den Umsatzerlösen und sonstigen Erträgen einer Periode gegenübergestellt. Den Bestandsveränderungen, die in Gestalt von Bestandserhöhungen oder Bestandsverminderungen bei den unfertigen und fertigen Erzeugnissen auftreten können, kommt die Aufgabe zu, die gesamten Aufwendungen an die Umsatzerlöse der Periode anzupassen. Im Falle einer Bestandserhöhung liegt der Endbestand auf den Erzeugniskonten über dem Anfangsbestand. Diese Konstellation bedeutet, dass mengen- und/oder wertmäßig mehr auf Lager produziert als abgesetzt bzw. weiterverarbeitet wurde. Die gesamten Aufwendungen sind folglich im Verhältnis zu den verbuchten Umsatzerlösen zu hoch, da sie auch Elemente enthalten, die sich auf die vorgenommenen Lageraufstockungen beziehen. Mithin müssen Bestandserhöhungen unfertiger und/oder fertiger Erzeugnisse stets ausgleichend als Ertragskomponenten auf die Habenseite des Gewinn- und Verlustkontos verbucht werden. Bei einer Bestandsverminderung liegt auf den Erzeugniskonten der Endbestand unter dem Anfangsbestand. In diesem Falle wurde mengen- und/oder wertmäßig weniger produziert als an fertigen Erzeugnissen
Gesamtkostenverfahren verkauft bzw. an unfertigen Erzeugnissen in den weiteren Herstellungsprozess gegeben. Im Verhältnis zu den verbuchten Umsatzerlösen sind die gesamten Aufwendungen der Periode somit zu niedrig, da die Umsatzerlöse fertige Erzeugnisse enthalten, die aus Produktionen der Vorperiode(n) resultieren. Folglich sind Bestandsverminderungen unfertiger und/ oder fertiger Erzeugnisse stets ausgleichend als Aufwandskomponenten auf die Sollseite des Gewinn- und Verlustkontos zu verbuchen. Die Bewertung der Endbestände unfertiger und fertiger Erzeugnisse erfolgt in der Handels- und Steuerbilanz zu Herstellungskosten (§ 255 Abs. 2 und Abs. 3 HGB; § 6 Abs. 1 Nr. 2 Satz 1 EStG, R 33 EStR) oder zum niedrigeren beizulegenden Wert bzw. Teilwert (§ 253 Abs. 3 HGB; § 6 Abs. 1 Nr. 2 Satz 2 EStG). Bei der Bestandsbewertung der Erzeugnisse ausgeübte Wahlrechte (z.B. Verzicht auf die Einbeziehung von Kosten der allgemeinen Verwaltung in die Herstellungskosten) oder zwingend vorzunehmende Abschreibungen wirken sich mithin über die Bestandsveränderungen auf das Jahresergebnis aus. Für Abschreibungen gilt das jedoch nur, soweit sie die in der Kapitalgesellschaft sonst üblichen Abschreibungen nicht übersteigen (§ 277 Abs. 2 2. HS HGB). Auf dem Konto "Andere aktivierte Eigenleistungen" sind primär selbsterstellte Gegenstände des Anlagevermögens sowie aktivierte Großreparaturen zu erfassen. Darüber hinaus kommen nach § 269 HGB aktivierte Aufwendungen für die Ingangsetzung und Erweiterung des Geschäftsbetriebs hinsichtlich eines Ausweises unter dem Posten "Andere aktivierte Eigenleistungen" in Betracht. Diese Leistungen repräsentieren die infolge der Aktivierung entstandenen Bestandserhöhungen auf den entsprechenden Anlagekonten und stellen gleichzeitig einen Gegenposten zu den angefallenen Aufwendungen dar. Zu berücksichtigen ist, 305
Gesamtkostenverfahren
Gesamtkostenverfahren
bestandsmindernd auf dem Konto "Fertige Erzeugnisse" nieder. In Abbildung 1 ist die Grundstruktur der Buchungstechnik nach GKV zusammenfassend dargestellt, wobei die Kontennummerierung dem Industriekontenrahmen (IKR) folgt. Hier wurde angenommen, dass die Bestandserhöhung der unfertigen Erzeugnisse im Ergebnis von der Bestandsverminderung der fertigen Erzeugnisse überkompensiert wird.
dass der Betrag der anderen aktivierten Eigenleistungen nicht Ertragscharakter trägt, da es sich in diesem Falle lediglich um eine Vermögensumschichtung handelt. So erfolgt beispielsweise bei der Aktivierung selbsterstellter Anlagen eine Transformation von liquiden Mitteln (Ausgaben für Löhne, Gehälter und Material) und Vorräten (Materialentnahmen) auf die entsprechenden Anlagekonten. Sofem absatzbestimmte Erzeugnisse im Sachanlagevermögen ausgewiesen werden sollen (z.B. Verwendung eigener Fahrzeuge eines Automobilherstellers zur dauernden Nutzung im Unternehmen), schlagen sich dann die als andere Eigenleistungen zu aktivierenden Produktwerte
Abbildung 2 zeigt die Struktur der GuV nach dem GKV in Staffelform gemäß § 275 Abs. 2 HGB, die sich aus dem Gewinn- und Verlustkonto von Abb. 1 ableiten lässt. Das (handelsrechtliche) Betriebsergebnis setzt sich aus der Ge-
AB: BE: BV: EB:
800 E r ö f f n u n g s b i l a n z k o n t o 07: A B — • 21: A B — • 22: AR ^
Anfangsbestand Bestandserhöhung Bestandsverminderung Endbestand
Kl. 6/7 A u f w e n d u n g e n 07 T e c h n i s c h e Anlagen und Maschinen AB EB BE
53 A n d e r e aktivierte Eigenleistungen
Saldo -
Saldo
5 0 Umsatzerlöse Saldo
21 Unfertige Erzeugnisse AB BE
EB
52 Erhöhung oder Verminderung des Bestandes an unfertigen und fertigen Erzeugnissen •
BV
Kl. 5 Sonstige Erträge — Saldo
BE Saldo
22 Fertige E r z e u g n i s s e AB
EB ' BV
VfV
801 S c h l u s s b i l a n z k o n t o 07: E B 21: E B 22: E B
52: BV
50: Umsatzerlöse
Kl. 6/7: A u f w e n d u n g e n
53:
Andere
der Buchungstechnik
aktivierte
Eigenleistungen
Gewinn
Kl. 5: Sonstige Erträge
Gewinn^-
Abb. !: Grundstruktur
306
CT
802 G e w i n n - und Verlustkonto
nach dem
Gesamtkostenverfahren
•4M-
Gesamtkostenverfahren
Gesamtkostenverfahren samtleistung (Posten Nr. 1, 2, 3, 5, 6 und 7) zuzüglich sonstiger betrieblicher Erträge (Posten Nr. 4) und abzüglich sonstiger betrieblicher Aufwendungen (Posten Nr. 8) zusammen. Kleine und mittelgroße Kapitalgesellschaften im Sinne von § 267 Abs. 1 bzw. Abs. 2 HGB können gemäß § 276 Satz 1 HGB bei Anwendung von GKV oder UKV die Posten Nr. 1 bis Nr. 5 zu einem Posten unter der Bezeichnung "Rohergebnis" zusammenfassen. Dieses Wahlrecht gilt für unter das PublG fallende Unternehmen nicht, wenn sie beabsichtigen, ihre Gewinn- und Verlustrechnung nach § 9 PublG zu veröffentlichen (§ 5 Abs. 1 Satz 2 PublG). Zu beachten ist, dass unter den Posten Nr. 15 (außerordentliche Erträge) und Nr. 16 (außerordentliche Aufwendungen) nur solche Erträge und Aufwendungen auszuweisen sind, die außerhalb der gewöhnlichen Geschäftstätigkeit der Unternehmung anfallen (§ 277 Abs. 4 Satz 1 HGB). Als Beispiele können etwa Gewinne bzw. Verluste aus der Veräußerung ganzer Betriebe oder Beteiligungen, außerplanmäßige Abschreibungen aus Anlass außergewöhnlicher Ereignisse, einmalige Zuschüsse der öffentlichen Hand und Erträge aus dem Forderungsverzicht von Gläubigern genannt werden. Sofern im Rahmen der Aufstellung der GuV bereits über die Verwendung eines Jahresüberschusses entschieden wurde (Ausschüttung und/oder Rücklageneinstellung) bzw. die Tilgung eines Jahresfehlbetrags durch Rücklagenauflösungen vorgenommen werden muss oder kann, ist die GuV bei Anwendung von GKV oder UKV nach dem Posten Jahresergebnis fortzuführen (§ 268 Abs. 1, § 275 Abs. 4 HGB; §58, §150, §152, § 1 5 8 AktG; § 2 9 GmbHG). Aus der von § 275 Abs. 2 HGB zwingend vorgeschriebenen Erfolgsspaltung in unterschiedliche Ergebniskomponenten (z.B. Betriebs-, Finanz-, Steuerergebnis und außerordentliches Ergebnis) lassen
sich wichtige Informationen für externe Adressaten des Jahresabschlusses im Rahmen der erfolgswirtschaftlichen Bilanzanalyse ableiten.
_
Umsatzerlöse E r h ö h u n g oder V e r m i n d e r u n g d e s Bestands an fertigen und unfertigen Erzeugnissen andere aktivierte Eigenleistungen sonstige betriebt. Ertrage Materialaufwand Personalaufwand Abschreibungen sonstige betriebt. A u f w e n d u n g e n
2
3 4 5 6 7 8 9 10
11 12
13
Erträge aus Beteiligungen Erträge aus a n d e r e n W e r t p a p i e r e n und A u s l e i h u n g e n des F i n a n z a n l a gevermögens sonstige Z i n s e n und ähnliche Erträge A b s c h r e i b u n g e n auf F i n a n z a n l a g e n und auf W e r t p a p i e r e des U m l a u f vermögens Zinsen und ä h n l i c h e A u f w e n d u n g e n
(Betriebsergebnis)
± (Finanzergebnis)
14
Ergebnis der Geschäftstätigkeit
15 16 17
außerordentliche Erträge außerordentliches A u f w e n d u n g e n außerordentliches Ergebnis
± (außerordentliches Ergebnis)
18
Steuern v o m E i n k o m m e n und v o m Ertrag
± (Steuerergebnis)
19
sonstige Steuern
20
Jahresabschluss/Jahresfehlbetrag
gewöhnlichen
= Ergebnis d e r gewöhnlichen Geschäftstätigkeit
—
= Jahresergebnis
Abb. 2: Gewinn- und Verlustrechnung Abs. 2 HGB
nach § 275
Aus der Sicht internationaler Rechnungslegungsvorschriften bezüglich der Struktur der GuV bestehen einige Unterschiede zu den Regelungen des deutschen Handelsrechts. Die -> International Accounting Standards (IAS) enthalten weder eine verbindliche Gliederung noch eine Darstellungsregelung für die Struktur der externen Erfolgsrechnung. Sofern die in den einzelnen Standards geforderten Ertragsund Aufwandskomponenten (IAS 1.75 ff.) offengelegt werden, sind wahlweise entweder das GKV oder das UKV zulässig. Das GKV wird auch als Aufwandsartenmethode (nature of expense method) bezeichnet, das vor allem kleinen Unternehmen empfohlen wird, da hier eine Zuordnung von betrieblichen 307
Gesamtkostenverfahren
Gesamtkostenverfahren
Aufwendungen zu einzelnen Funktionsbereichen nicht notwendig ist. Abbildung 3 gibt die beispielhafte Unterteilung der GuV bei Anwendung des GKV nach IAS 1.80 wieder. Umsatzerlöse (Revenue) Sonstige betriebliche Erträge (Other operating income) Veränderungen des Bestands an fertigen und unfertigen Erzeugnissen (Changes in inventories o f finished goods and work in progress) Aufwendungen für Roh-, Hilfsund Betriebsstoffe (Raw materials and consumables used) Personalaufwand (Staff costs) Aufwendungen für planmäßige und außerplanmäßige Abschreibungen (Depreciation and amortisation expense) Sonstige betriebliche Aufwendungen (Other operating expenses) Gesamte betriebliche Aufwendungen (Total operating expenses)
X X
X
X X
X X - X
Ergebnis der betrieblichen Tätigkeit (Profit from operating activities)
X
Abb. 3: Beispielhafte Struktur des Gesamtkostenverfahrens nach IAS 1.80
Obwohl die GuV (income Statement oder Statement of eamings) das wichtigste Informationsinstrument einer Rechnungslegung nach den -»US-GAAP darstellt, bestehen keine verbindlichen Regelungen für ihre äußere Form. Die Struktur der Erfolgsrechnung hat sich in der Praxis in Gestalt des UKV entwickelt und wird grundsätzlich akzeptiert. Das GKV findet im Rahmen der US-GAAP i.d.R. keine Anwendung. Im Rahmen der KFE werden prinzipiell die gesamten Kosten den gesamten Leistungen einer Rechnungsperiode gegenübergestellt, um den kalkulatorischen Untemehmenserfolg ermitteln zu können. Die Aufgabe der KFE liegt in der laufenden Kontrolle der Wirtschaftlichkeit des Leistungserstellungs- und Leistungsverwertungsprozesses der Unternehmung, mit dem Ziel, den 308
Entscheidungsträgern Informationen zur frühzeitigen Erkennung und Beseitigung von Fehlentwicklungen und Schwachstellen sowie ggf. zum Zwecke einer flexiblen Anpassung an unvorhersehbare betriebliche Abläufe zu liefern. Darüber hinaus stellen die Ergebnisse der KFE Grundlagen für die Adaption von Plänen und Budgets dar. Durch eine differenzierte Aufspaltung des sachzielbezogenen Unternehmenserfolges nach Produkt- und Kundengruppen, einzelnen Erzeugnisarten sowie Verantwortungs- und Absatzbereichen lässt sich der Informationsgehalt der KFE weiter steigern. Darüber hinaus besteht ferner die Möglichkeit, alle angesprochenen Analysen des Betriebsergebnisses auch unter Berücksichtigung von Normal-, Plan- und/ oder Teilkosten bzw. -leistungen vorzunehmen. Um die Vielzahl der mit diesem Rechnungssystem verfolgten Zielsetzungen bestmöglich erfüllen zu können, bedarf es einer Durchführung der Betriebsergebnisrechnung in Zeitintervallen, die kürzer sind als ein Jahr (z.B. Quartale, Monate, Wochen). Die handelsrechtliche GuV ist für eine wirksame Erfolgskontrolle und -analyse insbesondere aus folgenden Gründen nicht geeignet: •
Die handelsrechtliche Abrechnungsperiode von in aller Regel einem Jahr ist für kurzfristige Steuerungsmaßnahmen im Rahmen der -> Preispolitik und/oder der -> Planung optimaler Produktionsund Absatzmengen zu lang. • Die bilanzrechtlich ausgewiesenen Gesamtaufwendungen und -erträge entsprechen nicht den Gesamtkosten bzw. -leistungen. • Die handelsrechtliche Erfolgsrechnung gliedert die Aufwendungen nach Maßgabe bestimmter Kostenarten bzw. Abrechnungsbereiche, während die Erträge primär produktbezogen zum Ausweis kommen. Hierdurch wird eine erzeugnis(gruppen)orientierte Erfolgsanalyse unmöglich.
Gesamtkostenverfahren
Gesamtkostenverfahren Die kalkulatorische Methode des GKV zur buchhalterischen Durchfuhrung der KFE geht von den gesamten Periodenkosten der Unternehmung aus, die nach Kostenarten gegliedert auf der Sollseite des Betriebsergebniskontos zum Ausweis kommen. Ihnen werden auf der Habenseite die gesamten Verkaufserlöse des betreffenden Rechnungsabschnittes gegenübergestellt. Da die Summe der angefallenen Kostenarten unverändert Eingang in das Betriebsergebniskonto findet, bedarf es beim Vorliegen von Bestandsveränderungen einer Anpassung der gesamten Periodenkosten an die entsprechenden Verkaufserlöse. Bestandserhöhungen von unfertigen und fertigen Erzeugnissen repräsentieren zusätzliche (Lager-)Leistungen und müssen deshalb auf der Habenseite des Betriebsergebniskontos korrigierend Verrechnung finden. Liegen aber Bestandsverminderungen der angesprochenen Erzeugnisse vor, so bedarf es einer Adaption auf der Sollseite des Betriebsergebniskontos, da in diesem Falle die gesamten Periodenkosten nicht mit den auf der Habenseite angesetzten Verkaufserlösen für unfertige und/oder fertige Erzeugnisse korrespondieren. Die entsprechenden Bestandsveränderungen ergeben sich als Saldogrößen auf den aktiven Bestandskonten "unfertige und fertige Erzeugnisse". Hieraus folgt, dass das GKV stets an eine mengenmäßige Bestandsaufnahme der unfertigen und fertigen Erzeugnisse gebunden ist. Femer setzt das GKV eine Kalkulation zum Zwecke der Bewertung der Bestände zu Herstellkosten voraus, womit auf eine Einbeziehung der Verwaltungsgemeinkosten in die Wertansätze der Lagerleistungen i.d.R. verzichtet wird. Obwohl eine anteilige Zurechnung möglich wäre, werden sie aus Vereinfachungs- und/oder Wirtschaftlichkeitsgründen prinzipiell nur den abgesetzten Erzeugnissen angelastet. Diese Vorgehensweise fuhrt bei stark schwankenden Lagerbeständen und/oder im Periodenablauf variierenden Verwaltungsgemeinkosten zu Ungenauigkeiten
bezüglich der Erfolgsermittlung. Wie bereits gezeigt wurde, besteht aus handelsund steuerrechtlicher Sicht ein Einbeziehungswahlrecht der Verwaltungsgemeinkosten in die Wertansätze unfertiger und fertiger Erzeugnisse sowie selbsterstellter Anlagegüter. Bei Anwendung des GKV lässt sich die Struktur des Betriebsergebniskontos vereinfacht wie in Abbildung 4 darstellen. S
Betriebsergebniskonto Mit Herstellkosten bewertete Lagerbestandsverminderungen
Selbstkosten der Periode
Herstellkosten der Periode
H Mit Herstellkosten bewertete Lagerbestandserhöhungen Verkaufserlöse der Periode
Verwaltungs- und Vertriebskosten der Periode Kalkulatorischer Betriebsgewinn Abb. 4: Struktur des Betriebsergebniskontos bei Anwendung des Gesamtkostenverfahrens
Der kalkulatorische Betriebsgewinn ergibt sich, wenn im Rahmen der KFE neben den Grundkosten und Grundleistungen auch kalkulatorische Kosten und/oder Leistungen Verrechnung finden. Dem Vorteil der Einfachheit des rechentechnischen Aufbaues stehen beim GKV zwei elementare Nachteile gegenüber. Zum einen ist die Ermittlung der Lagerbestände der unfertigen und fertigen Erzeugnisse nicht rechnerisch, sondern nur durch körperliche Inventuren möglich. Die somit erforderlichen Bestandsaufnahmen führen speziell bei Unternehmungen mit vielen Produktionsstufen und differenzierten Fertigungsprogrammen zu beträchtlichen zusätzlichen Arbeits- und Kostenbelastungen, so dass sie sich in der Praxis neben den gesetzlich vorgeschriebenen Inventuren (§ 240 f. HGB) häufig kaum durchführen lassen. Zum anderen gibt diese nach 309
Gesamtkostenverfahren Kostenarten gegliederte Erfolgsrechnung keinen Aufschluss darüber, welche Produkte das Betriebsergebnis günstig beeinflusst haben und bei welchen Erzeugnissen Verluste aufgetreten sind. Insbesondere in Mehrproduktuntemehmen ist das GKV weder zum Zwecke der Erfolgsanalyse noch zur Absatzsteuerung geeignet. Das GKV kann allenfalls in Einproduktunternehmungen oder im Kontext der einfachen Sortenfertigung zum Einsatz kommen. Im Rahmen des Gesamtkostenverfahrens besteht jedoch durch die Erstellung einer Zusatzrechnung die Möglichkeit, den Periodenerfolg pro Erzeugnisart zu ermitteln. Zu diesem Zwecke wird auf das Kostenträgerzeitblatt, das auch häufig mit dem Begriff Betriebsabrechnungsbogen II belegt wird, zurückgegriffen. Der mögliche Aufbau einer derartigen zusätzlichen KFE, die sich mit der Position "Herstellkosten
Zeile
Kostenarten (in Euro)
1 2
Fertigungsmaterial + Materialgemeinkosten (31,25% von Zeile 1) + Fertigungslöhne + Fertigungsgemeinkosten (120% von Zeile 3) + Sondereinzelkosten der Fertigung = Herstellkosten der Periode - Bestandserhöhungen + Bestandsverminderungen = Herstellkosten des Umsatzes + Verwaltungsgemeinkosten (25% von Zeile 9) + Vertriebsgemeinkosten (15% von Zeile 9) = Selbstkosten des Umsatzes Verkaufserlöse Kalkulatorischer Betriebserfolg (Zeile 13-Zeile 12)
3 4
5 6 7 8 9 10
11
12 13 14
Geschäftsbereichsorganisation des Umsatzes" bereits der Vorgehensweise der UKV annähert, wird beispielhaft durch Abbildung 5 in tabellarischer Form mit drei Kostenträgern (Produkten) verdeutlicht. Die Struktur des Beispiels folgt den Termini der elektiven Zuschlagskalkulation. Carl-Christian Freidank Geschäftsbankensystem -»• Bankensysteme Geschäftsbereichsorganisation Die Geschäftsbereichsorganisation (auch Sparten- oder divisionale Organisation genannt) hat in Deutschland seit den sechziger Jahren zunehmende Verbreitung gefunden. Auf der obersten Ebene des Unternehmens wird demnach nicht mehr nach funktionalen (z.B. Beschaffung -Produktion - Absatz; -»• Organisa-
A 240.000
Kostenträger B 400.000
C 211.200
851.200
75.000 80.000
125.000 200.000
66.000 345.000
266.000 625.000
96.000
240.000
414.000
750.000
23.800
23.800
965.000 289.500
1.060.000 424.000
2.516.000 713.500 140.000
631.000
675.500
636.000
1.942.500
157.750
168.875
159.000
485.625
94.650
101.325
95.400
291.375
883.400 900.000
945.700 910.000
890.400 960.000
2.719.500 2.770.000
16.600
- 35.700
69.600
50.500
491.000 140.000
Abb. 5: Beispielhafter Auß^au eines
310
Summe
Kostenträgerzeitblattes
Geschäftsbereichsorganisation tionsformen sowie -*Organisationsstrukturen), sondern nach produktbezogenen Kriterien gegliedert (Produkt A - Produkt B - etc.). Es werden i.d.R. Entscheidungskompetenzen von der Unternehmensleitung auf die Ebene der Bereichsleitung verlagert. Eine reine Form der Geschäftsbereichsorganisation würde bedeuten, dass sämtliche für die Realisierung eines Produktes oder einer Leistung nötigen Kompetenzen und Ressourcen auf die Geschäftsbereichsleitung vereint sind. Im Fall von Profit Centern, die meist Hand in Hand mit der Geschäftsbereichsorganisation gehen, ist sie auch ergebnisverantwortlich. Für die Zentrale (-» Unternehmenszentrale) führt dies zu einem verminderten Leitungsaufwand. Lediglich produktübergreifende Aufgaben, wie z.B. Unternehmensstrategie oder -»Rechnungswesen, bleiben der Unternehmensleitung und evtl. ihr zugeordneten Zentralbereichen überlassen. Grundsätzlich ist die Geschäftsbereichsorganisation in jeder Mehrproduktunternehmung anwendbar. Es stellt sich die Frage der Effizienz im Vergleich zu anderen Organisationsformen. Zur Bewertung muss darauf eingegangen werden, inwieweit zwischen verschiedenen Organisationseinheiten (hier: den Geschäftsbereichen) Abhängigkeiten bzw. Interdependenzen bestehen. Sie beeinflussen zum einen das Ausmaß von Koordinationsbzw. Autonomiekosten, zum anderen gehen von ihnen Motivationswirkungen auf die Mitarbeiter aus. Es lassen sich drei Formen von Abhängigkeiten unterscheiden: Ressourcen-, Markt- und Prozessinterdependenzen. Durch eine Geschäftsbereichsorganisation werden unternehmerische Kapazitäten (Ressourcen) produktbezogen getrennt. Diese Trennung kann zu einer Minderung der Ressourceneffizienz fuhren. Gründe dafür können z.B. sein: Leerkapazitäten in den einzelnen Geschäftsbereichen,
Geschäftsbereichsorganisation ungenutzte Economies of Scale und Spezialisierungseffekte (z.B. in Bereichen wie der Informationstechnologie). Tendenziell ist davon auszugehen, dass die Nachteile hinsichtlich der Ressourceneffizienz vor allem bei kleinen Geschäftsbereichen bestehen, mit zunehmender Größe jedoch abnehmen. Auch beim Auftritt auf externen Märkten können zwischen verschiedenen Geschäftsbereichen Abhängigkeiten bestehen, die durch die Geschäftsbereichsorganisation nicht berücksichtigt werden. Auf dem Beschaffungsmarkt können durch Poolung von Bestellungen bessere Konditionen erreicht werden. Auf Absatzmärkten muss ein einheitliches Auftreten gewährleistet sein. Dies ist vor allem der Fall, wenn ein Kunde mit verschiedenen Geschäftsbereichen in Kontakt steht. Häufig wird hier auf ein "one face - one customer"-Vrmzvp Wert gelegt, was die Koordination zwischen den verschiedenen Geschäftsbereichen erzwingt. Es kann davon ausgegangen werden, dass die Nachteile hinsichtlich der Markteffizienz vor allem bei einem eher homogenen Produktprogramm bestehen, bei zunehmender Diversifikation jedoch abnehmen. Hinsichtlich der produktbezogenen Abläufe (Prozesse) ist die eigentliche Stärke der Geschäftsbereichsorganisation zu sehen. Sie gewährleistet hier ein sehr hohes Maß an Effizienz, da sämtliche Prozessinterdependenzen in einer Abteilung internalisiert sind. Zu bereichsübergreifender Koordination besteht keine Notwendigkeit. Zusätzlich wird die Geschäftsbereichsorganisation vor allem in der Praxis mit dem Gedanken des "Unternehmers im Unternehmen" (-> Mitunternehmertum) verknüpft. Durch weitreichende Autonomie werden die Mitarbeiter zu Eigeninitiative und unternehmerischem Handeln angeregt. Für ein Produkt oder eine Produktgruppe besteht umfassende Zuständigkeit, so dass die Mitarbeiter Spielräume und Wissen besitzen, 311
Geschäftsprozessoptimierung
Geschäftsbereichsorganisation um Innovationen zu generieren und weiterzuentwickeln. Die Geschäftsbereichsorganisation gilt daher als innovationsfördernd. Werden zusätzlich auch Bereichserfolge ausgewiesen (Profit Center), kann dadurch der Druck des Marktes auch innerhalb des Unternehmens zur Geltung kommen und Anreize zu unternehmerischem Verhalten schaffen. Auch wenn diese verhaltenstheoretischen Zusammenhänge aus wissenschaftlicher Sicht nicht abgesichert sind, spielen sie doch in der Praxis bei der Bewertung der Geschäftsbereichsorganisation eine herausragende Rolle. Um die Nachteile hinsichtlich Ressourcen- und Marktinterdependenzen zu kompensieren, finden sich in der Praxis überwiegend modifizierte Formen der Geschäftsbereichsorganisation. Meist dienen Zentralbereiche dazu, ressourcen- oder marktbezogene Aktivitäten zu koordinieren oder eine Funktionsspezialisierung möglich zu machen. Beispiele finden sich z.B. in zentralen IT-Abteilungen (Ressourcen), -» Key Account Management (Absatzmarkt) oder zentralen Einkaufsabteilungen (Beschaffungsmarkt). Jedoch ist zu beachten, dass solche Zentralabteilungen neben ihren zweifellosen Vorteilen immer auch zu einer Einschränkung der Geschäftsbereichsautonomie - mit möglichen negativen Motivationswirkungen - fuhren und zusätzliche Koordinationskosten mit sich bringen. Erich Frese Geschäftsbereichsstrategie Unternehmungsstrategie Geschäftsfeldsynergien -> Synergiemanagement Geschäftsprozessoptimierung 1. Überblick Die Geschäftsprozessoptimierung (GPO) ist die Verbesserung der Geschäftsprozesse, d.h. der bereichsübergreifenden Bearbeitung von Geschäftsvorfällen in einem Unternehmen. Bei der GPO werden nicht mehr abgegrenzte Unternehmensbereiche 312
optimiert, dies bedeutet eine Abkehr von tayloristischen, arbeitsteiligen Konzepten. Durch die Fokussierung auf den Kunden und die für den Kunden wertschöpfenden Prozesse entwickelt sich GPO seit Mitte der 80er Jahre zum wichtigsten Managementkonzept. Die Prozessorientierung wurde insbesondere durch ein ausgeprägtes Qualitätsverständnis und neue Arbeitskonzepte wie Teamarbeit (-> Teams, Teamstrukturen) und flache Hierarchien gefördert. Ein wichtiger Anstoß waren auch neue Informationstechnologien, die erstmals ermöglichten, Prozesse über Abteilungsgrenzen hinweg zu automatisieren. GPO führt zu folgenden Wettbewerbsvorteilen: • • • • •
erhöhte Qualität verbesserter Kundenservice reduzierte Durchlaufzeiten Kostensenkung erhöhte Produktivität
2. Ansätze In der Literatur werden zwei unterschiedliche Herangehensweisen unterschieden: •
•
Evolutionärer Ansatz: Optimierung eines bestehenden Prozesses in kleinen Schritten. Dieser -> kontinuierliche Verbesserungsprozess (KVP) ist insbesondere in der ostasiatischen Konsenskultur erfolgreich. Revolutionärer Ansatz: Völlige Neugestaltung eines Prozesses, um dessen Qualität sprunghaft zu steigern. Diese Herangehensweise wird —> Business Process Reengineering (BPR) genannt. Sie wurde Mitte der 80er Jahre am MIT in den USA entwickelt.
(Zu den beiden Ansätzen s.a. —> Management des Wandels) KVP und BPR widersprechen sich nicht und werden in der Praxis selten in Reinkultur angewandt. Erfolgreiche Unternehmen nutzen situationsabhängig beide
Geschäftsprozessoptimierung Methoden. Ein idealtypisches GPOProjekt versucht, mittels BPR Quantensprünge zu erzielen und diese Verbesserungen mit KVP nachhaltig zu sichern.
Geschäftsprozessoptimierung Ängste der Teammitglieder sind transparent. •
3. Erfolgsfaktoren und Durchführung GPO wird grundsätzlich in bereichsübergreifenden Projekten (-» Projektmanagement) durchgeführt. Die wichtigsten Erfolgsfaktoren für ein GPO-Projekt sind: • • • • •
Ergebnis ist ein grobes Modell des Prozesses, das beschreibt, wer wann wo was wie und mit welchen Hilfsmitteln macht. Es ist zweckmäßig, den Prozess zu strukturieren und zwischen Prozessvarianten (z.B. nach Produkten, Kundensegmenten oder Vertriebskanälen) zu unterscheiden. Eine detailgetreue Dokumentation ist nicht erforderlich. Im Vordergrund sollte der Gesamtüberblick stehen.
Top Management Attention (Beauftragung und aktive Steuerung) Integration betroffener Entscheider/ Meinungsbilder in das Projektteam offene und vertrauensvolle Information aller betroffener Mitarbeiter kurze Projektlaufzeit (ca. 3 Monate) bis zum Beginn der Implementierung übersichtliche Projektziele - Konzentration auf das Wesentliche
Ein GPO-Projekt durchläuft in der Regel fünf Phasen: •
Anhand des Modells werden Verbesserungspotenziale identifiziert. Diese können sich auf Prozessphasen, den gesamten Prozess, aber auch auf die Rahmenbedingungen beziehen, unter denen der Prozess ausgeführt wird. Die Umsetzung kleiner Verbesserungen, sogenannte Quick Wins, sollte unverzüglich angestoßen werden.
Iniiiieren: Der Startphase des Projekts, der Projektinitiierung, kommt die höchste Bedeutung zu. Dort werden die Weichen für ein erfolgreiches GPO-Projekt gestellt. Fehler beim Projektstart, wie ungenaue Zieldefinition oder fehlende Top Management Attention, können zu einem späteren Zeitpunkt nur noch sehr schwer wieder korrigieret werden. Die beiden große Herausforderungen sind ein effizientes und zielgerichtetes Projektmanagement sowie ein vertrauensvolles —> Change Management. Am Ende der Initiierungsphase ist das Projektziel abgestimmt, die Vorgehensweise im Projekt festgelegt und der Projektplan einschließlich Meilensteinen und Verantwortlichkeiten erstellt. Das Top Management unterstützt das Projekt sichtbar und im Projektteam ist z.B. durch Teambildungsmaßnahmen eine Vertrauensbasis aufgebaut, die das Team arbeitsfähig macht. Optimalerweise gibt es keine Hidden Agenda, Wünsche und
Identifizieren: In dieser Phase wird identifiziert und bewertet, wie derzeit im Unternehmen gearbeitet wird. Durch Workshops und gezielte Interviews verschafft sich das Projektteam einen Überblick über die Ausgangsituation.
Zugleich zu dieser Ist-Analyse kann bei Bedarf ein Benchmarking aufgesetzt werden, um herauszufinden, wie vergleichbare Unternehmen arbeiten und welche Best Practices es gibt. •
Idealisieren: Bereits vor Abschluss der Ist-Analyse kann mit der Gestaltung eines idealen Sollprozesses begonnen werden. Unabhängig von der Ausgangssituation beschreibt der Sollprozess, wie zukünftig gearbeitet werden soll. Er besteht ausschließlich aus wertschöpfenden Tätigkeiten. Administrative oder behelfsmäßige Arbeitsschritte, die z.B. aufgrund von Organisationsbrüchen derzeit notwendig sind, bleiben unberücksichtigt. Vielmehr werden auf der 313
Geschäftsprozessoptimierung Basis des Sollprozesses die optimale Zielorganisation sowie die notwendige Technik abgeleitet. Die Idealisierungsphase endet mit der Erstellung eines Umsetzungskonzepts, das den Weg vom Ist zum Soll beschreibt. Das Umsetzungskonzept besteht aus einem Bündel von Maßnahmen, z.B. IV-Werkzeuge einfuhren, Organisationsänderungen vornehmen, Personal umsetzen und Mitarbeiter für die neuen Prozesse qualifizieren. Jede Maßnahme wird nach Umsetzbarkeit und ihre Auswirkung auf die Prozessqualität bewertet und mit einem eigenen Projektplan für ihre Implementierung hinterlegt. •
Implementieren: Die Implementierung der Maßnahmen ist die zeitlich aufwendigste Phase des Projekts. In der Regel sind mehrere Teilprojektteams parallel damit beschäftigt, die priorisierten Maßnahmen umzusetzen. Dabei müssen Wechselwirkungen berücksichtigt und die einzelnen Maßnahmen aufeinander abgestimmt werden. Die Umsetzung soll nahtlos an die Konzeptphase anschließen. Die Machbarkeit kann in der Regel durch einen Piloten getestet und ein Roll-OutKonzept sichergestellt werden. Um die Akzeptanz bei den Mitarbeitern zu erhöhen, muss offen kommuniziert und der -> Betriebsrat früh mit einbezogen werden. Das Management kann, falls möglich, durch eine Wirtschaftlichkeitsrechnung überzeugt werden. Andernfalls muss strategisch oder qualitativ argumentiert werden.
•
Inkrementieren: Auch nach einer sprunghaften Steigerung der Prozessqualität ist eine permanente Anpassung des Prozesses nötig, eine ständige Verbesserung möglich. Um die Projektergebnisse nachhaltig zu sichern, muss durch die Etablierung eines Prozessmanagements
314
Geschäftsprozessoptimierung ein permanenter Optimierungsprozess gestartet werden. Ansatzpunkte für ein Prozessmanagement sind zum einen die Definition und das konsequente -> Controlling der Prozessziele, zum anderen das Einrichten abteilungsübergreifender Prozessteams, die die Arbeitsabläufe insbesondere an den Schnittstellen hinterfragen und optimieren. Zwei Einflussfaktoren bestimmen im Wesentlichen die Effizienz des Prozessmanagements : •
•
Eine gute -»Unternehmenskultur. Sie ist der beste Nährboden für Prozessorientierung und damit auch für gute Unternehmensprozesse. Die Verankerung messbarer Prozessziele in den Zielvereinbarungen des Top Managements. Nur dies stellt sicher, dass Prozessziele mit gleichem Nachruck wie Bereichsziele verfolgt werden.
4. Ausblick Viele Unternehmen arbeiten zu Beginn des 21. Jahrhunderts prozessorientiert und sichern sich dadurch Wettbewerbsvorteile. Dabei spielen GPO-Projekte bei der Optimierung des Geschäfts eine bedeutende Rolle. Obwohl Geschäftsprozesse immer öfter zum Steuern des Unternehmens herangezogen werden und auch als Bezugsgröße bei Veränderungen betrachtet werden, bleiben die Unternehmen in der Regel als Linienorganisation aufgestellt. Der Wandel hin zu einer reinen Prozessorganisation wurde bislang nur von ganz wenigen gewagt. Noch immer bringen viele GPO-Projekte nicht die erhofften Quantensprünge. Allerdings ist die Erwartungshaltung gegenüber Projekterfolgen realistischer geworden. GPO ist heue keine verheißungsvolle Zauberformel mehr, sondern wird von vielen als wirkungsvolles Werkzeug bei der Verbesserung ihres Geschäfts gesehen. Nichtsdestotrotz werden in GPO-
Geschäftsprozessoptiniierung Projekten noch viele Fehler gemacht, vor allem in der Initiierungsphase. Die Mehrzahl der Verwaltungen, öffentlichen Einrichtungen und Unternehmen in einer Monopolstellung haben den Weg der Prozessorientierung bislang nur versuchsweise eingeschlagen. Dort verbergen sich noch gewaltige Verbesserungspotenziale, die GPO auch in Zukunft zu einem der herausragenden Managementkonzepte machen. Dominik Gomm Geschäftsstrategie In der angloamerikanischen Literatur zur -> Unternehmungsstrategie werden üblicherweise drei Kategorien unterschieden: Erstens, die "corporate strategy", welche das strategische Verhalten einer Unternehmung resp. einer Unternehmungsgruppe als Ganzes betrifft. Zweitens die "functional strategies", welche die Strategien in Sachbereichen, wie Finanzierung, Beschaffung, Produktion etc. betreffen (-> Funktionale Teilstrategien). Als dritte Kategorie werden die "business strategies", d.h. die Strategien der in einer Unternehmung vereinigten Geschäfte oder Sparten angesprochen. Während die "corporate strategy" gewissermaßen den Handlungsrahmen absteckt und die "functional strategies" spezifische Beiträge leisten, nehmen die Geschäftsstrategien ("business strategies") eine zentrale Stellung bei der Entwicklung und Umsetzung der unternehmerischen Leistungen am Markt ein. In diesem Sinne hält Michael E. Porter (1991, S. 99) fest: "The basic unit of analysis in a theory of strategy must ultimately be a strategic distinct business." Geschäftsstrategien können unter einer marktlichen oder einer ressourcenorientierten Perspektive betrachtet werden. In der marktlichen Sicht, wie sie Porter entwickelt hat, soll eine nachhaltig erfolgreiche Wettbewerbsposition eines Geschäftsbereiches dadurch erreicht werden, dass dieser auf dem Absatzmarkt entwe-
Geschäftsstrategie der als Kostenfiihrer oder als Differenzierer einzigartig positioniert wird. Ein strategischer Wettbewerbsvorteil entsteht demzufolge immer dann, wenn ein Anbieter die gewünschte Leistung entweder kostengünstiger als seine Konkurrenten anbieten kann oder wenn er die Leistung so einzigartig gestaltet, dass der Kunde bereit ist, einen höheren Preis für den Differenzierungsnutzen zu zahlen. Die Positionen können innerhalb einer ganzen Branche oder aber in einem Marktsegment (-> Fokussierung) angestrebt werden. Wesentlich ist, dass sich eine Unternehmung darüber im Klaren ist, welche der generischen Strategien (Kostenführerschaft, Differenzierung, Fokussierung) ein Geschäftsbereich verfolgen soll, damit die Ressourcen, aber auch die Strukturen und die Unternehmenskultur folgerichtig auf diese Strategie ausgerichtet werden können. In einer ressourcenorientierten Sichtweise wird die nachhaltig erfolgreiche Wettbewerbsposition eines Geschäftsbereiches dadurch angestrebt, dass er sich einzigartige Ressourcenkombinationen, sogenannte -> Kernkompetenzen, aneignet. Einzigartig heißt dabei nicht substituierbar, nicht handelbar und für die Konkurrenz nicht imitierbar. Wesentlich in dieser Perspektive ist, dass eine Unternehmung nicht nur in der Lage ist, Kernkompetenzen zu nutzen, sondern sie auch zu entwickeln und im Zeitablauf immer wieder zu erneuern. Man spricht in diesem Zusammenhang von "dynamic capabilities". "We refer to this ability to achieve new forms of competitive advantage as 'dynamic capabilities' to emphasize two key aspects that were not the main focus of attention in previous strategy perspectives. The term 'dynamic' refers to the capacity to renew competences so as to achieve congruence with the changing business environment; certain innovative 315
Geschäftsstrategie responses are required when time-tomarket and timing are critical, the rate of technological change is rapid, and the nature offuture competition and markets difficult to determine. The term 'capabilities' emphasizes the key role of strategic management in appropriately adapting, intergrating, and reconfiguring internal and external organizational skills, resources and functional competencies to match the requirements of a changing environment." (Teece, et al. 1997; S. 515) Dieser dynamische Aspekt führt zur Frage, wie Geschäftsstrategien im Zeitablauf entstehen und wie die verschiedenen Führungsebenen in einer Unternehmung dabei zusammenwirken. In der traditionellen Literatur wird davon ausgegangen, dass die Geschäftsstrategien von der Gesamtleitung aufgrund von Portfolioüberlegungen den Geschäftsbereichen gewissermaßen "top-down" vorgegeben werden. In neuerer Zeit wird nun aber die Bedeutung des mittleren Managements thematisiert, welches in Strategiefindungsprozessen offensichtlich eine bis dahin unterschätzte Stellung einnimmt. Dabei wird vor allem die Relevanz von "bottom-up"Prozessen hervorgehoben, in denen durch Handlungen des mittleren Managements emergent Strategien geformt werden. Die "top-down"-Prozesse, ausgehend vom obersten Management, dienen lediglich der Schaffung strategischer Rahmenbedingungen. In der Realität dürfte die Entwicklung einer Geschäftsstrategie nicht selten aus einer wechselseitigen Beeinflussung von über- und nachgeordneten Stellen resultieren. Damit erscheint der Mehrebenendialog und folglich der Einfluss von personalen und organisationalen Faktoren auf den Entstehungsprozess von Geschäftsstrategien von großer Bedeutung. Literatur: Porter, M. E.: T o w a r d s a dynamic theory of strategy, in: Strategic Management Journal, 12 (Special Issue Winter), 1991, S. 95117; Porter, M. E. (1992a): Wettbewerbsstrategie
316
Gesellschaft bürgerlichen Rechts (GbR) (Compétitive strategy), Frankfurt a. M. 1992; Porter, M. E. (1992b): Wettbewerbsvorteile (Compétitive advantage), Frankfurt a. M. 1992; Porter, M. E.: What ist strategy?, in: Harvard Business Review, 74(6), 1996, S. 6 1 - 7 8 ; Rühli, E.: Ressourcenmanagement - Strategischer Erfolg dank Kernkompetenzen, in: Die Unternehmung, 49(2), 1995, S. 9 1 - 1 0 5 ; Teece, D.J./Pisano, G./Shuen, A.: Dynamic capabilities and stratégie management, in: Strategie Management Journal, 18(7), 1997, S. 5 0 9 - 5 3 3 .
Sybille Sachs Gesellschaft bürgerlichen Rechts (GbR) Die GbR ist der Prototyp der Personengesellschaft (im Gegensatz zur Körperschaft), geregelt in den §§ 705 bis 740 BGB. Die GbR ist eine auf Rechtsgeschäft (dem Gesellschaftsvertrag) beruhende Vereinigung von mindestens zwei Gesellschaftern, die sich zur Förderung eines von ihnen gemeinsam verfolgten Zweckes verpflichtet haben (§ 705 BGB). Entstehung: Die GbR entsteht regelmäßig durch den Abschluss des Gesellschaftsvertrages. Er ist grundsätzlich formfrei, es sei denn, auch formbedürftige Rechtsgeschäfte (wie z.B. das Versprechen zur Leistung eines Grundstücks, vgl. §313 BGB) bilden den Gegenstand des Gesellschaftsvertrages. GbR entstehen daher in der Praxis häufig durch mündliche Vereinbarung oder durch schlüssiges Verhalten, ohne dass sich die Beteiligten immer der Rechtserheblichkeit ihres Tuns bewusst sind. Außer durch Vertragsschluss kann eine GbR auch nach den Vorschriften des Umwandlungsgesetzes oder durch Schrumpfung des handelsgewerblichen Unternehmens einer OHG (-» Offene Handelsgesellschaft) oder KG (-> Kommanditgesellschaft) und Streichung aus dem Handelsregister (vgl. § 105 Abs. 2 HGB) entstehen. Mögliche Zwecke: Der gemeinsam verfolgte Zweck kann wirtschaftlicher (Anwaltssozietät, Emissionskonsortium von Banken), gesellschaftlicher (gemeinsames Chartern eines Segelbootes) oder ideeller (Förderung einer gemeinnützigen Einrichtung) Art sein, er darf jedoch nicht auf
Gesellschaft bürgerlichen Rechts (GbR) den Betrieb eines Handelsgewerbes unter gemeinsamer Firma, dessen Unternehmen nach Art und Umfang einen in kaufmännischer Weise eingerichteten Geschäftsbetrieb erfordert, gerichtet sein, weil die §§ 105 ff. HGB für solche Gesellschaften Sonderregelungen vorsehen (OHG und KG). Da § 705 BGB die Förderung der Erreichung eines gemeinsamen Zweckes vorschreibt, sind die sog. partiarischen Rechtsverhältnisse (Rechtsbeziehungen, bei denen eine Gewinnbeteiligung vereinbart ist, z.B. Darlehen mit Ergebnisbeteiligung) keine GbR. Wichtige Pflichten der Gesellschafter: Eine der Hauptpflichten der Gesellschafter ist die Leistung der im Gesellschaftsvertrag vereinbarten Beiträge, § 705 BGB. Daneben unterliegen die Gesellschafter einer Treuepflicht, welche beinhaltet, die Interessen der GbR zu wahren und alles zu unterlassen, was diese Interessen beeinträchtigen könnte. Wichtige Rechte der Gesellschafter: Zu den wichtigsten Rechten der Gesellschafter zählen im Innenverhältnis die gemeinschaftliche Geschäftsführung (§ 709 BGB) und im Außenverhältnis die Vertretung der GbR. Sowohl die Geschäftsführung als auch die Vertretung können durch den Gesellschaftsvertrag einem oder einigen der Gesellschafter übertragen werden (vgl. § § 7 1 0 bis 713 BGB zur Geschäftsführung und §§ 714 f. BGB zur Vertretung). Weitere wichtige Rechte sind die Beteiligung am Gewinn (§ 722 BGB) und der Anspruch auf das Auseinandersetzungsguthaben bei Auflösung der GbR oder bei Ausscheiden eines Gesellschafters (§§ 734, 738 BGB). Rechtsnatur: Nach herkömmlicher Ansicht besitzt die GbR keine Rechtspersönlichkeit. Die Rechte und Pflichten sind den Gesellschaftern in ihrer gesamthänderischen Verbundenheit zugeordnet. Allerdings kann die (Außen-)GbR als Gesamthandsgemeinschaft ihrer Gesellschafter als Teilnehmer am Rechtsverkehr grundsätzlich, d.h. soweit nicht spezielle
Gesellschaft bürgerlichen Rechts (GbR) rechtliche Gesichtspunkte entgegenstehen, jede Rechtsposition einnehmen. Schuldenhaftung: Der bzw. die vertretungsberechtigten Gesellschafter verpflichten die übrigen Gesellschafter grundsätzlich mit, und zwar nicht nur hinsichtlich ihres in der GbR gebundenen Vermögens, sondern auch hinsichtlich ihres (Privat-)Vermögens. Ein Gläubiger kann also wahlweise auf das in der GbR gebundene gemeinschaftliche Vermögen oder auf das (Privat-)Vermögen eines jeden Gesellschafters zugreifen, wofür er entweder einen Vollstreckungstitel gegen alle Gesellschafter gemäß § 736 ZPO oder gegen den einzelnen Gesellschafter erwerben muss. Die Beschränkung der Haftung auf das in der GbR gebundene Vermögen ist Gläubigern gegenüber möglich, allerdings nur im Wege einer mit dem Vertragspartner individualrechtlich getroffenen Vereinbarung; die Bezeichnung "GbR mbH" o.ä. reicht nicht aus. Ausscheiden und Ausschluss eines Gesellschaflers, Auflösung der GbR: Das Ausscheiden oder der Ausschluss eines Gesellschafters führt grds. zur Auflösung der GbR, wenn nicht durch eine in den Gesellschaftsvertrag aufgenommene Fortsetzungsklausel die GbR von den verbleibenden Gesellschaftern fortgesetzt wird. Ein Ausscheiden ist u.a. möglich durch Tod, Kündigung oder Insolvenz eines Gesellschafters (vgl. § 736 Abs. 1 S. 1 BGB), aber auch durch freiwilliges Ausscheiden bei Zustimmung der anderen Gesellschafter oder durch rechtsgeschäftliche Übertragung des Anteils, wobei sich die Zulässigkeit und die Einzelheiten nach dem Gesellschaftsvertrag richten. Eine /li/ssc/i/iisitnöglichkeit regelt § 737; daneben kann der Gesellschaftsvertrag unter bestimmten Voraussetzungen weitere Ausschlussgründe vorsehen. Die Auflösung der GbR kann durch Kündigung, durch Unmöglichwerden des Gesellschaftszweckes (§ 726 BGB), durch Tod eines Gesellschafters (§ 727 BGB) oder
317
Gesellschaft bürgerlichen Rechts (GbR) durch Eröffnung des Insolvenzverfahrens über das Vermögen der GbR oder eines Gesellschafters erfolgen (vgl. § 728 BGB und § 11 Abs. 1 und 2 Nr. 1 InsO). Als Folge des Ausscheidens oder Ausschlusses eines Gesellschafters wächst der Anteil des Ausscheidenden am Gesellschaftsvermögen automatisch den übrigen Gesellschaftern zu und der Ausscheidende erhält einen Abfindungsanspruch (§ 738 BGB); bei einer Anteilsübertragung können sich Abweichungen ergeben. An eine Auflösung schließt sich, wenn nicht ein Insolvenzverfahren stattfindet, die Phase der Liquidation an. Die GbR gilt gemäß § 730 Abs. 2 S. 1 BGB für die Abwicklung als fortbestehend und erlischt erst, wenn die Auseinandersetzung abgeschlossen ist (vgl. §§ 730 bis 735 BGB). Literatur: Schmidt K.: Gesellschaftsrecht, 3. Aufl., 1997.
Peter Deeg Gesellschaft mit beschränkter Haftung (GmbH) Die GmbH ist als kleinere Schwester der AG (-» Aktiengesellschaft) wegen ihres weitgehend dispositiven Rechts die in der Praxis, gerade im Mittelstand, beliebteste Rechtsform. Verbreitet ist sie als persönlich haftende Gesellschafterin in der GmbH & Co. KG und als Betriebsgesellschaft im Rahmen einer Betriebsaufspaltung. Die GmbH beruht auf einer Erfindung des Gesetzgebers von 1892, ist Kapitalgesellschaft mit eigener Rechtspersönlichkeit und gilt als Handelsgesellschaft. Sie hat ein in Stammeinlagen zu je € 100 zerlegbares, bar und/oder mit Sacheinlagen aufzubringendes Stammkapital von mind. € 25.000. Die Firma kann Sach- oder Personenfirma sein, auch Phantasiebezeichnungen sind zulässig; zwingend ist der GmbH-Zusatz. Die GmbH unterliegt den Publizitätspflichten der §§ 238 ff. HGB. Sie ist insolvenzfähig, § 11 I 1 InsO. Ein eigenes Konzernrecht kennt das GmbHG nicht, die Praxis orientiert sich am Recht der AG.
318
Gesellschaft mit beschränkter Haftung Gründung: Die Gründung durch eine/mehrere Person(en) bedarf notarieller Form; der Vertrag muss mindestens Firma, Sitz und Unternehmensgegenstand, das Stammkapital und die Verteilung der Stammeinlagen bestimmen. Bei einer Einmanngründung besteht nach h.M. bis zur Eintragung im Handelsregister ein Sondervermögen des Gründers. Bei Beteiligung mehrerer Personen vollzieht sich die Gründung in den Stufen der Vorgründungsgesellschaft, der Vorgesellschaft und der mit der Eintragung fertigen Gesellschaft. Die Vorgründungsgesellschaft besteht vom Vertrag über die Gründung bis zur Errichtung der GmbH; sie ist, abhängig vom Vorliegen eines Handelsgewerbes (§ 1 HGB), OHG (-> Offene Handelsgesellschaft) oder BGB-Gesellschafi (-> Gesellschaft bürgerlichen Rechts). Wegen des Schutzzweckes des § 2 I 1 GmbHG bedarf schon der Vertrag über die Vorgründungsgesellschaft notarieller Form. Die Vorgesellschaft besteht von der Errichtung der GmbH bis zur Eintragung im Handelsregister; sie ist Rechtsform "sui generis", alle keine Eintragung voraussetzenden Vorschriften des GmbHG finden Anwendung. Zwischen Vorgesellschaft und GmbH besteht Identität, Vermögen der Vorgesellschaft verbleibt ohne weiteres bei der Gesellschaft, wenn diese GmbH wird. Soll Vermögen der Vorgründungsgesellschaft auf die GmbH übergehen, bedarf es eines Übertragungsaktes. Für die Verbindlichkeiten der Vorgesellschaft haften die Gesellschafter gegenüber der Gesellschaft, sog. Vorbelastungs- oder Unterbilanzhaftung. Kapitalaufbringung/Kapitalerhaltung: Zum Schutz der Gläubiger gelten strenge Kapitalaufbringungs- und -erhaltungsvorschriften. Schon vor der Anmeldung zum Handelsregister sind auf jede Stammeinlage mind. ein Viertel und insgesamt mind. die Hälfte des Stammkapitals einzuzahlen. Im Falle der Einmanngründung ist die Hälfte des Stammkapitals einzuzahlen und für den Rest Sicher-
Gesellschaft mit beschränkter Haftung heit zu bestellen. Bar- und Sacheinlagen sind vor der Anmeldung zur endgültig freien Verfugung der Geschäftsführer zu bewirken. Erreicht eine Sacheinlage nicht den versprochenen Wert, ist Geldersatz zu leisten. Nach Eintragung darf zur Kapitalerhaltung erforderliches Vermögen an die Gesellschafter nicht ausgezahlt werden, dennoch erfolgte Zahlungen müssen erstattet werden. Haben die Gesellschafter neben ihren Einlagen in der Krise Darlehen gewährt (sog. eigenkapitalersetzende Gesellschafterdarlehen), oder andere wirtschaftlich entsprechende Rechtshandlungen vorgenommen, kann der Rückgewähranspruch im Insolvenzverfahren nur nachrangig geltend gemacht werden. Nicht anwendbar sind diese Grundsätze auf nicht geschäftsführende Gesellschafter mit einer Beteiligung von < 10%. Organe: Zwingende Organe sind der/die Geschäftsführer und die Gesellschaftervcrsammlung. Nur im Bereich der Mitbestimmung ist ein Aufsichtsrat zwingend, in der Praxis verbreitet sind Verwaltungsoder Beiräte. Zu Geschäftsführern können Gesellschafter oder Dritte ohne zeitliche Beschränkung bestellt werden; problematisch ist die Bestellung von Ausländern ohne Aufenthaltserlaubnis. Die Geschäftsführer leiten die Gesellschaft, sie sind den Weisungen der Gesellschafterversammlung unterworfen. Sie vertreten die GmbH in unbeschränkbarer Weise. Die Gesellschafterversammlung ist oberstes Willensbildungsorgan der GmbH, sie entscheidet mit der satzungsmäßig vorgesehenen Mehrheit. Grundlegende Entscheidungen wie Satzungsänderungen, Kapitalveränderungen, Auflösung der Gesellschaft u. ä. liegen bei ihr. Verschiedene Minderheitenrechte sind zu beachten, die Gesellschafter unterliegen einer Treuepflicht.
Gesetz gegen Wettbewerbsbeschränkungen Haftung: Für Verbindlichkeiten der GmbH haftet nur diese selbst, die Gesellschafter trifft eine persönliche Haftung nur in den Ausnahmefällen einer Durchgriffshaftung. Die Geschäftsführer haben die Sorgfalt eines ordentlichen Geschäftsmannes anzuwenden und haften der GmbH im Innenverhältnis bei Verletzung ihrer Pflichten, im Außenverhältnis gegenüber den Gläubigern insbesondere bei Verletzung ihrer Insolvenzantragspflicht und bei Verletzung ihrer Pflichten zur Abführung der Arbeitnehmerbeiträge zur Sozialversicherung (§ 823 II BGB i.V.m §§ 64 I GmbHG, 266a StGB). Im Stadium der Vorgesellschaft trifft sie die Handelndenhaftung, § 11 II GmbHG. Nils Dreier Gesetz gegen Wettbewerbsbeschränkungen (GWB) Das Gesetz gegen Wettbewerbsbeschränkungen (GWB) vom 27.7.1957 (BGBl. I, S. 1081) in der Neufassung vom 26.8.1998 (BGBl. I, S. 2546 - 6. GWBNovelle) hatte die alliierten Dekartellierungsgesetze mit ihrem Verbot sämtlicher wettbewerbsbeschränkender Abmachungen, die zum Zwecke der Entflechtung der kriegswirtschaftsbedingten Unternehmenskonzentration erlassen worden waren, abgelöst. Das GWB ist Teil der rechtlichen Grundlegung der Marktwirtschaft und zielt auf eine Ordnung des Wettbewerbs. Unter Wettbewerb ist dabei das selbstständige Streben sich gegenseitig im Wirtschaftserfolg beeinflussender Anbieter oder Nachfrager (Mitbewerber) nach Geschäftsverbindungen mit Dritten (Kunden oder Lieferanten) durch Inaussichtstellen günstig erscheinender Geschäftsbedingungen zu verstehen. Wettbewerbsbeschränkungen sollen verhindert werden. Der Wettbewerb soll gegen willkürliche Beschränkungen der an ihm teilnehmenden Unternehmen gesichert werden.
319
Gesetz geg. Wettbewerbsbeschränkungen Die 6. GWB-Novelle verfolgt drei Zielsetzungen: Stärkung des Wettbewerbsprinzips im Hinblick auf neue Anforderungen, Harmonisierung des deutschen Rechts mit dem Europäischen Recht und Neuordnung sowie Straffung des Gesetzes. Im ersten Teil des Gesetzes (Wettbewerbsbeschränkungen - §§ 1 bis 47) werden sämtliche materiellen Regelungen des Kartellrechts (mit entsprechenden Verboten und ggf. Ausnahmen) einschließlich der Sanktionsmöglichkeiten (sechster Abschnitt - §§ 32 bis 34 - Untersagung, Schadensersatzpflicht, Unterlassungsanspruch, Mehrerlösabschöpfung) getroffen. Es wird grundlegend zwischen (horizontalen) Kartellvereinbarungen, Kartellbeschlüssen und abgestimmtem Verhalten (erster Abschnitt - §§ 1 bis 13) und Vertikalvereinbarungen (zweiter Abschnitt §§ 14 bis 18) differenziert. Vereinbarungen zwischen miteinander im Wettbewerb stehenden Unternehmen, Beschlüsse von Unternehmensvereinigungen und aufeinander abgestimmte Verhaltensweisen, die eine Verhinderung, Einschränkung oder Verfälschung des Wettbewerbs bezwecken oder bewirken, sind nach § 1 verboten (Kartellverbot). Eine Freistellung (Legalisierung) vom grundsätzlichen Kartellverbot kann für Normen-, Typenund Konditionenkartelle (§ 2), für Spezialisierungs- (§ 3), Mittelstands- (§ 4), Rationalisierungs- (§ 5) sowie Strukturkrisenkartelle (§ 6) erfolgen - darüber hinaus aber auch nach dem neu eingeführten Auffangtatbestand des § 7 (Sonstige Kartelle) bzw. nach Maßgabe der Ministererlaubnis (§ 8). Vertikalvereinbarungen über die Preisgestaltung oder Geschäftsbedingungen sind nach § 14 verboten, wovon lediglich für Verlagserzeugnisse eine (allerdings nach europäischem Recht umstrittene) Ausnahme gemacht wird (§ 15). Der dritte Abschnitt (§§ 19 bis 23) trifft Regelungen über die Marktbeherrschung (Missbrauchsaufsicht über marktbeherr320
Gesetz geg. Wettbewerbsbeschränkungen sehende Unternehmen - § 19) und einseitig wettbewerbsbeschränkendes Verhalten in Gestalt eines Verbots der Diskriminierung und der unbilligen Behinderung (§ 20), des Boykotts und sonstigen wettbewerbsbeschränkenden Verhaltens (§ 21) sowie des Empfehlungsverbots (§ 22). Unverbindliche Preisempfehlungen für Markenwaren sind nach § 23 statthaft. Der vierte Abschnitt befasst sich mit Wettbewerbsregeln (§§24 bis 27), der fünfte Abschnitt (§§28 bis 31) trifft Sonderregeln für bestimmte Wirtschaftsbereiche (wie die Landwirtschaft, die Kredit- und Versicherungswirtschaft, Urheberrechtsverwertungsgesellschaften und den Sport). Vorgaben über die Zusammenschlusskontrolle schließen sich im siebenten Abschnitt (§§ 35 bis 43) an. Etwas systemwidrig findet sich im achten Abschnitt (§§44 bis 48) die Zusammenfassung aller Regelungen über die Monopolkommission. Der zweite Teil des GWB (§§ 48 bis 53) behandelt die Kartellbehörden - im ersten Abschnitt (allgemeine Vorschriften §§48 bis 50) die Zuständigkeiten der Kartellbehörden (auch beim Vollzug des europäischen Rechts) und im zweiten Abschnitt (§§ 51 bis 53) das Bundeskartellamt. Der dritte Teil des Gesetzes (§§ 54 bis 96) trifft Verfahrensvorschriften - im ersten Abschnitt (§§ 54 bis 80) in Verwaltungssachen. Dabei wird unterschieden zwischen dem Verfahren vor den Kartellbehörden und dem Gerichtsverfahren (Beschwerde- und Rechtsbeschwerdeverfahren). Der zweite Abschnitt (§§81 bis 86) regelt das Bußgeldverfahren, der dritte Abschnitt (Bürgerliche Rechtsstreitigkeiten - §§ 87 bis 90) die Gerichtszuständigkeit in Zivilprozessen, die kartellrechtliche Fragen aufwerfen, der vierte Abschnitt (gemeinsame Bestimmungen §§91 bis 96) normiert Organisationsvorschriften für alle Verfahrensarten für die in Kartellangelegenheiten zuständigen
Gleitzeitarbeit
Gesetz geg. Wettbewerbsbeschränkungen Oberlandesgerichte und den richtshof.
Bundesge-
Durch die 6. GWB-Novelle 1998 erfolgte im vierten Teil (Vergabe öffentlicher Aufträge - §§ 97 bis 129) eine Aufnahme des Vergaberechts in das Gesetz. Der erste Abschnitt regelt das Vergabeverfahren (§§ 97 bis 101), insbesondere dessen allgemeine Grundsätze, den Anwendungsbereich und die Arten der Vergabe. Dem schließen sich im zweiten Abschnitt (§§ 102 bis 124) Vorgaben über das Nachprüfungsverfahren, d.h. die Nachprüfungsbehörden, das Verfahren vor der Vergabekammer sowie die sofortige Beschwerde gegen Entscheidungen der Vergabekammer an. Im dritten Abschnitt (Sonstige Regelungen - §§ 125 bis 129) findet sich etwa ein Schadensersatzanspruch bei Rechtsmissbrauch (§ 125). Der fünfte Teil (§ 130) regelt den Anwendungsbereich des Gesetzes. Dieses findet Anwendung auf alle Wettbewerbsbeschränkungen, die sich in seinem Geltungsbereich auswirken, auch wenn sie außerhalb des Geltungsbereichs veranlasst wurden. Das GWB erfasst auch Unternehmen der öffentlichen Hand. Der sechste Teil (§ 131) trifft Übergangs- und Schlussbestimmungen. Literatur: Bechthold: G W B , Kartellgesetz, Gesetz gegen Wettbewerbsbeschränkungen, Kommentar, 2. Aufl., 1999; Bunte: Die d. GWB-Novelle, D B 1998; Emmerich: Kartellrecht, 8. Aufl., 1999.
Gerhard Ring Gewinn- und Verlustrechnung Die Gewinn- und Verlustrechnung (GuV) ergänzt bei -» Personengesellschaften die -> Bilanz zum —> Jahresabschluss, bei -»Kapitalgesellschaften die Bilanz, den -> Anhang und -> Lagebericht. In der GuV werden die Aufwendungen und Erträge (-> Basisrechnungssysteme) innerhalb eines Geschäftsjahres erfasst. Dies kann entweder nach dem -> Gesamtkosten- oder nach dem -> Umsatzkostenverfahren geschehen.
Beim Gesamtkostenverfahren werden dem gesamten Aufwand des Geschäftsjahres die Umsatzerlöse, die Veränderungen der Bestände und der aktivierten Eigenleistungen gegenübergestellt. Beim Umsatzkostenverfahren werden die Bestandsveränderungen und aktivierten Eigenleistung nicht berücksichtigt. Entsprechend wird auch der Aufwand des Geschäftsjahres um diese Positionen bereinigt. Gewinnvergleichsverfahren -> Investitionsrechnung Glättungsverfahren Trendforschung Gläubigerausschuss —> Insolvenz Gleitzeitarbeit Die Gleitzeitarbeit ist ein Arbeitszeitmodell, das zur konkreten Ausgestaltung des Arbeitszeitmanagements eingesetzt wird. Bei der Gleitzeitarbeit werden tägliches Arbeitszeitvolumen und Lage der Arbeitszeit am Tag/in der Woche durch den Mitarbeiter selbst bestimmt. Es werden eine Rahmenarbeitszeit, innerhalb derer täglich gearbeitet werden kann sowie die Kemzeit, innerhalb derer Anwesenheitspflicht aller Mitarbeiter besteht und Gleitspannen, innerhalb denen der Beginn, das Ende der Arbeitszeit sowie die Pausen gelegt werden können, bestimmt. Das Flexibilitätspotenzial des Gleitzeitmodells wird beeinflusst durch: maximale Höhe der Zeitguthaben/-schulden, Ausgleichszeitraum für Zeitguthaben/-schulden, maximale Zeitübertragung in den nächsten Berechnungszeitraum, Regelung des Ausgleichs von Zeitguthaben/-schulden (z.B. maximal 2 Gleittage j e Monat). Durch die Abschaffung der Kernzeit kann die Arbeitszeit in vielen Fällen optimaler an abteilungsspezifische Anforderungen angepasst werden. Jedoch sollten in Er-
321
Globai-Account-Marketing
Gleitzeitarbeit satz zur Kernzeit Funktions- bzw. Servicezeiten festgelegt werden (s.a. -> Arbeitszeitmanagement). Karl-Friedrich Ackermann/ Simone Vollmer Global-Account-Marketing 1. Begriff Unter Global-Account-Marketing wird ein Konzept des Individualmarketing verstanden, das eine systematische Auswahl und spezielle Bearbeitung globalvertretener Schlüsselkunden vorsieht. Den Überlegungen des -* Key-Account-Management entsprechend setzt das GlobalAccount-Marketing an der Tatsache an, dass nicht alle Kunden für ein Anbieterunternehmen dieselbe strategische Bedeutung aufweisen. In die Geschäftsbeziehungen zu Kunden, denen eine Schlüsselrolle für die zukünftige Wettbewerbsfähigkeit beigemessen wird, investiert man daher überproportionale Ressourcen. Diese Schlüsselkunden werden im Sinne der —> Kundenorientierung gesondert erfasst und über spezielle Organisationskonzepte betreut. 2. Bedeutung und Aufgaben Das Konzept des Global-AccountMarketing hat in den letzten Jahren stark an Bedeutung gewonnen. Durch Globalisierungs- und Konzentrationstendenzen in der Wirtschaft (-> Globalisierung, - > Fokussierung) ist die absolute Zahl an Global-Accounts gestiegen. Es gibt immer mehr Kunden, die global, d. h. in allen wichtigen Wirtschaftsregionen vertreten sind, während das Geschäft mit nur national operierenden Anbietern zurückgeht. Hinzu kommt, dass gerade GlobalAccounts besonders hohe Anforderungen an ihre Lieferanten stellen. Immer häufiger verlangen sie den Einsatz von Customer-Focus-Programmen. Grundsätzlich ist zwischen strategischen und operativen Aufgaben eines GlobalAccount-Marketing zu unterscheiden. Auf strategischer Ebene ist es zunächst erforderlich, den Stellenwert eines Glo322
bal-Account-Marketing im Rahmen einer marktorientierten Untemehmensstrategie (-> Unternehmungsstrategie) festzulegen. Davon ausgehend sind die Zielsetzungen für das Global-Account-Geschäft zu formulieren. Außerdem ist das Geschäftssystem an den Anforderungen Globaler Accounts auszurichten. Es ist dafür zu sorgen, dass ein Unternehmen grundsätzlich in der Lage ist, sich als Lieferant im Global-AccountGeschäft zu qualifizieren. Zu diesem Zweck muss das Global-AccountMarketing die Erwartungen der Accounts sowie die Leistungsfähigkeit und die Interessen des eigenen Unternehmens analysieren und ggf. Anpassungsprozesse innerhalb der Organisation anstoßen. Es übernimmt damit "im Kleinen" dieselbe Funktion wie das Marketing als Konzept der marktorientierten Unternehmensflihrung, das die Ausrichtung des gesamten Unternehmens auf die Anforderungen des Marktes vorantreibt. Dabei sind nicht nur gesonderte Marketing- und Vertriebskonzepte für Global-Accounts zu entwickeln. Vielmehr muss das Global-AccountMarketing sicherstellen, dass die Erfordernisse des Global-Account-Geschäfts im Rahmen der Strategien sämtlicher Funktionalbereiche, d. h. Beschaffung, Entwicklung, Leistungserstellung, Logistik und After-Sales-Service berücksichtigt werden. Auf operativer Ebene muss das GlobalAccount-Marketing individuelle Kundenbeziehungen managen. Dabei bedarf es in der Regel einer umfangreichen Koordination an der Schnittstelle zum GlobalAccount sowie intern an den Schnittstellen zwischen einzelnen Produktsparten, Ländergesellschaften und Funktionalbereichen. So muss das Global-AccountMarketing in der Pre-Sales-Phase z. B. dafür sorgen, dass gemeinsam mit dem Account eine umfassende Identifikation der Potenziale für eine unternehmensübergreifende Zusammenarbeit vorgenommen wird. In der Sales-Phase ist eine
Global-Account-Marketing möglichst effektive und effiziente Beeinflussung der Entscheider auf Kundenseite herbeizuführen. Zu diesem Zweck sind in der Regel cross-funktional und international besetzte Selling-Teams zu bilden, die geeignet sind, die Mitglieder des AccountBuying-Centers nach ihrer Rolle im Beschaffungsprozess zielgenau zu bearbeiten. In der Phase nach dem Kauf ist eine wesentliche Aufgabe des GlobalAccount-Marketing in der Entwicklung der Kundenbeziehung und der Verbesserung der Beziehungsqualität zu sehen. 3. Organisatorische Umsetzung In der Praxis erweist sich vor allem die organisatorische Umsetzung von GlobalAccount-Programmen als problematisch. Defizite in der Kommunikation zum Kunden sowie zwischen den Ländergesellschaften oder Sparten haben zur Folge, dass Wachstumspotenziale, insbesondere Cross-Selling-Potenziale häufig nicht erkannt und ausgeschöpft werden. Hinzu kommt, dass die Umsetzung spezieller Konzepte für Global-Accounts in den operativen Einheiten häufig durch Länder- und Spartenegoismen behindert wird. So scheitert z.B. der Abschluss globaler Rahmenabkommen in der Praxis nicht selten an den Eigeninteressen einzelner Konzemgesellschaften. Als zentraler Erfolgsfaktor eines GlobalAccount-Marketing ist insofern die simultane Gestaltung der organisatorischen Eckpfeiler Prozesse, Strukturen und Führungskonzepte zu betrachten. Voraussetzung für eine erfolgreiche Umsetzung eines Global-Account-Marketing bildet eine klare Regelung der kundenbezogenen Prozesse. Kommunikationswege und -inhalte sollten festgelegt, Aufgaben, Kompetenzen und Verantwortung aller an der Global-Account-Bearbeitung beteiligten Einheiten eindeutig definiert werden. Wichtig ist auch die Entwicklung prozessbezogener Kennziffern über die sich der Erfolg Einheiten übergreifender Abläufe, wie z. B. der Erfolg des Solution-
Global-Account-Marketing Selling-Prozesses oder des ServiceProzesses im Systemverkauf messen lässt. Als zweckmäßig erweist sich dabei vielfach eine DV-technische Hinterlegung der Abläufe durch den Einsatz von WorkflowManagement-Systemen (-> WorkflowManagement). An der Schnittstelle zum Kunden lassen sich vor allem durch E-Commerce-Lösungen (->• E-Commerce) z. T. erhebliche Effizienzsteigerungspotenziale realisieren. Strukturell verankert wird das GlobalAccount-Marketing in der Regel über Formen der Teamorganisation (-> Gruppenkonzepte, Teams, ->• Teamstrukturen). Die Verantwortung für die Führung eines Global-Accounts liegt in diesem Falle bei einer Gruppe von Mitarbeitern aus verschiedenen Abteilungen, die durch einen Global-Account-Manager gesteuert wird. Ob und wie funktionsfähig diese Teams sind, hängt von der Integration des Global-Account-Marketing in die Gesamtorganisation ab. Häufig ist es als Stabs- oder Matrixfunktion organisiert, was impliziert, dass es gegenüber den operativen Einheiten bestenfalls über fachliche Weisungsbefugnisse verfügt (-> Organisationsformen, —• Organisationstrukturen). Dadurch fällt es den Trägern des Global-Account-Marketing z.T. schwer, global und spartenübergreifend ausgerichtete Konzepte umzusetzen, vor allem, wenn diese den Eigeninteressen der operativen Einheiten zuwiderlaufen. In einzelnen Fällen sind dem GlobalAccount-Marketing allerdings auch eigene Ressourcen zugeordnet. Befragungen im Industriegütersektor haben ergeben, dass einige Unternehmen z. B. eine eigene Service- oder Vertriebs-Organisation für Global-Accounts eingerichtet haben. Gerade auf Grund der relativ schwachen Stellung des Global-Account-Marketing innerhalb der Aufbauorganisation kommt den Führungskonzepten bei der Umsetzung eine bedeutende Rolle zu. Erforderlich sind spezielle Qualifizierungsprogramme für Global-Account-Manager 323
Global Marketing
Global-Account-Marketing (-> Führungsgrundsätze). Nur wenn diese neben fachlichen Fähigkeiten über eine hohe soziale Kompetenz und interkulturelles Verhandlungsgeschick verfugen, sind sie in der Lage, kundenbezogene Planungen evtl. auch gegen den Widerstand einzelner Einheiten durchzusetzen. Zugleich ist es für ihre Motivation zentral, dass bei der Leistungsbemessung Kriterien zu Grunde gelegt werden, die sie aktiv beeinflussen können. Kritisch zu sehen ist insofern eine eindimensionale Performancebeurteilung über monetäre Größen wie z.B. Umsatz, da die GlobalAccount-Manager darauf nur bedingt einwirken können. Literatur: Barth, K./Lockau, I.: Hürdenlauf beim Global-Account-Marketing, in: Absatzwirtschaft, 7/1998, S. 82-85; Beiz, C./Reinhold, M.: Internationales Vertriebsmanagement für Industriegüter, St. Gallen/Wien, 1999; Kleinaltenkamp M./Rieker S. A.: Kundenorientierte Organisation, in: Plinke, W./ Kleinaltenkamp, M. (Hrsg.): Geschäftsbeziehungsmanagement, Berlin etal., 1997.
Klaus Barth/Ina Lockau Global Marketing Global Marketing bezeichnet die Verfolgung einer "weltorientierten" Absatzstrategie.
Abb. 1: Sich selbst verstärkender
324
Ausgehend von der Standardisierungs/Differenzierungsdebatte hat Levitt in dem klassischen Aufsatz "The Globalization of Markets" das Ende der multinationalen Konzerne beschworen. Er und andere Autoren verknüpften schließlich vier Thesen zu einer Argumentationskette, die man als einen sich selbst verstärkenden Globalisierungsprozess interpretieren kann (vgl. Abb. 1). Die Konvergenzthese sagt eine zunehmende Angleichung der Verbrauchergruppen voraus, die in vielen Konsumbereichen mit der Homogenisierung der Bedürfnisse einhergehe. In dem Maße, wie die Märkte konvergierten, könne auf eine Anpassung der Instrumente und Prozesse an lokale bzw. nationale Besonderheiten verzichtet werden (Standardisierungsthese). Die Zentralisationsthese verkörpert den dritten Eckpfeiler des Konzepts, dessen Verfolgung auf mittlere Sicht unweigerlich zur produktorientierten Umgestaltung der Organisationsstruktur sowie zu Integration und Koordination von Informationsbeschaffung und Entscheidungsfindung führt. Nachdem "multiple" Unternehmenskulturen erfah-
Globalisierungsprozess
Global Sourcing
Global Marketing rungsgemäß das Entstehen einer globalen Orientierung beeinträchtigen, bedarf es auch der Entwicklung eines "Commonworld-view", einer global ausgerichteten Unternehmenskultur. Schließlich gehören die Strategie der -> Kostenführerschaft und die Nutzung von Preisvorteilen in den Märkten (Kosten- bzw. Preisvorteilsthese) zu den weiteren Bestimmungsgründen des Global Marketing. Der Kreis schließt sich, wenn, wie unterstellt wird, die Weitergabe des Preisvorteils die Homogenisierung der Nachfrage beschleunigt. Die Wirkung des Global Marketing beruht im wesentlichen auf •
•
• • • •
konventionellen komparativen Vorteilen (geringere Faktorkosten, bessere Faktorqualität), Betriebsgrößenersparnissen (Sicherung der effizienten Mindestgröße der Kapazität, Verteilung von Fixkosten auf viele Märkte), dem Effekt der -» Erfahrungskurve, Ausstrahlungseffekten des Weltmarkenkonzepts, der systematischen Nutzung von Standort vorteilen sowie dem Austausch von Fähigkeiten und Know how (z.B. Marktinformation und Technologie) zwischen den Subsystemen des Unternehmens.
Der große Anklang, den gerade die Standardisierungsthese in den frühen achtziger Jahren gefunden hat, lässt sich unschwer mit dem damals gewachsenen Bewußtsein für die Risiken stagnierender Märkte erklären, die durch Standardisierungsgewinne (Kostenreduktion) scheinbar leichter zu begrenzen waren als durch Nutzung des Differenzierungsvorteils (Mehrerlös). Im weitesten Sinn bedeutet Standardisierung, identische Produkte zu unveränderten Preisen/Konditionen mit Hilfe gleicher Distributionskanäle und Kommunikationskonzepte zu vertreiben was naturgemäß bei homogenen Märkten am leichtesten fällt.
Literatur: Die Gruppe von Lissabon (Hrsg.): Grenzen des Wettbewerbs, München 1997; Müller, S./Kommeier, M.: Interkulturelles Marketing, München 2000; Steger, U. (Hrsg.): Facetten der Globalisierung, Berlin 1999.
Stefan Müller Global Player Als Global Player bezeichnet man ein Unternehmen, das "auf allen relevanten Märkten der Triade nachhaltig präsent" ist. Mit der Bezeichnung "Global Player" sollte man vorsichtig umgehen. Häufig ist es keineswegs eindeutig, ob es sich bei einem Unternehmen um einen Exporteur, ein internationales Unternehmen, einen "Multi" oder um einen Global Player handelt. Zu der vergleichsweise kleinen Gruppe von Unternehmen, die als echte Global Player bezeichnet werden können, zählt bspw. Nestlé. Der weltweit größte Konzern, Mitsubishi, erzielte 1995 mit U S - $ 1 8 2 M r d . insgesamt US-$ 7 Mrd. mehr an Umsatz als Indonesien, das nach Maßgabe der Bevölkerungszahl viertgrößte Land, in demselben Jahr erwirtschaftete. Weder für diese schon seit vielen Jahren weltweit engagierten Unternehmen noch für andere Global Player bedeutet Globalisierung allerdings undifferenzierte Standardisierung der Unternehmenspolitik oder des Marketing (-» Global Marketing). Fälschlicherweise werden diese beiden Strategiekonzepte häufig gleichgesetzt. Stefan Müller Global Sourcing Global Sourcing bezeichnet die Globalisierung der Beschaffungspolitik. Neben Kostenüberlegungen (verminderte Transaktionskosten durch Verbesserung der Transport- und Informationstechnologie sowie den Abbau von Handelshemmnissen) begünstigen folgende Unternehmensziele das Global Sourcing: •
Teilnahme am weltweiten Know howTransfer durch Präsenz auf internationalen Märkten,
325
Global Sourcing •
•
•
•
Nutzung weltweit verstreuter Informationen und Unterstützung der strategischen Früherkennung ("Horchposten"), Überwindung von Markteintrittsbarrieren bei der Erschließung neuer Absatzmärkte (z.B. bei einer Local Content-Politik des Abnehmerlandes), Vorbereitung auf die -> Globalisierung der Produktion durch Gründung von Auslandsniederlassungen, Reduktion der Abhängigkeit von Lieferanten.
Das von M. McLuhan bereits in den sechziger Jahren beschriebene "globale Dorf', damals von nicht wenigen als überschäumende Phantasie eines Visionärs abgetan, ist mittlerweile selbst fiir viele Unternehmen, die nur den nationalen Markt bearbeiten, Realität geworden. Denn verständlicherweise bedeutet Denken in globalen Dimensionen nicht nur, Produkte weltweit zu verkaufen (-»Global Marketing). Dazu gehört auch, die zur Herstellung der Güter notwendigen Rohstoffe und Vorleistungen dort auf dem Weltmarkt zu beschaffen, wo sie am besten, schnellsten, billigsten etc. angeboten werden. Natürlich betrieben die Unternehmen seit jeher Global Sourcing. Während ursprünglich aber in erster Linie Rohprodukte aus dem primären Bereich (landwirtschaftliche Erzeugnisse, Bergbauprodukte, Erdöl etc.) weltweit beschafft wurden, erweiterte sich die Einkaufspalette im Zuge der "DownstreamArbeitsteilung". Dass dazu zunehmend auch Komponenten und Halbfertigprodukte zählen, lässt sich mit den vier "Treibern" des Global Sourcing begründen: (1) Starkes Kostengefälle zwischen Industrie- und Schwellenländern, (2) Angleichung des industriellen Know how, (3) Relativer Rückgang von Transportkosten und Transportzeit, 326
(4) Aufwertung sens".
des
Globalisierung "Beschaffungswe-
Deutsche Unternehmen importieren gleichfalls in wachsendem Umfang Rohstoffe und Vorprodukte, die hierzulande zu einem wettbewerbsfähigen Endprodukt veredelt und anschließend exportiert werden ("Downstream- Arbeitsteilung"). Deshalb stieg der Anteil der importierten Zulieferungen an den gesamten Vorleistungen in der westdeutschen Elektrotechnik-Industrie auf mittlerweile 30%, im Maschinenbau auf 34% und in der Chemischen Industrie sogar auf 45%. Diese "intraindustrielle Arbeitsteilung", die im übrigen schneller voranschreitet als die inter-industrielle, praktizieren z.B. Unternehmen der Computerbranche, die nicht nur als Hersteller, sondern auch als Abnehmer von Geräten der Datenverarbeitung (z.B. Rechner, Komponenten) auftreten. Literatur: Die Gruppe von Lissabon (Hrsg.): Grenzen des Wettbewerbs, München 1997; Müller, S./Kommeier, M.: Interkulturelles Marketing, München 2000; Steger, U. (Hrsg.): Facetten der Globalisierung, Berlin 1999.
Stefan Müller Globalaktie -> Aktie Globales Management Management, internationales Globalisierung Globalisierung beschreibt die Zunahme weltweiter Verflechtungen von Güter-, Dienstleistungsund Kapitalströmen sowie Arbeitskräften. Dieser Öffnungsprozess der Weltwirtschaft wurde durch mehrere Faktoren begünstigt: einerseits durch Entwicklungen auf den Gebieten der Informations- und Kommunikationstechnologie, die erstmals eine weltweite Vernetzung von Arbeitsprozessen ermöglichen, andererseits durch Liberalisierungs- und Harmonisierungsbestrebungen, wie beispielsweise den Abbau von Zöllen und Handelsschranken.
Globalisierung
Globalisierung Unter Globalisierung wird die Zunahme internationaler Wirtschaftsbeziehungen und -Verflechtungen sowie das Zusammenwachsen von Güter- und Dienstleistungsmärkten über die Grenzen einzelner Staaten hinweg verstanden. Eine herausragende Rolle kommt dabei den internationalen Kapitalströmen sowie der Entwicklung und Diffusion neuer Technologien zu. Aus der Sicht von Unternehmen stellt die Globalisierung eine Option im Rahmen der Entwicklung einer internationalen Strategie dar. Durch die Ausnutzung von Standortvorteilen und die Erzielung von Skaleneffekten wird versucht, Wettbewerbsvorteile zu generieren. Während die These der Globalisierung zunächst weitgehend auf die internationale Produktpolitik beschränkt war, vollzog sich nach und nach eine Ausweitung auf das gesamte internationale Marketing-Mix und schließlich auf die Unternehmenstätigkeit insgesamt. Zu den wesentlichen Charakteristika der Globalisierung, welche Ursachen und Auswirkungen gleichermaßen darstellen, gehören u.a. Direktinvestitionen von Firmen im Ausland, die Bildung multinationaler Unternehmen, das Global Sourcing, also die Entwicklung von Zulieferbeziehungen über Staatsgrenzen hinweg (-> Import-Management, -> Global Sourcing), Finanztransaktionen und -Verflechtungen, sowie die weltweite Vernetzung von Kapitalmärkten. Dabei ist in jüngerer Zeit eine Verlagerung des Fokus zu beobachten. Während das Hauptgewicht der Globalisierungsbemühungen lange auf der Integration von "Output-Märkten", also dem Welthandel mit fertigen Industrieprodukten, lag, lassen sich in zunehmendem Maße Integrationstendenzen der "Input-Märkte" feststellen. Darüber hinaus kommt es vermehrt zu einer grenzüberschreitenden Organisation der Produktion sowie produktionsnaher Dienstleistungen in international tätigen Unternehmen.
Zu den bedeutsamsten Folgen der Globalisierung zählt die Zunahme des Welthandels. So hat sich in den letzten 20 Jahren der Anteil des weltweiten Warenexports an der Weltgüterproduktion von rund 10% auf weit über 20% mehr als verdoppelt. Der Anteil international gehandelter Dienstleistungen hat sich in ähnlicher Weise erhöht. Jahr
Volumen
1980 1996,5 1857,6 1982 1909,4 1984 2129,4 1986 1988 2826,6 1990 3425,1 1992 3661,2 1994 4169,1 1996 5169,8 1997 5350,1 5307,2 1998 Welthandel (Exporte) (Quelle: WTO-A
Veränderung gegenüber dem Vorjahr nominal real +2% +22% -3% -7% +7% +5% + 10% +6% +12% +9% + 12% +5% +7% +4% + 14% +9% +4% +6% +3% +5% -1% +4% 1980-1998 (in Mrd. US-$) ußenhandelsstalistik)
Zwei theoretische Ansätze werden mit der Globalisierung in Verbindung gebracht. Dabei handelt es sich einerseits um die Transaktionskostentheorie, die davon ausgeht, dass sich die Transaktionskosten wirtschaftlicher Aktivitäten durch deren globale Ausrichtung senken lassen. Hauptvorteile des Globalisierungsprozesses sind folglich neben der Nutzung weltweiter Marktchancen Kostensenkungspotenziale, die insbesondere in den Bereichen Beschaffung, Forschung und Entwicklung, Produktion sowie Distribution und Logistik gesehen werden. Andererseits lässt sich die Globalisierung aber auch vor dem Hintergrund der Konvergenztheorie betrachten, in deren Zentrum die Annahme steht, dass sich die unterschiedlichen Märkte aufgrund ökonomischer und technischer Entwicklungen immer weiter annähern, wodurch interkulturelle Unterschiede in zunehmendem Maße in den Hintergrund treten. Die Gültigkeit der Konvergenzthese wird jedoch vielfach in Frage gestellt. So halten Kritiker aufgrund einer mangelnden 327
Goodwill (werblich)
Globalisierung Standardisierbarkeit einer Vielzahl von Produkten und Unternehmensaktivitäten eine länderspezifische Strategie gegenüber einer Globalisierungsstrategie für überlegen. Ihr Hauptargument ist, dass sich die Lokalisierungsvorteile, die sich aufgrund unterschiedlicher ökonomischer, technischer, kultureller und politischrechtlicher Spezifika der einzelnen Länder ergeben, nur mit Hilfe einer bedürfnis- und situationsgerechten Differenzierung der Marktbearbeitung nutzen lassen. Insgesamt beschränkt sich der Prozess der Globalisierung jedoch keinesfalls auf ökonomische Fragestellungen. Betroffen sind vielmehr alle gesellschaftlichen Bereiche, weswegen Globalisierung auch als Intensivierung von Verflechtungszusammenhängen bezeichnet werden kann, welche die Grenzen nationaler Gesellschaften überschreitet. Manfred Perlitz/Olaf Rank GmbH & Co. KG Grundtypenvermischung von Personenhandels- und -> Kapitalgesellschaft, bei der die -»Gesellschaft mit beschränkter Haftung persönlich haftende Gesellschafterin der -> Kommanditgesellschaft ist. Die GmbH & Co. K G ist bei der -*• Rechtsformwahl zu berücksichtigen. Goß -> Grundsätze führung
ordnungsgemäßer
Buch-
Goodwill (bilanziell) Der Goodwill (auch: Firmenwert oder Geschäftswert) bezeichnet die (positive) Differenz zwischen dem tatsächlichen Unternehmenswert - einem zukunftsbezogenen, subjektiven Wert - und dem in der Handelsbilanz ausgewiesenen Wert. Die Handelsbilanz verlangt unter Beachtung des Einzelbewertungsprinzips nach Rechtssicherheit und objektiven, nachprüfbaren Wertansätzen. Der ertragsabhängige Gesamtwert eines Unternehmens (Zukunftserfolgswert) ist i.d.R. höher als die Summe der in der Handelsbilanz ausgewiesenen Einzelwerte (Substanz328
wert). Der Goodwill gleicht diese Differenz aus, so dass gilt: Zukunftserfolgswert = Substanzwert + Goodwill. Der Goodwill stellt einen Vermögensgegenstand immaterieller Art ( - • Vermögensgegenstände, immaterielle) für das Unternehmen dar, der einen zumeist positiven Beitrag zum Erfolg des Unternehmens leistet. Typische Bestandteile des Goodwill sind: ein gut ausgebildetes Human Kapital, eine effiziente -* Organisationsstruktur, eine effiziente Faktorkombination, ein gute Reputation, eine bekannte Marke (-> Brand Equity). Nimmt der Goodwill einen negativen Wert an, etwa weil das Unternehmen schlecht organisiert ist, spricht man von einem "negativen Goodwill" oder "Badwill". Goodwill (werblich) Bezeichnet die bei einem Rezipienten einer Werbemaßnahme erzielte positive Produkteinschätzung. Demnach wirkt die Werbung nicht direkt verkaufsfördernd, sondern nur über den Umweg der Schaffung von Goodwill beim potenziellen Konsumenten. Bei einem Aussetzen der Werbemaßnahmen verringert sich der Goodwill und die damit verbundene Absatzwirkung. Besondere Bedeutung hat der Begriff des werblichen Goodwills im Rahmen der dynamischen Werbebudgetplanung (-» Werbebudgetierung) erlangt. Der werbliche Goodwill dient dort der Analyse von Carry-over-Effekten in der Werbung, d.h. der Analyse des zeitlichen Auseinanderfallens von Werbemitteleinsatz und Werbemittelwirkung (-> Werbewirkungskontrolle). Es werden zwei Formen des werblichen Goodwills unterschieden: 1. Der direkte werbliche Goodwill (auch: direkter Goodwilltransfer): Annahme, das die Werbemaßnahme nicht in der gleichen Periode, sondern ausschließlich in späteren Perioden wirkt. Dafür werden folgende Erklärungsansätze geliefert: Es muss zu Wiederholungs-
Grenzkosten
Goodwill (werblich) kontakten mit der Werbemaßnahme kommen bevor diese verkaufsfördernd wirkt (Lernschwelle); die Werbemaßnahme schafft zwar eine positive Produkteinschätzung, diese wirkt sich jedoch aufgrund mangelnder Kaufkraft oder aufgrund spekulativer Überlegungen nicht sofort verkaufsfördernd aus. 2. Der indirekte werbliche Goodwill (auch: indirekter Goodwilltransfer): Annahme, dass sich Werbemaßnahmen nicht nur in der Periode ihrer Durchfuhrung, sondern auch in Folgeperioden auswirken. Dafür werden folgende Erklärungsansätze geliefert: Kurzfristige Verhaltensänderung der Konsumenten (Laufkunden kommen hinzu und Stammkunden weiten ihren Konsum aus); Modell der gemischten Kommunikation, wonach Werbung auf verschiedene Konsumentengruppen unterschiedlich wirkt (Starke Wirkung der Werbung auf die Konsumentengruppe der Innovatoren, die noch in der selben Periode das Produkt kaufen. Indirekte Wirkung auf die Konsumentengruppe der Imitatoren, die ihre Kaufentscheidung vom Produktverbreitungsgrad abhängig machen, welcher wiederum über die Innovatorennachfrage von der Werbung abhängt). Gozinto-Graph Der Gozinto-Graph ist ein Berechnungsverfahren im Bereich der Bedarfsplanung in der Fertigung. Hier dient er zur Produkt- und Teilbedarfsrechnung. Dieser Graph wurde von A. Vazsonyi entwickelt. Nach seinen Angaben stammt diese Entwicklung jedoch von dem Italiener Zepartzat Gozinto, einer Phantasiefigur, die nicht real existiert. Doch beschreibt der Name, englisch ausgesprochen, sehr gut den Inhalt: "the pari that goes into". Das Vorgehen zur Aufstellung des Graphen ist dabei wie folgt: Zur Feststellung der benötigten Mengen wird ein Schaubild (der Graph) gezeichnet, welches die
Verhältnisse zwischen Produkt, Vorprodukt und Werkstoff zeigt, d.h. wie viele Teile werden für die nächst höhere Stufe direkt benötigt. Es ist also mit diesen Angaben möglich den Bedarf zu berechnen. Beispiel: Für das Produkt P werden drei Vorprodukte V, zwei Vorprodukte W sowie einmal der Werkstoff 1 benötigt. Vorprodukt V besteht aus sieben Teilen des Werkstoff 4. Vorprodukt W setzt sich zusammen aus zwei Teilen des Werkstoffs 1 sowie drei Teilen des Werkstoffs 3. Somit lässt sich der Bedarf recht einfach ermitteln. Benötigt werden folglich drei Vorprodukte V, zwei Vorprodukte W, drei Teile des Werkstoffs 1, drei des Werkstoffs 3 und sieben Teile von Werkstoff 4 um das Produkt P herzustellen. Graphical Evaluation and Review Technique Projektmanagement, -> Netzplan Graues Eigenkapital Pensionsrückstellungen Greenfield Investment -> Auslandsgesellschaft Greenshoe -* Book-Building-Verfahren Grenzertrag Der Grenzertrag gibt als partieller Grenzertrag an, um wieviel sich die Ausbringungsmenge (also z.B. die Produktionsmenge) eines Gutes verändert, wenn von einem der benötigten Produktionsfaktoren eine Einheit mehr eingesetzt wird. In seiner totalen Variante gibt der Grenzertrag an, um wieviel sich die Ausbringungsmenge ändert, wenn von allen Produktionsfaktoren eine Mengeneinheit mehr verwendet wird. Grenzkosten Die Grenzkosten geben an, um wieviel die Kosten bei Herstellung einer weiteren (letzten) Einheit ansteigen. Die Grenzkosten entsprechen also genau dem Betrag, der sich aus der Differenz der Kos-
329
Groupthink
Grenzkosten ten nach Herstellung dieser Einheit und den Kosten vor Herstellung der Einheit ergibt. Die Grenzkosten stellen die Preisuntergrenze des Gutes dar, da ein geringerer Preis einem Verlust pro produzierter (und abgesetzter) Einheit gleichkäme. Grenzplankostenrechnung Auch: Plankostenrechnung auf Teilkostenbasis. Maßgebliche theoretische Bearbeitung in Deutschland durch Wolfgang Kilger. 1. Zielsetzung Die Grenzplankostenrechnung ist eine entscheidungsorientierte Form der Kostenrechnung, die der Bereitstellung von Kostendaten fiir die kurzfristige betriebliche Planung dient. 2. Anwendungsbereiche a) Verfahrenswahl Beispiele: Lösung von Make-orBuy Entscheidungen, Wahl des Maschinentyps, Wahl der optimalen Losgröße. b) Verkaufssteuerung Entscheidung über die Aufnahme von Produkten in das Verkaufssortiment mittels Deckungsbeiträgen. Bei NichtVorhandensein von Engpässen mittels absoluter Deckungsbeiträge bei Vorhandensein von Engpässen mittels relativer - auf die Engpassgröße bezogener - Deckungsbeiträge. c) Soll-Ist-Kostenvergleiche In Kombination mit einer Vollkostenrechnung sind neben dem reinen SollIst-Vergleich der variablen Plankosten auch Aufgaben wie Bestandsbewertung und Selbstkostenermittlung möglich. 3. Ansatz Die Grenzplankostenrechnung bezieht ausschließlich proportionale Kosten in die Berechnung von Verrechnungs- und Kalkulationssätzen mit ein. Dadurch wird die für die Vollkostenrechnung typische Proportionalisierung der Fixkosten vermieden. 330
Groupthink Nach Janis (1995) ist Groupthink ein Denkmodus, bei dem das Bemühen der Gruppenmitglieder (-> Team, -> Gruppenkonzepte) um Einmütigkeit und Konsens, ihre Motivation alternative Wege realistisch zu bewerten, übertönt. Demnach erreichen Gruppen, die dem Groupthink unterliegen, schlechte Entscheidungen als Folge einer starken Tendenz zur Übereinstimmung, was wiederum kritisches Hinterfragen eines einmal eingeschlagenen Weges unterdrückt. Janis definiert folgende Symptome des Groupthink: •
• •
• •
• • •
Illusion der Unverwundbarkeit, was zu großem Optimismus und zum Eingehen extremer Risiken führt, kollektive Bemühungen, den eingeschlagenen Weg zu rationalisieren, ein nicht hinterfragter Glaube an die inhärente ethische Korrektheit der Gruppe, stereotype Vorstellungen über Kontrahenten als dumm oder schwach, Ausübung direkten Drucks auf Mitglieder der Gruppe, die gegen die stereotypen Meinungen der Gruppe argumentieren, Selbstzensur gegenüber der Abweichung vom Gruppenkonsens, eine geteilte Illusion der Einmütigkeit und das Auftreten von selbsternannten Bewusstseinswächtern, um zuwiderlaufende Informationen abzuwehren.
Nach Janis liegt die primäre Vorbedingung für das Entstehen von Groupthink in der Konstitution einer hochkohäsiven Gruppe. Die Kohäsion (der Zusammenhalt) einer Gruppe resultiert aus der Bedeutung, die Individuen der Zugehörigkeit zu einer Gruppe beimessen. Janis sieht starken Zusammenhalt in einer Gruppe als notwendige, jedoch nicht hinreichende Voraussetzung für Groupthink. Für das massive Auftreten von
Groupthink Groupthink-Symptomen und daraus resultierende Fehlentscheidungen sei es notwendig, dass weitere Vorbedingungen, wie z. B. Isolation der Gruppe, eintreten. Zudem sei Kohäsion nicht per se ein negatives Gruppenmerkmal, sondern vielmehr sei ein gewisses Maß an Kohäsion notwendig, damit die Gruppe als soziale Einheit existieren und funktionieren könne. Literatur: Janis, I.L.: Groupthink; in: Staw, B.M. (Hrsg.): Psychological dimensions of organizational behavior, 2. Aufl., Englewood Cliffs 1995.
Hans Georg Gemünden/Martin Högl Grundsätze ordnungsmäßiger Buchführung (GoB) 1. Begriff, Rechtsnatur und Ermittlung von GoB Nach dem Handelsrecht (§ 23S An.v 1 HGB) ist "jeder Kaufmann (..) verpflichtet, Bücher zu führen und in diesen seine Handelsgeschäfte und die Lage seines Vermögens nach den Grundsätzen ordnungsmäßiger Buchführung ersichtlich zu machen" § 243 Abs. 1 HGB bestimmt: "Der -> Jahresabschluss ist nach den Grundsätzen ordnungsmäßiger Buchführung aufzustellen." Die Grundsätze ordnungsmäßiger Buchführung (GoB) regeln somit nicht nur die fortlaufende Aufzeichnung der Geschäftsvorfalle (Buchführung im engeren Sinn) samt Inventur und Inventar, sondern auch den Jahresabschluss (-» Bilanz, > Gewinn- und Verlustrechnung). Die gebräuchliche Abkürzung GoB bezeichnet daher in aller Regel handelsrechtliche Grundsätze ordnungsmäßiger Buchführung und Bilanzierung. Schließlich ist nach § 5 Abs. 1 Satz 1 EStG auch in der Steuerbilanz (§ 60 EStDV) "das Betriebsvermögen anzusetzen (..), das nach den handelsrechtlichen Grundsätzen ordnungsmäßiger Buchführung auszuweisen ist" (sog. Maßgeblichkeit der handelsrechtlichen GoB für die steuerliche Gewinnermittlung). Typischerweise unterteilt man die GoB in formelle Grundsätze, aus denen "die An-
Grundsätze ordnungsm. Buchführung forderungen an die buchungstechnische Erfassung der Geschäftsvorfälle" hervorgehen, und materielle Grundsätze, "welche die inhaltlich richtige Darstellung der Geschäftsvorfälle konkretisieren" (Lang 1986). Als GoB gelten nur rechtsformunabhängige (rechts formweurra/e) Grundsätze: "Der Gesetzgeber hat eine Übernahme von rechtsformspezifischen Grundsätzen in den Bereich der GoB ausdrücklich nicht gewollt"(Beisse 1997), was nicht zuletzt in der Trennung der,Vorschriften für alle Kaufleute' (§§ 238-263 HGB) von den Ergänzenden Vorschriften für Kapitalgesellschaften' (§§ 264 ff. HGB) zum Ausdruck kommt. Schließlich ist die Zugehörigkeit von Rechnungslegungsgrundsätzen zu den GoB unabhängig davon, ob diese kodifiziert sind oder nicht. "Der Gesetzgeber hat hier keinen Unterschied zwischen gesetztem Recht und ungeschriebenen GoB gemacht." (Beisse 1997). Ursprünglich wurden GoB als unter ordentlichen Kaufleuten praktizierter Handelsbrauch angesehen, der entsprechend "empirisch zu ermitteln war. Dieser sog. induktiven Methode entsprachen die GoB als Konglomerat einzelner buchhalterischer Maximen"(Beisse 1994), was freilich zur Konsequenz hatte, dass für bestimmte Buchfuhrungs- und Bilanzierungsfragen die Nichtexistenz von GoB ebenso offen konstatiert wie akzeptiert wurde. In der Folge setzte sich jedoch das Verständnis von GoB als Rechtsnormen durch. Danach werden GoB "nicht durch statistische Erhebungen, sondern durch Nachdenken ermittelt. Nachdenken darüber, wie eine konkrete Bilanzierungsfrage entschieden werden muss, um zu einer sachgerechten Bilanz zu gelangen." (Döllerer). Aus diesem Verständnis der GoB als Rechtsnormen folgt, dass sie "nicht [empirisch] durch Befragung der Normadressaten gefunden werden" können (Beisse 1997), dass vielmehr ihre Gewinnung Rechtsfindung ist. Nicht haltbar ist freilich die dieser sog. deduktiven Methode zugeschriebene Vorstellung, 331
Grundsätze ordnungsm. Buchführung GoB seien unmittelbar aus Zwecken der Rechnungslegung deduzierbar. "Aus bloßen Zwecken (..) kann man keine substanziellen Rechtssätze ableiten (..). Rechtssätze können nur aus rechtlichen Obersätzen abgeleitet werden, in denen sie logisch bereits enthalten sind." (Beisse 1984) Rechtliche Obersätze wiederum sind "keine Regeln, aus denen sich die Entscheidung eines Einzelfalles unmittelbar ergeben könnte. Sie bedürfen der Konkretisierung in Unterprinzipien und Einzelnormen." (Beisse 1994). "Die richtige Erkenntnis der sog. deduktiven Methode besteht darin, dass sie die Gewinnung von GoB als einen Vorgang auf der Normebene versteht (..). Der richtige Kern der induktiven Methode (..) liegt darin, dass GoB nicht ohne Berücksichtigung der ,Natur der Sache' gefunden werden können, zu deren Erkenntnis die aus betriebswirtschaftlicher Theorie und Praxis gebildete Sachkunde wesentliche Beiträge leistet." (Beisse 1990) Als Synthese beider Methoden wird der Systemcharakter der handelsrechtlichen GoB zunehmend betont. 2. Systemcharakter der GoB nach aktuellem Handelsbilanzrecht Die GoB werden heute verstanden als ein "umfassendes, widerspruchsfreies (..) [und] gegenüber neuen Anforderungen offenes und bewegliches System" (Beisse 1990) "von sich wechselseitig ergänzenden und beschränkenden (Fundamental-) Prinzipien, Folgeprinzipien und Einzelnormen" (Moxter 1993). Der Zweck des Gesamtsystems erschließt sich erst aus dem Zusammenspiel seiner Einzelnormen, zu deren Auslegung und vollem Verständnis aber wiederum der Zweck des Gesamtsystems benötigt wird. Gewinnung und Präzisierung von GoB bedeutet daher "eine wertende Konkretisierung der mehreren einschlägigen Prinzipien und Normen" (Beisse 1997) im Zusammenspiel wechselseitiger Ergänzung und Beschränkung. Der generalklauselartige Gesetzesverweis auf die GoB schafft 332
Grundsätze ordnungsm. Buchführung lückenloses Handelsbilanzrecht und erlaubt (ohne jeweils institutionell aufwendigen Gesetzgebungsakt) eine flexible Anpassung der Bilanzierung an den Wandel von Verhältnissen und Anschauungen des modernen Wirtschaftslebens. Es gibt "keine materiell-rechtliche Bilanzfrage, die nicht "nach GoB" beurteilt werden könnte" (Beisse 1997). Infolge der Maßgeblichkeit hat über das GoB-System betreffende Auslegungsfragen zumeist die höchstrichterliche Finanzrechtsprechung zu befinden (sog. Vorfragenkompetenz des Bundesfinanzhofs). "Die Grundstruktur dieses Systems darf als durch die Rechtsprechung des Bundesfinanzhofs hinreichend gefestigt gelten." (Moxter 1993). Der Verweis in § 243 Abs. 1 HGB ist die "Generalnorm des allgemeinen Bilanzrechts", sie enthält die "Wertungsentscheidung des Gesetzgebers" für eine dem Gläubigerschutz verpflichtete Bilanzierung (Beisse 1997). Im Interesse des Gläubigerschutzes dient die Bilanz der vorsichtsgeprägten Ermittlung eines unbedenklich entziehbaren Gewinns. Das bilanzrechtliche Vorsichtsprinzip konkretisiert sich gemäß § 252 Abs. 1 Nr. 4 HGB in Realisationsprinzip und Imparitätsprinzip. Nach dem Realisationsprinzip sind Erträge erst auszuweisen, wenn sie durch Umsatzakt, d.h. durch die Lieferung oder sonstige Leistung im Rechtssinne realisiert sind; eine gleichfalls am Realisationsprinzip orientierte Aufwandsperiodisierung "verhindert, dass die strengen Grundsätze zur Ertragsrealisierung durch eine nichtparallele Aufwandserfassung unterlaufen werden" (Moxter 1997). Demgegenüber sind künftige Verluste nach dem Imparitätsprinzip bereits vor ihrer Realisation im Zeitpunkt ihres (durch Wertänderungen ausgelösten) Entstehens zu antizipieren; die Verlustantizipation findet Ausdruck in der außerplanmäßigen Abschreibung von Vermögensgegenständen, der Wertzuschreibung von Schulden und der Rück-
Gründungsfinanzierung
Grundsätze ordnungsm. Buchführung Stellungsbildung bei drohenden Verlusten aus schwebenden Geschäften. Nach § 242 Abs. 1 HGB ist die skizzierte "Gewinnermittlungsbilanz als eine besonders ausgestaltete Vermögensübersicht" (Beisse 1984) unter Annahme der Unternehmensfortführung (§ 252 Abs. 1 Nr. 2 HGB) und unter Geltung strenger Objektivierungsvoraussetzungen konzipiert: Nur als Einzelheit (§ 252 Abs. 1 Nr. 3 HGB) "aufgrund objektiver Kriterien klar konkretisierbare positive und negative Vermögenswerte können als Vermögensgegenstände, Verbindlichkeiten bzw. Rechnungsabgrenzungsposten bi lanziert werden" (Moxter 1993). Schließlich hat der Jahresabschluss auch eine Informationsfunktion zu erfüllen. Dabei sind Bilanzen jedoch "unverkennbar an der Konkretisierung von Gewinnansprüchen orientien; der Konkreiisieiung vun lufuiniationsansprüchen dienen sie mehr schlecht als recht", hier bedarf es zusätzlicher, neben die Bilanz tretender Erläuterungen (Moxter 1997). Literatur: Lang: Handwörterbuch unbestimmter Rechtsbegriffe im Bilanzrecht des H G B , 1986; Moxter: Festschrift 75 Jahre R e i c h s f i n a n z h o f Bundesfinanzhof, 1993; Beisse H.: Gedächtnisschrift Knobbe-Keuk, 1997; Beisse H.: Festschrift Moxter, 1994; Döllerer, BB 1959; Beisse H.:, StuW 1984; Beisse, B F u P 1990; Moxter, Festschrift Goerdeler, 1987; Moxter, in: Budde W.D. (Hrsg.): Handelsbilanzen und Steuerbilanzen, Festschrift Beisse, 1997.
vitäten sein, bei denen Gründungsprozesse eine wesentliche Rolle spielen können. Grundsätze der Gründungsfinanzierung betreffen einerseits die Relationen bestimmter Bilanzpositionen sowie andererseits die gründungstypisch anfallenden Anlaufverluste und insbesondere deren Liquiditätswirkungen. •
Grundsatz 1: die Eigenkapitalausstattung des Gründungsunternehmens muss dem Entwicklungsstand und der Komplexität des Unternehmens entsprechen. Ein ausgedehnter Produktentwicklungsund Markteinführungsvorlauf kann Eigenkapitalquoten von bis zu 100 % erfordern. Bei Erreichen einer stabilen Geschäftslage sollte der Eigenkapitalkoeffizient min. bei einem Drittel der Bilanzsumme
•
Grundsatz 2: Die "goldene Finanzregel": Langfristiges Betriebsvermögen in Form von Anlagevermögen und langfristigem Umlaufvermögen sind durch Eigenkapital oder langfristiges Fremdkapital zu finanzieren. Insbesondere beim instabilen Zustand in der Gründungs- und Frühentwicklungsphase ist diese Fristenkongruenz von Bedeutung. Grundsatz 3: Die Finanzbedarfsplanung darf nicht nur das Anlagevermögen (auf das die meisten Gründungsfinanzierungsprogramme der Banken und öffentlichen Hände zielen), sondern muss insbesondere auch den Betriebsmittelbedarf berücksichtigen, wobei die Anlaufverluste möglichst realistisch und mit einer Reserve versehen zu ermitteln sind. Grundsatz 4: Bedingt durch die instabile Situation in der Anlaufphase des Gründungsunternehmens hat die Liquiditätssicherung durch Bildung und Erhaltung einer Liquiditätsreserve einen besonders hohen unternehmerischen Stellenwert. In dieser Entwicklungsphase gilt der Grundsatz: "Liquidität vor Rentabilität".
•
Mathias Babel Gründungsfinanzierung Nach dem Finanzierungsanlass wird in Anlehnung an den Lebenszyklus von Unternehmen zwischen der Gründungsfinanzierung, der Wachstumsfinanzierung, der Konsolidierungsfinanzierung und der Sanierungsfinanzierung unterschieden. Spezielle Anlässe für Finanzierungen ohne Zuordnung zu einem bestimmten Stand der Untemehmensentwicklung sind auch die Innovationsfinanzierung, die Projektfinanzierung und Spezialfinanzierungen z.B. im Rahmen von M+A Akti-
•
333
Gründungsfinanzierung Herausragende Bedeutung bei Gründungsfinanzierungen hat das Eigenkapital. Wird nach den Finanzierungsfunktionen von Eigen- und Fremdkapital unterschieden, so liegen die Schwerpunkte des Eigenkapitals bei den Errichtungsfunktionen (Gründungsaufwand, Verlustausgleich, Startbetriebsmittel), den Signalfunktionen (Fremdkapitalakquise, Bonitätsnachweis) und den Formalfiinktionen (Gesellschaftereinfluss, Haftung). Im Gegensatz dazu spielt das Fremdkapital seine wesentliche Rolle bei den Betriebsfunktionen (Finanzierung von Investitionen, Betriebsmitteln, Sonderanlässen und Überbrückungstatbeständen), die in bestehenden Unternehmen auftreten. Die Finanzbedarfsplanung von Gründungsunternehmen setzt in Abhängigkeit vom jeweiligen Gründungsmodell bei unterschiedlichen Bedingungslagen an. Die „selbstständige Existenzgründung", die typischerweise von einem Einzelgründer in Form eines imitierenden Gründungskonzepts (typisch bei Gründungen im Einzelhandel, Handwerk, Gaststättengewerbe und Dienstleistungsbereich) realisiert wird, ist von der Datenlage und der Risikoeinschätzung gänzlich anders zu beurteilen als die Gründung eines Technologieunternehmens, bei der kaum Branchendaten und Vergleichszahlen zur Verfügung stehen und zusätzlich zum allgemeinen Gründungs- und Unternehmensrisiko weitere Risiken in den folgenden Bereichen gegeben sind: technisches Produktentwicklungsrisiko, Timeto-Market-Risiko, Fertigungsrisiko, Marktakzeptanzrisiko, Managementrisiko, Finanzierungsrisiko. Während die klassische selbstständige Existenzgründung auch mit einer in den jeweiligen Branchen üblichen Finanzierungsstruktur vollzogen werden kann, ist die Gründung eines Technologieunternehmens weitestgehend auf die Verfügbarkeit über eigene und fremde Eigenkapitalquellen sowie Eigenkapitalsurrogate angewiesen. Kategorien des Finanzbedarfes sind: Betriebsmittel zur Produktentwicklung und 334
Gründungsfinanzierung Markteinführung und für Gründungsspezifika, Startinvestitionen, Startbetriebsmittel und Mittel für den Bestands- und Forderungsaufbau. Vom Gesichtspunkt der Kreditwürdigkeit her ist bei Gründungen von Technologieunternehmen zusätzlich zu beachten, dass angesichts der erheblichen Größenordnung des Finanzbedarfs dieses Gründungsmodells gründereigene Mittel nur begrenzt zur Verfugung stehen, keine Innenfinanzierungspotenziale in Anspruch genommen werden können und häufig auf Seiten der Finanzierungsinstitutionen die Fähigkeit zur Beurteilung der Gründungsprojekte aus technischer wie auch aus marktlicher Sicht begrenzt sind. Als Finanzierungsquellen für Gründungsfinanzierungen kommen auf der Eigenkapitalseite in Frage: • •
• • • • •
Gründer/Geschäftsführcnde Gesellschafter Institutionelle Eigenkapital finanziere (-> Private Equity, -* Venture Capital, Seed Capital) Industrielle Eigenkapitalfinanziers Business Angels Börse (Erstemission) Mezzanine Provider (Quasi-Eigenkapital) Öffentliche Mittel (Zulagen, Zuschüsse)
Auf der Fremdkapitalseite sind die folgenden Finanzierungsquellen maßgeblich: • • • • • •
Banken und vergleichbare Finanzierungsinstitute Öffentliche Institutionen Gesellschafter und Familien Lieferanten und Kunden Bankentöchter (-» Leasing, -» Factoring) Mezzanine Provider (Quasi-Fremdkapital).
Bei der Strukturierung der GrUndungsfinanzierung sind die unterschiedlichen Voraussetzungen und Anforderungen, die
Gruppenarbeit
Gründungsfinanzierung von Eigenkapital und Fremdkapitalseite gestellt werden, zu beachten. Eigenkapital verlangt neben der grundsätzlichen Risikobereitschaft und -fahigkeit der Gründer die Bereitschaft zur Partnerschaft mit dem Eigenkapitalgeber, die Bereitschaft zur Einigung über individuell auszuhandelnde Verträge (einschließlich Sonderrechten für externe Eigenkapitalgeber), die Vorausleistungs- (Einzahlungs-)fâhigkeit der Gründer, ein überzeugendes Unternehmenskonzept in Form eines BusinessPlans und attraktive Wertzuwachspotenziale, die dem Eigenkapitalgeber einen erfolgreichen "Exit" (Ausstieg aus der Beteiligung) ermöglichen. Fremdkapitalgeber fordern neben der Risikobereitschaft und -fähigkeit der Gründer andererseits Sicherheiten von den Gesellschaftern und der Gesellschaft, den Nachweis der Kapitaldienstfähigkeit (Fähigkeit zur Leistung von Zins- und Tilgungszahlungen), eine überzeugende Bonität sowie den Nachweis von langfristig wirkenden Ertragspotenzialen. Bei der Strukturierung von Gründungsfinanzierungen sind die folgenden Optimierungsaufgaben zu lösen, die nicht nur bei der Erstfinanzierung eines Vorhabens sondern gründungs- und frühentwicklungsbegleitend Daueraufgaben fur das Gründungsmanagement darstellen: •
Sicherung des Gleichgewichts zwischen Liquidität und Rentabilität als Zielvorgabe im Zeitablauf,
•
Sicherung des Gleichgewichts zwischen Risiko und Chancen bei der Definition des Finanzierungsmixes und der Verhandlung der Finanzierungskonditionen,
•
Sicherung des Gleichgewichts zwischen Existenz-Aufbau und ExistenzSicherung.
Traditionell waren die Hausbanken der erste Anlaufpunkt für Unternehmensgründer. Dies hat sich angesichts zunehmender Zurückhaltung von Teilen des Bankensystems gegenüber Gründungsfi-
nanzierungen (insbesondere komplexer und innovationsbedingt risikoreicher Gründungsfinanzierungen) relativiert. Neben den neuen Institutionen der Eigenkapitalfinanzierung sind spezielle Investment Banking Services, Finanzierungsberater und Vermittler sowie "Inkubatoreinrichtungen" entstanden, die mit spezifischen Erfahrungen mit Gründungsfinanzierungen nicht nur Finanzmittel Provider sondern auch Berater des Gründungsvorhabens sind. Klaus Nathusius Gruppenarbeit Die Gruppenarbeit hat primär die Ausweitung des Tätigkeitsspielraums des Mitarbeiters (-> Job Enlargement) und die Erweiterung des Entscheidungs- und Kontrollspielraums zum Ziel (-> Job Enric'nmeni). Die Gruppenarbeii ist im Gegensatz zur Einzelarbeit dadurch charakterisiert, dass eine Arbeitsaufgabe von mehreren Arbeitern gemeinsam erledigt wird (-> Gruppenkonzepte). Durch die Schaffung vermehrter Kommunikationsmöglichkeiten soll Gruppenarbeit zu größerer Arbeitszufriedenheit des Einzelnen fuhren und die Produktivität steigern. Damit sich eine Gruppe im Hinblick auf diese Ziele entwickeln kann, sollten einige Bedingungen beachtet werden: •
•
Im Rahmen der Einführung von Gruppenarbeit ist es unerlässlich, die Mitarbeiter sowohl umfassend vor der Umstrukturierung zu informieren als auch bei der konkreten Gruppenbildung einzubinden. Kritische Zusammensetzungen, wie Familienangehörige innerhalb einer Gruppe, sind zu vermeiden. Gruppensprecher sind auf die Unterstützung von Vorgesetzten gerade in der Einführungszeit angewiesen. Wenn Gruppensprecher keine Unterstützung von Vorgesetzten bekommen, kristallisieren sich Konflikte an ihnen. Fehlt den Sprechern ein Konzept oder das nötige Fingerspitzengefühl im 335
Gruppenarbeit
•
•
Umgang mit der Gruppe, sind Konflikte vorprogrammiert. Die Gruppe kann sich nicht entfalten und lernt keine Eigenverantwortung. Unterschiedliche Entlohnung bei gleichen Aufgaben kann ebenfalls zur Unzufriedenheit in Gruppen fuhren. Aber auch ein Lohnniveau ohne Differenzierungen bei gleichen oder unterschiedlichen Aufgaben stellt keine Ideallösung dar, da sich engagiertere Mitarbeiter fragen, was sie davon haben, wenn sie sich mehr einsetzen als andere. Aus diesen Gründen sollten unterschiedliche Aufgaben eine differenzierte Vergütung nach sich ziehen bei der alle Mitarbeiter Entwicklungschancen haben. Ob jedes Gruppenmitglied akzeptiert wird und ob die Gruppe bereit ist, Schwächere mitzutragen, ist auch von der Unternehmenskultur abhängig. Ob eine Gruppe den Problemen aus dem Weg geht und ihre Leistung sinkt oder sie konstruktiv löst, ist nicht zuletzt von ihrer sozialen Kompetenz abhängig, die sie erlernen muss. Dieser Lernprozess ist durch geeignete Methoden zu unterstützen.
Gruppen-Assessment Assessment-Center Gruppenkonzepte Ausgehend von einer Klärung des Begriffs Gruppen- bzw. Teamarbeit (s.a. Gruppenarbeit, -> Team) werden nämlich teilautonome 5 Grundtypen, Arbeitsgruppen, Fertigungsteams, klassische Arbeitsgruppen, Projektgruppen und Qualitätszirkel vorgestellt und miteinander verglichen. 1. Ein Kästchen ist noch keine Gruppe In Organisationen wird der Begriff "Gruppe" häufig für formale Zuordnungen von Stellen zu einem Vorgesetzten benutzt. Damit ist jedoch nichts darüber ausgesagt, ob und gegebenenfalls welche Art von Kooperationsziehungen zwischen den Mitgliedern bestehen. Im Unterschied dazu schwingt bei "Team" und "Teamar336
Gruppenkonzepte beit", häufig die Vorstellung hoher Kohäsion und gut funktionierender Kooperation mit. Eine scharfe Trennung dieser Begriffe ist jedoch nicht möglich. Im folgenden wird daher unter Gruppe/Team bzw. Gruppen-/Teamarbeit eine Arbeitsform verstanden, bei der mehrere Personen arbeitsteilig über eine gewisse Zeit, nach gewissen Regeln zusammen eine Arbeitsaufgabe bearbeiten, um gemeinsame Ziele zu erreichen, und die sich auch als Gruppe/Team verstehen. Aus den vielen betrieblichen Formen der Gruppenarbeit können fünf Grundtypen herausgefiltert werden. Dies sind: teilautonome Arbeitsgruppen, Fertigungsteams, klassische Arbeitsgruppen, Projektgruppen und Qualitätszirkel. Die ersten drei Modelle sind integrierter Bestandteil der regulären Arbeitsorganisation und erfordern eine kontinuierliche Zusammenarbeit. Projektgruppen und -> Qualitätszirkel arbeiten parallel zur bestehenden -* Organisationsstruktur nur von Zeit zu Zeit zusammen. Weitere Unterscheidungen betreffen die übertragenen Aufgaben und den gewährten Handlungsspielraum. Bezüglich der Dimensionen Handlungsspielraum und Funktionsintegration liegen Fertigungsteams in der Mitte, während teilautonome und klassische Arbeitsgruppen jeweils die äußeren Positionen verkörpern. 2. Teilautonome Arbeitsgruppen: In Deutschland wird unter Gruppenarbeit meist noch immer das Modell teilautonomer Arbeitsgruppen verstanden. Es wurde bereits in den siebziger Jahren durch Volvo oder Projekte des deutschen Programms zur Humanisierung des Arbeitslebens (-» Arbeitshumanisierung) bekannt. In der aktuellen Diskussion steht allerdings nicht die Humanisierung der Arbeit sondern deren Rationalisierung im Vordergrund. Eine teilautonome oder selbstregulierende Arbeitsgruppe ist eine kleine Gruppe von Mitarbeitern, die ein komplettes (Teil-) Produkt oder eine Dienstleistung mehr
Gruppenkonzepte oder weniger verantwortlich erstellen. Durch die partielle Unabhängigkeit soll es der Gruppe ermöglicht werden, Probleme schneller zu lösen und Kundenaufträge flexibler zu erfüllen. Klare Ziele, schnelles Feedback, ganzheitliche Arbeitsaufgaben und Handlungsspielräume sollen die Mitarbeiter dazu motivieren. Innerhalb der Gruppen wird ein flexibler Arbeitseinsatz der Mitarbeiter bei direkten und indirekten Tätigkeiten angestrebt, der den betrieblichen Anforderungen und den Wünschen der Mitarbeiter angemessen ist. Entsprechend notwendige Qualifizierungsmaßnahmen sind vorzunehmen. Wesentliches Konzeptmerkmal ist die zumindest teilweise selbstständige Planung, Steuerung und Kontrolle der übertragenen Aufgaben. Sie kann erreicht werden uuich eine rurikiionsiriicgicitioii, beispielsweise durch die Integration der Qualitätskontrolle oder kleinerer Wartungs- und Reparaturarbeiten, und durch die Selbstregulation der Gruppe, beispielsweise bei der internen Arbeitsverteilung, der Planung der Arbeitszeiten, der Feinsteuerung von Fertigungsaufträgen oder der Optimierung von Arbeitsbedingungen und -abläufen. Dies setzt jedoch voraus, dass auch tatsächlich Freiheitsgrade bei der Auftragsausführung bestehen, die Spielräume zur Selbstregulation eröffnen. Die objektiven Freiheitsgrade werden nicht zuletzt durch die technische Verkopplung der Gruppe mit vor- und nachgelagerten Gruppen beeinflusst. Nur in dem Maße in dem die Gruppen voneinander unabhängig sind können sie sich selbst regulieren. Dies ist leichter zu realisieren, wenn der kollektive Arbeitsumfang einer Gruppe ein komplettes (Teil-) Produkt oder eine Dienstleistung umfasst. Erfolgreiche Beispiele finden sich für den Produktionsbereich in Form selbstregulierender Produkt- oder Fertigungsinseln, für den Dienstleistungsbereich in Form von Verwaltungsinseln oder Entwicklungsteams.
Gruppenkonzepte Die interne und externe Koordination der Gruppen unterstützt ein Gruppensprecher. Er wird in der Regel von der Gruppe gewählt, bisweilen aber auch vom Management und dem -»Betriebsrat vorgeschlagen. Er ist Ansprechpartner fiir Vorgesetzte und gruppenexteme Stellen und moderiert die Gruppensitzungen zur gemeinsamen Koordination und Planung sowie zur Lösung technischer, organisatorischer oder zwischenmenschlicher Probleme. Die Integration indirekter Aufgaben und die Selbstregulation der Gruppe verändert die horizontale und vertikale Funktionsund Arbeitsteilung im Unternehmen. Dies betrifft indirekte Abteilungen, wie die der Qualitätssicherung und der Arbeitsvorbereitung, und vor allem auch die Führungskräfte. Funktionen wie die der Vorarbeiter werden nicht mehr benötigt, Aufgaben von Meistern und Gruppenleitern verändern sich. Selbstregulierende Gruppe erfordern eine zielorientierte und partizipative Führung (-> Führungsstil) im gesamten Management. 3. Fertigungsteams: Das Konzept der Fertigungsteams, wie es insbesondere von Toyota praktiziert wird, hat mit den teilautonomen Arbeitsgruppen die Integration indirekter Funktionen gemeinsam. Im Unterschied zu ihnen wird jedoch die taktgebundene -> Fließfertigung mit kurzen Arbeitszyklen (in der Regel deutlich unter zwei Minuten) und die zentralisierte Regulation durch Vorgesetzte beibehalten. Die technische Abhängigkeit der einzelnen Arbeitsstationen, wird durch das -> Just in timeKonzept, d.h. die weitgehende Beseitigung jeglicher Puffer, sogar noch weiter gesteigert. Fertigungsteams umfassen jeweils ca. 10 Mitglieder. Von ihnen wird erwartet, dass sie mindestens drei Stationen in ihrem Team beherrschen. Dies gewährleistet die notwendige personelle Flexibilität. Um die Prozesssicherheit zu gewährleisten, wird von den Mitarbeitern eine 337
Gruppenkonzepte strikte Einhaltung der vorgegebenen Arbeitsstandards erwartet. Hierzu gehört auch eine (Sicht-)Kontrolle der durchgeführten Arbeitsschritte und eine sofortige Fehlerbehebung bzw. Anzeige falls dies nicht möglich ist. Jede Operation, jeder Handgriff ist in der vorgeschriebenen Weise auszuführen. Sollte sich dies als suboptimal erweisen, wird von dem Mitarbeiter erwartet, dass er dies meldet bzw. gleich einen Verbesserungsvorschlag unterbreitet, der zu einem neuen, verbesserten Arbeitsstandard führt. Die Fertigungsteams werden durch einen Teamleiter betreut, der vom Meister eingesetzt wird. Meister fuhren in der Regel zwei Teams. Als Werkstattmanager haben sie einen großen Kompetenz- und Verantwortungsbereich. Sie teilen die Mitarbeiter den einzelnen Arbeitsstationen zu, sind für deren Ausbildung und Lohneinstufung, sowie für die Arbeits- und Prozessgestaltung in ihrem Verantwortungsbereich maßgeblich mitverantwortlich. Ferner überwachen sie die Einhaltung der Arbeitsstandards und sorgen für deren permanente Verbesserung. Die kooperative Ausführung einer gemeinsamen Aufgabe beschränkt sich in Fertigungsteams vorwiegend auf die Behebung von Störungen und die Mitarbeit an Verbesserungen des Produktionsprozesses. In den Montagelinien der Großserien in der Autoindustrie dominiert diese standardisierte und fremdregulierte Form der Teamarbeit zunehmend. 4. Klassische Arbeitsgruppen: Unter klassischen Arbeitsgruppen werden Gruppen von Mitarbeitern verstanden, die eine gemeinsame Aufgabe stark funktions- und arbeitsteilig durchführen. Die Arbeitsverteilung, die Feinsteuerung der Fertigung, die Personal- und Arbeitszeitplanung ist hier Aufgabe des Meisters. Er kontrolliert, ob die Mitarbeiter vorschriftsmäßig arbeiten und ist für die Lösung auftretender Probleme zuständig. Die Aufgaben der Mitarbeiter beschränken sich auf unmittelbar produzierende 338
Gruppenkonzepte Tätigkeiten. Unterstützende Tätigkeiten wie Transport oder Wartung und Instandhaltung werden von anderen Funktionsbereichen ausgeführt. Dies gilt ebenfalls für planende, steuernde und kontrollierende Tätigkeiten. Auch innerhalb der Gruppen wird stark spezialisiert gearbeitet. Diese Arbeitsform erweist sich daher bei wachsenden Flexibilitätsanforderungen als zunehmend unterlegen. Inwieweit die oben definierten Kriterien von Gruppenarbeit bei klassischen Arbeitsgruppen überhaupt erfüllt sind, muss in jedem Einzelfall geprüft werden. 5. Projektgruppen: Zur Bearbeitung neuartiger und komplexer Problemstellungen, die aufgrund unterschiedlichster Ursachen einen einmaligen Charakter aufweisen und mehrere Unternehmensbereiche tangieren, werden seit langem Projektgruppen, Projektteams oder Task Forces erfolgreich eingesetzt. Ihre Zielsetzung wird vom Management vorgegeben. Projektgruppen setzen sich meist aus Experten und Führungskräften zusammen, die für die Lösung des konkret vorgegeben Problemkreises entsprechend ihrer Sachkompetenz ausgewählt wurden und für die Dauer der Projektbearbeitung zusammenarbeiten. Die Art der Eingliederung in die Gesamtorganisation richtet sich nach der gewählten Projektorganisation. In welchem Ausmaß Entscheidungskompetenzen an die Projektgruppe bzw. den Projektleiter delegiert werden, kann unterschiedlich gestaltet werden. Die Entscheidungskompetenzen liegen häufig in den Linienfunktionen, was zu Konflikten zwischen Projektgruppen und Linienfunktionen und zwischen Linienfunktionen und deren Vertretern im Projektteam führen kann. 6. Qualitätszirkel: Qualitätszirkel sind kleine moderierte Gruppen von Mitarbeitern der unteren Hierarchieebene, die sich regelmäßig (z.B. 14-tägig 1-2 Stunden) auf freiwilliger Grundlage treffen, um selbstgewählte
GuV
Gruppenkonzepte Probleme aus ihrem Arbeitsbereich zu bearbeiten. Im Rahmen der Problembearbeitung sollen Qualitätszirkel Probleme identifizieren, auswählen, analysieren und Lösungsvorschläge entwickeln, sowie genehmigte Problemlösungen möglichst auch selbst umsetzen und deren Erfolg kontrollieren. Wie Projektgruppen arbeiten Qualitätszirkel somit parallel zur regulären Organisationsstruktur und besitzen selbst keine Entscheidungskompetenz. Ihre Mitbestimmungsmöglichkeiten beschränken sich i.d.R. auf die interne Organisation und die Inhalte ihrer Arbeit. Abgesehen von tarifvertraglich geregelten Themen bestehen meist keine Einschränkungen welche Themen sie aus ihrem eigenen Arbeitsbereich bearbeiten. In den letzten Jahren wurden in vielen Unternehmen Qualitätszirkel unter der Bezeichnung KVP-Gruppen eingeführt. KVP steht dabei für -» kontinuierlicher Verbesserungsprozess, japanisch "Katzen". Als KVP-Gruppen werden jedoch sowohl Qualitätszirkel auf der Ebene der Mitarbeiter, als auch Projektgruppen auf Managementebene. Es gibt auch Misch-
formen, wie z.B. heterogene Teams, die im Rahmen eines KVP-Workshops Rationalisierungserfolge erarbeiten und umsetzen sollen. Bis heute stellen die langen Entscheidungswege bei Verbesserungsvorschlägen eines der Hauptprobleme von Qualitätszirkeln dar. Dadurch kann die Qualitätszirkel-Arbeit leicht blockiert werden. Dezentrale Entscheidungsstrukturen und die Bereitschaft, Mitarbeiter an Problemlösungen zu beteiligen, sind daher wichtige Voraussetzungen für erfolgreiche Qualitätszirkel. Für Qualitätszirkel gilt daher ähnliches wie auch für andere Gruppenkonzepte: sie sollten nicht isoliert eingerichtet, sondern in eine umfassende Managementstrategie eingebunden sein und im Rahmen eines Organisationsentwicklungsprogramms eingeführt werden. Literatur: Antoni, C.: Teamarbeit gestalten. Grundlagen, Analysen, Lösungen, Weinheim 2000; Antoni, C./Eyer, E./Kutscher, J.: D a s flexible Unternehmen. Arbeitszeit, Gruppenarbeit, Entgeltsysteme, Wiesbaden 1996.
Conny H. Antoni GuV -> Gewinn- und Verlustrechnung
339
Handelsformen
Handelsformen In vielen Fällen steht der Hersteller vor der Frage, ob er seine Erzeugnisse über den Großhandel, den Einzelhandel oder unmittelbar an die Endverbraucher verkaufen soll. Beim "indirekten Absatz" über den Handel ist noch zu entscheiden, ob bestimmte Handelsformen exklusiv beliefert werden ("Nur in guten Fachgeschäften"). Insbesondere im Einzelhandel gibt es eine Fülle von Erscheinungsformen, die man anhand bestimmter Merkmale (z.B. Sortiment, Preisgestaltung, Service, Standort, Einkaufsorganisation) zu typisieren versucht. Dabei hat sich die folgende Systematik herausgebildet: Fach- und Spezialgeschäfte beschränken sich auf eine bestimmte Branche (z.B. Oberbekleidung) oder einen bestimmten Erlebnisbereich (z.B. Sport) mit ergänzenden Dienstleistungen und Bedienung; das Sortiment der Spezialgeschäfte ist noch enger, aber auch tiefer (z.B. Damenhüte). Der Hintergrund beider Handelsformen ist die "Gemischtwarenhandlung" als typische Handelsform über mehrere Jahrhunderte. Für die Kunden der Fach- und Spezialgeschäfte sind die jeweiligen Produkte wichtig (weshalb sie eine Markenpräferenz haben) und der Kauf ist risikobehaftet (weshalb sie bereit sind, für Auswahl, Beratung und Service mehr zu bezahlen). Hier müssen dann auch die Stärken dieser Geschäfte liegen. Eine Sonderform ist die Boutique, die sich auf besonders modische, aktuelle und außergewöhnliche (Designer-)Ware spezialisiert. Risiken gehen von den meist herstellergesteuerten -> Franchise-Systemen (z.B. Benetton) sowie den Fabrikverkäufen (z.B. Boss) und FactoryOutlet-Centern (als räumliche Integration verschiedener Fabrikläden zu einem Einkaufszentrum) aus; gerade letztere 340
Handelsformen haben die Käufer im Auge, die zwar Markenartikel wollen, beim Kauf aber kein Risiko empfinden und deshalb auch nicht bereit sind, für Beratung zu zahlen ("Schnäppchenjäger"). Weitere Risiken sind häufig neben Mietdruck noch schlechte Einkaufskonditionen, weshalb man sich oft zu Fachhandelskooperationen zusammenschließt (z.B. Vedes: Spielwarenfachgeschäfte). Kauf- und Warenhäuser sind die Großbetriebsformen der Fach- und Spezialgeschäfte: Warenhäuser waren ursprünglich Vollsortimenter ("Kaufhof bietet tausendfach alles unter einem Dach"), während Kaufhäuser meist auf Textilien spezialisiert sind (z.B. K&L Ruppert, Wöhrl). Heute führen nur noch die "Weltstadtwarenhäuser" Vollsortimente von 200.000 bis 400.000 Artikeln: KaDeWe, Berlin (Hertie), Oberpollinger, München (Karstadt) und Kaufhof, Köln. Ihren Siegeszug begannen die Warenhäuser Ende des 19. Jahrhunderts zunächst in Paris, dann aber auch in Deutschland. Anders als die patriarchalischen Inhaber der Gemischtwarenhandlungen mit zahlreichen mitverdienenden Zwischenhändlern, kauften die Warenhausuntemehmen direkt bei den Fabrikanten und konnten den Kunden niedrige - und feste - Preise bieten bei Umtauschrecht, offener Warenpräsentation und Zutritt ohne Kaufzwang. Abgesehen von gewissen Einbrüchen in der Weltwirtschaftskrise und durch den Zweiten Weltkrieg erlebten die vier Warenhausunternehmen (in der Reihenfolge ihres Umsatzes: Karstadt, Kaufhof, Hertie, Horten) einen blendenden Aufstieg: Ihr Einzelhandelsumsatzanteil stieg auf etwa zehn Prozent. Offenbar hatten sie exakt die Verbraucherwünsche getroffen: Einkauf unter einem Dach bei fachmännisch geführten Abteilungen in Fachgeschäftsgröße, günstigen Preisen und zentraler Lage an innerstädtischen Verkehrsknotenpunkten. Zur Wende kam es Mitte der 60er Jahre mit der Entstehung der Verbraucher-
Handelsformen märkte: Ganze Käufersegmente wanderten dorthin ab. Die Warenhäuser versuchen seither - gleichwohl relativ erfolglos - den alten Glanz wiederzugewinnen. Viele Strategien wurden gepriesen und verworfen mit dem Ergebnis, dass heute nur noch zwei Warenhausuntemehmen existieren: Karstadt/Hertie und Kaufhof/Horten, wobei Kaufhof mittlerweile in die METRO AG eingegliedert wurde und Karstadt unter die strategische Führung der Schickedanz-Gruppe (Karstadt Quelle AG) kam. Letztlich gerieten die Warenhäuser zwischen die Beratungskompetenz der Fachgeschäfte und die Preiskompetenz der Verbrauchermärkte. Kaufhof versucht deshalb, das von Horten entwickelte "Galeria"-Konzept in den meisten Häusern umzusetzen ("Galeria Kaufhof'): Viele Fachgeschäfte mit klar abgegrenzten Sortimenten unter einem Dach (Shopin-Shop-Prinzip). Statt des Vollsortiments konzentriert man sich auf acht "Warenwelten" (z.B. Damenwelt, Haushaltswelt, Sportwelt, Feinschmeckerparadies), wobei auf geschultes Personal und "Markenshops" (z.B. Esprit, Villeroy&Boch, Lacoste) großer Wert gelegt wird. Man versucht so, die Zielgruppe der Fachgeschäfte zu erreichen, was Karstadt mittlerweile auch beabsichtigt ("Trendhäuser"). Angesichts ihrer Sonderstellung - auch in der öffentlichen Wahrnehmung - werden die Lebensmittel-Filialunternehmen gesondert systematisiert. Sie betreiben räumlich getrennte Verkaufsstellen unter einheitlicher Leitung, wobei der "FoodBereich" den "Non-Food-Bereich" (problemlose Ware des täglichen Bedarfs wie Reinigungs- und Körperpflegemittel) deutlich übersteigt. Sämtliche Filialsysteme sind "discountorientiert", wobei einige als "Hard-Discounter" auftreten: Sie bieten ein eng begrenztes, auf raschen Warenumschlag ausgerichtetes Sortiment (500-1.000 "Schnelldreher") bei minimalem Service zu niedrigen Preisen an stark frequentierten Standorten außerhalb
Handelsformen der Innenstadt (z.B. Aldi, Lidl, Penny (Rewe), Plus (Tengelmann)). Ein auf etwa 7.000 Artikel erweitertes Sortiment, das auch ein umfangreiches Frischwarenangebot enthält (Obst, Gemüse, Fleisch) bieten Supermärkte (z.B. Edeka, Aktiv, Minimal (Rewe)). Ihre Standorte finden sich meist in "Nachbarschaftszentren"; die Preispolitik ist eher konventionell, wobei sie allerdings in den entsprechenden Sortimentsteilen dem Druck der Hard-Discounter ausgesetzt sind. Bis zu 17.000 Artikel verkaufen die Verbrauchermärkte, die - wegen ihrer Ausdehnung (bis zu 5.000 m 2 ) - meist auf der "grünen Wiese" errichtet werden. Dies gibt dann auch Gelegenheit, viele Parkplätze anzubieten und "Personal durch Raum zu substituieren". Meist finden sich im Umfeld noch z.B. Reinigung, Schlüsseldienst und Tankstelle. Als "Verbrauchermärkte der 2. Generation" bezeichnet man SB-Warenhäuser mit bis zu 30.000 Artikeln; der Food-Umsatz macht hier nur noch etwa 60 Prozent aus (z.B. Wal-Mart, Real (Metro), Globus). Ihre Entstehung verdanken die Verbrauchermärkte dem Autoboom der 60er Jahre und den dadurch zunehmend verstopften Innenstädten. Außerdem führte die Stadtflucht und die damit zunehmende Distanz von Wohn- und Arbeitsstätte zu einem veränderten Empfinden für Entfernungen. Bald wurde jedoch auch die "Zersiedelung der Landschaft" und - mit dem Aufkommen der SB-Warenhäuser - die "Verödung der Innenstadt" beklagt, was zur Baunutzungsverordnung (BauNVo) führte: Sie unterwirft größere Einzelhandelseinrichtungen auf der grünen Wiese einem besonderen Genehmigungsverfahren. Die günstige Versorgung der Verbraucher spielte in der Diskussion keine Rolle. Als Symbiose aus Fachgeschäft und Verbrauchermarkt gilt der Fachmarkt: Vom Fachgeschäft hat er das tiefe, aber enge Sortiment (z.B. Unterhaltungselektronik oder Spielwaren), vom Verbrau341
Handelsformen chermarkt die Autokundenorientierung, Selbstbedienung und günstigen Preise (z.B. Fielmann, Ikea, Toys'R'Us, Media Markt). Die Spezialisierung reduziert den Flächenbedarf, weshalb Fachmärkte die Größenkriterien der BauNVo - meist nicht erfüllen, und sich - außer in Innenstädten - auch in Mischgebieten niederlassen dürfen. In den 60er Jahren wurde allgemein der Untergang des Versandhandels erwartet: Der bereits erwähnte Autoboom hatte es auch der Landbevölkerung ermöglicht, in der Stadt einzukaufen. Von der städtischen Bevölkerung erwartete man ohnehin keine Bestellungen per Katalog: Sie wolle und könne die Ware sehen und prüfen. Es kam aber völlig anders: Nach wie vor erfreut er sich großer Beliebtheit: Mit etwa 500 DM Umsatz je Kopf und Jahr sind die Deutschen Weltmeister. Insgesamt entfallt auf den Versandhandel mit knapp sechs Prozent mehr Umsatz als auf die Warenhäuser. Es verwundert deshalb keineswegs, dass in der Weltrangliste der Versanduntemehmen Otto den ersten, Quelle den zweiten und Neckermann den sechsten Platz einnehmen. Es stellt sich allerdings die Frage, warum die Verbraucher treu zum Versandhandel stehen, obwohl mittlerweile selbst in kleinen Innenstädten eine schillernde Warenwelt "zum Anfassen" geboten wird. Als besonders dynamischer Versandhändler erwies sich Otto: Bereits in den 50er Jahren wurde das SammelbestellSystem und Anfang der 70er Jahre ergänzend hierzu der Hermes-Versand aufgebaut. Die 60er Jahre waren gekennzeichnet von der Entwicklung zielgruppenspezifischer Spezialkataloge (z.B. Otto Garten, Otto Geschenke). Anfang der 80er Jahre fiel dann noch eine klare Entscheidung zugunsten der Internationalisierung durch die Übernahme von Spiegel, Chicago. Die Leistungsfähigkeit von Quelle zeigt sich an der Übernahme von Karstadt (mit Neckermann). Für die Zukunft erwartet man einen auf zehn Prozent steigenden Versandhandelsanteil: Den weite342
Handelsformen ren Aufschwung soll vor allem der Absatz per Internet bringen. Ein Shopping Center (Einkaufszentrum) ist eine als Einheit geplante, errichtete und verwaltete Agglomeration von Einzelhandels-, Gastronomie- und sonstigen Dienstleistungsbetrieben. Die - insgesamt dominierenden - Einzelhandelsbetriebe repräsentieren ein breites Branchen- und Preislagenspektrum; zusätzlich gibt es einige wenige markante Anbieter (z.B. Kaufhäuser und Fachmärkte) als "Kundenmagneten". Die Centerverwaltung organisiert zusammen mit der Mietervereinigung die Gemeinschaftswerbung und achtet auf eine vertragsgemäße und zielgerichtete Zusammenarbeit aller. Ein wichtiges Problem ist der "richtige" Mietermix und seine Verteilung im Center (z.B. Gruppierung direkter Konkurrenten oder nach Angebotsniveau oder von Bedarfsbündeln). Das größte Shopping Center Europas wurde 1996 unter dem Namen "Centro" auf einer Industriebrache in Oberhausen eröffnet. Es beherbergt neben einer Einzelhandelsverkaufsfläche von 70.000 m 2 (über 200 Geschäfte) eine "Coca-Cola Oase" mit 22 Gastronomieeinheiten, eine Promenade mit 28 Restaurants/Kneipen, einen 80.000 m 2 Freizeitpark, eine Hafenanlage für 60 Boote (mit Hotel), ein Multiplexkino und eine Mehrzweckarena mit 11.500 Plätzen. Die Gesamtinvestition betrug über zwei Mrd. DM, davon 900 Mio. DM für das Einkaufszentrum. Im Einzugsgebiet von 30(60) Autominuten leben 5(15) Mio. Menschen. Eine - innerstädtische - Variante der Einkaufszentren sind die City-Passagen: Ihre Geburtsstunde schlug 1867 mit der Weltausstellung in Paris: Neuartige Stahlkonstruktionen überspannten die Geschäftsstraßen mit gläsernen Dächern und machten sie zu Zentren des Handels mit Luxuswaren, in denen sich der "Flaneur" schnell heimisch fühlte. Rasch folgten Städte wie London, Mailand und Brüssel. Heute sollen die Passagen der
Handelsformen "Verödung der Innenstadt" entgegenwirken, wie z.B. der Olivandenhof (Köln), die Kö-Gallerie (Düsseldorf) oder das Kaufinger Tor (München). Einige Handelsformen haben ihren Ursprung in Kooperationen: die Konsumgenossenschaften, Einkaufsgenossenschaften und Freiwilligen Ketten. Hermann Schulze-Delitsch (1808 bis 1883) war der Begründer der Konsumvereine als Selbsthilfeeinrichtung von Konsumenten in der Organisationsform der -»Genossenschaft; 1880 gab es bereits 645 Konsumgenossenschaften in Deutschland. Ihre vergleichsweise wirtschaftliche Warenversorgung war beschränkt auf den Kreis der Genossen, die zudem am Jahresende eine Rückvergütung der erzielten Überschüsse erhielten. Den Niedergang läutete 1954 eine Änderung des Genossenschaftsgesetzes ein: Das Verbot, an Nichtmitglieder zu verkaufen, wurde aufgehoben und die Rückvergütung auf den üblichen Rabattsatz von drei Prozent beschränkt. Damit sank die Bereitschaft, sich in Konsumgenossenschaften zu engagieren. Ihre - überwiegende - Zusammenführung in der COOP Zentrale AG verzögerte lediglich ihren Niedergang. Einkaufsgenossenschaften entstanden Ende des 19. Jahrhunderts als Zusammenschlüsse selbstständiger Einzelhändler zur Verbesserung ihrer Einkaufskonditionen; Beispiele sind EDEKA und REWE. Heute sind die Zentralen in der Rechtsform einer -> AG organisiert und betreuen zwei Bereiche: die selbstständigen Einzelhändler (Genossenschaftsbereich) und die von der Zentrale betriebenen "Regiebetriebe" (Filialbereich: z.B. Minimal, Rewe; Neukauf, Edeka). Dem Argument des "Innergruppenwettbewerbs" wird entgegengehalten, Regiebetriebe dienten der Standortsicherung und verbesserten die Einkaufskonditionen für alle.
Handelshemmnisse Freiwillige Ketten entstanden in den fünfziger Jahren auf Initiative selbstständiger Großhändler und sind privatwirtschaftlich organisiert. Man wollte so die Ausschaltungsbestrebungen bei den Großbetriebsformen des Einzelhandels abwehren. SPAR - als größte freiwillige Handelskette in Europa - ist in der deutschen Zentrale als AG organisiert (mit dem französischen Mehrheitsaktionär Intermarche) und betreut neben den selbstständigen Spar-Händlern ("Nachbarschaftsläden") auch Regiebetriebe (Eurospar Verbrauchermärkte, Netto Discountermärkte); die Unterschiede zu den Einkaufsgenossenschaften sind folglich verwischt, weshalb man nur noch von "Verbundgruppen" spricht. Das Verschwinden einer Handelsform hat zwar viele Gemüter, nicht aber das Kaufverhalten berührt: die Tante EmmaLäden. Auf etwa 100 m 2 boten sie das wichtigste zum täglichen Leben. Unversehens ist diese Handelsform jedoch "in neuen Kleidern" wieder auferstanden: als Tankstellen Shop. Hier finden die Kunden ein ähnliches Sortiment, allerdings „rund um die Uhr an allen Tagen", weshalb das Ladenschlussgesetz beim Durchbruch dieser Handelsform Paten stand. Helmut Schmalen Handelshemmnisse Bei Handelshemmnissen handelt es sich um Beeinträchtigungen des freien internationalen Austauschs von Waren und Dienstleistungen. Sie fallen unter den Oberbegriff des Protektionismus, unter dem man sämtliche staatliche Eingriffe versteht, die das Ziel haben, heimischen Wirtschaftssubjekten gegenüber ausländischen Wirtschaftssubjekten Vorteile zu verschaffen. Grundsätzlich sind tarifäre und nicht-tarifäre Handelshemmnisse zu unterscheiden. Bei tarifären Handelshemmnissen handelt es sich um Zölle verschiedener Art. Zölle sind staatliche Abgaben, die dann anfallen, wenn Güter die Grenzen des staatli343
Handelshemmnisse
Handelshemmnisse chen Hoheitsgebietes überschreiten. Man unterscheidet zwischen Exportzöllen (das Gut verlässt das Land, -»Export), Importzöllen (das Gut kommt ins Land) und Durchfuhrzöllen (das Gut wird durch das Land transportiert). In der Praxis haben heute nur noch die Importzölle Relevanz. Ein weiteres Unterscheidungskriterium ist die Art der Bemessungsgrundlage, bei der es sich um eine Mengeneinheit (Mengenzoll) und den Wert des Gutes (Wertzoll) handeln kann. Auch sind zahlreiche Mischformen zwischen Mengen- und Wertzoll in der Praxis zu finden. Nicht-tarifäre Handelshemmnisse sind alle sonstigen Maßnahmen, die den Umfang und/oder die Struktur der internationalen Güter- und Leistungsströme gegenüber der Freihandelssituation verzerren. Nicht-tarifäre Handelshemmnisse können alternativ, aber auch in Ergänzung zu tarifären Hemmnissen eingesetzt werden. Die bekanntesten nicht-tarifären Instrumente sind die direkte Beeinflussung der gehandelten Gütermengen, also das Handelsverbot oder die Mengenkontingentierung. Aber auch alle sonstigen Handelsbeeinträchtigungen, die den Import erschweren (Importabgaben, diskriminierende Ausschreibungs- und Vergabekriterien, "freiwillige" Exportselbstbesehränkungsabkommen u.a.) bzw. den Export erleichtem (Subventionen und andere Entlastungen der Inlandsproduzenten), zählen zu den nicht-tarifären Handelshemmnissen. Eine besondere Form des Protektionismus stellt der Gefühlsprotektionismus dar, unter dem moralische Appelle zu verstehen sind, inländische Produkte zu kaufen oder aber bestimmte Lieferländer zu boykottieren. Nicht immer sind nicht-tarifäre Handelshemmnisse offen erkennbar. Oft ist strittig, ob eine bestimmte Maßnahme, etwa eine technische Norm oder eine die Umweltverträglichkeit eines Gutes betreffende Vorschrift, tatsächlich aus Verbraucher- oder Umweltschutzgründen erlassen wurde oder ob damit eine gezielte Dis-
344
kriminierung erfolgen soll.
ausländischer
Anbieter
Die tarifären Handelshemmnisse haben nach zahlreichen Zollsenkungsrunden im Rahmen des GATT/WTO heute weitgehend an Bedeutung verloren. Deshalb wird immer mehr auf nicht-tarifäre Hemmnisse zurückgegriffen, und hier insbesondere auf solche, bei denen der protektionistische Charakter nicht ohne weiteres zu erkennen ist und damit die Gefahr von Gegenmaßnahmen des Auslands geringer erscheint. Äußerst kontrovers wird die Diskussion geführt, ob im Rahmen der W T O Mindestbedingungen für soziale Normen und Umweltstandards für alle Mitgliedsländer aufgestellt werden könnten, bei deren Verletzung Handelsbeschränkungen erlaubt sein sollen. Insbesondere Entwicklungsländer sehen die Gefahr, dass durch solche Normen ein ungehinderter Weltmarktzugang erschwert wird, was ihre wirtschaftlichen Entwicklungschancen reduzieren würde. Wirkung von Handelshemmnissen: Ein Importzoll oder ein Importkontingent verteuert das importierte Gut für die inländischen Konsumenten. Die Inlandsnachfrage sinkt. Andererseits führt der höhere Preis zu einem steigenden Inlandsangebot. Dies ist der sog. Schutzeffekt eines Zolls oder eines Importkontingents für die heimischen Anbieter, einer der Hauptgründe für protektionistische Maßnahmen. Durch die sinkende Nachfrage bei gleichzeitig steigendem Inlandsangebot geht die Importmenge zurück, die Leistungsbilanz des betrachteten Landes verbessert sich. Das Ausmaß des Importrückgangs ergibt sich beim Importzoll durch die Reaktionen von Angebot und Nachfrage auf die Verteuerung des Gutes. Beim Importkontingent ist sie dagegen vorgegeben. Hier ergibt sich durch Angebots- und Nachfragereaktionen der Preisanstieg im Inland, der für die vorgegebene Importsenkung notwendig ist. Ist das zollerhebende Land so groß, dass sich
Handelshemmnisse der inländische Nachfragerückgang auf den Weltmärkten bemerkbar macht, so wird der Weltmarktpreis des durch den Zoll bzw. das Importkontingent betroffenen Gutes sinken. In diesem Fall fällt die sich letztendlich ergebende Verteuerung für die inländischen Konsumenten geringer aus, da der Zoll stets der Differenz zwischen dem Weltmarktpreis und dem Inlandspreis entspricht. Eine Verringerung des Weltmarktpreises impliziert für das zollerhebende Land einen Anstieg seiner terms-of-trade, des internationalen Güteraustauschverhältnisses. Da das betrachtete Land für eine Mengeneinheit des Importgutes dann weniger Mengeneinheiten des Exportgutes abgeben muss, impliziert eine terms-of-trade-Verbesserung einen Wohlfahrtsgewinn. Diesem Gewinn steht jedoch eine Fehlallokation der inländischen Ressourcen gegenüber, da durch den staatlichen Eingriff die Inlandsproduktion des Importsubstitutionsgutes steigt, einer Güterart also, für die das Land im internationalen Vergleich keinen Produktionsvorteil besitzt. Die Wohlfahrt der anderen Länder wird durch die Importbeschränkung des betrachteten Landes eindeutig sinken, da dort sowohl eine terms-of-trade Verschlechterung als auch eine Fehlallokation der Ressourcen zu verzeichnen ist. Aus diesem Grund führen handelsbeschränkende Maßnahmen in der Regel zu Gegenmaßnahmen der anderen Länder, die damit zumindest einen Teil ihres Wohlfahrtsverlustes auf das ursprünglich aktive Land zurückwälzen wollen. Da sich hierdurch die positiven und die negativen terms-of-trade-Änderungen ausgleichen, verbleibt in allen Ländern nur die Fehlallokation der Ressourcen. Durch die falschen Spezialisierungsanreize kommt es zu Verzerrungen der internationalen Arbeitsteilung, wodurch letztlich alle beteiligten Länder verlieren.
Handelshemmnisse zu rechtfertigen, die aktuelle Preissituation auf den Weltmärkten spiegele nicht die wahre Wettbewerbssituation der heimischen Unternehmen wider. Es wird etwa auf die Möglichkeit steigender Skalenerträge verwiesen, die die Durchschnittskosten und damit den Angebotspreis bei steigender Nachfrage sinken lassen. Existiere die Situation, dass durch das Vorliegen solcher Skalenerträge die inländische Industrie bei großen Produktionsmengen kostengünstiger produzieren kann als ihre ausländische Konkurrenz, dass dieser Vorteil aber wegen der aktuellen Produktionsmengenverteilung nicht ausgenutzt werden kann, so rechtfertige dies die zeitweise Installierung eines Importzolls. Hierdurch könne die inländische Produktionsmenge gesteigert werden, und die inländische Industrie erreiche dadurch die wettbewerbsverbessernden Größenbereiche. Ein weiteres Argument betrifft das Durchsetzungsvermögen der inländischen Unternehmen auf den Weltmärkten. Gerade jüngere Industrien benötigten für eine begrenzte Zeit einen staatlichen Schutz vor ausländischer Konkurrenz, um sich an den Weltmärkten positionieren zu können. Sei dies gelungen, so könne auch der Schutz durch protektionistische Instrumente wieder abgebaut werden. Beide Argumente lassen jedoch die Frage unbeantwortet, wieso staatliche Instanzen besser geeignet sein sollten, die zukünftigen Absatzchancen inländischer Unternehmen auf den Weltmärkten beurteilen zu können als die Unternehmen selbst. Wenn die Konstellationen eindeutig sind, so können auch durch private Investitionen die Zukunftschancen der Unternehmen gesichert werden. Ist dies nicht gegeben, so besteht die Gefahr der Fehlinvestition öffentlicher Mittel bzw. des Dauerschutzes der Inlandsindustrie. Neben möglichen Gegenmaßnahmen des Auslands wird damit aber eine international suboptimale Industriestruktur in den
Zuweilen wird versucht, handelshemmende Maßnahmen mit dem Argument 345
Handelshemmnisse
Hands on Management
betrachteten Ländern staatlich sanktioniert. Die längerfristige internationale Wettbewerbssituation wird hierdurch negativ beeinflusst. Literatur: Bhagwati, J.: Protectionism, Cambridge 1988; Frenkel, M.: MakroÖkonomik des Protektionismus bei festen und flexiblen Wechselkursen, Hamburg 1985; Rose, K./Sauernheimer, K.: Theorie der Außenwirtschaft, 13. Aufl., München 1999; Siebert, H.: Strategische Handelspolitik, Außenwirtschaft, Bd. 43, 1988.
Gerhard Rübel Handelsmarken Stellt man auf das Kriterium Eigner bzw. Dispositionsträger ab, so lassen sich Handelsmarken, in Abgrenzung zu ->• Herstellermarken, als Marken charakterisieren, deren Eigner Handelsunternehmungen sind. Sämtliche Vermarktungsentscheidungen liegen im Verantwortungsbereich der Handelsunternehmung. Charakteristisch für eine Handelsmarke ist, dass sie nur über die eigenen Verkaufsstellen der Handelsunternehmung abgesetzt wird. Zu den wesentlichen Zielen der Handelsmarkenpolitik zählen • • •
•
Differenzierung und Profilierung, Optimierung des Sortiments, Verbesserung der Verhandlungsposition gegenüber der MarkenartikelIndustrie, Kundenbindung.
Letztendlich soll aber das Erreichen dieser Ziele dazu beitragen, die Rendite der Handelsunternehmung zu sichern. Man kann zwischen verschiedenen Erscheinungsformen von Handelsmarken differenzieren. Die Unterschiede beziehen sich vor allem auf die Dimensionen Preisniveau und Qualität. So wird vor allem zwischen Klassischen Handelsmarken, Discount- und Gattungsmarken (Nonames) unterschieden. Im Rahmen des Managementprozesses der Handelsmarkenpolitik ist nach der Festlegung der Ziele darüber zu entschei346
den, wie viele Produkte unter einer Marke zusammengefasst werden sollen. Dabei wird zwischen Mono- bzw. Einzelmarken, Dachmarken und Exklusivmarken unterschieden. Es folgt die Ausgestaltung einzelner absatzpolitischer Instrumente. Beachtung verdienen vor allem die -> Sortiments- und die Kontrahierungspolitik. Bei der Wahl der Produkte sind vor allem die Rentabilität und die bisherigen Lücken im Sortiment zu berücksichtigen, im Rahmen der —• Preispolitik spielt der Preisabstand zum Konkurrenzprodukt eine bedeutende Rolle. Durch die Entscheidungen im Rahmen des Managementprozesses entstehen Handelsmarkentypen, so dass die Entscheidungsdimensionen auch als typenbildende Elemente bezeichnet werden. Bei den Erfolgsfaktoren der Handelsmarkenpolitik kann man zwischen unternehmensinternen Faktoren, zu denen die finanziellen Ressourcen, das Verkaufsstellennetz sowie die Organisations- und Informationsstruktur gezählt werden, und externen Faktoren differenzieren. Seit Anfang der neunziger Jahre ist eine positive Entwicklung des Marktanteils von Handelsmarken zu beobachten. Der Marktanteil von Handelsmarken im Discountbereich ist deutlich höher als in anderen Vertriebskanälen, so dass die Zuwächse fast ausschließlich aus diesem Bereich resultieren. Waldemar Toporowski Handelsschaffung -> Freihandelszone Handelssortiment -> Sortimentspolitik Handelsumlenkung Freihandelszone Hands on Management Ausübung von Kontrollrechten durch -> Venture Capitalists in einem Start Up, die zum -> Vulture Capital führen kann.
Hard-Discounter Hard-Discounter -> Handelsformen Harzburger Modell -> Management by-Konzepte Hauptversammlung -> Aktiengesellschaft Hawthorne Werke ->• Human Relations-Ansatz Hedging 1. Prinzip Hedging bezeichnet die partielle bzw. vollständige Neutralisierung von zukünftigen Wertschwankungen risikobehafteter (Primär-)Positionen durch Aufbau einer gegenläufigen (Sekundär- oder) Hedgeposition (engl, "to hedge" = einzäunen, sich absichern). Es handelt sich um ein Instrument des wirkungsbezogenen -> Risikomanagements, mit dem risikoaverse Entscheider das für einen Planungshorizont zu erwartende Nettovermögen gegen unerwünschte Preisrückgänge aktivischer (bzw. gegen Preissteigerungen passivischer) Primärpositionen absichern können. Der Hedgingerfolg ist von der (ex post) realisierten Wertentwicklung bei Primär- und Hedgeposition sowie der (ex ante) eingeschlagenen Hedgingstrategie abhängig. Die Entscheidung für eine bestimmte Hedgingstrategie erfordert zunächst die Explizierung des relevanten Planungshorizontes (z.B. Veräußerungstermin, Bilanzstichtag) sowie der Risikopräferenz des Entscheiders einschließlich des relevanten Risikomaßes. Sie ist daher selbst präferenzabhängig. Auf dieser Basis erfolgt die Auswahl geeigneter Hedginginstrumente sowie die Festlegung des Hedgingvolumens und der Abfolge ihres zeitlichen Einsatzes. Spricht sich der Entscheidungsträger etwa für das gängige (p., er)- Prinzip mit der Volatilität a (bzw. Varianz CT2) als symmetrischem Risikomaß aus (vgl. 5.), ist eine negative Korrelation zwischen Primär- und Hedgeposition erforderlich, die allerdings Risiken und Chancen gleichermaßen vernichtet.
Hedging Asymmetrische, nur negative Abweichungen erfassende Risikomaße (z.B. Shortfall-Wahrscheinlichkeit, Lower Partial Moments) vermeiden diesen Nachteil, sind aber analytisch schwieriger zu handhaben und können zu entgegengesetzten Hedgewirkungen führen wie die Orientierung an der Varianz. Auch kann das Hedging einzelner Risikopositionen (micro hedge) infolge von Risikoverbundeffekten für das Hedging der Gesamtposition (macro hedge) kontraproduktiv sein. Ein erfolgreiches Hedging der Gesamtposition von Unternehmen (z.B. einer Geschäftsbank) erfordert daher die organisatorische Abstimmung der micro hedges auf der Ebene von Geschäftsfeldern (z.B. Eigenhandel, Kreditgeschäft), die integrative Betrachtung verschiedener Risikokategorien in einem konsistenten Risikomodell (z.B. von Kurs-, Bonitäts- und Kündigungsrisiken) und die Einigung auf ein einheitliches Risikomaß (z.B. den Value-at-Risk). 3. Instrumente Hedginginstrumente können zum originären Unternehmensprozess beitragen (z.B. der zusätzliche Import von US- amerikanischen Zulieferteilen durch einen Automobilhersteller, der seine Exporte in die USA gegen das Risiko eines sinkenden Dollarkurses hedgen will), oder eine betriebsfremde Aktivität darstellen (z.B. der Abschluss entsprechender DevisenForwardgeschäfte). Häufig besteht ein natürliches Hedgingpotenzial zwischen vorhandenen Geschäftsfeldern im Unternehmen (z.B. den zinsreagiblen Kredit- und Einlagenpositionen eines Kreditinstituts), das genutzt werden kann, bevor die verbleibende Nettoposition (exposure) neue Hedgepositionen rechtfertigt. Hierbei kommen vor allem börsennotierte Termingeschäfte (Derivate) auf die abzusichernde Nettoposition in Betracht, die als short oder long Position kontrahierbar sind und in zahlreichen Varianten gehandelt werden. Als Hedginginstrumente sind insbesondere Futures und Optionen verbreitet. 347
Hedging
Hedging 4. Strategien: Bei der Absicherung einer aktivischen Position (physische long position) gegen Preisrückgänge über Futures sind Terminkontrakte zu verkaufen (short hedge), beim Hedging einer passivischen Position (physische short position) gegen Preissteigerungen zu kaufen (long hedge). Für die Hedgewirkung ist die Übereinstimmung des Underlying des Termingeschäfts mit der Kassaposition günstig (pure hedge), aber oft nicht erreichbar (z.B. beim Hedging eines individuell strukturierten Aktienportefeuilles über den Verkauf von DAX- Futures, cross hedge). Stimmt die Laufzeit des Futures T mit dem Planungshorizont des Entscheiders t überein (oder ist ein individueller Forward vereinbart), kann eine sichere Position erreicht werden (perfect hedge). Andernfalls ist der Futures vorzeitig durch ein Gegengeschäft in t glattzustellen und ein Basisrisiko in Kauf zu nehmen (Fall t < T), oder es sind revolvierend kurzfristige Futureskontrakte abzuschließen (Fall t > T, roll over hedge). In jedem Fall sollten die Parameter der Hedgingstrategie mit Hilfe von Hedgingmodellen optimiert werden, um Fehlentscheidungen zu vermeiden (z.B. beim Zeichnungsvolumen, vgl. 5.). Beim Hedging mit Optionen kommt es auf die Sensitivität A („Delta") des Optionswertes C in Bezug auf den Wert des Underlying S an. Man erhält Delta als partielle Ableitung der Black-ScholesÖC Formel nach S, A= . ÖS Werden pro physischer Position
Stück
Kaufoptionen verkauft (Stillhalterposition in Stücken), ist die Gesamtposition
gegen marginale Kursänderungen des Underlying immunisiert (delta hedge). Für die Absicherung gegen größere Kurs348
änderungen ist die ständige Readjustierung der Optionsanzahl oder eine DeltaGamma-neutrale Position erforderlich ,, Gamma = v = — öS da sich Delta infolge einer Kursänderung selbst ändern kann. Wegen ihres asymmetrischen Gewinn-Verlust-Profils eignen sich Optionen besonders zum Hedging einseitiger (Verlust-) Risiken. Der Übergang zu spekulativen Strategien auf der Basis subjektiver Markterwartungen ist allerdings fließend (z.B. Straddle, Strap, Bull-Spread, etc.). 5. Hedgingmodelle Hedgingmodelle erlauben die Berechnung optimaler Hedgingstrategien. Soll etwa im Zeitpunkt x = 0 der Wert einer gegebenen physischen Warenposition x für den Planungszeitpunkt t über eine Position y in Futures mit Fälligkeit T > t abgesichert werden ("Standardmodell"), berechnet sich das optimale Hedgingvolumen y (x) eines ( | i , a ) - Entscheiders mit Präferenzfunktional ® =u
o 2 (|i = Erwartungswert, X = Risikoaversion des Entscheiders) als Summe aus einem Spekulationsterm SP und einem Hedgingterm H (wobei f(, (bzw. (j.f) = in x = 0 vereinbarter (bzw. für t erwarteter) Futurespreis, crt (bzw. cjf) = Volatilität des Kassa- (bzw. Termin-) Preises in t, p = Korrelationskoeffizient zwischen Kassa- und Terminpreis): y* (x) = SP + H =
—~ - x • p • X-a( crf
Mit zunehmender Risikoaversion (X -» oo) wird y durch den Hedgingterm bestimmt. Er sieht den Terminverkauf der gesamten Kassaposition (y = -x, 100%hedge) bzw. eine hedge-ratio von * x
Hedging nur in Ausnahmenfällen vor (z.B. für p = 1,CTk= CT|). Häufig ist der normal hedge optimal (y < 0, |y | < x) und weniger als die Kassaposition per Termin zu verkaufen. Wird zusätzlich auf fallende < f0) bzw. steigende (|if > fo) Preise spekuliert (X < oo), ist mehr als der Kassabestand per Termin zu verkaufen (y < 0 und |y | > x, reversed hedge) bzw. sogar Ware per Termin hinzuzukaufen (y > 0, Texas hedge). Ist auch die Höhe der Kassaposition noch disponibel, muss eine simultane Optimierung von y und x erfolgen ("Simultanmodell"). Hedging fuhrt hier zu einer Zunahme der Kassaposition, die der Unternehmer z.B. für eine Produktionserhöhung nutzen kann. Realwirtschaftliche Effekte von Hedging zeigen sich auch dann, wenn die Möglichkeit späteren Hedgings bei der Produktionsentscheidung lediglich antizipiert wird ("antizipatorisch-simultanes Modell"). Für die Berechnung intertemporaler Hedgingstrategien stehen geeignete statistische Modelle zur Verfugung (z.B. die Technik kointegrierter Zeitreihen). 6. Grenzen Die risikomindernde Wirkung des Hedging wird von unvollständig diversifizierten Stakeholdern des Unternehmens (z.B. Mitarbeiter, Kunden), nicht aber von den Shareholdern auf vollkommenen Kapitalmärkten honoriert. Sie können ihre Portfolios selbst diversifizieren. Infolge ihrer beschränkten Haftung können die Aktionäre einer -* AG sogar an einer risikoerhöhenden (z.B. Investitions-) Politik interessiert sein, da sie etwaige Verluste den Gläubigern aufbürden, Gewinne jedoch selbst vereinnahmen. Insbesondere derivative Hedginginstrumente eröffnen dem Management zusätzliches Potenzial zur vertragsinkonformen Risikoerhöhung (moral hazard; —• Informationsasymmetrie). Die zu erwartende Entwertung ihrer Position werden sich rationale Stakeholder (z.B. Gläubiger) ex ante abgelten lassen, weshalb das Unternehmen an einer glaubhaften Hedgingpo-
Herstellermarken litik (z.B. durch Selbstbindung) siert sein muss.
interes-
Literatur: Ederington, L.: The Hedging Performance of the N e w Futures Markets, in: Journal of Finance, Vol. 34/1979, S. 157-170; Kürsten, W.: Hedgingmodelle, Unternehmensproduktion und antizipatorisch-simultanes Risikomanagement, in: Zeitschrift für betriebswirtschaftliche Forschung, Sonderheft 38, 1997, S. 127-154; Spremann, K.: Produktion, Hedging, Spekulation. Zu den Funktionen von Futures-Märkten, in: Zeitschrift für betriebswirtschaftliche Forschung, 38. Jg., 1986, S. 443^164.
Wolfgang Kürsten Heimarbeit Inzwischen nur noch selten verwendeter Begriff für den zu Hause tätigen Mitarbeiter. Heute wird die alternierende Telearbeit unter dem Obergriff der -> Telekooperation abgehandelt. Zur Heimarbeit im Sinne eines -»Arbeitszeitmodells: Telearbeit. Herstellermarken Es gibt eine Reihe von Kriterien, die zur Abgrenzung des Begriffes Marke herangezogen werden können. Zunehmend wird bei der inhaltlichen Deutung der Marke eine wirkungsbezogene Sicht eingenommen, die die Perspektive des Kunden in den Mittelpunkt der Definition stellt. Nicht ein Bündel objektiver Gütereigenschaften, sondern die subjektive Wahrnehmung der Kunden ist entscheidend dafür, welche Sachgüter oder Dienstleistungen als Marke eingestuft werden. In der Wahrnehmung des Kunden spielen eine unverwechselbare Leistung und ihre Ausrichtung auf den Kundennutzen sowie das Versprechen, gleichbleibende oder verbesserte Qualität zur Erfüllung gegebener Erfordernisse in standardisierter Form zu erhalten, eine zentrale Rolle. Nach diesem Verständnis kann es sich bei Sachgütern und Dienstleistungen sowohl der Industrie als auch des Handels um Marken handeln. Das Eigentum bzw. das Dispositionsrecht an der Marke kann als Kriterium herangezogen werden, um 349
Herstellermarken zwischen Hersteller- und Handelsmarken zu unterscheiden. Herstellermarken sind folglich Marken, deren Eigner und Dispositionsträger Herstellerunternehmungen sind. Synonym zu Herstellermarke wird häufig der Begriff Markenartikel verwendet.
Hockey-Schläger-Effekt Der Erfolg einer neuen Marke hängt vor allem davon ab, ob es gelingt, eine strategische Nische zu besetzen, neue Eigenschaftsdimensionen in das Konzept einzubeziehen und einen psychologischen Zusatznutzen zu schaffen. Waldemar Toporowski
Die Markierung soll für den Konsumenten folgende Funktionen erfüllen:
Herstellersortiment Sortimentspolitik
• •
High-Involvement Involvement
• • •
Erleichterung der Identifikation, Orientierungshilfe bei Auswahl von Leistungen, Schaffen von Vertrauen, Schaffen von Sicherheit, Image und Prestige im sozialen Umfeld.
Aus der Sicht der anbietenden Unternehmung werden der Markenpolitik folgende Ziele zugeschrieben: • • • • • • •
Absatzförderung, Präferenzbildung bei den Konsumenten, Aufbau von Markentreue bzw. Konsumentenbindung, Aufbau eines positiven Firmenimages, Schaffung eines preispolitischen Spielraums, differenzierte Marktbearbeitung, Verbesserung der Verhandlungsposition gegenüber dem Handel.
Im Rahmen des Prozesses der Markenpositionierung und -profilierung, der an den Management-Zyklus angelehnt ist, geht es darum, dem Konsumenten eine Problemlösung anzubieten, die eine dominierende Stellung in seiner Psyche einnimmt und eine hinreichende Differenzierung gegenüber konkurrierenden Produkten bietet. Hierbei spielt die Entscheidung darüber, ob eine Einzelmarken-, Mehrmarken-, Markenfamilien-, Dachmarkenoder Markentransferstrategie gewählt wird, eine besondere Rolle. Sie beeinflusst die sich anschließende Ausgestaltung einzelner absatzpolitischer Instrumente. 350
Histogramm Das Histogramm ist ein elementares Werkzeug des Qualitätsmanagements zur grafischen Darstellung von Häufigkeitsverteilungen variabler Messwerte. (-> Qualitätsmanagement-Werkzeuge) Engelbert Westkämper/ Alexander Schloske Hockey-Schläger-Effekt Der Hockey-Schläger-Effekt bezeichnet ein typisches Phänomen der Unternehmensplanung. Für Geschäftsbereiche mit unzureichender Ist-Rendite wird im Allgemeinen eine Planung aufgestellt, in der in den ersten ein bis zwei Planjahren mit einer weiteren Verschlechterung der Ergebnissituation gerechnet wird, aber wo sich in den darauffolgenden Planjahren eine massive Verbesserung der Ergebnis- und Renditesituation abzeichnet. Die Verschlechterung der ersten Planjahre wird üblicherweise mit den notwendigen Aufwendungen für den Turnaround begründet (-> Turnaround-Management). Daraus soll sich dann die oben beschriebene Ergebnisverbesserung entwickeln. Trägt man die geplante Ergebnisentwicklung in der Zeitreihe auf, so ergibt sich in der Grafik die Form eines Hockeyschlägers. Daher der Begriff des Hockey-SchlägerEffekts. Das Problem des Hockey-SchlägerEffekts ist die Unsicherheit der zu erwartenden Ergebnisverbesserung in den ferneren Planjahren. Diese Unsicherheit
Hockey-Schläger-Effekt basiert zum einen auf dem grundsätzlich höheren Risiko, dem zeitlich entferntere Planungen unterliegen, und zum anderen auf dem besonderen Optimismus, der bei erwarteten Ergebnisverbesserungen in Turnaround-Fällen zu beobachten ist. Der Hockey-Schläger-Effekt bekommt eine besondere Bedeutung im Zusammenhang mit der Unternehmensbewertung. Wird eine Hockey-SchlägerPlanung Basis einer Unternehmensbewertung nach dem Ertragswert- oder Discounted Cash-flow Verfahren (-» Discounted Cash-flow Methoden), so kann sich eine massive Überbewertung ergeben, wenn die Restwertkapitalisierung allein auf dem Ergebnis des letzten Planjahres aufsetzt. Um die Risiken des Hockey-SchlägerEffekts zu minimieren, ist zum einen zu prüfen, ob der Turnaround durch geeignete und hinreichende Maßnahmen unterlegt ist, und weiterhin, ob die Marktentwicklung eine solche Ergebnisverbesserung überhaupt zulässt. Weiterhin ist zu prüfen, ob die Kosten des Turnaround hinreichend hoch angesetzt sind. Die allgemeine Planungsqualität lässt sich durch einen einfachen Vergleich alter Planungen mit den tatsächlich eingetretenen Ergebnissen testen. Im schlechtesten Fall wird jedes Jahr von neuem der Hockey-Schläger-Effekt geplant, ohne dass die vorhergesagte Ergebnisverbesserung je eintritt. Die Restwertproblematik der Unternehmensbewertung lässt sich abmildern, indem man die Restwertkapitalisierung auf der durchschnittlichen Branchenrendite oder auf einer Durchschnittsrendite der Planjahre aufsetzt. Daniel Stelter Holding Die Holding ist eine Geschäftsbereichsorganisation, bei der die Geschäftsbereiche rechtlich unabhängige Unternehmen bilden. Die Unternehmensleitung ist eine eigene Gesellschaft (die sogenannte
Human Relation-Ansatz Obergesellschaft oder Holding-Gesellschaft), welche die Anteile der Tochterunternehmen (sprich: der Geschäftsbereiche) hält. Eine Holding formt so in der Regel einen -> Konzern. Wenn sich die Holding-Gesellschaft darauf beschränkt, ein Portfolio von Unternehmensbeteiligungen zu verwalten, ohne in die strategischen Entscheidungen der Tochterunternehmen einzugreifen, spricht man von einer -» Finanz-Holding. Wenn die Holding-Gesellschaft dagegen strategische Verantwortung an sich zieht, wird sie zur -* Management-Holding. Holding-Akquisition -* Unternehmensakquisition HTML HTML ist die Abkürzung von Hypertext Markup Language. Diese sog. Auszeichnungssprache ( M a r k u p Language) ist Grundlage der meisten WWW-Seiten im -» Internet. Mit H T M L lassen sich die logischen Bestandteile eines Dokuments (Überschriften, Absätze, Aufzählungslisten) und deren Formatierung beschreiben. Ruft der "Surfer" eine Internetseite (die als HTML-Datei auf einem Webserver hinterlegt ist) auf, so übernimmt der _> WWW-Browser die Interpretation der empfangenen HTML-Befehle und stellt die Inhalte der WWW-Seite grafisch aufbereitet am Bildschirm dar. Der wesentliche Mehrwert von H T M L ist aber die Möglichkeit zur Verknüpfung der Inhalte verschiedener WWW-Seiten mittels -* Hyperlinks. Human Relations-Ansatz Im Zentrum des Human RelationsAnsatzes, dessen Ursprung in den zwanziger Jahren des 20. Jahrhunderts liegt, stehen die sozialen Beziehungen in Arbeitszusammenhängen, die maßgeblich die Zufriedenheit der Mitarbeiter (-> Mitarbeiterzufriedenheit) und das Organisationsergebnis beeinflussen.
351
Human Relations-Ansatz Auslöser der Human Relations-Bewegung waren die vorangegangenen Management-Ansätze, insbesondere das Scientific Management, die sich vorwiegend an technischen und ökonomischen Kriterien bei der Gestaltung von Arbeitssystemen orientiert hatten. Der einseitigen technisch-zentrierten Betrachtungsweise wurde entgegen gehalten, dass vor allem das Verhalten der Organisationsmitglieder unberücksichtigt bleibt, obwohl es doch maßgeblich erfolgsbestimmend sei. Zur Analyse des Mitarbeiterverhaltens wurden psychologische und soziologische Theorieansätze hinzugezogen. Die Wurzeln des Human RelationsAnsatzes sind in den Experimenten einer Forschergruppe der Harvard Unversity zu finden, die in den Hawthorne Werken der Western Electric (AT&T) durchgeführt wurden und die eng mit dem Namen der Wissenschaftler Mayo und Roethlisberger/Dickson verbunden sind. In diesen Experimenten wurde vor allem untersucht, welche Wirkungen die Umgebungseinflüsse auf die Arbeitsleistung der Mitarbeiter haben. Ein weiterer Forschungsschwerpunkt waren die Ergebnisse der Gruppenarbeit in Verbindung mit den Arbeitsbedingungen. Hauptthese war, dass die Variation der physischen Arbeitsbedingungen, z.B. der Beleuchtungsstärke oder der Pausenlänge, zu Veränderungen - genauer: Verbesserungen - der Arbeitsergebnisse führt. Um diesen Effekt zu belegen, wurden auch die Arbeitsergebnisse von Kontrollgruppen gemessen, deren Arbeitsbedingungen konstant gehalten wurden. Eine umfangreiche Experiment-Reihe wurde in den Hawthorne Werken von 1924 bis 1932 durchgeführt. In einer ersten Testphase wurden Veränderungen der Beleuchtungsstärke im Produktionsprozess vorgenommen, um die Auswirkungen dieser unabhängigen Variablen auf die abhängige Variable, die Arbeitsleistung, zu bestimmen. Bemerkenswerterweise stieg die Produktivität zwar mit 352
Human Relations-Ansatz der höheren Beleuchtung, reduzierte sich aber nicht proportional wieder bei Reduktion der Beleuchtung. Außerdem stieg die Produktivität auch in den Kontrollgruppen, obwohl hier an der Beleuchtungsstärke keine Veränderung vorgenommen wurde. Insgesamt führte diese erste Versuchsreihe zu einem erklärungsbedürftigen Produktivitätsanstieg. In einer zweiten Testphase wurde die Montage von TelefonRelais als Testfeld ausgewählt. Die Zahl der unabhängigen Variablen stieg: Pausenlänge und -läge, Länge des Arbeitstages, Versorgung mit Lebensmitteln usw. wurden variiert. Auch in dieser Testreihe gab es unerklärbare Produktivitätsfortschritte sowohl bei den Test- als auch bei den Kontrollgruppen. Im nächsten Schritt erfolgten Interviews der Mitarbeiter, um herauszufinden, ob allein die Aufmerksamkeit der Forscher und der Führungskräfte während der Tests zu Leistungssteigerungen fuhren konnte. Die Interviews richteten sich auf die sozialen Beziehungen der Arbeitnehmer(innen) untereinander und zwischen ihnen und den Führungskräften sowie auf die Probleme im Arbeitsumfeld. Es wurde ein Zusammenhang zwischen Unzufriedenheit der Arbeitnehmer - gemessen an der Beschwerdeneigung - und ->• Führungsstil hergestellt. Gleichsam wurde aus den (knappen) Grunderkenntnissen die Gestaltung personenbezogener, sensibler Führungstechniken empfohlen. In einer letzten, parallel zu den Interviews durchgeführten Testreihe wurden Anreizsysteme in einer Gruppe, in der das Wickeln von Spulen und Kontakte löten zur Aufgabe gesetzt war, analysiert. Das Entlohnungsschema (-+ Entlohnungssysteme) beinhaltete sowohl individuelle als auch gruppenorientierte Anreize, die einen Kooperationsanreiz setzen sollten. Alle Experimente belegten, dass die individuelle Zufriedenheit einen großen Einfluss auf das Arbeitsergebnis und auf die Produktivität hat.
Human Relations-Ansatz Die Vertreter des Human RelationsAnsatzes fassen die Hauptergebnisse der Experimentserie in den Hawthorne Werken wie folgt zusammen: Arbeitnehmer handeln oder reagieren nicht mehr allein als Individuen, sondern auch als Mitglieder einer sozialen Gemeinschaft bzw. einer Arbeitsgruppe. In den Gruppen existieren soziale Normen, die die Arbeitsergebnisse eher determinieren als die individuelle Leistungsfähigkeit. Das Verhalten der Arbeitnehmer wird weniger durch finanzielle Anreize als durch soziale Beziehungen und auch Sanktionen beeinflusst. Veränderungen von Arbeitsleistungen der Mitarbeiter basieren eher auf sozialen und physischen Bedingungen und weniger auf den objektiven Arbeitsbedingungen. Durch die Befriedigung sozialer Bedürfnisse kann die Arbeitszufriedenheit gesteigert werden, die unmittelbar die Leistungsfähigkeit und die Leistungsbereitschaft von Arbeitnehmern determiniert. Führung besteht dann in der Einflussnahme auf informelle und formelle Beziehungen (-» informelle Organisation, -> formelle Organisation) sowie in der Beeinflussung der Festlegung und Durchsetzung von Gruppennormen. Die Hawthorne-Experimente hatten erhebliche Auswirkungen auf die gesamte betriebswirtschaftliche Forschung. Sie beeinflussten diese bis weit in die 50er Jahre des 20. Jahrhunderts hinein und begründeten die verhaltenswissenschaftliche Betriebswirtschaftslehre, die lange Zeit eine dominierende Stellung in diesem Forschungsgebiet einnahm. Die Erkenntnisse der Experimente wurden weiter vertieft und lösten eine Art Schulenbildung zur Human RelationsBewegung aus. Der Human RelationsAnsatz hat damit das Verständnis von Organisationen grundlegend verändert. In den klassischen Organisationsstrukturen sollten die sozialen Bedürfnisse der Mitarbeiter befriedigt werden, um ein gutes Organisationsergebnis zu erreichen. Es wird eine wechselseitige Beeinflussung
Human Relation-Ansatz von Organisationen und Mitarbeitern unterstellt. Zum einen wirkt die Organisation auf die Motivation von Mitarbeitern, zum anderen kann ein Mitarbeiter die Organisation so beeinflussen, dass seine Bedürfnisse erfüllt werden können. Der letzte Aspekt wird zu einem zentralen Gegenstand der verhaltenswissenschaftlich geprägten Organisationstheorien. Hauptverdienst ist das Herausstellen der Bedeutung zwischenmenschlicher Beziehungen in Organisationen für das Ergebnis des Zusammenarbeitens. Aufgrund der eingängigen Hypothesen und Schlussfolgerungen hat der Human RelationsAnsatz sehr stark Wissenschaft und Praxis geprägt. Der Ansatz hat jedoch auch zahlreiche Schwächen, die dessen Bedeutung relativieren. Die Kritik des Human Relations-Ansatzes richtet sich vor allem gegen die mangelnden theoretischen Grundlagen. Eine schlüssige, durchgängig formulierte Theorie fehlt diesem Ansatz, und aus den Experimenten sind nur einige, theoretisch unzureichend begründete und empirisch nur schwach belegte Hypothesen abgeleitet worden. Der Zusammenhang zwischen der durch soziale Beziehungen erreichten .Arbeitszufriedenheit und erhöhter Produktivität erscheint keinesfalls zwingend. Wenn in günstigen Arbeitsbedingungen die sozialen Bedürfnisse der Arbeitnehmer befriedigt werden, muss dies nicht automatisch ein Leistungsanreiz bedeuten. Die Überbetonung der sozialen Beziehungen für die Arbeitszufriedenheit und bei der Gestaltung der Arbeitsorganisation ersetzt die technische durch die verhaltenswissenschaftliche Sichtweise. Die Konzentration auf die Mikroperspektive der Arbeitssituation vernachlässigt strukturelle Gestaltungsprinzipien der Gesamtorganisation, organisatorischer Einheiten oder auch organisatorischer Regeln. Die ökonomischen Konsequenzen werden in den Human Relations-Ansätzen kaum präzisiert.
353
Humanvermögensrechnung
Human Relations-Ansatz Damit sind diese Ansätze genauso einseitig wie diejenigen, gegen die sie entwickelt wurden. Grundsätzlich besteht die Gefahr, bei der Gestaltung der Arbeitsorganisation und bei der Führung von Mitarbeitern Leistung und ökonomische Effizienz aus dem Blick zu verlieren. Mit den HawthomeExperimenten wurde zudem das eigentliche Anliegen verfehlt: Es sollte herausgefunden werden, inwieweit die Veränderung von Arbeitsbedingungen und Umgebungseinflüssen die Leistung der Mitarbeiter verbessern kann, belegt wurde lediglich, dass die Bemühung um die Mitarbeiter allein zu Leistungssteigerungen fuhren kann, denn auch die unter konstanten Bedingungen arbeitenden Kontrollgruppen zeigten Leistungsverbesserungen. Eine weiterer großer Problemkreis, der sich aus den HawthorneExperimenten ergeben hat, beinhaltet die Diskussion um die Wertfreiheit der Wissenschaft. Schließlich sind alle Experimente aus Mitteln der Industriebetriebe finanziert worden, die durch die Publikationen der Ergebnisse von Wissenschaftlern die Beachtung humaner Arbeitsbedingungen als ein Mittel der Öffentlichkeitsarbeit verwenden konnten. Der Human Relations-Ansatz war mit Sicherheit einer der "Verkaufsschlager" in der Entwicklung der Betriebswirtschaftslehre. Trotz erheblicher Schwächen kann dem Ansatz ein immenser Erfolg in Wissenschaft und Praxis bescheinigt werden. Durch die Beachtung sozialer Beziehungen wurde in der Betriebswirtschaftslehre ein Anstoß zur Weiterentwicklung von Managementlehren gegeben, wie z.B. der Motivationstheorien (-» Motivation), der Analyse des Gruppenverhaltens oder der Führungsforschung. Durch diesen Anstoß und die Auswirkungen ist auch die Organisationsökonomie gefordert, in den effizienzorientierten Modellen zusätzlich verhaltenswissenschaftliche Erkenntnisse umzusetzen. Silvia Föhr 354
Humanvermögensrechnung Die Humanvermögensrechnung (HVR) besteht in der systematischen und regelmäßigen Erfassung und Bewertung des Faktors Arbeit in einer Unternehmung bzw. der betrieblichen Humanressourcen. Die Diskussion um die HVR entstand aus vermuteten Defiziten des traditionellen betrieblichen Rechnungswesens, in dem nur das Sachvermögen bewertet wird. Überlegt wird, ob der Vermögensausweis im Rechnungswesen bei Verzicht auf die Erfassung menschlicher Ressourcen nicht unvollständig bleiben muss. Damit scheinen auch Entscheidungs- oder Informationsgrundlagen unzureichend zu sein. Mitarbeiter werden im traditionellen Rechnungswesen typischerweise durch Aufwandsgrößen, z.B. über Arbeitsentgelte oder Aus- und Weiterbildungsaufwendungen, erfasst. Ab 1970 setzte eine intensive Diskussion um die Möglichkeiten und Grenzen der HVR ein, die bis in die Mitte der 80er Jahre mit unterschiedlichen Schwerpunkten gefuhrt wurde. Zielsetzung einer HVR ist, den Wert des Faktors Arbeit in einer Organisation zu ermitteln, um dessen Bedeutung als eine wichtige erfolgswirksame Ressource belegen zu können. Wie im traditionellen Rechnungswesen sind auch hier die Adressaten zu unterscheiden. Zwar kann man davon ausgehen, dass externe Interessenten, wie z.B. Kapitalgeber, auch an Werten des Humanvermögens interessiert sind, typischerweise wird in der Literatur jedoch verstärkt die interne HVR diskutiert. Nahezu alle Konstruktionen der HVR haben zum Ziel, ein Informations-, Entscheidungs- und Kontrollinstrumentarium für die Unternehmensleitung oder andere interne Entscheidungsträger zu bieten. Die Verfahren der HVR weisen dabei jedoch einige Grundprobleme der Konstruktion auf. Die zwei Hauptprobleme für die HVR bestehen in der Erfassung des Humanvermögens und in der Bewertung der menschlichen Ressourcen.
Humanvermögensrechnung Eine direkte Erfassung und Bewertung des Humanvermögens entzieht sich den Verfahren, denn dieser Wert hängt von den Zielen, den Zwecken und der Verwendung des Humanvermögens ab. Somit ist Humanvermögen immer ein abgeleiteter Wert, und die unterschiedlichen Verfahren der HVR stellen die Kombinationen von Mess- und Bewertungsverfahren des Faktors Arbeit in einer Unternehmung vor dem Hintergrund ganz konkreter Ziel- und Zwecksetzungen dar. Die Modelle sollten systematische Normierungsvorschläge für eine handhabbare Erfassung und Bewertung des Humanvermögens darstellen. Die Verfahren zur indirekten Messung des Humanvermögens lassen sich grundsätzlich in kosten- oder input-orientierte Verfahren und leistungs- oder outputorientierte Verfahren differenzieren. Zudem unterscheiden sich die Verfahren nach dem jeweiligen Aggregationsniveau, das die Bewertung einzelner Mitarbeiter, organisatorischer Einheiten oder der gesamten Unternehmung beinhalten kann. Die input-orientierte Bewertung des Humanvermögens mit Hilfe des Kostenprinzips erfasst die Personalkosten nach periodenbezogenen Aufwendungen (z.B. Löhne und Gehälter, Sozialleistungen) und den investiven Aufwendungen für Personalbeschaffung, Personalauswahl, Einarbeitung usw., bei denen wie beim Sachvermögen Abschreibungen berücksichtigt werden. Die Bewertungsalternativen bestehen in den Anschaffungskosten, den Wiederbeschaffungskosten oder auch den -> Opportunitätskosten. Bei der Bewertung zu Anschaffungskosten besteht der Wert des Humanvermögens in den tatsächlich in der Vergangenheit angefallenen Aufwendungen für die Beschaffung, die Entwicklung und die Erhaltung der Humanressourcen. Die Bewertung des Humanvermögens zu Wiederbeschaffungskosten gibt den Wert an, der entstehen würde, wenn ein derzeitig beschäftigter Mitarbeiter zu ersetzen
Humanvermögensrechnung ist. Auch hier fallen zukünftige Personalbeschaffungskosten, Einarbeitungskosten und dazu die Trennungskosten (z.B. Vakanzen, Abfindungen) an. Bei der personenbezogenen Erfassung werden die individuellen Fertigkeiten und Fähigkeiten des Mitarbeiters als Wertmaßstab verwendet, bei der stellenbezogenen Bewertung werden die bisher an den Inhaber gerichteten Anforderungen gemessen. Die Bewertung des Humanvermögens zu Opportunitätskosten wirft einige praktische Probleme auf. Dabei wird der Faktor Arbeit als ein knappes Gut verstanden, für das in einer Unternehmung alternative Verwendungsmöglichkeiten bestehen. Der über eine Art Marktmechanismus ermittelte Wert eines Mitarbeiters in seiner nächstbesten Verwendung drückt den Wert seines Humanvermögens aus, den ein Bietmechanismus, also eine -> Auktion, liefern kann. Die leistungs- oder output-orientierten Verfahren der HVR basieren auf einem Wertprinzip, das die zukünftig von den Mitarbeitern zu erwartenden Leistungen ermitteln soll. Eine Vielzahl von Verfahren zur HVR wird in der Literatur diskutiert, von denen hier drei exemplarisch vorgestellt werden. Das erste Verfahren bewertet das Humanvermögen mit Hilfe der zukünftigen Leistungsbeiträge. Dem liegt die Vorstellung zugrunde, dass das Humanvermögen die Summe aller zukünftigen Beiträge der Mitarbeiter eines Unternehmens zu dessen Gesamtleistung beinhaltet. Die bewertbaren zukünftigen Beiträge hängen von der Leistungsfähigkeit und dem Leistungswillen des Mitarbeiters, aber auch von der jeweiligen Stellung in der Unternehmenshierarchie und von der geschätzten Verweildauer in der jetzigen Tätigkeit ab. Da es sich dabei um zukünftig zu erwartende Leistungen handelt, werden die Einflussfaktoren jeweils mit subjektiven Eintrittswahrscheinlichkeiten gewichtet, um einen Erwartungswert zu berechnen. Die praktische Umsetzbarkeit 355
Humanvermögensrechnung dieses Verfahrens wird in der betriebswirtschaftlichen Literatur kritisch diskutiert. Ein zweites Verfahren bewertet das Humanvermögen nach der sogenannten Firmenwertmethode. Es wird davon ausgegangen, dass eine Differenz zwischen dem bilanziellen und dem tatsächlichen Vermögen allein auf das Humanvermögen zurückzuführen sei. Um diesen Finnenwert zu ermitteln, werden unternehmensspezifische Rentabilitätskennziffern den durchschnittlichen Rentabilitäten vergleichbarer Unternehmen oder innerhalb derselben Branche gegenübergestellt. Die gegenüber dem Branchendurchschnitt erwirtschafteten Mehr- oder Mindergewinne können dann mit Hilfe eines branchenüblichen Zinssatzes kapitalisiert werden. Neben diesen als monetär zu bezeichnenden Verfahren gibt es in der Literatur zur HVR auch das Bestreben, die nichtmonetären Werte des Humanvermögens zu erfassen. Damit ist beabsichtigt, die Rechnungswesendimension um psychologische oder auch sozialpsychologische Elemente zu erweitem und diese zu bewerten. Es wird versucht, einen Wertzuwachs zu ermitteln, der durch informelle Beziehungen (-> Informelle Organisation), durch die -* Organisationsstruktur, den Führungsstil, die Rolle oder auch die Persönlichkeitsmerkmale des Mitarbeiters erzielt wird. In einer quasikomplementären Beziehung führen diese Faktoren gemeinsam mit der individuellen Produktivität der Mitarbeiter, die sich aus dem Leistungspotenzial und der Leistungsfähigkeit ergeben zu dem Wert der Humanressourcen für das Unternehmen. Auch hier gibt es große Operationalisierungsprobleme, die nur ansatzweise durch die Verfahren der Leistungs- und Potenzialbewertung (-* Potenzialbeurteilung) gelöst werden können. Die relativ geringe Verbreitung der HVR ist trotz des Booms in den siebziger und der Diskussion in den 80er Jahren des 20. 356
Humanvermögensrechnung Jahrhunderts sicherlich auf die bereits angedeuteten Operationalisierungs- und Methodenschwächen zurückzufuhren. Die Erfassung und Bewertung des Humanvermögens stößt zunächst an ähnliche Grenzen wie die Wertansätze im traditionellen Rechnungswesen. Doch neben den Problemen, welches Vermögen wie und zu welchem Zeitpunkt gemessen werden soll und wie dies zu bewerten ist, kommt beim Humanvermögen zumindest noch die strategische Verhaltensunsicherheit hinzu. Während bei Sachvermögen sich z.B. Nutzungsintensität und Nutzungsdauer berechnen und planen lassen, werden beim Humanvermögen entsprechende Verfügungsrechte nicht vollständig übertragen. Das Humanvermögen entzieht sich der im Rechnungswesen geforderten Messbarkeit, und Wertmaßstäbe lassen sich lediglich aus dem unternehmensspezifischen Zielsystem ableiten. Tendenziell ist festzuhalten, dass die vergangenheitswertorientierten Verfahren kaum Entscheidungs- und Planungshilfen bieten, die zukunftsorientierten Verfahren jedoch erhebliche Unsicherheiten beinhalten, so dass auch dabei kaum von einem rationalen Entscheidungsprozess gesprochen werden kann. Alle in den oben skizzierten Verfahren verwendeten Ersatzgrößen bilden das Humanvermögen nicht vollständig ab. Sieht man von den Versuchen der nicht-monetären Ansätze zur HVR einmal ab, so besteht das Defizit in allen anderen Verfahren darin, dass Synergieeffekte und Kooperationsrenten, die durch die Mitarbeiter erreicht werden, nicht als Humanvermögen erfasst werden können. Die starke Orientierung auf das traditionelle Rechnungswesen führt an dieser Stelle kaum weiter. Um die Besonderheiten des Faktors Arbeit in einer betrieblichen Personalpolitik erfassen, planen und in Entscheidungen berücksichtigen zu können, reicht es nicht aus, zum Sachvermögen analoge Werte des Humanvermögens schätzen zu wollen.
Hypercompetition
Humanvermögensrechnung Trotz aller Kritik bietet die HVR einen wichtigen Anstoß, den Faktor Arbeit nicht als einen variablen Produktionsfaktor, sondern als ein Investitionsobjekt und einen Vermögensgegenstand zu beachten. Dieses ist zwar bereits in der Humankapitaltheorie (z.B. BECKER 1962) bereits wissenschaftlich fundiert, aber in der Betriebswirtschaftslehre nur sehr zögerlich aufgenommen worden. Die große Bedeutung des Faktors Arbeit wird eher in einem systematischen Personalcontrolling heraus gearbeitet, das den Humankapitalinvestitionen Rechnung trägt und durch ein strukturiertes • Personalinformationssystem unterstützt wird. Die Zielsetzung dieses Systems ist die optimale Allokation der Humanressourcen im Unternehmen, die nicht nur eine Zeitpunktbetrachtung bleibt, sondern den investiven Charakter des Faktors Arbeit mit allen Planungsunsicherheiten bewältigen kann. Silvia Föhr Hurdle Rate -»Investitionsrechnung Hypercompetition Als Hypercompetition bezeichnet man die heute immer häufiger feststellbare Tatsache, dass der Wettbewerb extrem hart, durchgreifend und vielschichtig ist. Während traditionelle Wettbewerbsvorstellungen davon ausgehen, dass die einzelne Unternehmung in einem abgrenzbaren Markt einer erkennbaren Zahl von Mitanbietern gegenüberstehe, wird in der Hypercompetition alles vernetzt und volatil. Einmal erleichtern die technischen, ökonomischen und gesellschaftlichen Entwicklungen (Liberalisierung, Informatik und Telekommunikation, Globalisierung und Netzwerkbildung (-» Netzwerke) u.a.m.) den Eintritt neuer Mitbewerber. Bestehende Eintrittsbarrieren werden immer unwirksamer. Extremes Shareholder-Value-Denken (-> Shareholder Value) der Eigentümer lässt zudem den Wettbewerb deutlich härter werden. Von beson-
derer Bedeutung im Hyperwettbewerb ist die Tatsache, dass sich der Konkurrenzkampf immer simultan auf mehreren Ebenen abspielt: Konventionell ist die Ebene der Produkte und Märkte. Über dieser Ebene ist nun aber noch ein Wettbewerb um Ressourcen gelagert. Entscheidend ist, wer im Wettkampf um die künftigen -» Kernkompetenzen obsiegt. Noch eine Stufe grundsätzlicher ist der Wettbewerb um unternehmerische Konzeptionen. Es geht hier in erster Linie um den Wettbewerb zwischen Visionen. Dazu kommt schließlich der Wettbewerb im Unternehmensverband (-> Strategische Allianzen). Es bildet sich immer mehr ein Wettbewerb zwischen "Clustern" heraus, bei welchem es für ein Unternehmen existenzentscheidend sein kann, zum "richtigen" Zeitpunkt in der "richtigen" Allianz zu sein. All dies wird überlagert vom Faktor "Geschwindigkeit". Empirische Messungen zeigen, dass sich Positionen und Konstellationen immer schneller ändern. Ausgehend von dieser Vorstellung hat D'Aveni ein Framework entwickelt, welches das strategische Verhalten der Unternehmungen, die in einem hyperkompetitiven Umfeld operieren, zum Inhalt hat (D'Aveni 1994). Wegleitend ist dabei die Vorstellung, dass der Wettbewerb eine Abfolge von Diskontinuitäten darstelle, die nur durch seltene Phasen relativer Stabilität unterbrochen werden. Daraus ergibt sich, dass die Wettbewerbsvorteile einer Unternehmung immer rascher wegerodiert werden. Der Wettbewerb nimmt damit eine ganz neue Qualität an. Angesichts der Hyperkompetition wird die Vorstellung, eine Unternehmung könne sich einen dauerhaften Erfolg durch den Aufbau und den Erhalt einer nachhaltig verteidigungsfähigen Wettbewerbsposition erreichen, unzweckmäßig. 357
Hypercompetition Im Gegenteil: Der Versuch, eine solche absolute Position zu erreichen, wäre, so D'Aveni, "shoveling sand against the tide". Vielmehr geht es im Rahmen des strategischen Verhaltens bei Hyperkompetition darum, eine Abfolge von befristeten, relativen Wettbewerbsvorteilen zu erreichen, um immer neue, aber zeitlich limitierte Vorteilspositionen zu erringen. Das bedeutet nicht nur, dass Wettbewerbsvorteile der Konkurrenten nicht akzeptiert, sondern permanent angegriffen werden müssen (Destruction of Opponent's advantage). Die Unternehmung muss aber auch die eigenen Wettbewerbsvorteile ständig in Frage stellen, zerstören und neu gestalten. Dem strategischen Verhalten auf hyperkompetitiven Märkten liegt demnach die Schumpeter'sche Idee der permanenten schöpferischen Zerstörung zugrunde. Gemäss D'Aveni spielt sich der Wettbewerb auf hyperkompetitiven Märkten in vier Arenen ab. Zudem gibt es in jeder Arena eine Eskalationsleiter, auf welcher sich der Wettbewerb mit zunehmender Intensität stufenweise in die Höhe schraubt. Den Ausgangspunkt bildet die Kosten/Qualität-Arena. Sie ist durch den Wettbewerb zweier Anbieter eines homogenen Produktes gekennzeichnet. Um dem reinen Preiswettbewerb zu entfliehen, leiten beide Anbieter Maßnahmen zur Qualitätsdifferenzierung. Dadurch wird der Wettbewerb intensiviert. Bei D'Aveni liegt die Vorstellung zugrunde, dass die Kosten- und die Qualitätskonkurrenz so lange eskaliert, bis ein "Ultimate point" erreicht wird, bei welchem kein Anbieter mehr in diesen Dimensionen agieren kann. Der Wettbewerb muss sich dann auf eine andere Arena verlagern. In der Timing/Know-how-Arena wird das strategische Verhalten der Unternehmung mit Bezug auf seine Ressourcen und deren zeitlichen Einsatz betrachtet. Die Unternehmungen versuchen, in ständiger 358
Hypercompetition Eskalation temporäre Vorteile aufzubauen, indem sie einen zeitlichen Vorsprung erarbeiten und neues Know-how schaffen. In einer dritten Arena wird davon ausgegangen, dass in vielen Märkten Eintrittsund Mobilitätsbarrieren bestehen oder von den Konkurrenten aufgebaut worden sind ("Strongholds"). D'Aveni geht aber davon aus, dass der Schutz solcher Monopolsituationen generell schwindet und daher der Wettbewerb eskaliert. Der teuere Aufbau oder der aufwendige Unterhalt von "Strongholds" ist daher strategisch immer weniger attraktiv. Mit der Wahl der Deep-pocket-Arena (volle Taschen) erschließt D'Aveni schließlich die Dimension der Finanzressourcen. Volle Taschen ermöglichen es, weltweit die besten Mitarbeiter zu rekrutieren, die modernste Ausrüstung zu kaufen, die besten produktions- und Vertriebseinrichtungen zu entwickeln, Märkte zu erschließen, das beste technische, organisatorische sowie kommerzielle Know-how zu beschaffen, was wiederum den Wettbewerb entschärft. Hyperkompetitives Verhalten bedeutet nun, dass die Unternehmung permanent in diesen vier Wettbewerbsarenen aktiv ist und die Möglichkeiten der Eskalationsleitern konsequent nutzt. D'Aveni zeigt aber im Rahmen seines Konzepts nicht nur die strategischen Handlungsräume auf, sondern er entwickelt auch ein pragmatisches Konzept der Wettbewerbs Veränderung. Im Zustand der Hyperkompetition erschienen die bisher üblichen Strategien wenig erfolgreich, die auf die Errichtung dauerhaft verteidigungsfähiger Wettbewerbsvorteile abzielen. Auch ist die Anwendungsmöglichkeit der bisher üblichen Instrumente des strategischen Managements begrenzt. Zur Bewältigung hyperkompetitiver Situationen werden daher "Die neuen 7S" als ein Instrumentarium der strategi-
Hypercompetition sehen Analyse sowie der Strategieevaluation vorgeschlagen. Aufgrund des hohen Stellenwertes der Zerstörung (Disruption) bestehender Wettbewerbsvorteile und Marktstrukturen im Zustand der Hyperkompetition werden die neuen 7-S in drei Gruppen zusammengefasst: Vision der Zerstörung, Fähigkeiten zur Zerstörung und Taktik der Zerstörung. Zur Vision der Zerstörung zählen zum einen Ideen und Methoden zur überlegenen Befriedigung der Bedürfnisse von Stakeholdern (57: Superior stakeholder satisfaction). Zum anderen geht es um die strategische Voraussicht und Weitsicht und hierbei neben der Identifikation neuer Kunden insbesondere um die Erkennung oder Schaffung neuer Bedürfnisse (S2: Strategie soothsaying). Aufgrund der Vision der Zerstörung wird die Marschrichtung des intensiven Wettbewerbs vorgezeichnet. Fähigkeiten zur Zerstörung der bestehenden Wettbewerbskonstellation sind die Geschwindigkeit (S3: Speed) und die Überraschung (S4: Surprise). Zu Taktiken der Zerstörung zählen die Veränderungen der Spielregeln (S5: Shifting the rules of the game), das Signalisieren der strategischen Absicht (S6: Signaling stratetic Intent) sowie simultane und sequenzielle strategische Vorstöße (57: Simultaneous and sequential stratgic thrusts).
Hyperlinks c o m p e t i t i o n , in: Strategie M a n a g e m e n t Journal, 6 / 1 9 8 5 (1), S. 8 7 - 9 6 ; Rühli, E.: Strategische F ü h r u n g bei H y p e r w e t t b e w e r b , in Staffelbach,; B . / W e h r l i , H . P. (Hrsg.): M a r k t - u n d m e n s c h e n orientierte U n t e r n e h m e n s f i i h r u n g , Bern 1996, S, 9 - 2 9 ; Rühli, E.: „ H y p e r c o m p e t i t i o n " a n d the Strategie reorientation of A s e a B r o w n B o v e r i , in: C o m p e t i t i v e Intelligence R e v i e w , 7 / 1 9 9 6 (2), S. 3 6 - 4 5 ; Rühli, E.: T h e c o n c e p t of h y p e r c o m p e t i t i on - A n e w a p p r o a c h to strategic m a n a g e m e n t in large multinational firms, in: Strategic C h a n g e , 6 / 1 9 9 7 (7), S. 3 7 7 - 3 9 0 ; Sachs, S.: Strategie und Ö k o n o m i e , in: Die U n t e r n e h m u n g , 4 9 / 1 9 9 5 (4), S. 245-257.
Edwin Rühli Hyperlinks Hyperlinks sind in ->• H T M L formulierte Verweise im W W W in Text- oder Bildform. Klickt der Benutzer mit dem Mauszeiger auf den Hyperlink, so gelangt er an das angegebene Sprungziel: Dies ist meist eine andere WWW-Seite, kann aber auch eine E-Mail-Adresse (-»E-Mail) sein. Die Werbebranche nutzt insbesondere die Möglichkeit der bildbasierten Verweise (-» Bannerwerbung), um den Surfer auf die beworbene Seite "umzulenken". Hyperlinks reduzieren so auch große räumliche Entfernungen auf einen einfachen "Klick": Der Nutzer bemerkt nicht einmal, ob er in Sekundenbruchteilen auf einen Computer in einem anderen Land verwiesen wurde. Die Welt wird zum "Datendorf'.
Gesamthaft betrachtet zeigt sich, dass die Situation der Hyperkompetition zu neuen strategischen Verhaltensweisen und Instrumentarien fuhrt. Wahrscheinlich erscheint uns, dass die teilweise übersteigert aggressive Denkweise der Hyperkompetition der Diskussion um die Streitfrage, d.h. ob diese verabsolutierte Form des Wettbewerbs ökonomisch effizient und gesellschaftlich erwünscht sei, neuen Auftrieb verleihen wird. Literatur: Bettis, R.A./Hitt, M . A . : T h e n e w c o m petitive landscape, in: Strategie M a n a g e m e n t Journal, 16 (Special Issue S u m m e r ) 1995, S. 7 - 1 9 ; D ' A v e n i , R.A.: H y p e r c o m p e t i t i o n - M a n a g i n g the d y n a m i c s o f Strategie m a n e u v e r i n g , N e w Y o r k 1994; K a m a n i , A . / W e r n e r f e l t , B.: Multiple point
359
Ideenmanagement
Importmanagement
Ii-J Ideenmanagement --> Betriebliches Vorschlagswesen Import Der Import bezeichnet die Einfuhr von Waren und Dienstleistungen aus dem Ausland. Zusammen mit dem Export macht er den Außenhandel von Wirtschaften aus. In Unternehmen ist er ein Teil der betrieblichen Beschaffung und stellt neben dem Export die klassische Form der betrieblichen Auslandstätigkeit dar, die makro-ökonomisch mit der Theorie der Außenhandelsbeziehungen (z.B. Seil 1991) und mikro-ökonomisch mit der Theorie der Intemationalisierung (z.B. Dunning 1981) erklärt wird. Literatur: Seil, A.: Einführung in die internationalen Wirtschaftsbeziehungen, Berlin 1991; Dunning, J.: International Production and the Multinational Enterprise, London 1981.
Brij Nino Kumar Importmanagement Das Importmanagement umfasst die Planung, Organisation und Kontrolle der grenzüberschreitenden Leistungseinfuhr (-> Import) und ist grundsätzlich danach zu unterscheiden, ob das Unternehmen die betreffenden Aktivitäten als traditionellen Inputbezug von fremden Lieferanten im Ausland betreibt, oder sie im Rahmen seines Internationalisierungsprozesses und internationalen Unternehmensverbundes als globale Beschaffung begreift. 1. Management des Inputbezugs Der traditionelle Import stellt zusammen mit dem Export die erste Phase der Internationalisierung von Unternehmen dar. Waren und Dienstleistungen werden aus verschiedenen Motiven, vor allem Kosten- und Qualitätserwägungen, von unabhängigen Lieferanten im Ausland bezogen. Fragen des Importmanagements beziehen sich vor allem auf die Logistik, die die Wahl der Importkanäle und die
360
Sicherung fasst.
der
Lieferbedingungen
um-
Im allgemeinen kann man zwischen dem direkten und indirekten Import unterscheiden. Der direkte Import bezeichnet den Inputbezug ohne die Zwischenstufe eines fremden Absatzmittlers im In- und Ausland. Diese Möglichkeit erweist sich als zweckmäßig, wenn das Importvolumen relativ groß ist und der Importeur intensive Kommunikation mit dem ausländischen Lieferanten über Produktqualität und -entwicklung pflegen will. Durch die Einrichtung eines eigenen Einkaufsbüros im Beschaffungsgebiet im Ausland kann bei entsprechendem Einkaufsvolumen kostengünstig diesen Aufgaben Rechnung getragen werden. Von dieser Möglichkeit machen in der Regel große Einkaufsorganisationen, z.B. Versandhäuser, Gebrauch. Von indirektem Import spricht man, wenn unabhängige Absatzmittler im In- und Ausland den Inputbezug aus dem Ausland abwickeln. Die wichtigsten unter ihnen sind Importhäuser, Importagenturen, Kommissionshändler, Importmakler, u.a. Importe werden von diesen Absatzmittlem entweder auf eigene Rechnung oder auch auf Bestellung des Endkunden getätigt. Im Gegensatz zum direkten Import übernehmen diese Absatzmittler sämtliche Aufgaben, die im Zusammenhang mit der Einfuhr anfallen, wie Einhaltung der Lieferbedingungen, Organisation des Transports und der Zollabfertigung, usw. Je nach Größe und Organisation des Einfuhrunternehmens obliegt das Importmanagement der Einkaufsabteilung, Auslandsabteilung oder auch dem betreffenden Unternehmens- oder Geschäftsbereich. 2. Importmanagement im Rahmen des internationalen Produktionsverbundes Mit der zunehmenden Intemationalisierung, die auf einer ausgedehnten internationalen Streuung der Wertschöpfung beruht, steigt die Notwendigkeit zur Optimierung der Produktionseffizienz im
Informationsagenten
Importmanagement globalen Unternehmensverbund. Internationale Austauschbeziehungen, zu denen auch die internationale Beschaffung (-» "global sourcing") gehört, sind dabei das wichtigste Instrument. Die internationale Beschaffung meint in diesem Zusammenhang die Bereitstellung von Waren und Dienstleistungen im globalen Unternehmensverbund auf der Grundlage von intersubsidiären Importen (Importe im internen Markt) und/oder der verbundeffizienten Gestaltung von internationalen externen Zulieferungen. Dabei ergeben sich folgende Fragen des Importmanagements: •
•
•
Bestimmung des internationalen internen Importmarktes: Festlegung der Größe, Art (vertikale/horizontale Integration) und der regionalen Ausdehnung des internen Importmarktes mit der Maßgabe, dass die standortbedingten Vorteile im globalen Importverbund größer sind als die Koordinationskosten. Diese Frage wird von der Transaktionskostentheorie thematisiert. Bestimmung des internationalen externen Importmarktes: Festlegung der internationalen, unabhängigen Zulieferer nach Maßgabe der einheitlichen Lieferbedingungen im Importverbund. Im Zusammenhang mit der obigen Frage läuft das auf die Abwägung der "Make-or-Buy"-Entscheidung hinaus (Hill 1997). Bestimmung der strategischen Orientierung: Die obigen Fragen hängen grundsätzlich mit der internationalen Managementstrategie zusammen, die festlegt, inwieweit die Tätigkeit im Ausland an die lokalen Bedingungen angepasst oder global integriert wird. Tendenziell gilt, dass sich globale Integration und interner Importverbund gegenseitig fordern (Kumar 1987).
Literatur: Hill, C.W.L.: International Business. Competing in the global marketplace, H o m e w o o d / III 1997; Kumar, B. N.: Deutsche Unternehmen in den USA. Theorie und Praxis des Management in
amerikanischen Niederlassungen deutscher telbetriebe, Wiesbaden 1987.
Mit-
Brij Nino Kumar Inbound-Telemarketing -* Telefonmarketing Income Statement -> Gewinn- und Verlustrechnung Individualsoftware In der Informationstechnologie wird Software in zwei Arten klassifiziert: in Individualsoftware und in —• Standardsoftware. Individualsoftware umfasst jene Programme, die fur einen Anwendungsfall eigens erstellt worden sind und deren Eigenschaften im Allgemeinen einem bestimmten Anforderungsprofil entsprechen. Durch die individuelle Programmierung ist eine optimale Anpassung an das jeweilige betriebliche Umfeld meist gewährleistet. Für einen detaillierten Vergleich zwischen Individual- und Standardsoftware siehe unter -* Standardsoftware. Industrieroboter -* Automatisierung Informale Organisation Der Begriff beschreibt die durch die persönlichen Ziele, Wünsche, Sympathien und Verhaltensweisen bestimmten sozialen Strukturen, die sich in der betrieblichen Praxis zur Erfüllung der unternehmerischen Zielsetzung bilden. Die informale Organisation wurde oft als Quelle von unerwünschten, disfunktionalen Zielwirkungen gesehen. In jüngerer Zeit wird sie dagegen positiv mit dem Begriff Unternehmenskultur assoziiert. Gegensatz der informalen ist die -> formale Organisation. Information Warehouse -> Data Warehouse Informationsagenten Softwareagenten 361
Informationsasymmetrie Informationsasymmetrie Ist von zwei kooperierenden Geschäftspartnern A und P die Partei A (Agent) vergleichbar besser informiert als die Partei P (Prinzipal), dann spricht man von einer Situation mit Informationsasymmetrie (/A), s.a. -» Agency-Theorie. So kennt z.B. der Jobwerber (A) seine Fähigkeiten besser als der Personalchef (P) und der Zulieferer (A) seine Kostenstruktur besser als der Abnehmer (P). Weiter weiß der Mitarbeiter über seinen Arbeitseinsatz besser Bescheid als der Vorgesetzte, und der Kreditnehmer weiß mehr über das Risiko der durchgeführten Projekte als die kreditgewährende Bank. Ökonomisch relevante Probleme entstehen dadurch, dass die Kosten der Informationsbeschaffung für P oft prohibitiv hoch sind. Aufgrund des Informationsvorsprungs entsteht ein diskretionärer Handlungsspielraum, den A zu seinem Vorteil nutzen kann. In der Wirtschaftspraxis kommt der Informationsasymmetrie große Bedeutung zu, da oft wirtschaftliche Nachteile resultieren oder vorteilhafte Transaktionen nicht durchgeführt werden. Wichtig für den Praktiker ist daher, welche Informations-, Anreizsysteme und Organisationsstrukturen die Wirkung der Informationsasymmetrie zumindest abschwächen. Aus informationsökonomischer Sicht lassen sich zwei grundlegende Kategorien von Situationen mit Informationsasymmetrie unterscheiden: 1. Informationsasymmetrie zwischen A und P vor Vertragsabschluss/Transaktion: Adverse Selektion. Beispiele dafür: Der Personalchef muss zwischen mehreren Bewerbern für eine Stelle im Unternehmen auswählen; die Begabung und das Talent der Bewerber sind deren private Information. Kunden müssen sich auf Qualitätsangaben des Herstellers oder Verkäufers verlassen; sie können die Angaben i.d.R. nicht überprüfen.
362
Informationsasymmetrie 2. Informationsasymmetrie zwischen A und P nach Vertragsabschluss/Transaktion: Moral Hazard. Beispiele sind: Der Vorgesetzte delegiert eine Aufgabe an einen Mitarbeiter seiner Abteilung; die Anstrengung und die Sorgfalt von A kann P nicht direkt beobachten. Nach Kreditgewährung investiert der Kreditnehmer in risikoreichere Projekte als ursprünglich besprochen. Adverse Selektion: Das Problem besteht darin, dass P die private Information von A herausfinden möchte. P könnte A nach seiner privaten Information fragen. Die Angaben von A sind jedoch nicht verifizierbar. Somit kann P nicht zwischen 'guten' und 'schlechten' Agenten unterscheiden. P kann aber Bedingungen setzen, so dass die private Information aufgedeckt wird: 1. A kann ein Signal etablieren, welches P kostenlos beobachtet und bewertet, und das die private Information von A enthüllt (Signaling). Beispielsweise kann ein Bewerber für eine Stelle seine hohe Begabung durch Referenzen, Urkunden mitteilen. Dieser SignalMechanismus funktioniert, wenn für die 'guten' Agenten ein Anreiz besteht (z.B. höhere Entlohnung), und gleichzeitig die Aussendung des Signals für Bewerber mit geringer Begabung zu kostspielig ist (sonst würde der schlechte Agent einen guten imitieren). Weitere Beispiele: Produkttests, Zulassungsnachweise und Qualitätsstandards. 2. P bietet A unterschiedliche bilaterale Designs in Form von Selbstwahlschemata an; A wählt eines aus (Screening).. Beispiel: Außendienstmitarbeiter kennen die von ihnen betreuten Märkte recht genau. Zwei Typen von Verträgen können diesen Mitarbeitern nun gleichzeitig zur Auswahl angeboten werden: ein Vertrag mit hohem Fixum und geringer Umsatzbeteiligung, einer mit geringem Fixum und hohem
Innovation
Informationsasymmetrie Umsatzanteil. Durch die konkrete Wahl der Vertragsform kann P die private Information von A (z.B. das Absatzpotenzial und dessen Beeinflussbarkeit) herausfinden. Ein weiteres Beispiel ist bei der Preisdifferenzierung gegeben. Moral Hazard: P möchte A dazu bringen, sich in seinem Interesse zu verhalten. Da P das Verhalten des A nicht direkt beobachten kann, besteht die Gefahr, dass A seine eigenen Interessen verfolgt, und negative Umwelteinflüsse für ein schlechtes Ergebnis verantwortlich macht. P kann Anreizsysteme implementieren, die A zu erhöhter Anstrengung und Sorgfalt motivieren. Beispiele: Die Entlohnung eines Managers (A) kann durch sogenannte 'stock options' (-» Optionsplan) an die Interessen der Anteilseigner (P) gekoppelt werden. Das Gehalt eines Mitarbeiters kann neben einem Fixum auch einen erfolgsabhängigen Teil (Bonus) beinhalten. Die optimale Festlegung derartiger Verträge sowie die Auswahl der Performanceparameter ist Gegenstand der Prinzipal-Agenten-Theorie (-*AgencyTheorie). Weitere Entwicklungen: Informationsasymmetrie kann auch beidseitig bestehen, z.B. bei bilateralen Verhandlungen. In manchen Situationen kann auch P besser informiert sein als A, z.B. über Aufstiegschancen im Unternehmen. Michael Kopel Inhaberaktien -> Aktie Initial Public Offering IPO oder Initial Public Offering heißt übersetzt: "Erstes Angebot an die Öffentlichkeit." Das Initial Public Offering bezeichnet die Ausgabe von neuen Wertpapieren. Dies können Aktien, Anleihen und andere Wertpapiere sein. Ein IPO ist das erste öffentliche Angebot von Wertpapieren am Primärmarkt. Im börsenspezifischen Zusammenhang wird in Deutschland auch von Börseneinführung, Börsengang oder Neuemission gesprochen.
Geht eine Firma an die Börse und gibt erstmalig Aktien heraus, kann sich jeder an diesem Unternehmen beteiligen. Die Aktien des Unternehmens werden dann ab dem ersten Handelstag an einer vorher festgelegten Börse gehandelt und können beliebig gekauft und verkauft werden. Erteilt man einer Bank einen Kaufauftrag für Aktien, die im Rahmen eines IPOs ausgegeben werden, d.h. kurz bevor sie an einer Börse gehandelt werden, so spricht man von "Aktien zeichnen". Werden mehr Aktien gezeichnet als zum Verkauf zur Verfügung stehen, so ist die Ausgabe der Aktien überzeichnet. Inkubator Brutkasten. Venture Capitalist, der -»Unternehmensgründungen nicht nur Eigenkapital und Beratungsleistungen, sondern auch eine leistungsfähige personelle und sachliche Infrastruktur zur Verfügung stellt. Diese vorgehaltene Infrastruktur ermöglicht es -> Start Ups, den kritischen Zeitraum bis zur Markteinführung ihrer Produkte (Time to Market) zu reduzieren und so vom -»• First Mover Advantage zu profitieren. Innenflnanzierung Finanzierung Innenrevision ->• Auditing Innovation Innovationen sind neuartige Produkte (Produktinnovation) oder Verfahren (Prozessinnovation), die eine Unternehmung erstmalig in den Markt oder in den Betrieb einfuhrt. Der Begriff umfasst nicht nur technisch definierte, sondern auch soziale und vertragliche Änderungen. Der Begriff Innovation bezeichnet dabei sowohl den Prozess der Hervorbringung als auch das Ergebnis dieses Prozesses. Die bewusste Gestaltung dieses Prozesses ist Gegenstand des -> Innovationsmanagements (Zur Vermarktung von Innovation -> Innovationsmarketing). Jürgen Hauschi ldt
363
Innovationskooperation Innovationskooperation Innovationsmanagement Innovationsmanagement Innovationsmanagement ist die bewusste Gestaltung der Hervorbringung einer Innovation als auch das Ergebnis dieses Prozesses unter Beachtung von betriebswirtschaftlichen und organisatorischen Kriterien. Wenn ein Produkt oder ein Verfahren als "innovativ" gekennzeichnet wird, muss damit gleichzeitig eine andere Art Management ausgelöst werden als bei der Behandlung von besser bekannten und wohldefinierten Routineproblemen. Durch die Vergabe des Prädikats "innovativ" wird das zu lösende Problem dem normalen Geschäftsgang entzogen und einer gesonderten Behandlung zugeführt. Jedes Unternehmen muss einen spezifischen Innovationsbegriff für sich entwickeln, um diese Entscheidung zugunsten eines spezifischen Problemlösungsprozesses sachgerecht zu begründen. Innovationen sind neuartige ZweckMittel-Kombinationen. Sie entstehen dadurch, dass prinzipiell zwei Topoi zusammengeführt werden müssen: die Ziele und die Mittel. Innovator ist, wer neue Mittel für bekannte Zwecke findet (der Normalfall), wer für bekannte Mittel neue Zweckbestimmungen erkennt (der überraschende Fall) und wer schließlich total neue Zwecke mit total neuen Mitteln erfüllen kann (der radikale Fall). (1)Der "Normalfall" der Innovation geht von bekannten und bewussten Zielen oder Zwecken aus. Systematisch werden neue Mittel gesucht, die geeignet erscheinen, diese Ziele überhaupt oder besser zu erfüllen. Diese Denkrichtung liegt den Anstrengungen der institutionalisierten Forschung und Entwicklung in den Unternehmen zugrunde. (2) Der umgekehrte Fall scheint auf den ersten Blick absurd. In diesem Fall ist ein Mittel gegeben, aber man weiß
364
Innovationsmanagement nicht wofür. Man sucht noch den Zweck oder einen anderen Zweck. (3) Eine radikale Innovation liegt schließlich vor, wenn eine Möglichkeit gefunden wird, völlig neue, bisher unbekannte Ziele und Zwecke zu verwirklichen. Diese Innovationen, die das Schicksal der Menschheit verändern, werden zwar durch den Innovationsbegriff ebenfalls erfasst. Sie sind aber so einmalig, dass die Betriebswirtschaftslehre sie nicht als ausschließliches Erkenntnisobjekt ihrer Studien zum Innovationsmanagement wählt. Theorie und Praxis des Innovationsmanagements beschränken sich nicht auf epochale Neuerungen. Erfolgreich ist die Innovation erst, wenn sie einen Markt findet. Ohne diese marktwirtschaftliche Akzeptanz bleibt sie eine Erfindung. Erst durch das Überbrücken der Kluft zwischen technologischer Welt der Mittel und nutzungsorientierter Welt der Zwecke erwächst der Innovationserfolg. In zunehmendem Maße werden Innovationen Gegenstand eines bewussten Managements. Das gilt namentlich für Innovationsprozesse in der industriellen Forschung und Entwicklung. Das Innovationsmanagement hat dabei zwei Ansatzpunkte: Steigerung und Sicherung der Kreativität sowie Überwindung von Widerständen bei der Durchsetzung der Innovation. Maßgeblich für die Zusammenführung von neuen Zwecken und neuen Mitteln ist Kreativität. Diese Kreativität lässt sich beeinflussen. Unter dem Begriff der -> Kreativitätstechniken sind etwa 100 Methoden entwickelt worden, die für sich beanspruchen, die Menschen zu höherer Kreativität zu führen. Diese Methoden haben inzwischen einen festen Platz im Denken vieler Unternehmer und Manager. Sie gehören ebenso in das Ausbildungsrepertoire von Ingenieuren wie in
Innovationsmanagement das Iptercssengebiet seriöser empirischer betriebswirtschaftlicher und psychologischer Forschung. Innovationen sind steuerbare Prozesse. Aufgabe des Innovationsmanagements ist es, die Entstehung von Initiativen zu ermöglichen und zu verhindern, dass diese Initiativen im Informationsprozess unterdrückt, verändert oder verzögert werden. Als wesentliche Funktionen des Innovationsmanagements erweisen sich weiterhin die Problemdefinition und die Zielbildung. Es gilt dabei, das Innovationsproblem in seinen Grenzen und in seiner Struktur zu bestimmen. Der Zielbildungsprozess soll die spezifischen Anforderungen klären, die an die Innovation gestellt werden. Methoden des Projektmanagements sind nur mit klaren Modifikationen für Innovationsprozesse anwendbar: Resultatsteuerung ist einer Prozesssteuerung deutlich vorzuziehen. An die Stelle detaillierter Netzpläne treten relativ robuste Meilenstein-Planungen. Statt detaillierter Fortschrittsberichte und umfassender Projektdokumentationen wird bei Innovationen eher eine formlose, aber ständige Information und Kommunikation verlangt. Eine strikte Gliederung des Prozesses nach deutlich abgrenzbaren Phasen erweist sich als nicht erfolgsforderlich. Zusammengefasst kann festgestellt werden, dass das -» Prozessmanagement von Innovationen nur dann erfolgreich ist, wenn es den Beteiligten erhebliche persönliche Spielräume einräumt. Innovationen begegnen vielfältigen Widerständen. Diese Widerstände können nur durch den Einsatz engagierter und fachkundiger Personen überwunden werden. Basis dieses Personalmanagements ist das Projektteam. Es gilt, die richtige Mischung der Fachvertreter zu finden. Die Bildung interdisziplinärer - > T e a m s ist eine notwendige, aber noch nicht eine hinreichende Bedingung für den Innovationserfolg. Die Hervorbringung der neu-
Innovationsmanagement artigen technischen Idee verlangt wenigstens einen Fachpromotor. Die Durchsetzung der neuen Idee gegen die innerbetrieblichen Widerstände und gegen die Zurückhaltung des Marktes verlangt aber mehr: einen Promotor, der diese Sachzwänge überwindet, den sog. Machtpromotor (s.a. -> Promotorenkonzept und Management des Wandels). Wo die Systeme zu groß und unübersichtlich oder wo die Innovation zu viele Beteiligte und Betroffene berücksichtigen muss, wird überdies eine eigene Rolle und damit eine neue Funktion erkennbar, die mit dem Begriff "Prozesspromotor" und bei überbetrieblichen Beziehungen auch als "Beziehungspromotor" bezeichnet wird. Innovation ist nicht mehr ein innerbetriebliches Problem, es ist heute im Wesentlichen ein zwischenbetriebliches. Es gab bereits Anfang der 80er Jahre erste Signale für diese Entwicklung. Fast zeitgleich legten E. von Hippel am MIT in den USA und H. G. Gemünden in Deutschland theoretische Konzepte und empirische Befunde über den Einfluss der zwischenbetrieblichen Kooperation auf den Innovationserfolg vor. Nach einer Fülle von Folgeuntersuchungen ist unstrittig, dass die Kooperation ein Schlüsselfaktor für den Erfolg des Innovators ist. Erfolgreich kooperieren vor allem die in einer Wertkette unmittelbar aufeinander folgenden Partner, nämlich Lieferanten und ihre Kunden, vor allem in einer sehr engen Zweierbeziehung. Die Untersuchungen fragten mit unterschiedlicher Methodik regelmäßig nach den Kooperationszielen. Dabei ergibt sich ein recht stabiles Muster: Im Vordergrund stehen die Erwartungen, Kooperation werde technische Synergie-Effekte ermöglichen, Fehler reduzieren und neues technologisches Wissen generieren. Nicht sonderlich überraschend ist das Streben nach Kostensenkung und Risikominde-
365
Innovationsmanagement rang. Zunehmend bedeutsamer wird das Streben nach Zeitersparnis, nach Beschleunigung des Innovationsprozesses. Die Studien haben inzwischen viele Details der Zusammenarbeit sichtbar gemacht: Formale Koordinationsaktivitäten und rigide Konfliktlösungsmechanismen in einer Art Kooperationsbürokratie wirken eindeutig negativ. Persönliche Kommunikation, saubere Kontrollen und gegenseitiges Vertrauen sind vielmehr die maßgeblichen Erfolgsfaktoren. Dieser Erfolg wird aber gefährdet, wenn sich beide Partner ein Problem mit zu hoher Komplexität vornehmen. In dieser Situation ist lediglich eine besonders intensive Kommunikation geeignet, Schaden abzuwenden. Und damit lässt sich nun ein Zwischenergebnis ziehen: Es ist nicht die Kooperation schlechthin, die den Innovationserfolg verspricht, sondern nur bestimmte Formen der Kooperation mit bestimmten Partnern und unter Einsatz kooperationsstabilisierender Maßnahmen. Die Forschung hat inzwischen folgende Erfolgsfaktoren der Innovationskooperation bestimmt: (1) Innovationskooperation verlangt ein klares Bekenntnis, welchen Innovationsgrad man anstreben will. Ein niedriger Innovationsgrad benötigt keine Kooperation. Ein hoher verlangt sie indessen zwingend. (2) Innovationskooperation verlangt eine sorgsame Auswahl des Kooperationspartners. Die Zahl der Kooperationspartner muss beschränkt werden. Anzustreben ist eine Kooperation mit Partnern, die die höchsten Anforderungen stellen und die die höchsten Anforderungen ertragen. (3) Innovationskooperation verlangt Vertrauen. Diese Vertrauensbeziehung muss aufgebaut und laufend gepflegt werden. Das heißt: In diese Vertrauensbeziehung muss investiert werden. Sie verlangt nicht nur Anbahnungs-
366
Innovationsmarketing kosten, sondern überdies Kosten der Kontaktpflege.
laufende
(4) Innovationskooperation verlangt einen soliden personellen Unterbau. Es müssen nicht nur Ingenieure und Kaufleute, sondern auch die Macht-, Fachund Prozesspromotoren bereitstehen, und das auf beiden Seiten, gleichsam spiegelbildlich. (5) Innovationskooperation verlangt ständige und formlose Kommunikation. Formalisierung und Regulierung sind kontraproduktiv, Informationstechnik muss allenfalls dazu da sein, diesen informalen Informationsaustausch zu fordern. (6) Innovationskooperation verlangt eine leistungsentsprechende, d.h. "faire" Erfolgsteilung zwischen den Partnern. Zu fordern ist somit eine "Offene Unternehmung", wenn es mit dem Streben nach Innovation ernst ist. Anders gesagt: Wer Innovationen fördern will, sollte nicht allein darauf setzen, dass er viel Geld in die Forschung und Entwicklung investiert. Notwendig ist überdies ein bewusstes Verhalten gegenüber innerbetrieblichen und zwischenbetrieblichen Kooperationspartnern. Jürgen Hauschildt Innovationsmarketing 1. Begriffsbestimmung Produktinnovation ist Sicherung künftiger Wettbewerbsfähigkeit. Sie ist primär von der Marktorientierung des Innovationsgeschehens abhängig. Der modernen Auffassung "Marketing ist marktorientierte Unternehmensführung" entsprechend ist Produktinnovation also eine Marketingaufgabe. Innovationsmarketing umfasst die strategischen und operativen Analysen, Entscheidungen, Pläne und Maßnahmen zur technisch-wirtschaftlichen und sozialtechni sehen Findung, Entwicklung, Einführung und Durchsetzung von unternehmenssubjektiv neuen
Innovationsmarketing
Innovationsmarketing
Neuartigkeit auf einer Skala von "fast nichts ist neu" (Inkrementalinnovation) bis "alles ist neu" (Radikalinnovation). Je höher der Innovationsgrad ist, desto größer sind notwendige Umstellungen und Anforderungen an das Innovationsmarketing. Radikalinnovationen sind jedoch stets Unikate und treten innerhalb eines einzelnen Unternehmens so selten auf, dass dafür keine eigenen Managementregeln angegeben werden können und müssen. Um Inkrementalinnovationen muss sich das Innovationsmarketing ebenfalls kaum kümmern, denn sie gehören zur Routine des Produktmanagement. Innovationsmarketingprobleme mittleren Innovationsgrades machen also den wesentlichen Teil des Bedarfs an Methoden und Managementtools des Innovationsmarketing aus.
Produkten. Neben entsprechenden Problemen am Markt und im Umfeld sind dabei auch die neuerungsspezifischen internen Probleme zu lösen. Innovationsmarketing geschieht in komplexen dynamischen Systemen, die schwer zu strukturieren sind und deren chancen- und risikoreiche Entwicklung schwierig zu prognostizieren und zu steuern ist. Die notwendigen Kommunikations-, Informations- und Beeinflussungsprozesse mit Marktpartnern, Umfeldinstitutionen und Mitarbeitern sind kognitiv kompliziert, emotionsträchtig und erfolgssensibel. Das erfordert ein interdisziplinäres Innovationsmarketing als Querschnittsfunktion über alle Unternehmensfunktionen mit besonderen Führungsanforderungen. 2. Innovation Der Begriff der -> Innovation wird in der Literatur unterschiedlich definiert. Für das Innovationsmanagement zweckmäßig ist der betriebswirtschaftliche Innovationsbegriff, nach dem es um unternehmenssubjektive Neuerungen in Form von Wertschöpfungsprozessen oder Marktleistungen geht. Neuartige Prozesse oder Produkte sollen eine Verbesserung des Herkömmlichen bringen (Hauschildt 1997). Die betriebswirtschaftlich wichtigen Definitionsmerkmale einer Innovation sind näher zu erläutern: •
•
Subjektivität: Aus der Sicht des Innovationsmarketing entscheidend ist nicht die absolute Neuheit, sondern die Neuartigkeit für das innovierende Unternehmen und damit auch für seine Marktpartner, insbesondere die Zielkunden. Das folgt aus den besonderen Anforderungen an das Innovationsmanagement, denn spezifische Innovationsprobleme treten als Folge der Neuartigkeit für das Unternehmen auf, unabhängig davon, ob andere Unternehmen schon damit vertraut sind. Mittlerer Innovationsgrad: Der Innovationsgrad beschreibt den Grad der
•
Produktund Prozessinnovationen: Innovationsmarketing zielt auf Produktinnovationen. Produkte und Prozesse lassen sich aber nicht immer trennen. So kann eine Produktinnovation Prozessinnovationen bei Kunden bedeuten. Kundenorientierte Produktinnovation muss dann von diesen Prozessinnovationen beim Kunden ausgehen. Außerdem mögen Produktinnovationen auch eigene Prozessinnovationen verlangen, z.B. wenn diese den Umgang mit neuen Technologien erfordern.
•
Technology-push und Market-pull: Innovationsmarketing hat sich sowohl mit nachfrageinduzierten (marketpull-) Innovationen zu befassen als auch mit der Vermarktung von technologisch induzierten Innovationen (Technology-push), mit unterschiedlichen Anforderungen. Um Market-pullInnovationschancen aufzuspüren, ist der Kundenbedarfs-Marktforschung besondere Aufmerksamkeit zu schenken, während der Innovationswerbung geringere Bedeutung zukommt. Kundenbedarfsspezifische Innovationen 367
Innovationsmarketing
Innovationsmarketing tragen ein relativ geringes FlopRisiko. Dagegen sind die Marktrisiken von Technology-push-Innovationen relativ hoch, weil latente Kundenbedürfnisse erst entdeckt oder geweckt werden müssen. Der Engpass liegt hier in der Innovationswerbung. Innovationsmarketing hat es oft mit Mischformen von Technology-push und Market-pull zu tun. •
•
Investitionscharakter und ChancenRisiken- Verhältnis: Produktinnovationen sind Investitionen: gegenwärtige Aufwendungen für künftige Ertragserwartungen. Da Produktinnovationsprojekte jedoch nicht in der Bilanz aktiviert werden dürfen, besteht die Gefahr einer betriebswirtschaftlichen Vernachlässigung dieses Kapitals. Produktinnovationen bergen ein ausgeprägtes Chancen-Risiken-Verhältnis. Dessen Management ist Kern des Innovationsmarketing. Komplexität: Durch das Ineinandergreifen vieler Faktoren, die komplex und dynamisch weit in die Zukunft hineinreichend vernetzt sind, können Innovationsmarketingentscheidungen nicht sinnvoll im Grundmodell betriebswirtschaftlicher Entscheidungen (-> Entscheidungstheorie) abgebildet werden (Auswahl unter wohldefinierten Alternativen, die nach einheitlichen Entscheidungskriterien bewertet werden): Die Alternativen und Kriterien sind unscharf und veränderlich, schwer zu vergleichen und zu bewerten. Innovationsmarketing ist daher weitgehend auf (sozial) intelligenten Umgang mit Komplexität durch entsprechend weiche Methoden und Informationen angewiesen.
3. Phasenverlauf von Innovationsprozessen Der Ablauf des Innovationsmarketing kann zur Reduktion der Komplexität in
368
Phasen unterteilt werden, in denen unterschiedliche Ziele, Probleme und Lösungsverfahren vorherrschen. Die Phasen eines Innovationsprozesses sind idealtypisch 1. 2. 3. 4. 5.
Situationsanalyse, Ideengewinnung, Ideenselektion und-bewertung, Strategiefindung, technische und marktliche Entwicklung und 6. Markteinführung.
Über den gesamten Prozess hinweg besteht wegen des Flop-Risikos und wegen der mit der Zeit progressiv verlaufenden Innovationskosten das Kernproblem, möglichst früh eine Innovationsalternative bzw. das gesamte Innovationsprojekt weiter zu fördern oder sofort abzubrechen, bevor noch mehr in einen möglichen Flop investiert wird (go-noEntscheidung). Daneben sind in den einzelnen Phasen zahlreiche Steuerungsentscheidungen zu treffen. 4. Bedeutung des Komparativen Konkurrenz- Vorteils Laut hunderter von ProduktinnovationsErfolgsfaktorenstudien ist der bei weitem wichtigste Erfolgsfaktor des Innovationsmarketing der strategische Wettbewerbsvorteil (Komparativer KonkurrenzVorteil KKV, -> Unique Selling Proposition USP). Mehr als die Hälfte aller Flops haben keinen KKV. Er erfordert mindestens (und am besten genau) ein Produktmerkmal, das dem neuen Produkt eine Alleinstellung auf dem relevanten Markt gibt, so dass die Zielkunden einen überlegenen Produktnutzen erhalten und wahrnehmen. Der KKV ist eine im Wettbewerb überlegene Leistung des Produktes, die von der Konkurrenz nur schwer eingeholt werden kann. Dazu muss der KKV ein wichtiges Kundennutzenmerkmal betreffen und vom Kunden auch so wahrgenommen werden, was oft daran scheitert, dass diese Eigenschaft nicht
Innovationsmarketing richtig (unklar, schwer verständlich, zu technisch, wenig nutzerorientiert, informationsüberladen) kommuniziert wird. Literatur: Brockhoff, K. (Hrsg.): Management von Innovationen. Planung und Durchsetzung - Erfolge und Misserfolge. Fallstudien mit Lösungen, Wiesbaden 1996; Hauschildt, J.: Innovationsmanagement, 2. Aufl. München 1997; Specht, G., Beckmann, Ch.: F&E-Management, Stuttgart 1996; Tintelnot, C. (Hrsg.): Innovationsmanagement, Berlin 1999; Trommsdorff, V. (Hrsg.): Fallstudien z u m Innovationsmarketing, München 1995.
Volker Trommsdorff Insiderhandel Unter Insidern versteht man im Börsenhandel in der Regel einen engen Kreis von Großaktionären, Geschäftsführern, Aufsichtsratsmitgliedern oder Bankmitarbeitern, gegebenenfalls aber auch Familienangehörige und Finanzanalysten mit einem besonderen Wissen über nicht öffentlich bekannte Tatsachen, die im Fall ihres öffentlichen Bekanntwerden den Kurs der Insiderpapiere erheblich beeinflussen können. Für die "professionellen" Insider (Primärinsider) muss man unterstellen, dass sie monopolistische Informationen in erheblichem Umfang ausnutzen können. Andere Insider (Sekundärinsider) können nur gelegentlich zufällig eingegangene Informationen ausnutzen oder weitergeben. Primärinsidern wie auch Sekundärinsidern ist der Handel mit Wertpapieren unter Ausnutzung ihrer Insiderinformation ebenso wie die Weitergabe ihrer Informationen untersagt, wobei sich das Insiderhandelsverbot auf alle Wertpapiere und ähnliche Rechte bezieht, die an einer Börse zugelassen oder in den Freiverkehr einbezogen sind. Nicht börsennotierte Papiere, die beispielsweise im Telefonverkehr gehandelt werden, sind dagegen keine InsiderPapiere. In Deutschland erfolgte eine erste Ausarbeitung der Insider-Regeln in den 70er Jahren zur Vertrauensbildung in den Wertpapierhandel und das Börsenwesen. Strittig waren insbesondere die Definition
Insiderhandel der Insider, der Insiderinformation und der Insiderpapiere. Man einigte sich mit den "Empfehlungen zur Lösung der sogenannten Insider-Probleme" der Börsensachverständigenkommission von 1970 auf die Freiwilligkeit der Regelung. Ab 1972 zeigten praktische Erfahrungen, dass die Empfehlungen noch unvollständig waren. Der "Arbeitskreis für InsiderFragen" legt daraufhin eine ergänzte Fassung vor. Im Juli 1976 erfolgte eine Änderung der Insiderhandels-Richtlinien im Hinblick auf den Personenkreis der Insider sowie die Definition der Insiderpapiere. Seit Mai 1988 galt eine ergänzte Fassung der Insiderhandels-Richtlinien und der Verfahrensordnung. Die Börsen verabredeten, in den Kursblättern jene Gesellschaften negativ zu kennzeichnen, die die Insider-Regeln nicht anerkannt haben. Seit dem 1. August 1994 ist Insiderhandel in Deutschland strafbar. Als Insider werden im Wertpapierhandelsgesetz (WpHG), das die europäische InsiderRichtlinie von 1989 in deutsches Recht umsetzt, Personen bezeichnet, die ihr nicht öffentlich bekanntes Wissen über eine kursrelevante Tatsache (zum Beispiel bevorstehende Kapitalmaßnahmen oder den Erwerb wesentlicher Beteiligungen) aufgrund ihrer Tätigkeit oder durch andere Insider erhalten haben. Durch das Ausnutzen solcher Informationen - z.B. durch den frühzeitigen Kauf der jeweiligen Aktien - verschaffen sich Insider aufgrund ihres Informationsvorsprungs einen unfairen Vorteil gegenüber den anderen Marktteilnehmern. Wird das Ausnutzen von Insider-Informationen nicht unterbunden, so kann es keinen chancengleichen Handel geben. Das Vertrauen der Marktteilnehmer in die Faimess des Marktes schwindet und es besteht die Gefahr, dass das Handelsvolumen zurückgeht, die Liquidität sinkt und der Markt zunehmend seine wichtige Funktion des Marktausgleichs verliert. Deshalb ist die Verhinderung und Verfolgung von Insidergeschäften eine zentrale Aufgabe 369
Insiderhandel
insolvenz
des mit dem Wertpapierhandelsgesetz geschaffenen Bundesaufsichtsamtes für den Wertpapierhandel (BAWe).
Schäfte durch das im Gesetz vorgesehene Strafmaß: Geldstrafe oder Freiheitsstrafe bis zu fünf Jahren.
Durch das am 1.4.1998 in Kraft getretene dritte Finanzmarktförderungsgesetz wurden die Rechte des BAWe erweitert, Kundendepots einzusehen. Bei Anhaltspunkten für einen Insiderhandel kann das BAWe nunmehr Einblick in sämtliche Wertpapiergeschäfte der letzten sechs Monate vor dem verdächtigen Geschäft nehmen, einschließlich der Anfangs- und Schlussbestände. Ziel dieser Regelung ist es, dem BAWe einen Überblick über das übliche Anlageverhalten des betroffenen Kunden zu geben.
Durch die Insider-Gesetzgebung wird versucht, das profitable Ausnutzen von Insiderinformationen zu verhindern, was natürlich nicht zur Verbesserung der Informationseffizienz des Kapitalmarktes beiträgt. Daher wird seit Etablierung des Wertpapierhandelsgesetzes beispielsweise durch die Vorschriften zur ad hoc Publizität zugleich daran gearbeitet, Unternehmen durch bestimmte Mitteilungspflichten zu zwingen, möglichst schnell von sich aus alle relevanten Informationen dem Markt bekannt zu machen. Transparenz ist ein entscheidendes Kriterium für die Funktionsfahigkeit und Effizienz eine Kapitalmarktes. Nur wenn die Marktteilnehmer schnell und umfassend über alle Tatsachen informiert sind, die sich auf die Kurse der Wertpapiere auswirken können, können sie auch fundierte Anlageentscheidungen treffen. Eine rasche Information des Marktes bewirkt darüber hinaus, dass mögliche Insider keinen Anreiz haben, ihr besonderes Wissen am Markt profitabel umzusetzen.
Des Weiteren erhielt das BAWe das Recht, bei Insideruntersuchungen von Emittenten und Personen, die Kenntnis von einer Insidertatsache haben, neben Auskünften auch die Vorlage von Unterlagen zu verlangen. Im Jahre 1998 nahm beispielsweise das BAWe ausgehend von 1.816 Vorprüfungen 58 Untersuchungen auf. In 16 Fällen erstattete das BAWe bei den zuständigen Staatsanwaltschaften Anzeige. In 21 weiteren Fällen stellte das BAWe seine Untersuchungen ein, da sich die ursprünglichen Verdachtsmomente nicht erhärten ließen. Die Überwachung durch das BAWe umfasst den gesamten Handel mit börsennotierten Wertpapieren und derivativen Finanztiteln (Options, Futures) einschließlich der außerbörslichen Geschäfte. Zu diesem Zweck werden die Geschäfte der professionellen Handelsteilnehmer ständig dem BAWe über ein elektronisches System gemeldet. Ergeben sich bei der Handelsüberwachung Anhaltspunkte für Insidergeschäfte, dann kann das BAWe von den betroffenen Handelsteilnehmern Auskünfte über die Identität der Kunden und die Vorlage von Unterlagen verlangen. Bei konkreten Verdachtsmomenten wird die Staatsanwaltschaft eingeschaltet. Ihr obliegt dann die weitere Ermittlung und Strafverfolgung. Besonderen Nachdruck erhält das Verbot für Insiderge370
Bernd Rudolph Insolvenz 1. Zur Definition und Ursachen Insolvenz bedeutet Zahlungsunfähigkeit. Insolvenzursachen können in vom Management beeinflussbare, wie z.B. fehlerhafte Markteinschätzung oder mangelhaftes -» Controlling, und vom Management nicht beeinflussbare Ursachen, wie z.B. die gesamtwirtschaftliche Entwicklung oder Änderungen im Kaufverhalten, unterteilt werden. 2. Insolvenz und Verfahrenseintritt Die Behebung der Insolvenz kann innerhalb eines Insolvenzverfahrens oder außerhalb im Rahmen eines sogenannten Workouts, erfolgen. Der Verfahrenseintritt auf Basis eines vorher vereinbarten Sanierungskonzepts wird als Prepackaged Bankruptcy bezeichnet.
Insolvenz Der von der Insolvenzordnung (InsO) abgelösten Konkurs- und Vergleichsordnung wurde vorgeworfen, dass der Verfahrenseintritt, wenn überhaupt, zu spät erfolge und dass sie die Fortfuhrungschancen der Unternehmen vermindere und somit liquidationslastig sei. So wurden 1997 ca. 74% der Anträge auf Verfahrenseröffnung mangels Masse abgewiesen. Gefördert durch den verspäteten Verfahrenseintritt ist die Befriedigungsquote ungesicherter Gläubiger sehr gering. Vergleichsverfahren fanden nur in 0,1% der erfassten Fälle statt. Vor dem Hintergrund dieser Missstände war die Einführung der InsO wie folgt motiviert: Durch den Wettbewerb um die beste Verwertungsform soll ein marktkonformes Verfahren erreicht werden. Die Liquidationslastigkeit von Insolvenzverfahren soll durch die Möglichkeit zur Vereinbarung von Fortfiihrungsstrategien im sog. Insolvenzplan vermieden werden. Der Verfahrenseintritt soll vorverlegt werden, um Fortführungschancen zu nutzen. Anreize dazu bieten die erweiterten Möglichkeiten zum Verfahrenseintritt durch den neu eingeführten Insolvenztatbestand der drohenden Zahlungsunfähigkeit verbunden mit der möglichen Eigenverwaltung, dem Recht zur Vorlage eines Insolvenzplans für den Schuldner, der Herausgabesperre von bestimmten Vermögensgegenständen, die als Sicherheiten dienen, und der Restschuldbefreiung. Die Festlegung eines Rechtsrahmens, der Verteilungsregeln wie Rangfolge und Kostenaufteilung festlegt, soll helfen, die Verteilungskosten zu senken. 3. Verfahrensauslösung Insolvenz fiihrt zum Insolvenzverfahren, wenn keine Einigung außerhalb des Verfahrens zustande kommt, die Insolvenztatbestände erfüllt sind und die Kosten des Verfahrens gedeckt sind. Ein Insolvenztatbestand ist die Zahlungsunfähigkeit gem. § 17 InsO. Sie liegt vor, wenn der Schuldner die falligen Zahlungspflichten nicht mehr erfüllen kann. Der
Insolvenz Verfahrenseintritt ist nicht nur bei bereits eingetretener, sondern auch bei drohender Insolvenz möglich. Dies wird durch den Insolvenztatbestand der drohenden Zahlungsunfähigkeit und im weiteren Sinne auch durch die Überschuldung erfasst. Zahlungsunfähigkeit droht, wenn der Schuldner die bestehenden Zahlungspflichten im Zeitpunkt der Fälligkeit voraussichtlich nicht erfüllen kann (§ 18). Der relevante -» Cash-flow ist nach notwendigen Reinvestitionen, eventuellen Liquiditätsbeiträgen aus dem Verkauf von nicht betriebsnotwendigen Aktiva oder der Nutzung vorhandener Kassenbestände und insbesondere nach Soll-Kapitaldienst zu definieren. Der Prognosezeitraum wird beschränkt durch den Zeitpunkt der Fälligkeit der am längsten laufenden Verbindlichkeit. Dieser Zeitpunkt kann in ferner Zukunft liegen, so dass die h.M. von einem maximal zweijährigen Prognosezeitraum ausgeht. Wenn das Vermögen die Schulden nicht mehr deckt, liegt Überschuldung vor (§ 19 InsO). Bei der Bewertung des Vermögens ist die Fortführung des Unternehmens anzunehmen, wenn diese den Umständen nach überwiegend wahrscheinlich ist. Nach h.M ist die Überschuldung zweistufig zu prüfen. A u f der ersten Stufe ist eine Fortfuhrungsprognose zu erstellen. Entsprechend der Leitmaxime des Gläubigerschutzes ist die Fortführungsprognose als Zahlungsfahigkeitsprognose analog zur Prüfung der drohenden Zahlungsunfähigkeit zu interpretieren. Fällt die Prognose negativ aus, ist das Vermögen zu Liquidationswerten, andernfalls zu Fortfuhrungswerten zu messen. Die Bestimmung der Fortführungswerte stellt wohl das größte Problem dar. Es wird vorgeschlagen, Wiederbeschaffungskosten zu verwenden. Dann ergeben sich jedoch regelmäßig Abweichungen zur ökonomisch gebotenen Auslegung i.S. des Unternehmensgesamtwertes. Bei Zahlungsunfähigkeit und
371
Insolvenz Überschuldung ist der Schuldner zum Insolvenzantrag verpflichtet, bei drohender Zahlungsunfähigkeit ist er dazu berechtigt. Gläubiger sind zum Insolvenzantrag bei Zahlungsunfähigkeit und Überschuldung berechtigt. Das Insolvenzgericht prüft den Antrag ggf. unter Mitwirkung des vom Gericht bestellten vorläufigen Insolvenzverwalters. Der Antrag wird mangels Masse abgewiesen, wenn das Vermögen des Schuldners nicht ausreicht, um die Kosten des Verfahrens zu decken (§ 26). Dazu zählen die Kosten des Insolvenzgerichts, des Insolvenzverwalters und des optional von der Gläubigerversammlung eingesetzten Gläubigerausschusses. 4. Insolvenzverfahren Bei Verfahrenseröffnung ernennt das Insolvenzgericht einen Insolvenzverwalter. Gläubiger melden ihre Ansprüche an. Im Eröffnungsbeschluss wird der Prüfungstermin (Prüfung der angemeldeten Forderungen) und der Berichtstermin (Entscheidung über den weiteren Ablauf des Insolvenzverfahrens) bekannt gemacht. Die beiden Termine finden in Form einer Gläubigerversammlung statt und können miteinander verbunden werden. Mit der Verfahrenseröffnung geht das Recht der Verwaltung und Verfügung des Schuldnervermögens auf den Insolvenzverwalter über (§ 80). Im Insolvenzverfahren werden aussonderungsberechtigte Gläubiger (z.B. Leasinggeber, Leasing), absonderungsberechtigte Gläubiger (z.B. bei Sicherungsabtretung oder -Übereignung), Insolvenzgläubiger, nachrangige Insolvenzgläubiger und Massegläubiger unterschieden. Aussonderungsberechtigte Gläubiger sind keine Insolvenzgläubiger, absonderungsberechtigte nur in Höhe eines etwaigen Ausfalls oder des Verzichts auf Befriedigung. Absonderungsberechtigte Gläubiger werden mit pauschal 4% des Verwertungserlöses für Feststellung und 5% für Verwertung der Sicherheit belastet (§ 171). Fällt im Rahmen der Verwertung Um372
Insolvenz satzsteuer an, ist diese ebenfalls vom Verwertungserlös der Gläubiger einzubehalten ( § § 1 7 0 Abs. 2 und 171). Diese Kosten sind grundsätzlich durch Übersicherung vermeidbar. In der Tendenz verkürzen sie das Beleihungspotenzial und/oder erhöhen die Kreditkosten. Der Insolvenzverwalter kann die Herausgabe von mit einem Absonderungsrecht belegten Vermögensgegenständen verweigern (§§ 165 u. 166), um so die Produktionsfähigkeit des Unternehmens zu erhalten. In einem Insolvenzplan kann eine von der gesetzlichen Regelung abweichende Rangordnung und/oder eine Aussetzung bzw. ein Erlass von Kapitaldienst vereinbart werden, wenn die Gläubiger zustimmen. Dieses Instrument soll die flexible Vereinbarung von Fortführungsstrategien ermöglichen. Vorschlagsberechtigt sind die Schuldner und der Insolvenzverwalter (§218). Abstimmungsberechtigt sind die o.g. Insolvenzgläubiger sowie zusätzlich ggf. Arbeitnehmer mit nicht unerheblichen Forderungen und Kleingläubiger. Jede Gruppe stimmt gesondert über den Planvorschlag ab; dabei sind in jeder Gruppe Kopf- und Summenmehrheit erforderlich (§§ 243 und 244). Gemäß § 251 darf eine überstimmte Minderheit nicht schlechter gestellt werden, als sie ohne den Plan gestellt wäre. Fehlt die Zustimmung einer Gläubigergruppe zum Plan, so gilt die Zustimmung als erteilt, wenn diese Gruppe durch den Insolvenzplan voraussichtlich nicht schlechter gestellt wird als ohne Plan, die Gläubiger dieser Gruppe angemessen am wirtschaftlichen Wert beteiligt werden und die Mehrheit der abstimmenden Gruppen dem Plan mit den erforderlichen Mehrheiten zugestimmt hat (§ 245, Obstruktionsverbot). Weiter werden Anfechtungsrechte des Verwalters (§§ 129 bis 147), Eigenverwaltung des Schuldner (§§ 270-285), sofern die Gläubiger dies zulassen, Restschuldbefreiung des redlichen Schuldners
Instandhaltungscontrolling
Insolvenz (§§ 286 bis 303) und Verbraucherinsolvenzverfahren (§§ 304 ff.) geregelt. Das Verfahren wird nach Bestätigung des Insolvenzplans (§ 258) bzw., falls kein Insolvenzplan zustande kommt, nach Vollzug der Schlussverteilung (§ 200) aufgehoben. Im ersten Fall kann unterstützt von Sanierungsmaßnahmen (-» Sanierung) die Wiederherstellung der Solvenz gelingen. Literatur: Eidenmüller, H.: Unternehmenssanierung zwischen Markt und Gesetz, Köln 1999; Häsemeyer, L.: Insolvenzrecht, 2. Aufl., Köln 1998; Kölner Schrift zur Insolvenzordnung, hrsg. v. Arbeitskreis für Insolvenz- und Schiedsgerichtswesen e.V., 2. Aufl., Köln 2000; Picot, G./Aleth, F: Unternehmenskrise und Insolvenz, München, 1999; Schmidt, K./Uhlenbruck, W.: Die GmbH in Krise, Sanierung und Insolvenz, 2. Aufl., Köln, 1999.
Andreas Schüler Insourcing Gegensätzlicher sourcing.
Vorgang
zum
Out-
Instandhaltungscontrolling Die Bedeutung der Instandhaltung (IH) in einer Unternehmung wächst mit der zunehmenden Komplexität der Betriebsmittel. Steigende Anteile an hochwertigen Elektronikkomponenten, zunehmende -* Automatisierung mit hoher Flexibilität und immer engere Verkettung mit immer kürzeren Taktzeiten stellen höchste Anforderungen an die Produktionsmittel bezüglich Zuverlässigkeit und Verfügbarkeit. Die zwangsläufige Folge daraus ist, dass jeder störungsbedingte Produktionsausfall zu hohen finanziellen Verlusten führt. Der Verkettungsgrad der Anlagen wirkt sich dabei in direkter Linie auf die Ausfallkosten aus. Instandhaltungscontrolling soll als Servicefunktion für Kosten- und Leistungstransparenz von Instandhaltungsprozessen und Betriebsmitteln mit dem Instrumentarium des Soll-Ist-Vergleichs mittels Kennzahlen und Kennzahlensystemen sorgen. Den Entscheidungsträgern sollten Hilfen für Planung und Steuerung
an die Hand gegeben werden. Instandhaltungscontrolling ist damit eine Teilfunktion des Management des spezifischen Produktionsprozesses Instandhaltung. Es dient sowohl zur Planung, Steuerung und Überwachung der Aktivitäten innerhalb des Instandhaltungsprozesses als auch zur Koordination und Abstimmung der Aktivitäten des Instandhaltungsbereiches mit den Funktionen der Unternehmung Produktion, Materialwirtschaft und Kostenrechnung. Aufbauend auf der Zielplanung der Instandhaltung (Anlagenverfügbarkeit, -Zuverlässigkeit, Betriebssicherheit, Produktqualität und Wirtschaftlichkeit) hat das Instandhaltungscontrolling ein Informationsinstrument bereitzustellen, das zur Planung, Steuerung und Kontrolle der Leistungs- und Nutzenseite der Instandhaltung dient. Auf der Nutzenseite ist es die Minimierung der wirtschaftlichen Nachteile aus Anlagenausfällen und auf der Leistungsseite die Minimierung aller Aufwände des Instandhaltungsprozesses. Entsprechend breit ist die Datenbasis in der Planung, im Soll-Ist-Vergleich und in der Schwachstellenanalyse, die für die anzustrebende Optimierung zwischen Nutzen- und Aufwandsseite der Instandhaltung bereitgehalten werden muss: •
•
•
Ebene des Budgets des Instandhaltungsbereiches durch Planung und Soll-Ist-Vergleich Ebene der Auftragsabrechnung mit dem auftragsbezogenen Soll-IstVergleich Ebene der Objektlebensläufe und der Gestaltung des qualitativen Niveaus der Objekte (Betriebsmittel) durch Kontrolle und Analyse ihrer Produktivität und Wirtschaftlichkeit (u.a. durch Kennzahlen aus der Schwachstellenanalyse).
Ein wesentliches Instrument des Instandhaltungscontrollings ist die Vorgabe eines Kostenbudgets. Damit erreicht man, dass 373
Instandhaltungscontrolling die Ziele der Instandhaltung mit den Unternehmenszielen abgestimmt werden. Typische Zielstellungen innerhalb des Instandhaltungsprozesses können sein: •
eine maximale Anlagenverfügbarkeit bei vorgegebenen Instandhaltungskosten und • minimale Instandhaltungskosten bei vorgegebener Anlagenverfiigbarkeit. Weiterhin wird durch ein Kostenbudget die Kostentransparenz in der Instandhaltung erhöht, da man leicht erkennen kann, welche Kostenarten welches Volumen ausmachen. Durch eindeutige Kostenzuweisungen (gem. Verursachungsprinzip) wird festgelegt, wer für welche Kosten zuständig ist. Außerdem lassen sich anhand des vorgegebenen Budgets die Zielerreichung messen und etwaige Abweichungen und deren leistungsbezogene Ursachen feststellen. Kostenbudgets der Instandhaltung können mit Hilfe verschiedener Verfahren bestimmt werden. Als gängige Verfahren können die -> Top-down Planung, die -> Bottom-up Planung und das -> Gegenstromverfahren genannt werden. Vor allem in Kleinbetrieben wird das Instandhaltungscontrolling selten von einem Controller durchgeführt. Naturgemäß ist das hier Aufgabe des Geschäftsführers bzw. des Eigentümers. Das bringt den Vorteil mit sich, dass Controlling und Kompetenz für Entscheidungen in einer Person vereinigt sind. In der Regel ist diese Entscheidungsebene auch die einzige Entscheidungsebene in der Unternehmung. Kurze und damit vor allem eindeutige Entscheidungswege sind damit vorgegeben. Ein typisches Instrument des Instandhaltungscontrollings sind Kennzahlen und Kennzahlensysteme. Eine Kennzahl ist eine Größe, die einen quantitativ messbaren Sachverhalt in konzentrierter Form wiedergibt. Bringt man eine Menge solcher Kennzahlen in eine Ordnung, erhält man ein Kennzahlensystem. Dieses gibt 374
Instandhaltungscontrolling die Beziehungen zwischen den verschiedenen Kennzahlen wieder. Man erreicht dadurch eine Verdichtung der Informationen und eine hohe Übersichtlichkeit. Kennzahlen und -systeme erfüllen unterschiedliche Funktionen. Als Instrument der Informationsbereitstellung, als Analyseinstrument oder als Indikator erfüllen sie vordergründig Informationszwecke. Geben sie dagegen ein Zielsystem wieder, werden sie unmittelbar zum ~> Führungsinstrument. Probleme ergeben sich bei der Gewinnung und Auswahl aussagekräftiger Kennzahlen. Aus vielen Bereichen des Unternehmens werden Grundzahlen zur Verfügung gestellt, die für sich betrachtet nur eine geringe Aussagekraft besitzen. Wenn sie aber in Beziehung zueinander gesetzt werden, entsteht eine brauchbare, sinnvolle Information. Die Darstellung eines komplexen Sachverhalts mit einer geringen Zahl entspricht zwar dem Wunsch des Nutzers, stellt aber den Informationsgehalt in vielen Fällen nicht ausreichend dar. Eine sachlich zutreffende Information verlangt die Darstellung des Gesamtzusammenhangs mit allen relevanten Einflussgrößen. Für ein aufzubauendes Instandhaltungskennzahlensystem bedeutet dies, dass Zahlen aus dem Instandhaltungs- und Fertigungsprozess vorhanden sein müssen, die in einer direkten Abhängigkeit zueinander stehen. Als Steuerungsinstrument muss das Kennzahlensystem auf die hierarchische Struktur des Unternehmens ausgerichtet und an die Bedürfnisse der jeweiligen Ebene angepasst sein. Nur wenige Größen sollen als oberste Indikatoren der Erfolgsbeurteilung die Spitze des Kennzahlensystems bilden und von allen Beteiligten möglichst einfach nachvollzogen werden können. Damit ergeben sich für das Instandhaltungscontrolling klare Rahmenbedingungen. Die oberste Priorität hat die Instandhaltungskostenquote bezogen auf den Umsatz. Der Steuerungsparameter ist die
Instandhaltungscontrolling
Instandhaltungscontrolling Anzahl der Mitarbeiter in der Instandhaltung. Fremdleistungen sind ohnehin auf das Notwendigste reduziert, Instandhaltungsmaterial wird als kaum beeinflussbar betrachtet. 5.
In der folgenden Übersicht wird eine Auswahl von typischen Kennzahlen dargestellt, die eine Aussage zur Wirtschaftlichkeit des Instandhaltungsprozesses zulassen. Dabei werden beleuchtet die Kostensituation der Instandhaltung, die Arbeitsbelastung, die Arbeitsproduktivität in der Instandhaltung und die dispositive Qualität der Instandhaltung. Die Quelle der Daten (Zähler und Nenner des Quotienten) sind die -»Kosten- und Leistungsrechnung, das Auftragswesen und die Produktionsberichterstattung.
2.
IH-Kostenrate IH-Kosten (gesamt) [%] AWi
3.
IH-Personalkostenanteil
IH-Personalkosten [%] ~ IH-Kosten (gesamt) [%]
IH-Kosten siehe D e f i n i t i o n 1
IH-Personal Arbeitskräftezahl ICH
in
der
IH-Materialkosten Kosten f ü r d a s zur Instandhaltung aufgewendete Material (Ersatzteile, Hilfsund B e t r i e b s s t o f f e )
Materialeinsatzrate IH-Materialkosten gel. Handwerkerstunden
IH-Materialkosten siehe D e f i n i t i o n 6 geleistete H a n d w e r k e r s t u n den Summe aller geleisteten Stunden durch Handwerker, M i t a r b e i t e r u n d Hilfskräfte
IH-Fremdleistungsanteil Fremdleistingen [%] I H - K o s t e n (gesamt)
IH-Kosten (gesamt) siehe D e f i n i t i o n 1
IH-Personalkosten Lohn-, Gehaltskosten des Instandhaltungspersonals einschließlich d e r G e m e i n kostenanteile
AWi siehe D e f i n i t i o n 2
IH-Kosten siehe D e f i n i t i o n 1
Unter-
A W i (indizierter A n s c h a f fungswert) Anlagenwert im Anschaff u n g s j a h r multipliziert m i t d e m Index f ü r Kostensteigerung (Indexzahlen des Statistischen B u n d e s a m t e s ) für d a s b e t r e f f e n d e J a h r
Betreuungsquote
IH-Materialkosten [%] IH-Kosten (gesamt)
. des
AWi siehe D e f i n i t i o n 2
. IH-Materialkostenanteil
IH-Kosten (gesamt) Zusammenfassung aller _ I H - Kosten (gesamt) [%] K o s t e n (Personal-, L o h n - , Umsatz Material- und Fremdleist u n g s k o s t e n ) für Instandhaltungsmaßnahmen Umsatz Jahresumsatz nehmens
IH-Personalkosten [%] AWi
AWi [%]
_
Definition
Personalkosten siehe D e f i n i t i o n 3
IH-Personal
7. N r . Kennzahl 1. I H - K o s t e n q u o t e
IH-Personalkostenrate
IH-Fremdleistungen Kosten für Instandhalt u n g s m a ß n a h m e n , die von Fremdfirmen ausgeführt w e r d e n . E s ist zu empfehlen, L o h n - und Materialk o s t e n g e t r e n n t auszuweisen, u m e i n e Ermittlung der I H - P e r s o n a l k o s t e n (3) und I H - M a t e r i a l k o s t e n (6) zu ermöglichen. IH-Kosten siehe D e f i n i t i o n 1
9.
IH-Wirtschaftlichkeitsgrad
_IH-Ertrag[%] IH-Kosten
IH-Ertrag Anlagenverfugbarkeitsstunden x Ergebnisbeitrag/h Ergebnisbeitrag: d e r für die b e t r a c h t e t e A n l a g e bewertete E r t r a g eines Anlagennutzungszeitraumes IH-Kosten siehe D e f i n i t i o n 1
375
Instandhaltungscontrolling 10. IH-Wirtschaftlichkeitsgrad Soll-IH-Kosten [%] Ist-IH-Kosten 11.
Anlagenkennziffer
__ IH - Kosten (gesamt) [%] Verfügbarkeitszeit
Soll-IH-Kosten geplante Kosten Ist-IH-Kosten anfallende Kosten IH-Kosten (gesamt) siehe Definition 1 Verfügbarkeitszeit (siehe Richtlinie VDI 3 4 2 3 ) * " ist die Belegungszeit einer Maschine, wie sie z. B. bei der Investitionsplanung in Ansatz gebracht wurde *" VDI 3423 (1991) "Auslastungsermittlung für Maschinen und Anlagen"
12.
Ausfallgrad
Instandhaltungszeit VerfugbarkEitszeit
Instandhai tunsszeit aufgewendete Zeit für IHMaßnahmen Verfügbarkeitszeit siehe Definition 11
Literatur: Männel, W . (Hrsg.): Integrierte Anlagenwirtschaft, Köln 1988; Kalaitzis, D. (Hrsg.): Instandhaltungs-Controlling, Köln 1990; Witt, C.D.: Kriterien und Methoden zur wertmäßigen Planung des Instandhaltungsprozesses, InauguralDissertation, Fakultät für Gesellschaftswissenschaften der Universität Rostock, 1974.
Claus Dieter Witt Institutionelle Venture Capitalists Institutionelle Venture Capitalists (institutionelle VCs) sind regelmäßig juristische Personen, die als Intermediäre eine Brückenfunktion zwischen Kapitalanlegern und Kapitalnehmern wahrnehmen. Das Investitionskapital eines institutionellen V C s wird formelles und das eines privaten -> Angel Investors informelles Beteiligungskapital genannt. Zwei Kriterien sind für die Abgrenzung von institutionellen VCs und Angel Investors besonders geeignet: 1. Im Gegensatz zu privaten Angel Investors sind institutionelle Kapitalbeteiligungsgesellschaften keine natürlichen, sondern regelmäßig juristische 376
Interessenausgleich Personen. Die Grenze wird allerdings fließend, wenn eine Privatperson ihr umfangreiches Beteiligungsprogramm in einer juristischen Person zusammenfasst oder wenn mehrere Angel Investors für ihre Investitionen eine juristische Person gründen. 2. Institutionelle Kapitalbeteiligungsgesellschaften investieren im Gegensatz zu privaten Angel Investors wirtschaftlich gesehen kein eigenes, sondern fremdes Kapital bzw. juristisch betrachtet eigenes Kapital nicht auf eigene, sondern auf fremde Rechnung der Kapitalanleger in das —• Start Up. Bei den institutionellen VCs sind Classic und Corporate Venture Capital-Gesellschaften zu unterscheiden: Classic Venture Capital-Gesellschaften sind Kapitalbeteiligungsgesellschaften, insbesondere Fondsgesellschaften, die das von vielen Kapitalgebem gesammelte Investitionskapital bei verschiedenen Kapitalnehmern anlegen. Corporate Venture Capital-Gesellschaften werden von Industrieunternehmen als Tochtergesellschaften gegründet und erhalten das Investitionskapital ausschließlich von ihrer Mutter. Die Auswahl der investitionswürdigen Start Ups erfolgt nicht nur unter Renditegesichtspunkten, sondern auch aus unternehmensstrategischen Aspekten, insbesondere der Erschließung neuer Geschäftsfelder. Wegen des Konnexes zur gleichgerichteten Geschäftstätigkeit der Mutter kann das Start Up zwar mit einer besonders qualifizierten Beratung rechnen, die jedoch mit einer Gefährdung der unternehmerischen Selbstständigkeit einher geht. Dies ist bei der finanziellen Planung der -> Unternehmensgründung zu beachten. Stefan Hanloser Interessenausgleich Im Interessenausgleich wird das "Ob und Wie" einer -> Betriebsänderung niedergelegt. Der Interessenausgleich ( § 1 1 2 BetrVG) beinhaltet damit alle Fragen der
Interessenausgleich organisatorischen Durchführung, soweit diese nicht Regelungen zum Ausgleich der durch die Betriebsänderung verursachten wirtschaftlicher Nachteile betreffen; diese werden in einem -> Sozialplan festgehalten. Inhalte des Interessenausgleichs sind also typischerweise, wie die unumgänglichen Maßnahmen der Betriebsänderung möglichst sozialverträglich durchgeführt werden können. Der Interessenausgleich bedarf der Schriftform. Können sich Arbeitgeber und Betriebsrat nicht einigen, bestehen folgende Möglichkeiten: Der Präsident des Landesarbeitsamtes kann um Vermittlung ersucht werden oder die -> Einigungsstelle kann einen Vorschlag unterbreiten. Der Unternehmer ist jedoch an keinen der Vorschläge gebunden. Unterlässt der Arbeitgeber den Interessenausgleich, oder weicht der Arbeitgeber ohne zwingenden Grund von einem gefunden Interessenausgleich ab, haben die betroffenen Arbeitnehmer Anspruch auf einen -» Nachteilsausgleich. Interessenzusammenführung Konsolidierung Internal Auditing -> Auditing International Accounting Standards International Accounting Standards (IAS) sind die von einem privaten, 1973 in Anlehnung an angelsächsische Vorbilder in London durch Fachverbände aus verschiedenen westlichen Ländern gegründeten Gremium erarbeiteten Rechnungslegungsstandards, die im Blick auf eine weltweit einheitliche Anwendung entwickelt werden. Die Arbeit wird durch Mitgliedschaftsbeiträge, Spenden und die Publikationen der eigenen Standards finanziert. Obwohl die Ersteller IAS keinerlei Verbindlichkeit verleihen können, werden IAS von verschiedenen Staaten voll (wie etwa Kuwait, Oman, Pakistan) oder teil-
international Accounting Standards weise übernommen und von vielen Unternehmen etwa der Schweiz oder Frankreich freiwillig befolgt. In Deutschland setzt der "Neue Markt" Rechnungslegung nach IAS oder -> U S - G A A P voraus. Beide gelten im Rahmen der durch § 292a HGB neu geschaffenen Möglichkeit zu einem befreienden Konzernabschluss nach international anerkannten Grundsätzen als hinsichtlich ihrer Aussagekraft gleichwertig mit dem Abschluss nach HGB. Dabei dürften IAS auch eher mit den europäischen Richtlinien vereinbar sein. Obwohl eine Anerkennung durch die internationale Vereinigung der Börsenaufsichtsbehörden IOSCO in Aussicht steht, sperrt sich vor allem die mächtige SEC gegen IAS. Auf absehbare Zeit verschaffen IAS keinen Zugang zu den großen amerikanischen Börsen. Inhaltlich erscheinen IAS als Kompromiss aus britischen Standards und USGAAP sowie aus "true and fair view"Forderung (IAS 1.10) und Detailvorschriften. Die Gliederung des Jahresabschlusses wird nur durch Vorgabe weniger gesondert auszuweisender Posten (IAS 1.66 und 1.77) geregelt. Im Mittelpunkt stehen allgemeine Grundsätze, wie das Saldierungsverbot, und vor allem die Pflicht, alle für die Leser wesentlichen Posten gesondert auszuweisen (IAS 1.29). IAS arbeiten auch mit häufig umfangreichen Erläuterungspflichten in "notes", ohne allerdings diesbezüglich eine Gliederung vorzuschreiben. Die für den Bilanzansatz wichtigen Definitionen von Vermögensgegenständen und Schulden verlangen einen wahrscheinlichen künftigen Nutzenzufluss bzw. -abfluss aus in der Vergangenheit eingetretenen Ereignissen, wobei sich der jeweilige Wert zuverlässig ermitteln lassen muss. Praktisch entstehen aus diesen Definitionen Unterschiede zu -> GoB und HGB vor allem insoweit, als Entwicklungsausgaben bei Vorliegen aller Kriterien in IAS 38.45 aktivierungspflichtig 377
International Accounting Standards und Rückstellungen nur zu bilanzieren sind, wenn sowohl das Bestehen der Verpflichtung als auch der Abfluss von Vermögen "probable" erscheint und sich der Betrag ausreichend genau schätzen lässt. Bei -> Leasing erfolgt die Zurechnung häufiger entgegen dem rechtlichen Eigentum als bei uns. Die Bewertung fußt bei Aktiva auf Anschaffungs- oder vollkostenorientierten Herstellungskosten, einem Niederstwert in Höhe des Maximums aus Nettoveräußerungswert und (verglichen mit Anschaffungskosten niedrigem) Barwert der geschätzten künftigen Zahlungen, zunehmend aber auch auf dem Zeitwert (fair value) und bei Rückstellungen auf dem Barwert der besten Schätzung der künftig zu erwartenden Belastungen. Es gibt ein strenges Niederstwertprinzip sowohl bei Vorräten (IAS 2.25) als auch - sobald die " impairment" - Kriterien erfüllt sind - bei Anlagen mit Ausnahme langfristiger Geldanlagen ("investments"). Gewinne werden meist wie bei uns realisiert, allerdings entstehen sie bei langfristiger Fertigung auf Basis der dann anzuwendenden percentage of completion Methode, beim Tausch von unterschiedlichen Gütern sowie bei financial Instruments (Wertpapiere, Forderungen, Verbindlichkeiten und Derivate), die grundsätzlich zu Zeitwerten bewertet werden, früher. Die IAS zu —> Pensionsrückstellungen und zu latenten Steuern sind mit der zwingenden Anwartschaftsbarwertmethode, der verzögerten Erfassung von Gewinnen und Verlusten sowie dem künftigen Gehaltsniveau als Basis bzw. dem Anknüpfen an temporary differences USGAAP sehr ähnlich. Eigenständig sind die Möglichkeiten zur erfolgsneutralen Neubewertung von Sachanlagen, immateriellen Anlagen mit aktivem Sekundärmarkt und "investments" (Geldanlagen, die der Erzielung sachfremder Einkünfte und Wertsteigerungen dienen). Auch wenn auf Anregung von IOSCO im Rahmen eines Comparibility and Impro378
Internes Marketing vement Projekts zwischen 1989 und 1993 viele Wahlrechte beseitigt wurden und aktuelle Standards im Blick auf die SEC strenger als früher gefasst werden, räumen IAS den Bilanzierenden erhebliche Wahlrechte und Ermessensspielräume ein. Hinzu kommt, dass es keine strengen Sanktionen für Prüfer gibt, welche die Einhaltung von IAS bescheinigen, und dass gegen die Kongruenz verstoßen werden darf. Wegen des hohen Ansehens der IAS und den guten Bedingungen für die Bilanzpolitik ist also ein Wechsel zu LAS durchaus erwägenswert. Literatur: International Accounting Standards, 1999; W a g e n h o f e n A.: International Accounting Standards, 2. Aufl., Wien 1999.
Thomas Schildbach Internationale Personalpolitik -> Personalpolitik, internationale Internationales Management -> Management, internationales Interne Zinsfuß Methode Investitionsrechnung Internes Marketing Internes Marketing bezeichnet die systematische Optimierung unternehmensintemer Prozesse mit Instrumenten des Marketing- und -» Personalmanagements, um durch gleichzeitige Kundenorientierung und -»Mitarbeiterorientierung das Marketing als interne Denkhaltung durchzusetzen. Marketing wird hier nicht als klassische Untemehmensfunktion, sondern als eine Unternehmensphilosophie verstanden, die von allen Führungskräften und Mitarbeitern in ihrem Verhalten realisiert wird. Zu diesem Zweck muss das Interne Marketing als Managementprozess geplant und im Unternehmen implementiert werden, wobei die Ausrichtung des Unternehmens auf Kunden- und Mitarbeiterorientierung verdeutlicht, dass die Funktionsbereiche des Marketing und des Management intensiv aufeinander abzustimmen sind. Letztendlich dient das Interne Marketing einer besseren Leistungserstellung gegen-
Internes Marketing über dem Endkunden i.S. eines unternehmensexternen Abnehmers mit dem Ziel der Gewinnung und Bindung zufriedener Kunden (-> Kundenzufriedenheit). Die grundlegenden Mittel zur Realisierung dieses Ziels sind die Rekrutierung, Entwicklung und Erhaltung kundenorientierter Mitarbeiter. Kundenorientierte Mitarbeiter sind grundsätzlich für alle marketingtreibenden Unternehmen wichtig, besondere Bedeutung haben sie aber für Dienstleistungsunternehmen. Da Dienstleistungen im Rahmen der direkten Interaktion zwischen dem Personal und den Kunden erstellt werden, entscheiden die Einstellung und das Verhalten der Mitarbeiter über die Zufriedenheit der Kunden mit der Dienstleistung und ihre Bindung an das Unternehmen. Bei der Umsetzung des Internen Marketing lassen sich vier Schwerpunkte unterscheiden: 1. Optimierung der unternehmensinternen Austauschbeziehungen: Im Sinne der internen Kundenorientierung wird versucht, die Austauschbeziehungen zwischen Mitarbeitern einzelner Abteilungen bis hin zu KundenLi e feranten-B eziehungen einzelner Unternehmensstandorte zu optimieren. 2. Förderung von Kunden- und Mitarbeiterzufriedenheit: Unter der Annahme, dass bei Mitarbeitern im Kundenkontakt ein unmittelbarer Zusammenhang zwischen Mitarbeiterzufriedenheit und Leistungsqualität besteht, wobei die Leistungsqualität zur Zufriedenheit der Kunden fuhrt, muss die Zufriedenheit beider Gruppen parallel gefordert werden. 3. Interne Kommunikation: Die Kommunikation gegenüber den Mitarbeitern dient sowohl der Mitarbeiterzufriedenheit als auch der Informationsübermittlung zum Zwecke der optimalen internen und externen Leistungserstellung
Internes Marketing 4. Implementierung von Marketingkonzepten: Zur untemehmensinternen Durchsetzung der Marketingstrategie müssen Barrieren gegenüber Veränderungsprozessen überwunden, Personal entwickelt und Strukturen sowie Prozesse des Unternehmens marketinggerecht gestaltet werden. Zur Umsetzung des Internen Marketing werden Instrumente, die gewöhnlich den Funktionsbereichen Marketing und Personalwirtschaft zugeordnet sind, mit dem Ziel der Optimierung der Schnittstelle zwischen diesen beiden Funktionsbereichen integriert. Zu den Instrumenten des personalorientierten Marketingmanagements zählt die Gestaltung der Arbeitsplätze i.S. der internen Produkte. Inhaltlich bedeutsame Aufgaben, Handlungsspielräume und Rückmeldung über die Ergebnisse der Arbeit erhöhen die intrinsische Motivation, verbessern die Qualität der Arbeit und steigern die Mitarbeiterzufriedenheit. Von besonderer Bedeutung ist die interne Kommunikationspolitik, als deren Mittel Rundschreiben, Firmenzeitschriften, Business Televisión etc. eingesetzt werden, um Informationen über die ökonomische Situation des Unternehmens, richtungweisende Entscheidungen des Managements oder neue Kampagnen an die Mitarbeiter zu vermitteln. Daneben muss bei der Gestaltung der externen Kommunikation beachtet werden, dass Mitarbeiter als "second audience" auch Rezipienten von Werbung und PR-Maßnahmen sind ( - • Öffentlichkeitsarbeit). Zu den Instrumenten des marketingorientierten Personalmanagements zählen die gezielte Ansprache und Akquisition von Mitarbeitern durch Methoden des Personalmarketing. Dadurch soll die Selbstselektion potenzieller Bewerber unterstützt werden mit dem Ziel, dass sich bevorzugt solche Bewerber melden, die zum Unternehmen und den Aufgaben passen. Eine Schlüsselfunktion nimmt die Personal-
379
Internes Marketing auswahl ein: Durch die anforderungsorientierte Entwicklung von Auswahlverfahren, z.B. zur Erfassung von Kundenorientierung, Leistungsfähigkeit und -bereitschaft sowie sozialer Kompetenz, kann das Risiko der Einstellung ungeeigneter Bewerber für das Unternehmen verringert werden. Systematisches Training dient der Einfuhrung neuer Mitarbeiter und der Weiterbildung des Personals, wobei neben der Schulung kundenorientierten Verhaltens und der Veränderung von Einstellungen auch zentrale Unternehmenswerte vermittelt werden. Schließlich ist es Aufgabe der -» Personalentwicklung, in Abhängigkeit von den individuellen Kompetenzen für die einzelnen Mitarbeiter Karrierepfade zu entwickeln und damit längerfristig die Motivation und die Bindung der Mitarbeiter an das Unternehmen zu sichern (-> Karriereplanung). Voraussetzung für den erfolgreichen Einsatz dieser Instrumente ist die kontinuierliche Personalforschung. Zu den dabei herangezogenen Informationsquellen der internen Personalforschung zählen Mitarbeiterbefragungen, das Vorschlagswesen (-»Betriebliches Vorschlagwesen), Personalstatistiken oder Erhebungen des Personalentwicklungsbedarfs. Die externe Personalforschung stützt sich auf Arbeitsmarktanalysen, Gehaltsvergleiche, -* Benchmarking, Angebotsvergleiche etc. Bei der Implementierung des Internen Marketing sind verschiedene Barrieren zu beachten. Zu den inhaltlich-konzeptionellen Barrieren zählen ein weitverbreitetes Fehlverständnis der Inhalte des Internen Marketing, die Beschränkung auf die Implementierung von Teilkonzepten und Probleme der Erfolgsbeurteilung. Organisatorisch-strukturelle Barrieren umfassen Schnittstellen zwischen Abteilungen, die sich in typischem Ressortdenken äußern, mangelnde Festlegung von Verantwortlichkeiten und divisionale Organisationsstrukturen. Personell-kul380
Internet turelle Barrieren sind in Führungsschwächen des Managements und emotionalen Widerständen gegen Veränderungen auf Seiten der Mitarbeiter zu sehen. Zu ihrer Überwindung kommt es darauf an, zuerst Ziele, Inhalte und Ausprägungsformen des Internen Marketing zu spezifizieren und dann im Unternehmen eine breit angelegte Akzeptanz zu schaffen. Dabei steht die Kommunikation mit den Mitarbeitern, die Vermittlung des erforderlichen Know-hows sowie die Verpflichtung der Mitarbeiter auf die Ziele des Internen Marketing im Zentrum der Bemühungen. Literatur: Bruhn, M.: Internes Marketing als neue Schwerpunktsetzung für das Personalmanagement in Dienstleistungsunternehmen, in: Bruhn, M./ Meffert, H. (Hrsg.): H a n d b u c h Dienstleistungsmanagement, Wiesbaden 1998, S. 7 0 7 - 7 3 2 ; Bruhn, M.: Internes Marketing als Forschungsgebiet der Marketingwissenschaft, in: Bruhn, M. (Hrsg.): Internes Marketing. Integration der Kunden- und Mitarbeiterorientierung, 2. Aufl., Wiesbaden 1999, S. 15-43; Stauss, B.: Internes Marketing als personalorientierte Qualitätspolitik, in: Bruhn, M./Stauss, B. (Hrsg.): Dienstleistungsqualität. Konzepte, Methoden, Erfahrungen, 2. Aufl., Wiesbaden 1995, S. 2 5 7 - 2 7 6 .
Friedemann W. Nerdinger Internet Das Internet kann definiert werden als eine Menge miteinander verbundener Computer, die das gemeinsame Kommunikationsprotokoll TCP/IP (Transmission Control Protocol/Internet Protocol) verwenden. Weiterhin zählen zu dem Internet Dienste, die auf dem TCP/IP aufsetzen, und die Nutzer dieser Dienste. Das Netzwerk ist in den 60er Jahren in den USA aus ursprünglich militärischen Forschungszielen entstanden, wurde in der Folge aber vor allem für die wissenschaftliche Kommunikation eingesetzt. Die verstärkte kommerzielle Nutzung datiert aus der jüngeren Vergangenheit und ist mit der Einführung und Verbreitung des Dienstes W W W seit Anfang der 90er Jahre zu verbinden. Das Internet besteht aus einer Vielzahl nationaler und regionaler Teilnetze, die
Internet sich jedoch dem Benutzer als einheitliches, weltweites, computergestütztes Kommunikationssystem präsentieren. Keine Person oder Institution besitzt das alleinige geistige Eigentum an der Technologie. Der Aufbau des Internet wird weder zentral geplant noch gesteuert. Der Koordination dienen Institutionen, welche die Normierung und eine weltweit eindeutige Adressierung der Computer im Internet sicherstellen. Das dynamische Wachstum des Internet beruht vor allem auf seinem offenen Standard für die Rechnerkommunikation und seiner flexiblen Client-ServerStruktur. Offene Standards und flexible Architektur ermöglichen eine weltweite, auf viele Personen bzw. Teams verteilte Weiterentwicklung des Netzwerkes. Den Zugang zum Internet eröffnet die Nutzung des TCP/IP-Protokolls, das in offen zugänglichen "Request for Comments" (RFCs) spezifiziert ist. Es ist damit ebenso frei verfügbar wie andere Konventionen der Internet-Technologie auch (s.a. http://www.internic.net/). Die TCP/IP-basierte Kommunikation arbeitet auf Basis des Client/ServerKonzepts. Server stellen Clients auf Anfrage zentral vorgehaltene Programme (Applikationen) und Daten zur Verfügung. Clients präsentieren dem Anwender das Ergebnis dieser Anfrage. Jeder Computer kann sowohl als Client als auch als Server auftreten. Rechner und Benutzer können somit sowohl als Informationsanbieter als auch als -nachfrager agieren, was den weltweiten Austausch von Informationen und das Abwickeln arbeitsteiliger Prozesse über das Netzwerk erleichtert. Das Internet bietet seinen Benutzern eine Reihe von Diensten, d.h. Programme, die über TCP/IP auf Ressourcen im Internet zugreifen. Diese Dienste können zusammen mit dem TCP/IP als Basistechnologie des Internet bezeichnet werden.
Internet Persönliche elektronische Post (-> EMail) überträgt über weltweit eindeutige Adressen vergleichsweise schnell, kostengünstig und zeitlich asynchron Nachrichten zwischen einem Sender und einem Empfänger. News sind elektronische Diskussionsgruppen bzw. -beiträge, die über das Internet verbreitet und von allen Interessierten weltweit gelesen werden können. Via FTP (File Transfer Protocol) lassen sich über das Internet Dateien kopieren. Mit einem 7e/«e/-Client wird ein Computer im Internet zum Terminal, d.h. zum Steuer- und Anzeigegerät eines entfernten Rechners. Der WWW-Dienst (World Wide Web) organisiert Informationen in einem Hypermedium, das aus Informationsknoten, die sich dem Benutzer als Bildschirmseiten präsentieren, und Kanten, die auf andere Knoten verweisen, besteht. Die Knoten beinhalten im wesentlichen elektronische Dokumente mit multimedial codierten Informationen, die mit der Hypertext Markup Language (-> HTML) beschrieben werden. Die Verweise beruhen auf einer weltweit eindeutigen Adresse, dem Uniform Resource Locator ( - URL). Das W W W wird dem Benutzer durch einen Browser zugänglich, d.h. eine Software, welche die in H T M L beschriebenen elektronischen Dokumente interpretiert und dem Benutzer am Bildschirm darstellt. Moderne Browser integrieren die Dienste E-Mail, News, FTP und Telnet. Die flexible Struktur, die multimediale Präsentation und die integrierten Dienste begründen die Dominanz des W W W als Internet-Dienst (s.a. ->• WWWBrowser). Die Basistechnologie wird durch Standard-Schnittstellen, Programmiersprachen und Sicherheitsfunktionen erweitert, die interaktive Anwendungen sowie ein höheres Maß an Sicherheit bei der Kommunikation auf der Basis der Internet381
Internet
Internet Technologie net).
ermöglichen
(s.a.-> Intra-
Der Zugang zum Internet erfolgt über einen Internet-Access-Provider oder einen Online-Dienst. Ein Internet-AccessProvider ist eine Unternehmung oder eine Institution, die ein Teilnetz des Internet betreibt und anderen Unternehmen bzw. Privatanwendern gegen Entgelt einen Zugang bzw. Übertragungskapazitäten zum/vom Internet bietet. Intemet-ServiceProvider bieten zusätzliche Dienstleistungen wie z.B. das Entwickeln und Pflegen von WWW-Informationsbasen, die Administration von WWW-Servern fiir Unternehmen, die Konzeption und Realisierung von lokalen Netzwerken sowie Ausund Weiterbildungsangebote. Online-Dienste ermöglichen einen indirekten Zugang zum Internet. Sie bieten ihren Kunden ein geschlossenes Informationsangebot, auf das nur registrierte Benutzer mit einer speziellen Zugangssoftware zugreifen können. Übergänge (-> Gateways) ermöglichen dann den Zugang zum Internet. Aufgrund seiner globalen Verbreitung, seiner stark steigenden Benutzerzahlen und den sich dynamisch erweiternden technischen Möglichkeiten dient das Internet zunehmend als Plattform für den Elektronischen Geschäftsverkehr (-» ECommerce). Legt man ein weites Verständnis des Begriffs zugrunde, so ergeben sich aus betrieblicher Sicht zahlreiche Nutzungsmöglichkeiten bei der Anbahnung, dem Abschluss und der Abwicklung elektronischer Geschäfte mit privaten Haushalten, Unternehmen und staatlichen Stellen. In einer funktionalen Sicht stehen die Bereiche Beschaffung, Marketing und Absatz im Vordergrund. Als riesiger Informationspool bietet das Internet allen organisatorischen Einheiten eines Unternehmens aktuelle Informationen, die sich für Forschung und Entwicklung, Wettbewerbsbeobachtung und -analysen, die Personalbeschaffung, die 382
elektronische Abwicklung finanzieller Transaktionen, die betriebstechnische Wartung von Software und technischen Geräte u.v.m. nutzen lassen. Um die Beschaffung physischer Güter vorzubereiten, können im Beschaffungsmarketing externe Informationen über das Internet erhoben werden, um Einkaufsmärkte zu beobachten, zu analysieren und soweit möglich mitzugestalten. Der schnelle und preisgünstige Zugriff auf aktuelle Informationen verspricht Wettbewerbsvorteile in den Bereichen Kosten und Zeit. Darüber hinaus gehen nachfragende Unternehmen zunehmend dazu über, Beschaffungsbedarfe über das Internet zu veröffentlichen und Lieferanten zur Abgabe von Angeboten aufzufordern. Dies reduziert den Aufwand, der bei einer eigenen Beschaffungsmarktforschung zu betreiben ist. Voraussetzung einer effizienten Informationsbeschaffung über das Internet ist die Nutzung von -> Suchmaschinen und Katalogen, die dem Anwender die Suche über Stichworte oder in klassifikationsartigen, hierarchischen Verzeichnissen ermöglichen. Darüber hinaus können elektronische Lieferantenverzeichnisse, Produktkataloge, Informationsbroker und Softwareagenten (z.B. Web-Roboter) zur Recherche herangezogen werden. Für den Einkauf über das Internet können Unternehmen auf elektronische Märkte zugreifen, die sich in unterschiedlichen Formen, u.a. als Online Shops oder elektronische Shopping Malis präsentieren. Den Vorteilen einer Beschaffung über das Internet (ggf. niedrigere Einstandspreise aufgrund des Ausschaltens von Handelsstufen, schnellerer Einkaufsprozess, weltweiter Einkauf auch für kleine und mittlere Unternehmen) steht die derzeit häufig noch fehlende kritische Masse an Angeboten im Internet gegenüber (s.a. -* E-Commerce). Im Marketing kann das Internet als ein ergänzendes Medium eingesetzt werden, um Märkte zu schaffen, zu erschließen,
Internet-Auktionen
Internet auszuweiten und zu sichern. Im Vordergrund steht i.d.R., das Netzwerk für Zwecke der Werbung und die Präsentation des Unternehmens und seiner Produkte zu nutzen (s.a. -> Online-Marketing). Im Rahmen der Nutzung des Internet im Absatz lassen sich interaktive Auskunftsund Bestellsysteme realisieren. Shopsysteme vereinigen die Funktionalität elektronischer Produktkataloge (und ggf -konfiguratoren) mit intemet-basierten Zahlungssystemen. Sie können mit Shopsystemen anderer Anbieter in elektronischen Shopping Mails zu themen- und zielgruppenspezifischen Angeboten zusammengefasst werden, um die Attraktivität aus Kundensicht zu erhöhen. In der Abwicklungsphase elektronisch getätigter Käufe sind Logistik-Dienstleister von zentraler Bedeutung. Diese wiederum gehen zunehmend dazu über, Lieferanten und Abnehmern Einsicht in "gläserne" Prozesse der Warenlieferung und der damit verbundenen Dienstleistungen zu geben ("Tracing", "Tracking"). Die breite Akzeptanz internet-basierter Zahlungssysteme wird derzeit noch durch ein mangelndes Vertrauen in die Sicherheit der Finanztransaktionen sowie die hohe Anzahl konkurrierender Systeme behindert. Es ist zu erwarten, dass sich einige wenige Systeme, die sich aufgrund ihrer unterschiedlichen Eignung für verschiedene Größenordnungen von Zahlungsbeträgen ergänzen, durchsetzen werden. Literatur: Schneider, G.: Eine Einführung in das Internet, in: Informatik Spektrum 18/1995, S. 2 6 3 - 2 7 1 ; Holtschneider, H.: Von Pipelines und Strohhalmen. Der A u f b a u des Internet in Deutschland, in: c't. Magazin für Computertechnik 1/1996, S. 114-122; Bogaschewsky, R./ Kracke, U.: Intemet-Intranet-Extranet. Strategische Waffen für die Beschaffung, Gernsbach 1999.
Uwe Hoppe Internet Booking E-Commerce Internet Selling -> E-Commerce
Internet-Auktionen 1. Begriff Internet-Auktionen unterscheiden sich von traditionellen Auktionen durch den Einsatz des -> Internet zur Informationsdarstellung mit dem Ziel ein Gut/eine Dienstleistung durch einen Bietprozess mit konkurrierenden Bietern zu verkaufen. Seit dem Start der ersten InternetAuktionen im Jahr 1995 etablieren sich diese als verbreitete Allokationsmechanismen und gelten als der am stärksten wachsende Bereich im -* E-Commerce. Jüngste Marktstudien der Boston Consulting Group beziffern das Umsatzwachstum auf 1.700 Prozent jährlich. Der Umsatz in Deutschland wird 1999 auf 318 Millionen Mark geschätzt, die amerikanischen Marktfuhrer ebay und Onsale weisen ebenfalls Umsatzzahlen in dreistelliger Millionenhöhe aus. Nach Branchenschätzungen ist weltweit bis 2001 ein Anstieg des Umsatzes auf 90 Milliarden D M zu erwarten. In mittlerweile Hunderten von Auktionshäusern werden sehr unterschiedliche Güter gehandelt. Der Schwerpunkt liegt auf der Allokation von Gütern mit starkem Preisverfall (z.B. Hard-/Software, Flugtickets) und auf der Allokation in ineffektiven Märkten mit seltenen Gütern (z.B. Sammlerstücke, Antiquitäten). Da Informationen auf elektronischem Weg ausgetauscht werden und die gehandelten Güter nicht "vor Ort" in Augenschein genommen werden, sind standardisierte Güter ein klassischer Markt f ü r InternetAuktionen. Der überwiegende Teil der Auktionshäuser hat ausgewählte Händler als Geschäftspartner und bietet Konsumenten ausschließlich Objekte dieser Händler an (Businessmodell: "Business-to-Consumer", b2c). Einige Auktionshäuser, wie ebay, ermöglichen es ihren Kunden, für eigene Objekte Auktionen zu initiieren ("Consumer-to-Consumer", c2c). Der Bereich "Business-to-Business" - b2b -
383
Internet-Auktionen spielt zur Zeit noch eine untergeordnete Rolle. 2. Auktionsformen im Internet Im folgenden werden grundlegende Auktionsformen vorgestellt, die bei InternetAuktionen Einsatz finden. Die Mehrzahl der Internet-Auktionen basiert auf der English Auction. Dabei handelt es sich um eine Auktionsform, in der die Bieter ihre Gebote so lange sukzessiv erhöhen, bis nur noch ein Bieter übrig bleibt. Dieser erhält den Zuschlag zum Preis des von ihm zuletzt genannten Gebots. Bei der Dutch Auction gibt der Auktionator einen Startpreis bekannt, den er so lange senkt, bis der erste Bieter ein Gebot abgibt. Dieser erhält den Zuschlag zum Preis des von ihm genannten Gebots. In der First Price Sealed Bid Auction gibt jeder Bieter genau ein verdecktes Gebot ab. Den Zuschlag erhält der Bieter mit dem höchsten Gebot zum Preis des von ihm genannten Gebots. Die Second Price Sealed Bid Auction oder auch Vickrey Auction unterscheidet sich von der First Price Sealed Bid Auction lediglich dadurch, dass der Bieter mit dem höchsten Gebot den Zuschlag zum Preis des zweithöchsten Gebots erhält. In einer Double Auction bieten sowohl Käufer (Gebote zum Kauf, sog. bids) als auch Verkäufer (Gebote zum Verkauf, sog. asks). Eine Transaktion kommt zustande, wenn das aktuell beste Gebot eines Käufers bzw. Verkäufers akzeptiert wird. Die Bezeichnung von Auktionen im Internet unterscheidet sich häufig von den in der Literatur verwendeten Termini. So wird die English Auction z.B. auch als "Traditional Auction" oder "Internet Auction" bezeichnet, die Dutch Auction z.B. auch als "Descending Auction" und die First Price Sealed Bid Auction auch als "Non-Published Auction" oder "Silent Auction". Neben der von der Literatur zur Auktionstheorie abweichenden Bezeichnung finden sich im Internet auch neue Ausprägungen von Auktionsformen. So bietet uBid eine sog. "Wall Street Aucti384
Internet-Auktionen on" an, die im wesentlichen einer hybriden English Auction und Dutch Auction entspricht: Wird der gegebene Mindestpreis überboten, findet eine English Auction statt, anderenfalls wird der Preis gesenkt bis der Markt geräumt ist. Onsale bietet eine sog. "Yankee Auction" an, bei der bis zu einem gegebenen Zeitpunkt eine English Auction durchgeführt wird und anschließend eine First Price Sealed Bid Auction. 3. Erfolgsfaktoren Neben den zugrundeliegenden Auktionsformen, den gehandelten Produktarten und dem Businessmodell kann eine Beurteilung von Internet-Auktionen u.a. über die Kriterien Bedienungskomfort (ease of use), Zusatzinformation {on site ressources) und -> Kundenzufriedenheit vorgenommen werden. Beim Bedienungskomfort sind beispielsweise die Strukturierung des Angebots in einer Produktgruppenhierarchie und Suchfunktionen zur gezielten Suche oder Volltextrecherche maßgeblich. Als Zusatzinformationen können z.B. Produktinformationen über Links zu Hersteller bzw. Fachzeitschriften bekannt gegeben werden. Darüber hinaus bieten einige Auktionshäuser die Möglichkeit, sich per E-Mail über neue Produkte bzw. Angebote informieren zu lassen ("keep an eye on an item") oder den Auftrags- bzw. Gebotsstatus abzufragen. Kundenzufriedenheit versucht z.B. Onsale über ein Help-DeskSystem zu erzielen. Darüber hinaus spielen fiir diesen Bereich der Schutz der Kundendaten und die Gewährleistung sicherer Verbindungen durch -»Secure Sockets Layer (SSL)-Protokolle sowie eine hohe Verfügbarkeit und Perfomance eine wichtige Rolle. 4. Probleme/Zukunftsaussichten Internet-Auktionen geraten immer wieder in negative Schlagzeilen, die vor allem auf mangelnde Regulierung und Sicherheitsprobleme zurückzuführen sind. So ist es bei der Menge der Anbieter bzw. Bieter in Internet-Auktionen für regulierende
Internet-Auktionen Instanzen wie die Federal Trade Commission in den USA nicht möglich, die Vertrauenswürdigkeit aller Teilnehmer zu prüfen. Dies bezieht sich angebotsseitig auf die Art der eingestellten Waren (in großen Consumer-to-Consumer Auktionshäusern finden sich entgegen der Richtlinien der Betreiber immer wieder Angebote für menschliche Organe, Waffen, etc.) und bieter- bzw. anbieterseitig auf die Sicherheit der Transaktion, auf den Schutz der Kundendaten, auf die Verifikation der Identität der Teilnehmer, auf eine Zertifizierung von Anbietern/Webseiten und auf die Qualität der Produkte. Hinzu kommt das Problem Preistreiberei: bieterseitig durch shielders, die fingierte Gebote abgeben und diese kurz vor Auktionsende zurückziehen, und anbieterseitig durch shillers, die durch eigene Gebote versuchen, Preise in die Höhe zu treiben. Dadurch entsteht die Forderung nach Zertifizierung und Regulierung von Internet-Auktionen. Insbesondere die bisherige Trennung der Internet-Auktion von bestehendem Auktionsrecht ist jedoch von entscheidendem Einfluss auf die Entwicklung von InternetAuktionen. Die Chancen von Internet-Auktionen liegen vor allem in einer zunehmenden Zahl von Teilnehmern, in der Anwendung auktionstheoretischer Ergebnisse, in technologischen Verbesserungen und in einer Differenzierung: Mit der zunehmenden Zahl von Auktionsteilnehmern können Auktionshäuser Kundeninformationen sammeln, die Daten analysieren und im Sinn eines Database Marketing eine Typologisierung von Käufer in z.B. ernsthafte Käufer (serious shopper), Sammler (collector) und Schnäppchenjäger (bargain hunter) vornehmen. Ergebnisse theoretischer Arbeiten aus den Bereichen der -> Transaktionskostentheorie oder der Auktionstheorie, die Auktionen für Elektronische Märkte auf ihre Allokationswirkungen hin untersucht,
Internet-Auktionen finden zur Zeit noch wenig Beachtung. In theoretischen Arbeiten zeigt sich, dass es entscheidend von der Wahl der jeweils gewählten Auktionsform abhängt, welche Anreize den Beteiligten geboten werden, und wie das Auktionsergebnis ausfällt. Auf technischer Ebene fuhren die Entwicklungen z. B. zu neuen Möglichkeiten, den Erlebniseffekt und das gesellschaftliche Ereignis realer Auktionen in InternetAuktionen abzubilden (Mit ersten Versuchen ist z.B. das Auktionshaus ricardo.de erfolgreich.). Darüber hinaus bieten -> Softwareagenten Automatisierungsmöglichkeiten für verbesserte Suchmaschinen ("elektronische Schnäppchenjäger") und proaktiven Kundenservice durch Gebotsassistenten: "alert-agents" informieren den Bieter, wenn er überboten wird und "bid-agents" generieren in festgelegten ticks Gebote, bis ein vom Bieter spezifiziertes Preislimit erreicht ist. Untersuchungen zeigen, dass viele Auktionshäuser die Potenziale von InternetAuktionen erkennen, sich aber zur Zeit in Angebot und Leistung nur wenig differenzieren. Hier wird eine Nischenbildung über Produktgruppen (z.B. in den Bereichen Hard-/Software, Kunst) und das Angebot von Mehrwerten (z.B. über Help-Desk-Systeme, Softwareagenten) an Bedeutung gewinnen. Ein Großteil der Auktionshäuser hat die Relevanz der Kundenzufriedenheit im Hinblick auf die (Konstanz der) Produktqualität und der damit zusammenhängenden Reputation erkannt. Letztlich sichern Händler mit entsprechender Qualität der Ware und Verfügbarkeit der Güter die Reputation und Akzeptanz des Auktionshauses. Reine Consumer-to-Consumer Auktionen werden demnach an Bedeutung verlieren. Ein großes Wachstumspotenzial liegt jedoch im Business-to-Business Bereich in den Branchen Industriegüter und für sogenannte Commodity Auktionen in den Bereichen Energie (z.B. Stromhandel) und Telekommunikation (z.B. Bandbreiten). 385
Internet-Auktionen Literatur: Schmidt. C./Weinhardt, Ch./Horstmann, R.: Internet Auktionen - Eine Übersicht für Online-Versteigerungen im Hard- und Softwarebereich. Wirtschaftsinformatik 5/1998, S. 450-457; Kräkel, M.: Auktionstheorie und interne Organisation. Wiesbaden 1992; Switala, K.: Schnäppchen ohne Reue? Das Geschäft mit den OnlineAuktionen. c't spezial, Geld online 4/1999, S. 134-147; Gomber, P./Schmidt, C./Weinhardt, Ch.: Auctions in Electronic C o m m e r c e - Efficiency versus Computational Tractability, in: Lee, J. K./Kim, S. H./Whinston, A.B./Schmid, B. (Hrsg.): Proceedings of the l s l International Conference on Electronic Commerce, ICEC '98, Seoul 1998.
Christof Weinhardt/Claudia Schmidt Internet-Provider Internet-Provider erbringen Dienstleistungen für Unternehmen oder Konsumenten, die das Internet nutzen oder selbst darin vertreten sein wollen. Man unterscheidet Internet Service Provider (Dienstleister, die ihren Kunden den Internetzugang ermöglichen) und Internet Presence Provider (Dienstleister, die auf permanent mit dem Internet verbundenen Computern, sog. Hosts oder - » W W W Servern, Inhalte einer Internetpräsenz bereitstellen). Interviewer-Bias Marktforschung Intranet Wird die Internet-Technologie im Unternehmen eingesetzt, spricht man von einem Intranet, einem betrieblichen Netzwerk auf der Basis der InternetProtokolle, -Standards und -Dienste. Analog zur Definition des Internet zählen die Anwender im Betrieb zu einem Intranet. Ein Intranet nutzt häufig eine bereits im Unternehmen vorhandene physikalische Vernetzung, beispielsweise die eines LAN (Local Area Network) innerhalb einer Betriebsstätte. Ähnlich wie das Internet kann ein Intranet in Teilnetze gegliedert sein, die sich dem Anwender als ein großes logisches betriebs- oder unternehmensweites Computernetzwerk präsentieren. Diese Teilnetze können über ein WAN (Wide Area Network) oder 386
Intranet GAN (Global Area Network) miteinander verbunden sein. Definierende Merkmale eines Intranet, im Vergleich zu anderen betrieblichen Netzwerken, sind die Nutzung des Protokolls TCP/IP, das den Transport und die Vermittlung von Daten in einem Netzwerk übernimmt, aber vor allem auch die typischen Dienste (-> E-Mail, News, FTP, Telnet, WWW), die auf diesem Protokoll aufsetzen. Diese Dienste ermöglichen bspw. das Kopieren von Dateien, den Versand elektronischer Post oder das Sichten multimedialer Informationsangebote auf den Rechnern, die im Intranet vernetzt sind (s.a. -» Internet). Im Gegensatz zum Internet ist ein Intranet aus Sicherheitsgründen nicht offen zugänglich, sondern geschlossenen Benutzerkreisen, z.B. allen oder ausgewählten Mitarbeitern/Mitarbeiterinnen eines Unternehmens, vorbehalten. Um eine Kommunikation zwischen den betrieblichen Anwendern und den Anwendern im Internet zu ermöglichen, kann ein Intranet mit dem Internet verbunden werden. Auf diese Weise können betriebliche Anwender nicht nur untereinander, sondern auch mit privaten Anwendern im Internet oder Intranet-Anwendern in anderen Unternehmen kommunizieren. In diesem Fall wird auch der Begriff Extranet verwendet. Mit der Basis-Technologie des Internet lassen sich in einem Intranet (unternehmensweite) WWW-Informationssysteme implementieren, die jedoch aufgrund systemimmanenter Schwächen des W W W nur bedingt geeignet sind, betriebliche Anforderungen zu erfüllen. Erweiterungen der Basistechnologie zielen darauf ab, diese Mängel zu beheben. Das CGI (Common Gateway Interface) ist ein Standard zum Aufruf externer Programme über das WWW. Es ist damit prinzipiell geeignet, den WWW-Dienst mit betrieblichen Anwendungssystemen
Intranet zu integrieren. Bspw. lassen sich datenbankbasierte elektronische Produktkataloge a u f b a u e n und gezielt für A b f r a g e n aus dem Intranet, aber auch dem Internet öffnen. N e b e n Sicherheitsmängeln des CGI ist der wenig effiziente Datentransfer für A n w e n d u n g e n mit hohen Transaktionsvolumina von Nachteil. Die beschränkte Funktionalität des W W W erschwert die Entwicklung dialogorientierter A n w e n d u n g s s y s t e m e . Programmier- und Skriptsprachen w i e Java, JavaScript, Perl oder P H P erweitern die Funktionalität. Java ist eine objektorientierte, plattformunabhängige Programmiersprache, die sich "nahtlos" in W W W Seiten integrieren lässt. J a v a - P r o g r a m m e lassen sich clientseitig in F o r m sogenannter Applets oder serverseitig ausführen. Für kleine Berechnungen oder Plausibilitätsprüfungen bei Datenbankabfragen eignet sich auch JavaScript. Nachteilig ist, dass die verteilten Verarbeitungskapazitäten einer Client-ServerArchitektur schlecht genutzt werden, wenn P r o g r a m m e überwiegend serverseitig ausgeführt werden. Das "Abhören" der grundsätzlich im Klartext erfolgenden K o m m u n i k a t i o n ist durch den Einsatz zusätzlicher Sicherheits-Infrastrukturen zu verhindern. Dabei handelt es sich im wesentlichen um (kryptografische) Verfahren, um die Authentizität von Sendern und E m p f ä n g e r n sowie die Integrität und Vertraulichkeit der übertragenen Daten zu gewährleisten. In ->• H T M L beschriebene WWWD o k u m e n t e sind nur schwach strukturiert. Hieraus resultiert, das sie sich einer automatischen Verarbeitung nur bedingt erschließen (bspw. über InformationRetrieval-Routinen von Suchmaschinen) und daher primär von M e n s c h e n verarbeitet werden. Die extensible M a r k u p Language (-> X M L ) ist eine Metasprache, mit der anwendungs- und branchenspezifische D o k u m e n t e n t y p e n definiert werden können. Derartige D o c u m e n t T y p e Definitions haben das Potenzial, H T M L als
Intranet Beschreibungssprache des W W W mittelfristig zumindest zu ergänzen und damit D o k u m e n t e einer weitergehenden automatischen Verarbeitung und insbesondere einer intelligenteren Suche z u z u f ü h r e n . A n w e n d u n g s s y s t e m e , die auf der Basis eines Intranet zu implementieren sind, können im folgenden nur exemplarisch dargestellt werden. Typische Systeme nutzen das Netzwerk als Frontend zu (konventionellen) betrieblichen A n w e n dungssystemen, zur innerbetrieblichen Informationsverbreitung und -suche sowie zur Unterstützung von Gruppenarbeit (s.a. Gruppenkonzepte). Die Client-Server-Architektur der Internet-Technologie ermöglicht es, die Benutzungsschnittstellen betrieblicher Anwendungssysteme von ihrer Funktionalität und Datenhaltung z u trennen. Daten und Funktionen können plattformübergreifend, d.h. über verschiedene Rechnerarten und -betriebssysteme h i n w e g auf d e m Bildschirm eines Benutzers zusammengeführt werden. Vorhandene, im Gegensatz zu intranet-basierten A n w e n d u n gen als "konventionell" zu bezeichnende A n w e n d u n g s s y s t e m e (z.B. Datenbanken) können praktisch an j e d e m Arbeitsplatz eines Intranet, ohne vorherige a u f w ä n d i g e benutzerindividuelle Installationen bereit gestellt werden. Programmierte, bspw. auf Java b e r u h e n d e A n w e n d u n g e n sind auf unterschiedlichsten Plattformen lauffähig. Diese technische Flexibilität lässt sich über U n t e r n e h m e n s g r e n z e n hinweg für ein Application Outsourcing (-> Outsourcing) nutzen. Beispielsweise verfügen m e h r u n d mehr betriebswirtschaftliche Standardsoftwaresysteme (SAP R/3 u.ä.) über Schnittstellen zum Internet. Geschäftsprozesse k ö n n e n somit mit einem -» W W W - B r o w s e r über das Internet angestoßen und ausgeführt werden. Dies ermöglicht es insbesondere kleineren und mittleren U n t e r n e h m e n , -> Standardsoftware ohne eigene a u f w ä n dige Installationen einzusetzen.
387
Intranet Die Verbreitung von und die Recherche nach Informationen kann im Unternehmen gefordert werden, wenn innerbetriebliche WWW-Server ( - • Web-Server) eingerichtet werden, von denen zentral bereitgestellte Informationen an jedem Arbeitsplatz im Unternehmen abgerufen, bearbeitet oder ausgedruckt werden können. Die Informationsrecherche wird durch die üblichen Navigationsmöglichkeiten des WWW-Dienstes, durch Verzeichnisse und Suchmaschinen, die über Dokumentenretrievalroutinen Stichwortkataloge erzeugen, ermöglicht. Betriebliche Arbeitsgruppen, Projektteams etc. bedürfen der Koordination, um arbeitsteilige Prozesse zu bewältigen. Mit der Basistechnologie des Internet und den Erweiterungen lassen sich einfache Groupware-Systeme aufbauen, welche die Koordination im engeren Sinne (Festlegen der Reihenfolge und Synchronisation von Prozessen, Aufgabenzuordnung, Ressourcenallokation), Gruppenentscheidungen, die Kommunikation zwischen den Beteiligten sowie den Aufbau und die Nutzung gemeinsamer Daten- und Wissensbestände unterstützen. Über E-Mail lassen sich Mitteilungen schnell und kostengünstig kommunizieren, elektronische Dokumente einfach verteilen und Nachrichten archivieren. Arbeitsgruppen können über den News-Dienst elektronische Diskussionsforen nutzen, um gruppenoder projektspezifische Entscheidungen vorzubereiten oder zu treffen. Über den WWW-Dienst lassen sich interne Projektpläne und -protokolle im Team verbreiten. Der Fortschritt der Arbeitsprozesse und die Projektergebnisse können im Unternehmen bekannt gemacht werden. Werkzeuge und Routinen für das "elektronische Publizieren" ermöglichen es allen Beteiligten, teilweise schon aus gängigen Office-Anwendungen heraus, Informationen auch ohne weitergehende Kenntnisse der Sprachen und Protokolle der Internet-Technologie zu verbreiten.
388
Intranet Die beschriebenen Intranet-basierten Systeme lassen Kosten-/Nutzenpotenziale erkennen. Die offenen, weitgehend herstellerunabhängigen Standards der Internet-Technologie begünstigen eine polypolistische Angebotsstruktur und damit tendenziell günstigere Beschaffungspreise im Vergleich zu proprietären Technologien. Die vergleichsweise hohe Betriebssicherheit der Standards und Produkte senkt die Kosten, die unausgereifte Programme verursachen. Der zentrale, einfach zu bedienende WWW-Dienst erspart aufgrund seiner einfachen Bedienung Schulungskosten. Die plattformübergreifende Verfügbarkeit intranetbasierter —> Anwendungssysteme kann Softwareentwicklungskosten ("write once, run multiple") ebenso senken wie Wartungs- und Installationskosten. Eine wohlorganisierte dezentrale Informationsverarbeitung kann einen Produktivitätsschub auslösen. Da die InternetStandards weltweit eingesetzt werden, steigt bei einem betrieblichen Einsatz die Kommunikationsfähigkeit der Unternehmen. Schließlich ermöglicht ein Intranet neuartige Organisationsformen (z.B. interne elektronische Märkte, virtuelle Teams) im Unternehmen. Der unternehmensübergreifende Austausch strukturierter Daten (-» Electronic Data Interchange, EDI), bspw. um Zuliefer- und Abnehmerbetriebe im Rahmen eines -> Supply-ChainManagement miteinander zu verbinden, kann in Extranets erleichtert werden. Beim "Internet-EDI" werden InternetDienste eingesetzt, um EDI-Nachrichten zu übertragen, was grosse Teilnehmerkreise erschließt. Weh-EDI ist ein kostengünstiges Verfahren, das es dem anwendenden Unternehmen erlaubt, EDI-Nachrichten über einen Browser zu senden und zu empfangen, ohne hierfür Schnittstellen zur betrieblichen Datenverarbeitung schaffen zu müssen. Der Kostenersparnis steht der Aufwand einer manuellen Verarbeitung der Nachrichten gegenüber, so
Investitionsmanagement
Intranet dass sich Web-EDI nur für eine geringe Anzahl an Nachrichten eignet. Literatur: Bichler, M.: A u f b a u untemehmensweiter WWW-Informationssysteme, Braunschweig, Wiesbaden 1997; Bogaschewsky, R./Kracke, U.: Intemet-Intranet-Extranet. Strategische W a f f e n für die Beschaffung, Gernsbach 1999; Hasenkamp, U./Syring, M.: C S C W (Computer Supported Cooperative Work) in Organisationen Grundlagen und Probleme, in: Hasenkamp, U./Kim, S./Syring, M. (Hrsg.): C S C W - Computer Supported Cooperative Work. Informationssysteme für dezentralisierte Unternehmensstrukturen, Bonn u.a. 1994.
Uwe Hoppe Investitionsmanagement 1. Einführung Folgt man dem instrumentalen Verständnis der Unternehmung als Mittel der Einkommenserzielung für seine Eigentümer, so ist es im allgemeinen erforderlich, dass die Unternehmung Vorleistungen in der Erwartung (vorteilhafter) Gegenleistungen erbringt. Vorleistungen stellen aus Sicht der Unternehmung Auszahlungen dar, Gegenleistungen, die erst im Zeitablauf anfallen, Einzahlungen. Dieser stilisierte Verlauf kennzeichnet den zahlungsInvestitionsbegriff. Bei stromorientierten dem Investitionsobjekt kann es sich beispielsweise um eine Maschine, einen Geschäftsbereich oder gar um ein ganzes Unternehmen handeln, verstanden als die Gesamtheit aller Investitionsobjekte. Die Aufgabe, den Investitionsvorgang (Investment Process bzw. Capital Budgeting Process) zielkonform von der Wiege bis zur Bahre zu lenken, ist genuin unternehmerischer Natur und kann deshalb als Investitionsmanagement bezeichnet werden. Diese prozessuale Sichtweise des Investitionsbereichs - nach Virtanen sei Honko der Protagonist gewesen - ist zumindest seit rund 40 Jahren bekannt und hat überwiegend Eingang in deutschsprachige Investitionslehrbücher gefunden. Die Koordination der dabei anfallenden Entscheidungen wird als Aufgabenbereich des Investitionscontrollings angesehen. Die nachfolgenden Ausfuhrungen
gehen im wesentlichen auf das Management von Realinvestitionen ein. Bei Finanzinvestitionen, deren Behandlung nicht Gegenstand dieses Beitrags ist, werden zur rationalen Bewältigung vor allem Methoden des (finanzwirtschaftlichen) Portfoliomanagements empfohlen. 2. Aufgaben und Instrumente Einzelne Aufgaben und der Einsatz der Instrumente des Investitionsmanagements richten sich nach der jeweiligen Phase. Der idealtypische Verlauf, welcher der deskriptiven -> Entscheidungstheorie entlehnt ist, sei im folgenden anhand von vier Phasen skizziert: • • • •
Entdeckung von Investitionsgelegenheiten, der Ermittlung von Investitionsplänen, der Bewertung und Auswahl von Investitionsplänen sowie der Umsetzung und Kontrolle von Investitionsobjekten.
1. Entdeckung von Investitionsgelegenheiten: Bevor das Wagnis eingegangen wird, (bestenfalls) sichere Auszahlungen gegen normalerweise unsichere Einzahlungen einzutauschen, sind zuerst Investitionsgelegenheiten zu entdecken. Das Auffinden (bzw. Erfinden) von Ideen, die knappe Bedürfnisse der Nachfrager zu befriedigen versprechen, ist eine Kompetenz, die Eigentümer, sofern sie die Unternehmung nicht selbst leiten, an das Management aufgrund dessen Wissensvorsprüngen delegieren. Eine wissenschaftlich fundierte methodische Unterstützung der Suche ist bei innovativen Ideen (—• Innovation) relativ gering (z.B. Früherkennung) ausgeprägt, bei imitativen hingegen stärker (z.B. —• Marktforschung). Sind sehr viele Investitionsideen vorhanden, die in dieser frühen Phase zumeist nicht ausgearbeitet sind, bietet sich eine Vorauswahl über Filterkriterien wie technologische, ökologische, politisch-rechtliche, unter-
389
Investitionsmanagement nehmensstrategische, ressourcenbezogene Rahmenbedingungen an. Dieses Vorgehen ist heuristischer und pragmatischer Natur, wobei der Anwender aufgrund mangelnder methodischer Raffinesse nicht vor Fehlschlüssen gefeit ist, aber im Gegenzug erheblich Komplexität reduzieren kann. 2. Ermittlung von Investitionsplänen: Für bedeutsame Investitionsideen, die einer tiefgehenderen Beurteilung würdig erscheinen, sollte in einem zweiten Schritt eine umfassende Datenrecherche erfolgen. Eine Analyse eigener Stärken und Schwächen, sowie äußerer Chancen und Bedrohungen (-> SWOT-Analyse) ist als gedankliches Gerüst hilfreich. Zur Strukturierung der internen Erfolgspotenziale könnten etwa Betrachtungsweisen der ressourcenorientierten Untemehmensflihrung (Resource-based View, Ressourcentheorie) herangezogen werden. Für eine grobe Abschätzung der Auszahlungen eines Investitionsobjekts im Zeitablauf kann das Erfahrungskurvenkonzept (-> Erfahrungskurve) verwendet werden. Erste Anhaltspunkte für externe Erfolgschancen lassen sich nach erfolgter Marktabgrenzung mit Hilfe der Produkt-Markt-Matrizen von Ansoff bzw. Abell sowie mit diversen Portfolio- und Produktlebenszyklus-Analysen ermitteln. Für eine wettbewerbliche Analyse könnte das Konzept von Porter herangezogen werden. Es unterscheidet ausgehend von einer industrieökonomischen Perspektive fünf Wettbewerbskräfte (Lieferanten, Neue Anbieter, Abnehmer, Ersatzprodukte, Wettbewerb innerhalb der Branche) und leitet -> Normstrategien ab (Kosten- bzw. Qualitätsführerschaft auf dem Gesamt- bzw. Teilmarkt). Prognosen über künftige Zahlungsströme werden durch die oben genannte Methodenauswahl direkt nicht erzeugt. Der Nutzen strategischer Pia390
Investitionsmanagement nungsinstrumente kann gleichwohl darin bestehen, Planung und Prognose durch eine Vorstrukturierung zu erleichtem. Zum einen ist eine Prognose - ohne auf einzelne Techniken einzugehen - sehr unsicherheitsbehaftet, da viele externe und interne Faktoren auf sie einwirken. Zum anderen kann die Zukunft entscheidungslogisch noch gar nicht bekannt sein, da Menschen nicht wissen können, über welches Wissen sie künftig verfügen werden. Da letztlich aber zukünftige Ereignisse bewertet werden müssen, ist eine Prognose unerlässlich. Die prognostizierten Daten bestimmen die Planungen, indem sie Umweltzustände aufzeigen, innerhalb derer das Management mit geeigneten Handlungsmöglichkeiten (re-)agieren kann. Auch hier dürfte die Anzahl denkbarer Handlungsmöglichkeiten so groß sein, dass eine Reduzierung auf einige Handlungsalternativen angezeigt sein wird. Die in unterschiedlichen Umweltzuständen im Zeitablauf zu ergreifenden Handlungsalternativen bilden in ihrer Gesamtheit den (mehrwertigen) Investitionsplan. Es kann sinnvoll sein, einige alternative Investitionspläne zu erstellen, da die beste Lösung wohl a priori nicht durch genaues Hinsehen bzw. Dominanzkriterien ermittelt werden kann. 3. Bewertung und Auswahl von Investitionsplänen: Damit die zahlungsstrombasierten Investitionspläne beurteilt werden können, bedarf es einer finanziellen Zielfunktion. Akzeptiert man, dass hauptsächlich Eigentümer Empfänger unsicherer Residualeinkommen sind, sollte das Management deren Wohlstand (-» Shareholder Value) mehren. Aus der Finanzierungstheorie ist bekannt, dass unter bestimmten Bedingungen die Marktwertmaximierung des Eigenkapitals diese Anforderung erfüllt. Es ist indes ein (technischer) Vorteil,
Investitionsmanagement dass nur ein Ziel explizit betrachtet zu werden braucht, da bei mehrfacher Zielsetzung die Bewertungsmethodik z.B. durch -> Nutzwertanalysen, Analytic Hierarchy Process usw. ergänzt werden müsste. Bei Einräumung mehrerer Ziele, soweit sie nicht substituierbar sind, dürften außerdem die Koordinationskosten von Gruppenentscheidungen steigen. Interessendivergenzen zwischen Eigner und Management wären zumindest nicht direkt durch die Zielfunktion hervorgerufen, wenn das Management durch interne und externe Anreize zur Zielerfüllung angehalten würde. Die aus dem Investitionsplan abgeleiteten Zahlungsströme sind durch eine Entscheidungsrechnung ex-ante zu bewerten. Hierfür werden vornehmlich Verfahren der Investitionsrechnung vorgeschlagen. Abstammend vom theoretischen Ideal des vollständigen Finanzplans als Totalmodell sollte hauptsächlich mehrperiodigen (dynamischen) Vermögenswertmethoden wie der Kapitalwertmethode als Partialmodell der Vorzug gegeben werden. Eine im Rahmen der wertorientierten Unternehmensfiihrung häufig diskutierte Konkretisierung der Kapitalwertmethode stellen die verschiedenen Unterarten der Discounted Cash-flowMethoden (-» Discounted Cash-flowVerfahren) dar. Es kann unterschieden werden zwischen Equity- und EntityAnsatz. Letzterem können die Adjusted Present Value-, die Weighted Average Cost of Capital(-> Kapitalkosten), sowie die Capital Cash-flow- (bzw. Total Cash-flow-) Methode zugeordnet werden (-» Investitionsrechnung). Welche der Methoden bzw. Ansätze unter gegebenen Bedingungen als leistungsfähig angesehen werden kann, wird intensiv diskutiert. Mehrperiodige Renditemethoden wie der interne Zinsfuß (oder jüngst der
Investitionsmanagement ->• CFROI) erfreuen sich in der Praxis trotz eindeutiger Vorbehalte in der wissenschaftlichen Literatur großer Beliebtheit. Der vielfältigen Probleme sollte sich der Anwender aber bewusst sein. Einperiodige (statische) Verfahren wie z.B. die Gesamt- bzw. Eigenkapitalrendite geben für mehrperiodige Investitionsentscheidungen zumeist ein verzerrtes Signal der Zielerfullung. Um das Signal wieder zu entzerren, sind Rückrechnungen notwendig, ohne aber weitergehende Informationen zu erhalten. Nachdem der Vorteilhaftigkeitsvergleich durchgeführt worden ist, werden zur Implementierung der Investitionsobjekte Mittel aufgrund der Vorziehenswürdigkeit, d.h. der Rangfolge der Kapitalwerte, zugewiesen. Die übriggebliebenen Investitionspläne werden entweder zur Überarbeitung noch einmal zurückgestellt oder nicht mehr weiter verfolgt. 4. Umsetzung und Kontrolle von Investitionsobjekten: Das zweckbewusste Handeln gemäß den ausgewählten Investitionsplänen, die Realisierung, ist oftmals kein einmaliger Impuls, durch den sich das Investitionsobjekt von selbst in eine Geldmaschine verwandelt. Vielmehr ist es eine unternehmerische Leistung, zukünftige Zahlungsströme permanent so zu steuern, dass auch bei verändertem Informationsstand im Zeitablauf dem Ziel Marktwertmaximierung gefolgt wird. Als Unterstützung zur Messung der Zielerreichung bieten sich Entscheidungsnachrechnungen an. Diese sollten auf dem gleichen methodischen Fundament, nämlich der Kapitalwertmethode, wie die Entscheidungsrechnungen selbst, fußen, um schließlich Planung, Entscheidung und Kontrolle zu verbinden. Vorgeschlagen wird eine Vielzahl von Konzepten (Residualgewinnkonzepte, CFROI, usw.). Wie eine periodische Ver391
Investitionsmanagement änderung von Kapitalwerten erfasst werden kann, soll im folgenden kurz aufgezeigt werden. In der deutschsprachigen Literatur wurde in den sechziger Jahren diese Thematik unter dem Titel ökonomischer Gewinn (präziser: kapitaltheoretischer Gewinn) kontrovers diskutiert. Der kapitaltheoretische Gewinn erlebt derzeit im Zuge der Shareholder Value-Orientierung eine Renaissance. Folgende Konkretisierung, die als Mixed Economic Income bezeichnet wird, bietet sich unter Unsicherheit an (1): KW I | , 1 -KW, l l; , 1 + EN l t ' 1 -EL [ ; 1 , mit: KW,1'1
EN'"'
Kapitalwert auf Basis des Informationsstandes [t] im Zeitpunkt t; realisierte Entnahme im Zeitpunkt t;
EL1,11
realisierte Einlage im Zeitpunkt t.
Wird KW, auf der gleichen Planungsgrundlage wie in [t-1] ermittelt, entspricht der Gewinn dem Diskontierungssatz multipliziert mit dem Kapitalwert der Vorperiode. Dies ist die bekanntere Ausprägung des kapitaltheoretischen Gewinns und wird als Ex-ante-Gewinn (Ideal Profit, Pure Profit) bezeichnet. Der Ex-anteGewinn kann äquivalent auch auf folgende Weise definiert werden (2): KW,"-11 - KW,1!;11 + EN',"" - EU,'-" . Haben sich jedoch Abweichungen von Plan und Ist bzw. revidiertem Plan ergeben, macht der Gewinn gem. (1) die Veränderungen sichtbar, die durch unterschiedliche Informationsstände hervorgerufen worden sind. Durch eine Dekomposition dieses Gewinns können die Effekte in einer Gewinn- und Verlustrechnung auf kapitaltheoretischer Basis abgebildet werden. Als ein Gewinnbestandteil von 392
Investitionsmanagement (1) könnte der sogenannte Zeiteffekt angesehen werden. Wird er durch den Ex-ante-Gewinn gem. (2) operationalisiert, wird angezeigt, wie sich der Kapitalwert planmäßig, also auf Basis des Informationsstandes [t-1], verzinst hat. Der verbleibende Teil des kapitaltheoretischen Gewinns gem. (1) kann durch einen Informationsund Aktionseffekt erklärt werden. Der Informationseffekt stellt dar, welche Veränderungen sich fiktiv ergeben hätten, wenn das Management seine in [t-1] erwogenen Handlungsalternativen weiter verfolgt hätte. Anhand dieser Aufspaltung soll gezeigt werden, welcher Teil des kapitaltheoretischen Gewinns der Periode t vom Management aus Sicht von [t-1] unbeeinflussbar gewesen ist. Der Aktionseffekt bildet den beeinflussbaren Teil ab und indiziert, wie das Management auf veränderte Rahmenbedingungen zu reagieren gedenkt. Da die bloße Angabe des Informations- und Aktionseffekts etwas grob ist, könnten beide Effekte jeweils noch in eine Investitions- und Finanzierungsebene aufgespalten werden. Es böte sich an, auf einer nachfolgenden Ebene werthaltige Effekte wie z.B. Risiko-, Umsatzerlös-, Zinssatz- und Steueränderungen zu analysieren. Die Länge der Umsetzungsphase kann ex-ante durch einen Kalkül zur Bestimmung der optimalen Nutzungsdauer bzw. des optimalen Ersatzzeitpunkts errechnet werden. Dieses zum Standardrepertoire der Investitionsrechnung gehörende Kalkül fußt auf der Annahme eines gegebenen Informationsstandes. Im Zeitablauf kann sich aber durch neue Informationsstände die ex-ante optimierte Phasenlänge ändern, so dass eine Abschätzung zu Investitionsbeginn schwierig, jedoch auch nicht als unbedingt notwendig erscheint, da im Regelfall eine
Investitionsmanagement Entscheidung über den optimalen Zeitraum nicht zu Investitionsbeginn erfolgen muss. Der dargestellte idealtypische Phasenverlauf ist nicht so zu verstehen, als dass die Abfolge realiter zwangsläufig so sein müsste. Faktisch können Rückkoppelungen zwischen den Phasen entstehen, z.B. weil das Nachdenken über unterschiedliche Umweltzustände neue Ideen hervorbringen kann. Einzelne Phasen können dann mehrmals und in geänderter Reihenfolge ablaufen. Ebenso können manche Phasen bei nahezu gleichen Umweltbedingungen übersprungen werden, wenn es sich um eine wiederholte Investition handelt. Der Prozess ist schließlich in derjenigen Phase abgeschlossen, in der eine weitere Vorteilhafligkeit nicht mehr aussichtsreich scheint. Manche Literaturbeiträge könnten den Eindruck erwecken, dass sich die Hauptaufgabe des Investitionsmanagements in der methodisch korrekten Anwendung der Investitionsrechnung erschöpfte. Die Thematik ist freilich wichtig, denn empirische Belege sind Legion, dass Praktikermethoden (Amortisationsrechnung, statische Verfahren usw.) trotz vielfältiger Kritik von Seiten der Wissenschaft überlebt haben. Den Erfolg einer Investition aber hauptsächlich der richtigen Bewertungsmethodik zuzuschreiben, dürfte einer eklektischen Sichtweise entspringen. Fehler, die die Vorteilhafligkeit reduzieren bzw. verschwinden lassen, können in allen Phasen auftreten. Allerdings muss offen bleiben, ob Fehler tendenziell über alle Phasen gleich verteilt sind, und wie das Ausmaß der Fehler in den einzelnen Phasen finanziell zu bewerten ist. Literatur: Brealey, R. A./Myers, St. C.: Principles of Corporate Finance, 6. Aufl., New York 1999; Bühner, R./Sulzbach, K. (Hrsg.): Wertorientierte Steuerungs- und Führungssysteme. Shareholder Value in der Praxis, Stuttgart 1999; Drakarczyk, J.: Unternehmensbewertung, 2. Aufl., München 1998; Drukarczyk, J./Schüler, A.: Approaches to Value Based Performance Measurement, Regensburger Diskussionsbeiträge zur Wirtschaftswis-
Investitionsrechnung senschaft, Nr. 312, Regensburg 1999, erscheint in: Arnold, G./Davies, M. (Hrsg.), Value Based Management, Chichester 2000; Perridon, L./ Steiner, M.: Finanzwirtschaft der Unternehmung, 10. Aufl., München 1999.
Sebastian Lobe Investitionsprogrammentscheidungen -» Investitionsrechnung Investitionsrechnung 1. Überblick Investitionsrechnungen sind Kalküle die der Beurteilung der finanziellen Konsequenzen von langfristigen unternehmerischen Kapitalbindungsentscheidungen dienen. Das Kapital kann dabei sowohl in Sach- als auch in Finanzanlagen gebunden werden. Investitionsrechnungen konzentrieren sich auf die quantifizierbaren Faktoren der Investitionsentscheidung. Neben der Entscheidung für ein Investitionsobjekt (Auswahlentscheidung) können Investitionskalküle auch bei der Ermittlung der optimalen Nutzungsdauer und des optimalen Ersatzzeitpunktes zum Einsatz kommen. Eine Systematisierung der Rechenverfahren kann nach unterschiedlichen Kriterien erfolgen. Nach der Berücksichtigung der Zeitpräferenz des Geldes kann in statische und dynamische Investitionsrechenverfahren unterschieden werden. Die statischen Verfahren berücksichtigen den Zeitfaktor nicht oder nur unvollkommen durch den Ansatz von Aufwands- und Ertragsgrößen (bzw. Kosten und Leistungen), während bei dynamischen Verfahren der Zeitpunkt des Geldzu- oder -abflusses durch die Verwendung von diskontierten Ein- und Auszahlungen (Cash-flows) erfasst wird. Nach der Berücksichtigung der Unsicherheit der Investitionsrückflüsse kann in Verfahren unter Annahme von Sicherheit und in Kalküle unter Berücksichtigung mehrwertiger Erwartungen (Investitionsrechnung unter Unsicherheit) eingeteilt werden. Daneben können die Investitionsrechnungen noch danach unterschieden 393
Investitionsrechnung
Investitionsrechnung werden ob sie zur Beurteilung von Einzelinvestitionen oder zur Bewertung von Investitions- und Finanzierungsprogrammen (z.B. Dean-Modell oder Lineare Programmierungsansätze der Investitionsrechnung) geeignet sind. 2. Statische Investitionsrechenverfahren: Bei ihnen erfolgt die Beurteilung von Investitionsprojekten anhand einer einzigen Periode, weshalb sie auch als Einperiodenmodelle bezeichnet werden. Bei dieser Periode kann es sich um eine reale handeln, die für das Projekt repräsentativ ist, oder um eine fiktive, für die Durchschnittswerte aus den schwankenden Werten der Gesamtlaufzeit des Projekts ermittelt werden. Die Rechnungsgrößen der statischen Verfahren sind periodisierte Erfolgsgrößen (Kosten, Erlöse, Gewinne) und nicht Zahlungsgrößen (Einzahlungen, Auszahlungen, Cash-flows) wie bei den dynamischen Rechnungen. Zu den statischen Verfahren zählen die Kostenvergleichsrechnung, die Gewinnvergleichsrechnung, die Rentabilitätsvergleichsrechnung und die Amortisationsrechnung. •
Die Kostenvergleichsrechnung versucht über den Vergleich der Kosten von Alternativinvestitionen mit identischen Leistungsmerkmalen diejenige Investition zu bestimmen, die die geringsten Kosten verursacht.
•
Können den Projekten unterschiedliche Erlöse zugeordnet werden so ist das Gewinnvergleichsverfahren angebracht, bei dem der durchschnittlich erzielte Gewinn das Entscheidungskriterium darstellt.
•
Bei der Rentabilitätsrechnung (-* Return on Investment) dient das Verhältnis von durchschnittlichem Periodengewinn und durchschnittlichem Kapitaleinsatz als Beurteilungsmaßstab. Als Entscheidungskriterium kann eine Mindestverzinsung, z.B. in Form der Kapitalkosten die alle Projekte mindestens erbringen müssen, dienen.
394
•
Die Amortisationsrechnung (Pay-offRechnung) ermittelt den Zeitraum (Wiedergewinnungs- oder Amortisationszeit) innerhalb dessen das eingesetzte Kapital voraussichtlich wieder zurückgewonnen wird. Im Rahmen der Durchschnittsrechnung geschieht dies durch Division des Kapitaleinsatzes durch den durchschnittlichen Rückfluss pro Periode. Bei der Kumulationsrechnung werden die effektiven jährlichen Rückflüsse so lange aufaddiert, bis sie die Höhe des Kapitaleinsatzes erreicht haben. Die Amortisationsrechnung dient primär der Beurteilung des Kapitalverlustrisikos und nicht der Ermittlung der Wirtschaftlichkeit. Am vorteilhaftesten ist das Projekt mit der kürzesten Amortisationszeit. Aufwendungen und Erträge nach der Wiedergewinnungszeit werden nicht mehr berücksichtigt. Das Verfahren ist deshalb eher in Ergänzung zu Wirtschaftlichkeitsrechnungen zu sehen.
3. Klassische Dynamische Investitionsrechnungfür Einzelprojekte: Dynamische Methoden erfassen die Einund Auszahlungen über die gesamte Nutzungsdauer des Projektes. Der Zeitwert des Geldes wird durch Diskontierung der Zahlungen mit einem sachgerechten Kalkulationszinsfuß auf den Entscheidungszeitpunkt berücksichtigt. Frühere Einzahlungen sind somit günstiger als spätere, während es bei Auszahlungen sich umgekehrt verhält. Durch die Diskontierung mit dem Kalkulationszinsfuß werden unterschiedliche Zahlungszeitpunkte vergleichbar. •
Bei der Kapitalwertmethode gilt eine Investition als vorteilhaft, wenn der Barwert (Present Value) aller zukünftigen Ein- und Auszahlungen die Anschaffungsauszahlung übersteigt. PresentValuePV= £ (E t - A t ) ( l + i f l
Investitionsrechnung Die Investition ist vorteilhaft, wenn sich ein Kapitalwert (C 0 = P - Io) größer Null ergibt, also gilt: Die Investitionsanschaffungsausgabe ist kleiner als der Present Value (I 0 < PV). Der Kapitalwert stellt den Betrag dar, der über die Amortisation und Verzinsung des eingesetzten Kapitals hinaus erwirtschaftet wird. •
•
Die Interne Zinsfuß Methode baut auf der Kapitalwertmethode auf Ermittelt wird der Interne Zinsfuß (IZ) i der bei der Diskontierung der Ein- und Auszahlungen zu einem Kapitalwert von Null führt, also PV = I n bewirkt. Als vorteilhaft gilt ein Investitionsprojekt wenn der Interne Zinsfuß eine vorgegebene Mindestverzinsung (Hurdle Rate) übersteigt. Beim Vergleich mehrerer Investitionsalternativen ist die Interne Zinsfuß Methode problematisch, da unterstellt wird, dass sich Einzahlungsüberschüsse zum jeweils individuellen IZ reinvestieren lassen, was unrealistisch ist. Ergebnisverzerrungen können daher insbesondere dann auftreten, wenn es sich um Projekte mit zeitlich stark divergierenden Einzahlungsüberschüssen handelt. Bei der Annuitätenmethode wird der Kapitalwert einer Investition verrentet, d.h. in einen gleichbleibenden Betrag (Annuität) umgewandelt, der neben Tilgung und Verzinsung in jeder Periode zur Verfugung steht und auch als entnahmefahiger Betrag interpretiert werden kann. Die Ermittlung der Annuität erfolgt durch Multiplikation des Kapitalwertes mit dem Annuitätenfaktor a : Annuität A = C 0 • a (l + i)"i mit: a = — (l+i)n-1 Die Investition gilt als vorteilhaft, wenn die Annuität A größer oder gleich Null ist.
Investitionsrechnung 4. Discounted Cash-flow Verfahren: Die neuerdings sehr stark in der Praxis im Zusammenhang mit dem -> Shareholder Value Gedanken zum Einsatz kommenden -> Discounted Cash-flow (DCF)Verfahren bauen auf den klassischen Barwertmethoden auf. An die Stelle der Einzahlungsüberschüsse treten unterschiedlich definierte Cash-flows. So sind bei dem vielfach verwendeten Free Cashflow (FCF) bereits gewisse Reinvestitionen abgezogen. Werden die Cash-flows vor Zinsen genommen so erfolgt eine Diskontierung mit den gewogenen Gesamtkapitalkosten, den sogenannten Weighted Average Cost of Capital (WACC). Finden Cash-flows nach Abzug der Fremdkapitalzinsen Verwendung, so ist nur mit den Eigenkapitalkosten zu diskontieren. In beiden Fällen werden die Eigenkapitalkosten über das —> Capital Asset Pricing Model (CAPM) bestimmt. Es werden hierbei in Abhängigkeit vom Investitionsrisiko linear steigende Eigenkapitalkosten unterstellt. Somit erfolgt eine Berücksichtigung des Risikos der Investition über den Kalkulationszinsfuß. 5. Endwertverfahren: Im Gegensatz zu den vorstehenden Verfahren, die einen Gegenwartswert PV berechnen, stellen die Endwertverfahren auf einen Vermögensendwert am Planungshorizont ab. Gespaltene Soll- und Habenzinsfüße können dabei bei zwischenzeitlicher Kapitalaufnahme und Kapitalanlage leichter Berücksichtigung finden. Bei der Vermögensendwertmethode wird ein Vermögensendwert durch Aufzinsung aller Zahlungen auf das Ende des Planungshorizonts ermittelt. Eine Investition ist vorteilhaft, wenn sich ein positiver Endwert ergibt, da dann eine über dem Sollzinssatz (Kalkulationszinsfuß für die Kapitalaufnahme) liegende Investitionsrendite erzielt wird. Der Internen Zinsfußmethode bei den Barwertverfahren entspricht bei den Endwertverfahren die Sollzinssatzmethode. Eine weitere Methode stellt die Anwendung einer Voll-
395
Investitionsrechnung ständigen Finanzplanung VOFI mit Aufzinsung auf den Planungshorizont dar, die sowohl für Einzelprojekte als auch für Programmentscheidungen geeignet ist. Die Anwendung der endwertorientierten Verfahren setzt allerdings die Kenntnis des zukünftigen projektbezogenen Finanzierungsverhaltens der Unternehmung voraus. 6. Verfahren für Investitionsprogrammentscheidungen : Bestehen Interdependenzen zwischen Investition und Finanzierung, so sind Verfahren für Investitionsprogramme anzuwenden. Einen vereinfachten Ansatz zur Bestimmung des optimalen Investitions- und Finanzierungsprogramms stellt das Dean-Modell dar, das auf der Internen Zinsfußmethode basiert. Die Investitionsprojekte werden nach fallenden internen Zinssätzen geordnet, während die Finanzierungsmöglichkeiten in der Reihenfolge steigender Kapitalkosten gegenübergestellt werden. Der optimale Umfang des Investitionsprogramms ist durch den Schnittpunkt der Kapitalangebots- und Kapitalnachfragekurve gegeben, für den gilt: marginaler interner Zinsfuß = marginaler Kapitalmarktzins. Eine theoretisch bessere Lösung des Interdependenzproblems kann mit Hilfe Simultaner Planungsansätze erzielt werden, die sich des mathematischen Instrumentariums der Linearen Programmierung bedienen. Eine Klasse dieser Verfahren berücksichtigt die Finanzierung als Nebenbedingung und wählt als Zielfunktion die Maximierung der Summe der Kapitalwerte aus dem Investitionsprogramm. 7. Verfahren zur Berücksichtigung der Unsicherheit: Die Unsicherheit bei der Datenermittlung für die Investitionsrechnung wird in der Praxis vielfach durch Variation bestimmter Eingangsgrößen vorgenommen. So kann bei dieser auch als Korrekturverfahren bezeichneten Methodik der Kalkulationszinsfuß dem jeweiligen Risiko des Projektes angepasst werden. Bei riskanten 396
Investment Center Projekten wird auch ein Kürzung der Nutzungsdauer für das Kalkül vorgenommen. Von Seiten der Theorie werden die Korrekturverfahren sehr kritisch beurteilt, da sie zu einer Verfälschung der Rechnung führen können. Sinnvoller ist die Methode der kritischen Werte, die auch als Sensitivitätsanalyse bezeichnet wird. Die Sensitivitätsanalyse gibt Antwort auf die Frage, wie weit ein in das Kalkül eingehender Wert sich verändern darf, ohne dass die ermittelte Lösung hinfällig wird. So können z.B. die Absatzmengen und die Absatz- und Produktionsfaktorpreise variiert und die Auswirkungen auf den Kapitalwert der Investition überprüft werden. Auch eine Investitionsrechnung unter Berücksichtigung von Wahrscheinlichkeiten für zukünftige Umweltzustände (z.B. Höhe der Einzahlungsüberschüsse, Cash-flows) ist möglich. Literatur: B l o h m H./Lüder K.: Investition, 8. Aufl., München 1995; Grob H. L.: Einführung in die Investitionsrechnung, 2. Aufl., München 1998; Kraschwitz L.: Investitionsrechnung, 7. Aufl., München et al. 1998; Perridon L./Steiner M.: Finanzwirtschaft der Unternehmung, 10. Aufl., München 1999; Rolfes B.: Moderne Investitionsrechnung, 2. Aufl., München et al. 1998.
Manfred Steiner Investment Center Center-Konzepte verbinden organisationsstrukturelle Merkmale mit steuerungstechnischen Elementen des Finanzund Rechnungswesens. Ein Investment Center ist ein objektorientierter, organisatorisch abgegrenzter Teilbereich eines Unternehmens, der aus Sicht des Finanzund Rechnungswesens über eine umfassende Gewinn- und Renditeverantwortung verfügt. Die organisatorischen Charakteristika von Investment Centern entsprechen weitgehend denen von Profit Centern (—> Profit Center), Investment Center verfügen jedoch über weitreichendere Kompetenzen und Unabhängigkeit. Über die Eigenständigkeit im Wertschöpfungs- und Marktbereich und damit
Involvement
Investment Center der Beeinflussbarkeit der wesentlichen Stellhebel auf der Kosten- und Absatzseite hinaus verfugen Investment Center über eine Autonomie über das zugeordnete Gesamtvermögen bzw. große Teile des Vermögens. Investment Center können eigenständig Investitions- und Desinvestitionsentscheidungen treffen, die das langfristige Fremdkapital und das Eigenkapital berühren. Beurteilungsgrundlage für die Leistung eines Investment Centers ist somit der Gewinn bei bestimmbarem Kapitaleinsatz. Rechnungstechnische Steuerungsgröße die Rendite (-»Return on Investment (ROI); Residual Income (RI; -» Residualeinkommen)). Ziel der Einrichtung von Investment Centern ist die unbedingte Förderung internen Unternehmertums. Ebenso wie in Profit Centern soll unternehmerisches Motivationspotenzial freigesetzt werden. Investment Center verfügen aufgrund ihrer Autonomie in der Regel über ein eigenständiges Auftreten am Markt und in der Öffentlichkeit, wobei die Muttergesellschaft eine sehr zurückgezogene Rolle in der Führung des Investment Centers spielt und häufig als reine Finanz-Holding fungiert. Literatur: Coenenberg, A. G.: Kostenrechnung und Kostenanalyse. 4., aktualis. Aufl., Landsberg am Lech 1999; Kreuter, A.: Verrechnungspreise in Profit-Center-Organisationen. 2. Aufl., München/Mering 1999.
Andreas Kreuter Investment Process Investitionsmanagement Involvement Der Begriff aus der sozialpsychologischen Einstellungsforschung bezeichnet den Grad der subjektiven persönlichen Betroffenheit von einem Thema. Involvement ist der Aktiviertheitsgrad, die Motivstärke zur Suche, Aufnahme, Verarbeitung und Speicherung von Informationen über den betreffenden Gegenstand. So hängt dieses "Informationsmotiv" eng mit dem Basiskonstrukt "Aktiviertheit" zusammen, allerdings ist Aktiviertheit im
Gegensatz zum Involvement nicht notwendig auf eine bestimmtes Thema gerichtet. Involvement ist als Konstrukt der Theorie des -> Konsumentenverhaltens außerordentlich fruchtbar zur Beschreibung, Erklärung, Prognose und Beeinflussung des Verhaltens von Zielkunden und Rezipienten, besonders gemessen an seinem Beitrag zur Überwindung der realitätsfernen mikroökonomischen Theorie des Kaufverhaltens. Das Involvementniveau kann auf einem Kontinuum von "Low" bis "High" angegeben werden (je höher das aktuelle Involvement einer Person, desto größer die Wahrscheinlichkeit, dass sie agiert und desto intensiver das entsprechende Verhalten), oder es werden Low- und HighInvolvement-Information als kategorial ganz verschiedene Prozesse unterschieden: Unter High-Involvement setzt man sich aktiv und kritisch mit der Information auseinander, unter Low-Involvement wird man passiv und beiläufig informiert ("berieselt") und produziert kaum kritische kognitive Reaktionen, so dass es hier auf Einfachheit und Häufigkeit der Stimulierung an kommt, nicht auf Stärke und Qualität der Botschaft. Diese eindimensionale Sicht beschreibt als wichtigste Dimension die Stärke des Involvement, erklärt aber nicht seine Einflussfaktoren, die für eine gezielte Anwendung der Involvementtheorie im Marketing (Anpassung an InvolvementSegmente und Beeinflussung des Involvement) bekannt sein müssen. Die Determinanten des Involvement werden deshalb nach marketingrelevanten Bereichen gegliedert: Produkt, Zielperson, Medium, Botschaft und Situation. Das sind jedoch keine eindimensionalen Einflussfaktoren, sondern mehrdimensionale Komplexe. •
Produktinvolvement: Das Involvementniveau ist von Eigenschaften des betreffenden Produkts abhängig, insbesondere - über die mit dem Kauf verbundenen Kosten (Preis und Folge397
Involvement kosten), Qualitäten und Bindungen von dem wahrgenommenen produktspezifischen finanziellen und sozialen Risiko eines Fehlkaufs. Die produktspezifischen Determinanten wirken zwar nicht direkt, sondern über individuelle Dispositionen wie Risikoneigung, produktspezifische Expertise, und Lebensstil, aber durchschnittlich betrachtet kann man doch HighInvolvement- von Low-InvolvementProdukte unterscheiden, z.B. Versicherung, Wohnung, Auto, Urlaubsreise einerseits, Verbrauchsgüter des täglichen Bedarfs andererseits. •
Personenspezifisches Involvement: Verschiedene Personen können durch persönliche Eigenschaften (Kenntnisse, Motive, Einstellungen, Werte usw.) verschieden stark involviert sein. Je stärker das betreffende Thema zentrale Dispositionen berührt, um so höher ist das personenspezifische Involvement. So sind etwa Numismatiker gegenüber Briefmarken hoch involviert, andere Personen überhaupt nicht, ökologisch hoch motivierte Personen sind bei Lebensmitteln besonders involviert, usw. Das bietet interessante Ansatzpunkte für die Marktsegmentierung.
•
Medieninvolvement: Das Kommunikationsmedium und die Kommunikationsform haben einen Einfluss auf das Involvement. So sind Medien mit der Möglichkeit passiver Informationsaufnahme (Plakat, Banden, Radio, Femsehen) eher für Low-InvolvementKommunikation geeignet. Die meisten Printmedien, die persönliche Beratung und manche Events sind dagegen aufgrund der notwendigen aktiven Beteiligung eher für High-InvolvementKommunikation geeignet. Zusätzlich hängt das Involvement auch vom Kontext der betreffenden Botschaft ab.
•
Botschaftsinvolvement: Eine Botschaft ist subjektiv mehr oder weniger interessant, nicht nur wegen des eigentlichen Inhalts, sondern auch wegen des
398
Involvement Unterhaltungs- und ästhetischen Wertes. Formale Eigenschaften der Botschaft spielen dabei eine große Rolle. So aktivieren Bilder stärker als Texte, biologische (angeborene) Reaktionen auf bestimmte Stimuli sind stärker als soziale (erlernte). Manche der Botschaftseigenschaften sind schwer von denen zum Medieninvolvement abzugrenzen, und wieder gibt es Interdependenzen mit anderen Involvementdeterminanten, insbesondere mit Produkt- und Zielpersoneneigenschaften. •
Situationsinvolvement: Entscheidend für die situative Höhe des Involvement ist, ob sich die Person gerade in einem Kaufprozess befindet oder nicht. Im Kaufprozess ist man bei High-Involvement-Produkten hoch involviert, längere Zeit davor aber gering. Bei selten gekauften High-InvolvementProdukten sind also nur sehr wenige Zielpersonen zum Zeitpunkt einer Werbeschaltung hoch involviert und können deshalb nur durch LowInvolvement-Werbung beeinflusst werden. Je näher der Entscheidungszeitpunkt, desto höher das Involvement. Nach einem High-InvolvementKauf kommt es oft zur kognitiven Dissonanz, die das hohe Involvement noch einige Zeit aufrecht erhält. Unabhängig von der Ausprägung der anderen Involvementdeterminanten ist das Involvementniveau außerdem abhängig von sonstigen situationsspezifischen Bedingungen, z.B. von Ablenkung oder Müdigkeit.
Aufgrund der genannten Eigenschaften und Determinanten von Involvement ist die angemessene Gestaltung der Werbebotschaft und die Mediaselektion erfolgskritisch (-» Werbestreuplanung, -> Werbewirkung u. Werbeumfeld). Außerdem führt die zunehmende Produkthomogenität zu abnehmendem Involvement. Allgemein muss der steigenden Kommunikationskonkurrenz und der Informationsflut tendenziell mit solcher Kommunika-
Jahresabschluss
Involvement tion begegnet werden, die wenig Anspruch an das Involvement der Zielpersonen stellt. Auch um hohe Streuverluste von High-Involvement-Werbung zu vermeiden, geht die Tendenz in Richtung Low-Involvement-Werbung. Allerdings stößt steigende Frequenz und Aufdringlichkeit auch von Low-InvolvementWerbung zunehmend auf Werbevermeidung und Nichtbeachtung. Die Lösung dieses Dilemmas wird durch Sonderformen der Werbung (Gewinnspiele, Events Eventmarketing, -> Sponsoring, -> Product Placement usw.) und durch die neuen interaktiven Medien mit zunehmend individualisierter Ansprache unterstützt. Literatur: T r o m m s d o r f f , V.: Konsumentenverhalten, 3. Aufl., Stuttgart u.a. 1998; Kapferer, J.N.: Laurent, G.: C o n s u m e r Involvement Profiles, in: JAR 1985, S. 41-53.
Volker Trommsdorff IP-Adresse Die IP-Adresse (IP steht für IntemetProtocol) stellt eine eindeutige Adresse im Internet dar, mittels der der Datenverkehr zwischen Sender und Empfanger zielgenau gesteuert werden kann. IPAdressen bestehen aus einer Nummer (z.B. 132.231.52.37), die durch Punkte untergliedert ist. Damit der Nutzer nicht mit Nummern hantieren muss, übersetzen -> Domain-Name-Server eine textbasierte Internet-Adresse (sog. -* URL) für den User unmerklich in die entsprechende Nummer. Ishikawa-Diagramm -> Ursache-Wirkungs-Diagramm Istkostenrechnung Die Istkostenrechnung ist ein Kostenrechnungssystem des internen Rechnungswesens, der -> Kosten und Leistungsrechnung. Die Istkostenrechnung dient der Erfassung der tatsächlich entstandenen Kosten. Da diese erst am Ende einer Abrechnungsperiode ermittelt werden können, handelt es sich bei der Istkostenrechnung um ein vergangenheitsorientiertes Verfahren.
Eingesetzt wird die Istkostenrechnung insbesondere zur Nachkalkulation, da dort die konkret angefallenen Kosten berücksichtigt werden. Genau dies stellt aber auch einen gewichtigen Nachteil des Ansatzes dar: Schwanken die Kosten im Betrachtungszeitraum durch Zufallsereignisse, werden diese Zufallseinflüsse unbereinigt in die Kostenrechnung auf Istkostenbasis übernommen. IT-Leasing Sonderform des Leasings, bei der die Leasingobjekte Hard-, Software oder ITServiceleistungen sind. Diese Form des Leasings gewinnt zunehmend an Bedeutung, da Hard- und Software einer raschen Veralterung unterworfen sind. ITLeasing bietet demgegenüber die Möglichkeit, die Nutzung von Hard- oder Software auf den Zeitraum der voraussichtlichen technischen Überalterung abzustimmen. Weitere Vorteile sind die genaue Produktkenntnis und einer bessere Marktübersicht der Leasinggeber. IT-Sicherheit -* Datensicherheit Jahresabschluss Der handelsrechtliche Jahresabschluss dient der Dokumentation von Vermögensbzw. Kapitalbeständen am Ende eines Geschäftsjahres und von wertmäßigen Veränderungen des Reinvermögens während des Geschäftsjahres. Bei Kapitalgesellschaften wird neben der Dokumentation eine Informationsfunktion erfüllt. Durch die Pflicht zur Offenlegung des Jahresabschlusses können sich Dritte über die Vermögens-, Finanz- und Ertragslage des Unternehmens sowie über mögliche Auszahlungsansprüche als Eigentümer informieren. Die Aufstellung eines Jahresabschlusses, bestehend aus -» Bilanz und - > Gewinnund Verlustrechnung, ist für jeden Kaufmann verpflichtend. Kapitalgesellschaften müssen den Jahresabschluss um zusätzliche Informationen im ->• Anhang und im -»Lagebericht ergänzen. Für die Auf399
Jahresabschluss Stellung des Jahresabschlusses gelten grundsätzlich die Ansatz- und Bewertungsvorschriften nach §§ 246-256 HGB. Mit Blick auf die Informationsbedürfnisse des Kapitalmarktes stellen deutsche Unternehmen ihren Konzernjahresabschluss jedoch zunehmend nach internationalen Normen wie den International Accounting Standards (IAS) und den amerikanischen Generally Accepted Accounting Principles (-> US-GAAP) auf. Jahresabschlussanalyse ->• Bilanzkennzahlen Java Java ist eine plattformunabhängige Computersprache. Gegenüber herkömmlichen Programmiersprachen hat Java folgende Vorteile: •
•
Plattformunabhängigkeit und Portierbarkeit: Java-Programme, sog. Applets, sind unabhängig von einem bestimmten Prozessor, da sie von einem zwischen Applet und Prozessor liegenden Programm "interpretiert" werden. Stabilität: Java-Programme laufen stabil, da während der Laufzeit auftretende Fehler durch den Interpreter erkannt und abgefangen werden.
Momentan ist das Haupteinsatzgebiet der Java-Applets das -> Internet, prinzipiell lassen sich aber alle Programmiervorhaben in Java verwirklichen. Job-Enlargement Job-Enlargement (Arbeitserweiterung) bedeutet die horizontale Ausdehnung des Aufgabenspektrums eines Mitarbeiters um gleichartige Arbeitsinhalte. JobF.nlargement ist eine Maßnahme der stellengebundenen Personalentwicklung. Der Mitarbeiter ist in der Lage, verschiedene Arbeitsplätze zu besetzen. Dies erhöht die Reaktionsfähigkeit auf Arbeitsausfälle und Belastungsspitzen. Job-Enrichment Job Enrichment (Arbeitsbereicherung) bezeichnet die Bereicherung der Aufga400
Juran-Trilogie ben eines Mitarbeiters um dispositive Inhalte. Funktionen wie Planung, Steuerung und Kontrolle der Leistungserstellung werden in die -* Stellenbeschreibung des Mitarbeiters einbezogen. Es handelt sich wie beim -> Job-Enlargement um eine stellengebundene Maßnahme der -> Personalentwicklung. Job-Enrichment wird als Voraussetzung teilautonomer oder autonomer Arbeitsgruppen (-»Gruppenkonzepte) gesehen. Job-Rotation Job-Rotation (Arbeitsplatzwechsel) ist eine Maßnahme der stellenübergreifenden -» Personalentwicklung. Der Mitarbeiter nimmt wechselnde Arbeitsaufgaben in seinem Funktionsbereich wahr. Seine fachliche Qualifikation gewinnt an Breite, seine Einsatzflexibilität erhöht sich. Damit einher geht eine gesteigerte -> Motivation des Mitarbeiters. Job-Rotation ist zudem eine Voraussetzung der Einfuhrung neuerer Fertigungskonzepte wie dem —> One-Piece-Flow. Joint Venture Ein Joint Venture ist ein (Tochter-) Unternehmen, das von zwei Partnern gemeinsam ins Leben gerufen wird. Joint Ventures sind vor allem für -> Auslandsbeteiligungen interessant, weil durch dieKooperation bestehende se Form der Marktbarrieren - wie etwa nicht-tarifäre Handelshemmnisse - umgangen werden können. Joint Ventures werden auch benutzt, wenn zwei Partner ihre Kemkompetenzen zusammenlegen, um gemeinsam nachhaltige Wettbewerbsvorteile (-> Ressourcentheorie) zu erzielen (s.a. Unternehmenszusammenschluss). Journey Management -* Change Management Juran-Trilogie Unter der Juran-Trilogie oder QualitätsTrilogie versteht man einen kontinuierlichen Verbesserungsprozess (-> KVP) in den drei Schritten Qualitätsplanung, Qua-
Juran-Trilogie litätsregelung und Qualitätsverbesserung (-» Qualitätsmanagement). Die Qualitätsplanung von Produkten und Prozessen soll Qualitätsschwankungen und Fehlerquoten in der Fertigung reduzieren. Die Qualitätsregelung dient zur Erkennung und Verhinderung von Fehlerquoten (Toleranzüberschreitungen). Durch Qualitätsverbesserungen sollen die Fehlerquoten unter das ursprünglich geplante Niveau gesenkt werden. Die hierbei gewonnen Erfahrungen fließen wiederum in den ersten Schritt, die Planung der Qualität ein. Just-in-Time Mit Hilfe des Just-in-Time-Prinzips (JIT) versuchen Unternehmen, ihre Produktion und ihre Materialwirtschaft auf Abruf zu gestalten. Erst wenn tatsächlicher Bedarf für ein Produkt oder ein Werkstück angemeldet wird, stellt man es bereit. Ziel von JIT ist es, die Lagerbestände und damit die Lagerkosten zu senken sowie die Produktion anpassungsfähig zu halten, um auch auf kurzfristige Änderungen eingehen zu können.
Just-in-Time Der Faktor Zeit wird bei JIT zur strategischen Zielvariable, an der sich die logistische Kette und die Produktion auszurichten haben. Der Leitsatz von JIT lautet: Das richtige Teil muss zur richtigen Zeit in der richtigen Qualität am richtigen Ort sein. Als Instrument dazu dient bspw. -> Kanban. Voraussetzung für JIT ist die klare Zuteilung von Verantwortung für den Produktionsablauf und die Zulieferung, die Transparenz der logistischen Prozesse für alle Beteiligten und eine enge Verzahnung des Verhältnisses von Zulieferern und Abnehmern, um einen reibungslosen Ablauf der Logistikkette sicherzustellen. Der Nachteil einer am Just-in-TimePrinzip ausgerichteten Materialwirtschaft ist vor allem die Anfälligkeit für Störungen. Wenn der Lagerbestand an Vorprodukten minimal ist, genügt ein Produktionsausfall beim Zulieferer oder sogar ein Stau auf der Autobahn, um die gesamte eigene Produktion lahmzulegen.
401
Kapitalbedarf
Kl-Wert
K Kl-Wert Kontaktmaßzahlen Kaizen —> Kontinuierlicher Verbesserungsprozess Kanban Kanban ist eine Methode zur Gestaltung des Materialflusses im Unternehmen. Es unterscheidet sich von anderen Verfahren zur Umsetzung des -» Just-in-TimePrinzips dadurch, dass das Hol-Prinzip dominiert. Die verbrauchende Stelle muss bei der vorgelagerten das benötigte Material bestellen und abholen. Damit beschränkt sich die zentrale -» Produktionsplanung und -Steuerung (PPS) auf die Weitergabe der Endaufträge an die letzte Fertigungsstufe. Die Informationen zwischen den Stellen werden mit Hilfe einer Kanban-Karte weitergegeben; Kanban heißt auf japanisch nämlich "Karte". Die Karte gilt als Auftrag für die vorgelagerte Stelle und als Lieferschein für den Materialfluss. Die Kanban-Karte enthält folgende Daten: -
Bezeichnung der Artikels, evtl. mit exakten Anweisungen und Skizzen Bezeichnung des Transportbehälters und der Verpackung Angabe des Erzeugers Angabe des Verbrauchers Kartenidentifikation (Nummer, Datum)
Das Material wird in genormten Behältern transportiert und gelagert. Kanban ermöglicht es den Unternehmen, ihre Bestände und Zwischenlager zu verringern, die Rüstzeiten zu verringern und die Produktion flexibler zu gestalten. Die Mitarbeiter sind stärker motiviert, da sie größere Entscheidungsspielräume haben. Das Kartensystem ist ebenso einfach wie bewährt. 402
Kannibalisierung Der Begriff kennzeichnet den Umstand, dass eine Absatz- oder Umsatzausweitung in einem Bereich zu Lasten der gleichen Größe in einem anderen Bereich geht. So können z.B. bei einem Automobilhersteller, der in einem Marktsegment neben einem etablierten Produkt ein weiteres, neues Produkt einführt, steigende Absatzzahlen des neuen Produkts mit sinkenden Verkaufszahlen des etablierten Produkts einhergehen. Der Umsatz wandert "von der linken Tasche in die rechte". Ursache ist eine substitutive Beziehung zwischen den Produkten des Sortiments (-* Sortimentspolitik; -* Variantenmanagement). Kapitalbedarf Als Kapitalbedarf wird das Volumen an finanziellen Mitteln bezeichnet, das ein Unternehmen innerhalb des Planungszeitraums zur Finanzierung der geplanten Unternehmensaktivitäten benötigt. Der Kapitalbedarf resultiert daraus, dass die zur Leistungserstellung erforderlichen Auszahlungen üblicherweise vor den aus der Leistungsverwertung erzielten Einzahlungen anfallen. Insofern muss ein kapitalsuchendes Unternehmen die Frage klären, in welcher Höhe, zu welchen Zeitpunkten und für welche Zeiträume Kapital zu beschaffen ist. Der Kapitalbedarf ist somit durch die Höhe der anfallenden Aus- und Einzahlungen sowie durch die Kapitalbindungsdauer determiniert, für die finanzielle Mittel zur Überbrückung des Auseinanderfallens von Aus- und Einzahlungen benötigt werden. Erst im zweiten Schritt werden die zur Deckung des Kapitalbedarfs geeigneten Finanzierungsinstrumente ausgewählt. Auswahlkriterien sind die durch das Unternehmen geplante Kapitalstruktur sowie die Finanzierungskosten der einzelnen Instrumente. Die Kapitalbedarfsplanung ist neben der Liquiditätsplanung Bestandteil der Finanzplanung des Unternehmens. Die Liquiditätsplanung ist der kurz- bis mittelfristige Teilbereich der Finanzplanung.
Kapitalbedarf Demgegenüber handelt es sich bei der Kapitalbedarfsplanung ebenso wie bei der mehrjährigen Finanzplanung um langfristige Grobplanungen, die anhand von Bilanzgrößen durchgeführt werden und deren Planungshorizont mehrere Jahre umfasst. Hinsichtlich der Durchführung wird zwischen passiver und aktiver Finanzplanung unterschieden. Die passive Finanzplanung ermittelt den Kapitalbedarf als Residualgröße der anderen Teilpläne des Unternehmens. Hierbei werden die betrieblichen Teilpläne sukzessive zusammengeführt und deren finanzielle Auswirkungen in einem langfristigen Finanzplan abgebildet. Die Planungstätigkeit beschränkt sich bei passiver Finanzplanung darauf, die Höhe sowie die hinsichtlich Kapitalstruktur und Finanzierungskosten optimale Deckungsmöglichkeit des aus den anderen betrieblichen Teilplänen resultierenden Kapitalbedarfs zu bestimmen. Die aktive Finanzplanung berücksichtigt zusätzlich Interdependenzen, die in der Unternehmenspraxis zwischen dem Finanzbereich und den anderen unternehmerischen Teilbereichen existieren. Diese Interdependenzen resultieren beispielsweise daraus, dass finanzielle Mittel nicht in unbeschränkter Höhe zur Verfügung stehen oder dass von den Kosten geplanter Finanzierungsmaßnahmen Rückwirkungen auf andere betrieblichen Teilpläne ausgehen. In diesen Fällen bildet der Finanzbereich einen Engpass der Unternehmensplanung, so dass die anderen betrieblichen Teilpläne sukzessive mit dem Finanzplan abgestimmt und gegebenenfalls modifiziert werden müssen. Im Rahmen der Kapitalbedarfsplanung wird zunächst das durch die zukünftig geplanten Unternehmensaktivitäten gebundene Kapital prognostiziert und anschließend der hieraus resultierende Kapitalbedarf abgeleitet. Umfang und Art der Kapitalbindung werden ebenso wie Höhe, Art und Struktur des Kapitalbe-
Kapitalbedarf darfs in einer Planbilanz abgebildet. Die bilanzorientierte Kapitalbedarfsplanung basiert üblicherweise auf der Umsatzplanung, die wiederum durch die in der Planungsperiode geplante Leistungserbringung des Unternehmens bestimmt wird. Aus der Umsatzplanung werden die umsatzbedingten Bilanzveränderungen abgeleitet, wobei insbesondere die Veränderungen der Bilanzpositionen "Sachanlagen", "Vorräte", "Forderungen", "Kasse", "Verbindlichkeiten aus Lieferungen und Leistungen", "Gewährleistungsrückstellungen" sowie der Bilanzgewinn von der Entwicklung des Umsatzes abhängig sind. Die zukünftige Höhe dieser Bilanzpositionen kann prozentual in Abhängigkeit vom Umsatz prognostiziert werden. Es ist allerdings zu beachten, dass sich die Bilanzpositionen nur im Ausnahmefall linear zur Höhe des Umsatzes verändern. Während sich das Sachanlagevermögen üblicherweise sprunghaft entwickelt, erfolgt der Anstieg der Vorräte im Verhältnis zum Umsatz vielfach unterproportional. Insofern stellt die umsatzabhängige Prognose der zukünftigen Bilanzpositionen nur eine Näherungslösung dar. Nachdem der durch die geplanten Umsatzaktivitäten bedingte Kapitalbedarf prognostiziert worden ist, wird abschließend der aus der geplanten Veränderung der umsatzunabhängigen Bilanzpositionen resultierende Kapitalbedarf bestimmt (z.B. durch Liquiditätsreserven oder geplante Finanzanlagen). In der Planbilanz entspricht der gesamte Kapitalbedarf dem Saldo zwischen Aktiva und Passiva. Bei Unternehmensgründungen stößt die Planung des Kapitalbedarfs auf besondere Schwierigkeiten, da die für eine extrapolierende Prognose erforderlichen Vergangenheitsdaten nicht zur Verfügung stehen. Im Gründungsfall muss die Kapitalbedarfsplanung daher auf der für die Zukunft geplanten Leistungserstellung des Unternehmens basieren. Das geplante 403
Kapitalflussrechnung
Kapitalbedarf Leistungsprogramm determiniert in Verbindung mit dem Verfahren der Leistungserstellung die räumliche und maschinelle Ausstattung des Unternehmens, wodurch wiederum die Kapitalbindung im Anlagevermögen festgelegt wird. Zur Planung des Kapitalbedarfs im Umlaufvermögen wird die Kapitalbindungsdauer geschätzt, die durch Lagerzeiten, durch die Zeit der Leistungserstellung sowie durch die Gewähr von Zahlungszielen und das Zahlungsverhalten der Kunden bestimmt wird. Die Kapitalbindungsdauer wird mit den durchschnittlichen täglichen Auszahlungen für Löhne, Material sowie Vertrieb und Verwaltung multipliziert. Schließlich sollte bei der Planung des Kapitalbedarfs ein bestimmter Kassenmindestbestand zur Gewährleistung der Liquidität berücksichtigt werden. Klaus Serfling Kapitalbedarfsplanung -> Kapitalbedarf Kapitalbeschaffung -» Finanzierung Kapitalerhöhung Die Kapitalerhöhung ist eine Maßnahme zur -» Finanzierung eines Unternehmens durch Erhöhung des Eigenkapitals. Bei einer Aktiengesellschaft gibt es zwei Wege der Kapitalerhöhung: 1. Kapitalerhöhung mittels Ausgabe junger Aktien (Bezugsrecht) 2. Kapitalerhöhung aus Gesellschaftsmitteln (Berichtigungsaktien) Ferner gibt es das "bedingte" Kapital als Hilfsmittel der Finanzierung bei Ausgabe von Anleihen mit Aktienbezugsrecht oder Umtauschrecht (Optionsanleihe, Wandelanleihe) sowie das "genehmigte" Kapital. Letzteres ist gewissermaßen Vorratskapital, d.h. der Vorstand ist laut Satzung ermächtigt, die Kapitalerhöhung bis zu einem bestimmten Betrag durch Ausgabe neuer Aktien gegen Einlagen zu erhöhen, ohne dass ein gesonderter Beschluss der Hauptversammlung erforderlich ist.
404
Kapitalflussrechnung Die Kapitalflussrechnung gibt Auskunft über die Entwicklung der Finanzlage des Unternehmens während des Geschäftsjahres. Sie wird nicht nur extern zur Information der Kapitalgeber, sondern auch unternehmensintem als Prognose- und Kontrollinstrument eingesetzt. Eine Kapitalflussrechnung kann originär aus den Daten der Finanzbuchhaltung erstellt oder derivativ aus dem -> Jahresabschluss abgeleitet werden. Für eine originäre Ermittlung ist allerdings schon bei der Buchung der Geschäftsvorfälle deren Zahlungswirksamkeit zu vermerken. Diese Methode steht nur unternehmensintem zur Verfügung. Extern kann eine Kapitalflussrechnung lediglich derivativ aus dem Jahresabschluss abgeleitet werden. Für den externen Analytiker bestehen Probleme in der mangelnden Kenntnis über die Finanzwirksamkeit von Erträgen und Aufwendungen, so dass er diesbezüglich Annahmen treffen muss. Wegen der notwendigen Existenz von Bilanz und - > Gewinn- und Verlustrechnung sind mit einer derivativen Ableitung auch zeitliche Nachteile verbunden. Zur Ableitung aus dem Jahresabschluss ist zunächst die Beständedifferenzenbilanz, die aus den Salden der Bilanzpositionen an zwei aufeinanderfolgenden Stichtagen besteht, zu bilden. Auf dieser Basis wird die Bewegungsbilanz erstellt: Aktivzunahmen (Investition) und Passivabnahmen (Definanzierung) werden als Mittelverwendung den Aktivabnahmen (Desinvestition) und Passivzunahmen (Finanzierung) als Mittelherkunft gegenübergestellt. Zur Verfeinerung der Bewegungsbilanz können weitere Daten aus der Gewinn- und Verlustrechnung eingefügt werden. Jede Bewegungsbilanz gibt nur Bestandsdifferenzen wieder; damit ist es möglich, dass sich der Finanzmittelbestand im Saldo nur geringfügig verändert hat, während im Verlauf des Jahres bedeutende Bewegungen stattgefunden
Kapitalflussrechnung haben. Auf Basis der Bewegungsbilanz wird durch Neuordnung der Positionen die Kapitalflussrechnung erstellt. Es ergibt sich eine Unterteilung in Ursachenund Fondsrechnung, wobei ein Finanzmittelfonds aus einer oder mehreren Bilanzpositionen besteht, die je nach Definition einen unterschiedlich hohen Grad der Geldnähe aufweisen. Nur ein Vorgang, bei dem ein Fondskonto und ein Gegenkonto berührt werden, verändert den Finanzmittelbestand und erscheint damit in der Ursachenrechnung. Die wesentlichen Fondsabgrenzungen sind liquide Mittel, Netto-Geldvermögen und Netto-Umlaufvermögen. Das Bild der finanziellen Lage des Unternehmens kann verfälscht werden, wenn Bestandsveränderungen, die aus Bewertungen resultieren, als liquiditätswirksam interpretiert werden. Im Falle der Fondsabgrenzung des Netto-Geldvermögens treten bewertungsbedingte Bestandsänderungen bei Forderungen und Verbindlichkeiten auf; bei Wahl des Fonds Netto-Umlaufvermögen kommt z. B. eine mögliche Neubewertung des Vorratsvermögens dazu. Die Aussagekraft der Kapitalflussrechnung hängt somit entscheidend von der Wahl des Finanzmittelfonds ab. Durch die Beschränkung auf den Fonds der liquiden Mittel wird die Bewertungsproblematik der Fondsmittel weitgehend ausgeschlossen, verschärft sich aber bei Fondskonzeptionen mit mehr Bestandteilen. Es ist möglich, dass die Kapitalflussrechnung bei abweichenden Fondskonzeptionen unterschiedliche Aussagen über die finanzielle Lage eines Unternehmens nahe legt. Der deutsche Gesetzgeber hat für börsennotierte Unternehmen die Veröffentlichung einer Kapitalflussrechnung vorgeschrieben (Änderung des § 297 Abs. 1 HGB nach dem Gesetz zur Kontrolle und Transparenz im Unternehmensbereich, s.a. KonTraG). Es bestehen Gestaltungsempfehlungen des Hauptfachausschusses der Wirtschaftsprüfer und des Arbeitskreises Finanzierungsrechnung der
Kapitalflussrechnung Schmalenbach-Gesellschaft/Deutsche Gesellschaft für Betriebswirtschaft e. V. Die Stellungnahme HFA 1/1995 lässt nur noch den Fonds liquider Mittel i.S.d. § 266 Abs. 2 B IV HGB zu. Wertpapiere, wenn diese als Liquiditätsreserve gehalten werden und kurzfristig veräußerbar sind, und jederzeit fällige Bankverbindlichkeiten (mit negativem Vorzeichen) können bei Offenlegung der Zusammensetzung des Finanzmittelfonds miteinbezogen werden. Die Stellungnahme HFA 1/1995 orientiert sich an den Vorgaben der entsprechenden US-amerikanischen (Statement of Financial Accounting Standard (SFAS) No. 95) und internationalen Standards (-> International Accounting Standard (IAS) 7), die sich voneinander nur geringfügig unterscheiden. Der Aufbau der Kapitalflussrechnung kann in Staffel- und Kontoform erfolgen. Bei der Staffelform werden, evtl. unter Bildung von Zwischensummen, verschiedene Bereiche unterschieden; weiterhin ist eine Gliederung, die lediglich nach Mittelherkunft und Mittelverwendung differenziert, möglich. Der HFA schlägt eine Staffelform vor, deren Ursachenrechnung in die Bereiche laufende Geschäftstätigkeit und Investitions- bzw. Finanzierungstätigkeit unterteilt wird. Die Erstellung von Kapitalflussrechnungen steht im Spannungsfeld zwischen den Zielen "Übersichtlichkeit" und "Analysedetaillierung". Aus einer nach der vorgeschlagenen Mindestgliederung erstellten Kapitalflussrechnung lassen sich zwar die gleichen Kernaussagen ableiten, der Detaillierungsgrad ist aber gegenüber einer über die Mindestgliederung hinausgehenden Kapitalflussrechnung geringer. In der direkten Darstellung werden die Zuflüsse zum Fonds den Abflüssen aus dem Fonds gegenübergestellt. Für den Bereich der laufenden Geschäftstätigkeit ist hingegen nach HFA 1/1995 auch eine indirekte Darstellung möglich. Dabei wird der Mittelzufluss/-abfluss ausgehend vom Jahresergebnis durch Rückrechnung 405
Kapitalflussrechnung
Kapitalkosten
ermittelt (Erhöhung um zahlungsunwirksame Aufwendungen, Verminderung um zahlungsunwirksame Erträge und Ergänzung um fondswirksame, nicht in der Gewinn- und Verlustrechnung erfasste Vorgänge). Klaus Serfling Kapitalgesellschaft Die Kapitalgesellschaft ist eine privatrechtliche Gesellschaftsform mit auf das Gesellschaftskapital beschränkter Haftung. Im Gegensatz zur -»Personengesellschaft bildet die Kapitalgesellschaft eine eigene (juristische) Person. Ihr Bestehen ist damit unabhängig von den Gründern oder konkreten Anteilseignem. Zu den Kapitalgeselschaften gehören die -> Aktiengesellschaft (AG), die -> Gesellschaft mit beschränkter Haftung (GmbH) und die -> Kommanditgesellschaft auf Akiten (KGaA). Kapitalherabsetzung Eine Kapitalherabsetzung bezeichnet die Verminderung des Eigenkapitals. Durch Beschluss der Gesellschafterversammlung kann das Stammkapital bei Kapitalgesellschaften verringert werden. Bei + Aktiengesellschaften geschieht eine Kapitalherabsetzung aufgrund eines Hauptversammlungsbeschlusses mit Dreiviertelmehrheit. Eine vereinfachte Kapitalherabsetzung dient beispielsweise der Sanierung eines Unternehmens. Kapitalkonsolidierung Konsolidierung Kapitalkosten Kapitalkosten sind die Kosten des von einem Unternehmen eingesetzten Kapitals. Bei Einsatz von Fremdkapital und Eigenkapital bestehend sie aus • Fremdkapitalkosten: Kosten für zinstragende Verbindlichkeiten wie insbesondere Bankkredite, Unternehmensschuldverschreibungen u.ä. Als Prozentsatz annualisiert. Man unterscheidet zwischen durchschnittlichen Fremdkapitalkosten (Av-
406
•
erage Cost of Debt) und Neuverschuldungskosten (Marginal Cost of Debt). Letztere werden aufgrund ihres zukunftsorientierten Charakters üblicherweise bei Prognosen und auf dem Gebiet der Unternehmensbewertung herangezogen. Eigenkapitalkosten: Die von den Eigenkapital-Gebern (Aktionären) geforderte Rendite für das zur Verfügung gestellte Kapital, berechnet als Differenz zwischen Aktienkurs beim Verkauf und Aktienkurs bei Investition, bereinigt um etwaige Dividenden. Als Prozentsatz annualisiert. Zur Ermittlung der geforderten Rendite und damit der Eigenkapitalkosten hat sich seit Ende der 60er Jahre das von William Sharpe et al. entwickelte Capital Asset Pricing Model überwiegend durchgesetzt, welches eine Relation zwischen dem Risiko eines Finanztitels und der geforderter Rendite herstellt. Die in den 70er Jahren von Roll und Ross propagierte -* Arbitrage Pricing Theory, die letztendlich ebenfalls auf die Ermittlung der geforderten Rendite abzielt, konnte sich nicht zuletzt aufgrund ihres komplexeren und wenig pragmatischen Charakters in der Praxis keiner Verbreitung erfreuen.
Die durchschnittlichen K. ergeben sich als mit den Marktwerten des Fremdkapitals und des Eigenkapitals einer Unternehmung gewichteten Fremdkapital- bzw. Eigenkapitalkosten. In Theorie und Praxis hat sich der Terminus WACC (Weighied Average Cost of Capital) eingebürgert. Formal: WACC = x (d) • k (d) • (1-t) + x (e) • k (c) Wobei: X(d) = Marktwert des Fremdkapitals als prozentueller Anteil am Marktwert der Summe aus Fremd- und Eigenkapital
Kapitalkosten x (e) = Marktwert des Eigenkapitals als prozentueller Anteil am Marktwert der Summe aus Fremd- und Eigenkapital k(d) = Grenzkosten des Fremdkapitals (d.h. Kosten der Neuverschuldung) k(e) = Kosten des Eigenkapitals t = Steuerrate des Unternehmens (Fremdkapitalkosten sind üblicherweise steuerabzugsberechtigt) Sowohl Fremd- als auch Eigenkapital sind als Marktwerte anzugeben, wobei beim Fremdkapital üblicherweise der Buchwert eine hinreichend gute Annäherung darstellt. Für den Marktwert des Eigenkapitals ist der Börsenwert anzusetzen. Gegebenenfalls muss bei Nichtvorhandensein eines solchen auf den Wert zurückgegriffen werden, der dem Marktwert am nächsten kommt. Sollte der WACC in einem Modell integriert sein, das zur Bewertung, also zur Ermittlung eben jenes Börsenwertes dienen soll, so ist der Zirkelbezug vermittels Iteration aufzulösen. Das Fremdkapital im Sinne des W A C C umfasst zinstragende, nicht kurzfristige Verbindlichkeiten, sowie in besonderen Fällen auch Vorzugsaktien. Im Falle von zu erwartenden Kapitalumschichtungen ist bei der Berechnung von der Zielkapitalstruktur auszugehen. Dem Konzept der K. kommt bei der Errechnung des Kapitalwerts entscheidende Bedeutung zu. Von Relevanz sind K. daher insbesondere im Rahmen der Bewertung von Unternehmen (-> Unternchmensbewertung) sowie bei dem Alternativenvergleich im Vorfeld einer Investitionsentscheidung. Bei der Unternehmensbewertung mittels Bildung des Kapitalwertes der zukünftigen -> Cash-flows wird, j e nach Methodik, der Eigenkapitalkostensatz (Dividend Discount Model; -> Adjusted Present Value) oder der W A C C -» Discounted CF-Methode mit durchschnittlichen Kapitalkosten) zur Anwendung gebracht. Eigenkapitalkosten sind auch Basis von verschiedenen Ansätzen, die das explizite
Kapitalmarkttheorie (d.h. wertmäßig erfassbare) Management auf Basis des Shareholder-ValueGedankens (-* Shareholder Value) propagieren (z.B. -> Economic Value Added bzw. EVA). Grundsätzliche Idee ist, dass ein Mehrwert für die Aktionäre geschaffen wird, wenn die Rentabilität des Eigenkapitals über den Eigenkapitalkosten und somit über der von den Aktionären geforderten Rendite liegt, dies jedoch auf Basis der Annahme, dass steigende Rentabilität auch in steigenden Aktienkursen ihren Niederschlag findet. Häufig fällt im Zusammenhang mit den K. der Begriff der -> Opportunitätskosten. Sämtliche angesprochenen Formen der K. können j e nach Kapitalstruktur bzw. Betrachtungsweise unter diesen Begriff fallen. Volker Offenbächer/Richard Zeiss Kapitalmarkttheorie Abgrenzung 1. Kapitalmarkttheorie im Sinne einer Preistheorie für marktmäßig gehandelte, fungible Finanztitel existiert als geschlossener Theorieansatz in Gestalt der neoklassischen Kapitalmarkttheorie. Sie behandelt Finanztitel als (proportionale) Rechte an zukünftigen Zahlungsströmen, die nach Höhe und Zahlungszeitpunkt (bedingt) vorhersehbar sind und deren Werthaltigkeit nur von diesen Zahlungsströmen abhängt. Bedingte Vorhersehbarkeit bedeutet dabei, dass Probleme asymmetrischer Information ("hidden knowledge" und "hidden action", s.a. -> Informationsasymmetrie) sowie strategischer Verhaltensweisen (wie "moral hazard") definitorisch ausgeschlossen werden; natürlich und zentral verbleibt hingegen das Problem der (als stochastisch unterstellten) Unsicherheit über die zu erwarteten Zahlungsströme. 2. Grundlage: Arbitragefreiheit Die zentrale und letztlich hinter jedem Ansatz wiederzufindende Annahme, wodurch funktionierende Kapitalmärkte ausgezeichnet seien, ist die der so genannten Arbitragefreiheit. Sie tritt unter 407
Kapitalmarkttheorie
Kapitalmarkttheorie vielerlei Bezeichnungen und in verschiedenen Varianten ("no free lunch", "law of one price") auf und läuft letztlich darauf hinaus, dass an einem funktionierenden Markt für einen dominierten Zahlungsstrom ein Preisabschlag hinzunehmen ist, dass also ein Titel, der seinem Eigner niemals mehr, wohl aber mit positiver Wahrscheinlichkeit unter gewissen Umständen weniger als ein anderer Titel zur Auszahlung bringt, gegenüber diesem auch nur weniger kosten darf; das muss sowohl für die Zahlungsströme einzelner Finanztitel wie auch für das NettoErgebnis ganzer Anlage- bzw. PortfolioStrategien gelten (s. die Formalisierung unten). Unter sehr allgemeinen, für vollkommene Finanzmärkte typischen Bedingungen folgt aus diesem Prinzip der Arbitragefreiheit, dass die Preise von Finanztiteln in einer positiven, linearen Beziehung zu den mit ihnen verbundenen Zahlungsströmen stehen, eine Beziehung, die bereits in der klassischen Finanzmathematik in Gestalt des Barwertkalküls in Erscheinung tritt. Werden die zeitlich und zufallsabhängig strukturierten Zahlungsströme von Finanztiteln mit Z,,Z 2 ,... usw. bezeichnet, die angesprochene lineare Beziehung mit n , so gilt für die Marktpreise ^ der Finanztitel P, =7t(Z,) für i = 1 • • • N und für beliebige, als Ergebnis von Portfolio-Strategien denkbare Zahlungsströme Z,Z n(Z) > n(Z) für Z > Z und 7t(x,Z + x 2 Z ) = x,7i(Z) + x27t(Z) für ein jedes Portfolio, das x, Anteile an Z und x 2 Anteile an Z beinhaltet. Die einzelnen kapitalmarkttheoretischen Ansätze lassen sich nun als unterschiedliche Charakterisierungen oder Spezifikationen des linearen Preisfunktionais n verstehen. Zur Klassifikation der Ansätze 408
sind folgende Unterscheidungen hilfreich: absolute vs. relative Preismodelle, Modelle unter Sicherheit vs. Modelle unter Unsicherheit, statische vs. dynamische Modelle, unter den dynamischen Modellen ist noch zu unterscheiden zwischen Modellen, die die Zeit als diskreten Parameter, und solchen, die die Zeit als kontinuierlichen Parameter einführen. 3. Absolute vs. relative Preismodelle Absolute Preismodelle leiten eine Spezifikation des Preisfunktionais aus dem mikroökonomischen Kalkül der Marktteilnehmer (z.B. der Portfolio-Theorie, der Erwartungsnutzentheorie) in Verbindung mit der Vorstellung markträumender Gleichgewichtspreise ab. Regelmäßig bestimmt der Grenznutzen der den Erwartungsnutzen maximierenden Investoren bei ihrer optimalen Anlagestrategie im Marktgleichgewicht das Preisfunktional in Gestalt von Diskontierungsfaktoren für Zeitpunkt- und/oder zustandsbezogene Zahlungen. Beispiele hierfür sind unter Sicherheit das wohlbekannte Barwertkalkül im Rahmen der Fisher-Separation, bei Unsicherheit im statischen Kontext das klassische -> Capital Asset Pricing Model (CAPM) mit seiner Unterscheidung von systematischem (nicht diversifizierbaren) Risiko und unsystematischem (diversifizierbaren) Risiko, im dynamischen Kontext bei Unsicherheit "das" zeitdiskrete und das zeitkontinuierliche CAPM mit entsprechenden Risikokategorien. Relative Preismodelle leiten hingegen (oft allerdings nur implizit) das Preisfunktional aus den Marktpreisen der gehandelten Finanztitel selbst ab: Das Gleichungssystem P,=*(Z,) PN=*(Zn) wird gewissermaßen "nach n aufgelöst". Weitere Finanztitel (z.B. Derivate), die nur funktional von den Zahlungsströmen vorhandener Finanztitel (in diesem Zusammenhang als "underlying" bezeichnet) abhängen, können nun bewertet werden,
Kapitalmarkttheorie da ihre Preise durch jt, und daher als Funktion der Preise vorhandener Finanztitel bestimmt werden können. Dabei manifestiert sich nämlich ein Zusammenhang (Relation, daher "relative" Preismodelle) zwischen Preis des Derivates und Preis des/der Underlying(s). Beispiel hierfür ist die gesamte durch Black und Scholes in Gang gesetzte Bewertungstheorie für Optionen und andere Derivate. Die Kenntnis dieses Preiszusammenhangs ermöglicht die Ableitung konkreter Hedging-Strategien (-> Hedging), da die Veränderung des Wertes des Underlying als Funktion der Veränderung des Derivatpreises angegeben werden kann. 4. Preismodelle bei Sicherheit und bei Unsicherheit Bei Sicherheit über die zukünftigen Zahlungsströme von Finanztiteln reduziert sich die Fragestellung auf Probleme der Fristigkeitsstruktur der Zinssätze zu einem gegebenen Zeitpunkt. Der relative Modellansatz leitet hier die Diskontierungsfaktoren des Barwertes (z.B. für die Investitionsrechnung) aus den gegebenen sicheren Zahlungsströmen und Preisen von ausfallrisikofreien Bonds ab. Absolute Preismodelle versuchen hingegen, eine Erklärung für die beobachtete Zinsstruktur aus Verhaltensmustern der Marktteilnehmer abzuleiten. Der relative Modellansatz unter Unsicherheit führt auf das Konzept von stochastischen Diskontierungsfaktoren (Preise entsprechen erwarteten, stochastisch diskontierten zukünftigen Zahlungen) oder, mathematisch äquivalent dazu, auf künstliche Wahrscheinlichkeitsmaße (Preise sind diskontierte erwartete zukünftige Zahlungen, wenn man das richtige, "risikoneutrale" Wahrscheinlichkeitsmaß verwendet). In dieser Gestalt liegen Bewertungsansätze zu Derivaten und zu dynamischen Zinsstrukturproblemen vor. Unter Unsicherheit führen absolute Preismodelle auf eine Spezifikation der stochastischen Diskontierungsfaktoren als
Kapitalrentabilität in der Regel abhängig von der Schwankung der Marktrendite (Rendite des Marktportfolios) um ihren Erwartungswert; das gilt im Kern sowohl für den statischen Fall (klassisches CAPM) als auch unter Einbeziehung dynamischer Effekte (dynamisches CAPM). Hier wird folglich die erwartete Risikoprämie für ein Wertpapier im Gleichgewicht durch die Korrelation mit dem Marktportfolio genau: durch das Beta-Risiko, das nicht diversifizierbare Risiko - bestimmt. Auch diese Konzepte liefern im Rahmen der Fisher-Separation unter Unsicherheit prinzipiell für die Ausrichtung von Investitionsentscheidungen an ihrer Marktwertwirkung für das durchführende Unternehmen geeignete Informationen. 5. Zusammenfassung Die hier dargestellte neoklassische Kapitalmarkttheorie stellt ein recht geschlossenes Theoriegebäude dar, das durch die Grundannahme (oder Grundimplikation) der Arbitragefreiheit charakterisiert werden kann. Sie liefert Erklärungsansätze (Bestimmungsgründe) für die absolute Höhe von Finanztitelpreisen (insbesondere Risikoprämien) und Hinweise für die korrekte relative Bewertung von Zahlungsströmen. Insbesondere die zweite Gruppe von Aussagen hat wichtige praktische Implikationen für die Bewertung und Verwendung von Derivaten (z.B. im Rahmen des Risikomanagements) sowie für die Vorteilhaftigkeitsanalyse von Investitionsproj ekten. Jochen Wilhelm Kapitalrentabilität Die Kapitalrentabilität setzt den Gewinn einer Periode ins Verhältnis zu dem dafür eingesetzten Kapital. Je nachdem, ob das Kapital das Eigen- bzw. Eigen- und Fremdkapital umfasst, spricht man von Eigenkapitalrentabilität bzw. Gesamtkapitalrentabilität. Ähnliche aufgebaute Kennzahlen (-> Kennzahlen und Kennzahlensysteme) sind der ROI (Return on Investment; -»DuPont-Kennzahlensystem) und die -> Umsatzrentabilität. 409
Kapitalverlustrisiko Kapitalverlustrisiko -> Investitionsrechnung Kapitalwertmethode Investitionsrechnung Karriereplanung Unter Karriereplanung wird hier die Planung betrieblicher Arbeitnehmerkarrieren aus Arbeitgebersicht und nicht die Planung des individuellen Berufsverlaufs durch einen bestimmten Arbeitnehmer verstanden. Konkret sei mit Karriereplanung im folgenden das Aufstellen allgemeiner Regeln für ein bestimmtes Unternehmen hinsichtlich des Aufstiegs, der Versetzung, der Degradierung und der Entlassung von Arbeitnehmern durch den Arbeitgeber gemeint (= Karrierepolitik). Die weiteren Überlegungen beziehen sich auf die Träger, Ziele, Instrumente und Restriktionen der Karriereplanung. Die Unternehmensleitung bzw. das Topmanagement bildet den Träger der Karriereplanung, welche im Sinne von Karrierepolitik dem Bereich der internen Unternehmenspolitik zuzuordnen ist. Im Falle einer -> Aktiengesellschaft ist die Unternehmensleitung (Vorstand) als Träger gegebenenfalls durch den Aufsichtsrat zu ergänzen, sofern Regelungen zur Karriereplanung in den Katalog der zustimmungspflichtigen Geschäfte gemäß § 111 Abs. 4 AktG aufgenommen wurden. Auch andere betriebliche Akteure wie die Personalabteilung, Linienvorgesetzte und Mentoren sind zwar oftmals in Karriereentscheidungen eingebunden, jedoch werden diese Akteure lediglich gemäß den von der Unternehmensleitung erlassenen Regeln der Karriereplanung aktiv, ohne die Regeln selbst festzulegen. Eine besondere Rolle kommt dem -» Betriebsrat zu. Einerseits hat der Betriebsrat über die ihm vom Gesetzgeber zugestandenen Mitbestimmungsrechte (-> Mitwirkungsund Mitbestimmungsrechte; insbesondere über das Betriebsverfassungsgesetz) Restriktionscharakter für die Karriereplanung der Unternehmensleitung. Andererseits reichen die Mitbestimmungsrechte 410
Karriereplanung des Betriebsrats teilweise so weit, dass einige Bestandteile der Karriereplanung auch als Ergebnis eines Verhandlungsprozesses zwischen Unternehmensleitung und Betriebsrat zu werten sind. Geht man davon aus, dass die Unternehmensleitung an der Maximierung des -> Shareholder Value interessiert ist, so lassen sich grob zwei Ziele der Karriereplanung unterscheiden - ein Allokationsund Matchingziel sowie ein Anreizziel. Unter dem Allokations- und Matchingziel ist zu verstehen, dass möglichst geeignete Arbeitnehmer eingestellt und durch gezielte Karriereschritte auf die entsprechenden Positionen befördert werden bzw. dass möglichst effiziente Kombinationen (Matches) aus Arbeitnehmern und Stellen gebildet werden. Dieses Ziel der Karriereplanung dient dazu, die dauerhafte Leistungsfähigkeit des Unternehmens zu sichern. Kurzfristig mag infolge von temporären Einarbeitungs- und Ausbildungsphasen zwar gegen das Allokations- und Matchingziel verstoßen werden, zumindest langfristig sind die Arbeitnehmer jedoch auf diejenigen Stellen zu befördern und zu versetzen, auf denen sich ihre Fähigkeiten möglichst gut entfalten können. Diese dynamische Betrachtung verdeutlicht zudem, dass die -> Personalentwicklung zentraler Bestandteil der Karriereplanung ist, um über eine gezielte Qualifizierung der Arbeitnehmer dem Allokations- und Matchingziel gerecht zu werden. Auch wenn über den optimalen Einsatz der Arbeitnehmer auf den passenden hierarchischen Positionen die Leistungsfähigkeit des Unternehmens gesichert werden kann, so ist dennoch die Leistungsbereitschaft der einzelnen Arbeitnehmer nicht sichergestellt. Diese Aufgabe kommt dem Anreizziel der Karriereplanung zu. Im Rahmen des Anreizziels sind Karrierepfade und Karrierekonkurrenz derart zu gestalten, dass die Arbeitnehmer ihre jeweiligen Fähigkeiten auch entsprechend
Karriereplanung ausschöpfen und von einer Leistungszurückhaltung absehen. Dies kann erreicht werden, indem gute Arbeitnehmerleistungen mit einem hierarchischen Aufstieg belohnt werden, der wiederum mit einem Entgeltzuwachs sowie einer Zunahme von Ansehen und Einfluss verbunden ist. Beide Ziele der Karriereplanung sind problemlos miteinander in Einklang zu bringen, wenn z.B. auf einer bestimmten Hierarchieebene Unsicherheit über das Aufstiegspotenzial verschiedener Arbeitnehmer herrscht und die Leistungen dieser Arbeitnehmer innerhalb des Karrierewettbewerbs entscheidende Informationen über deren Potenzial aufdecken. Die Beförderung des erfolgreichsten Arbeitnehmers würde in diesem Fall mit der Beförderung des fähigsten Kandidaten einhergehen. Es existieren jedoch auch Situationen, in denen beide Ziele miteinander in Konflikt geraten. Das bekannteste Beispiel hierzu bildet das PeterPrinzip. Dieses Prinzip geht von einem Beförderungsautomatismus aus, wonach jeder Arbeitnehmer, der die ihm übertragenen Aufgaben gut gelöst hat, zur Belohnung auf die jeweils nächsthöhere Hierarchieebene befördert wird. Das Peter-Prinzip trägt zunächst einmal dem Anreizziel der Karriereplanung Rechnung. Da jedoch die Anforderungen üblicherweise mit zunehmender Hierarchieebene steigen, bewirkt das PeterPrinzip, dass jeder Arbeitnehmer bei seiner letzten betrieblichen Beförderung auf eine Ebene befördert wird, deren Aufgaben er nicht mehr gewachsen ist, was einen Verstoß gegen das Allokationsund Matchingziel bedeutet. Dieser Zielkonflikt lässt sich allerdings dadurch verhindern, dass man auch Degradierungen zulässt. Ein zweites Beispiel für einen Zielkonflikt ergibt sich über externe Arbeitnehmer, die vom Arbeitgeber als Quereinsteiger auf höheren Hierarchieebenen zugelassen werden. Solch ein Quereinstieg kann aus Arbeitgebersicht sinnvoll sein, wenn die internen Stellenbewerber deutlich schlechter geeignet
Karriereplanung sind als externe Bewerber. Durch einen Quereinstieg wird jedoch das Anreizziel verletzt, da die betreffenden internen Bewerber nicht mehr mittels Beförderung für ihre bisherigen Leistungen belohnt werden können. Negative Anreizeffekte ergeben sich auch dadurch, dass aufgrund der ausgebliebenen Beförderung keine Folgevakanzen auf niedrigeren Hierarchieebenen entstehen, die für Beförderungsanreize sorgen können. Zudem kann der Quereinstieg auch Signalcharakter für zukünftige Vakanzen haben, bei denen interne Bewerber analog damit rechnen müssen, aufgrund fähiger externer Kandidaten keine Berücksichtigung zu finden. Den dritten Baustein der Karriereplanung bilden die Instrumente, die der Unternehmensleitung zur Verfügung stehen. Unterteilen lassen sich die Instrumente anhand der Phasen im betrieblichen Karrierelebenszyklus eines Arbeitnehmers, in der sie jeweils angewendet werden. Solch ein Karrierelebenszyklus kann in eine Einstellungs- und Karriereanfangsphase, eine Aufstiegsphase und eine Austrittsphase zerlegt werden. Im Rahmen der Einstellungs- und Karriereanfangsphase hat die Unternehmensleitung insbesondere über Regeln für die Gestaltung der Mitarbeiterauswahl und der Probezeit zu entscheiden. Beispielsweise stellt sich der Unternehmensleitung hier die grundsätzliche Frage, ob sie Fast-TrackKarrierepfade, auf denen außerordentliche Talente sehr schnell betrieblich aufsteigen, schaffen sollte oder nicht. Für einen Rückgriff auf dieses Instrument spricht das Allokations- und Matchingziel, dagegen jedoch mögliche negative Anreizeffekte infolge der frühen Differenzierung zwischen zwei Klassen von Arbeitnehmern - High-Potentials und Nicht-High-Potentials. Eine andere Instrumentenentscheidung betrifft die Zulassung von Quereinsteigem versus die Abschottung des internen Arbeitsmarktes mittels Quereinstiegsverbot. Die meisten
411
Karriereplanung Instramente finden in der Aufstiegsphase Anwendung, die sich von der ersten Beförderung eines Arbeitnehmers bis hin zu seinem Austritt aus der Unternehmung erstreckt. Hierbei hat die Unternehmensleitung u.a. zu entscheiden, ob sie eine Parallelhierarchie als separates Karrieresystem für Industrieforscher zulassen sollte oder nicht. Weitere InstrumentenvaBeförderungsgeriablen stellen die schwindigkeiten auf den einzelnen Hierarchieebenen dar. Ferner ist über die optimale Verkettung von Stellen zu Karrierepfaden zu entscheiden sowie über die Wahl der Beförderungskriterien, die zwischen zwei miteinander verknüpften Stellen jeweils zur Anwendung gelangen sollen. Im Prinzip kann die Unternehmensleitung hierbei zwischen dem Senioritätskriterium (Beförderung nach Betriebszugehörigkeitsdauer), dem Leistungskriterium (Beförderung nach bisheriger Leistung) sowie einer Kombination aus beiden Kriterien entscheiden. Schließlich obliegt der Unternehmensleitung auch die Gestaltung der Austrittsphase von Arbeitnehmern aus der Unternehmung. Diese Phase ist insofern für die Unternehmensleitung von Bedeutung, als der Gestaltung dieser Phase eine Art Signalcharakter zukommt. Zum einen wird jungen Arbeitnehmern signalisiert, wie mutmaßlich mit ihnen verfahren wird, wenn sie sich später in der Austrittsphase befinden werden. Zum anderen ergibt sich auch ein Signalcharakter für externe Arbeitnehmer, die überlegen, sich beim betrachteten Unternehmen zu bewerben. Hinsichtlich der Austrittsphase hat die Unternehmensleitung beispielsweise über Regeln für die Festlegung von Abfindungszahlungen und für die Gestaltung von Betriebsrenten zu entscheiden. Femer ist auch über die grundsätzliche Anwendung von Outplacementmaßnahmen (-> Outplacement) zu entscheiden sowie darüber, wie mit Arbeitnehmern zu verfahren ist, die infolge eines Betriebsunfalls arbeitsunfähig geworden sind.
412
Kausalanalyse Der vierte Baustein der Karriereplanung wird durch die Restriktionen gebildet, innerhalb derer die Karriereplanung zu erfolgen hat. Hierzu zählen sämtliche Kontextfaktoren, die den Gestaltungsspielraum der Unternehmensleitung einschränken, im Rahmen der Karriereplanung von dieser jedoch nicht direkt beeinflussbar sind. Beispielsweise gehören dazu die Organisationsstruktur, die Größe und das Wachstum der Unternehmung. Alle drei Größen stellen zwar Instrumentenvariablen der Unternehmensleitung dar, werden jedoch üblicherweise nicht primär im Rahmen der Karriereplanung festgelegt. Sie bilden vielmehr den Bewegungsraum für den betrieblichen Aufstieg von Arbeitnehmern und begrenzen damit den Spielraum der Unternehmensleitung fiir die Gestaltung von Karrierepfaden. Restriktionen ergeben sich aber auch über die Gegebenheiten des Arbeitsmarktes, auf dem das betrachtete Unternehmen angesiedelt ist, sowie über (arbeits)gesetzliche Regelungen, -» Tarifverträge und —• Betriebsvereinbarungen. Matthias Krakel Kartellverbot Gesetz gegen kungen (GWB)
Wettbewerbsbeschrän-
Kaufhaus Handelsformen Kausalanalyse Die Kausalanalyse ist ein multivariates Verfahren (-»multivariate Analyseverfahren) zur Uberprüfung von Zusammenhängen zwischen Variablen, das in der -»Marktforschung als Verfahren der zweiten Generation zunehmend an Bedeutung gewinnt. Hierbei soll auf der Basis eines theoretisch fundierten Hypothesensystems überprüft werden, ob die theoretisch aufgestellten Beziehungen mit dem empirisch gewonnenen Datenmaterial übereinstimmen. Eine wesentliche Eigenschaft der Kausalanalyse ist die Unterscheidung zwischen beobachteten
Kennzahlen und Kennzahlensysteme
Kausalanalyse (d.h. messbaren) Indikatorvariablen und latenten Variablen. Bei latenten Variablen handelt es sich um komplexe Konstrukte, die nicht direkt beobachtet und gemessen werden können und deshalb mit Hilfe der Indikatorvariablen operationalisiert werden. Das konkrete Ziel dieses Verfahrens besteht darin, Hypothesen über die Messung der latenten Variablen (Messmodell) und Hypothesen über kausale Beziehungen zwischen den latenten Variablen (Strukturmodell) simultan zu testen, wobei diese Beziehungen direkter, indirekter und reziproker Art sein können. Wird lediglich ersteres überprüft, so spricht man von konfirmatorischer Faktorenanalyse. Sofern das Modell anhand verschiedener Gütekriterien nicht abgelehnt wird, lassen sich die geschätzten Modellparameter als Maße für die - > Reliabilität der Konstruktmessung bzw. für die Stärke des kausalen Zusammenhangs zwischen den latenten Variablen interpretieren. Zur Bestimmung der Parameter stehen verschiedene Schätzverfahren zur Verfügung; am häufigsten wird der Maximum Likelihood-Ansatz verwendet. Streng genommen ist die Bezeichnung Kausalanalyse irreführend, da Kovarianzstrukturen und nicht Kausalitäten untersucht werden. Eine synonyme Bezeichnung ist deshalb auch Kovarianzstrukturanalyse. Außerdem wird das Verfahren auch häufig nach dem gebräuchlichsten Softwarepaket als LISREL (Linear Structural Relations)-Ansatz bezeichnet. Neben dem konfirmatorischen Einsatz besteht schließlich auch die Möglichkeit exploratorisch nach einem zu den Daten passenden Modell zu suchen. Christine Wiedemann Kennzahlen und Kennzahlensysteme Kennzahlen und Kennzahlensysteme haben sich als Werkzeuge zur Unterstützung der Unternehmensführung etabliert. Gleichzeitig bilden sie die Grundlagen von Führungsinformationssystemen. Dazu beigetragen hat die Erkenntnis, dass die Kennzahlen und Kennzahlensysteme
relativ einfach und in konzentrierter Form wirtschaftliche Tatbestände, Zusammenhänge und Entwicklungen über Analysen, Planungen und Kontrollen transparent machen. Kennzahlen können dazu beitragen Entscheidungen zu objektivieren und mehrstufige Entscheidungsprozesse in Unternehmen zu unterstützen. Wesentliche Aufgabe von Keimzahlen und Kennzahlensystemen ist die Erfassung und Steuerung wirtschaftlicher Aktivitäten. Dabei ist die Strukturierung, Verknüpfung und Verdichtung unerläßlich, um funktionale, übergreifende Abhängigkeiten und Wechselwirkungen sichtbar zu machen. Kennzahlen dienen auch dazu, eine strategische und operative Zielorientierung zu fixieren und zu gewährleisten. Ausgehend von einer relativ breiten Grunddaten-Basis kann dieses auf wesentliche Kennzahlen (= Spitzenkennzahlen) wie Rentabilität, Produktivität, Liquidität und Kapitalstruktur (z.B. Cash-flow) abgestellt sein. Als Steuerungskonzept verstanden erleichtern Kennzahlen und Kennzahlensysteme die Gestalung und Steuerung von Unternehmen mit der Komplexität der in ihnen ablaufenden leistungswirtschaftlichen und finanziellen Prozesse. Für die Unternehmensführung und den Controller stellt sich dabei die Aufgabe, aus der Fülle der Ausgangsdaten aller Bereiche jene auszuwählen, die als Basis für die Aufbereitung von Kennzahlen geeignet sind, und die eine zukunftsbezogene, nachhaltige Entscheidungsfindung und deren Durchsetzung gewährleisten. Es gibt eine Vielzahl von unterschiedlichen Kennzahlen. Die Strukturierung und Systematisierung kann nach einer Reihe von Kriterien erfolgen. Als Ausgangsdaten finden meist Zahlen des Rechnungswesens, der einzelnen Bereiche des Unternehmens, vergleichbare Daten anderer Unternehmen, amtliche Statistiken und betriebswirtschaftlich relevante Daten von Instituten und Wirtschaftsverbänden Verwendung. Im Rahmen des 413
Kernkompetenz
Kennzahlen und Kennzahlensysteme -> Controlling sind Kennzahlen von Bedeutung, die aus Plandaten, Planungsrechnungen und Plan-Ist-Vergleichen abgeleitet sind sowie Analysen und Planungszwecken dienen. Für die Steuerung in Unternehmen lassen sich aus Art und Vielzahl von Kennzahlen die Kriterien Zielorientierung, Objekt-/Funktionsbereich und statistische Form herausstellen. Maßgebend für den Ansatz sollte jedoch immer der Informationscharakter und die Aussagefähigkeit entsprechend der jeweiligen betriebswirtschaftlichen Fragestellung sein. Kernkompetenz 1. Der Ansatz marktorientierter Kernkompetenzen Begriff und Ansatz der Kernkompetenzen entstanden aus dem ressourcenorientierten Ansatz (Resource-based view of strategy) des -* Strategischen Managements. Ursprünglich durch die Arbeiten von Prahalad und Hamel (1990, 1995) vorangetrieben, hat dieser Ansatz auch im deutschsprachigen Raum Verbreitung gefunden (vgl. Rasche, 1994; Rühli, 1994; Bamberger/Wrona, 1996; Krüger/Homp, 1996, 1997). Die herkömmlichen Arbeiten des ressourcenorientierten Ansatzes stellen sich in einen bewussten Gegensatz zum marktorientierten Ansatz (Market-based view of strategy), wie er in der Strategieliteratur insbesondere von Porter vertreten wird (Porter, 1992). Während Porter den Erfolg von Unternehmungen im Erzielen von Wettbewerbsvorteilen begründet sieht, wird dort die Auffassung vertreten, dass funktionierender Wettbewerb jeden Vorteil rasch zunichte mache ("erodiert") und die Unternehmungen sich im wesentlichen durch besondere Ressourcen und Fähigkeiten voneinander unterscheiden können. Die Frage, ob der ressourcenorientierte oder der marktorientierte Ansatz der "richtige" sei, ist allerdings so sinnlos wie die Frage, ob das rechte oder das linke Auge für das Sehen wichtiger ist. Viel414
mehr kommt es darauf an, beide Ansätze miteinander zu verbinden (so auch Rühli, 1994). In den anwendungsbezogenen Überlegungen von Hamel/Prahalad zum Kemkompetenz-Ansatz ist die Marktperspektive keineswegs ausgeschlossen. Eine dezidiert auf Integration abzielende Weiterfuhrung bietet der Ansatz marktorientierter Kernkompetenzen von Krüger/Homp, der hier zugrunde gelegt wird (vgl. Krüger/Homp 1997, S. 25ff.). 2. Kernkompetenzen in der Wertschöpfungskette Um Kernkompetenzen zu untersuchen, kann die —• Wertschöpfungskette einer Unternehmung herangezogen werden. Am kundenbezogenen Ende der Kette müssen die Wettbewerbsvorteile als Ergebnisse der Wertschöpfung (Outputvorteile) sichtbar werden, z.B. in der Qualität der Endprodukte, dem Kundenservice oder der Zuverlässigkeit der Lieferung. Die Quellen der Vorteile liegen dagegen in den vorgelagerten Prozessstufen und den dort verankerten, spezifischen Ressourcen und Fähigkeiten (Abb. 1). •
•
Ressourcenvorteile entstehen in der Beschaffung von materiellen und finanziellen Einsatzgütern, Informationen bzw. Wissen sowie in der Verfügbarkeit qualifizierter und motivierter Mitarbeiter. Integrationsvorteile liegen in der technisch-organisatorischen Kombination materieller und immaterieller Produktionsfaktoren. Sie resultieren aus Besonderheiten in der Produktionstechnologie, in den Planungs-, Steuerungs- und Kontrollsystemen sowie den Informations- und Kommunikationssystemen. Sie können aber auch auf Personalentwicklungs- und Anreizsystemen oder der -> Organisationsstruktur und -kultur basieren (s.a. ->• Personalentwicklung, ->• Entgeltmanagement, -» Unternehmenskultur).
Kernkompetenz •
Interaktionsvorteile sind Ausdruck der unternehmungsübergreifenden Verklammerung und Prozessgestaltung. Dies beginnt mit technischorganisatorischen Verbindungen (z.B. Just-in time- Konzepte), geht über das Management von vertikalen und horizontalen Netzwerken bis hin zum Umgang mit außermarktlichen Anspruchsgruppen (-> Netzwerkmanagement, -> Stakeholder-Ansatz).
Die besondere Chance von Kemkompetenzen liegt darin, dass durch Kultivierung und Transfer von Kompetenzen die Stärke einer Unternehmung immer neue Produkte und Geschäfte entstehen lässt. Die Unternehmungen bekommen mit dem Kernkompetenzen-Ansatz also ein Instrumentarium in die Hand, das sie befähigt, die defensiv-reaktiven Anpassungsstrategien zu verlassen und zu offensivproaktiven Gestaltungsstrategien überzugehen. Dabei kann sich der Transfer auf ähnliche oder sehr unterschiedliche Produkte erstrecken, also vorhandene Geschäfte stärken oder völlig neue eröffnen. Beispiel: 3M transferiert u.a. seine in der Herstellung von Overhead-Projektoren erworbene Kernkompetenz der Mikroreplikation (Mikrostrukturen von Ober-
Kernkompetenz flächen perfekt herstellen) auf so unterschiedliche Produkte wie Schleifmittel, Haftmaterialien und reflektierende Straßenschilder. Dieselbe Kernkompetenz speist hier wie die Wurzel eines Baumes unterschiedliche Geschäftszweige, an denen, wie die Früchte des Baumes, völlig verschiedenartige Produkte hängen. Zusammenfassend ergibt sich folgende Definition von Kernkompetenzen: Eine Kernkompetenz ist die dauerhafte und transferierbare Ursache für den Wettbewerbsvorteil einer Unternehmung, die auf Ressourcen und Fähigkeiten basiert. 3. Beispiele für Kernkompetenzen Die folgende Übersicht zeigt exemplarisch mögliche Ansatzpunkte für Kernkompetenzen. • Technologie-/Funktionsbündel: -
•
Prozessbeherrschung: -
•
Produktentwicklung Auftragsabwicklung Kundenakquisition
Einzelne Produkte/Leistungen: -
•
Miniaturisierung (SONY) Integrationsfähigkeit
Motorenbau
Integrierte Problemlösungen: -
Schlüsselfertigbau BOT-Modelle Finanzdienstleistungen
415
Kernkompetenz •
•
Kernkompetenzmanagement
(Einzelne) Funktionen: - operative Funktionen, z.B. Logistik, Produktion, Marketing, Vertrieb - Managementfunktionen, z.B. renditeorientierte Steuerung, Internationalisierung, M&A (Einzelne) Technologien: - Genomanalyse -
Molekülkombination
-
Feinmechanik Reinstraumtechnologie Vakuumtechnik
Zur Umsetzung der Kernkompetenzen s.a. Kernkompetenzmanagement. Literatur: Hamel, G./Prahalad, C.K.: Wettlauf um die Zukunft, Wien 1995; Krüger, W./Homp, Chr.: Marktorientierte Kemkompetenzen und ihr strategischer Einsatz, Arbeitspapier Nr. 4/96 der Professur BWL II, Justus-Liebig-Universität Gießen, 1996; Krüger, W./Homp, Chr.: KemkompetenzManagement, Steigerung von Flexibilität und Schlagkraft im Wettbewerb, Wiesbaden 1997; Krüger, W./Homp, Chr.: Kernkompetenzen, in: WiSt 10/1998, S. 529-531; Porter, M.E.: Wettbewerbsvorteile, Frankfurt, 1992; Rühli, E.: Die Resource-based View of Strategy, in: Gomez, P./Hahn, D./Müller-Stewens, G./Wunderer, R. (Hrsg.): Unternehmerischer Wandel, Wiesbaden 1994, S.31-57.
Wilfried Krüger Kernkompetenzmanagement Für die praktische Umsetzung von -» Kernkompetenzen ist ein Kernkompetenz-Managementprozess zu installieren, der fünf Phasen umfasst (Abb. 1). J
•
Identifikation: Die Bestimmung relevanter Ressourcen und Fähigkeiten sowie die Definition vorhandener oder zu entwickelnder Kompetenzen bilden zwangsläufig den Beginn des Prozesses. Die auf eigenen Fähigkeiten beruhende Geschäftsidee steht im Mittelpunkt dieser Phase. Es gilt nicht zuletzt, traditionelle Geschäftsdefinitionen und Geschäftsziele zu hinterfragen, um im Anschluss daran innovative Absichten zu formulieren.
•
Entwicklung: Entwicklungsaufgaben umschließen die Gesamtheit kompetenzorientierter Aufbau- und Umbaumaßnahmen von Fähigkeiten und Ressourcen, also die Festigung, den Ausbau und die Verbesserung bestehender sowie die Neuentwicklung zukünftiger Kompetenzen. Eigenentwicklungen sind ebenso möglich wie Gemeinschaftsvorhaben mit Partnern.
•
Integration: Die verschiedenen Ressourcen und Fähigkeiten sind so zu kombinieren und zu bündeln, dass ihre optimale Nutzung erreicht wird (z.B. im Rahmen von Prozessoptimierungen und Reorganisationen). Dies kann einen weitreichenden Konzernumbau nach sich ziehen. Randfunktionen und -geschäfte werden aufgegeben, Kernfunktionen und -geschäfte werden organisatorisch zusammengefasst, z.B.
Identifikation
I Entwicklung
^
Nutzung
Abb. 1: Zyklus des
416
I
Integration
Kernkompetenz-Managements
Kernkompetenzmanagement •
•
in Centers of Competence. Nutzung: Das Ausschöpfen der Stärken und damit der Wettbewerbsvorteile am Markt bildet den Inhalt der Nutzungsaktivitäten. Die Phase der Nutzung ist der Zeitraum, in dem positive Rückflüsse aus den Entwicklungs- und Integrationsbemühungen erzielt werden. "Nutzen" ist allerdings nicht als ein passives "Abnutzen" zu verstehen. Vielmehr ist eine enge Verzahnung mit Entwicklungs- und Integrationsaufgaben vorzunehmen, um eine stetige Anpassung und Aktualisierung der Kompetenz sicherzustellen. Nur so lässt sich eine nachhaltige Nutzung erzielen. Transfer. Wirkliche Kernkompetenzen erkennt man daran, dass sie auf andere Produkte, Regionen und Kunden übertragbar sind, sei es im Stammgeschäft oder in neuen Geschäftsfeldern. Der Transfer von Kompetenzen bildet demgemäß einen eigenen Aufgabenbereich. Er erfordert wie die Identifikation viel unternehmerische Phantasie, um sich zukünftige Verwendungen vorhandener oder im Entstehen befindlicher Fähigkeiten vorzustellen.
Literatur: Krüger, W./Homp, Chr.: Kernkompetenz-Management, Steigerung von Flexibilität und Schlagkraft im Wettbewerb, Wiesbaden 1997; Prahalad, C.K./Hamel, G.: The core competence of the Corporation, in: Harvard Business Review, 1990, S. 79-91; Rasche, Chr.: Wettbewerbsvorteile durch Kernkompetenzen, Wiesbaden 1994.
Wilfried Krüger Kernprozess -> Business Process -> Prozessmanagement
Reengineering,
Key-Account-Management Key-Account-Management (KAM) ist eine besondere Form der Kundenbeziehungspflege. Die Vertriebsorganisation wird dabei so strukturiert, dass für Kunden von herausragender Bedeutung (sog. Schlüsselkunden oder Key Accounts) eigene Ansprechpartner bereit gestellt werden. Die Key-Account-Manager
Know-How-Synergien dienen als universelle Schnittstelle zwischen dem Kunden und den einzelnen Bereichen des eigenen Unternehmens. Sie sorgen dafür, dass die Kundenorientierung nicht beim Vertrieb endet, sondern im ganzen Produktionsprozess gelebt wird. So werden die Kundenwünsche durch das KAM an die richtige Stelle im Unternehmen weitergeleitet und dort vertreten. So ist gewährleistet, dass bereits an vorgelagerten Stellen den Kundenbedürfnissen entsprechend gehandelt wird. Das KAM kann etwa Sonderwünsche des Kunden in die Produktionsplanung und sogar in den Einkauf tragen. KAM ist nur dann sinnvoll, wenn sich einige wenige Kunden ermitteln lassen, die für das Unternehmen von besonderer Bedeutung sind, also insbesondere im Business-to-Business-Geschäft. KGV Kurs-Gewinn-Verhältnis "Kleine" Aktiengesellschaft Seit dem Gesetz für kleine -* Aktiengesellschaften vom 2.8.1994 liegt dem Aktiengesetz nicht mehr das Leitbild der Publikums-AG zugrunde. § 2 AktG erlaubt nunmehr die Einmann-Aktiengesellschaft. Sind alle Aktionäre beispielsweise durch die Ausgabe von Namensaktien bekannt, kann die Hauptversammlung nach § 121 Abs. 4 AktG durch eingeschriebenen Brief statt durch Bekanntmachung im Bundesanzeiger einberufen werden. Die Niederschrift über die Hauptversammlung kann bei nicht börsennotierten Aktiengesellschaften nach § 130 Abs. 1 AktG vom Aufsichtsratsvorsitzenden formwirksam unterzeichnet werden; eine notarielle Beurkundung ist entbehrlich. Die "kleine" Aktiengesellschaft eignet sich besonders zur Einbindung von -> Angel Investors in —1• Start Ups. Know-How-Synergien —> Synergiemanagement 417
Kollegialprinzip Kollegialprinzip Bei einem Vorgang der betrieblichen Willensbildung wird unter Anwendung des Kollegialprinzips die Entscheidung unter Einbeziehung aller Mitarbeiter der Hierachiestufe getroffen. Die Entscheidung wird also nicht Top-down, wie im Fall des -> Direktorialprinzips, sondern gemeinsam und gleichberechtigt gefällt. Kombinierte Reichweite -> Kontaktmaßzahlen Kommanditgesellschaft (KG) 1. Struktur und Organe der KG Die Personengesellschaftsform der KG ist in den §§ 161 ff. H G B , sowie ergänzend in den § § 1 0 5 ff. H G B und den §§ 705 ff. BGB als partei- und rechtsfähige Handelsgesellschaft geregelt. Diese Gesellschaftsform findet sich v.a. im Bereich mittelständischer Unternehmen. Die Gesellschafter teilen sich in die Gruppe der persönlich unmittelbar und unbeschränkt haftenden Gesellschafter, der Komplementäre, und in die der Kommanditisten auf. Die Kommanditisten stehen den Gesellschaftsgläubigern nach erfolgter Registereintragung, sofern sie ihre Einlage noch nicht geleistet haben, nur in der Höhe des Betrages ihrer Haftsumme unmittelbar zur Verfügung. Wenn die Haftsumme eingebracht wurde, ist die persönliche Haftung der Kommanditisten ausgeschlossen ( § 1 7 1 I, 2.HS HGB). Die Kommanditistenhaftung ist vor der Eintragung der Gesellschaft in das Handelsregister wie die der Komplementäre unbeschränkt und unmittelbar, wenn die Gesellschaft ihre Geschäfte mit Zustimmung des jeweiligen Kommanditisten aufgenommen hat (§ 176 I HGB). Diese persönliche Haftung gilt auch für Verbindlichkeiten, die innerhalb des Zeitraumes zwischen Eintritt und Eintragung eines hinzutretenden Kommanditisten begründet wurden (§ 176 II HGB). Werden Gelder aus dem Vermögen der Gesellschaft Kommanditisten ohne Gegenleistung derart zugewendet, dass dadurch ihre Einlage unter den als Haft418
Kommanditgesellschaft summe eingetragenen Betrag sinkt, lebt die Haftung der Kommanditisten in der Höhe der Differenz von eingetragener und tatsächlicher Haftsumme gegenüber den Gläubigern der Gesellschaft wieder auf (§ 172 IV, 1 HGB). Diese Haftung greift auch, wenn einem Kommanditisten ein Gewinn ausgezahlt wird, obwohl sich sein Kapitalanteil durch Verluste oder Entnahmen unter den Betrag seiner Haftsumme gemindert hat (§ 172 IV, 2 HGB). Ein eintretender Kommanditist haftet für Altverbindlichkeiten der Gesellschaft maximal mit der für ihn eingetragenen Haftsumme (§§ 173; 171 f. H G B - s.o.). Um die Komplementärhaftung einzugrenzen, werden als Komplementäre häufig juristische Personen eingesetzt; dadurch entfällt als Bonitätsfaktor der persönliche Kredit des Komplementärs, der auf dessen gesellschaftlichen Ansehen beruht. Bevorzugt wird, auch als Publikumsgesellschaft, die Form der GmbH & Co KG (-> GmbH). Das Erfordernis von Kommanditisten als zweiter Gesellschaftergruppe neben den Komplementären unterscheidet die KG von der offenen Handelsgesellschaft (OHG). Die Rechtsstellung der Komplementäre in der KG entspricht derjenigen der Komplementäre in der O H G aufgrund der Verweisungsnorm des § 161 II HGB. Die Rechte und Pflichten der Kommanditisten werden v.a. in den dispositiven Regelungen der § § 1 6 1 ff. H G B aufgezeigt. Danach sind sie grundsätzlich von der Geschäftsführung, die den gewöhnlichen Betrieb der Gesellschaft umfasst und der gesetzlichen Vertretung der KG ausgeschlossen (§§ 164; 170 HGB). Bei Grundlagenbeschlüssen haben sie ein Mitwirkungsrecht. Sie haben Informations- und Kontrollrechte v.a. in bezug auf den -» Jahresabschluss und nehmen, wie Komplementäre, an den Gewinnen und den Verlusten der Gesellschaft in einem den Umständen nach angemessenen Verhältnis ihrer Kapitalanteile teil (§ 168 HGB). Die Kommanditisten un-
Kommanditgesellschaft
Kommanditgesellschaft auf Aktien
terliegen keinem Wettbewerbsverbot (§ 165 HGB). In der Praxis werden die Rechte der Kommanditisten, v.a. in Publikumsgesellschaften, häufig durch Gesellschaftsverträge beschnitten. 2. Gründung und Auflösung der KG Der Gesellschaftszweck muss auf den Betrieb eines (Handels)Gewerbes unter gemeinschaftlicher Firma gerichtet sein. Komplementär und Kommanditist dürfen nicht personengleich sein. Im übrigen folgen Gründung, Gesellschafterwechsel und Auflösung den Grundsätzen, die für die O H G gelten. Grundsätzlich führt weder der Tod eines Kommanditisten noch der eines Komplementärs zur Auflösung der Gesellschaft (§§ 177; 161 II; 131 III HGB). Der Kommanditanteil ist jedoch kraft Gesetzes vererblich. Die Veräußerung des Gesellschaftsanteils eines Kommanditisten oder eines Komplementärs ist, wenn keine abweichenden gesellschaftsvertraglichen Bestimmungen bestehen, an die Zustimmung der Mitgesellschafter gebunden, weil sie das Grundverhältnis tangiert. Literatur: Karsten München 1997.
Schmidt;
Gesellschaftsrecht;
Hanns Jörg Herwig Kommanditgesellschaft auf Aktien (KGaA) Die KGaA wird als juristische Person durch eine Kombination des Rechts der AG (-» Aktiengesellschaft) und der KG (-> Kommanditgesellschaft) sowie einigen Sonderregelungen bestimmt. 1. Gründung und A uflösung der KGaA Die KGaA, deren rechtsstaatliche Bedeutung aufgrund der unvollständigen Regelungen und der komplexen Verknüpfung des Rechts der Aktiengesellschaft (AG) mit dem der Kommanditgesellschaft (KG) gering ist, entstand im Frankreich des 18. Jahrhunderts und ist heute legal definiert in § 278 I AktG. Danach ist sie eine Gesellschaft mit eigener Rechtsper-
sönlichkeit, eine juristische Person, die Handelsgesellschaft kraft Rechtsform ist. Die Gründung der KGaA folgt dem Aktienrecht (§§ 280 ff.; 278 III; 23 ff. AktG). Zusätzlich müssen mindestens fünf Personen beteiligt sein. Die Komplementäre sind in das Handelsregister einzutragen. Die Auflösungsgründe sind v.a. in den §§ 289 AktG; 161 II; 131 I; II; 133 HGB geregelt; hierbei stehen die Eröffnung des Insolvenzverfahrens (—> Insolvenz) über das Vermögen der Gesellschaft und der Auflösungsbeschluss der Gesellschafter im Vordergrund. 2. Struktur und Organe der KGaA Die Gesellschafter teilen sich in zwei Gruppen auf, aus denen jeweils mindestens einer an der Gesellschaft beteiligt sein muss: einerseits die persönlich haftenden Gesellschafter (Komplementäre), die den Gesellschaftsgläubigern unmittelbar und unbeschränkt mit ihrem Privatvermögen - mehrere Komplementäre stehen als Gesamtschuldner ein - haften und andererseits die Kommanditaktionäre, die, ohne persönlich für die Verbindlichkeiten der Gesellschaft zu haften, an dem in Aktien zerlegten Grundkapital der Gesellschaft beteiligt sind. Die Komplementäre können sich als Komplementäre mit (Sonder-) Vermögenseinlagen beteiligen, die, da sie nicht auf das Grundkapital geleistet werden, nach Höhe und Art in der Satzung festgesetzt werden müssen. Sie können zusätzlich Aktien der Gesellschaft erwerben und somit zugleich Kommanditaktionäre werden. Dann unterliegen die Einlagen den aktienrechtlichen Bestimmungen. Ob die Komplementärfahigkeit nur natürlichen Personen oder aber auch juristischen Personen zugeordnet werden darf, ist umstritten, wird aber vom Bundesgerichtshof, jedenfalls für die - G m b H und die GmbH & Co KG, bejaht. Die KGaA verbindet die persönliche Kreditwürdigkeit und die Selbstorganschaft der Komplementäre als Elemente der KG mit den von der AG eröffneten 419
Kommanditgesellschaft auf Aktien Möglichkeiten als Kapitalsammelbecken zu fungieren und die Börsengängigkeit zu erlauben. Diese Rechtsform bietet sich somit als Publikumsgesellschaft an. Unterschiede zur AG ergeben sich v. a. in der inneren Organisation und der Führungsstruktur: Die Rechtsstellung der Komplementäre richtet sich nach den entsprechenden Regelungen in den Vorschriften des Handelsgesetzbuches über die KG (§§ 278 II AktG; 161 ff.; 109 ff. HGB). Die Geschäftsführungs- und Vertretungsfunktion bei der KGaA übernehmen daher statt eines Vorstandes die Komplementäre (§ 278 II AktG i.V.m. §§161 II; 114 ff.; 125 ff. HGB). Der Umfang ihrer Vertretungsmacht kann grundsätzlich nicht durch Satzung beschränkt werden. Auf die persönlich haftenden Gesellschafter sind wesentliche aktienrechtliche Vorstandsbestimmungen sinngemäß anwendbar (§ 283 AktG). Darunter fallen v.a. Handelsregisteranmeldungen, Gründungs-, Sonder- und Jahresabschlussprüfung, Sorgfaltspflicht und Verantwortlichkeit sowie Pflichten gegenüber dem Aufsichtsrat. Die Komplementäre unterliegen einem Wettbewerbsverbot (§ 284 AktG). Sie werden ferner nicht von einem Aufsichtsrat bestellt, sondern stehen kraft Satzungsbestimmung fest. Ihre Abberufung ist daher nur durch eine Satzungsänderung möglich. Der Aufsichtsrat, dem keine Komplementäre angehören dürfen, hat die Aufgabe, die Ausführung der Hauptversammlungsbeschlüsse zu sichern. Er hat die Überwachungskompetenz über die Geschäftsführung, sowie das Prüfungs- und das Informationsrecht. Femer vertritt er die Kommanditaktionäre gegenüber den Komplementären. Die Hauptversammlung dient v.a. den Kommanditaktionären als Willensbildungsorgan. Sie übt bei der KGaA dieselben Funktionen aus wie bei der AG (§§ 278 III; 118 ff. AktG); jedoch beschließt sie zusätzlich, unter dem Zustimmungserfordernis der persönlich 420
Komplexitätskosten haftenden Gesellschafter, über die Feststellung des Jahresabschlusses (§ 286 I AktG). In der Hauptversammlung haben Komplementäre ansonsten, wenn es nicht um Grundlagenbeschlüsse geht, nur dann ein seinerseits durch § 285 I, 2 AktG eingeschränktes Stimmrecht, wenn sie zugleich Kommanditaktionäre sind. Literatur: Wilhelm, J.: Kapitalgesellschaftsrecht; Berlin 1998; Schmidt, K.: Gesellschaftsrecht, München 1997.
Hanns Jörg Herwig Kommunikationsanalysen -> Computer Aided Organizational Engineering Komplexitätskosten 1. Komplexitätsbegriff und kostenmäßige Konsequenzen Unternehmen nahezu aller Branchen sind heute mit einem zunehmend steigenden Kostendruck konfrontiert. Dies äußert sich nicht allein in der Erhöhung des Kostenniveaus, sondern darüber hinaus auch durch eine Veränderung des Kostenverhaltens, im Sinne zunehmend progressiver Stückkostenverläufe. Das Entstehen von Komplexitätskosten steht in direktem Zusammenhang mit diesem Kostenverhalten (Becker 1992, 1997). Der Begriff der Komplexität umfasst die Gesamtheit aller Merkmale eines Zustandes oder Objekts im Sinne von Vielschichtigkeit und lässt sich durch die Betrachtung der Anzahl, der Häufigkeit, des Wiederholungsgrades, der zeitlichen Reichweite sowie des inhaltlichen Umfanges einer zu treffenden Disposition konkretisieren. Die durch Zuwachs innerhalb dieser Ausprägungen unternehmerischer Dispositionen umschreibbare höhere Führungskomplexität kann als Resultante von leistungswirtschaftlichen Anpassungsmaßnahmen in Unternehmen aufgefasst werden. Der Zusammenhang zwischen steigenden Anforderungen an die gesamte unternehmerische Leistungsfähigkeit, höherer Führungskomplexität, dadurch notwendi-
Komplexitätskosten ger intensitätsmäßiger Anpassung der Aktivitäten des dispositiven Faktors sowie schließlich den dadurch induzierten progressiven Koordinationskosten stellt einen unmittelbaren Ursache-WirkungsVerbund dar. Darüber hinaus sind auch mittelbare, gleichwohl aber wesentliche Einflüsse auf die Kosten der elementaren Faktoren zu vermuten. Komplexitätskosten entstehen diesbezüglich als Folge des Einsatzes zunehmend komplexerer Repetier- und Potenzialfaktoren, - exemplarisch sei auf die Verwendung neuer Werkstoffe, die Inanspruchnahme hochspezialisierter Dienstleistungen, den Einsatz hochqualifizierten Personals sowie die Nutzung hochtechnisierter Anlagen verwiesen - sowie der Erstellung möglichst kundenindividueller und somit meist variantenreicher Produkte (Pfeiffer/Dörrie/Gerharz/Goetze, 1992) Hinzu kommt, dass Produkte in zunehmendem Maße als äußerst vielschichtige Leistungsbündel, bestehend aus Haupt-, zwangsverbundenen Neben- und wahlverbundenen Zusatzleistungen, am Markt orientiert werden. Einhergehend mit dieser Input-Output-Vielfalt wird regelmäßig die Komplexität der Leistungsprozesse, aber auch der vor- und nachgelagerten Aktivitäten in der Leistungs- und Wertkette erhöht. Damit nehmen auch Zahl und Betreuungsintensität der in den Unternehmensprozess eingebundenen Lieferanten und Kunden zu. Die kostenmäßigen Konsequenzen dieser in der Leistungssphäre erfolgenden Anpassungen an die Anforderungen der Märkte sind äußerst vielschichtig. Besonders deutliche Auswirkungen zeigen sich in den Kosten der Entwicklung von Produkt- und Prozesstechnologien, den Vorund Anlaufkosten der eigentlichen Produktion, den Kosten der logistischen Steuerung des gesamten Material- und Warenflusses, den Sorten- beziehungsweise Variantenwechselkosten, den Kosten der Qualitätssicherung, den Kosten der Leistungsverwertung sowie den Kosten der späteren Entsorgung. Der Anstieg
Komplexitätskosten dieser Kostenbestandteile kann eine Abflachung - beziehungsweise in extremen Fällen sogar eine Überkompensation - der in Abhängigkeit von der Beschäftigung degressiv verlaufenden Stückkosten der elementaren Faktoren verursachen. 2. Komplexitätsbedingt entstehende U-förmige Stückkostenverläufe Die gemeinsame Betrachtung der soeben skizzierten Kostenverläufe lässt das in Abb. 1 aufgeführte Stückkostenverhalten, das in Abhängigkeit von der Beschäftigung eintreten kann, erkennen. Die Darstellung beinhaltet sowohl die Verläufe der Kosten des dispositiven Faktors und der Kosten der elementaren Faktoren als auch die insgesamt resultierende U-förmige Stückkostenkurve. Sämtliche Kostenverläufe zeigen die vor allem bei steigender Betriebsgröße mit hoher Wahrscheinlichkeit auftretenden komplexitätsbedingten Mehrkosten. 3. Auftreten von Komplexitätskostenfallen Der langfristig U-förmige Stückkostenverlauf verdeutlicht, dass die im Zuge eines Beschäftigungszuwachses potenziell erreichbaren —> "Economies of Scale" sich durch eine Erhöhung der innerbetrieblichen Komplexität in "Diseconomies of Large Scale" umwandeln können. Durch das Auftreten derartiger Komplexitätskostenfallen können Unternehmen in ihrer Existenz gefährdet werden (Becker 1996). Diese Folge tritt allerdings erst ein, wenn neben der tatsächlichen Kostenwirksamkeit der Führungs- und Ausfuhrungskomplexität als weitere Voraussetzung auch gilt, dass keine Kompensation der komplexitätsbedingten Mehrkosten durch einen entsprechenden Komplexitätsnutzen erfolgen kann. Derartige Komplexitätsnutzen können zum einen aus der Realisierung von Scope-Effekten sowie zum anderen aus der Erzielung zusätzlicher Erlöse resultieren. Das in Scope-Effekten vermutete synergiebedingte Kostensenkungspotenzial
421
Komplexitätskosten
Komplexitätskosten wird auf eine "gemeinsame, nicht rivalisierende Nutzung von Ressourcen" (Ihde 1986) zurückgeführt. Im Zuge einer beabsichtigten Realisierung von Synergieeffekten entstehen komplexitätsbedingte Mehrkosten durch die rivalisierende Nutzung der Ressource Management. Ein nicht unerheblicher zeitlicher Abstimmungsaufwand kann
außerdem wettbewerbswirksame Flexibilitätsverluste auslösen. Kostenvorteile, die jedoch erst realisiert werden, wenn das Produkt bereits erfolgreich durch die Konkurrenz vermarktet wurde, stiften allerdings nur bedingt erfolgswirtschaftlichen Nutzen. Ähnliche Schwierigkeiten entstehen aus der trügerischen Erwartung differenzie-
Stückkosten
Komplexitätsfalle
Such- und Informationskosten Planungs- und Steuerungskosten Entscheidungskosten Kontrollkosten Motivationskosten Konfliktkosten
Ausführungskosten Kosten der elementaren Komplexität
• • • • • • • •
Beschaffungskosten Entwicklungskosten Vorlauf- und Anlaufkosten Rüstkosten Qualitätskosten Logistikkosten Entsorgungskosten A u s - und Weiterbildungskosten • Vertriebskosten
Beschäftigung Abb. 1: Veränderung des langfristigen Stückkostenverlauf durch das Auftreten von Komplexitätskosten
422
Komplexitätskosten rungsbedingter Mehrerlöse. Die aufgrund der vehementen Wettbewerbsintensivierung zunehmende Limitierung der tatsächlichen Realisierung von Erlössteigerungspotenzialen lässt zumindest zur Vorsicht mahnen. Die ungünstige Gesamtkosten- und Erlösentwicklung wird verschärft durch die komplexitätsbedingte Verschiebung der Kostenstruktur hin zu einem höheren Gemeinkostenanteil. Werden Komplexitätskosten im Wege der traditionellen Zuschlagskalkulation proportional zur Höhe wertabhängiger Bezugsgrößen (z.B. Umsatz, Fertigungslöhne, Materialeinzelkosten) verrechnet, sind Standardprodukte zu stark und Spezialprodukte zu schwach mit Komplexitätskosten belastet. Daraus resultierende produktprogrammpolitische Fehlentscheidungen können durch eine Prozesskostenrechnung zumindest teilweise verhindert werden. Ansatzpunkte zur Komplexitätskostenreduktion finden sich auch Rahmen des -> Total Quality Managements in einer auf die Einfachheit des Produktkonzeptes ausgerichteten Konstruktion, sowie in der Reduzierung der Ablaufkomplexität durch dezentrale Steuerungskonzepte. (Adam/Rollberg 1995; Bohner 1998) Die Brisanz der Komplexitätskostenproblematik verlangt zudem eine ganzheitliche Kosten- und Erlösaspekte berücksichtigende Abstimmung der anzuwendenden Strategien im Unternehmen. Literatur: Adam, D./Rollberg, R.: Komplexitätskosten, in: Die Betriebswirtschaft, 5/1995, S. 6 6 7 670; Becker, W.: Komplexitätskosten, in: Kostenrechnungspraxis, 3/1992, S. 171-173; Becker, W.: Stabilitätspolitik für Unternehmen, Zukunftssicherung durch integrierte Kosten- und Leistungsführerschaft, Wiesbaden 1996; Becker, W.: Dimensionen der Kostenpolitik, in: Kostenrechnung, Stand und Entwicklungsperspektiven, Festschrift z u m 60. Geburtstag von Wolfgang Männel, hrsg. von Wolfgang Becker und Jürgen Weber, Wiesbaden 1997, S. 1 - 2 5 ; Bohner, F.: Komplexitätskostenmanagement in der Automobilindustrie, Wiesbaden 1998; Ihde, G.B.: Wirtschaftlicher Strukturwandel und industrielle Betriebsgrößen, in: Bloech, J. (Hrsg.): Industrielles Management, Göttingen 1986, S. 1-20; Pfeiffer, W/Dörrie,
Konfliktmanagement U./Gerharz, A./von Goetze, S.: Variantenkostenrechnung, in: Männel, W . (Hrsg.): Handbuch Kostenrechnung, Wiesbaden 1992, S. 8 6 1 - 8 7 7 .
Wolfgang Becker Konditionenpolitik Die Konditionenpolitik ist der Teil der - > Kontrahierungspolitik. Die Konditionenpolitik befasst sich mit den Entscheidungen, zu welchen Bedingungen die Produkte und Dienstleistungen eines Unternehmens am Markt angeboten werden sollen. Die Konditionenpolitik befasst sich mit den kontrahierunspolitischen Instrumenten, die außer dem Preis Gegenstand der Vereinbarung über das zu entrichtende Leistungsentgelt sein können. Sie umfasst Entscheidungen über Rabatte, Absatzkredite sowie Lieferungsund Zahlungsbedingungen. Von besonderer Wichtigkeit ist die Konditionenpolitik bei der Regelung der Absatzbeziehungen zu Einzelhandelsunternehmen, da die Konditionenpolitik hier einen direkten Einfluss auf die Wettbewerbssituation des Handelsunternehmens hat. Konfliktmanagement 1. Konflikte und Konfliktmanagement Konflikte sind eine allgegenwärtige Erscheinung in jeder Art von Organisationen. Sie sind zum einen strukturell in Organisationen eingebaut und zum anderen auf unterschiedliche Werte und Interessen sowie Knappheitssituationen zurückzuführen. Konflikte sind nicht immer manifest und den Beteiligten bewusst, sondern können auch latent schweben und nicht direkt zwischen den Konfliktparteien ausgetragen werden, sondern auch auf andere Adressaten und Inhalte umgeleitet werden. Eine dieser Vielschichtigkeit der Konfliktrealität adäquate Konzeption von Konflikt und Konfliktmanagement muss deshalb sowohl strukturelle Ausprägungen der Situation als auch Interessenlagen, Strategien und Verhaltensweisen von Individuen in diesen Situationen erfassen. Konflikte können deshalb als Konkurrenzsituation aufgefasst werden, denen struk423
Konfliktmanagement
Konfliktmanagement turelle und individuelle Unvereinbarkeiten zu Grunde liegen und die sich durch Auseinandersetzungshandlungen manifestieren können. Konfliktmanagement umfasst entsprechend zum einen alle strukturellen Maßnahmen, über die Konflikte in Organisationen eingebaut, kontrolliert und begrenzt oder auch zu lösen versucht werden. Zum anderen besteht Konfliktmanagement aus der Einflussnahme auf Konfliktverhalten, um Verlaufsformen von Konflikten z. B. hinsichtlich deren Intensität und Zielwirkungen zu beeinflussen. 2. Konzeptionelle fliktmanagement
Grundlagen
des Kon-
Die konzeptionellen Grundlagen basieren auf einem Struktur-Verhaltens Ansatz. Strukturen stellen auf relative Dauer angelegte Regelungen dar, die Konfliktaustragung zulassen und zugleich auch begrenzen. Sie bilden damit z. B. in Form von rechtlichen Strukturen oder auch in Form von formalen Organisationsstrukturen den Bedingungsrahmen für Konfliktprozesse. Dieses Konfliktmodell lässt sich in Form des Schachspiels veranschaulichen, bei dem das Schachbrett mit den Regeln für Züge mit Figuren den strukturellen Bedingungsrahmen darstellt. Angewandt auf die Organisation entwickeln Akteure im strukturellen Rahmen Strategien, wie z. B. Karrierestrategien, die zu Konfliktprozessen führen, wenn sie mit strukturellen Regelungen oder Strategien anderer unvereinbar sind. •
Strukturelles
Konfliktmanagement
Konflikte werden zunächst strukturell eingebaut. Dies zeigt sich zum einen in den rechtlichen Regelungen der Arbeitgeber-Arbeitnehmer-Beziehungen. Dort ist strukturell ein Verteilungskonflikt auf der Tarifebene und ein Interessenskonflikt auf Betriebsebene eingebaut. Zum anderen sind Organisationsmodelle wie die Matrix-Organisation grundsätzlich auf die 424
Austragung von Interessenskonflikten angelegt. Bei der Matrixorganisation (-»Organisationsstrukturen) stehen sich zwei gleichberechtigte Leitungssysteme gegenüber, wie z. B. Funktions- und Spartenmanager. Bei der Budgetplanung in MatrixStrukturen wird ein leistungssteigender Konflikt institutionalisiert, indem ein argumentativer Austausch über die Begründung der Aktionspläne und der damit zusammenhängenden Budgetanforderungen stattfindet. Im Rahmen der rechtlichen und auch organisatorischen Strukturen wird damit grundsätzlich ein Spielraum für Konfliktaustragung geschaffen, wobei jeweils zur Kontrolle der Konflikte weiterhin strukturelle Vorkehrungen, vor allem zur Konfliktlösung, geschaffen werden. Mit Blick auf die rechtlichen Strukturen ist dies z. B. die Einigungsstelle nach Betriebsverfassungsgesetz (-> Betriebsverfassung), die in Mitbestimmungsangelegenheiten Konflikte zwischen Arbeitgeber und Betriebsrat einer Lösung zuführt, um die Funktionsfähigkeit der Organisation zu erhalten. Ein derartiger Konfliktlösungsmechanismus besteht grundsätzlich aus einem Entscheidungsmechanismus, der entscheidet, wer Gewinner und Verlierer bei einem Konflikt ist, einem Sanktionsmechanismus, der diese Entscheidung mit Nachdruck durchsetzen kann und somit zu einem Beendigungsmcchanismus führt. Ähnlich funktioniert auch die hierarchische Struktur in Organisationen (-» Hierarchie), über die z. B. auch langwierige Konflikte in der MatrixOrganisation gelöst werden können. Die genannten Beispiele stehen stellvertretend für viele Formen des strukturellen Konfliktmanagement, das zum einen darin besteht, Wettbewerb und damit Konflikte strukturell zu institutionalisieren und zum anderen Vorkehrungen für die Beherrschung von Konflikten zu treffen.
Konfliktmanagement
Konfliktmanagement
lassen sich typische strategische Verhaltensmuster bei Konfliktprozessen unterscheiden (Thomas 1979; Oechsler 1991).
•
Verhaltensorientiertes Konfliktmanagement Strukturelle Konfliktlösungen sind relativ drastische Mechanismen, die als ultima ratio gelten und Konflikte oft nur formal lösen, die dann unterschwellig weiterbestehen und unter Umständen wieder ausbrechen und auch umgeleitet werden. Deshalb bedarf es auch Maßnahmen verhaltensorientierten Konfliktmanagement, die darauf gerichtet sind, Konfliktverhalten z. B. hinsichtlich Intention und Intensität zu beeinflussen.
Verhaltensmuster, die auf einseitige Bedürfnisbefriedigung gerichtet sind wie z.B. Kampf, Unterdrückung und Flucht oder Verzicht haben nur eine ganz geringe Lösungswahrscheinlichkeit für Konflikte, weil das zu Grunde liegende Konfliktpotenzial angestaut oder umgeleitet wird und wieder aufbricht. Kompromissund Integrationsverhalten dagegen sind eher geneigt, Konflikte zu bewältigen.
Mit Blick auf die Intensität von Konflikten besteht verhaltensorientiertes Konfliktmanagement zunächst aus einer Einflussnahme auf Konfliktprozesse und zwar mit steigendem Eskalationsgrad von der Moderation und Prozesskonsultation über Vermittlung und Schiedsverfahren bis zum Machteingriff (Glasl 1990; Oechsler 1991).
Mit Blick auf das Konfliktverhalten der Mitarbeiter ist weiterhin von Bedeutung, ob sie tendenziell eher ruhig und sachlich oder emotional in Konfliktsituationen reagieren, um verhaltensverstärkende Wirkungen antizipieren zu können. Für diesen Schritt ist Beobachtung der Mitarbeiter und deren Verhaltensintensität erforderlich. Derartige Erkenntnisse zu typischen Verhaltensmustem sind allerdings erforderlich, um der Entwicklung der Konfliktintensität und individueller Überbelastung entgegenwirken zu können.
Die Art der Einflussnahme hängt dabei von situativen Bedingungen ab, d. h. inwieweit die Befriedigung eigener oder anderer Bedürfnisse im Vordergrund steht. Mit Blick auf diese Intentionen
Grundsätzliche Strategien der Konfliktbearbeitung Hoch
© Kampf
© Integration
Befriedigung der eigenen Bedürfnisse
m Kompromiss
Flucht Niedrig
Unterdrückung
® Niedrig
w Befriedigung der Bedürfnisse anderer
Abb. 1: Strategien der
Hoch
Konfliktbearbeitung
425
Konfliktmanagement Schließlich lassen sich im Rahmen des verhaltensorientierten Konfliktmanagement noch Interventionstechniken einsetzen. Insbesondere bei hoher Konfliktintensität tendieren die Konfliktparteien dazu, intolerant zu werden und Feindbilder zu verfestigen. In dieser Situation kann die Technik der StereotypenKonfrontation helfen, solche Verfestigungen bewusst zu machen und aufzulösen. Bei den darauf folgenden Vermittlungsbemühungen eignen sich Techniken, die Kommunikationsbarrieren abbauen und die Konfliktparteien einschwören, Schadensbegrenzung zu betreiben sowie regulierbare Faktoren herauszufinden, die Ansatzpunkte für Kompromisse darstellen. Hilfreich sind dabei vor allem DrittParteien Urteile von Experten, die aus der Sicht von "Neutralen" zur Versachlichung beitragen (Glasl 1990). 3. Schulung von Konfliktfähigkeit Konfliktfähigkeit setzt zunächst das dargestellte Wissen über strukturelle Konfliktsituationen, Konfliktverhalten und Interventions-Techniken voraus. Darauf aufbauend zielt die Fähigkeitsvermittlung auf die Analyse eigenen und fremden Konfliktverhaltens im sozialen Feld oder auch durch Labortraining ab, um Sensitivität für den Verlauf von Konfliktprozessen zu entwickeln. Konfliktintensität kann z. B. dadurch verringert werden, wenn auf aggressionsgeladenes Verhalten nicht mit Gegenaggression reagiert wird, sondern mit unkonformem Verhalten, das wieder zur "Versachlichung" fuhrt. Vor allem muss die Erkenntnis vermittelt werden, wann in einem Konfliktprozess alle Argumente ausgetauscht sind und alle weiteren Aktivitäten nur Wiederholungen mit steigender Konfliktintensität darstellen. Dann ist es nämlich erforderlich, Aktivitäten von der Konfliktaustragung in die Konsensfindung zu lenken. Denn wenn die gegensätzlichen Standpunkte ausgetauscht sind, gilt es wieder, gemeinsame Anstrengungen zur Konfliktbewältigung zu ergreifen, also Konflikt- in Konsensfähigkeit zu 426
Konsolidierung überführen. Dies ist vor allem über Labortraining vermittelbar und stellt eine Voraussetzung für die Anwendung von Organisationsmodellen mit einem hohen strukturellen Konfliktgehalt wie der Matrix-Organisation dar. Literatur: Glasl, F., Konfliktmanagement. Ein Berater, Handbuch für Führungskräfte und 2. Auflage, Bern/Stuttgart 1990; Oechsler, W.A., Managementrolle, Schlichter/Konfliktloser, in: Staehle, W. H. (Hrsg.): H a n d b u c h Management, Wiesbaden 1991, S. 447^172; Oechsler, W.A., Konflikt, in: Frese, E. (Hrsg.): Handwörterbuch der Organisation, 3. Auflage, Stuttgart 1992, Sp. 1131-1143; Oechsler, W.A./Schönfeld, Th„ Die Einigungsstelle als Konfliktlösungsmechanismus, Frankfurt a.M. 1989; Thomas, K.W., Organizational Conflict, in: Kerr, St. (Hrsg.): Organizational Behavior, Columbus, Ohio, 1979, S. 151-181.
Walter A. Oechsler Konsolidierung Die Konsolidierung bezeichnet einen charakteristischen Arbeitsschritt im Rahmen der Konzernrechnungslegung. Konzernbilanzen und Konzern-Gewinn- und Verlustrechnungen werden - anders als Einzel-Jahresabschlüsse - nicht aus der Buchführung und der Hauptabschlussübersicht abgeleitet. Sie ergeben sich vielmehr in drei Schritten aus den EinzelJahresabschlüssen der in den Konzernabschluss pflichtgemäß bzw. entsprechend der Ausübung von Einbeziehungswahlrechten einbezogenen Konzernunternehmen. Diese Jahresabschlüsse müssen im ersten Schritt auf eine konzerneinheitliche Bewertung umgestellt und gegebenenfalls in eine einheitliche Währung umgerechnet werden. Im zweiten Schritt werden die in den verschiedenen Bilanzen und Gewinn- und Verlustrechnungen ausgewiesenen Zahlen positionsweise (horizontal) addiert. Diese Zusammenfassung der Vermögen und der Schulden der Mutter und aller Töchter führt zu Doppelerfassungen. Addiert werden die Vermögen der Töchter direkt und indirekt in Form der Beteiligungen bei der Mutter, welche das Vermögen der Töchter reprä-
Konsolidierung sentieren. Addiert werden auch die Eigenkapitalien von Mutter und Töchtern, obwohl die Eigenkapitalien der Töchter, soweit sie dem Konzern zustehen, bereits im Eigenkapital der Mutter zum Ausdruck kommen. Umsätze und Erfolge werden erfasst, obwohl sie nicht mit unabhängigen Dritten, sondern aus Konzemsicht rein "innerbetrieblich" realisiert wurden. Auf die Beseitigung aller derartiger Doppel- und Falscherfassungen zielt der dritte Schritt, die Konsolidierung im Rahmen der Konzernrechnungslegung, ab. Durch die Aufrechnung der im Soll und Haben aufgeblähten Positionen werden die Werte im Konzernabschluss so gestaltet, dass sie einem Jahresabschluss nahe kommen, wie ihn die wirtschaftliche Einheit Konzern aufgestellt hätte. Im Rahmen der Kapitalkonsolidierung werden der Beteiligungsbuchwert in der -> Bilanz der Mutter und das Eigenkapital (einschließlich des vor Konzernzugehörigkeit erwirtschafteten Jahresüberschusses) in der Bilanz der Tochter insoweit aufgerechnet, als letzteres der Mutter und damit dem Konzern zusteht. Das nicht dem Konzern zustehende Kapital der Tochter wird in einen besonderen Posten umgegliedert, der in Deutschland als Eigenkapitalposition "Anteile anderer Gesellschafter" erscheint, in USA aber auch unter Verbindlichkeiten fallen kann. Die wirtschaftlich bedeutsamen Wirkungen der Kapitalkonsolidierung hängen von der Behandlung des Unterschieds zwischen dem durch den Kaufpreis geprägten Beteiligungsbuchwert und dem anteiligen Eigenkapital ab. Im Rahmen der Interessenzusammenführungs- oder Pooling of Interests-Methode wird der Unterschied mit den Rücklagen verrechnet. Das Verfahren vermeidet so die Auflösung von stillen Reserven und die eventuelle Bildung eines Goodwill mit den Folgen zusätzlicher künftiger Abschreibungen. Die ausbleibenden Erfolgswirkungen im Konzernabschluss machen es zwar beim Konzernmanage-
Konsolidierung ment beliebt, schüren aber auch Zweifel an seiner Aussagekraft, denn hohe Kaufpreise belasten die späteren Ergebnisse nicht. Dementsprechend darf das Verfahren bislang nur verwendet werden, wenn einige Bedingungen erfüllt werden, die in HGB und bei -» IAS weniger restriktiv, bei -> US-GAAP aber zahlreich und restriktiv sind. In Zukunft soll Pooling of Interests für unvereinbar mit US-GAAP erklärt werden. Als Alternative bleibt dann die international weitverbreitete Purchase-Methode. Im Rahmen der Purchase Methode werden stille Reserven durch zusätzliche Aktivierung aus Konzernsicht derivativer immaterieller Anlagen, durch Höherbewertung von Aktiva oder durch Abwertung von Passiva aufgelöst und erforderlichenfalls ein derivativer Goodwill oder ein Badwill (negativer Goodwill) ausgewiesen. Die Vorgehensweise im Detail ist sehr unterschiedlich. In Deutschland begrenzt die positive Differenz zwischen Beteiligungsbuchwert und anteiligem Eigenkapital die maximal auflösbaren stillen Reserven insoweit, als bezogen auf den Konzernanteil höchstens diese Differenz und maximal der Konzernanteil an den bei der Tochter insgesamt vorhandenen stillen Reserven aufgelöst werden darf. Soweit der Beteiligungsbuchwert das anteilige Eigenkapital um mehr als den Konzernanteil an den stillen Reserven der Tochter überragt, wird ein Goodwill gebildet, der später planmäßig abgeschrieben oder offen mit den Rücklagen verrechnet wird. Die auf die Minderheit entfallenden stillen Reserven dürfen zusätzlich aufgelöst werden (Neubewertungsmethode) oder nicht (Buchwertmethode). Erfolgswirkungen entstehen in den Folgejahren aus den Abschreibungen oder Mehraufwendungen infolge der aufgelösten stillen Reserven und gegebenenfalls der Abschreibung des Goodwill. Ein Badwill entsteht nach HGB in Höhe der negativen Differenz zwischen Beteiligungsbuchwert und anteiligem 427
Konsolidierung Eigenkapital der Tochter. Er darf nur dann erfolgserhöhend berücksichtigt werden, wenn anfanglich erwartete ungünstige Erfolgsentwicklungen später tatsächlich eintreten oder feststeht, dass er einem realisierten Gewinn entspricht. Nach US-GAAP und IAS werden zunächst unabhängig von der Differenz zwischen Beteiligungsbuchwert und anteiligem ursprünglichem Eigenkapital die stillen Reserven entweder vollständig (entity concept) oder nur entsprechend dem Konzernanteil (parent Company concept) aufgelöst. Soweit der Beteiligungsbuchwert auch das durch Auflösung stiller Reserven erweiterte anteilige Eigenkapital übersteigt, wird ein planmäßig abzuschreibender Goodwill gebildet. Wenn der Beteiligungsbuchwert dagegen kleiner ist als das anteilige Eigenkapital nach Auflösung der stillen Reserven, muss im Rahmen von US-GAAP zum Ausgleich zunächst das ganze nichtmonetäre Anlagevermögen proportional abgewertet werden, bis entweder die Differenz genau ausgeglichen oder das nichtmonetäre Anlagevermögen auf Null reduziert ist. Die noch verbleibende Differenz im letzteren Fall ist Badwill. Im Rahmen von IAS erscheint die negative Differenz zwischen dem Beteiligungsbuchwert und dem anteiligen Eigenkapital nach Auflösung stiller Reserven voll als Badwill, der allerdings entsprechend den erwarteten Verlusten oder Mehraufwendungen sowie des Verzehrs von erworbenem, nicht monetärem Vermögen aufzulösen ist, was wirtschaftlich ähnlich wie die Vorgehensweise nach US-GAAP zu bewerten ist. Der bei IAS verbleibende Rest des Badwill muss aber voll und unmittelbar als Erfolg erfasst werden, während der Badwill nach US-GAAP planmäßig über maximal 40 Jahre aufzulösen ist. Über die beschriebenen materiellen Unterschiede hinaus gibt es bei der Kapitalkonsolidierung noch einen formalen Unterschied zwischen HGB einerseits und 428
Konsolidierung US-GAAP sowie IAS andererseits. Im Einzelabschluss nach HGB werden die Beteiligungen der Mutter an der Tochter stets auf Basis von Anschaffungskosten ausgewiesen, so dass die oben beschriebenen Schritte der Kapitalkonsolidierung erst bei der Konzemrechnungslegung erfolgen. US-GAAP und IAS hingegen schreiben vor, bei maßgeblichem Einfluss, der ab einer Beteiligungsquote von 20% vermutet wird, Beteiligungen schon im Einzelabschluss nach der Equity Methode durch Projektion aller Regeln der Kapitalkonsolidierung in den Beteiligungsbuchwert zu bewerten, also im Einzelabschluss eine "one-line-consolidation" vorzunehmen. Die Kapitalkonsolidierung im Rahmen der Konzemrechnungslegung wird dann wieder auf die Beseitigung von Doppelzählungen reduziert, Erfolgswirkungen wie in Deutschland hat sie nicht mehr. Die Erfolgswirkungen haben sich schon auf den Beteiligungsbuchwert at equity im Einzelabschluss niedergeschlagen. Die anderen Gegenstände der Konsolidierung werden weltweit weitgehend einheitlich behandelt. Im Rahmen der Schuldenkonsolidierung werden Forderungen und Verbindlichkeiten zwischen Konzernunternehmen so aufgerechnet, dass eventuelle Erfolge aus der Sicht eines Einzelunternehmens, die nicht Erfolge des Konzerns sind, ebenfalls eliminiert werden. Rückstellungen und Ergänzungsinformationen müssen gegebenenfalls aus Konzernsicht anders beurteilt werden. Im Rahmen der Bilanz läuft die obligatorische Zwischenergebniseliminierung auf eine Umbewertung der am Bilanzstichtag im Konzemabschluss ausgewiesenen Vermögensgegenstände hinaus, die von anderen einbezogenen Konzernunternehmen geliefert wurden und nicht schon zu Konzernanschaffungskosten bzw. Konzernherstellungskosten bewertet sind. Unterschiede im Detail gibt es bei der Frage, ob solche Umbewertungen nur bei Lieferungen zwischen Mutter und
Konsolidierung Tochter oder auch zwischen Mutter und einem Gemeinschaftsunternehmen sowie zwischen Mutter und einem assoziierten Unternehmen und hier downstream und/oder upstream erforderlich sind. In der Gewinn- und Verlustrechnung müssen sowohl die soeben aus der Perspektive der Bilanz behandelten Zwischenerfolge als auch die Umsätze oder Aufwendungen und Erträge zwischen den Konzernunternehmen herausgerechnet werden. Dabei gibt es eine solche Fülle unterschiedlicher Fälle, die zudem nach -> Gesamtkostenund nach -> Umsatzkostenverfahren in der Regel höchst unterschiedlich zu behandeln sind, dass sich die Konsolidierungen nur insoweit allgemein umschreiben lassen, als eine Gewinn- und Verlustrechnung erzeugt werden soll, welche der wirtschaftlichen Einheit Konzern gerecht wird. Die Gestaltungsmöglichkeiten bei der Konsolidierung unterscheiden sich bei HGB, IAS und US-GAAP vor allem dann beträchtlich, wenn das zu erwartende Verbot der Pooling of Interests-Methode durch US-GAAP berücksichtigt wird. Das HGB gewährt mit den Wahlrechten beim Konsolidierungskreis, bei den Alternativen Purchase und Pooling, bei der Wahl der stillen Reserven, die aufgelöst werden sollen, wenn die Tochter mehr stille Reserven hat, als die Mutter im Kaufpreis vergütete, und bei der Behandlung des Goodwill gewichtige bilanzpolitische Spielräume. IAS ermöglicht Bilanzpolitik, weil Pooling zwar nicht so leicht wie nach HGB, aber bei vorausschauendem Vorgehen doch in vielen Fällen offen steht, weil die Behandlung des Badwill weitgehend vom Ermessen abhängt und weil es keine strengen Sanktionen gegen die Abschlussprüfer gibt. US-GAAP werden auf Dauer die Wahlrechte auf die Wahlen zwischen Buchwert- und Neubewertungsmethode sowie die Abschreibungsdauem von Goodwill und Badwill reduzieren, die auch bei den anderen Regelwerken offen stehen. Reduzierte Wahlrechte bei der Konsolidierung be-
Konsumentenverhalten deuten aber nicht das Ende der Bilanzpolitik im Rahmen von US-GAAP. Sie muss an anderer Stelle auf anderen Wegen erfolgen. Literatur: Delaney/Adler/Epstein/Foran: Wiley GAAP 97, 1997, S. 333-397; Financial Accounting Standards Board: Methods of Accounting for Business Combinations: Recommendations of the G4 + 1 for Achieving Convergence, Financial Accounting Series No 192-A, 1998; International Accounting Standards, 1999; Schildbach/Feldhoff/Kählert/Koenen/Lutter: Der Konzernabschluss nach HGB, IAS und US-GAAP, 5. Aufl., 1998.
Thomas Schildbach Konsumentenverhalten Die Erforschung des Konsumentenverhalten versucht, das Kaufverhalten von Konsumenten zu erklären. Für die Erklärung des Konsumentenverhalten hat sich in der Literatur die Unterteilung in interpersonale und intrapersonelle Bestimmungsfaktoren durchgesetzt. 1. Interpersonale Bestimmungsfaktoren Hierbei handelt es sich um die Kultur als verhaltensbestimmende Hintergrundvariable, die gesellschaftlichen Normen als wertbestimmende Verhaltensnormen sowie die soziale Schicht, soziale Gruppe und Familie als wertbestimmende und u.U. verhaltenssanktionierende soziale Einheiten. 2. Interpersonale Bestimmungsfaktoren Hierbei handelt es sich um die Bestimmungsfaktoren Emotion (Wahrnehmung eines Reizes und Bewußtsein des eigenen Reizzustandes), Motiv/Bedürfniss (Zielorientierung der eigenen Emotion in Hinblick auf die Befriedigung des eigenen Bedürfnisses), Einstellung (Beurteilung von Produkten hinsichtlich ihrer Eignung zur Befriedigung der eigenen Bedürfnisse). Die Interpretation des Reizes und die Ziel- und Objektorientierung des Motivs bzw. der Einstellung stellen einen kognitiven Prozess dar, den der Konsument durchläuft. 429
Kontaktmaßzahlen Kontaktmaßzahlen Kontaktmaßzahlen spielen im Rahmen der Medienselektion eine große Rolle. Mit ihrer Hilfe kann die Anzahl der Kontakte zwischen Werbebotschaft und Verbraucher ermittelt werden. Die einfachste Kontaktmaßzahl ist die Kontaktsumme. Sie errechnet sich aus der Summe aller Kontakte aller Personen mit einem Werbeträger. Nachteilig ist hierbei, dass dieser Wert nicht angibt, wie viele Personen erreicht wurden: Eine bestimmte Kontaktsumme kann durch viele (wenige) Kontakte mit wenigen (vielen) Personen erreicht worden sein. In der Praxis ist deshalb die Reichweite am gebräuchlichsten. Sie gibt an, wie viele Personen von den belegten Werbeträgern mindestens einmal erreicht wurden. Je nach Art der Medienbelegung (Streuplan) sind vier Reichweitenmaße zu unterscheiden: •
•
Liegt eine Einfachbelegung eines Mediums vor, dann ergibt sich die Reichweite aus der Anzahl der Nutzer pro Ausgabe dieses Mediums. In dieser Größe sind nicht nur die Käufer des Mediums, sondern alle Leser (auch Lesezirkelabonnenten, Patienten im Wartezimmer etc.) enthalten. Wird die Werbebotschaft in mehreren Ausgaben desselben Mediums geschaltet, errechnet man die kumulierte Reichweite. Hierbei wird berücksichtigt, dass Mehrfachbelegungen bei unregelmäßigen Nutzern des Mediums zu Neukontakten, bei regelmäßigen Nutzern hingegen zu Wiederholungskontakten führen. Diese Wiederholungskontakte (interne Überschneidungen) gehen nicht in die Berechnung der kumulierten Reichweite ein. Mit zunehmender Zahl der Schaltungen vergrößert sich deshalb die kumulierte Reichweite in der Regel unterproportional. Entsprechend der Zahl der Schaltungen bezeichnet man die zugehörigen kumulierten Reichweiten
430
•
•
Kontaktmaßzahlen auch als Kl-Wert (= Nutzer pro Ausgabe), K2-Wert, u.s.w. Werden mehrere Medien einmal belegt, kommt es bei Personen, die mehr als eines dieser Medien nutzen, zu den sog. externen Überschneidungen. Bei der Ermittlung der Nettoreichweite sind diese herauszurechnen. Erfolgt schließlich eine mehrfache Belegung in mehreren Medien, liegen sowohl externe als auch interne Überschneidungen vor. Die Gesamtzahl der mindestens einmal erreichten Personen heißt nun kombinierte Reichweite.
Folgende Abbildung verdeutlicht den Zusammenhang zwischen den verschiedenen Reichweitetypen:
Ein Werbeträger Mehrere Werbeträger
Einfachbelegung Mehrfachbelegung Nutzer pro kumulierte Ausgabe Reichweite Nettoreichweite kombinierte Reichweite
Zur Ermittlung der beschriebenen Kontaktmaßzahlen sind verschiedene Verfahren entwickelt worden. Kann man unterstellen, dass die befragte Person in einer Periode von den s Ausgaben eines Mediums (z.B. Tageszeitungen) stets also mit Sicherheit - r, Ausgaben liest (r, < s), dann errechnet sich die Wahrscheinlichkeit, dass sie bei m Belegungen des Mediums (m < s) genau k Kontakte (k < m) mit der Werbebotschaft hat, nach dem hypergeometrischen Modell gemäß m fs - m ,k)
u
- k
Die Wahrscheinlichkeit keines Kontakts (k = 0) ergibt sich daraus als:
Kontaktmaßzahlen Die Wahrscheinlichkeit für mindestens einen Kontakt ist dann: L
i
m _ 1i
-
yffl
- ¿Ol
Weisen ferner Bj Personen eine Leserate r, von s - und damit die gleiche Kontaktwahrscheinlichkeit - auf, dann beträgt die Zahl der mindestens einmal erreichten Personen bei m Belegungen eines Mediums (kumulierte Reichweite)'. Km mit: n = maximale Anzahl der in ihren Leseraten homogenen Personengruppen; m = Anzahl der Ausgaben eines Mediums je Periode (s) Während beim hypergeometrischen Modell unterstellt wurde, dass die Person stets rj Ausgaben eines Mediums liest, basiert das Binomialmodell auf der Annahme, dass sich die Leserate erst im langjährigen Durchschnitt ergibt. Die Nutzungswahrscheinlichkeit entspricht dann zwar auch der Leserate, allerdings kann dies bedeuten, dass die Person in manchen Wochen keine, in anderen hingegen alle Ausgaben des Mediums liest. Die Wahrscheinlichkeit, dass eine Person bei einer Nutzungswahrscheinlichkeit Wj und m Belegungen des Mediums genau k Kontakte mit der Werbebotschaft hat, errechnet sich nun gemäß:
Kontinuierlicher Verbesserungsprozess Personen bei m Belegungen eines Mediums (kumulierte Reichweite): n km = ]Tz, , m ß, 1=1 mit: n = Anzahl der in ihren Nutzungswahrscheinlichkeiten homogenen Personengruppen; m = Anzahl der Ausgaben eines Mediums je Periode (s) Auf der Basis der Leseraten (hypergeometrisches Modell) bzw. der Nutzungswahrscheinlichkeiten (Binomialmodell) lässt sich auch die kombinierte Reichweite berechnen mit der Nettoreichweite als Spezialfall. Literatur: Schmalen, H.: Kommunikationspolitik, Stuttgart 1992; Schmalen, H.: Mediaselektion, in: Beradt R./Hermanns A. (Hrsg.): Handbuch; Marketing-Kommunikation, Wiesbaden 1993, S. 463^176.
Christine Wiedemann Kontaktsumme -> Kontaktmaßzahlen Kontaktwahrscheinlichkeit -»• Kontaktmaßzahlen
Z)m = 1 - Zg- = 1 - (1 - w,)"'
Kontinuierlicher Verbesserungsprozess Die kontinuierliche Verbesserung von Produkten und Prozessen durch die kombinierte Anwendung von -> Qualitätsmanagement-Werkzeugen wird unter den Begriff Kaizen zusammengefasst. Der Kontinuierliche Verbesserungsprozess (KVP) stellt eine permanente Verbesserung in "kleinen Schritten" dar. Ziel des KVP ist es, Kosten einzusparen, die Produktivität und die Qualität der Produkte zu verbessern sowie die -> Motivation der Mitarbeiter zu erhöhen. Erreicht wird dies durch die Einbindung des Mitarbeiters in den Entscheidungsprozess. Nach Art der beteiligten Personen lassen sich zwei Formen unterscheiden:
Weisen Bj Personen eine Nutzungswahrscheinlichkeit von w, auf, dann beträgt die Zahl der mindestens einmal erreichten
1. Der Mitarbeiter-KVP ist ein kontinuierlicher Vorgang. Mitarbeiter üben im Rahmen von Gruppengesprächen und
k (1 11- W,\m-k )
W,
Die Wahrscheinlichkeit keines Kontaktes (k = 0) ergibt sich daraus als: vm \m Zo, = 0 " w / )
Die Wahrscheinlichkeit für mindestens einen Kontakt ist dann:
431
Kontinuierlicher Verbesserungsprozess bei der täglichen Arbeit laufend Aktivitäten der kontinuierlichen Verbesserung aus. Diese Form stellt eine Verbesserung in kleinen Schritten dar. 2. Der Experten-KVP ist ein zeitlich begrenzter Vorgang. In interdisziplinären Teams werden KVPWorkshops durchgeführt. Die Workshops dauern i.d.R. 5 Tagen. Hier gelingt es den beteiligten Experten durch eine konzentrierte Aktion große Synergieeffekte zu erschließen. Ziel sind große Leistungssprünge durch konsequente Potenzialerschließung und Realisierung. KonTraG Das Gesetz zur Kontrolle und Transparenz im Unternehmensbereich (KonTraG) wurde 1998 verabschiedet. Eine wichtige Funktion dieses Gesetzes ist, der Risikosituation und dem Risikomanagement in börsennotierten Gesellschaften mehr Bedeutung beizumessen. Darüber hinaus soll den Informationsbedürfnissen internationaler Investoren Rechnung getragen werden. Zur Verbesserung des -» Risikomanagements sieht das KonTraG die Einrichtung eines Überwachungssystems durch den Vorstand vor. Dieses System soll Entwicklungen frühzeitig erkennen lassen, die den Fortbestand der Gesellschaft gefährden. Die Qualität des Überwachungssystems ist in die Abschlussprüfung einzubeziehen. Den Informationsbedürfnissen der Anleger wird durch eine Erweiterung der Rechnungslegungspflichten der Kapitalgesellschaft entsprochen. So ist bspw. der Konzemanhang (-» Anhang) börsennotierter Gesellschaften um eine -» Kapitalflussrechnung und eine Segmentberichterstattung zu erweitern. Im Lagebericht sind die Risiken der künftigen Unternehmensentwicklung darzustellen, eigene Aktien sind offen vom gezeichneten Kapital abzusetzen.
432
Kontrahierungspolitik Kontrahierungspolitik Die Kontrahierungspolitik umfasst alle unternehmerischen Entscheidungen, die die Fixierung von vertraglichen Vereinbarungen über das mit dem Leistungsangebot verbundene Entgelt, über Rabatte sowie über Lieferungs-, Zahlungs- und Kreditbedingungen zum Gegenstand haben. Die Kontrahierungspolitik lässt sich demnach unterscheiden in die Teilbereiche -» Preispolitik, die sich unmittelbar mit dem Preis des Produktes auseinandersetzt, und -* Konditionenpolitik, die sich mit den Aspekten des Leistungsentgelts auseinandersetzt, die nicht direkt mit der Höhe des Produktpreises in Zusammenhang stehen. Die Kontrahierungspolitik kann hinsichtlich der Dimensionen Flexibilität, Wirkungsstärke und Wirkungsgeschwindigkeit charakterisiert werden. 1. Hohe Flexibilität der Kontrahierungspolitik: Da die Entscheidungen der Kontrahierungspolitik mit jedem Kauf aufs Neue zum Gegenstand des Kaufvertrages werden, lassen sich die kontrahierungspolitischen Entscheidungen relativ kurzfristig variieren. Dies unterscheidet sie von deutlich von Entscheidungen der Produktoder ->• Distributionspolitik (s.a. -> Absatzpolitsches Instrumentarium). 2. Große Wirkungsstärke der Kontrahierungspolitik: Die Kontrahierungspolitik hat "harte", objektive Vereinbarungen zum Gegenstand. Dies unterscheidet sie von anderen absatzpolitischen Instrumenten, die etwa auf die Produktwirkung und -beurteilung abstellen. 3. Hohe Wirkungsgeschwindigkeit: Konsumenten und Wettbewerber reagieren zumeist relativ kurzfristig auf Veränderungen der eigenen Kontrahierungspolitik Dies gilt insbesondere für Produkte, die in relativ kurz aufeinander folgenden Zyklen wiederbeschafft werden.
Kooperation
Konvergenztheorie Konvergenztheorie -»Globalisierung Konzern Von einem Konzern spricht das AktG dann, wenn mehrere Unternehmen unter einheitlicher Leitung zusammengefasst sind. Die einem Konzern angehörenden Unternehmen bilden eine wirtschaftliche Einheit, bewahren aber ihre rechtliche Selbstständigkeit. Es lassen sich Gleichordnungs- und Unterordnungskonzerne differenzieren. Gleichordnungskonzern: Die unter einheitlicher Leitung stehenden Unternehmen weisen keine Abhängigkeitsverhältnisse zueinander auf. • Unterordnungskonzern: Die einheitliche Leitung wird von einem herrschenden Unternehmen ausgeübt. Der Unterordnungskonzern lässt sich dahingehend unterscheiden, ob es sich um einen Vertragskonzern oder einen faktischen Konzern handelt. • Vertragskonzern: Es liegt ein Beherrschungsvertrag vor, der das herrschende Unternehmen zu Weisungen an das (die) abhängige(n) Unternehmen berechtigt. Daneben kann ein Gewinnabführungsvertrag den Beherrschungsvertrag ergänzen. Bei Weisungen orientiert sich das herrschende Unternehmen am Eigeninteresse. • Faktischer Konzern: Über eine Mehrheitsbeteiligung übt das herrschende Unternehmen Einfluss auf das (die) beherrschtein) Unternehmen aus: Von einem in Mehrheitsbesitz stehenden Unternehmen wird vermutet, dass es von dem Unternehmen, welches den Mehrheitsbesitz hält, abhängig ist (§ 17 II AktG). Von einem abhängigen Unternehmen wird vermutet, dass es mit dem herrschenden Unternehmen einen Konzern bildet ( § 1 8 1 AktG). Einen Sonderfall des faktischen Konzems bildet der "qualifiziert faktische Konzern", von dem gesprochen wird, wenn die Einflussnahme des herrschenden Unternehmens über originäre Führungs-
entscheidungen hinausgeht. Bedeutung hat dies aus rechtlicher Sicht: Das herrschende Unternehmen ist nach dem -> "Minderheitenschutz im Konzern" zum Verlustausgleich verpflichtet. Kooperation Unter Kooperationen oder Strategischen Allianzen versteht man jede Form der Zusammenarbeit mehrerer rechtlich selbstständiger Unternehmen. Das beginnt mit losen Absprachen zum gemeinsamen Einkauf oder Vertrieb, eng umrissenen Verträgen (etwa bei gemeinsamen Forschungsvorhaben) und kann bis zur Gründung gemeinsamer Tochterunternehmen (-> Joint venture) oder wechselseitigen Minderheitsbeteiligungen reichen. Das Ziel einer Kooperation ist in der Regel das Erreichen eines Wettbewerbsvorteils. Eine besondere Form der Kooperation, bei der in der Regel mehr als zwei Partner beteiligt sind, stellt das -> Netzwerk dar. Kooperationen werden Motiven eingegangen: •
•
•
•
•
•
aus
folgenden
Die Wettbewerbskraft in liberalisierten Märkten (Telekommunikation, Luftfahrt) wird gestärkt. Protektionistischer Maßnahmen im Ausland können mit Hilfe des Partners umgangen werden. Die Zuteilung von ausländischen Forschungsgeldern ist oft an die Beteiligung eines Partners aus dem jeweiligen Land geknüpft. Es werden -> Skalenerträge durch gemeinsame Ressourcennutzung erzielt. Die Transaktionskosten sind i.d.R. bei einer Kooperation geringer als bei Austauschbeziehungen über den Markt (—> Transaktionskostentheorie). Das Risiko des Scheitern bei der gemeinsamen Entwicklung von Produkten wird auf mehrere Schultern verteilt, in strategischen Netzwerken mit arbeitsteiligen Strukturen (z.B. Benetton) kann es sogar ganz auf die 433
Kooperation Kooperationspartner überwälzt werden. • Die Marktmacht gegenüber Dritten steigt, möglicherweise gelingt es der Allianz sogar, eigene Standards auf dem Markt durchzusetzen. • Bei kapitalintensiven Projekten (F&E) erreichen beide Partner gemeinsam u.U. die kritische Größe, damit sich Investitionen rentieren. • Der Austausch von Wissen und Know-how gibt Anregungen für weitere Entscheidungen zur -> Diversifikation. • Die eigenen -> Kemkompetenzen können erweitert werden. • Der finanzielle Spielraum des Unternehmens wird ausgebaut, da die Markt- und Wettbewerbsposition sich i.d.R, durch eine Kooperation verbessert. Voraussetzung für eine erfolgreiche Kooperation ist, dass die Partner von ihren Basisdaten her (Fundamental Fit), von ihrer Strategischen Ausrichtung (Strategie Fit) und ihrer -> Unternehmenskulturen her (cultural fit) zueinander passen.
Kosten- und Leistungsrechnung Korrelationsdiagramm Ist ein elementares -> Werkzeug des Qualitätsmanagements zur grafischen Untersuchung der linearen Abhängigkeit zwischen zwei veränderlichen Faktoren. Engelbert Westkämper/ Alexander Schloske Kosten- und Leistungsrechnung Die Kosten- und Leistungsrechnung stellt ein internes Rechenwerk dar. Sie ist daher nicht an gesetzliche Vorgaben gebunden. Zweck dieser auch als kalkulatorische Erfolgsrechnung bezeichneten Rechnungsart ist die Sammlung, Aufbereitung und Auswertung relevanter Informationen mit dem Ziel, darauf aufbauend -
bewältigen zu können. Die Kosten- und Leistungsrechnung rechnet mit Kosten und Leistungen (-»Basisrechnungssysteme) und schließt mit dem -> Betriebsergebnis ab. Für die Kosten unterscheidet man folgende Rechnungen: -
Bei der Gestaltung von Kooperation muss die Unternehmensleitung bedenken, dass die Vereinbarungen der Strategischen Allianz nicht unter das Kartellverbot fallen (-> Gesetz gegen Wettbewerbsbeschränkungen). Daneben sollten Dauer, Umfang, erforderliche Investitionen und die Zuständigkeiten der Zusammenarbeit ebenso klar geregelt sein wie die Sanktionen für Fehlverhalten in der Kooperation. Die Flexibilität von Strategie und Struktur trägt ebenfalls zum Gelingen einer Kooperation bei. Schließlich sollten beide Partner den möglichen Ausstieg aus der Zusammenarbeit von Anfang an klar und eindeutig regeln. Koordinationskosten -» Organisationsformen
434
Planungsaufgaben, Steuerungsaufgaben, Kontrollaufgaben sowie Publikationsaufgaben
-
-
-> Kostenartenrechnung. Nach einer Unterteilung in -> Kostenarten lässt sich die Frage beantworten: "Welche Kosten sind welcher Höhe entstanden?" -> Kostenstellenrechnung. Kosten werden über -> Zurechnungsprinzipien auf Zurechnungsobjekte, hier Kostenstellen, verteilt. Es wird die Frage gestellt: "Wo sind die Kosten entstanden?" -> Kostenträgerrechnung. Bestimmten Produkten oder Produktgruppen werden die von ihnen verursachten Kosten zugerechnet. Die Frage lautet: "Wofür sind Kosten entstanden?".
Ebenso lassen sich für die Leistungsrechnungen (Erlösrechnungen) eine Leistungsartenrechnung ("Welche Leistungen wurden in welcher Höhe erstellt?"),
Kostenarten
Kosten- und Leistungsrechnung eine Leistungsstellenrechnung ("Wo wurden die Leistungen erbracht?") und eine Leistungsträgerrechnung ("Womit, d.h. mit welchen Produkten, wurden Leistungen erstellt?") unterscheiden. Die Kosten- und Leistungsrechnung wird auch nach den zu Grunde liegenden Kosten - und damit nach dem Zeitbezug eingeteilt: -
-
-
Bei der -> Istkostenrechnung werden die tatsächlich in einer Periode entstandenen Kosten verarbeitet. Da Istkosten ergeben sich dabei aus den effektiv im Betrachtungszeitraum verbrauchten Gütern, bewertet mit den dafür gezahlten Preisen. Die -> Normalkostenrechnung rechnet mit den "normalerweise" anfallenden Kosten. Diese Kostenrechnungsart verwendet die durschnittlichen Kosten vergangener Perioden. Die -»Plankostenrechnung benutzt geplante Größen als Grundlage ihrer Rechnenwerke. Mengen- und Wertkomponente der Kosten sind daher zukunftsorientiert.
Schließlich wird noch danach unterschieden, ob bei der Durchfuhrung der Kostenrechnung alle Kosten berücksichtigt werden oder nicht: Im ersten Fall liegt eine Vollkostenrechnung vor, bei letzterem Fall handelt es sich um eine Teilkostenrechnung. Die Art der Kostenrechnung bestimmt die Anwendung der Zurechnungsprinzipien: Bei Teilkostenrechnungen werden z.B. Durchschnitts- und Tragfähigkeitsprinzip nicht angewendet. Kosten arten Unterteilt werden die Kosten nach der Art des Verzehrs von Gütern und Leistungen. Die Fragestellung lautet: "Welche Kosten sind angefallen?". Kosten sind der bewertete, sachzielbezogene (betriebsbedingte) Güterverzehr (-verbrauch) einer Periode. Zur Bildung von Kostenarten können verschiedene Kriterien herangezogen werden:
1. Herkunft der Kostengüter: Hierbei unterscheidet man zwischen primären und sekundären Kostenarten. -
-
Den primären Kostenarten ist gemeinsam, dass sie den Verbrauch von Gütern, Arbeits- und Dienstleistungen erfassen, welche der Betrieb von außen (Beschaffungsmärkte) bezogen hat. Sekundäre Kostenarten erfassen den Verbrauch innerbetrieblicher Leistungen, wie z.B. solche für den innerbetrieblichen Transport. Sekundäre Kosten lassen sich in primäre Kosten auflösen. Für die Kostenartenrechnung genügt es nur die primären Kosten zu erfassen
2. Art der verbrauchten Kostengüter: Die wesentlichen Kostenartenkategorien sind: -
-
-
Personalkosten (z.B. Löhne, Gehälter, Provisionen, soziale Abgaben), Materialkosten (z.B. Roh-, Hilfs- und Betriebsstoffe), Kapitalkosten (z.B. kalkulatorische Zinsen), Kosten für Dienstleistungen Dritter (z.B. Beratungskosten, Versicherungskosten, Transportkosten), Kosten für Steuern, Gebühren und Beiträge, Wagniskosten (die Verrechnung von Wagniskosten berücksichtigt, dass jede betriebliche Tätigkeit mit Wagnissen verbunden ist und es durch Schadensfälle oder Verluste zu unvorhersehbarem Wertverzehr kommen kann, wobei Höhe und Zeitpunkt ungewiss sind; hierzu zählt nicht das allgemeine Unternehmerwagnis, das über den Unternehmensgewinn abgegolten ist). Kalkulatorische Abschreibungen (die Bemessungsgrundlage für die kalkulatorische Abschreibung richtet sich nach den internen Erfordernissen, d.h. nach den Informationsinteressen des Managements).
435
Kostenartenrechnung
Kostenarten 3. Art der Zurechenbarkeit: Hier wird unterschieden inwieweit bestimmte Kosten den Kostenträgern zugerechnet werden können, wobei von Einzel- oder Gemeinkosten gesprochen wird. -
-
Einzelkosten können ohne vorherige Verrechnung über die Kostenstellen den Kostenträgern direkt zugerechnet werden, d.h. Einzelkosten müssen nicht die Kostenstellenrechnung durchlaufen. Gemeinkosten können nur indirekt auf die Kostenträger verrechnet werden, vor der Kalkulation muss die Kostenstellenrechnung zwischengeschaltet werden (z.B. Grundsteuer oder Abschreibungen auf Gebäude). Das Verursachungsprinzip ist bei ihnen nur schwer (oder überhaupt nicht) als Verteilungsprinzip anzuwenden. Die Verrechnung auf die Leistungen erfolgt über Bezugs- oder Schlüsselgrößen. Gemeinkosten können als Stelleneinzelund Stellengemeinkosten weiter unterteilt werden. Stelleneinzelkosten sind Gemeinkosten die den Kostenstellen direkt zugerechnet werden können (z.B. Abschreibungen von Maschinen, die sich in einer Kostenstelle befinden). Stellengemeinkosten sind Gemeinkosten die nur über einen Verteilungsschlüssel auf Kostenstellen umgelegt werden können (z.B. Grundsteuer oder Versicherungsprämie).
4. Beschäftigungsabhängigkeit: In Abhängigkeit der Kapazitätsauslastung (bezogen auf den Output) lassen sich die Kostenarten in variable und fixe Kosten untergliedern. -
Fixe Kosten sind solche, die unabhängig von der Ausbringung oder Beschäftigung in konstanter Höhe anfallen. Sie ändern sich innerhalb eines Intervalls nicht, können sich aber sprunghaft auf ein höheres oder niedrigeres Niveau verändern {sprungfixe Kosten). Z.B. die Miete für Gebäude fällt unabhängig von der Ausbringung
436
-
oder Beschäftigung an und ist fiir einen bestimmten Zeitraum konstant. Sie können auch als Zeitkosten oder Periodenkosten interpretiert werden. Langfristig sind alle fixen Kosten variable Kosten. Variable Kosten ändern sich in Abhängigkeit der Beschäftigung oder Ausbringung. Dabei können sich die Kosten im gleichen Verhältnis (proportional), schneller (progressiv) oder langsamer (degressiv) zur Ausbringung verändern. Diese Einteilung der Kostenarten ist deshalb problematisch, weil kein Kostengut von seinem Wesen her fixe oder variable Kosten darstellt.
5. Betrieblicher Funktionsbereich: Die Kostenarten lassen sich auch nach den wichtigsten betrieblichen Funktionen gliedern. Hierbei handelt es sich um ein kostenstellenübergreifendes Kriterium, das auf der Kostenstellenrechnung aufbaut. Relevante Funktionen sind z.B. Beschaffung, Lagerhaltung, Produktion, Verwaltung und Vertrieb. Die verschiedenen Gliederungsgesichtspunkte werden bei der Aufstellung eines Kostenartenplans kombiniert. Die Kostenart Lohnkosten kann in einer zweiten Stufe nach der Funktion (Lohn für Beschaffung) untergliedert werden. Kostenarten finden Eingang in die Kostenartenrechnung. Matthias Fank Kostenartenrechnung Die Kostenartenrechnung basiert auf Kostenarten. Sie dient der systematischen Erfassung aller Kosten, die bei der Erstellung und Verwertung der Kostenträger entstehen und bildet den ersten der drei Teilbereiche (Kostenarten-, -> Kostenstellen- und Kostenträgerrechnung) eines Kostenrechnungssystems (-> Kosten und Leistungsrechnung). Bereits aus der Kostenartenrechnung können brauchbare Informationen über den Zeitpunkt (wann?), die Art (welche Kosten?) und den Umfang (in welcher Höhe?) des
Kostenartenrechnung betrieblichen werden.
Kostenträgerstückrechnung
Wertverzehrs
entnommen
Matthias Fank Kostenführerschaft Die Kostenführerschaft ist eine der -> Normstrategien für Geschäftseinheiten nach Michael E. Porter, neben der Produktdifferenzierung und dem Outpacing. Im operativen Bereich versucht eine Geschäftseinheit, sich im Markt von den Konkurrenten abzusetzen, indem die Produkte zu möglichst niedrigen Kosten hergestellt und vertrieben werden. Die Produktgestaltung muss für die Kunden akzeptabel bleiben, während der niedrigere Preis aufgrund der günstigeren Kosten als Wettbewerbsvorteil genutzt wird. Um die Kostenführerschaft zu erreichen, müssen die Kosten in möglichst vielen Bereichen niedriger sein als bei den Konkurrenten. Das kann durch Größenvorteile in Beschaffung und Produktion (-> Skalenerträge) erreicht werden oder durch Kostensenkungen im Service, beim Vertrieb und in der Entwicklung, durch Prozessoptimierungen oder andere Einsparmöglichkeiten. Kostenremanenz Von Kostenremanenz wird gesprochen, wenn trotz Beschäftigungsrückgang die Kosten nahezu unverändert hoch bleiben. Ursache dafür sind langfristige Fixkosten, die beim Beschäftigungsaufbau entstanden sind, z.B. die Raummiete für Produktionsstätten oder die Zeitlöhne für Fertigungsmitarbeiter. Kostensenkungstechniken Methoden zur Senkung der Kosten von betrieblichen Arbeitsabläufen und zur Steigerung der Produktivität. Unternehmen streben damit eine Verbesserung des finanziellen Spielraums und der Handlungsmöglichkeiten im Wettbewerb mit Konkurrenten an. Ansatzpunkte können die variablen Kosten (-> Wertanalyse) oder die fixen Kosten sein (-»Zero-BaseBudgeting).
Kostenstellenrechnung Aufbauend auf der -»Kostenartenrechnung werden in der Kostenstellenrechnung die erfassten Gemeinkosten den einzelnen Kostenstellen (Betriebliche Abrechnungseinheit) zugerechnet. Damit lässt sich die Frage beantworten, "wo" Kosten entstanden sind. Kostenträgerrechnung Die Kostenträgerrechnung dient dazu, die von der Kosten- und Leistungsrechnung erfassten Kosten den Kostenträgern zuzurechnen. Es können dabei zwei Rechnungen unterschieden werden: -
-
Kostenträgerstückrechnung: Hier ist das Bezugsobjekt eine Mengeneinheit, z.B. ein produziertes Stück (-> Kostenträgerstückrechnung). Kostenträgerzeitrechnung: Bezugsobjekt ist eine Abrechnungsperiode, z.B. ein Monat oder ein Quartal (-> Kostenträgerzeitrechnung).
Dabei können Einzelkosten (-» Kostenarten) direkt dem Bezugsobjekt zugerechnet werden, Gemeinkosten müssen dagegen bei einer Vollkostenrechnung über geeignete -> Zurechnungsprinzipien, wie das Durchschnitts- oder das Tragfähigkeitsprinzip, umgelegt werden. Kostenträgerstückrechnung Die Kostenträgerstückrechnung rechnet entstandene Kosten einem Objekt zu, z.B. einem Produkt. Damit ist sie besonders geeignet zur Kalkulation eines Produkts. Man kann unterscheiden zwischen der Vor- und Nachkalkulation: -
-
Die Vorkalkulation versucht vorausschauend, die bei der Erstellung eines Produkts entstehenden Kosten zu berechnen. Da hier ein zukünftiges Ereignis bestimmt werden soll, kann nur mit Normalkosten ( - • Normalkostenrechnung) oder Plankosten (-> Plankostenrechnung) gearbeitet werden. Die Nachkalkulation rechnet rückblickend alle Kosten einem Kostenträ437
Kostenträgerstückrechnung ger zu. Im Moment der Nachkalkulation liegen also bereits alle Kosteninformationen vor, weshalb mit Istkosten (-> Istkostenrechnung) gearbeitet wird. Je nach Art des eingesetzten Produktionsverfahrens bestimmt sich das Kalkulationsverfahren: -
-
-
Bei Massen- und Sortenfertigung werden Divisionskalkulationen eingesetzt (Die gesamten Kosten, d.h. Einzel- und Gemeinkosten, Kostenarten) werden über das Durschnittsprinzip (-> Zurechnungsprinzipien) auf die Kostenträger verteilt. Bei Serien- oder Einzelfertigung bedient man sich der Zuschlagskalkulation. Es wird zwischen Einzel- und Gemeinkosten unterschieden; erstere werden den absatzbestimmten Kostenträgern direkt zugerechnet, letztere über Durchschnitts- und Tragfähigkeitsprinzip den Kostenträgern angelastet. Kuppelproduktionen werden über das Tragfähigkeitsprinzip kalkuliert.
Kostenträgerzeitrechnung Die Kostenträgerzeitrechnung ist ein Subsystem der -> Kostenträgerechnung im Rahmen der innerbetrieblichen Kosten- und Leistungsrechnung. Bei ihrer Anwendung werden Kosten einer Abrechnungsperiode zugerechnet. Kostenvergleichsrechnung -» Investitionsrechnung Kovarianzstrukturanalyse -> Kausalanalyse Kreativitätstechniken Kreativitätstechniken unterstützen das Finden von passenden Lösungen für ein vorgegebenes Problem. Kreativitätstechniken wie Brainstorming, Morphologische Methode, -> Methode 6-3-5 oder die ->Synektik bedienen sich der Erkenntnisse über das menschliche Assoziationsdenken und die Entscheidungsfindung als kognitiven Prozess, um geeig438
Kundenbindung nete Lösungsvorschläge zu generieren. Besondere Bedeutung im unternehmerischen Kontext gewinnen Kreativitätstechniken im Planungsprozess des strategischen Managements, bei der Produktgestaltung und bei der Ermittlung von Rationalisierungspotenzialen im Produktionsprozess. Kreditfinanzierung -»• Finanzierung Krisenerkennung -» Frühwarnsysteme Krisenbewältigung Turnaround-Management Kryptographie -> Datensicherheit Kumulierte Reichweite Kontaktmaßzahlen Kundenbeschwerden Beschwerdemanagement Kundenbeziehungspflege Customer Relationship Management Kundenbindung Da die Märkte heutzutage stärker umkämpft sind und das Verhalten der Kunden eher als sprunghaft einzustufen ist, gewinnen die Wirkungseffekte der Kundenbindung immer mehr an Bedeutung, wobei die Zufriedenheit der Kunden erst die Voraussetzung für eine längerfristig angelegte Bindung des Kunden an das Unternehmen schafft. Nach Diller liegt eine Kundenbindung dann vor, "wenn innerhalb eines zweckmäßig definierten Zeitraumes wiederholte Informations-, Güter-, oder Finanztransaktionen zwischen zwei Geschäftspartnern stattgefunden haben (ex-post-Betrachtung) beziehungsweise geplant sind (ex-anteBetrachtung)." (Diller 1996). "Kundenbindung umfasst sämtliche Maßnahmen eines Unternehmens, die darauf abzielen, sowohl die bisherigen Verhaltensweisen als auch die künftigen Verhaltensabsichten eines Kunden gegenüber einem Anbieter oder dessen Leistungen
Kundenbindung positiv zu gestalten, um die Beziehung zu diesem Kunden für die Zukunft zu stabilisieren beziehungsweise auszuweiten." (Bruhn/Homburg 1999). Vor dem Hintergrund der nachfragerorientierten Perspektive, in deren Rahmen Kundenbindung eher verhaltensorientiert interpretiert wird, ist die Bindung eines Kunden mit dessen Treue gleichzusetzen, d.h. man spricht dann von einer Kundenbindung, wenn der Kunde dem jeweiligen Anbieter gegenüber loyal ist (Kundenloyalität), d.h. wenn er das Produkt bzw. die Dienstleistung gegenüber der übrigen Konkurrenten präferiert und wiederholt nachfragt (-> Kundenzufriedenheit). Betrachtet man sich das Konstrukt Kundenbindung ein wenig näher, dann besteht es aus zwei Dimensionen, nämlich dem bisherigen Kundenverhalten und der Einschätzung über seine zukünftige Verhaltensabsicht. Wichtig fiir die verhaltenswissenschaftliche Analyse der Kundenbindung ist von daher eine Differenzierung zwischen der Zufriedenheit mit dem Geschäftsergebnis und der Zufriedenheit mit der Geschäftsbeziehung. Der erste Fall ist eine Voraussetzung für den Aufbau einer stabilen Kundenbindung (Zufriedenheit aus ökonomischer Sicht), im zweiten Teil geht es um das Ergebnis einer erfolgreichen Kundenbindung (Zufriedenheit aus verhaltenswissenschaftlicher Sicht). Diejenigen Kunden, die mit dem Leistungsergebnis eines Unternehmens unzufrieden sind, streben keine Kundenbindung an, sondern suchen als Wechselkunden nach besseren Geschäftsbeziehungen. Für die Analyse und Beschreibung von Kundenbindungskonzepten muss deshalb die ökonomische Zufriedenheit mit der Geschäftsbeziehung als gegeben vorausgesetzt werden. Bei den derzeitigen Marktbedingungen, geprägt durch Marktsättigung, Produktreife und Informationsüberlastung, hat man es eher mit gering als mit hoch involvierten Kunden zu tun. Gerade die lowinvolvement Kunden sind durch eine
Kundenbindung emotionale Ansprache, die über unterschiedliche Kommunikationsarten erfolgen kann, zugänglich, um die psychische Kundenbindung zu festigen (-* Involvement). Der Aufbau und die Stabilisierung einer emotionalen Kundenbindung ist daher nur als Ergebnis einer erfolgreichen Geschäftsbeziehung möglich. Eine ausschließlich über das Kaufverhalten interpretierte Kundenbindung ist jedoch starker Kritik ausgesetzt, denn Wiederholungskäufe können aufgrund situativer oder anderer Einflüsse recht wenig mit der tatsächlichen Kundenbindung zu tun haben. Aus diesem Grunde besteht in der Literatur mittlerweile Übereinstimmung darüber, dass die Kundenbindung neben dem Kaufverhalten auch durch eine positive Einstellung des Kunden gegenüber dem Anbieter erfasst werden sollte. Eine praktikable Möglichkeit die positive Einstellung eines Kunden zu erfassen, ist die Ermittlung seines Weiterempfehlungsverhaltens. Wenn ein Kunde die Leistungen eines Anbieters wiederholt nachfragt und darüber hinaus positive Mund-zu-Mund-Propaganda betreibt, kann man davon ausgehen, dass der Kunde sich an das Produkt bzw. die Dienstleistung gebunden fiihlt, und er nicht nur durch Zufallseinflüsse oder Wechselbarrieren an einem Anbieterwechsel gehindert wird (Homburg/Giering/Hentschel 1999). Ob ein derartiges Verhalten tatsächlich vorliegt, lässt sich nur mit Hilfe von regelmäßigen Auswertungen von Umfragen ermitteln, die in diesem Kontext die Standardfrage beinhalten: "Würden Sie unser Produkt bzw. unsere Dienstleistung an andere Personen weiterempfehlen?". Aus einer Skalentiefe, die von eins bis fünf reicht, lassen sich im übrigen bessere Rückschlüsse ziehen, als wenn man den Kunden auf die gestellte Frage nur mit "ja" oder "nein" antworten lässt. Solange sich hierbei nicht ein Wert von 1,0 ergibt, wird erkennbar, dass zusätzliche Bemühungen einsetzen müssen, um den Kun-
439
Kundenrückgewinnung
Kundenbindung den tatsächlich langfristig an das Unternehmen zu binden. Unternehmen, die am Markt bestehen wollen, müssen kontinuierlich erfassen, was die Kunden erwarten, wie sie die Leistungen des Unternehmens wahrnehmen und in welchem Masse sie zufrieden sind. Literatur: Diller, H.: Kundenbindung als Marketingziel, in: Marketing ZFP, 18.Jg., 2/1996; Bruhn, M./Homburg, C.: Kundenbindungsmanagement - Eine Einführung in die theoretischen und praktischen Problemstellungen, in: Bruhn, M./Homburg, C., (Hrsg.): Handbuch Kundenbindungsmanagement, Grundlagen-Konzepte-Erfahrungen, Wiesbaden, 1999; Homburg, C./Giering, A./Hentschel, F.: Der Zusammenhang zwischen Kundenzufriedenheit und Kundenbindung, in: Bruhn, M./Homburg, C.: Handbuch Kundenbindungsmanagement, GrundlagenKonzepte-Erfahrungen, Wiesbaden, 1999, S.88.
Jürgen Rothlauf Kundenlebenszyklus -> Beziehungsmarketing Kundenrückgewinnung 1. Kundenrückgewinnung als Teil des Kundenmanagements Die Kundenrück- bzw. -Wiedergewinnung ist neben der Kundenakquisitions- und Kundenbindungsstrategie ein Baustein des sogenannten Kundenmanagements. Die Rückgewinnung verlorener Kunden allerdings fristet heute (noch) ein eher stiefmütterliches Dasein. In erster Linie werden dafür methodische als auch kulturelle Probleme verantwortlich gemacht. Für das Rückgewinnungsmanagement fehlt es z.B. häufig an Know-how über die Auswahl und den Einsatz geeigneter Instrumente. Kulturelle Probleme zeigen sich insbesondere darin, dass Fehler von Mitarbeitern als Fehlleistungen interpretiert und geahndet werden. Die Suche nach dem Schuldigen steht im Vordergrund. Nicht selten werden die Chancen für Verbesserungen und Innovationen, die sich aus der Analyse von Abwanderungsursachen ergeben, verkannt. 2. Zielsetzung Die Zielsetzung von Wiedergewinnungsstrategien ist zunächst, solche Kunden 440
zum Wiederkauf zu bewegen, die die Geschäftsbeziehung gänzlich verlassen, länger keine Produkte und Dienstleistungen mehr erworben oder ihr Einkaufsvolumen vermindert haben. Neben dieser Zielsetzung hat die Beschaffung und Analyse von Informationen über Ursachen der Abwanderung eine wichtige Funktion. Diese Informationen helfen, auf Fehlleistungen aufmerksam zu machen und geeignete Verbesserungsprozesse zu initiieren, um so zukünftig Abwanderungen von Kunden zu verhindern. Aber nicht nur eigene, sondern auch Neukunden eines Unternehmens können in eine derartige Analyse einbezogen werden. Nicht selten handelt es sich hierbei auch um ehemalige Kunden - wenngleich von Wettbewerbern. 3. Ablaufprozess Der Ablaufprozess einer Wiedergewinnungsstrategie kann sich an den folgenden Fragestellungen orientieren: 1. Wie wird "Kundenabwanderung" definiert? 2. Welche Kunden sollen zurückgewonnen werden? 3. Was sind die Ursachen für die Kundenabwanderung? 4. Mit welchen Maßnahmen sollen die Kunden zurückgewonnen werden? 5. Wie kann der Erfolg der Wiedergewinnungsstrategie gemessen werden? Bei der Verfolgung einer Wiedergewinnungsstrategie muss klar und verständlich festgelegt werden, wann ein Kunde als abtrünniger Kunde behandelt wird. Für eine Reihe von Unternehmen ist diese Festlegung nicht einfach. Schwierig wird es insbesondere in den Fällen, in denen Kunden einem Unternehmen nicht mitteilen (müssen), dass sie dort keine Leistungen mehr beziehen. Hierzu zählen häufig Kunden von Kauf- und Warenhäusern. Nicht immer ist es sinnvoll, wenn das Rückgewinnungsmanagement versucht, alle verlorenen Kunden zurückzugewinnen. Auch hierbei müssen Profitabilitäts-
Kundenrückgewinnung
Kundenverlustanalyse
gesichtspunkte beachtet werden. Eine Kundenwertanalyse ist somit Voraussetzung für ein Wiedergewinnungsmanagement. Um zukünftige Kunden- bzw. Auftragsverluste zu verhindern, sollten die Ursachen für die Abwanderung aufgedeckt und analysiert werden. Für die Informationsbeschaffung sind im Regelfall persönliche (telefonische) Interviews mit den abtrünnigen Kunden erforderlich (-> Befragungsverfahren). In diesen Gesprächen werden den Kunden meist Angebote unterbreitet, die sie zur "Rückkehr" veranlassen sollen. Typische Rückkehrangebote sind Preisnachlässe (finanzielle Anreize), Umtausch (materielle Anreize) und/oder auch Entschuldigungen (immaterielle Anreize). Ob eine Wiedergewinnungsstrategie erfolgreich war, zeigt sich daran, inwieweit die vorab definierten Ziele erreicht wurden. Allgemein sollten die Gesamtkosten dieser Strategie den Gesamtnutzen nicht übersteigen. Die heute vorliegenden Untersuchungen attestieren den Wiedergewinnungsstrategien ein sehr positives Kosten/Nutzen-Verhältnis. Literatur: Homburg, Ch./Schäfer, H.: Customer Recovery - Profitabilität durch systematische Rückgewinnung von Kunden, Arbeitspapier des Instituts fiir Marktorientierte Unternehmensfuhrung Universität Mannheim, Nr. M39, Mannheim 1999; Platzek, T.: Management der Kundenrückgewinnung - erfolgreiche Investition, in: creditreform, 10/1999, S. 2 6 - 2 7 ; Stauss, B.: Regaining Service Customers - Costs and Benefits of Regain Management, Diskusssionsbeiträge der Wirtschaftswissenschaftlichen Fakultät Ingolstadt, Nr. 86, Ingolstadt 1997.
Thomas Platzek Kundenverlustanalyse /. Begriff Kundenverlustanalyse bezeichnet die zielgerichtete Suche und Typisierung von Ursachen, die für den Weggang von Kunden bzw. den Verlust von Umsatz verantwortlich sind. Die Analyse von Kunden- oder Auftragsverlusten hat den Vorteil, Informationen über Defizite im
Unternehmen Leistungsangebot von aufzudecken, aus Fehlern zu lernen und Problemursachen nachhaltig abbauen zu können. Vielen Unternehmen fehlen diese auf den einzelnen Kunden bezogene Informationen. Die Ursachen hierfür sind: •
•
• •
• •
Schwierigkeiten bei der konkreten Definition, was der Weggang von Kunden bedeutet. Fehlende Vorstellungen darüber, welche Kunden man tatsächlich halten will. Gefahr des Aufdeckens von Fehlleistungen des Managements. Schieflage bei der Fokussierung der Themen Kundenbindung und Kundenakquisition. Fehlende kundenorientierte Unternehmensphilosophie. Zu starke Dominanz des Tagesgeschäfts bei Führungskräften.
2. Ablauf der Kundenverlustanalyse Der Ablauf einer Kundenverlustanalyse orientiert sich an den folgenden Schritten: - Definition des Kundenverlustes: Wie sollen "abtrünnigen" Kunden identifiziert werden? Soll es sich dabei um Kunden handeln, die einen Vertrag gekündigt haben? Soll es sich um Kunden handeln, die über einen längeren Zeitraum keine Leistungen mehr in Anspruch genommen haben? Soll es sich um Kunden handeln, die sukzessive ihr Auftragsvolumen abgebaut haben? -
Berücksichtigung welcher Kundensegmente: Da nicht alle Kunden für ein Unternehmen gleich wertvoll sind, sollten zunächst solche Kundensegmente analysiert werden, die die Profitabilität des Unternehmens positiv beeinflussen. Insofern gilt es zunächst, die TOP-Kunden zu identifizieren und in diesem Segment die Kundenabwanderungen zu definieren. 441
Kundenzufriedenheit
Kundenverlustanalyse -
-
-
Ursachenanalyse: Analyse der Ursachen mit Hilfe von Markt- (Kunden-) forschungsinstrumenten. Heute weit verbreitet sind Telefoninterviews mit Kunden (-> Befragungsverfahren) Aber auch Gruppendiskussionen in Form von Kundenkonferenzen bieten sehr gute Möglichkeiten, den Ursachen von Kundenabwanderungen auf den Grund zu gehen. Typische Ursachen definieren: Die Auswertung der Befragung sollte typische Ursachen für Kundenabwanderungen identifizieren. Fehleranalysen zeigen, dass häufig 80% der Fehler auf 20% der Ursachen zurückzufuhren sind (Pareto-Prinzip, s.a. -> ParetoDiagramm). Diese 20% sind einer tiefergehenden Analyse zu unterziehen. Umgang mit den Informationen aus Kundenverlustanalysen: Derartige Informationen sollten schnellstmöglich in Prozesse zur Qualitätssteigerung einfließen. Dadurch können Fehlerquellen beseitigt und langfristig abgestellt werden. Zudem sind Maßnahmen zu ergreifen, um verlorene Kunden wieder an das eigene Unternehmen zu binden.
Literatur: Platzek, T.: Kundenverlustanalyse Totgesagte leben länger, in: creditreform, 1/2000; Reicheid, F.F.: Lernen Sie von abtrünnigen Kunden, was Sie falsch machen, in: Harvard Business Manager, 2/1997, S. 5 7 - 6 8 .
Thomas Platzek Kundenzufriedenheit Kundenzufriedenheit nimmt heute in den Zielsystemen vieler Unternehmen der verschiedensten Branchen eine zentrale Stelle ein. So misst Lufthansa ihren Erfolg nicht mehr primär am Market Share, sondern am Customer Share (Hallensleben 1999). Entsprechend fokussieren sich die Fragestellungen auf das "Individuum Kunde", seine jeweilige Wertschöpfung für das Unternehmen und die Aufgaben des Marketing im Beziehungsmanagement. Die Zufriedenheit der Kunden ist dabei zu einem der wichtigsten Parameter 442
für den unternehmerischen Erfolg geworden, denn nur zufriedene Kunden gewährleisten das Überleben in einer zunehmend globaler agierenden Wettbewerbslandschaft. Kundenzufriedenheit ist das Ergebnis eines komplexen psychischen Vergleichsprozesses des Kunden zwischen wahrgenommenen Erfahrungen nach dem Gebrauch eines Produktes oder einer Dienstleistung, der sogenannten IstLeistung, mit Erwartungen, Ansprüchen, Wünschen, individuellen und sozialen Normen vor der Nutzung, der SollLeistung. In der Literatur werden im allgemeinen fünf Vergleichsstandards differenziert, welche die Kunden separat oder kombiniert zur Erlangung eines Zufriedenheitsurteils heranziehen: Erwartungen, Erfahrungsnormen, Ideale, wahrgenommene Wertdifferenz (Vergleich der wahrgenommenen Leistung mit den Wertvorstellungen der Kunden) und Comparison Level (Kosten/Nutzen-Verhältnis einer Beziehung. Ist die Leistungswahrnehmung größer oder gleich dem zugrundeliegenden Vergleichsstandard, werden also die Erwartungen und Wünsche bestätigt oder sogar übertroffen, entsteht Zufriedenheit beim Kunden (Rudolph 1998). Eine schlechtere Wahrnehmung gegenüber dem Vergleichsstandard - eine negative Bestätigung - dagegen führt zur Unzufriedenheit mit der Folge, dass die Kunden in ihrer übergroßen Mehrheit stillschweigend das Unternehmen verlassen und zur Konkurrenz wechseln. Bei der Beurteilung der Leistung eines Unternehmens gehen die Kunden sowohl von einer gewünschten als auch von einer angemessenen Leistung aus. Zwischen gewünschter und angemessener Leistung liegt nach Berry/Parasureman eine Toleranzzone. Liegt die wahrgenommen Leistung unterhalb dieser Toleranzgrenze ist der Kunde unzufrieden, liegt sie über dieser Toleranzzone führt dies zu einer außerordentlichen Kundenzufriedenheit
Kundenzufriedenheit bis hin zu einer Kundenbegeisterung (Berry/Parasureman 1991). Um letztlich Kundenzufriedenheit zu erreichen, ist es notwendig, nicht nur die Anforderungen und Erwartungen der Kunden zu kennen, sondern sie auch in der entsprechenden Form zu erfüllen. Die Kunden erwarten beispielsweise hohe Qualität zu einem angemessenen Preis, kompetente Gesprächspartner, zuverlässigen und hervorragenden Service sowie termingerechte Lieferungen, was sich letztendlich in der Erfüllung der Produkt-, Service und Kommunikationsqualität zusammenfassen lässt. Da eben nur zufriedene Kunden wiederkommen und kaufen, bildet die Kundenzufriedenheit einen der wichtigsten Pfeiler des langfristigen Geschäftserfolges (Simon/Homburg 1997). Die Zufriedenheit der Kunden manifestiert sich u.a. auch im Beschwerdeverhalten, einem der wichtigsten Indikatoren zur Messung von Kundenzufriedenheit. Eine einmal vom Kunden konsumierte Leistung lässt sich nicht ändern und gemachte Fehler meistens nicht mehr richtig stellen. Gerade bei immateriellen Dienstleistungen wird es kaum möglich sein, Korrekturen vorzunehmen. Eine verschnittene Frisur, die nicht der gewünschten entspricht oder eine verspätete Zugverbindung lassen keine Korrektur zu. Hier kommt es nun vor allem darauf an, wie im Schadensfall eine entsprechende Reklamationsbearbeitung vorgenommen wird, um den Kunden doch noch zufrieden zu stellen. Da trotz größtem Bemühen Fehler nie ganz auszuschließen sind, kann über ein adäquates Reklamationsverhalten, gemäss dem Avis Grundsatz: "Wir streiten nicht mit einem Kunden. Niemand hat einen Streit mit einem Kunden gewonnen" (Drosten/Knüwer 1997), die Unzufriedenheit des Kunden abgebaut und mittelbar sogar ein Beitrag zur Kundenzufriedenheit geleistet werden. Kundenzufriedenheit und Kundennähe sind jedoch nur als instrumenteile Zwi-
Kundenzufriedenheit schenziele auf dem Weg zur langfristigen Kundenbindung zu betrachten. Kundenbindung entsteht, wenn es dem Unternehmen gelingt, dem Kunden einen über das Produkt hinausgehenden Wert zu bieten. Nach Höhler stellt der Mehrwert den entscheidenden Faktor dar, der erfolgreiche von weniger erfolgreichen Unternehmen unterscheidet. Er kann einen konkreten Zusatznutzen darstellen oder auch immaterieller (emotionaler) Art sein. Dieser Mehrwert macht erst die eigenen Produkte gegenüber Fremdprodukten mit gleicher (Produkt-)Qualität konkurrenz- und damit überlebensfähig (Höhler 1994). Über die Notwendigkeit einer langfristigen Kundenbindung besteht bei den Unternehmen seit Jahren ein grundlegender Konsens, der sich u.a. darin ausdrückt, dass die Kundenbindungsrate als entscheidender Indikator für erfolgreiches Agieren betrachtet wird. Als ein herausragendes Erfolgsbeispiel, im Sinne einer langfristigen Kundenbindung, kann auf die Ritz-Carlton Hotelgruppe verwiesen werden, der es gelungen ist, innerhalb von drei Jahren die Kundenbindungsrate um 20% auf 97,1% zu steigern (Rothlauf 1996). Zwar bleibt die Neukundengewinnung ein wesentliches Element der unternehmerischen Bemühungen, doch sind sich immer mehr Unternehmen der Tatsache bewusst, dass eine kundenorientierte Unternehmensstrategie stärker als bisher darauf abzielen sollte, in bestehende Kundenbindungen zu investieren. Lufthansa hat im Rahmen seiner Zielkundenmanagement-Projekte für das Jahr 1998 u.a. seine Marketingaktionen dahingehend verstärkt, Kundenrückgewinnungsprogramme (-> Kundenrückgewinnung) aufzulegen (Hallensieben 1999). Wie wichtig zufriedene Kunden für ein Unternehmen sind, zeigt im übrigen die folgende Faustregel: "Ein enttäuschter Kunde wird sein schlechtes Erlebnis mindestens zehnmal weiter erzählen, ein zufriedener
443
Kundenzufriedenheit Kunde gibt seinen guten Eindruck höchstens fünfmal weiter. Einen Kunden zu halten, ist ungefähr fünfmal billiger als einen neuen zu gewinnen. Um einen schlechten Eindruck zu kompensieren, muss man im Schnitt zwölf positive Erlebnisse bieten." (Gogoll 1995). Die Kundenzufriedenheit als Ziel und Steuerungsgröße wird erst dann sinnvoll zum Einsatz gelangen können, wenn sie gemessen wird. Nur wer Kundenzufriedenheit systematisch misst, kann Maßnahmen entwickeln, die zu den erwünschten Verbesserungen fuhren. Die vorrangige Zielsetzung hierbei besteht darin, durch das Zurverfügungstellen von ausgewerteten Daten der Unternehmensleitung ein zuverlässiges Feedback zu geben, um Handlungen so steuern zu können, dass vorhandene Schwachstellen abgebaut und darauf basierend eine langfristige Kundenbindung entstehen kann. Das übergeordnete Ziel eines jeden Unternehmens muss darin bestehen, aus einem Kunden ("client"), der nur einmal einen Kauf getätigt hat, einen Käufer ("customer") zu machen, der regelmäßig die Dienstleistung bzw. das Produkt nachfragt, um ihn dann als Stammkunden ("advocate") zu gewinnen, der bei seiner Auswahlentscheidung nicht nur auf das entsprechende Produkt bzw. das Dienstleistungsangebot zurückgreift, sondern der es aus persönlicher Überzeugung auch weiterempfiehlt. Gelingt es den Unternehmen einen derartigen Kreis von Stammkunden aufzubauen, dann sorgen diese sogenannten Advocaten mit ihrem Käuferverhalten nicht nur dafür, dass Marketingkosten gesenkt und damit Gelder für andere Zwecke zur Verfügung stehen, sondern es entsteht ein positiver Multiplikatoreffekt. Gerade in einer wettbewerbsorientierten Wirtschaft kommt einer dauerhaften Partnerschaft, die auch als "Lifetime Value" beschrieben wird, eine große Bedeutung zu, denn in ihr wird der Schlüssel für eine langfristige und 444
Kurs-Gewinn-Verhältnis profitable Sicherung bestehender denbindungen gesehen.
Kun-
Literatur: Hallensleben, J., Kundenbindung bei generischen Produkten, in: Absatzwirtschaft 10/1999; Simon, H./Homburg, C.: Kundenzufriedenheit, K o n z e p t e - M e t h o d e n - E r f a h r u n g e n , Wiesbaden, 1997; Homburg, C./Rudolph, B.: Theoretische Perspektiven zur Kundenzufriedenheit, in: Simon, H./Homburg, C. (Hrsg.): Kundenzufriedenheit, K o n z e p t e - M e t h o d e n - E r f a h r u n g e n , Wiesbaden, 1997; Rudolph, B.: Kundenzufriedenheit im Industriegiiterbereich, Wiesbaden, 1998; Berry, L.L./Parasureman, A. Marketing Services. Competing Through Quality, N e w York, 1991; Drosten, M., Knüwer, T., Vom Alptraum ins Traumland, Absatzwirtschaft, 2/1997; Rothlauf, J.: Kundenzufriedenheit in Theorie und Praxis, in: Der Betriebswirt, 3/1996; Höhler, G.: Wettspiele der Macht, Düsseldorf 1994; Gogoll, A.: Fehler im Dienstleistungsbereich vermeiden. Die Service-FMEA hilft, in: Qualität und Zuverlässigkeit, Nr.2/1995.
Jürgen Rothlauf Kurs-Gewinn-Verhältnis Das Kurs-Gewinn-Verhältnis {priceearnings ratio), abgekürzt KGV (P/E), ist definiert als Gewinn je Stammaktie Je nach Operationalisierung des Begriffs "Gewinn" unterscheidet man zwei unterschiedliche Ausprägungen des KGV: - Vergangenheitsorientierte Variante Die vergangenheitsorientierte Variante verwendet den Jahresüberschuss des letzten Jahres als Gewinn, eventuell korrigiert um außerordentliche und Perioden fremde Aufwendungen und Erträge gemäß DVFA/SG. - Prognose orientierte Variante Im Gegensatz dazu steht bei der Prognose orientierten Variante der erwartete Gewinn der nächsten Jahre im Mittelpunkt, wobei eine Verknüpfung zwischen erwartetem Gewinn und Aktienkurs über das DividendenDiskontierungsmodell hergestellt wird: Der Kurs Pj einer jeden Aktie i ergibt sich als -» Barwert der mit den Kapitalkosten k diskontierten zukünftigen Dividenden Dj. Unterstellt man
KVP-Gruppen
Kurs-Gewinn-Verhältnis nun, dass alle Unternehmen i ihre jeweilige Thesaurierungsquote bj im Zeitablauf konstant belassen, dann sind Gewinn Ej(t) und Dividendenzahlung Dj(t) im Zeitpunkt t folgendermaßen verknüpft: D i (t) = ( l - b i ) E , ( t ) . Werden darüber hinaus mit den thesaurierten Gewinnen Investitionsobjekte erworben, die in jeder Periode eine gleich bleibende erwartete Rendite gi erwirtschaften, wächst der Periodengewinn um eben diesen Faktor gi, d.h.: E i (t) = (l + g , ) E , ( t - l ) . Zusammengefasst gilt für den Aktienkurs eines unendlich lange existierenden Unternehmens: (1 - f r , ) • £ , ( ! )
|
(!-&,)•£,(l)-(l + g,) (l + /t)2
\+k (l-fe,)-£,(l).(l + g,)
2
(l^)3 Ist der Kapitalkostensatz k größer als die Rendite der Investitionsobjekte gj, konvergiert obige geometrische Reihe und das K G V ergibt sich als
Das KGV findet beim Vergleich mehrerer Aktien Verwendung. Die grundsätzliche Empfehlung lautet: Aktien mit niedrigem KGV sind Aktien mit höherem KGV vorzuziehen. Allerdings ist dabei zu berücksichtigen, dass das K G V umso höher (niedriger) ausfällt, j e höher (niedriger) die erwartete Rendite g, der Investitionsobjekte und damit das Wachstum des Unternehmens ist, j e niedriger (höher) die -> Kapitalkosten k, d.h. das Risiko des Unternehmens, sind und j e niedriger (höher) die Thesaurierungsquote b, ist. Zusätzlich wirkt ein konservativer Gewinnausweis negativ auf die erwartete Rendite gi und damit KGV-erhöhend. Von daher sollte sich die Aktienbeurteilung nicht nur auf die absolute Höhe des KGV stützen, sondern zumindest einen zusätzlichen Vergleich mit dem KGV anderer Aktien derselben Branche vornehmen, wenn man nicht gleich ein theoretisch fundiertes (-* Kapitalmarkt-) Modell vorzieht, das zudem Aussagen über den zu verwendenden Kapitalkostensatz k macht. Bernhard Nietert KVP -* Kontinuierlicher Verbesserungsprozess KVP-Gruppen Gruppenkonzepte
445
Lagermanagement
Laborexperiment
sich prognostizierbare Schwankungen der Materialflüsse durch Antizipationsläger überbrücken. Beispiele hierfür sind der Ausgleich saisonaler Nachfrageschwankungen und der saisonale Anfall von Naturprodukten.
L Laborexperiment -»Marktforschung Lagebericht Für große und mittelgroße Kapitalgesellschaften, Genossenschaften, Kreditinstitute und Versicherungsuntemehmen ist der Lagebericht neben der -> Bilanz, der -> Gewinn- und Verlustrechnung und dem - » A n h a n g ein gesetzlich vorgeschriebener Bestandteil des -> Jahresabschlusses.
•
Sicherungsfunktion: Sowohl die externe Nachfrage nach Erzeugnissen als auch die Bereitstellung von Beschaffungsgütern unterliegen hinsichtlich der Menge und des Zeitpunktes stochastischen (d.h. nicht vorhersehbaren) Schwankungen, die innerhalb bestimmter Grenzen durch Sicherheitsbestände überbrückt werden können. Hierbei bezieht sich die Unsicherheit sowohl auf die Bedarfsmenge pro Periode und die Wiederbeschaffungszeit (Durchlaufzeit eines Produktionsauftrags bzw. Beschaffungszeit einer externen Bestellung) als auch auf die mögliche Abweichung der Lagerzugangsmenge von der Bestellmenge sowie auf Ungenauigkeiten der Lagerbestandsführung. Hinzu kommen strategische Aspekte zur Sicherung der Versorgung mit Engpassgütern.
•
Assortierungsfunktion: Die Bereitstellung von Fertigungsmaterial erfordert häufig ebenso wie die Distribution von Erzeugnissen ein Umsortieren gemäß der durch Produktions- bzw. Kundenaufträge spezifizierten Zusammensetzung. Damit verbunden ist die Einrichtung von Kommissionierbzw. Umschlaglagern.
•
Spekulationsfunktion: Hierbei werden Lagerbestände aufgebaut, um einem erwarteten Preisanstieg entgegenzuwirken bzw. saisonale Preisvorteile (z.B. bei Naturprodukten) zu nutzen.
•
Veredelungsfunktion: Bei manchen Produkten entsteht erst durch Lagerung die gewünschte Qualität der Bestände (z.B. durch Reifung, Alterung, Fermentierung, Trocknung oder chemische Reaktion).
Der Lagebericht ergänzt den vergangenheitsorientierten Jahresabschluss um Angaben zum Geschäftsverlauf und der Lage der Gesellschaft. Beides ist nach § 289 HGB so darzustellen, dass "ein den tatsächlichen Verhältnissen entsprechendes Bild vermittelt wird". Seit dem Inkrafttreten des Gesetzes zur Kontrolle und Transparenz im Unternehmen (-+KonTraG) 1998 ist im Lagebericht auch auf die Risiken der künftigen Entwicklung einzugehen. Der Lagebericht ist gemeinsam mit den anderen Teilen des Jahresabschlusses Gegenstand der -> Abschlussprüfung. Lagermanagement In der industriellen Produktion gelingt es nur selten, die Beschaffungs-, Produktions- und Distributionsvorgänge zeitlich genau aufeinander abzustimmen. Daher ist Lagerung unvermeidlich. Allgemein lassen sich die folgenden Funktionen der Lagerhaltung unterscheiden. •
Ausgleichsfunktion: Bei asynchron verlaufenden Materialzu- und -abflüssen entstehen zwangsläufig Läger. Hierbei handelt es sich zum einen um Pufferläger, in denen nur kurzzeitig gelagert wird (beispielsweise in mehrstufigen Produktionsprozessen mit losweiser Fertigung oder bei Anlieferung von Material in festen Transportlosgrößen). Zum anderen lassen
446
Lagermanagement •
Entsorgungsfunktion: Hierunter fallen Deponien für industriell verursachte Abfälle und Sammelläger für wiederverwertbare Abfall- und Verpackungsstoffe.
Das Lagermanagement stellt sowohl für Industrie- als auch für Handelsbetriebe eine wichtige Funktion des Gesamtunternehmens dar. Daher sind auch die Ziele des Lagermanagements aus den Unternehmenszielen abzuleiten. Als primäres wirtschaftliches Ziel sind die Kosten der Lagerhaltung, insbesondere die eigentlichen, mit der physischen Lagerung verbundenen Kosten sowie Kapitalbindungs-, Transport- und Bestell- bzw. Rüstkosten zu minimieren. Als weiteres Ziel ist eine möglichst weitgehende Befriedigung des auftretenden Bedarfs der einzelnen Erzeugnisse bzw. eine Minimierung der zugehörigen Fehlmengenkosten anzustreben. Beide Ziele stehen jedoch im Konflikt miteinander, da eine hohe Bedarfsbefriedigung nur bei ausreichenden Sicherheitsbeständen möglich ist. Daher werden in der Praxis üblicherweise bestimmte Lieferbereitschaftsgrade vorgegeben (z.B. Bedarfsdeckung von 95% des Bedarfs innerhalb einer 48stündigen Lieferzeit), die dann bei minimalen Kosten realisiert werden sollen. Grundlage für ein kostenorientiertes Bestandsmanagement ist die Ermittlung des Materialbedarfs. Hierzu kommen zwei unterschiedliche Vorgehensweisen in Frage. Bei der programmorientierten Bedarfsrechnung wird der Bedarf der Lagergüter aus dem vorgegebenen Produktionsprogramm für absatzbestimmte Erzeugnisse unter Rückgriff auf Erzeugnisstrukturen (Stücklisten, Rezepturen) detailliert hergeleitet. Die verbrauchsorientierte Bedarfsrechnung greift hingegen auf empirische Aufzeichnungen über den Lagerabgang in der Vergangenheit zurück und leitet hieraus Prognosen für die weitere Bedarfsentwicklung ab. Hinsichtlich der physischen Bereitstellung der zu lagernden Güter lassen sich
Lagermanagement Konzepte mit bzw. ohne systematische Vorratshaltung unterscheiden. Eine Vorratshaltung gestattet die Reduzierung der Versorgungsrisiken, verursacht jedoch höhere Lager- sowie Administrationskosten. Dennoch stellt die Beschaffung mit Vorratshaltung nach wie vor das in der Praxis dominierende Konzept dar. Ausgehend von vorgegebenen Lieferbereitschaftsgraden bzw. zugehörigen Sicherheitsbeständen werden hierbei auf der Grundlage bestimmter Dispositionsregeln Entscheidungen über den Bestellzeitpunkt und die Bestellmenge getroffen. Grundsätzlich kann so vorgegangen werden, dass eine Bestellung jeweils nach einer fixen Anzahl von Perioden vorgenommen wird (Bestellzyklusverfahren). Andererseits kann eine Bestellung dann ausgelöst werden, wenn der aktuelle Lagerbestand einen vorgegebenen Meldebestand unterschreitet (Bestellpunktverfahren). Die Bestellmenge kann sich dabei an einer vorgegebenen Losgröße oder an einem angestrebten Maximalbestand ausrichten. Bei einer Beschaffung ohne Vorratshaltung wird eine Umsetzung des -> Just-InTime-Konzepts angestrebt. Die Sicherung der Versorgung erfolgt hierbei durch eine vertraglich geregelte Kooperationsbeziehung zwischen Lieferant und Abnehmer. Der Lieferant verpflichtet sich, die benötigten Güter in der geforderten Menge termin- und qualitätsgerecht anzuliefern. Die benötigten Informationen werden über ein rechnergestütztes Lieferabrufsystem ausgetauscht, wobei der Abnehmer i.d.R. Bedarfsmenge und Bereitstellungszeitpunkt vorgibt. Wegen der hohen Anlieferungsfrequenzen (u.U. mehrmals täglich) und der direkten Übergabe an die Produktion fallen lediglich geringe Pufferbestände an. Als Vorteil dieses Konzepts sind die geringe Kapitalbindung sowie der geringe Bedarf an Lagerraum und Handlingvorgängen, als Nachteil das hohe Versorgungsrisiko und der hohe Organisationsaufwand anzuführen. Daher wird das Konzept der einsatzsynchronen Bereitstellung vorwiegend bei Gütern mit 447
Lagermanagement hohem Lagerwert sowie hohem und gleichmäßigem Bedarfsvolumen und geringer Bedarfsunsicherheit eingesetzt (-> ABC-Analyse). Bei einem Beschaffungskonzept mit systematischer Vorratshaltung müssen die Güter physisch gelagert werden. Hierzu sind spezielle Lagergebäude, technische Einrichtungen (z.B. Regale), Fördermittel (z.B. Transportbänder, Kräne, Gabelstapler, Regalbediengeräte), Ladungsträger (z.B. Paletten oder Container) sowie rechnergestützte Informationssysteme (z.B. zur Lagerplatzverwaltung und zur Steuerung der automatisierten Fördereinrichtungen) und organisatorische Regelungen (z.B. zur Lagerplatzzuordnung) erforderlich. Welche Lagerkapazität und welche Umschlagleistung benötigt werden, hängt in erster Linie von der Anzahl der zu lagernden Güter, ihrer Lagermenge sowie ihrem Lagerumschlag ab. Die vorhandenen Lagerplätze werden nach bestimmten Grundprinzipien den zu lagernden Gütern zugeordnet. Gebräuchlich sind eine feste Zuordnung, bei der für jedes Lagergut genau definierte Lagerplätze vorgesehen sind, die Aufteilung des Lagers in bestimmte Zonen für jeweils eine Gruppe von Lagergütern, wobei leistungsbezogene Merkmale (i.d.R. die Zugriffshäufigkeit) oder sachbezogene Merkmale (z.B. Gefahrgutklassen, Gewicht oder klimatische Anforderungen) zugrunde gelegt werden, und die wahlfreie Zuordnung, bei der die Ladungsträger beliebig eingeordnet werden können. Die wahlfreie Zuordnung ermöglicht i.d.R. eine erhöhte Ausnutzung der Lagerkapazität, erfordert jedoch gleichzeitig eine aufwändigere Lagerverwaltung, zumal wenn auch die Lagerdauer der einzelnen Güter mit erfasst werden muss. In der industriellen Praxis wird vielfach versucht, die Raumausnutzung und die Umschlagleistung eines Lagers durch aufwändige lager- und fördertechnische Maßnahmen zu steigern. Dabei werden 448
Lean Production jedoch die Leistungsreserven, die durch organisatorische Maßnahmen sowie durch effiziente Steuerungssysteme bei vergleichsweise geringen Investitionsausgaben erschlossen werden können, häufig verkannt. Literatur: Günther, H.-O./Tempelmeier, H.: Produktion und Logistik, 4. Aufl., Berlin u.a. 2000; Inderfurth, K.: Beschaffungskonzepte, in: Isermann, H. (Hrsg.): Logistik, 3. Aufl., Landsberg/Lech 1998, S. 197-211; Liesegang, D.F., Lagerhaltung, in: Wittmann, W./Kern, W./Köhler, R./Küpper, H.-U./v. Wysocki, K. (Hrsg.): Handwörterbuch der Betriebswirtschaft, Stuttgart 1993, Sp. 2 5 0 7 - 2 5 1 6 ; Vahrenkamp, R., Logistikmanagement, 3. Aufl., München, Wien 1998.
Hans-Otto Günther LAN Local Area Network. Der Begriff bezeichnet einen lokalen Computerverbund, der über ein Netzwerksystem kommunizieren kann. Solche Netze sind meist über eine -> Firewall und ein —• Gateway an einen größeren Verbund, ein sog. -> WAN angeschlossen. Last-Birthday-Methode -> Marktforschung Lean Management Lean Management ist ein Schlagwort zur Untemehmensfiihrung. Mit Hilfe "schlanker" Strukturen in der Führungsebene versuchen Unternehmen, Kosten zu sparen, Hierarchien abzubauen (flache Hierarchien) und damit die Entscheidungswege zu verkürzen sowie die Flexibilität zu erhöhen. Lean Production Unter "schlanker" Produktion (= Lean Production) versteht man den Ansatz, Lagerbestände zu minimieren (-> Lagermanagement), die Vorprodukte fertigungssynchron anliefern zu lassen (-» Just-in-Time) und die Bestände an Fertigwaren weitgehend abzubauen. Schlanke Produktion hat den Vorteil, dass sich Kosten für Lagerhaltung und die Kapitalbindung verringern und dass das Unternehmen schnell und flexibel auf
Lernkurve
Lean Production Änderungen kann.
der
Nachfrage
reagieren
Lean Production kann nur implementiert werden, wenn der Materialfluss (-+ Materialwirtschaft) und die Produktionsplanung exakt aufeinander abgestimmt sind (-> Produktionsmanagement, -» Produktionslogistik, -> Produktionsflexibilität). Leasing Leasing wird auch als Anlagenmiete bezeichnet, da das Leasingobjekt (meist ein Investitionsgut, z.B. eine Maschine des Anlagevermögens) vom Leasinggeber gekauft und dem Leasingnehmer gegen eine Leasinggebühr zur Nutzung überlassen wird. Das Leasing kann somit als Finanzierungsmittel (-> Finanzierung) gekennzeichnet werden, bei dem statt einer hohen Anfangsinvestition weit niedrigere, dafür oft langjährige Leasingzahlungen anfallen. Leasinggeber bieten ihren Kunden hochspezialisierte Beratungsleistungen, die Übernahme von Investitionsrisiken und flexible Zahlungsmodalitäten, die auch zahlungsfreie Zeiträume (sog. "Holidays") umfassen können. Die seit über 40 Jahren aktive Branche konnte 1999 erstmals ein Vertragsvolumen von über 80 Mrd. DM verbuchen. Noch entfallen 60% davon auf das Fahrzeugleasing. Neue Bereiche, wie etwa das -> IT-Leasing holen jedoch auf. Lebensarbeitszeitmodelle -> Zeitsparmodelle, —• Arbeitszeitmanagement, —• Arbeitszeitmodelle Lebenszyklus -> Produktlebenszyklus Lebenszykluskostenrechnung > Life Cycle Costing Leiharbeitsverhältnis Arbeitnehmerüberlassung
Leistungspotenzial, personell -> Potenzialbeurteilung Leitende Angestellte Leitender Angestellter im Sinne des BetrVG ist nach § 5 III BetrVG deijenige, der nach Arbeitsvertrag und Stellung im Betrieb bzw. Unternehmen das Recht zur selbstständigen Einstellung oder Entlassung hat, Generalvollmacht oder - eine im Verhältnis zum Arbeitgeber nicht unbedeutende - Prokura hat oder für den Unternehmensbestand wichtige Aufgaben selbst entscheidet bzw. wesentlich an der Entscheidungsfindung beteiligt ist. In Zweifelsfällen bestimmt § 5 IV BetrVG weitere Kriterien, die zur Klassifikation des Angestellten herangezogen werden können. Leitende Angestellte sind keine Arbeitnehmer im Sinne des BetrVG. Daher finden dessen Vorschriften auf sie keine Anwendung. Lernkurve Die Lernkurve wurde zuerst von Wright (1936) in der Montage von Flugzeugen beobachtet. Sie dient der Quantifizierung des Übungseffektes. Hier wird unter Üben die Verbesserung des Ablaufs menschlicher Verhaltensweisen durch regelmäßiges Wiederholen verstanden. Mit der kumulierten Produktionsmenge eines Produktes nimmt die Anzahl der Wiederholungen der Arbeitsoperationen zu, der Übungseffekt stellt sich ein. Die benötigte Ausfuhrungszeit pro Werkstück sinkt. Der Materialverbrauch nimmt z.B. durch den Rückgang von Verschnitt und Ausschuss sowie benötigter Betriebsstoffe ebenfalls ab. Der Übungseffekt ist typischerweise zu Beginn der Produktion eines Produktes am größten und sinkt mit zunehmender kumulierter Produktionsmenge. Werden die Ausführungszeiten und das Material mit den jeweiligen Kosten bewertet, erhält man den von der Lernkurve beschriebenen Zusammenhang zwischen der kumulierten Produktions-
449
Life Cycle Costing
Lernkurve menge und den Lohn- sowie Materialstückkosten. Ein weiter gefasstes Konzept stellt die Erfahrungskurve dar. Literatur: Wright, T.P.: Factors affecting the cost of airplanes, Journal of Aeronautical Science, 3, Feb. 1936, 122-128.
Martin Grunow Letter of Intent (LOI) Absichtserklärung ohne Rechtsbindungswillen, in der der Verfasser seine Verhandlungsposition klarstellt. Zu denken ist an die Fixierung der Investitionsabsicht eines -»• Venture Capitalists gegenüber einem -> Start Up oder an eine Absichtserklärung einer -»Unternehmensakquisition Letter-Stocks -» Tracking Stocks Leverage-Effekt Begriff der Investitions- und Finanzierungstheorie. Der Leverage-Effekt bringt die Abhängigkeit der Rentabilität des Eigenkapitals vom Anteil der Fremdfinanzierung zum Ausdruck. Dem Leverage-Effekt zur Folge nimmt die Eigenkapitalrendite zu, wenn bei steigender Verschuldung die Investitionsrendite über dem Fremdkapitalzins liegt - man spricht in diesem Zusammenhang von der Leverage-Chance. Unterstellt man einen vom Verschuldungsgrad positiv abhängigen Fremdkapitalzinssatz, so fuhrt dies bei einer gegebenen Investitionsrendite, die über dem Fremdkapitalzins liegt, nur zu einer unterproportionalen Zunahme der Eigenkapitalrendite. Beachtet werden muss aber, dass sich mit steigendem Verschuldungsgrad auch die Risikoposition des Eigenkapitalgebers verschlechtert. Lieferbereitschaft Die Lieferbereitschaft ist eine Verhältniszahl, die angibt, wie viel Prozent der eingehenden Aufträge durch Auslieferung der bevorrateten Waren bearbeitet werden können (s.a. -* Lagermanagement). 450
Besondere Bedeutung kommt der Lieferbereitschaft bei der -> einstufigen Werbung des -» Direktmarketings zu, da bei einer geringen Lieferbereitschaft und dem dadurch bedingten längeren Auslieferungszeitraum das Interesse der Kunden am bestellten Produkt stark abnehmen kann und es zu verstärkter Warenrückgabe kommt. Andererseits ist eine 100%ige Lieferbereitschaft nicht anzustreben, da dies ein zu hohes Lagerrisiko sowie eine zu hohe Kapitalbindung bedeutet. Life Cycle Costing Life Cycle Costing (LCC, auch Lebenszykluskostenrechnung genannt) zielt darauf ab, die gesamten Kosten und Erlöse eines Systems und der damit verbundenen Aktivitäten und Prozesse, die über dessen Lebenszyklus entstehen, zu optimieren. LCC ist keine eigenständige Methode, sondern es besteht aus einer Vielzahl von Methoden, die vor allem aus der Investitionsrechnung bekannt sind (z.B. dynamische Investitionsrechenverfahren, Methoden der qualitativen Systembewertung, Verfahren der Kostenprognose, Methoden zur Berücksichtigung des Risikos und der Inflation). In der Literatur findet man häufig den Begriff "Product Life Cycle Costing" (PLCC), um die Anwendung des Konzeptes im Rahmen eines lebenszyklusorientierten Produktcontrolling deutlich zu machen. Zwischen LCC und PLCC gibt es konzeptionell keine Unterschiede. Neu am PLCC ist jedoch, dass es die für das herkömmliche Rechnungswesen typischen kurzfristigen Periodenbetrachtungen ergänzt und Methoden Anwendung finden, die bisher der Langfristplanung von Großprojekten und damit der Investitionsrechnung vorbehalten waren. Lebenszykluskosten setzen sich aus sämtlichen Kosten zusammen, die ein System über seinen gesamten Lebenszyklus verursacht. Dies sind Kosten für die Initiierung, Planung, Realisierung, den Betrieb und die Stillegung eines Systems. Eigentlich müsste man in diesem Zusammen-
Life Cycle Costing hang von "Lebenszyklusauszahlungen" sprechen, da es sich bei Lebenszykluskosten nicht um "Kosten" im eigentlichen Sinne handelt. Folglich wird als Entscheidungskriterium auf den Barwert der über den Lebenszyklus realisierbaren Zahlungsüberschüsse zurückgegriffen. Lebenszykluskosten lassen sich unterscheiden in Anfangs- und Folgekosten sowie in wiederkehrende und einmalige Kosten. Von Interesse für das LCC ist insbesondere die Beeinflussung der wiederkehrenden und der Folgekosten. Lebenszykluskosten werden außerdem danach unterschieden, ob sie aus der Sicht des Herstellers, der wettbewerbsfähige und profitable Produkte auf den Markt bringen will, betrachtet werden (Produzentensicht) oder aus der Sicht des Kunden, der vor einer Beschaffungsentscheidung steht (Kundensicht). Zu den Lebenszykluskosten aus Kundensicht gehören üblicherweise Kosten der Informationsbeschaffung, Anfangsausgaben (auch Kosten für Training, Tests und Transport), Wartungs- und Instandhaltungskosten, Betriebskosten und Entsorgungskosten, falls der Kunde sie selber zu tragen hat. Auch Opportunitätskosten können zu den Lebenszykluskosten aus Kundensicht gehören, wenn z.B. der Kunde Erlösausfälle bei Produktversagen hat (z.B. wenn eine Maschine für Gewerbezwecke gekauft wurde und diese ausfällt). Zu den Lebenszykluskosten aus Produzentensicht gehören üblicherweise technologische, vertriebliche und sonstige Vorlaufkosten, Anpassungs- und Änderungskosten, Einführungskosten, laufende Herstellungs-, Verwaltungs- und Vertriebskosten, Auslaufkosten, Wartungs-, Reparatur-, Garantie- und Entsorgungskosten. Für den Produzenten sind bei der Durchführung des LCC nicht nur die Kosten entscheidungsrelevant, die er selber zu tragen hat, sondern auch die Kosten aus Kundensicht, die der Kunde in
Life Cycle Costing seine Kaufentscheidung integriert. Produzenten, die die Anforderungen ihrer Kunden kennen, haben eine bessere Ausgangsbasis für ihre eigenen Überlegungen zur Wahrnehmung des Produktes durch seine Kunden, zur Produktion, zur Vermarktung, zum Service sowie zur Ableitung von Preisvorstellungen. Lebenszykluskosten aus Kundensicht sind deshalb sinnvollerweise in das Entscheidungskalkül des Produzenten zu integrieren. Erlöse werden im traditionellen Konzept des LCC vernachlässigt, da als primäres Ziel des Konzeptes die Minimierung der Lebenszykluskosten angesehen wird. Alternativen sind jedoch nur dann vergleichbar, wenn sich die Kosten auf das gleiche Leistungsgerüst beziehen und die Erlösseite konstant ist. Dies ist aber in der Regel problematisch, da sich Produktalternativen aufgrund von Kapazitäts- und Qualitätsvariationen unterscheiden können und gerade auch derartige Folgewirkungen über den Lebenszyklus eines Systems im Rahmen des LCC analysiert werden sollen. Es ist daher sinnvoll, auch Lebenszykluserlöse im LCC zu integrieren. Solche Erlöskategorien sind beispielsweise Umsatzerlöse sowie Wartungs- und Reparaturerlöse. Auch Kostenminderungen wie Subventionen für F&E-Projekte oder Steuervergünstigungen sind dabei zu berücksichtigen. LCC kann überall dort Anwendung finden, wo relevante dynamische Informationen, die die aktive Gestaltung der Entscheidungsvariablen "Kosten", "Zeit" und "Leistung" eines Systems betreffen, notwendig sind. Entscheidungen aus Kundensicht zwischen alternativen Produkten, Maschinen, Großanlagen oder die Auswahl konkurrierender Anbieter sind hierfür Beispiele. Aus Produzentensicht eignet sich LCC z.B. bei der Entscheidungsfindung bezüglich alternativer Logistikkonzepte, der Preisfestsetzung, von -> Make or Buy Entscheidungen oder im Rahmen des -*Kostenmanagements. 451
Life Cycle Costing Bei der Entscheidung über die Nutzung des Life Cycle Costing sind folgende Kriterien zu prüfen: 1. Verursacht das Produkt bzw. System hohe Folgekosten im Verhältnis zu den Anfangskosten? 2. Hat das Produkt bzw. System eine hohe Lebensdauer? (Bei langer Lebensdauer gewinnen die Folgekosten noch mehr an Bedeutung, während bei kurzer Lebensdauer die Anfangskosten eine größere Rolle spielen.) 3. Wie hoch ist der Kapitaleinsatz? (Je höher der Kapitaleinsatz über den Lebenszyklus, desto lohnender ist LCC.) 4. Besteht möglicherweise ein Kostensenkungspotenzial, welches durch LCC aufgedeckt werden kann? Die Beantwortung dieser Fragen kann allerdings aufgrund der damit verbundenen Subjektivität nur Anhaltspunkte für den wirtschaftlichen Einsatz von LCC liefern. Hauptziel des LCC ist die Optimierung von Kosten, Leistung und Zeit eines Systems über dessen Lebenszyklus. Dabei sind vier Unterziele von besonderer Bedeutung: 1. Prognoseziel: Die Lebenszykluskosten, Lebenszykluserlöse sowie die nicht-monetären Folgewirkungen von Entscheidungsalternativen sind zu prognostizieren. Anhand der prognostizierten Lebenszyklusdaten lassen sich Alternativen beurteilen. Darüber hinaus können Abweichungen zwischen prognostizierten Kosten bzw. vorgegebenen Zielkosten und tatsächlichen Kosten durch einen Soll-IstVergleich überwacht und analysiert werden. 2. Abbildungsziel. Ziel ist die Ermittlung und Darstellung der Gesamtkosten und -erlöse eines Systems. Die abgebildeten Informationen sollen die Entscheidungsfindung bei der Optimierung von Systemen unterstützen.
452
Life Cycle Costing 3. Erklärungsziel: Zusammenhänge bei der Entstehung der Kosten und Erlöse sowie nicht-monetäre Konsequenzen von Entscheidungen sollen erkannt und erklärt werden, da erst mit deren Erkenntnis eine aktive Beeinflussung und Gestaltung von Kosten, Zeit und Qualität möglich wird. 4. Gestaltungsziel: Anhand der strukturierten und prognostizierten Daten soll es möglich werden, schon zu Beginn des Entscheidungsprozesses Möglichkeiten zur optimalen Kosten- und Erlösgestaltung und -beeinflussung zu erkennen und Potenziale zur Kostensenkung zu nutzen. Die lebenszyklusorientierte Gestaltung von Kosten und Erlösen ist notwendig, da eine kurzfristig optimal erscheinende, ohne Betrachtung des Lebenszyklus beurteilte Alternative nicht in jedem Fall die beste ist. Ein Beispiel ist die Standardisierung des Produktdesigns mit dem kurzfristigen Ziel der Kostenreduktion. Die Standardisierung führt zu verminderter Flexibilität, was in dynamischen Märkten in Folgeperioden sehr schnell zu Wettbewerbsnachteilen und Gewinneinbußen fuhren kann. Bei der Kostengestaltung ist besonders die Aufdeckung und Bewertung von Trade-offs zwischen Anfangs- und Folgekosten von Bedeutung. Steigende Anfangskosten können beispielsweise zu sinkenden Folgekosten fuhren, z.B. indem für Produkte umweltfreundlichere Materialien verwendet werden und so die Materialkosten steigen, während jedoch die Entsorgungskosten am Ende des Lebenszyklus um ein Vielfaches sinken. Die zunehmende Strategieorientierung von Unternehmen aufgrund einer verschärften, internationalen Wettbewerbsdynamik führt zur Notwendigkeit eines weitaus längeren Planungshorizontes und damit zu einem veränderten Informationsbedarf, der durch die traditionelle, periodenorientierte Kostenrechnung nicht
Lizenzierung
Life Cycle Costing gedeckt werden kann. Durch die mangelnde mehrperiodige Betrachtung der herkömmlichen Kostenrechnung werden Interdependenzen mit außerhalb der Periode liegenden Einflüssen auf Kosten, Leistung und Zeit außer Acht gelassen. Das LCC wendet sich damit gezielt gegen eine zu kurzfristige Perspektive. In der Neuproduktentwicklung haben empirische Studien beispielsweise gezeigt, dass bereits in der Design- und Entwicklungsphase 70 bis 85% der Produktkosten gebunden werden. In diesen Phasen werden Konfiguration und Funktion des Systems sowie die zur Herstellung benötigten Materialien und Zukaufteile sowie die Prozesse der Produktion festgelegt. Die Kosten fallen aber größtenteils erst in der Produktionsphase und den nachfolgenden Lebenszyklusphasen an und werden auch erst dann verbucht und gesteuert. Dies kann dazu führen, dass das Kostensenkungspotenzial früher Lebenszyklusphasen nicht erkannt und genutzt wird. Beispielsweise kann durch eine optimale Systemkonstruktion in der Entstehungsphase ein hoher Anteil der Lebenszykluskosten eingespart werden, da die Systemkonstruktion auch die Fertigungs- und Beschaffungskosten in späteren Lebenszyklusphasen beeinflusst. Die optimale Systemkonstruktion kann aber erst durch die lebenszyklusorientierte Betrachtung und die Berücksichtigung langfristiger Konsequenzen bezüglich Kosten und Leistung gefunden werden. Die Beeinflussbarkeit der Kosten nimmt mit steigender Systemkonkretisierung im Verlauf des Lebenszyklus immer weiter ab, während die Kostenbindung immer weiter zunimmt. Mit wachsender Produktkonkretisierung steigen daher die Kosten für nachträgliche Änderungen bzw. Anpassungen. Mit LCC werden die relevanten lebenszyklusorientierten Informationen zu dem Zeitpunkt ermittelt und analysiert und in den Entscheidungsprozess einbezogen, zu dem eine Beeinflussung des Systems bzw. Produktes am
kostengünstigsten möglich ist, nämlich so früh wie möglich im Lebenszyklus. Hauptkritikpunkt am LCC ist die schon erwähnte Unsicherheit der in das LCC einfließenden Größen. Mit der „richtigen" Prognose von Lebenszykluskosten und -erlösen, der Wahl eines adäquaten Diskontierungszinssatzes etc. steht und fällt der Aussagegehalt des LCC. LCC ist eine Methodensammlung. Der grundlegende Unterschied zwischen LCC und der „traditionellen" Investitionsrechnung besteht jedoch darin, dass Kosten und Erlöse bzw. Ein- und Auszahlungen im LCC nicht nur als passiver Faktor erfasst werden, sondern über den Lebenszyklus hinweg aktiv gestaltet werden. Im Rahmen des im LCC verfolgten Gestaltungsziels wird in einem permanenten Prozess versucht, über den gesamten Lebenszyklus hinweg die Produkt- bzw. Systemgestaltung zu optimieren. Thomas Günther Limited Information Modell PIMS-Datenbank, -> PIMS-Programm Liquidationswert -* Unternehmenswert LISREL Kausalanalyse Lizenzierung Ursprünglich wurde unter Lizenzierung (Lizenzvergabe) ein Rechtsgeschäft verstanden, bei dem der Inhaber eines gewerblichen Schutzrechts (z.B. Patent, Warenzeichen, Gebrauchsmuster) einem anderen die Nutzung dieses Rechts einräumt. Da manche Erfindungen nicht als Patente angemeldet werden (weil man etwa in der notwendigen Offenlegung des Patentgegenstands die Gefahr einer Nachahmung sieht), dennoch aber über Lizenzierung verwertet werden (können), wird heute der Begriff der Lizenzvergabe in einem weiteren Sinn benutzt: Einem Dritten wird das Recht eingeräumt, firmenspezifisches Know-how zu nutzen, gleichgültig ob dieses geschützt oder un-
453
Lizenzierung geschützt ist. In der Regel sind in einer Lizenz beide Formen eines Wissensvorsprungs enthalten (gemischte Lizenz). Die Lizenzvergabe ist zu unterscheiden vom Franchising (-» Franchise-Systeme). Bei letzterem handelt es sich um eine absatzpolitische Kooperation, die zwar auch Lizenzvereinbarungen enthält, aber auf eine umfassende Organisations- und Marketingkonzeption erweitert ist, die der Franchisegeber den Franchisenehmern vorgibt. Beispiele für Franchise-Systeme sind Fast-food- (z.B. McDonald's) und Hotelketten (z.B. Holiday-Inn). Die Einzelheiten der Übertragung des Nutzungsrechts an neuem Wissen sind im Lizenzvertrag geregelt. Neben der genauen Kennzeichnung des Lizenzgegenstands geht es vor allem um die Festlegung des Lizenzentgelts und der Nutzungsbeschränkungen. Das Lizenzentgelt kann in monetärer oder nicht-monetärer Form bestehen und als periodische oder Einmalzahlung vereinbart werden. Häufig wird eine wiederkehrende Lizenzgebühr erhoben, die sich nach dem Umsatz oder der Absatzmenge des lizenzierten Produkts richtet. Einmalzahlungen haben den Vorteil, dass keine zukünftigen Kontrollen nötig sind und praktisch kein Delkredererisiko entsteht. Diese Entgeltform eignet sich besonders für Herstellungslizenzen und verdient vor allem bei internationalen Lizenzvereinbarungen den Vorzug. Ist der Lizenzgeber zugleich Lieferant des Lizenznehmers (etwa für Vormaterial oder Komponenten), so kann ein langfristiger Liefervertrag ein gesondertes Lizenzentgelt ersetzen. Auch bei Lizenztausch (cross licensing) wird im allgemeinen auf ein zusätzliches Entgelt verzichtet. Der Lizenzvertrag sollte auch Regelungen über die sachliche, räumliche und zeitliche Reichweite der Lizenzvergabe enthalten. In sachlicher Hinsicht geht es um den Lizenzcharakter (exklusive oder nicht-exklusive Lizenz) und die Nutzungsart (Herstellungs-, Gebrauchs- oder 454
Lizenzvergabe, Internationalisierung d. Vertriebslizenz). In räumlicher Hinsicht gilt es festzulegen, welche Märkte der Lizenznehmer bearbeiten darf und welche nicht; dies ist gerade bei internationalen Vereinbarungen von erheblicher Bedeutung. Die zeitliche Reichweite wird von der Laufzeit etwaiger Schutzrechte und den Interessen der Vertragspartner bestimmt. Erwartet der Lizenzgeber z.B. eine besonders positive Marktentwicklung, wird er auf eine kurze Vertragslaufzeit hinwirken, um in einer erneuten Verhandlung günstigere Bedingungen zu erreichen. Umgekehrt wird dem Lizenznehmer bei anspruchsvollen Technologien, die durch hohe Spezifität der notwendigen Investitionen charakterisiert sind, an einer langen Vertragslaufzeit gelegen sein. Ehrenfried Pausenberger Lizenzvergabe, Internationalisierung durch In vielen Branchen ist die Ausdehnung des Absatzes auf ausländische Märkte eine Voraussetzung, zumindest aber ein entscheidender Faktor für die Erhaltung bzw. Stärkung der Wettbewerbsfähigkeit der Unternehmung. Die Erschließung und Bearbeitung von Auslandsmärkten kann grundsätzlich auf drei Wegen erfolgen, die hier als Basisstrategien bezeichnet werden: Export, grenzüberschreitende Lizenzvergabe (-> Lizenzierung) und Eigenproduktion im Ausland, wobei letztere in der Regel Direktinvestitionen bedingt. Im folgenden wird die Lizenzvergabe als Internationalisierungsstrategie vorgestellt und in ihren Vor- und Nachteilen gegenüber dem Export und der eigenen Auslandsproduktion beurteilt. Die Bearbeitung eines Auslandsmarktes durch Lizenzvergabe bietet sich zunächst in jenen Fällen an, in denen einerseits der Exportweg versperrt ist (etwa wegen staatlicher Handelsbeschränkungen oder zu hoher Produktionskosten im Inland), andererseits der Aufbau einer Auslandsproduktion nicht in Frage kommt. Auch dann, wenn eine rasche Reaktion auf
Lizenzvergabe, Internationalisierung d. Nachfragesteigerungen geboten ist, aber die vorhandenen Kapazitäten ausgelastet sind, eröffnet die Lizenzierung die Möglichkeit, sich mit dem eigenen Produkt und der eigenen Marke relativ schnell auf dem Auslandsmarkt zu präsentieren. Im Vergleich zum Aufbau einer eigenen Auslandsproduktion bietet die Lizenzvergabe die gewichtigen Vorteile, dass sie keine ausländischen Direktinvestitionen voraussetzt und wenig Managementpotenzial bindet. Gerade für mittelständische Unternehmungen, die häufig unzulänglich mit Eigenkapital ausgestattet sind und auch über zu wenig freie Managementkapazität verfugen (die Unternehmensführung wird vom Inhaber dominiert), stellt die Lizenzvergabe eine erwägenswerte Alternative dar. Der Lizenzgeber überlässt die unmittelbare Marktbearbeitung dem Lizenznehmer, der dafür wegen seiner besseren Marktkenntnis auch prädestiniert ist. Der Lizenznehmer hat natürlich die Marketingkosten und die marktspezifischen Risiken zu tragen, die insbesondere auf volatilen Märkten und bei Produkten, die an die Kundenwünsche angepasst werden müssen, ins Gewicht fallen. Diesen Vorteilen stehen allerdings erhebliche Nachteile gegenüber. Als besonders schwerwiegend wird in der Praxis die Gefahr angesehen, dass der Lizenznehmer durch den Wissenstransfer zum Konkurrenten aufgebaut wird, er spätestens nach Ablauf der Vertragszeit in die Märkte des Lizenzgebers eindringt und dessen Gewinnchancen schmälert. Ein weiteres Problem besteht in der Schwierigkeit, die vertragsgemäße Nutzung des überlassenen Know-how zu kontrollieren, insbesondere hinsichtlich der Produktqualität und der Geheimhaltung vor Dritten. Qualitätsmängel beschädigen das Markenimage; ein vertragswidriger Abfluss des Know-how kann einen noch größeren Schaden verursachen, da er die Basis der Marktposition gefährdet.
Lizenzvergabe, Internationalisierung d. Schließlich ist die Anbahnung und der Abschluss eines Lizenzvertrags von besonderen Schwierigkeiten begleitet. Die Theorie spricht von hohen Transaktionskosten (-> Transaktionskostentheorie). U m einen Lizenzpartner zu gewinnen, muss er über den Lizenzgegenstand informiert werden. Dies gilt verstärkt für die Verhandlungen über das Lizenzentgelt. Sobald dem potenziellen Lizenznehmer aber das fragliche Know-how bekannt ist, wird er nicht mehr bereit sein, hierfür eine Entschädigung zu zahlen (Arrow's Informationsparadoxon). Hier empfiehlt sich, vor Beginn der Verhandlungen vom Lizenznehmer eine Geheimhaltungsverpflichtung zu verlangen und Kernelemente des Lizenzgegenstandes zunächst zurückzuhalten. Ein Urteil über die empirische Bedeutung der Lizenzvergabe lässt sich näherungsweise aus der Lizenzbilanz der Bundesrepublik Deutschland mit dem Ausland ableiten. Sie gibt Aufschluss über die Einnahmen und Ausgaben beim grenzüberschreitenden Transfer von Patenten, Lizenzen, Urheber-, Warenzeichen- und Markenrechten; sie erfasst allerdings nicht die ohne monetäre Gegenleistung ablaufenden Transfers. Die deutschen Lizenzeinnahmen beliefen sich 1997 auf 4,0 Mrd. DM (Deutsche Bundesbank 1998). Zum Vergleich: Im selben Jahr betrugen die deutschen Exporte 888,6 Mrd. DM, die Umsätze deutscher Auslandsgesellschaften 1.276 Mrd. DM. Ein großer Teil der deutschen Lizenzeinnahmen sind Zahlungen von deutschen Auslandsgesellschaften an ihre inländischen Muttergesellschaften. Leider liefert die deutsche Statistik dazu keine genaueren Angaben. Nach der aussagekräftigeren US-amerikanischen Statistik stellen 73% der US-amerikanischen Lizenzeinnahmen konzerninterne Transfers dar, und davon betreffen wiederum 92% Zahlungen US-amerikanischer Auslandstöchter an ihre Muttergesellschaften
455
Ludwig Erhard Preis
Lizenzvergabe, Internationalisierung d. (US-Department of Commerce 1999). Für die deutschen Lizenzeinnahmen dürfte sich eine ähnliche Relation ergeben. Der Lizenzvergabe kommt demnach als eigenständige, nicht an Direktinvestitionen gebundene Form der Internationalisierung eine nur geringe Bedeutung zu. Der Hauptgrund dafür liegt in dem Umstand, dass die internationale Lizenzvergabe an unabhängige Unternehmungen besonders hohe Transaktionskosten verursacht. Literatur: Brandt, R./Sander M.: Betriebswirtschaftliche, rechtliche und politische Probleme der Internationalisierung durch Lizenzerteilung, in: Macharzina, K./Oesterle, M.-J. (Hrsg.): Handbuch Internationales Management, Wiesbaden 1997, S. 511-534; Kriependorf, P.: Lizenzpolitik, internationale, in: Macharzina, K.AVelge, M.K. (Hrsg.): Handwörterbuch Export und Internationale Unternehmung, Stuttgart 1989, Sp. 13231339; Pausenberger, E.: Alternative Internationalisierungsstrategien, in: Pausenberger, E. (Hrsg.): Internationalisierung von Unternehmungen, Stuttgart 1994, S. 1-30.
Ehrenfried Pausenberger Location-Allocation-Problem -»Standortwahl Logische Bomben -> Computerviren Logistik Logistik ist eine Schlüsselfunktion, die alle Aufgabenbereiche in Unternehmen beeinflusst. Die Logistik umfasst alle planenden, steuernden und realisierenden Tätigkeiten, die einer bedarfsgerechten Bereitstellung von Gütern und Informationen, die für die Erfüllung der betrieblichen Aufgaben erforderlich sind, dienen.
456
Aufgabe der Logistik ist es damit, das richtige Produkt in der richtigen Menge, der richtigen Qualität, am richtigen Ort, zur richtigen Zeit, zu den richtigen Kosten, für den richtigen Kunden zur Verfügung zu stellen. Die industrielle Logistik wird meist in die Bereiche -> Beschaffungslogistik, -»Produktionslogistik und Distributionslogistik untergliedert. Zur Beurteilung der Wirtschaftlichkeit der Transport- und Lagersysteme werden Logistik-Kennzahlen formuliert und ermittelt. Neben den betriebswirtschaftlichen Kennzahlen sind insbesondere die Servicekennzahlen hervorzuheben (Liefertreue, Lieferflexibilität, Lieferschnelligkeit und Lieferqualität). In den letzten Jahren ist die Logistik durch neue Managementkonzepte, wie Supply Chain Management, -> Efficient Consumer Response erweitert worden, so dass das Angebot an logistischen Ideen, Konzepten und Werkzeugen ist inzwischen äußerst umfangreich geworden ist. Long Hedge Hedging Look-AIike-Analyse PIMS-Datenbank, -» PIMS-Programm Low-Involvement -> Involvement Ludwig-Erhard-Preis Qualitätsauszeichnungen
Machtpromotor
Malcom Baldrige National Quality Award Überblick über die Pläne, wobei das Augenmerk auf dem Zusammenhang zwischen kurz- und langfristigen Plänen sowie auf den Zukunftsperspektiven im Wettbewerbsumfeld liegt.
M Machtpromotor -> Management des Wandels Macro Hedge -» Hedging Magisches Viereck Das "Magisches Viereck" beinhaltet vier globale Ziele der Wirtschaftspolitik: Wachstum, Preisniveaustabilität, hoher Beschäftigungsstand und außenwirtschaftliches Gleichgewicht. Da zwischen diesen Zielkonkurrenz besteht, d.h. ein Ziel lässt sich nur auf Kosten eines anderen verwirklichen, bezeichnet man diese vier in ihrem Zusammenspiel als "magisch". Zur Zielkonkurrenz von Preisniveaustabilität und Beschäftigung siehe auch -»Arbeitsmarkt- und Beschäftigungspolitik Malcolm Baldrige National Quality Award (MBNQA) Der MBNQA ist wie der -> EQA eine -> Qualitätsauszeichnung. Mit der Verleihung des MBNQA wird angestrebt, das Bewusstsein für umfassende Unternehmensqualität zu stärken sowie die Anforderungen und Voraussetzungen kontinuierlicher Verbesserung und exzellenter Unternehmensleistung im Sinne von Business Excellence zu verdeutlichen.
•
Customer and Market Focus: Es wird bewertet, inwieweit die Organisation über Informationen zu Kunden- und Marktanforderungen verfügt und diese in Produkte und Dienstleistungen umsetzt. Außerdem fließen die Pflege und die ständige Verbesserung der Kundenbeziehungen und die Ermittlung der Kundenzufriedenheit ein.
•
Information and Analysis: Bei diesem Kriterium geht es um das Vorgehen zur Gewinnung, Verwaltung und Nutzung finanzieller und nicht-finanzieller Daten über die Geschäftstätigkeit sowie über gesellschaftliche und technologische Rahmenbedingungen.
•
Human Resource Development and Management. Das fünfte Element bezieht sich auf das Verhältnis der Organisation zu seinen Mitarbeitern, z.B. hinsichtlich der Gestaltung des Bezahlungs- und Anerkennungssystems. K u n d e n - und m a r k t o r i e n t i e r t e Strategien u n d A k t i o n s p l ä n e
Strategische Planung
Abb. 1 spiegelt die aktuelle Struktur des MBNQA wider, dem folgende Themen-felder zu Grunde liegen: •
•
Leadership: Dieses Kriterium beschäftigt sich mit der Rolle der Führung und betont das persönliche Engagement von Führungskräften und ihre Vorbildfunktion bei der Umsetzung von Business Excellence. Strategie Planning: Hier wird das Zustandekommen der Strategie einer Organisation untersucht. Zudem fordert das Modell einen
5. Personalentwicklung u. Management
7. Geschäftsergebnisse
з. Kundenи. Marktorientierung
6. P r o zessmanagement
Information und Analyse
Abb. I: Die Struktur des Malcolm Baldrige National Quality Award
457
Malcolm Baldrige National Quality Award •
Process Management: Hier wird die Ablauforganisation der Organisation im Hinblick auf die effiziente Gestaltung der Geschäftsprozesse untersucht
•
Business Results: Dieses Element betrachtet die Erfolge der Organisation bei der Erfüllung der Anforderungen unterschiedlicher Interessengruppen. Zunächst ist die erzielte -> Kundenzufriedenheit darzustellen. Die Interessen der Anteilseigner werden über finanzielle und marktbezogene Kenngrößen abgebildet. Außerdem werden die Erfolge bei der Förderung der Mitarbeiterzufriedenheit dargelegt. Auch die Zusammenarbeit mit Lieferanten und anderen Kooperationspartnern wird erfasst.
Literatur: National Institute of Standards and Technology (Hrsg.): M a l c o l m Baldrige National Quality Award, 2000 Criteria for Excellence, Gaithersburg 1999.
Klaus J. Zink Make-or-Buy Unternehmen stehen häufig vor der Frage, ob sie ein benötigtes Gut selbst erstellen (Make) oder von außen zukaufen (Buy) sollen. Diese Entscheidung zwischen Selbsterstellung und Zukauf bezeichnet man als Make-or-Buy-Entscheidung. Neben Kostenerwägungen (-» Skalenerträge, ->• Transaktionskostentheorie) beeinflussen in der Regel auch strategische Überlegungen (-> Beschaffung) diese Entscheidung. Wenn ein Unternehmen Güter, die es bisher selbst erstellt hat, von außen zukauft, spricht man von Outsourcing. Make to Order Einzelfertigung Management Der Begriff des Managements wird sehr vielseitig verwendet. Aus einer ökonomischen Perspektive kann Management als die zielgerichtete Führung und Leitung eines Unternehmens und seiner Mitarbeiter beschrieben werden. Der Manage458
Management ment-Begriff umfasst damit sowohl eine Sachebene, die sich auf die Führung und Leitung von Geschäften bezieht, als auch die personenbezogene Ebene der Mitarbeiterführung (-» Führungqualität, -> Führungsinstrumente, -> Führungsrichtlinien). Im institutionalen Sinn bezieht sich der Management-Begriff auf jene Personengruppe, die mit Management-Aufgaben betraut ist. Welche Ziele mit dem Management verfolgt werden und welche Aufgaben sich hieraus ableiten lassen, unterlag im Laufe der Zeit einem stetigen Wandel. Die Zuordnung unterschiedlicher Strömungen und Lehrmeinungen zu einzelnen Management-Schulen und Ansätzen wird dabei in der Literatur teilweise unterschiedlich vorgenommen (Bühner 1999; Steinmann/Schreyögg 1993; Staehle 1999): 1. Die "Klassiker" des Managements Bereits in der Antike und im Mittelalter wurden erste Managementprinzipien und -techniken angewandt, um religiöse, politische und militärische Ziele zu verfolgen. Eine ökonomische Zielsetzung des Managements ist jedoch erst mit Beginn der industriellen Revolution im 19. Jahrhundert feststellbar. Produktionstechnische Arbeitsteilung, Massenfertigung und der hiermit verbundene Kapitaleinsatz erfordern eine ökonomische Führung und Leitung der Produktionsbereiche. Im Vordergrund stehen Aufgaben wie die Absatzprognose, Arbeitsplanung, Organisation und Kontrolle. Erste Prinzipien für eine effiziente Gestaltung des Produktionsbereichs wurden von Frederick W. Taylor (1856-1915) aufgestellt. Seine Arbeiten über Spezialisierung und Arbeitsteilung fanden später in Fließbandsystemen Eingang (-> Arbeitsanalyse). Henry Fayol (1841-1925), der gleichsam zu den Klassikern zu zählen ist, geht über das Management des Produktionsbereiches hinaus und stellt Management-Prinzipien für das gesamte Unternehmen auf. Wie Taylor und andere Vertreter der klassischen Schule stellt er
Management dabei auf eine formale -> Organisationsstruktur ab, deren Effizienz auf Anweisungen, Kontrollen und finanziellen Anreizen beruht. Die vornehmliche Aufgabe des Managements besteht darin, Abläufe zu planen, sie durch klare Anweisungen an die Mitarbeiter umzusetzen und schließlich die Einhaltung dieser Anweisungen zu kontrollieren. 2. Verhaltenswissenschaftliche Schule Die starke Formalisierung der Organisation führte zu einer Entfremdung der Arbeitnehmer von ihrer Tätigkeit, dem Produkt ihrer Arbeit und ihren Arbeitskollegen. Als Antwort auf diese Entfremdung wendet sich die Managementforschung Ende der zwanziger Jahre von den Ansätzen der Klassiker ab und widmet sich vermehrt verhaltenswissenschaftlichen Aspekten. Ein Bindeglied zwischen den Klassikern und der verhaltenswissenschaftlichen Schule stellen die Arbeiten von Chester Barnard (1886-1961) dar. Nach Barnard sind Unternehmen von der freiwilligen Bereitschaft der Mitarbeiter zur —> Kooperation abhängig. Die Mitarbeiter werden jedoch nur dann Beiträge zur Erfüllung des gemeinsamen Kooperationszieles leisten, wenn sie hierfür in ausreichendem Maße Anreize erhalten. Aufgabe des Managements ist es danach, das gemeinsame Kooperationsziel festzulegen und das hierfür notwendige AnreizBeitrags-Gleichgewicht herzustellen (-> Entgeltmanagement). Ein entscheidender Einfluss auf verhaltenswissenschaftliche Aspekte des Managements geht von den HawthorneExperimenten aus, die den Zusammenhang zwischen den Arbeitsbedingungen und der Leistung der Arbeitnehmer untersuchen. Die Leistung der Arbeitnehmer wird danach nicht so sehr von objektiven Arbeitsbedingungen beeinflusst, sondern vielmehr vom Verhältnis zu ihren Aufgaben, zu Vorgesetzten und Kollegen. Führungsaufgaben wie Motivation und
Management Delegation von Verantwortung gewinnen hierdurch an Bedeutung. Die Ergebnisse der Hawthorne-Experimente bilden zugleich den Grundstock für die Human-Relations-Bewegung, bei der die individuellen Bedürfnisse der Mitarbeiter im Mittelpunkt stehen (-»• HumanRelations-Ansatz). Abgelöst wurde diese Bewegung Mitte der fünfziger Jahre durch den Human-Ressourcen-Ansatz. Auch dieser Ansatz stellt den Mitarbeiter in den Mittelpunkt, betont jedoch stärker die bis dahin vernachlässigten formalen Organisationsstrukturen. Zur Aufgabe des Managements wird es wieder, einen Einklang zwischen individuellen Bedürfnissen und der ökonomischen Zielsetzung des Unternehmens herzustellen. 3. Mathematische Schule Die Aspekte der Planung, Organisation und Kontrolle, die sich in der Managementlehre der Klassiker finden, werden von der verhaltenswissenschaftlichen Schule auf die Fragen der Organisation und Führung eingeengt. Von Seiten der Wissenschaft setzt ein nachhaltiges Interesse an -> Planung und Kontrolle erst Anfang der sechziger Jahre mit der mathematischen Schule ein. Im Vordergrund dieser Schule steht die Modellierung von Entscheidungsproblemen, bei denen eine Zielfunktion unter Vorgabe problemspezifischer Einschränkungen maximiert wird. Der Einsatz mathematischer Modelle zur Unterstützung von Managementaufgaben ist vorwiegend auf eine quantitative Entscheidungsvorbereitung ausgerichtet. Wie in der verhaltenswissenschaftlichen Schule wird daher auch in der mathematischen Schule nur ein Teilgebiet des Managements, die Planung, fokussiert. 4. Systemtheoretische Ansätze Die Wurzeln systemtheoretischer Ansätze lassen sich schwerpunktmäßig entweder den Natur- oder den Sozialwissenschaften zuordnen. Beide Richtungen stellen darauf ab, die Umweltbeziehungen eines Unternehmens systematisch zu erfassen 459
Management und in die Managementlehre einzubeziehen. Als Aufgabe des Managements wird angesehen, Strukturen im Unternehmen zu schaffen, die eine Bewältigung komplexer Umweltbezüge ermöglichen. Die naturwissenschaftlichen Modelle der Systemtheorie beschreiben das Unternehmen als kybernetischen Regelkreislauf, der durch Entscheidungen und Rückkopplung gesteuert wird. Das Unternehmen wird dabei mit einem mechanistischen Input-Output-Modell verglichen. Im Streben nach einem stabilen Modellgleichgewicht rücken besonders Kontrollaufgaben des Managements in den Vordergrund. Spätere Arbeiten, bspw. von Stafford Beer (*1926), wenden sich von der mechanistischen Sichtweise ab und betrachten das Unternehmen als "Modell lebensfähiger Systeme". Anstelle der reinen Kontrolle wird die Beherrschung der Komplexität zur vorrangigen Aufgabe des Managements. Die sozialwissenschaftlichen Modelle knüpfen u.a. an das verhaltenswissenschaftliche Gedankengut von Barnard an. Im Mittelpunkt der Arbeiten von Forschern wie Talcott Parsons (1902-1979) oder Niklas Luhmann (*1927) stehen Fragen nach der Möglichkeit einer sozialen Ordnung bzw. eines rationalen Handelns bei einer Vielzahl von Handlungsalternativen. Konkrete Aufgaben des Managements lassen sich aus den eher abstrakten Modell-Aussagen kaum ableiten. 5. Situative Ansätze Situative Ansätze weisen zwar Nähe zu den systemtheoretischen Ansätzen auf, stellen jedoch auf konkrete Gestaltungsempfehlungen fiir das Management ab. Im Mittelpunkt des situativen Ansatzes stehen operationale Aussagen über die Beziehungsmuster zwischen der Situation des Unternehmens, seiner Organisationsstruktur und dem Verhalten der Mitarbeiter. Ziel ist jeweils eine möglichst hohe Effizienz dieser Beziehungen.
460
Management Wesentliche Beiträge zum situativen Ansatz, der sich Mitte der sechziger Jahre vor allem in den USA entwickelte, stammen von Derek Pu (*1930) und Peter M. Blau (* 1918). Grundlage dieses Ansatzes bildet die empirische Analyse kausaler Zusammenhänge zwischen der Situation des Unternehmens als unabhängiger Variable sowie der Organisationsstruktur und dem Verhalten der Mitarbeiter als abhängiger Variable. Die empirischen Ergebnisse sollen dem Management die Konsequenzen aufzeigen, die sich bei einer Veränderung der unabhängigen Variablen ergeben. Da der situative Ansatz von einem einseitigen Einfluss der Situation auf die Organisationsstruktur und das Verhalten ausgeht, ergibt sich jeweils nur eine effiziente Gestaltungsalternative. 6. Ansätze der Neuen Institutionenökonomie Die Neue Institutionenökonomie besteht aus zahlreichen unterschiedlichen Ansätzen, die von ähnlichen Grundannahmen über das menschliche Verhalten ausgehen. Danach handeln die Menschen opportunistisch und - aufgrund ihrer beschränkten Möglichkeit zur Informationsbeschaffung und -Verarbeitung - nur begrenzt rational. Verträge, die innerhalb oder zwischen Unternehmen abgeschlossen werden, bleiben daher zwangsläufig unvollkommen. Im Mittelpunkt der neo-institutionenökonomischen Ansätze stehen Empfehlungen für die Gestaltung der unvollkommenen Vertragsbeziehungen. Wie die situativen Ansätze ist auch die Neue Institutionenökonomie auf ein Effizienzkriterium ausgerichtet. Aufgabe des Managements ist es, Verträge so zu gestalten, dass sie nach Vertragsabschluss möglichst geringen Handlungs- und Verhaltensspielraum bieten, der zu Lasten eines der Vertragspartner ausgenutzt werden kann. Der Property-Rights-Ansatz, zu dessen Vertretern bspw. Ronald Coase (*1910)
Management und Peter Demsetz (*1930) gehören, unterstützt das Management bei der Ermittlung optimaler Eigentumsstrukturen im Unternehmen. In jüngerer Zeit gewinnt dieser Ansatz besonders bei der Frage an Bedeutung, wer der beste Eigentümer für ein Geschäft ist - der Markt, das Unternehmen oder eine Zwischenform. Die -»Transaktionskosten-Theorie, die auf Coase zurückgeht, wurde insbesondere von Oliver E. Williamson (*1932) weiterentwickelt und operationalisiert. Untersucht wird, unter welchen Bedingungen vertragliche Austauschbeziehungen zu Kosten führen, wie Verträge effizient, d.h. kostenminimal, gestaltet werden können und welcher Integrationsgrad für ein Unternehmen am vorteilhaftesten ist. Die -> Agency-Theorie ist im Gegensatz zur Transaktionskosten-Theorie stärker auf individuelle Vertragsbeziehungen innerhalb eines Unternehmens ausgerichtet. Im Grundmodell, wie es sich bspw. bei Michael Jensen und William Meckling (1922-1998) findet, betraut ein Auftraggeber (Prinzipal) einen Auftragnehmer (Agent) mit der Durchführung bestimmter Aufgaben gegen eine Vergütung. Aufgabe des Managements ist hierbei, die vertragliche Vergütung so zu gestalten, dass Kosten für die Steuerung und Kontrolle des Agenten sowie mögliche Verluste aus opportunistischem Handeln möglichst minimiert werden. Im Rahmen der Agency-Thcoric wird das Management selbst zum Analysegegenstand, da auch Manager als Auftragsnehmer der Eigentümer Freiräume für opportunistisches Verhalten besitzen. In den letzten Jahren zeichnet sich erneut ein Wandel in den Zielen und Aufgaben des Managements ab. Bedingt durch die -> Globalisierung der Märkte, den raschen Fortschritt der (Informations-) Technologie und zunehmenden Wettbewerbsdruck auf Absatz-, Kapital- und Arbeitsmärkten gewinnt eine Orientierung am Unternehmenswert als Ziel ökonomischen Han-
Management, internationales delns immer stärker an Bedeutung. Der Wertorientierte Ansatz (-> Shareholder Value) stellt das Management vor die Aufgabe, ein Wachstum in jenen Unternehmensbereichen zu verwirklichen, die wertschaffend sind, d.h. langfristig eine Rendite oberhalb ihrer Kapitalkosten erwirtschaften. Um dies zu erreichen werden sowohl Ideen und Ergebnisse der situativen Ansätze als auch der Neuen Institutionenökonomie in das wertorientierte Management (-* Value Development, -»Wertmanagement) einbezogen. Literatur: Bühner, R. : Betriebswirtschaftliche Organisationslehre, 9., bearb. u. erg. Aufl., München, Wien 1999; Staehle, W.H.: Management. Eine verhaltenswissenschaftliche Perspektive, 8. Aufl., iiberarb. von P. Conrad und J. Sydow, München 1999; Steinmann, H./Schreyögg, G.: Management - Grundlagen der Unternehmensführung, 3., Überarb. und erw. Aufl., Wiesbaden 1993.
Rolf Bühner Management, internationales Internationales Management richtet sich als Teildisziplin der Betriebswirtschaftslehre auf die Führung grenzüberschreitender Unternehmensaktivitäten. Die Besonderheiten der internationalen gegenüber der rein nationalen Geschäftstätigkeit bestehen abgesehen von der Unternehmensgröße insbesondere in der gesteigerten Komplexität der Entscheidungsprobleme durch die Vielfalt der internationalen Unternehmensumwelt. In einer phasenorientierten Betrachtung lässt sich der Prozess des internationalen Managements in die Planung, Durchführung und Kontrolle aufteilen. Es ergeben sich hohe Anforderungen an die Konzipierung von Planungsmodellen und die damit zusammenhängende Informationsbeschaffung. Die Durchfuhrung internationaler Aktivitäten bedarf einer zielgerichteten Kombination von unterschiedlichen Koordinationsinstrumenten. Zudem erfordert die internationale Kontrolle angesichts der Notwendigkeit zur Überwindung großer Distanzen ein spezifisches methodisches Instrumentarium. 461
Management, internationales Bei der Planung internationaler Unternehmensaktivitäten gilt es, die internen Potenziale des Unternehmens mit den wettbewerblichen Bedingungen zu einer strategischen Grundausrichtung der Internationalisierung zu verbinden. Durchführung und Kontrolle knüpfen an diesen Grundsatzentscheidungen, die auch die Markteintrittsstrategie betreffen, an. Der Ausgangspunkt für die Internationalisierungsstrategie ist in der Beschaffenheit der internationalen Absatzmärkte des Unternehmens zu suchen. Internationale Absatzmärkte bieten Globalisierungsvorteile, wenn die Produkte und Leistungen weltweit verkauft werden können; Standardisierung erlaubt die Nutzung von Skaleneffekten und bietet daher Kostensenkungspotenziale. Unabhängig von diesen Globalisierungsvorteilen bringen Absatzmärkte Lokalisierungsnotwendigkeiten mit sich, wenn die dort zu platzierenden Produkte und Leistungen auf die Bedürfnisse der einzelnen Landesmärkte zugeschnitten sein müssen. Diese Orientierung an lokalen Eigenheiten kann sowohl in einer entsprechenden Modifikation standardisierter Produkte als auch in der individuellen Gestaltung spezieller Produkte liegen. In Branchen mit geringen Globalisierungsvorteilen und geringen Lokalisierungsnotwendigkeiten liegt die Verfolgung einer internationalen (ethnozentrischen) Strategie nahe. Bei ihr werden im Ausland Produkte und Leistungen nach Konzepten vertrieben oder hergestellt, die sich im Heimatmarkt bewährt haben. Brauereierzeugnisse sind ein oft genanntes Beispiel. Für Branchen mit geringen Globalisierungsvorteilen, aber starken Lokalisierungsnotwendigkeiten empfiehlt sich eine multinationale (polyzentrische) Strategie, nach der auf unterschiedlichen Landesmärkten verschiedene Produkte und Leistungen angeboten werden. Als Beispiel lassen sich Lebensmittel anführen, die kulturellen und geschmacklichen Be462
Management, internationales Sonderheiten einzelner werden müssen.
Länder
gerecht
Branchen mit starken Globalisierungsvorteilen und geringen Lokalisierungsnotwendigkeiten erlauben die Verfolgung einer globalen (geozentrischen) Strategie, bei welcher der Weltmarkt mit nahezu identischen Produkten versorgt wird. Typische Produkte dieser Art sind Geräte der Unterhaltungselektronik. Weisen Branchen sowohl große Globalisierungsvorteile als auch große Lokalisierungsnotwendigkeiten auf, wird als Synthese der multinationalen mit der globalen Strategie die Verfolgung einer transnationalen Strategie erforderlich. Im Zuge dieser muss versucht werden, grundsätzlich gleiche Produkte und Leistungen durch entsprechend tiefgreifende Modifikationen den lokalen Bedürfnissen anzupassen, wie es beispielsweise im Eisenbahnbau und der Rüstungsindustrie geschieht. Die Komplexität der Aufgaben in der Durchfiihrungs- und Kontrollphase des internationalen Managements hängt von der Intemationalisierungsstufe eines Unternehmens und damit der gewählten Intemationalisierungsstrategie ab. Im Rahmen der ethnozentrischen Strategie beschränken sich die Problemstellungen auf die Durchführung und Kontrolle eines reinen Auslandsmanagements. Es handelt sich dabei vor allem um die Anpassung absatzpolitischer Instrumente aus dem Stammland für den Export oder den lokalen Vertrieb von Leistungen im Ausland (—> Markteintrittsstrategien). Dazu müssen die ökonomischen, politischrechtlichen, kulturellen und sozialen Rahmenbedingungen im Ausland analysiert und daraus auslandsspezifische Vorgehensweisen abgeleitet werden. Gehen die Auslandsaktivitäten über den Export und Vertrieb hinaus und können sie nicht wie im Falle einer polyzentrischen Strategie mit Hilfe rein fmanzwirt-
Management, internationales schaftlicher Methoden koordiniert werden, muss die Perspektive des internationalen Managements erweitert werden. Das multinationale Management stellt auf den Einsatz von strukturellen, personenbezogenen und technokratischen Koordinationsinstrumenten zur Realisierung von Synergieeffekten zwischen international verstreuten und spezialisierten Unternehmensteilen ab. Durch eine Integration des internationalen Geschäfts in die Organisationsstruktur anstelle einer differenzierten organisatorischen Behandlung in einer gesonderten Abteilung oder Sparte können die Aktivitäten des internationalen Unternehmens wirksamer auf gemeinsame Ziele ausgerichtet werden. Intensiver Personalaustausch trägt zur internationalen Verankerung von wettbewerbsrelevantem Wissen und verbindenden Grundüberzeugungen innerhalb des Unternehmens bei; die Aufgaben des internationalen Managements beziehen sich in diesem Zusammenhang vor allem auf die Entwicklung einer länderübergreifenden -»Unternehmenskultur und die umfassende Vorbereitung und Betreuung der Auslandsentsandten (-> Auslandseinsatz). Modernste Informations- und Kommunikationstechnologien (-> Internet, -> Intranet) helfen koordinationserschwerende Distanzen leichter zu überwinden. Internationale Executive Information Systems (-> Führungsinformationssystem) gewährleisten schnellen Zugriff auf Führungsinformationen aus beliebiger Entfernung. Diese Instrumente der Durchfuhrung und Kontrolle reichen für die Führung von Unternehmen mit einfacher globaler Strategie aus. Für das Management einer noch stärker internationalisierten Unternehmenstätigkeit, die mit einer fortgeschritten globalen und insbesondere einer transnationalen Strategie verfolgt wird, ist es im Rahmen des globalen Managements erforderlich, die Sichtweisen des Auslands- und des multinationalen Managements miteinander zu verbinden und zu einer effizienten
Management, internationales Gesamtkonzeption für die Koordination des internationalen Geschäfts zu kommen. Gangbare Wege hierzu sind die Standardisierung von Produkten und Leistungen für den Weltmarkt, von Programmen für die Leistungserstellung und von Managementprozessen. Durch zentrale Steuerung oder laterale Kommunikation lässt sich Doppelarbeit an verschiedenen Standorten vermeiden. Insbesondere bei der internationalen Standardisierung von Verfahren ist jedoch zu beachten, dass deren Wirksamkeit durch landeskulturelle Besonderheiten beeinträchtigt werden kann. Aussagen aus der übergeordneten strategischen Sicht des internationalen Managements lassen sich nur bedingt auf die verschiedenen Funktionsbereiche eines Unternehmens oder Gestaltungsfelder des internationalen Geschäfts übertragen. Der Grund dafür liegt in der unterschiedlichen Bedeutung bestimmter Umweltbereiche für einzelne Unternehmensfunktionen. Das Marketing hat sich primär mit den Erfolg stiftenden Potenzialen der internationalen Leistungsstandardisierung und Marktsegmentierung auseinanderzusetzen (-» Auslandsmarketing). Die -> Materialwirtschaft (-» Beschaffung) muss die Möglichkeiten eines -> Global Sourcing auf den Beschaffungsmärkten nutzen und logistische Herausforderungen über große Distanzen bewältigen. Für die Produktion sind internationale Lohnkostenunterschiede und die Infrastruktur der Länder von größter Bedeutung (-> Standortwahl). Bei der Verteilung der Forschung und Entwicklung auf verschiedene internationale Standorte kommt es auf die enge Kopplung mit technologie- und marktbezogenen Informationsquellen innerhalb und außerhalb des Unternehmens an. Die internationale Finanzierung ( - • Corporate Finance) muss schließlich die Chancen internationaler Kapitalmärkte nutzen und das Unternehmen auf internationaler Ebene gegen finanzielle Risiken absichern.
463
Management, internationales Daraus wird ersichtlich, dass internationales Management sich gegenüber anderen Querschnittsfunktionen der Unternehmensfuhrung durch einen höheren Grad interdisziplinärer Komplexität auszeichnet. Klaus Macharzina/Jan Hendrik Fisch Management, strategisches Strategisches Management Management-Accounting Das Management-Accounting ist in den USA entwickelt worden. Neben den USA fand es besonders in Großbritannien und Japan weite Verbreitung, gewinnt jedoch auch in Deutschland zunehmend an Bedeutung. Das Management-Accounting beschreibt die Bereitstellung von Informationen für die Unternehmensfiihrung durch das -» Rechnungswesen, insbesondere durch die Kostenrechnung. Begrifflich zeigt sich dabei große Nähe zum Controlling. Es sind drei wesentliche, aufeinander aufbauende Zwecke des ManagementAccountings zu unterscheiden: 1. Durch Dokumentation wird der IstZustand des Unternehmens erkennbar gemacht. 2. Auf Basis der dokumentierten Daten können auf unterschiedlichen Hierarchieebenen die Erfolge, aber auch mögliche Probleme analysiert werden. 3. Zur Problemlösung, die meist auf Alternativrechnungen basiert, stellt das Management-Accounting Daten wie Grenzkosten und -> Opportunitätskosten bereit. Ein bedeutendes Anwendungsgebiet des Management Accounting ist beispielsweise die Unterstützung der Lenkung und Steuerung von Geschäftsbereichen in divisional organisierten Unternehmen. Daneben gewinnt auch die die Beschaffung und Aufbereitung von Daten für -> Frühwarnsysteme im Unternehmen zunehmend an Bedeutung.
464
Management Audit Management Appraisal Management Audit Management Audit Aus dem ursprünglich nur aus dem Rechnungswesen konzentrierten Financial Audit als einem dominanten Bereich der internen Revision (s.a. -» Auditierung) entwickelte sich ab Ende der 50er Jahre das Operational und das Management Audit (oder Management Appraisal). Während das Operational Audit bei der laufenden Betriebstätigkeit ansetzt, beschäftigt sich das Management Audit mit allen längerfristigen Managementaufgaben, die fast immer außerhalb der betrieblichen Routine liegen. Traditionell ist die interne Revision der auf eine gesonderte Abteilung übertragene Teil der unternehmerischen Überwachungsfunktion, die dabei kritisch wertend Angemessenheit und Wirksamkeit organisatorischer Strukturen, Abläufe und Routinekontrollen analysiert. Die Idee des Management Audits geht auf einen entsprechenden Vorschlag von Jackson Martindell vom American Institute of Management aus dem Jahr 1962 zurück. Es bezeichnet die umfassende und systematische Prüfung und Bewertung einer Unternehmung im Hinblick aller relevanten Managementebenen und Managementfunktionen. Dabei soll die Konkurrenzfähigkeit durch Entwicklung und Förderung optimaler Lösungen für Managementaufgaben gestärkt werden. Konkretes Ziel dieser konstruktiven Prüfungsmethode ist es, den Betriebsablauf in quantitativer, zeitlicher und qualitativer Hinsicht zu verbessern, indem Störgrößen, Systemmängel und Schwachstellen identifiziert und Hinweise für ihre Beseitigung gegeben werden. Gegenstand der Analyse sind u.a. folgende Aktivitäten und Funktionsbereiche der Unternehmung: a) Politische Einflüsse und Trends der weiteren Unternehmensumwelt.
Management Audit
Management Audit b) Angemessenheit der betrieblichen Zielsetzung und der gesamten Unternehmenspolitik. c) Zielsetzungen und Abläufe bei sämtlichen Betriebsfunktionen und -abteilungen (einzeln und im Zusammenspiel). d) Angemessenheit der -» Aufbau- und Ablauforganisation. e) Quantitative und qualitative Angemessenheit und wirtschaftlicher Einsatz fast aller betriebswirtschaftlicher Ressourcen. f) Tätigkeitsanweisungen und deren Einhaltung für alle Mitarbeiter und Manager. g) Lang- und kurzfristige Gesamt- und Einzelplanung. h) Aufbau und Wirksamkeit des internen betrieblichen Kontrollsystems. i) Produktgestaltung. j) Stand der angewendeten Technologie, k) Terminierung und Angemessenheit des Zeitverbrauchs. 1) Aufgabenstellung und Leistungsqualität aller Manager. Die Prüfung erstreckt sich auf die Effizienz, d.h. auf das Input/OutputVerhältnis (Wirtschaftlichkeit) und auf die Effektivität, d.h. auf die Qualität des Faktoreinsatzes und der Aufgabenerfullung. Weil dazu die Bewertung objektiver und subjektiver Tatbestände notwendig ist, für die bis heute oft weder eindeutige Messmethoden noch Normvorstellungen vorhanden sind, kommt der Entwicklung standardisierter Prüfungsverfahren spezielle Bedeutung zu. Dabei dominieren quantifizierbare ökonomische Effizienzkriterien sowie deren Vorgabe und Kontrolle in Form von Soll-Ist-Vergleichen. Hierzu werden -» Kennzahlen und Kennzahlensysteme (einschließlich Budgets) nach wie vor als besonders hilfreich angesehen. Diese Vorgehensweise entspricht den auch bei uns weitverbreiteten innerbetrieblichen betriebswirtschaftlichen Vergleichsrechnungen. Dabei wird häufig mit
Fragebögen (Checklisten) gearbeitet, die im Wesen der Wert- oder Kosten-/Nutzenanalyse vergleichbar sind. Die Vergleiche können durchgeführt werden als •
Zeitvergleiche (Gegenüberstellung von Kennzahlen zu verschiedenen Zeitpunkten) oder als
•
Soll-Ist- Vergleiche (Gegenüberstellung von Soll- und Istzahlen zu einem Zeitpunkt).
Der intraorganisatorische Zeit- und SollIst-Vergleich von Kennzahlen stellt für das Unternehmen ein beliebtes Kontrollinstrument der Betriebsgebarung dar. Er gibt einen konzentrierten Überblick über die wirtschaftliche Lage der Unternehmung und weist zugleich auf gefährliche Fehlentwicklungen hin (Früherkennungssystem, -» Frühwarnsysteme). Der interorganisatorische Vergleich von Kennzahlen erlaubt es der Unternehmung, ihre Stellung im Verhältnis zu anderen gleichartigen Betrieben derselben Branche bzw. im Verhältnis zu beliebigen Unternehmen mit ähnlichen Aufgaben (-> Benchmarking) zu erkennen. Als Vergleichsmaßstab dienen hier häufig Richtzahlen (industry standards), die als Brachendurchschnittszahlen von Wirtschaftsverbänden aufgestellt werden. Das Management Audit entwickelt sich von einer Prüfungsaufgabe mehr und mehr zu einer betrieblichen Beratungsfunktion für die Verbesserung von Entscheidungsprozessen in sämtlichen Untemehmensbereichen. Damit wird es zur Schnittstelle zwischen interner Revision und -» Controlling. Die Zielsetzung der internen Revision besteht darin, Fehler aufzudecken bzw. Fehler über die Kontrollandrohung zu verhindern. Dabei untersucht sie vor allem die Ordnungsmäßigkeit realisierter Handlungen, fuhrt also ex-post Betrachtungen durch. Dagegen soll durch die Tätigkeit von Controllern eine bessere Koordination, Erfolgszielausrichtung und Anpassung von Entscheidungen bewirkt werden. Die zielori465
Management Audit entierte Verhaltenssteuerung hat für sie mehr Gewicht als die Feststellung der Ordnungsmäßigkeit. Während sich die Kontrollen der internen Revision weithin an klaren Maßstäben für die formelle und materielle Ordnungsmäßigkeit orientieren, erstrecken sich die Kontrollen im Hinblick auf die Koordinationsfunktion auf viele Prozesse, die man nicht an eindeutigen Kriterien messen kann, wie etwa bei der strategischen Planung. Daher liegt die Betrachtung des Controllers schwerpunktmäßig auf der ex-ante Betrachtung. Im Hinblick auf Management Audit wächst daher die Nähe zu einer Controllingfunktion, je mehr die Aufgabe der Beratung und ex-ante Betrachtung gegenüber der reinen Ordnungsmäßigkeitsprüfung in den Vordergrund rückt. Die Wirksamkeit von Management Audit hängt stark von der Qualifikation des Prüfers bzw. des Prüfungsteams ab. Wegen der divergierenden Aufgabenstellung werden von internen Prüfern geleitete adhoc-Spezialisten-Teams mit der erforderlichen Erfahrungs- und Wissensbreite bevorzugt. Äußerst wichtige Voraussetzung für eine objektive Tätigkeit ist die Unabhängigkeit der Prüfer. Sie müssen bei der Durchfuhrung große Einsichtsmöglichkeiten und eine hohe legitimierte Autorität besitzen. Daher werden sie gewöhnlich als Stabsabteilung direkt dem Vorstand unterstellt bzw. sind selbst Vorstandsfunktion und - anders als die Controller - nicht direkt in die Planungs- und Informationsprozesse eingebunden. Zunehmend werden auch externe Berater eingesetzt, bei denen die Gefahr der Betriebsblindheit erheblich geringer ist. Die Tatsache, dass sich Management Audit in seinen Analysen überwiegend auf objektiv messbare, meist ökonomische Faktoren konzentriert, macht die beschränkte Gültigkeit dieses Beurteilungsansatzes deutlich. Ein weiteres Problem für das Management Audit liegt in der Bewertungsmethode. Ein "EnterpriseSelf-Audit" hat nur für eine einzelne Or466
Management Audit ganisation Bedeutung. Bemühungen, die Eigenbewertung zu objektivieren, vor allem reliabel zu gestalten, führten zu der Einrichtung möglichst unabhängiger Auditors und der Aufstellung "allgemeingültiger" Bewertungslisten mit bis zu 300 Fragen mit vorgegebenen Gewichtungsfaktoren. Das American Institute of Management hat versucht, mit dieser Methode eine objektive und transparente Managementbewertung zu liefern. Trotzdem hat das Management Audit nicht die anfangs vermutete Bedeutung erreichen können. Eine spezielle begriffliche Bedeutung hat das Management Audit innerhalb des personalwirtschaftlichen Aufgabenfeldes im Zusammenhang mit der Beurteilung von Führungskräften erhalten. Hier bezeichnet Management Audit die Beurteilung von Managern der obersten Führungsebenen im Hinblick auf ihren Führungserfolg in Bezug zu ihren konkreten Aufgaben bzw. ihres Anforderungsprofils. Zweck ist die Managementauswahl, die Sichtbarmachung von Führungsreserven oder die (Um-)Besetzung von Führungspositionen. Anlässe dazu sind z.B. Strategieoder Strukturänderungen, -> Joint Ventures, —> Unternehmenszusammenschlüssen oder -aufkäufe oder der Wechsel des Vorstandes. Anders als beim Assessment Center, das in den höchsten hierarchischen Ebenen nicht angewendet wird, wird die Beurteilung hier von einem bis zwei externen Beratern überwiegend in Form von strukturierten Interviews (oft in Zusammenhang mit Diskussionen) in kleinen Gruppen vorgenommen. Ergebnis des Management Audits ist dann eine fachliche, persönliche und gruppendynamische Beurteilung des Managements bzw. der verantwortlichen Manager (Etterich/Woodburn 1994). Dabei kann auch das Konzept der -»• "Balanced-Scorecard" Verwendung finden. Dieses Steuerungssystem ergänzt und kombiniert traditionelle Finanzkenn-
Management by Direction and Control
Management Audit zahlen mit qualitativen Kenngrößen über Kundenbeziehungen, interne Geschäftsprozesse und nicht zuletzt Lern- und Entwicklungsaspekte des Managements. Literatur: Schoenfeld, H.-M.: M a n a g e m e n t Auditing, in: Liick, W. (Hrsg.): Lexikon des Rechnungswesens, München, Wien 1998, S. 5 1 7 - 5 1 8 ; Staehle, W.H.: Management, 8. Aufl., Wiesbaden 1999, S. 4 5 I f f . ; Etterich; H.J./Woodbum, T.L.: Management Audit, in Dahlems, R. (Hrsg.): Handbuch des Führungskräftemanagements, München 1994, S. 2 1 3 - 2 3 6 .
Dieter Wagner Management Buy In Erwerb der Gesellschaftsanteile durch die Geschäftsleitung eines anderen Unternehmens, die oft durch ->• Venture Capitalists finanziert wird. Management Buy Out Erwerb der Gesellschaftsanteile durch die eigene Geschäftsleitung, die oft durch -> Venture Capitalists finanziert wird. Management by Delegation Das System des Management by Delegation (MbD) entspricht weitgehend dem auch als Harzburger Modell bekannten Ansatz und besaß in Deutschland bis in die 70er Jahre eine nicht unerhebliche Bedeutung. Im Mittelpunkt steht die Delegation von Verantwortung, dokumentiert in Stellenbeschreibungen. Dabei soll der Mitarbeiter Handlungsverantwortung übernehmen. Die Führungsverantwortung verbleibt beim Vorgesetzten. Er muss alles kontrollieren, was delegiert worden ist. Mit Hilfe der allgemeinen Führungsanweisung werden die Führungsprinzipien in verbindlicher Form normiert, die z.B. bei der Handhabung der Delegation, beim Informationsaustausch und der Organisation zu beachten sind. Im Kern soll dadurch eine verlässliche Erfüllung delegierter Aufgaben i.S. des Vorgesetzten sichergestellt werden. Das Harzburger Modell ist stark kritisiert worden. Insbesondere wurden der erhebliche Regelungsumfang und die damit verbundene Starrheit hervorgehoben. Die Hierarchie wird zementiert statt aufgelo-
ckert, eine wirkliche Hinwendung zur Kooperation und Partizipation findet nicht statt. Unabhängig davon ist die Delegation ein wesentliches Element auch neuerer Entwicklungen, so insbesondere des -> "Lean Management" oder "teilautonomer Arbeitsgruppen" (-» Gruppenkonzepte). Der Grundgedanke der Führungsanweisung, nämlich verbindliche Normen für das Verhalten von Vorgesetzten und Mitarbeitern zu fixieren, ist mit wechselnden Inhalten auch in den heute weit verbreiteten Leitbildern oder Visionen von Unternehmungen enthalten. Neben dem MbD existieren noch weitere Führungsmodelle, wie -> Management by Direction and Control und -» Management by Objectives. Zur systematischen Einordnung und den Grenzen s.a. —> Management by-Konzepte. Literatur: Höhn, R./Böhme, G.: Führungsbrevier der Wirtschaft, 9. Aufl., Bad Harzburg 1977; Krüger, W.: Organisation der Unternehmung, 3. Aufl., Stuttgart 1994; Krüger, W.: Management by-Konzepte, in: Corsten, H./Reiß, M. (Hrsg.): Handbuch U n t e r n e h m u n g s f ü h r u n g , Wiesbaden 1995, S. 173-185.
Wilfried Krüger Management by Direction and Control "Führung durch Anweisung und Kontrolle" (Management by Direction and Control, MbDC) ist der zusammenfassende Oberbegriff für die traditionelle, eigentlich als überwunden angesehene Form des Führens. Sie geht letztlich auf die Analyse administrativer Grundsätze und Pflichten zurück, wie sie von Taylor und Fayol bereits vorgenommen wurde. Führung durch Befehl und Kontrolle stellt heute zumindest offiziell eher ein Negativbild dar, dennoch ist ihre faktische Verbreitung und damit auch ihre praktische Bedeutung außerordentlich groß. Weder Delegation noch Partizipation sind im MbDC vorgesehen. Vielmehr herrscht eine stark ausgeprägte Entscheidungszentralisation ("Alles läuft über meinen 467
Management by Direction and Control Tisch"). Das entsprechende Führungsverhalten wird üblicherweise als autoritärer (besser: direktiver) -> Führungsstil bezeichnet. Das MbDC trägt zwar vielen Struktur- und Verhaltensanforderungen keine Rechnung. Höhere Motivklassen (z.B. Selbstständigkeit, Entfaltung) werden kaum berücksichtigt. Dennoch kann unter bestimmten Bedingungen (Krisensituationen, hohe Sicherheitsmotivation, niedrige Qualifikation der Mitarbeiter) gerade die Führung durch Befehl und Kontrolle besonders schlagkräftig sein, dies besonders dann, wenn sie mit Elementen patriarchalischer Fürsorge ("Betriebsfamilie") gekoppelt ist. Neben dem MbDC existieren noch weitere Führungsmodelle, wie Management by Delegation und -* Management by Objectives. Zur systematischen Einordnung und den Grenzen s.a. -» Management by-Konzepte. Literatur: Krüger, W.: Organisation der Unternehmung, 3. Aufl., Stuttgart 1994; Krüger, W.: Management by-Konzepte, in: Corsten, H./Reiß, M. (Hrsg.): Handbuch U n t e m e h m u n g s f u h r u n g , Wiesbaden 1995, S. 173-185.
Wilfried Krüger Management by-Konzepte Management by-Konzepte (Führungsmodelle) liefern in praktisch-normativer Form methodische Hinweise und Empfehlungen für die Bewältigung von Führungsaufgaben. Das Spektrum reicht von Modellen, die einen umfassenden Anspruch erheben, wie z.B. das -* Management by Objectives, bis hin zu Ansätzen, die kaum mehr als einfache Grundsätze und Prinzipien zur Gestaltung der Führungsbeziehungen zwischen Vorgesetzten und Mitarbeitern darstellen und sich auf einzelne Aspekte des Führungsprozesses beschränken. Dies gilt etwa für das Management by Walking Around, Management by Communication oder Management by Motivation. Insbesondere solche schlagwortartigen, einfachen Führungsprinzipien lassen sich umfassenderen Modellen zu- bzw. unterordnen. 468
Management by-Konzepte Diesen Praxiskonzepten stehen wissenschaftliche Modelle gegenüber, die sich in erster Linie um eine theoretisch wohlfundierte, umfassende Behandlung aller Führungsfragen bemühen. Man denke insbesondere an das St. Gallener Management Modell (vgl. Bleicher 1992) und den Zürcher Ansatz (vgl. Rühli/Krulis-Randa 1990). Sie stellen jedoch eher einen weitgespannten Bezugsrahmen dar, innerhalb dessen sich die einzelfallspezifische Konzeptentwicklung vollziehen kann, als dass man sie selbst als Management byKonzepte einzustufen hätte. Im Hinblick auf den Modellumfang und die praktische Bedeutung kristallisieren sich aus der Vielzahl der Konzepte vor allem das • Management by Direction and Control, > Management by Delegation und -> Management by Objectives als hinreichend eigenständige Führungsmodelle heraus. Alle Management by-Konzepte stoßen rasch an Grenzen, wenn es um eine umfassende Unterstützung der Führungskräfte bei der Erfüllung der heute aktuellen Aufgaben geht. Die Management byKonzepte besitzen sämtlich in den Aufgaben der Planung, Steuerung und Kontrolle ihren Anwendungsschwerpunkt. Die Beherrschung und Perfektionierung des Tagesgeschäfts dominiert ("doing things right") gegenüber der Weiterentwicklung oder gar Umgestaltung von Geschäften ("doing right things"). In Phasen tiefgreifenden Wandels verlangen aber vorwiegend Gestaltungs- und Entwicklungsaufgaben die Aufmerksamkeit des Managements. Im Hinblick darauf dominieren heute Konzepte wie -» Lean Management, Business Reengineering (-• Business Process Reengineering), -» Kaizen, Total Quality Management. Lean Management zielt auf eine strukturelle, aufbauorganisatorische Verschlankung. Business Reengineering konzentriert sich auf eine quantensprungartige Prozessverbesserung. Kaizen (kontinuierliche Ver-
Management by-Konzepte besserungsprozesse/KVP) ist das Bemühen um evolutorische, ständige Weiterentwicklung in kleinen Schritten. Beim Total Quality Management (TQM) geht es um Qualität als allgemeine Unternehmungseigenschaft, die alle Phasen der Wertschöpfungskette durchdringt, und nicht nur um rein technische Fragestellungen der Produktqualität. Dieses umfassende Verständnis wird entscheidend von dem Qualitätsbewusstsein und der Denkhaltung des Managements und der Mitarbeiter getragen. Somit bedarf es zwar auch der Vorgabe konkreter Qualitätsziele, jedoch stellen die Werte und Einstellungen der Menschen und damit kulturelle statt struktureller Faktoren das Fundament solcher umfassenden Programme dar. Damit ist die Führung mit Hilfe der -» Unternehmungskultur angesprochen, insbesondere auf der Grundlage von Visionen, die anzustrebende Grundwerte beschreiben, sowie Leitbildern, die konkretere Handlungsvorschriften enthalten. Mit ihrer Hilfe wird versucht, die personalen Aufgaben der Führung zu bewältigen. Verhaltensfragen und die darin eingeschlossenen bzw. ihnen vorgelagerten Verhaltensprämissen, vor allem Werte und Einstellungen, werden verstärkt zum Gegenstand einer Führung, die darauf abzielt, eine umfassende Selbstverpflichtung (comittment) der Mitarbeiter zu erreichen und sie zum unternehmerischen Mitdenken und Mittun zu ermutigen und zu ertüchtigen. Der eigenverantwortliche, initiativfreudige, interne Unternehmer (Intrapreneur) wird dabei zum Leitbild. Derartige Ansätze können insbesondere mit einem kooperativen Management by Objectives wirkungsvoll verbunden werden. Offen bleiben in sämtlichen Ansätzen die Aufgaben der externen Führung, also der Umgang mit Kapitalgebem und Marktpartnern, mit Allianzen und Netzwerken, aber auch mit außermarktlichen Anspruchsgruppen.
Management by Objectives Dieser Überblick zeigt, dass keines der herkömmlichen Management byKonzepte, aber auch keiner der neueren Ansätze das gesamte Spektrum der Führungsaufgaben abdeckt. Eine Schlussfolgerung aus diesen Überlegungen kann sein, die Vorstellung eines umfassenden Totalmodells der Führung aufzugeben. Unternehmungen besitzen unterschiedliche und im Zeitablauf wechselnde Schwerpunkte in ihren (Führungs-) Aufgaben. Demgemäß sollten sie sich bemühen, die hierfür jeweils angemessenen Konzepte auszuwählen und kombiniert einzusetzen. Der Pluralität und dem Situationsbezug der Führungsaufgaben entspräche dann ein modular aufgebautes Führungskonzept. Die Führungstheorie hätte hierfür einen Modellrahmen sowie Hinweise für die Formulierung und Implementierung unternehmungsspezifischer Modelle bereitzustellen. Literatur: Bleicher, K.: Normatives Management, Frankfurt/Main 1994; Bleicher, K.: Das Konzept Integriertes Management, 2., erw. Aufl., Frankfurt/New York 1992; Bleicher, K./Meyer, E.: Führung in der Unternehmung, Reinbek bei Hamburg 1976; Höhn, R./Böhme, G.: Führungsbrevier der Wirtschaft, 9. Aufl., Bad Harzburg 1977; Krüger, W . : Organisation der Unternehmung, 3. Aufl., Stuttgart 1994; Krüger, W.: Management by-Konzepte, in: Corsten, H./Reiß, M. (Hrsg.): Handbuch Unternehmungsführung, Wiesbaden 1995, S. 173-185; Odióme, G.S.: Management by Objectives, München 1967; Rühli, E./KrulisRanda, J.S.: Gesellschaftsbewußte Unternehmungspolitik - "Societal Strategy", Jubiläumsband zum Anlass des zwanzigjährigen Bestehens des IfbF, Bern et al. 1990; Staehle, W.H.: Management, 7., Überarb. Aufl., München 1995; Steinle, C.: Führung. Grundlagen, Prozesse und Modelle der Führung in der Unternehmung, Stuttgart 1978.
Wilfried Krüger Management by Objectives Das Management by Objectives (MbO) wird in einer autoritären Variante als Führung durch Ziel vorgäbe und in einer kooperativen Variante als Führung durch Zielvereinbarung interpretiert. Um die Interpretation des Modells offen zu lassen, soll hier die neutrale Fassung "Füh469
Management by Objectives rung durch Ziele" verwendet werden (vgl. Bleicher/Meyer 1976). Sachlicher Ausgangspunkt ist die Erkenntnis, dass Zielen innerhalb der Führungsprozesse eine Schlüsselstellung zukommt, um die Aktivitäten einzelner Stellen und ganzer Einheiten zu steuern, zu kontrollieren und zu koordinieren. Die Formulierung von Unternehmungszielen und die Ableitung von bereichsbezogenen Teilzielen stehen demgemäß im Mittelpunkt des MbO. Das Ergebnis ist ein hierarchisches System von Ober- und Unterzielen, das neben die Organisationshierarchie tritt. Der Handlungsspielraum der gesteuerten Einheiten erhöht sich durch die Übertragung der Ergebnisverantwortung. Die Erreichung der Ziele, zu denen, zumindest vom Konzept her, nicht nur Standardziele, sondern auch Innovationsziele und persönliche Entwicklungsziele gehören können, wird im Laufe des Jahres überprüft. Diese Ziel-ErgebnisAnalyse kann mit einer Leistungsbeurteilung gekoppelt werden und sowohl Anreizgewährung wie Personalentwicklungsmaßnahmen auslösen. Die Grundgedanken zielorientierten Führens sind heute weitestgehend akzeptiert und weit verbreitet. Sie haben auch Eingang gefunden in anders angelegte Konzepte. Spezialergebnisse bzw. -ziele, denen eine überragende, flächendeckende Bedeutung zugemessen wird, sind häufig Gegenstand besonderer Programme, wie dies etwa im Falle des -* Total Quality Managements (TQM) zu beobachten ist. Der Ansatz der -> Balanced Scorecard lässt sich als eine aktuelle Variante des MbO begreifen, geht es doch darum, eine Unternehmung auf vier operationale Zielfelder auszurichten. Neben dem MbO existieren noch weitere Führungsmodelle, wie Management by Delegation und -» Management by Direction and Control. Zur systematischen Einordnung und den Grenzen s.a. Management by-Konzepte.
470
Management des Wandels Literatur: Bleicher, K./Meyer, E.: Führung in der Unternehmung. Formen und Modelle, Reinbek bei Hamburg 1976; Krüger, W.: Organisation der Unternehmung, 3. Aufl., Stuttgart 1994; Krüger, W.: Management by-Konzepte, in: Corsten, H./Reiß, M. (Hrsg.): Handbuch Unternehmungsfuhrung, Wiesbaden 1995, S. 173-185; Odióme, G.S.: Management by Objectives, Führung durch Vorgabe von Zielen, München 1967.
Wilfried Krüger Management des Wandels Das Management des Wandels beschäftigt sich damit, die Funktionsweise von Organisationen oder wesentliche Teile davon mit dem Ziel der Effizienzsteigerung zu verändern. Auslöser für organisatorische Wandelprozesse kann erstens ein externer Problemdruck sein, z.B. durch Deregulierung des Wettbewerbs oder veränderte Marktsituationen durch schnell wechselnde Präferenzen der Kunden. Zweitens kann es ein interner Problemdruck sein, z.B. strukturelle Veränderungen aufgrund einer neuen strategischen Ausrichtung. In der Literatur zum Management von Veränderungsprozessen werden schon seit langem zwei gegensätzliche Strategien diskutiert: zum einen die Bombenwurf- oder Revolutionsstrategie und zum anderen die Evolutions- oder Organisationsentwicklungsstrategie (z.B. Thom 1992; Kieser 1994; Krüger 1994; Schreyögg 1999). Allerdings verläuft jedes Wandelprojekt in jedem Unternehmen unter anderen Rahmenbedingungen. Gerade diese Unterschiede entscheiden in der Regel über Erfolg oder Misserfolg eines solchen Projektes. Im folgenden werden die Grundprinzipien beider Ansätze dargestellt, die in jedem Unternehmen individuell anzupassen sind. Auf dem Prüfst and: BombenwurfRevolutionsstrategie...?
oder
Bei diesem Ansatz werden die geplanten Neuerungen schlagartig und der Absicht nach unwiderruflich in Kraft gesetzt. Sie werden wie eine Bombe in die laufende Organisation geworfen. Die geplanten
Management des Wandels neuen Ideen sind meistens nur als Grobkonzept ausformuliert. Fehlende Regelungen, Unstimmigkeiten und Unklarheiten bleiben als "Lücken" bestehen. Die Unternehmensleitung hofft, dass die Mitarbeiterinnen und Mitarbeiter, das mittlere sowie das untere Management die verbleibenden Lücken ausfüllen. Erst nach der Implementation der neuen Struktur werden Detailprobleme systematisch behandelt. Es wird davon ausgegangen, dass für organisatorische Gestaltungsfragen nur eine Lösung in Frage kommt. Diese wird hauptsächlich von Experten "am Reißbrett" erarbeitet: Rationale Planer oder Architekten des Wandels sollen die großen Veränderungen durchführen. Der Erfolg dieser Strategie hängt demzufolge zum einen von dem Gelingen des Überraschungseffektes ab, zum anderen von der Fähigkeit, die Widerstände der Organisationsmitglieder zu brechen. Die Bombenwurfstrategie ist eine typische Top down-Strategie. Beabsichtigt ist eine rasche und kraftvolle Analyse- und Konzeptionsphase. Dem steht aber eine verhältnismäßig lange Implementierungsphase gegenüber, weil die "Revolution von oben" häufig eine "Gegenrevolution von unten" auslöst (Krüger 1994). Sind die Organisationsmitglieder nicht in den Veränderungsprozess involviert, sondern werden mit fertigen Lösungen konfrontiert, gibt es ein Akzeptanzproblem. Die Angst vor unerwünschten Folgen lässt die Mitarbeiterinnen und Mitarbeiter sehr findig werden, wenn es darum geht, Änderungen zu verhindern, zumindest aber hinauszuzögern (Hamel/Prahalad 1995): Sie befinden sich in einer ähnlichen Situation wie die Arbeiter, welche die Grabbauten der Pharaonen errichteten. Jeder Pharao wollte eine Pyramide, die so verwinkelt und kompliziert angelegt war, dass kein Fremder in die Grabstätte eindringen konnte, um Grabschätze zu plündern. Die Arbeiter wussten, dass sie nach der Fertigstellung der Pyramide getötet
Management des Wandels werden würden, damit niemand den Weg zu den Schatzkammern verraten konnte. Kam der Pharao auf die Baustelle und fragte seinen Bauleiter, wie die Arbeiten vorangingen, antwortete dieser: 'Wir sind noch nicht fertig, Chef. Ich befürchte, es wird noch einige Jahre dauern'. So ist es nicht weiter verwunderlich, dass die Pyramiden so gut wie nie zu Lebzeiten des Pharaos fertiggestellt wurden. Ebenso wenig verwunderlich ist es, dass sich die meisten Mitarbeiter nicht sonderlich engagieren, wenn Wandel-Projekte ins Haus stehen, deren Folgen sie nicht beeinflussen können. Reibungsverluste, die bei der Bombenwurfstrategie entstehen, werden bewusst in Kauf genommen und damit begründet, dass sich auf andere Weise keine 'Quantensprünge' erzielen lassen würden. Quantensprünge implizieren einen tiefgreifenden Wandel und entsprechen dem Revolutionsmodell. Sie setzen auf eine radikale Abkehr vom Ist-Zustand des Unternehmens. ... oder
Evolutionsstrategie?
Grundidee der Evolutions- bzw. Organisationsentwicklungsstrategie ist es, betroffene Mitarbeiter an den Veränderungsprozessen zu beteiligen. Die erfolgreiche Umstellung auf neue Strukturen hängt wesentlich von der Einbindung der Organisationsmitglieder ab. Deshalb ist Organisationsentwicklung ein längerfristig angelegter Entwicklungs- und Veränderungsprozess von Organisationen und der dort tätigen Menschen. Die Mitarbeiter sollen sich mit den geplanten Veränderungen identifizieren können, so dass es geringe Widerstände in der Umsetzung und eine hohe Akzeptanz der gemeinsam erarbeiteten Lösung gibt. Es gelten dabei folgende drei Prinzipien. 1. Betroffene zu Beteiligten machen: Es werden Partizipationsmöglichkeiten geschaffen. Das bedeutet erstens, diejenigen, die später in den veränderten Strukturen arbeiten, werden bei der 471
Management des Wandels Ausarbeitung der Problemlösung beteiligt. Zweitens kann das Detailwissen der Betroffenen systematisch einbezogen werden. 2. Hilfe zur Selbsthilfe: Experten übernehmen hauptsächlich die Funktion von Moderatoren. Dies heißt, sie stoßen Veränderungsprozesse an und bringen diese in Gang. Die betroffenen Organisationsmitglieder sollen aber diese Veränderungsprozesse inhaltlich mitbestimmen und -gestalten können, ohne von den Experten abhängig zu werden. Die Idee dabei ist, dass die gemeinsame Entwicklung der neuen organisatorischen Lösung die Akzeptanz der Betroffenen sicherstellt. 3. Lernen durch Erfahrung: Durch die gesammelten Erfahrungen bei Reorganisationen sollen immer höhere Lernniveaus erreicht werden. Die Organisationsmitglieder reflektieren ihre eigenen Erfahrungen systematisch, vergleichen sie mit theoretischen Konzepten und gewinnen daraus neue Erkenntnisse. Dies setzt allerdings ein -> Menschenbild voraus, das die Organisationsmitglieder prinzipiell für entwicklungsfähig hält. Ziel der Organisationsentwicklung ist es, einerseits die Leistungsfähigkeit der Organisation zu erhöhen, andererseits aber auch die Entfaltung des einzelnen Organisationsmitgliedes zu fordern und damit dessen Bedürfnis nach sinnvoller Arbeit, sozialer Anerkennung und Selbstverwirklichung Rechnung zu tragen. Besonders erfolgreich sind die Grundprinzipien der Organisationsentwicklung im Ansatz der kontinuierlichen Verbesserung (-> Kaizen) umgesetzt worden. Kaizen ist ein reines Bottom up-Verfahren. Es setzt auf der Ausführungsebene an. Die vielfältigen Erfahrungen und Ideen der Mitarbeiterinnen und Mitarbeiter werden in Qualitäts- und Lernzirkeln diskutiert, die mit zahlreichen Schulungsmaßnahmen verbunden sind. Allerdings können bei dieser 472
Management des Wandels schrittweisen Vorgehensweise nur dann umfassende, tiefgreifende Veränderungen erzielt werden, wenn sie in vorgegebene Veränderungsstrategien der Unternehmensleitung integriert werden. Auch bei der Organisationsentwicklung lässt sich der Veränderungsprozess in die drei Phasen Analyse, Konzeption und Implementation unterteilen. Im Gegensatz zur Bombenwurfstrategie sind die Analyse- und Konzeptionsphasen bei der Organisationsentwicklungsstrategie viel aufwendiger, weil alle Betroffenen an der Erarbeitung der neuen Lösungsmöglichkeiten partizipativ mitwirken. Dafür fällt die Implementierungsphase wesentlich kürzer aus, weil Widerstände und Akzeptanzprobleme bereits in den vorangegangenen Phasen abgebaut werden konnten. Die drei Phasen sind jedoch eng miteinander verwoben und lassen sich nur schwer voneinander abgrenzen: Die Implementation beginnt bei der Organisationsentwicklung nämlich bereits mit der Formulierung des Projektauftrages und der Zusammensetzung der richtigen Teams (-> Team, -> Teamstrukturen). In den Veränderungsprozessen sind viele Organisationsmitglieder und häufig auch externe Beraterinnen und Berater involviert. Sie nehmen unterschiedliche Rollen wahr und geben in verschiedenen Maße Anstöße. Es hat sich gezeigt, dass für ein erfolgreiches Management des Wandels verschiedene Promotoren benötigt werden (Witte 1973; Hauschildt 1991): •
Ein einflussreiches Mitglied der obersten Geschäftsleitung ist für das Wandelprojekt verantwortlich. Dieser Machtpromotor sorgt für die notwendige Durchschlagskraft der Veränderungs-Ideen. Er oder sie entscheidet über Budgets, Kapazitätszuweisungen und Personalfreistellungen für das Projekt-Team. Darüber hinaus verfügt er oder sie über den notwendigen Einfluss, Prioritäten zu setzen und gegebenenfalls andere Projekte zurückstellen zu können.
Management des Wandels
Management des Wandels
Organisationsentwicklungs- oder Evolutionsstrategie
Bombenwurf- oder Revolutionsstrategie Grundprinzip
Umfang der Veränderungen
Rolle der Unternehmensleitung
Veränderungen werden von der Unternehmensleitung ausgearbeitet und bis zur schlagartigen Implementation geheimgehalten in der Regel: • Erzielen von Quantensprüngen • Konzentration auf Strukturfragen, aber radikaler Abstand vom IstZustand • "Bombenwurf' • •
Vorgehensweise
• •
• •
Chancen
• • • • •
logisch-rational definierte Expertenlösung Geschäftsleitung entscheidet exklusiv über die neue Struktur Geheimhaltung der Lösung bis zum Tag X Ausschluss der Mitarbeiter und des mittleren Managements (tendenziell Konfliktvermeidung) Bombenwurf am Tag X einheitliche Fremdregelung: genaues Vorgehen nach Plan Wandel „aus einem Guss" radikale Änderungen Konzept und Lösung relativ rasch definiert Zeitvorteil bei Krisensituationen klar abgegrenzte und definierte Phasen: Konzept- und Umsetzungsphasen sind genau zu charakterisieren
Betroffene Organisationsmitglieder werden an den Veränderungsprozessen beteiligt
in der Regel: kontinuierliche, inkrementale Verbesserungen • dauerhafter Lernprozess • "Evolution" •
• • • • •
• • • • • •
•
Gefahren
•
•
• • •
Akzeptanzprobleme und Widerstände bei den sich übergangen fühlend Reibungsverluste, bis sich die neue Struktur eingespielt hat: häufiges Nachbessern ist nötig hohe Instabilität während der Umsetzungsphase keine Lernprozesse für die Mehrzahl der Mitarbeiter kurzfristige, schnell eingeführte Verbesserungen können zu Lasten langfristiger Entwicklungen gehen
• •
•
• •
Change Agent = Veränderungshelfer: Beratungs- und Unterstützungsfunktion Externe Berater nur als Moderatoren Betroffene zu Beteiligten machen Partizipation (tendenziell Konflikthandhabung) vielfältige Selbstregulierung: Hilfe zur Selbsthilfe
große Lernprozesse für alle Beteiligten Einbringen der Detail- und Ablaufkenntnisse der Mitarbeiter kleine Veränderungen wirken „natürlich" keine oder nur geringe Widerstände bei der Realisation häufig wenig Anpassungen und Nachbesserungen nötig durch breit abgestützte Vorbereitungen keine Überraschungseffekte: die neue Struktur „sitzt" Veränderungs-Know-how auf allen Stufen gebildet zeitaufwendige Lösungsfindung: bei hoher Umweltdynamik zu langsam trotz erhöhter Informationsdiffusion längere Phase der Verunsicherung: ständige Unruhe durch „Herumexperimentieren" Schwierigkeit, sich von bestehenden Strukturen zu lösen und wirklich neue Lösungen zu finden mangelnde Unterstützung durch die Unternehmensleitung Harmonie wird als selbstverständlich angesehen
Abb. 1: Die Bombenwurf- oder Revolutionsstrategie und die Organisations- oder Evolutionsstrategie im Vergleich Vgl. Osterloh/Frost (¡998)
473
Management des Wandels •
Das Projekt-Team verfügt über unternehmensinterne oder -externe Fachleute, welche als Fachpromotoren die eigentlichen Träger der Wandel-Ideen sind. Sie bringen das Fachwissen und die Fähigkeit mit, komplexe Zusammenhänge zu erkennen.
•
Wichtig ist außerdem das Hinzuziehen von Kommunikationsoder Prozesspromotoren, die für Gruppenarbeit (-> Gruppenkonzepte) besonders ausgebildet sind und Verfahrenskeniitnisse bei der Moderation komplexer Planungsprozesse haben. Ihre Aufgabe ist es, die Verbindung zwischen Fachpromotoren und Machtpromotoren herzustellen. In der englischsprachigen Literatur ist diese Rolle vor allem unter dem Terminus Change Agent bekannt geworden. Change Agents sind in der Regel externe Berater für den Prozessverlauf und nicht Experten für das Gestaltungsergebnis. Sie fördern das Problembewusstsein der übrigen Organisationsmitglieder, weil sie die Ideen des Projektes in eine verständliche Sprache übersetzen können.
Im Ergebnis sind für ein erfolgreiches Management des Wandels sowohl die Kenntnisse der Gesamtzusammenhänge als auch die der detaillierten Abläufe nötig. Die "Marschrichtung" der Änderungen und die Rahmenbedingungen werden von oben durch die Unternehmensleitung vorgegeben. Konkrete inhaltliche Ausgestaltungen werden von unten gemeinsam mit den Betroffenen umgesetzt. Es braucht also Elemente aus beiden Verfahren: "Top down for targets - bottom up for how to do it" heißt die Devise. Revolution und Evolution sind in einem -> Gegenstromverfahren miteinander zu verbinden (Krüger 1994). Abb. 1 zeigt einen Überblick über die beiden verschiedenen Ansätze. Literatur: Hamel, G./Prahalad, C.K.: Wettlauf um die Zukunft, Wien 1995; Hauschildt, J.: Managementrolle: Innovator, in: Stahle, W.H. (Hrsg.): Handbuch Management, Wiesbaden 1991; Kieser,
474
Managementbildung A.: Fremdorganisation, Selbstorganisation und evolutionäres Management, in: Zeitschrift für Betriebswirtschaft, 46. Jg. 1994, S. 199-228; Krüger, W.: Umsetzung neuer Organisationsstrategien: Das Implementierungsproblem, in: Frese, E./Maly W. (Hrsg.): Organisationsstrategien zur Sicherung der Wettbewerbsfähigkeit, ZfbF, 46. Jg. 1994, Sonderheft, 33, S. 197-221; Osterloh, M./Frost, J.: Prozeßmanagement als Kemkompetenz, 2. Aufl., Wiesbaden 1998; Schreyögg, G.: Organisation. Grundlagen moderner Organisationsgestaltung, 3. Aufl., Wiesbaden 1999; Thom, N.: Organisationsentwicklung, in: Frese, E. (Hrsg.): Handwörterbuch der Organisation, 3. Aufl., Stuttgart 1992, Sp. 1477-1491; Witte, E.: Organisation für Innovationsentscheidungen, Göttingen 1973.
Margit Osterloh/Jetta Frost Management Development Führungskräfteentwicklung Management Information System -> Entscheidungsunterstützende Systeme Management of Evolution Unternehmensfiihrung Managementbildung Der folgende Beitrag soll anhand der beiden Begriffsbestandteile "Management" und "Bildung" einige zentrale Aspekte einer umfassenden Management-Bildung herausarbeiten. Der Begriff des -> Managements wird in einem funktionalen Sinne für einen Komplex von Aufgaben gebraucht, die der Steuerung des Systems Unternehmen dienen und häufig in fünf Managementfunktionen untergliedert werden: Planung, Organisation, Personaleinsatz, -> Führung und Kontrolle. Betrachtet man jedoch das reale Tätigkeitsspektrum von Managern, so stellt man fest, dass die mit der Untergliederung der klassischen Managementfunktionen suggerierte lineare Abfolge der Tätigkeiten sich keinesfalls in der täglichen Arbeit von Managern widerspiegelt. Bereits seit den ersten Tätigkeitsstudien im Management bestätigt sich folgendes Muster:
Managementbildung 1. Offene Zyklen: Die Tätigkeiten haben häufig keinen klaren Anfang und kein klares Ende; das "Lösen" permanenter Probleme, für die es keine abschließende Lösung gibt, spielt eine große Rolle. 2. Zerstückelter Arbeitsalltag, der selten Einzelaktivitäten von mehr als einer halben Stunde enthält; viele Aktivitäten liegen im Minutenbereich und stellen Reaktionen auf plötzliche Störungen oder dringende Anfragen dar. 3. Verbale Kommunikation nimmt die meiste Zeit des Arbeitstages ein (Angaben reichen von 70-90% der Arbeitszeit). Dabei handelt es sich meist um Gespräche, die durch Nachfragen und Zuhören gekennzeichnet sind, weniger durch Anweisungen. 4. Komplexität und Ungewissheit kennzeichnen die Tätigkeit von Managern, da viele Probleme schwer strukturierbar sind und der Erfolg der vorgeschlagenen Maßnahmen kaum oder nicht prognostizierbar ist (Steinmann/Schreyögg 1997). Nimmt man diese Kennzeichnung der Tätigkeiten von Managern als Ausgangspunkt für eine Bestimmung notwendiger Kompetenzen, so fällt alleine schon unter einem quantitativen Aspekt ins Auge, dass sozial-kommunikative Fähigkeiten eine sehr große Bedeutung haben, da ein Großteil der Arbeitszeit mit Gesprächen zugebracht wird. Dies lässt sich in einer qualitativen Betrachtung noch unterstreichen, da es sich bei den Gesprächen nicht um einseitige Anweisungen handelt, sondern vielmehr um Kommunikationssituationen, in denen Sachverhalte durch wechselseitige Erläuterungen und Interpretationen geklärt werden sollen. Geht man zudem davon aus, dass Manager sehr unterschiedliche Ansprechpartner innerhalb und außerhalb des Unternehmens haben, so erfordert die erfolgreiche Gestaltung entsprechender Gespräche ein hohes Maß an Einfühlungsvermögen in
Managementbildung den jeweiligen Gesprächspartner und die Fähigkeit, die eigenen Gesprächsbeiträge gezielt auf diesen Partner auszurichten {Sozialkompetenz). Betrachtet man ferner die Tatsache, dass Manager mit permanenten, nicht abschließend lösbaren Problemen konfrontiert sind und häufig Entscheidungen unter großer Unsicherheit zu treffen haben, so erscheint ein relativ hohes Maß an Ambiguitätstoleranz vonnöten, um die Spannung zwischen angestrebter Lenkung und Kontrolle des Systems und dem Bewusstsein der Unsicherheit aushalten zu können. Diese Fähigkeit wird auch benötigt, um der "Sandwichposition" gerade des mittleren Managements zwischen Unternehmensleitung und Mitarbeitern auf den unteren Hierarchieebenen gerecht zu werden, die ebenfalls durch eine ständige Konfrontation mit widersprüchlichen Interessen gekennzeichnet ist. Da zudem die oftmals unter Unsicherheit getroffenen Entscheidungen die Wahrscheinlichkeit erhöhen, dass sie sich im nachhinein als falsch erweisen, muss ein Manager ebenfalls über ein hohes Maß an Frustrationstoleranz verfügen, um sich nicht durch Rückschläge und partielle Misserfolge entmutigen zu lassen. Die ständig wechselnden Gesprächspartner, plötzlich auftretende Störungen sowie nicht planbare Unterbrechungen erfordern außerdem eine hohe Flexibilität i.S. der Fähigkeit, sich schnell auf neue Anforderungen einstellen und sich ihnen konzentriert widmen zu können. Die drei letztgenannten Fähigkeiten werden häufig unter dem Konstrukt der "IchStärke" zusammengefasst, was darauf verweist, dass es sich hier um sehr grundlegende Fähigkeiten handelt, die eng an die Persönlichkeit des Managers gekoppelt und daher zumindest nicht ad hoc vermittelbar sind. Neben diesen nicht fachgebundenen Fähigkeiten sind selbstverständlich eine
475
Managementbildung hohe Fachkompetenz im jeweiligen Zuständigkeitsbereich sowie die Fähigkeit zum Denken in übergreifenden Zusammenhängen unerlässlich, um die Aufgaben eines Managers erfolgreich wahrnehmen zu können (Sauter 1991). Da sich jedoch die Aus- und Weiterbildung des Managements traditionsgemäß intensiv mit diesen fachlich orientierten Aspekten beschäftigt, sollen sie hier im Weiteren nicht detaillierter aufgegriffen werden, wenngleich ihre Bedeutung unbestritten ist. Die bisher ausgewiesenen Kompetenzen ergeben sich aus einer Betrachtung empirischer Daten zu den Aufgaben- und Tätigkeitsmerkmalen von Managern und lassen sich aus dieser Perspektive als Zielgrößen einer Management-Bildung begründen. In einer pädagogischen Begrifflichkeit würde man eine alleinige Ausrichtung an den Erfordernissen bestimmter Arbeitsaufgaben allerdings eher als Management-Qualifizierung bezeichnen. Diese Unterscheidung legt eine weitergehende Beschäftigung mit dem 5(7dungsbegriff nahe, um weitere Ansatzpunkte für entsprechende Maßnahmen identifizieren zu können. Trotz unterschiedlicher inhaltlicher Füllungen und Schwerpunktsetzungen im Laufe der Geschichte des Bildungsbegriffes kann als ein immer wiederkehrender Grundgedanke hervorgehoben werden, dass Bildung sowohl zu mündigem, eigenverantwortlichen Handeln beitragen soll als auch einen Einsatz für die Belange der Gemeinschaft, also sozialverantwortliches Handeln, fördern soll (Euler 1994). Wenden wir uns zunächst dem ersten Aspekt, der Eigenverantwortlichkeit, zu. Eigenverantwortliches Handeln als Zielkategorie setzt die Fähigkeit zur Selbstreflexion voraus i.S. der Kompetenz, eigenes Handeln und seine Ursachen sowie seine Ziele reflektieren zu können (Wagner/Nolte 1996). D.h. bei der geforderten Reflexion geht es nicht nur darum, die Effizienz des eigenen Handelns im Hin476
Managementbildung blick auf die Erreichung vorgegebener (Unternehmens-) Ziele zu überprüfen, sondern auch die Ziele selbst einer Überprüfung zu unterziehen (LohrSchütz 1991). Eigenverantwortlichkeit impliziert ferner, sich nicht hinter Sachzwängen und Autoritäten zu verstecken, um die Zuordnung von Handlungen zu eigenen Entscheidungen zu kaschieren. Zudem ist damit eine aktive Gestaltung des eigenen Lebens- und Berufsweges auch beim Auftreten von Schwierigkeiten verbunden. Ferner soll nach der hier vertretenen Auffassung Eigenverantwortlichkeit auch die Verpflichtung beinhalten, sich nicht selbst zu schädigen, was bedeutet, für die Erhaltung der eigenen Gesundheit und Leistungsfähigkeit - zumindest in mittelfristiger Betrachtung zu sorgen. Der Aspekt der Sozialverantwortlichkeit beinhaltet die Fähigkeit zur Überprüfung von Entscheidungen (eigene und solche, an denen man beteiligt ist) daraufhin, ob alle Beteiligten und Betroffenen sich mit dieser Entscheidung einverstanden erklären könnten. Mit derartigen Überlegungen sollen gerechte Konfliktlösungen ermöglicht werden, die auch diejenigen Interessengruppen einbeziehen, die (noch) keine Lobby zur Einbringung ihrer Rechte haben (Steinmann/Löhr 1994). Ferner impliziert Sozialverantwortlichkeit ein Handeln gemäß der so getroffenen Entscheidung, auch wenn Schwierigkeiten bei ihrer Umsetzung auftreten. Legt man die hier angeführten zentralen Zielkategorien einer ManagementBildung zugrunde, so ergeben sich Konsequenzen für die Gestaltung entsprechender Bildungsmaßnahmen, die im Folgenden kurz angerissen werden. 1. Zur Erreichung der meisten der angeführten Lernziele sind längerfristige Lernprozesse notwendig. Dies gilt für den Bereich der Sozialkompetenzen ebenso wie für die im Kontext der "IchStärke" genannten Fähigkeiten. Um im oben aufgeführten Sinne sozialverant-
Management-Holding
Managementbildung
eine vertrauensvolle Atmosphäre zu schaffen, um das Arbeiten an persönlichen Erfahrungen überhaupt zu ermöglichen und dass sie es auszuhalten haben, dass sie selbst als Person weitaus mehr in den Blickpunkt gerückt werden, als dies bei einer primär fachlich orientierten Bildungsveranstaltung der Fall ist. Zudem können sie die genannten Lernprozesse nur dann sinnvoll unterstützen, wenn sie selbst über die angestrebten Fähigkeiten verfugen.
wortliche Entscheidungen gewährleisten zu können, ist darüber hinaus eine weit entwickelte moralische Urteilsfähigkeit vonnöten, deren Förderung ebenfalls nicht in kurzfristigen Prozessen möglich ist. 2. Die Lernprozesse erfordern eine Orientierung an den Erfahrungen der Teilnehmer, da mit den angesprochenen Zielkategorien eine Überprüfung und i.d.R. auch eine Veränderung von Denk- und Handlungsgewohnheiten verbunden sind, die nur auf der Basis der Reflexion eigener Erfahrungen erfolgen können. Zur "Einübung" neuer Handlungsmöglichkeiten ist es dann ebenfalls unerlässlich, diese in Realsituationen (oder zumindest simulierten Situationen) anzuwenden und die dabei gemachten Erfahrungen wiederum kritisch zu reflektieren. 3. Es ist mit gewissen Widerständen von Seiten der Teilnehmer zu rechnen, da das Umstoßen von Denk- und Handlungsgewohnheiten ein schwieriger, teilweise auch schmerzhafter Prozess sein kann. Ferner könnten auch die Erwartungen der Teilnehmer an eine Management-Bildung eher in die Richtung einer Vermittlung von umfassendem Fachwissen gehen, weshalb die weitergehende Erarbeitung von Fähigkeiten, die enger an die Persönlichkeit gekoppelt sind, Irritationen und Blockaden auslösen könnte - zumal es sich auch für viele Teilnehmer um ungewohnte Lernerfahrungen handeln wird. 4. Die Erreichung der angeführten Lernziele stellt auch hohe Anforderungen an die Lehrenden. Es handelt sich vielfach um relativ offene LehrLernprozesse, die nur ansatzweise steuerbar sind und deren Erfolg stark von der Bereitschaft der Teilnehmer abhängt, sich darauf einzulassen. Das bedeutet für viele Lehrkräfte, dass sie ihr Methodenrepertoire erweitern müssen, dass sie in der Lage sein sollen,
Literatur: Steinmann, H./Schreyögg, G.: Management. 4. Aufl. Wiesbaden 1997; Sauter, E.: Management Weiterbildung für obere Führungskräfte. Zürich 1991; Euler, D.: Didaktik einer sozio-informationstechnischen Bildung. Köln 1994, S. 259 ff.; Wagner, D. / Nolte, H. (Hrsg.): Managementbildung, MUnchen-Mering 1996; Lohr-Schütz, M.: Ethik, M a n a g e m e n t und Managementausbildung. Wien 1991; Steinmarm, H./Löhr, A.: Grundlagen der Unternehmensethik. 2.Aufl. Stuttgart 1994
Dieter Euler/Monika Reemtsma-Theis Management-Holding Wenn eine Holding strategische Verantwortung für die ihr angeschlossenen Tochterunternehmen an sich zieht, wird sie zur Management-Holding. Je nach (Vorstands-) Organisation der HoldingGesellschaft unterscheidet man folgende Typen der Management-Holding: • funktional-integrierte ManagementHolding: die Service- und Zentralfunktionen des Gesamtunternehmens sind Bestandteil der HoldingGesellschaft. Die (Vorstands-) Organisation der Gesellschaft gliedert sich nach Funktionalen Gesichtspunkten (Einkauf, Produktion, Absatz usw.). •
gemischt-integrierte ManagementHolding: die Service- und Zentralfunktionen des Gesamtunternehmens sind Bestandteil der HoldingGesellschaft. Die (Vorstands-) Organisation der Gesellschaft gliedert sich nach Objektgesichtspunkten wie Regionen oder Produkten, die u.U. durch funktionale Aspekte ergänzt werden. (Vorstand für Produkt A, Vorstand für 477
Management-Holding Produkt B, dazu ein Vorstand für Personal). •
schlanke Management-Holding: Außer den Vorständen und deren engsten Mitarbeitern (Assistenten, Sekretariat, Fahrer) hat die Holding-Gesellschaft keine eigenen Angestellten. Die Service- und Zentralfunktionen für das Gesamtunternehmen sind a.) in einer eigenen Tochtergesellschaft zusammengefasst, oder b.) in einer operativen Tochtergesellschaft zusammengefasst, die diese Funktionen für alle anderen Töchter mit übernimmt, oder c.) dezentral in jeder einzelnen Tochtergesellschaft angesiedelt.
Während viele deutsche Großunternehmen als Management-Holding fungieren, ist das Konzept der Management-Holding etwa in den USA weitgehend unbekannt. Wegen der fehlenden steuerlichen Anreize, ein erworbenes Unternehmen bestehen zu lassen, herrschen dort integrierte Unternehmen vor. Verzichtet die Holding auf strategische Eingriffe, spricht man von einer —> Finanz-Holding. Managementmoden Managementmoden sind Managementkonzepte, die eine gewisse Popularität erlangt haben. Ein Managementkonzept ist eine Diskussion, die sich um einen Begriff, einige Prinzipien und Methoden herum entwickelt. Beispiele aus der jüngeren Zeit sind etwa -» Unternehmenskultur, Reengineering (-» Business Process Reengineering), -> Lean Production, Total Quality Management oder -> Balanced Scorecard. Wie alle Moden, so folgen auch Managementmoden einem bestimmten Muster: Zuerst gibt es nur wenige Anhänger, deren Zahl mit der Zeit aber schnell ansteigt. Ab einem gewissen Sättigungsgrad wenden sich die Anhänger von dieser Mode ab und neuen Moden zu. Schöpfer neuer Managementkonzepte und von Managementmoden sind in der Regel Mitarbeiter von Untemehmungsberatungen. 478
Managementmoden 1. Welche Voraussetzungen müssen Managementkonzepte aufweisen, um sich zu Managementmoden zu entwickeln? Von entscheidender Bedeutung ist die Rhetorik, die in schriftlichen Darstellungen und in Vorträgen zu einem neuen Managementkonzept eingesetzt wird. Häufig werden Managementmoden durch Managementbestseller ausgelöst. Die Rhetorik von Managementmoden enthält in der Regel die folgenden Elemente: a) Ein Schlüsselfaktor wird in den Vordergrund gestellt - bspw. Unternehmenskultur, (Totales) Qualitätsmanagement, Lean Production oder Fraktale. Dieser Faktor wurde, dem Autor zufolge, bisher sträflich vernachlässigt, weshalb seine Entdeckung als revolutionär bezeichnet werden kann (was der Autor in der Regel auch nachdrücklich und häufig tut). b) Die Konzentration auf diesen Faktor wird als radikaler Bruch mit den bisher gültigen -» Managementprinzipien dargestellt. c) Die Anwendung der neuen Prinzipien wird als unausweichlich gesehen, weil die alten Prinzipien angesichts drohender Entwicklungen, wie kaum einzuholende Effizienzvorsprünge der ausländischen, insbesondere japanischen Wirtschaft, zunehmende Dynamisierung der Märkte, immer kürzere Produktlebenszyklen, steigende Ansprüche der Kunden, atemberaubende Geschwindigkeit technologischer Entwicklungen, scheitern müssen. d) Der Autor belehrt oder kritisiert die Praxis nicht, er macht vielmehr lediglich auf deren eigene Spitzenleistungen aufmerksam und stellt sie anhand anschaulicher Beispiele vor. Er gibt "best practices" erfolgreicher Unternehmen wieder. Damit suggeriert er Umsetzbarkeit: Wenn andere Unter-
Managementmoden nehmen die neuen Prinzipien umgesetzt haben, dann kann es auch im eigenen Unternehmen gelingen! e) Die Darstellung ist einfach und mehrdeutig zugleich. Einfachheit wird zunächst durch Einsatz von Metaphern erzeugt: "Internes Unternehmertum" ist klar besser als Bürokratie, und "Zeltorganisationen" sind anpassungsfähiger als "Palastorganisationen". Ein weiteres Mittel zur Erzeugung des Eindrucks von Einfachheit sind stilisierte Beispiele und Abbildungen. Mehrdeutigkeit entsteht, wenn sich die verschiedenen Vorschläge eines neuen Konzepts nicht ohne weiteres zu einem Gesamtbild zusammenfugen lassen. Jedes einzelne Prinzip für sich ist klar und einfach; die Verbindungen zwischen den Prinzipien werden aber nur angedeutet. Auch das Fehlen einer präzisen Beschreibung des Umsetzungsprozesses fuhrt zu Mehrdeutigkeit. Metaphern wirken nicht nur vereinfachend, auf den zweiten Blick geben sie auch Rätsel auf: Was ist eigentlich eine Zeltorganisation? Mehrdeutigkeit schafft Interpretationsspielraum. Der Adressat kann das neue Konzept als die angemessene Lösung für alle drängenden Probleme seines Unternehmens interpretieren. Auch wird das Expertentum des Autors unterstrichen: Wäre das Konzept einfach, brauchte man keine Experten, um es umzusetzen. f) Enorme Verbesserungen - "Quantensprünge" - werden in Aussicht gestellt. g) Der zentrale Begriff muss eine gewisse Attraktivität aufweisen. Der Begriff "Reengineering" ist beispielsweise attraktiv, weil er ein hohes Maß an Machbarkeit suggeriert. Die Prozesse müssen von Grund auf neu konstruiert werden, sie sind aber grundsätzlich einer ingenieurhaften Gestaltung zugänglich. Der Begriff der Balanced Scorecard erinnert an Sport und
Managementmoden Wettbewerb, verspricht aber auch eine Balance zwischen finanzwirtschaftlichen und am Mitarbeiter orientierten Zielen. 2. Weshalb finden Manager manche Managementkonzepte so attraktiv, dass diese zu Moden werden? Verschiedene Akteure haben ein starkes Interesse daran, dass sich Managementkonzepte verkaufen und zu Rennern werden: Unternehmensberatungen generieren mit Hilfe von Managementmoden Nachfrage nach ihren Leistungen. Verlage von Managementbüchern und Managementzeitschriften sowie Seminar- und Kongressveranstalter können mit Hilfe von Managementmoden ihre Umsätze ebenfalls steigern. Es gibt also eine ganze Reihe von Akteuren, die mit allen Mitteln, die ihnen zu Gebote stehen, Managementkonzepte verkaufen und zu Managementmoden machen wollen. Manager greifen Managementkonzepte, vor allem solche, die sich bereits als Moden etabliert haben, aus den verschiedensten Gründen auf. Unter starkem Druck - und Manager stehen meist unter einem enormen Druck, sowohl im Hinblick auf ihr Unternehmen als auch im Hinblick auf ihre Karriere - wird der Wunsch, sich mit einem wirksamen Konzept einen Vorsprung zu sichern, sehr dringlich, die Neigung, "Wundermethoden" zu vertrauen, wird sehr mächtig. Managementmoden machen es Managern leicht, sich mit Hilfe von Projekten zu profilieren. Ein Projekt, das sich in die herrschende Mode einfugt, ist von vornherein legitimiert. Man kann auch "Paketlösungen" bei Unternehmensberatungen kaufen. Erweist sich das Projekt dann als Fehlschlag, müssen die Manager, die es forciert haben, nur die Auswahl der Unternehmensberatung rechtfertigen. Haben sie eine große und renommierte gewählt, wird man ihnen kaum Fahrlässigkeit vorwerfen können. Mit Hilfe von Managementmoden - das gilt für Moden allgemein - kann man sich von der Masse 479
Managementmoden
Managing Diversity
abheben, sich aber gleichzeitig in einer Gruppe von Gleichgesinnten geborgen fühlen, das Risiko des Scheiterns minimieren. 3. Wie sind Managementmoden zu beurteilen? Es gibt ernstzunehmende Managementwissenschaftler, die der Ansicht sind, der Einsatz gekonnter Rhetorik sei das Wesentliche am Managen. Was gekonnte Rhetorik ist, das kann man aus dem Studium von Managementmoden lernen. Vereinfachende Managementkonzepte, die eventuell zu einer Managementmode avancieren, sind unverzichtbar. Unternehmen sind zu komplex. Man muss immer idealisieren, wenn man sie beschreiben oder verändern will. Moden liefern solche Idealisierungen. Manches an Moden stellt sich langfristig als recht nützlich heraus und wird zur selbstverständlichen Praxis. Literatur: Kieser A.: Moden & Mythen des Organisierens. Die Betriebswirtschaft, Jg. 56, 1996, S. 21-39; Abrahamson, E.: Management fashion. Academy of Management Review, Bd. 21, 1996, S. 254-285.
Alfred Kieser Managertypen -> Menschenbilder Managing Diversity Die zentrale Botschaft dieses aus den USA stammenden Konzepts ist, dass eine vielfältig zusammengesetzte Belegschaft ein wichtiger Erfolgsfaktor sein kann, wenn sie richtig gemanagt wird. Vielfalt kann sich auf ganz unterschiedliche Merkmale beziehen, die Einfluss auf die Selbst- und vor allem auch auf die Fremdwahrnehmung einer Person oder Gruppe haben - und die damit mögliche Quellen für Reibungen oder Spannungen in der Zusammenarbeit unterschiedlicher Beschäftigter bzw. Quellen von Diskriminierungen sein können. Neben den klassischen Merkmalen wie Geschlecht, Alter, ethnische Zugehörigkeit und Behinderung werden auch solche wie Status, 480
familiäre Situation, religiöse oder sexuelle Orientierung etc. berücksichtigt. Vielfalt richtig managen heißt, die Organisation, und vor allem die Organisationskultur, zu entwickeln - orientiert am Leitbild der multikulturellen Organisation. In einer multikulturellen Organisation • •
herrscht (Werte-)Pluralismus, sind alle Beschäftigten(gruppen) vollständig integriert, und zwar sowohl strukturell, d.h. in allen Positionen und auf allen Hierarchieebenen, als auch in den informellen Netzwerken (-> informelle Organisation), • gibt es keine Vorurteile und Diskriminierungen und keine Konflikte zwischen den verschiedenartigen Beschäftigtengruppen. • All das soll bewirken, dass sich alle Beschäftigten gleichermaßen mit der Organisation identifizieren und ungehemmt leisten können und wollen. Der letzte Punkt verdeutlicht, dass Managing Diversity nicht in erster Linie aufgrund rechtlicher und moralischer Verpflichtungen propagiert und praktiziert wird, sondern vor allem wegen der damit verbundenen ökonomischen Vorteile. Weil die Beschäftigten insgesamt immer vielfältiger werden, ist es nicht mehr erfolgversprechend, die Personalpolitik am "homogenen Ideal" der (in den USA: weißen) Männer mittleren Alters auszurichten und damit weibliche, jüngere, ältere und ausländische Beschäftigte zur Rand- oder Problemgruppe zu machen. Deren mangelnde Integration oder gar Diskriminierung verursacht nämlich erhebliche Kosten. Durch einen verlorenen Rechtsstreit entstandene Kosten sind hier nur die Spitze des Eisbergs. Hinzu kommt z.B., dass der Zwang zur Anpassung Energien absorbiert, die ansonsten der Leistungserstellung zugute kämen, und dass Diskriminierungen zu Demotivation führen können. Schließlich wird durch Managing Diversity die Kreativität und das Problemlösepotenzial gesteigert - und
Managing Diversity
Managing Diversity
damit auch die Bereitschaft und Fähigkeit zur Anpassung an veränderte Umweltbedingungen.
Instrumente entsprechend ausgestaltet und eingesetzt. Beispielhaft seien hier genannt:
Wettbewerbsvorteile können nicht nur mit Blick auf die Beschäftigten als Humanressourcen erzielt werden, sondern auch mit Blick auf die Märkte, auf denen eine Organisation agiert: Auf dem Arbeitsmarkt, insbesondere für Fach- und Führungskräfte, wird die Anwerbung qualifizierter und engagierter Arbeitnehmer und Arbeitnehmerinnen erleichtert, die nicht dem o.g. homogenen Ideal entsprechen. In Ratgebern für diese Gruppen hat die Frage nach Programmen zur Realisierung von Chancengleichheit inzwischen ihren festen Platz. Das gilt auch für Ratgeber, die sich an die Kunden und Kundinnen richten, die ihre Kaufentscheidungen auch an ethischen Aspekten orientieren. Aber nicht nur deshalb können Vorteile an den Absatzmärkten realisiert werden, sondern auch, weil eine vielfältig zusammengesetzte Arbeitnehmerschaft besser in der Lage ist, sich auf die Bedürfnisse und Wünsche der ebenfalls vielfältigen Kundschaft einzustellen, was zu einem verbesserten Marketing beiträgt.
•
Die Wertschätzung der Vielfalt wird als Element von Unternehmens- und Führungsgrundsätzen aufgenommen.
•
Bei der Zusammensetzung von (Entscheidungs-) Gremien und Problemlösungsgruppen (z.B. -> Qualitätszirkeln) wird darauf geachtet, dass diese die Vielfalt der Beschäftigten spiegeln.
•
Zum Abbau von Vorurteilen und Diskriminierungen (z.B. bei der Auswahl oder Beurteilung von Beschäftigten) werden Diversity Trainings durchgeführt, insbesondere auch für Führungskräfte und neue Mitarbeiter und Mitarbeiterinnen.
•
Bei der Beurteilung der Führungskräfte werden deren Anstrengungen und Erfolge in Sachen Managing Diversity berücksichtigt. Ergänzend zur klassischen Aufwärtsbeurteilung werden dazu auch -> Vorgesetztenbeurteilungen oder Aufwärtsbeurteilungen eingesetzt.
•
Durch Mentorenprogramme sollen die strukturelle Integration und die in informelle Netzwerke verbessert werden.
In dem Maße, wie auch Anlageentscheidungen an ethischen Aspekten ausgerichtet werden (Stichwort: Öko-Fonds), verschafft Managing Diversity auch Vorteile auf den Finanzmärkten. In den USA existieren bereits Fondsgesellschaften, die sich qua Leitlinien verpflichten, nur in Aktien solcher Unternehmen zu investieren, die Managing Diversity-Programme haben. Zu guter Letzt erleichtert Managing Diversity auch das Agieren auf internationalen Märkten bzw. in fremden Kulturkreisen, weil Führungskräfte und Mitarbeiter gelernt haben, kulturelle Vielfalt zu würdigen und auch mit Menschen, die anders sind als sie selbst, vorurteilsfrei und reibungslos zusammenzuarbeiten.
Bei diesem Veränderungsprozess kann Beratung wertvolle Dienste leisten. Vom Kauf von Diversity-Programmen "von der Stange" ist allerdings abzuraten. Sie sollten maßgeschneidert sein. Das heißt: Hinsichtlich welcher der eingangs genannten Merkmale der Handlungsdruck und damit zusammenhängend - hinsichtlich welcher personalpolitischer Kriterien und Verfahren der Veränderungsbedarf besonders groß sind, muss im Einzelfall durch ein Diversity Audit ermittelt werden.
Zur Erreichung dieser Ziele wird eine Vielzahl vorhandener personalpolitischer
Literatur: Ausführlichere Anregungen und Fallbeispiele finden sich in: Cox, T.H.: Cultural Diversity in Organizations: Theory, Research and
481
Markenpositionierung
Managing Diversity Practice, San Francisco 1993; Emmerich, A./Krell, G.: Managing Diversity-Trainings, in: Krell, G. (Hrsg.): Chancengleichheit durch Personalpolitik, 2. Aufl., Wiesbaden 1998, S. 369-386.
Gertraude Krell Manufactoring Resource Planning (MRP II) Das -> Produktionsplanungs- und -steuerungssystem MRP II (manufacturing resource planning) wurde von Oliver W. Wight aufbauend auf Material Requirement Planning (MRP I) und den traditionellen PPS-Systemen zur Anwendung in Industriebetrieben entwickelt. MRP II ist ein Konzept, das zur Anwendung der Unterstützung einer Software bedarf. MRP II integriert im Gegensatz zum MRP I Konzept Planung und Steuerung zu einer zusammenhängenden Logistikkette. Es wird nicht nur der Materialbedarf geplant, sondern es werden verstärkt Betriebsdaten einbezogen und die Materialverwaltung von der Beschaffung bis zum Einsatz in die Planung mit einbezogen. MRP II lässt sich folgende Funktionen unterteilen: 1. 2. 3. 4. 5.
Geschäftsplanung, Produktionsprogrammplanung, Produktionsplanverwaltung, Materialbedarfsplanung, Fertigungssteuerung.
Diese fünf Ebenen werden nacheinander abgearbeitet. In der Geschäftsplanung wird der Umsatz, Absatz und Erfolg des gesamten Unternehmens geplant, auf Produktionsprogrammplanungsebene dann die Mengen und Termine für den Produktionsbereich im Werk. Die Produktionsplanverwaltung erarbeitet einen Masterplan für die Enderzeugnisse, der Kundenaufträge und Bedarfsmengen enthält. Auf dieser Grundlage wird in der Materialbedarfsplanung der Bedarf an Komponenten und Baugruppen koordiniert und terminiert. Deren Verarbeitung wird in der Fertigungssteuerung abgestimmt. Bevor ein Planungsergebnis als Vorgabe für die 482
feinere Abstimmung auf die nächste Stufe herabgeleitet wird, wird geprüft, ob die im Betrieb verfügbaren Ressourcen der errechneten Belastung standhalten. Ist das nicht der Fall, muss vor der Weitergabe umgeplant werden. Im Vergleich zu MRP I und den traditionellen PPS-Systemen lassen sich deutliche Neuerungen feststellen. Durch die Erweiterung der Datenbasis wurde erst die längerfristige Planung möglich. Weiterhin ist durch die Einführung einer Rückkopplung in Form einer Kapazitätsprüfung ein Regelkreislauf geschaffen worden, der eine Abstimmung der einzelnen Ebenen des MRP II gewährleistet. Eine Simulationsmöglichkeit von Änderungsrechnungen erleichtert die Umplanung. Das gesamte System wird dadurch flexibler. Marginal Cost of Debt -> Kapitalkosten Markenartikel —• Herstellermarken Markenfamilie Produkte, die im Absatz untereinander verbunden sind (Produktlinie, Produktfamilie) und unter einer gemeinsamen Marke Dachmarke) vertrieben werden; s.a. Herstellermarken Markenpositionierung Mit der Positionierung einer Marke soll zum einen die Verankerung bestimmter Produkteigenschaften in der Psyche der Konsumenten erreicht werden zum anderen soll der Konsument das Produkt gegenüber Konkurrenzprodukten hinreichend differenziert wahrnehmen. Die Markenpositionierung ist somit Ausgangspunkt für die Profilierung einer Marke. Auf der Basis einer Marktsegmentierung in möglichst homogene Zielgruppen wird für jede ausreichend große Zielgruppe eine Marke geschaffen (s.a. -> Zielgruppenbildung). Dabei ist darauf zu achten, dass die Eigenschaften der zu schaffenden Marke den Idealeigenschaften der Zielgruppe möglichst nahe kom-
Markenpositionierung men. Ferner ist bei der Markenpositionierung darauf zu achten, dass bei der Zielgruppe eine ausreichende Differenzierungsfähigkeit hinsichtlich der neu zu schaffenden Marke und bestehenden Marken vorhanden ist. Gelingt die Integration der relevanten Eigenschaften in die Marke und die Differenzierung von anderen Marken, so wird die Marke durch ihre Positionierung zu einer Unique Selling Proposition (USP) für das Unternehmen. Markenwert Brand Equity Marketing 1. Begriffliche Klärungen Marketing umfasst alle zielorientierten Aktivitäten von Organisationen bzw. Unternehmungen zur Erfüllung von Kundenerwartungen. Kotler/Bliemel fassen den Marketingbegriff noch weiter als "Prozess im Wirtschafts- und Sozialgefuge, durch den Einzelpersonen und Gruppen ihre Bedürfnisse und Wünsche befriedigen, indem sie Produkte und andere Dinge von Wert erzeugen, anbieten und miteinander austauschen". Marketing wurde vor allem deshalb notwendig, weil sich zunehmend Verkäufermärkte, d.h. Märkte, auf denen die Nachfrage größer ist als das Angebot, zu -> Käufermärkten wandeln. 2. Marketingentwicklung Marketing hat sich nach Meffert in folgenden Stufen entwickelt (Meffert 1995): Beim "distributionsorientierten Marketing" stand in den 50er Jahren der Fluss von Gütern und Dienstleistungen vom Produzenten zum Verbraucher im Mittelpunkt. In den 60er und 70er Jahren wurde im Sinne eines "konsumentenorientierten Marketing" großer Wert auf die Analyse, Planung, Organisation und Kontrolle der kundenbezogenen Ressourcen und Aktivitäten gelegt. "Wettbewerbsorientierung" und das damit verbundene Anstreben von Wettbewerbsvorteilen durch "Strategisches Marketing" charakterisierten die 80er Jahre. Zunehmende Umweltorientierung, gekennzeichnet durch eine Berück-
Marketing sichtigung der Interessen von Kunden und anderen Partnern bzw. gesellschaftlichen Anspruchsgruppen (-» Stakeholder-Ansatz), prägten die 90er Jahre. Im vergangenen Jahrzehnt veränderten die zunehmende Bedeutung des Zeitfaktors und die wachsende Individualisierung der Kundenwünsche das Marketing erheblich. Dies führte zu einer durchgängig flussorientierten Strukturierung der Material- und Informationsflüsse nach Just-inTime-Prinzipien zwischen und innerhalb von Unternehmungen (-> Just-in-timeKonzept). Die entsprechend zunehmende Vernetzung führt dazu, dass Kundenwünsche schnell, individuell und effizient befriedigt werden können. 3. Marketingziele Marketing dient dazu, Nachfrage nach Produkten und Dienstleistungen, die von einer Organisation oder Unternehmung angeboten werden, zu schaffen bzw. zu erhöhen. Alle Marketingaktivitäten eines Unternehmens haben deshalb in der Regel drei Gemeinsamkeiten: • • •
Kundenorientierung Unternehmenszielorientierung und Berücksichtigung der Konkurrenz.
Marketing ist folglich eine Aufgabe aller Mitarbeiter, die direkt oder indirekt an der Erfüllung der Kundenwünsche durch das Unternehmen beteiligt sind. Es gibt sinnvollerweise im Unternehmen keine Funktion, die nicht zumindest einen indirekten Bezug zum Kunden und somit zum Marketing hat. Dies wird durch das Just-intime-Konzept deutlich, das in der gesamten "logischen Kette" von Unternehmungen eine durchgängige Umkehrung der Denkweise weg vom Bring- und hin zum Holprinzip bewirkt hat (Wildemann 1996). Dadurch werden Kundenorientierung und -> Kundenzufriedenheit in den Mittelpunkt der logistischen Unternehmensaktivitäten (-» Logistik) gestellt. 483
Marketing
Marketing ting, —• Innovationsmarketing und internes Marketing (-> Marketing, internes) ausgedehnt. Für jeden Marketingbereich ist einerseits festzulegen, wer die internen bzw. externen Kunden sind, und andererseits, welche Maßnahmen bzw. Serviceleistungen bei diesen Kunden die Nutzenstiftung erhöhen und gleichzeitig die Erreichung der Ziele der eigenen Organisation verbessern.
4. Marketing-Arten Es lassen sich mehrere Marketing-Arten unterscheiden, wie die Abbildung zeigt. Ursprünglich nur auf den Absatzbereich angewandt, machte die abnehmende Fertigungstiefe in der industriellen Produktion und die damit einhergehende steigende Bedeutung der Beschaffung eine spiegelbildliche Anwendung von Marketingerkenntnissen auf den Beschaffungsbereich im Sinne des "Reverse Marketing" bzw. Beschaffungsmarketing erforderlich.
5. Aufgaben des Marketing Die Marketingaufgaben werden vom Marketingmanagement geplant, koordiniert und überwacht. Dazu gehören die —• Marktforschung, die Festlegung der Marketingziele, die MarketingBudgetierung, die Determinierung von -> Markteintrittsstrategien und Marketingstrategien und der abgestimmte Einsatz der Marketing-Instrumente (vgl. Abb. 2) im -> Marketing-Mix.
Nach dem "Vermarktungs"-Gegenstand lassen sich vier Marketingarten unterscheiden: Investitionsgütermarketing, Konsumgütermarketing, Handelsmarketing und Dienstleistungsmarketing. Die Anwendung der Systematik des Marketing wurde inzwischen auf zahlreiche andere Bereiche wie —> Beziehungsmarketing, -> Eventmarketing, Finanzmarke-
Unterscheidungskriterien Marketingareal
MARKETING Lokales Marketing
Regionales Marketing
- ARTEN Uberregionales Marketing
Nationales Marketing
Marketingbereich
Beschaffungsmarketing
Zeitlicher Marketinghorizont
Strategisches Marketing
Marketinggegenstand
Investitionsgütermarketing
Konsumgütermarketing
Leistungspolitik
VerGebrauchs- brauchsgütergütermarketing marketing Distributionspolitik
Marketingpolitik
Abb 1 :
Marketing-Arten
Internationales Marketing
Globales Marketing
Absatzmarketing
Taktisches Marketing
Produkt- Kontrahiepolitik rungspolitik
484
Multinationales Marketing
Operatives Marketing Handels- Dienstmarketing leistungsmarketing
Kommunikationspolitik
Marketing, internationales
Marketing
^ ^ ^ Produkt-\sorti-\ Marke! Ver/KundenA r ^^aualität \ m e n t \ Packung dienst^' Public Relations
\
Persönlicher Verkauf Verkaufsförderung
Werbung
A i
\ \
\
/ J r / Jr
1
Preise, Rabatte
Kredite
Marktsegmente ~
Ar
Absatzkanäle
Abb. 2: Marketing-Instrumente
Lieferzeit
^^Konditionen Logistik (Material- und Informationsflüsse)
^ ^^^ ^^^
(Meffert, H., 1998)
Die Überwachung des Marketingerfolgs geschieht durch das Marketing-Controlling. Durch die rasante Verbreitung des -> Internet (-> E-Commerce) und die damit einhergehende Entwicklung zu Informationsgesellschaften, wird weltweit "nationales" Marketing zunehmend internationalen Einflüssen ausgesetzt (-» Marketing, internationales, Global Marketing) und die internationale Verflechtung nimmt zu. Marketinginformationen und -konzepte werden zügig von einem Land auf andere übertragen. Deshalb ist eine ethisch verantwortliche Gestaltung des Marketing und seiner Instrumente anzustreben (Marketing-Ethik), damit die Menschen als Individuen, die Gesellschaft als Sozialgefuge und die Umwelt als Ressourcengrundlage auch für kommende Generationen respektiert und geschützt werden. Literatur: Becker, J: Marketing-Konzeption, 6. Aufl., München 1998; Geisbüsch, H.-G./Gemel, R./Lauer, H.: Marketing, 2. Aufl., Landsberg/Lech 1991; Kotler, P./Bliemel, F.; MarketingManagement, 9. Aufl., Stuttgart 1999; Meffert, H.: Marketing, in: Tietz, B. (Hrsg.): Handwörterbuch des Marketing, 2. Aufl., Stuttgart 1995, Sp. 14721490; Meffert, H.: Marketing, 8. Aufl., Wiesbaden 1998; Nieschlag, R./Dichtl, E./Hörschgen, H.:
Marketing, 18. Aufl., Berlin 1997; Scheuch, F.: Marketing, 5. Aufl., München 1996; Tietz, B. et al. (Hrsg.): Handwörterbuch des Marketing, 2. Aufl., Stuttgart 1995; Wildemann, H.: Das Just-InTime Konzept, 2. Aufl., Frankfurt 1996.
Helmut Schulte Herbrüggen Marketing, internationales 1. Begriffsabgrenzung Technologiedruck ("Technology push") und Nachfragesog ("demand pull") zwingen Unternehmen zunehmend dazu, sich international zu engagieren. Die weltweit gleich schnelle Verfügbarkeit aktueller Informationen über das -> Internet verstärkt den Konkurrenzdruck und zwingt selbst mittelständische, bisher nur national engagierte Unternehmen, sich im internationalen Marketing zu engagieren. Internationales Marketing befasst sich mit der Erschließung und Bearbeitung internationaler Beschaffungs- und Absatzmärkte. Es besteht in der "Analyse, Planung, Durchfuhrung, Koordination und Kontrolle marktbezogener Unternehmensaktivitäten bei einer Geschäftstätigkeit in mehr als einem Land" (Meffert/Bolz 1998). Internationales Marketing lässt sich zudem funktionsübergreifend als internationales Management komparativer Konkurrenzvorteile definieren (Backhaus et al. 1998): Dabei werden Unternehmensfunktionen wie Beschaffung, Produktion, Vertrieb und Finanzierung geschäfitsfeldbezogen koordiniert, um internationale Kunden besser als die Konkurrenz beispielsweise durch Produkt-, Preis-, Zeit-, Finanzierungs- und Servicevorteile zu überzeugen. 2. Internationale Marketingziele Durch internationales Marketing sollen Ziele wie Gewinnoptimierung, Risikominimierung, Know-how-Verbesserung und Ressourcenoptimierung erreicht werden (Hünerberg 1994); Basis für die Gewinnoptimierung ist vor allem die durch Auslandsengagements erwartete Absatz- und Umsatzausweitung und daraus resultierende Fixkostendegression (-» Erfahrungskurve, Lernkurve). Risikokom485
Marketing, internationales
Marketing, internationales
pensation soll vor allem durch Ausgleich von Konjunkturunterschieden zwischen Zielmärkten erfolgen. Knowhow-Verbesserung ergibt sich beispielsweise aus marktübergreifenden Entwicklungen neuer Technologien und aus Produkt- und Unternehmungsverbesserungen durch vielfaltige kulturelle Einflüsse. Ressourcenoptimierung ist ein vorrangiges Ziel des internationalen -» Beschaffungsmarketing, das preisliche, qualitative, quantitative und zeitliche Vorteile der Beschaffung von Produktionsfaktoren in internationalen Märkten nutzen soll. 3. Einflussgrößen des internationalen Marketing Vom nationalen Marketing unterscheidet sich das internationale Marketing hinsichtlich der größeren Komplexität der Aufgabe. Es sind bei internationaler Unternehmenstätigkeit deutlich mehr Einflussvariablen zu berücksichtigen. Unterschiede treten vor allem auf hinsichtlich: -
Marktchancen und -risiken, Lebensbedingungen und Kundenerwartungen, Sprache und Kultur, Konkurrenzsituation, Infrastruktur, Politik und Gesetzen, Wechselkursen und Zöllen sowie Ressourcen im Zielmarkt.
Zum anderen wird die Komplexität durch die Dynamik, d.h. durch die Veränderung der Einflussvariablen im Zeitablauf, erhöht. 4. Vorgehensweise beim internationalen Markteintritt Für den Eintritt in internationale Märkte kann eine Vorgehensweise gewählt werden, wie sie in der Abbildung 1 beschrieben ist. Wichtig bei der internationalen Marktbearbeitung ist die Gestaltung der Mutter-Tochter-Beziehungen, die sich im Verhältnis der Unternehmenszentrale zu
486
Abb. 1: Internationaler
Markteintritt - Vorgehen
den ausländischen Unternehmenseinheiten ausdrückt. Dies wirkt sich auch auf den Einsatz des marketingpolitischen Instrumentariums (-» Marketing, -> Marketing-Mix) aus, wobei die Frage im Vordergrund steht, ob eine zielmarktorientierte Differenzierung oder eine regional bzw. global einheitliche Gestaltung bzw. Standardisierung der jeweiligen Marketinginstrumente vorzuziehen ist.
Marketing, internationales
Marketing, internationales
Globalisierungserfordernisse/Integrationsvorteile
hoch
Globales Marketing (geozentrische Strategie)
Transnationales Marketing („Think global - act locai"- Strategie)
Internationales Marketing (ethnozentrische Strategie)
Multinationales Marketing (poly- bzw. regiozentrische Strategie)
niedrig
niedrig
hoch
Lokalisierungserfordernisse/Differenzierungsvorteile
Abb. 2: Systematisierung von Internationalisierungsstrategien H./Bolz, J. 1998)
5. Strategien zur Bearbeitung naler Märkte
internatio-
Vier wesentliche Orientierungstypen der Auslandsmarktbearbeitung können unterschieden werden (Heenan/Perlmutter 1979; Hünerberg 1994): •
ethnozentrische Grundorientierung (Stammlandorientierung) Die Auslandsmarketingaktivitäten werden vom Stammhaus dominiert: Steuerung und Realisierung von Marketingkonzepten erfolgen im Ausland aus der Perspektive des Heimatmarktes und entsprechend der stammlandoptimalen Strategie. Diese Orientierung eignet sich bei Zielmärkten, die
(Meffert,
große Ähnlichkeiten zum Stammland aufweisen. polyzentrische Grundorientierung (Gastlandorientierung) Die einzelnen Zielmärkte im Ausland werden gleichgewichtig und individuell bearbeitet: Die Beschaffungs- und Absatzmarketingkonzepte sind auf Besonderheiten, insbesondere kultureller Art, der jeweiligen Märkte zugeschnitten. regiozenirische Grundorientierung (Ländergruppenorientierung) Auslandszielmärkte werden zu homogenen Ländergruppen zusammengefasst: Die Clusterung kann z.B. nach
487
Marketing, internationales kulturellen, sozio-politischen oder ökonomischen Gesichtspunkten erfolgen. Die Entscheidung erfolgt innerhalb der Ländergruppen zentral nach vorheriger dezentraler Entscheidungsvorbereitung. •
geozentrische Grundorientierung (globale Orientierung) Die Auslandsmarketingaktivitäten werden länderunabhängig durchgeführt: Alle Zielmärkte werden als einheitlicher Markt aufgefasst und Entscheidungen werden in einem weltweiten Netzwerk erarbeitet oder zentral getroffen. Kennzeichen dieser Grundorientierung, die als Basis für Global Marketing gilt, ist eine weltweite Personalakquisition für Schlüsselpositionen.
Die Festlegung der internationalen Marktbearbeitung erfolgt in Abhängigkeit von den erwarteten Lokalisierungserfordernissen bzw. Differenzierungsvorteilen einerseits und den Integrationserfordernissen bzw. Globalisierungsvorteilen andererseits. Die obige Abbildung gibt einen Überblick. Das Anfangsstadium der Internationalisierung ist durch die meist ethnozentrische Wahrnehmung erster attraktiver Auslandsgeschäfte geprägt (internationales Marketing). Zwei häufig anzutreffende Pfade der -» Globalisierung sind durch die Pfeile verdeutlicht: Typisch für viele japanische Unternehmen bereits als nächster Schritt ist eine direkte, offensive Globalisierung geozentrischer Prägung. Für zahlreiche europäische und USamerikanische Unternehmen ist hingegen charakteristisch, zunächst multinationale Landesgesellschaften poly- bzw. regiozentrischer Prägung zu entwickeln, bevor sie sich global engagieren. Eine Alternative zum globalen Marketing ist das "Transnationale Marketing". Bei dieser Kombinationsstrategie soll die Ausnutzung der Vorteile und die Vermeidung der Nachteile von multinationalem und globalem Marketing angestrebt wer488
Marketing-Controlling den. Transnationale Unternehmen sind durch folgende Merkmale geprägt (Bartlett/Ghoshal 1990): • • •
ein integriertes Netzwerk, das die globale Wettbewerbsfähigkeit sichert, Flexibilität, die den multinationalen Anforderungen gerecht wird, und weltweite Lernfähigkeit, die globale und lokale Innovationen fördert.
Die transnationale Strategie folgt dem Grundsatz "Think global - act local" und nutzt bei Produktion und Vertrieb einerseits Größenvorteile (-> "economies of scale") und andererseits Synergieeffekte (—1• "economies of scope"). Literatur: Backhaus, K./Biischken, J./Voeth, M.: Internationales Marketing, 2. Aufl., Stuttgart 1998; Bartlett, Ch.A./Ghoshal, S.: Internationale Unternehmensfiihrung, Frankfurt/New York 1990; Heenan, D.A./Perlmutter, H.V.: Multinational Organization Development, Reading 1979; Hermanns, A./Wissmeier, U.K. (Hrsg.): Internationales Marketing-Management, München 1995; Hünerberg, R.: Internationales Marketing, Landsberg/Lech 1994; Kotler, P./Bliemel, F.: Marketing-Management, 9. Aufl., Stuttgart 1999; Meffert, H./Bolz, J.: Internationales MarketingManagement, 3. Aufl., Stuttgart u.a. 1998; Meissner, H.G.: Internationales Marketing, in: Wittmann, W. et al. (Hrsg.): Handwörterbuch der Betriebswirtschaft, 5. Aufl., Stuttgart 1993, Sp. 1871-1888; Meissner, H.G.: Strategisches Internationales Marketing, 2. Aufl., München/Wien 1995; Zentes, J.: Internationales Marketing, in: Tietz, B. et al. (Hrsg.): Handwörterbuch des Marketing, 2. Aufl., Stuttgart 1995, Sp. 1031-1045.
Helmut Schulte Herbrüggen Marketing-Controlling Controlling bedeutet eine Steuerungshilfe für das Management. Durch koordinierte Informationsversorgung erfolgt eine Unterstützung bei den Aufgaben der Planung, Organisation, Mitarbeiterführung und Überwachung. Neben dem zentralen Unternehmenscontrolling gibt es verschiedene Gebiete des Bereichscontrolling, wozu das Marketing-Controlling gehört. Es unterstützt die Entscheidungsträger des -> Marketing, die für ProduktMarkt-Beziehungen des Unternehmens zuständig sind und dabei die Kunden- wie
Marketing-Controlling auch Wettbewerbsorientierung zu beachten haben. Die koordinierte Informationsversorgung beinhaltet sowohl die Informationsbeschaffung aus internen und externen (Marktforschungs-) Quellen als auch die Informationsaufbereitung mit Hilfe geeigneter Auswertungsmethoden. Damit verbindet sich das Bemühen um den Aufbau integrierter Datenbestände, die eine vielfaltige Nutzung zulassen und das Nebeneinander verschiedener, in sich nicht abgestimmter sowie teilweise redundanter Informationsgrundlagen vermeiden. 1. Aufgaben und Instrumente des Marketing- Con trolling Ein wesentlicher Steuerungsbeitrag des Marketing-Controlling besteht in der methodengestützten Informationsbereitstellung fur die strategische und operative Marketing-Planung. In strategischer Hinsicht geht es dabei um die längerfristige Einschätzung von Marktchancen und Bedrohungen sowie um die hierauf beruhende Bestimmung künftiger Märkte bzw. Marktsegmente und der dort Erfolg versprechenden Leistungsangebote ( " D e f i n i n g the Business"). Hierfür werden vorrangig Daten aus der qualitativen -> Marktforschung benötigt, aber auch quantitative Längsschnittinformationen (z.B. aus Panels), die auffällige Veränderungen von Nachfragegewohnheiten aufzeigen. Hinzu kommen interne Angaben, bspw. über einen Strukturwandel der unmittelbaren Kundenbeziehungen oder über veränderte Erfolgsbeiträge verschiedener Produktund Kundengruppen. Instrumente des strategischen Marketing-Controlling sind u.a. das Arbeiten mit Früherkennungsindikatoren und Szenario-Techniken, die Erstellung von Geschäftsfeld- und Kundenportfolios, Techniken der -» Marktsegmentierung oder Suchfeldanalysen für die Planung möglicher Produkt-MarktKombinationen.
Marketing-Controlling Zum strategischen Controlling gehören weiterhin grundlegende Konkurrenzinformationen, die für die wettbewerbspolitische Ausrichtung des Unternehmens wichtig sind und bspw. StärkenSchwächen-Analysen, SWOT-Analysen sowie Benchmarking-Ergebnisse beinhalten (-> Benchmarking). Die konkurrenten- und kundenbezogenen Profilierungsmöglichkeiten des Leistungsangebots werden durch Informationen aus Positionierungsstudien aufgezeigt. Für die operative Planung soll das Marketing-Controlling sicherstellen, dass die relevanten Informationen zur Entscheidungsvorbereitung bereitgestellt werden. Es handelt sich dabei vor allem um Kostendaten aus dem Rechnungswesen und um Marktforschungsinformationen, die sich auf die voraussichtlichen Absatzmengen- oder Erlöswirkungen absatzpolitischer Instrumente beziehen. In kurzfristiger Sicht ist dabei das Prinzip der Veränderungsrechnung zu beachten. Es besagt, dass in einem Entscheidungskalkül (z.B. für die Ermittlung eines gewinnoptimalen Aktionspreises) Kosten- und Erlösgrößen nur insoweit zu berücksichtigen sind, wie sie sich durch die geplante Maßnahme ändern werden. Somit ist es eine Controllingaufgabe, darauf zu achten, dass keine irrelevanten Daten herangezogen werden. Die gezielte Informationsbereitstellung mit Blick auf Organisationseinheiten in Marketing und Vertrieb setzt Informationsbedarfsanalysen für die verschiedenen Zuständigkeitsbereiche voraus. Sie schließt aber auch Beiträge zur Aufstellung von Stellen- oder Abteilungsbudgets sowie entsprechende Berechnungen von Ist-Ergebnissen ein, um die Organisationseinheiten ggf. als -» Cost Center oder -> Profit Center fuhren zu können. Controllinginstrumente sind hier Kostenanalysen, auch unter Rückgriff auf die -* Prozesskostenrechnung, sowie Deckungsbeitragsanalysen (—• Deckungsbeitragsrechnung). 489
Marketing-Controlling Informationen zur Mitarbeiterführung sollen sicherstellen, dass das Verhalten von Mitarbeitern im Einklang mit den Unternehmenszielen steht. Dies betrifft bspw. die Gestaltung von Provisionssystemen für den Verkaufsaußendienst, die verhaltensbeeinflussende Festlegung interner Verrechnungspreise (etwa für die Inanspruchnahme der Marktforschungsabteilung durch Produktmanager) oder den Ansatz des ->• Target Costing im Zusammenhang mit Preisentscheidungen. Das Marketing-Controlling hat die Aufgabe, die Angemessenheit der rechnerischen Ansätze für die Herbeiführung zielentsprechenden Verhaltens zu überprüfen. Es besteht dabei eine Verbindung zum sog. Behavioral Accounting. Ein wesentliches Teilgebiet des Marketing-Controlling besteht in der Überwachung, die Kontrollen i.S. von Soll-IstVergleichen sowie -> Audits einschließt. Soll-Ist-Vergleiche kommen als Ablaufkontrollen, z.B. mit Hilfe der Netzplantechnik, oder als Ergebniskontrollen in Betracht. Marketing-Ergebnisse können erfolgsrechnerisch nach Absatzsegmenten, zuständigen Organisationseinheiten und Maßnahmen im Rahmen des Marketing-Mix überwacht werden. Dabei spielt praktisch die -» Absatzsegmentrechnung eine besonders große Rolle. Sie nimmt Ergebnisaufgliederungen nach Produkten, Aufträgen, Kunden, Verkaufsgebieten und Absatzwegen vor. Das geeignete Instrument hierfür ist das Rechnen mit relativen Einzelkosten und Deckungsbeiträgen. Die Prozesskostenrechnung lässt sich heranziehen, um Indikatoren für die Inanspruchnahme vorgehaltener Kapazitäten durch die verschiedenen Absatzsegmente zu gewinnen. Ergebnisanalysen hinsichtlich bestimmter Maßnahmen des Marketing-Mix beziehen sich oft auch auf nichtmonetäre Wirkungen, z.B. erreichte Bekanntheits- oder Distributionsgrade von Markenprodukten. Während Ergebniskontrollen einen rückblickenden Charakter besitzen, sind Mar490
Marketing-Controlling keting-Audits vorausschauend angelegt. Sie sollen dafür sorgen, dass die adäquaten Rahmenbedingungen für das künftige marktorientierte Handeln geschaffen werden. In diesem Sinne werden die Aktualität der eingesetzten Analyse- und Planungsverfahren, die Konsistenz der strategischen Entwürfe, die Abstimmung der Marketing-Mix-Maßnahmen untereinander und ihre Widerspruchsfreiheit zu strategischen Grundsätzen sowie die Organisationsstrukturen im MarketingBereich überprüft (Verfahrens-, Strategien-, Marketing-Mix- und OrganisationsAudit). 2. Der Beitrag des Marketing-Controlling zum Schnittstellenmanagement Die koordinierte Informationsversorgung durch das Controlling setzt voraus, dass ein Zusammenwirken mit Funktionseinheiten erfolgt, die marketingrelevantes Wissen besitzen, aber aus Gründen der Arbeitsteilung verselbstständigt sind. Eine besonders wichtige Schnittstelle dieser Art besteht zwischen Marketing und Rechnungswesen, wobei darauf zu achten ist, dass vom Rechnungswesen Daten in der unter Marketing-Gesichtspunkten benötigten Aufbereitung bereitgestellt werden. Ähnliche inhaltliche Abstimmungen sind auch mit der unternehmensintemen Abteilung Marktforschung und mit externen Marktforschungsinstituten vorzunehmen. Enge Verbindungen ergeben sich zu den Experten der betrieblichen elektronischen Datenverarbeitung, damit die für ein -> Database-Marketing erforderlichen Grundlagen (Datenbanksysteme, -» Data Warehousing) geschaffen werden. Wenn, wie häufig in der Praxis, der Vertrieb eine eigene Organisationseinheit neben dem Marketing darstellt, ist darauf zu achten, dass für die Entscheidungen in beiden Bereichen eine möglichst integrierte, gemeinsam nutzbare Datenbasis geschaffen und der Informationsaustausch zwischen Marketing und Vertrieb gefordert wird. Weiterhin
Markteintritts-Strategien
Marketing-Controlling bestehen u.a. zur Forschung und Entwicklung sowie zur Produktion Schnittstellen, die besondere Vorkehrungen für effiziente Informationsbeziehungen mit dem Marketing bedingen, z.B. bei Neuproduktprojekten und bei der Abstimmung zwischen Absatzmengen- und Kapazitätsplanungen. Das MarketingControlling übernimmt "Interface"Aufgaben zur Bewältigung dieser Schnittstellen. 3. Die organisatorische Verankerung des Marketing-Controlling In kleineren Unternehmen sind i.d.R. keine gesonderten Stellen für MarketingController eingerichtet, sondern entsprechende Aufgaben werden - mehr oder weniger systematisch - vom Management selbst wahrgenommen oder auf Mitarbeiter des operativen Absatzbereichs übertragen. Sofern in Mittelbetrieben eine zentrale Controllerstelle besteht, sind dort oft Funktionen des Bereichscontrolling mit angesiedelt. In größeren Unternehmen findet sich aber häufig eine ausdrückliche dezentrale Zuständigkeit für Marketingfund manchmal separat auch für Vertriebs-) Controlling. In diesen Fällen stellt sich die Frage, wie eine enge Einbindung in das Marketing und zugleich die erforderliche Abstimmung mit dem zentralen Controlling sichergestellt werden kann. Nach dem sog. Dotted-Line-Prinzip wird vorgeschlagen, den Marketing-Controller fachlich dem Zentralcontrolling zu unterstellen, personell aber eine Zuordnung zur MarketingLeitung vorzunehmen. Diese Lösung erscheint sachlich plausibel, ist aber nicht frei von Konfliktmöglichkeiten. Literatur: Ehrmann, H.: Marketing-Controlling, 3. Aufl., Ludwigshafen (Rhein) 1999; Köhler, R.: Beiträge zum Marketing-Management: Planung, Organisation, Controlling, 3. Aufl., Stuttgart 1993; Köhler, R.: Marketing-Controlling: Konzepte und Methoden, in: Reinecke, S./Tomczak, T./Dittrich, S. (Hrsg.): Marketingcontrolling, St. Gallen 1998, S. 10-21; Link, J./Gerth, N./Voßbeck, E.: Marketing-Controlling, München 2000.
Richard Köhler
Marketing-Planung -* Marketing-Controlling Market-Pull -> Innovationsmarketing Markowitz-Diversifikation -> Portefeuille-Theorie Markteintrittsspiel -> Spieltheorie Markteintritts-Strategien Internationale Markteintrittsstrategien lassen sich nach dem Grad der Ressourcenbindung in —> Export, —• Lizenzvergabe, Bildung strategischer Allianzen, Akquisition eines Unternehmens und Aufbau eines Unternehmens einteilen: •
Export: Der Export von Produkten und Dienstleistungen ist eine sehr übliche Markteintrittsstrategie, wenn keine Handelsbarrieren bestehen sowie keine allzu großen Unterschiede in Kundenbedürfnissen und Rechtsnormen.
•
Lizenzvergabe ins Ausland: Durch eine Lizenzvergabe können bei niedrigen Kosten und Risiken ausländische Märkte entwickelt werden. Die zusätzlich erwirtschaftbaren Erträge beschränken sich allerdings auf die Lizenzgebühr (-> Lizenzierung).
•
Strategische Allianzen: Durch eine -> strategische Allianz werden Kosten, Risiken und Erträge mit einem Partner geteilt. Know-how Transfer zwischen den Partnern kann den Markteintritt erleichtern aber auch zum Verlust bestehender Wissensvorteile führen.
•
Akquisition: Der Kauf eines Unternehmens bietet schnellen Zugang zu einem neuen Markt. Dafür müssen unter Umständen hohe Kosten und Risiken in Kauf genommen werden. Dies gilt besonders für Zielmärkte, in denen das kaufende Unternehmen nur wenig Erfahrung aufweist und bei stark differierende -> Unternehmens491
Markteintritts-Strategien kulturen tion). •
(-»Unternehmensakquisi-
Aufbau eines Unternehmens: Hohen Kosten und Risiken sowie einem hohen Zeitaufwand steht das höchste Maß an Kontrolle über den Markteintritt gegenüber.
Marktforschung Durch den Wandel vieler Märkte zu globalen -» Käufermärkten hat die Planung des unternehmerischen Marktauftritts erheblich an Bedeutung gewonnen. Hierfür kann die Marktforschung eine fundierte Basis bieten: Was wollen die Käufer, was kann die Konkurrenz, wohin geht der Trend? Aufbauend auf dieser Bestandsaufnahme lassen sich dann ein Leitbild entwickeln ("Welche Angebote mit welchen Technologien für welche Zielgruppen?"), strategische Entscheidungen fällen (z.B. Preisfiihrerschaft oder Differenzierung) und operative (-» Marketing-Mix) Maßnahmen ergreifen. Datenerhebung und Datenauswertung sind die beiden Arbeitsgebiete der Marktforschung: 1. Datenerhebung Die Datenerhebung kann sich auf Datenbestände stützen, die bereits früher erhoben wurden und in betriebsinternen oder -externen Datenbanken verfügbar sind (z.B. Branchendaten, Lizenzangebote, Ausschreibungen). Anders als bei dieser Sekundärerhebung werden bei Primärerhebungen Informationen unmittelbar an ihrem Entstehungsort erfasst, was den Vorteil bietet, dass sie exakt auf die jeweilige Problemstellung zugeschnitten sind. Grundlage einer Primärerhebung ist meist nicht die Grundgesamtheit, sondern eine Stichprobe daraus. Diese sollte möglichst repräsentativ sein, also ein "verkleinertes Abbild" der Grundgesamtheit darstellen. Von den Ergebnissen der Stichprobenerhebung schließt man dann auf den Zustand der Grundgesamtheit. Nachteilig an den repräsentativen Aus492
Marktforschung wahlverfahren ist, dass sie recht kostspielig sein können, da sie stets den Zugriff auf alle Elemente der Grundgesamtheit voraussetzen. Man nutzt deshalb auch nicht-repräsentative Auswahlverfahren, insbesondere die Auswahl aufs Geratewohl (einfache Passantenbefragung) oder die Quotenauswahl (Passantenbefragung mit Vorgaben, z.B. 50% Frauen). Beim Schluss auf die Grundgesamtheit ist hier allerdings äußerste Vorsicht geboten. Als Methoden der Primärerhebung kommen Befragung, Beobachtung und Experiment in Betracht: •
Eine Befragung lässt sich als persönliches oder als schriftliches Interview durchfuhren. Beim persönlichen Interview sind dem Interviewer normalerweise die Fragestellungen genau vorgegeben; die Alternative zum standardisierten ist das freie Interview mit einem - nur grob strukturierten - Explorationsleitfaden. Beide Varianten können sowohl im Face-to-Face-Interview als auch im Telefoninterview praktiziert werden. Telefonbefragungen lassen sich als zweistufiges Auswahlverfahren konzipieren: In einem ersten Schritt wird eine Stichprobe der an das Telefonnetz angeschlossenen Haushalte gezogen, wobei freilich die Verbreitung der Anrufbeantworter und Geheimnummern die Repräsentanz stört. In einem zweiten Schritt wird - am Telefon eine zufällige Auswahl des zu befragenden Haushaltsmitglieds vorgenommen. Dabei sollte ein Verfahren herangezogen werden, das jeder Person die gleiche Auswahlchance gibt. Als geeignete Vorgehensweise steht hierzu die " Last-Birthday-Methode" zur Verfügung: Sie schreibt die Befragung derjenigen Person vor, die zuletzt Geburtstag hatte. Dieses Vorgehen führt allerdings bei der zunächst erreichten Person oft zu Unverständnis und dann zum Abbruch des Inter-
Marktforschung
Marktforschung
Diskrepanz bestehen. Auch bei der Frage nach der Wichtigkeit verschiedener Aspekte bzw. Eigenschaften eines Befragungsgegenstandes macht man oft die Erfahrung, dass alles wichtig ist, weil der Proband nicht abwägen muss; "Trade offBeziehungen" (z.B. zwischen Beschleunigung und Benzinverbrauch) sind aber typisch für reale Entscheidungssituationen. Diese und andere Probleme lassen sich entschärfen durch die Nutzung bestimmter Befragungsdesigns in Verbindung mit speziell entwickelten Auswertungsverfahren. Die Ausschöpfungsquote bestimmt, wie viele Elemente der - repräsentativ gezogenen - Stichprobe man erreicht hat. Es leuchtet unmittelbar ein, dass eine niedrige Ausschöpfungsquote (z.B. 20%) der Stichprobe jegliche Repräsentanz nimmt. Andererseits sind in Befragungen Ausschöpfungsquoten von über 50% kaum zu realisieren. Man behilft sich dann mit der Annahme, dass die Erreichten eine Zufallsauswahl in der Stichprobe sind.
views. Bei Telefoninterviews werden häufig computergestützte Programme eingesetzt (z.B. CATI: Computer Assisted Telephone Interview): Der Interviewer bekommt die Fragen am Bildschirm gezeigt und gibt die Antworten sofort in das Terminal ein ("Bildschirminterview"); die erhobenen Daten werden automatisch auf Plausibilität geprüft, etwaige Fehler dem Interviewer gemeldet und durch Rückfrage beim Probanden korrigiert. Für die anschließende Datenauswertung können die kodierten Antworten unmittelbar abgerufen werden. Beim schriftlichen Interview wird der Fragebogen ausgelegt (z.B. im Hotel) oder über die Post zugestellt. Persönliche Interviews sind vergleichsweise teuer, und der Interviewer kann durch sein Auftreten - ungewollt - die Antworten beeinflussen (Interviewer-Bias). Beim schriftlichen Interview stört vor allem der mangelnde Rücklauf, dem man mit Nachfassaktionen und Gewinnanreizen (bei denen die Befragten allerdings ihre Anonymität aufgeben müssen) beizukommen versucht. Ferner ist nicht sichergestellt, dass die Probanden spontan und in der vorgegebenen Reihenfolge antworten; man muss vielmehr davon ausgehen, dass sie (oder sogar Dritte) den Fragebogen im Lichte aller Fragen ausfüllen. Nicht vergessen sollte man in Befragungen die Angaben zur Person (zum Unternehmen usw.), da dies die Auswertungsmöglichkeiten erheblich erweitert. Entscheidend für die Verlässlichkeit der Befragungsergebnisse sind Befragungsdesign und Ausschöpfungsquote: So neigen die Befragten z.B. zu sozial erwünschten Antworten: Man äußert sich so, wie man meint, dass man sich äußern solle. Zwischen den bekundeten Absichten, Einstellung, Werten usw. und dem tatsächlichen Handeln kann dann eine große
•
Beispiele für die Beobachtung als Erhebungsverfahren sind Kundenlaufstudien in Geschäftsräumen und "teilnehmenden Beobachtungen", bei denen der Beobachter selbst als Handelnder auftritt und bestimmte Reaktionen der Probanden testet. Vorteilhaft an der Beobachtung ist, dass sie nicht von der Auskunftsbereitschaft des Probanden abhängt und tatsächliches Verhalten registrieren kann. Andererseits bleiben die dem Handeln vorausgehenden Entscheidungsprozesse im Dunkeln. Außerdem muss man aufs Geratewohl bzw. nach einer Quotenauswahl - also nicht-repräsentativ beobachten.
•
Das Experiment ist Befragung, Beobachtung oder beides, allerdings innerhalb einer kontrollierten Versuchsanordnung mit vorgegebenen Rahmen493
Marktforschung bedingungen. Bei künstlichen Rahmenbedingungen spricht man von Laborexperiment, bei natürlichen von Feldexperiment. Hauptanwendungsgebiete des Laborexperiments im Marketing sind die (Kauf-) Motivforschung sowie die Produkt- und Werbeforschung. Häufig in Labortests eingesetzte Instrumente sind z.B. Augenkameras (zur Aufzeichnung des Blickverlaufs bei Werbeanzeigen), mit Produkten bestückte Schnellgreifbühnen (bei Verpackungstests) und Assoziationstests (bei Produktnamen). Ein besonderes Problem besteht darin, dass sich die Untersuchungspersonen der Testsituation bewusst sind und deshalb möglicherweise atypisch auftreten ("Laborstress"). Die am weitesten entwickelten Formen eines Feldexperiments sind Markttest und Panelerhebung: Auf einem - eng begrenzten - Testmarkt wird ein neues Produkt probeweise verkauft, um seine Marktgängigkeit zu erkunden oder eine Werbekampagne durchgeführt, um deren Verkaufswirksamkeit zu prüfen. Oft empfiehlt sich die zusätzliche Beobachtung eines Kontrollmarktes, um aus der unterschiedlichen Entwicklung genauere Rückschlüsse zu ziehen. Der Vorteil des Testmarktes besteht in seiner Realitätsnähe, problematisch sind hingegen Zeitbedarf und Öffentlichkeit: Die Konkurrenz wird frühzeitig informiert und kann "mittesten"; sie kann auch den Testmarkt "unterwandern", indem sie dort (z.B. mit Sonderpreisen) reagiert, wie sie es national nicht könnte. Ferner sind Testmärkte in ihrer soziodemographischen Struktur meist nicht repräsentativ. Eine relativ neue Entwicklung stellen Labortestmärkte dar: Zunächst werden Probanden über Einstellungen und Kaufabsichten befragt, im Labor mit Werbespots und Produktangeboten konfrontiert, zum Pro494
Marktforschung bieren im häuslichen Umfeld aufgefordert und abschließend erneut interviewt. Die Öffentlichkeit ist ausgeschlossen, und der Laborstress hält sich in Grenzen. Beim HaushaltsPanel tragen die Mitglieder eines Haushalts alle Einkäufe (Art, Menge) sowie die Umstände des Einkaufs (Datum, Uhrzeit, Geschäft) gegen Honorar in ein Haushaltsbuch ein. In gewissen Zeitabständen werten dann Marktforschungsinstitute die Haushaltsbücher aus und bieten gegen Bezahlung Interessenten Informationen an (z.B. bevorzugte Einkaufstage, Markenwechselverhalten). Mittlerweile wurden die Haushaltsbücher durch Handscanner ersetzt, die den EAN-Strichcode auf den Produktverpackungen erfassen; die weiteren Angaben werden über eine Tastatur direkt und/oder über Strichcodes aus einem Handbuch eingegeben. Noch bequemer ist die Erfassung der Einkäufe am Kassenterminal bei Einlesen der Identifikationskarte des Haushalts. Eine lückenlose Erfassung des Einkaufsgeschehens setzt hier jedoch voraus, dass alle Einkäufe der Panelhaushalte in angeschlossenen Scanner-Geschäften stattfinden. 2. Datenauswertung Notwendige Ergänzung der Datenerhebung ist die systematische Datenauswertung. Insbesondere die computergestützte Datenauswertung erlaubt es, große Datenmengen mit hochentwickelten Analysemethoden zu bearbeiten. Hierzu müssen die Antworten bzw. Merkmale der Probanden zu einer Ziffernfolge kodiert und - mittels einer Eingabemaske — auf den Rechner übertragen werden. Ausgangspunkt der Datenauswertung ist dann eine Datenmatrix, in der jede Zeile die Merkmale eines Probanden enthält. Wertet man - spaltenweise - einzelne Merkmale über alle Probanden aus, spricht man von einem "univariaten Verfahren" (z.B. die Alters- oder Einkommensstruktur). Be-
Marktplatz
Marktforschung trachtet man hingegen zwei Merkmale gleichzeitig, dann geht man bivariat vor. Möglicherweise lässt sich so ein Zusammenhang (z.B. zwischen Alter und Einkommen) aufdecken. Allerdings kann dieser in der Stichprobe gefundene Zusammenhang zufallig sein, so dass er nicht auf die Grundgesamtheit übertragbar ist. Zur Überprüfung des Stichprobenzusammenhangs müssen deshalb Signifikanztests durchgeführt werden. Die multivariaten Verfahren (-» multivariate Analyseverfahren) erlauben die simultane Auswertung vieler Merkmale: Wie "Spürhunde" suchen sie Auffälligkeiten in der gesamten Datenmatrix. Die wichtigsten - mittlerweile fest etablierten multivariaten Verfahren der 1. Generation sind -> Faktorenanalyse, Clusteranalyse,
• • •
Gerade B2B-Marktplätzen wird ein enormes Umsatzwachstum vorausgesagt: Forrester Research prognostiziert, dass im Jahr 2004 alleine in den USA Transaktionen mit einem Volumen von US-$ 2,7 Billionen über diese Marktplätze abgewickelt werden. B2B-Marktplätze lassen sich nach dem Beschaffungszweck der gehandelten Güter in zwei Arten einteilen: •
Horizontale B2B-Marktplätze adressieren die Beschaffung indirekter Güter. Darunter werden sog. MROGüter (Maintenance, Repair, Operating) wie Ersatzteile, Büromaterial, Hilfs- und Betriebsstoffe zusammengefasst. Diese Güter sind meist branchenunabhängig und gehen nicht direkt in den Beschaffungsprozess ein.
•
Vertikale Marktplätze werden direkte Güter (Rohstoffe, Halbfertig- und Fertigerzeugnisse) ausgetauscht. Diese gehen in den Produktionsprozess ein und sind daher branchenabhängig. Der Marktplatzbetreiber benötigt fundiertes Wissen über die Branche.
Diskriminanzanalyse, -> Varianzanalyse, -> Regressionsanalyse und Multidimensionale Skalierung. Wichtige Verfahren der 2. Generation sind LISREL und -> neuronale Netze. Helmut Schmalen Marktkapitalisierung Die Marktkapitalisierung gibt den aktuellen Börsenwert des Unternehmens an. Sie berechnet sich aus der Gesamtzahl der umlaufenden Aktien multipliziert mit dem aktuellen Kurs der Aktie. Interessant ist diese Kennzahl zum Beispiel bei Spekulationen über eine mögliche Übernahme einer Aktiengesellschaft, da die Marktkapitalisierung angibt, welchen Betrag das übernehmende Unternehmen mindestens aufzubringen hat.
Daneben bietet sich eine ergänzende Klassifikation in abhängige und unabhängige Marktplätze an: •
Marktplatz Marktplätze sind elektronische Märkte für den Handel mit Gütern und Dienstleistungen über das -»Internet oder ->• Extranet. Sie stellen damit einen Teilbereich des -> E-Commerce dar. Je nach Herkunft der dort agierenden Anbieter und Nachfrager (Business oder Consumer) lassen sich folgende Formen unterscheiden:
B2B-Marktplätze: Unternehmen handeln mit Unternehmen. B2C-Marktplätze: Unternehmen handeln mit privaten Haushalten. C2C-Marktplätze: Private Haushalte handeln unter sich.
•
Abhängige Marktlätze werden von einem oder mehreren großen Unternehmen geführt. Ihre Ziele sind einfachere Zusammenarbeit sowie bessere Koordination mit zuliefernden oder die Leistung abnehmenden Unternehmen und damit die indirekte Gewinnerzielung (www.covisint.com). Unabhängige Marktplätze werden von einem eigenständigen Marktplatzbetreiber geführt. Sein Ziel liegt in der direkten Gewinnerzielung über pro495
Marktplatz zentuale Beteiligung an den vermittelten Transaktionen oder über die von Marktteilnehmern verlangten Mitgliedsbeiträge (www.band-x.com). Der Marktplatzbetreiber übernimmt die Verantwortung für den laufenden Betrieb des Martkplatzes. Er schafft die Rahmenbedingungen für den Abschluss rechtsverbindlicher Verträge, legt verbindlich die Datenformate für alle Marktteilnehmer fest und steuert - bei vertikalen Märkten - branchenbezogene Nachrichten und Informationen bei. Zudem legt der Betreiber den Preisfindungsmechanismus fest (-> Internet-Auktion), und bindet wertschöpfende Zusatzleistungen (etwa Logistik, Qualitätskontrolle und ähnliches) in die Funktionalität Marktplatzsoftware ein. Wichtigste Funktion des Marktplatzbetreibers ist aber die Schaffung einer "kritischen Masse" von Marktteilnehmern: Nur wenn genug Anbieter und Nachfrager vorhanden sind, kommt der Handel in Schwung und nur dann entstehen die typischen Mehrwerte eines Marktplatzes: Mehrwerte für die Anbieter: • • •
Geringe Akquisitionskosten Aggregation kleinerer Orders Elektronischer Ordereingang, evtl. im EDI-Format (-> Electrtonic Data Interchange)
Mehrwerte für die Nachfrager: • • •
Hohe Markttransparenz Verbesserte Beschaffungsprozesse Aggregation kleiner Nachfragemengen
Marktsegementierung Die Marktsegmentierung ist ein Instrument des -> Marketings, der -» Produktgestaltung und der -> Preispolitik. Ein Unternehmen teilt dabei den gesamten Markt mit Hilfe der - • Marktforschung in unterschiedliche Teilbereiche ein, sei es nach regionalen, demographischen oder anderen Merkmalen.
496
Mass Customization Für jeden Teilmarkt lassen sich dann die Kundenbedürfnisse feiner ermitteln. Das Unternehmen kann seinen -> MarketingMix entsprechend exakt abstimmen oder sich auf Teilmärkte konzentrieren, in denen es besondere Wettbewerbsvorteile sieht (-> Nischenstrategie). Maslows Bedürfnishierarchie Die Maslowsche Bedürfnishierarchie findet ihre Anwendung im Bereich des -> Konsumentenverhaltens im Marketing sowie als Inhaltstheorie der -> Motivation. Sie stellt einen Erklärungsansatz für die Motive des Handelns von Personen dar. Maslow drückt die Stellung von Motiven in fünf Hierarchiestufen aus. Mit erreichen einer höheren Hierarchieebene treten andere Motive des Handelns in den Vordergrund. Die fünf Stufen sind physiologische Motive (z.B. Durst, Sexualität), Sicherheit und Geborgenheit (z.B. Stabilität, Schutz), Zuwendung und Liebe (z.B. Abneigung gegen Einsamkeit), Selbstwertschätzung (z.B. Prestige, Anerkennung) und Selbstverwirklichung (z.B. Humor, Kreativität), wobei die Selbstverwirklichung die höchste Hierarchiestufe darstellt. Trotz der Kritik an diesem Modell aufgrund des mangelnden Gehalts sowie der unpräzisen Begriffe und Hypothesen hat sich das Model als gängiger Erklärungsansatz durchgesetzt. Auch im Bereich der deutschen Verbraucherpolitik findet die Maslowsche Bedürfnispyramide ihre Anwendung. Kritisch kann angemerkt werden, dass Maslow die Bedürfnisebenen "scharf voneinander abgrenzt; eine Weiterentwicklung berücksichtigt daher fließende Übergänge zwischen den Motiven, wobei aber immer ein Motiv das dominierende ist. Mass Customization Beim Konzept der "Mass Customization" handelt es sich um eine Wortschöpfung aus "Mass Production" und "Customization". Die englische Bezeichnung findet
Mass Customization
Mass Customization häufiger Anwendung als die übliche deutsche Übersetzung "Maßgeschneiderte Massenfertigung". Mass Customization ermöglicht kundenindividuelle Problemlösungen auf einem Kostenniveau, das dem von standardisierten Leistungen nahe kommt. "Kunde" steht für ein überschaubares Kundensegment oder für einen Einzelkunden (Segment of one). Ursprünglich wurde mit Mass Customization ein industrielles Produktionssystem bezeichnet, das die Nachteile der Massenproduktion ausgleicht. Als Inbegriff der Massenproduktion gilt das T-Modell von Ford aus der Zeit nach dem 1. Weltkrieg. Ein aktuelles Beispiel für produktionsseitige Mass Customization ist der Übergang von Einheitsmedikamenten auf "maßgeschneiderte Medikamente" in der Pharmabranche. In einigen Unternehmen repräsentiert Mass Customization einen Geschäftstyp zwischen dem standardisierten Produktgeschäft ("Boxen" in der ITBranche, Massentourismus, Massengeschäft der Banken) und dem kundenorientierten Lösungsgeschäft (Projektgeschäft, -* Einzelfertigung). Zwischenzeitlich sieht die Fachwelt in der Mass Customization mehrheitlich eine hybride Wettbewerbsstrategie, mit der Leistungsvorteile ("Klasse") und Kostenvorteile ("Masse") gleichzeitig realisiert werden können. Zuvor wurden -> Kundenorientierung und Kostenorientierung als unvereinbare Gegensätze angesehen. Anders als beim Outpacing (—> Outpacing-Strategie) und verwandten Hybridstrategien werden im Mass Customization-Ansatz die Bemühungen um Kundennutzen und kostenreduzierende Scale- und Scope-Effekte nicht sequenziell über den Marktlebenszyklus verteilt (z.B. nach dem Prinzip "Erst Kundenorientierung, dann Kostenorientierung"), sondern simultan verfolgt. Inzwischen hat sich das Anwendungsgebiet von Mass Customization auch auf Einzelfertiger und Dienstleistungsunternehmen ausge-
weitet. Mit anderen Worten schlägt sich der Hybridcharakter von Mass Customization nicht nur in einer ServiceOrientierung der Industrie, sondern auch in einer Industrialisierung des Dienstleistungssektors nieder. Eine Mass Customization-Strategie wird dabei typischerweise von einem Verbund von Unternehmen (z.B. einer -> Wertschöpfungskette aus Teile- und Systemlieferanten, Hersteller, Value Added Reseller, Logistik-Dienstleistern, Vertriebspartnern) und nicht von einem einzelnen Anbieter verfolgt. Innerhalb dieses Verbunds sind einzelne Einheiten eher für Masse-Vorteile und andere primär für Klasse-Vorteile zuständig. Mitunter wird zur Beschreibung von Mass Customization auf die Management-Konzepte und -Werkzeuge zurückgegriffen, die dort sehr häufig zur Anwendung kommen. Hierzu zählen vor allem "Losgröße 1", "1:1 -Marketing", "Kundendatenbanken", "Baukastensysteme", "Badge Engineering", "Late fit", "Quick response", -» "Geschäftsprozessoptimierung", "Plattformstrategien", "Prosumer" und "Dienstleistungskranz". Einen systematischen Überblick über Mass Customization vermittelt eine Darstellung der fünf Management-Sparten, die als Ansatzpunkte für eine simultane Kunden- und Kostenorientierung dienen: •
Service-Customizing: Für die Industrie bildet die Bereitstellung von produktbezogenen Diensten den ersten Schritt in Richtung auf das kundenorientierte Lösungsgeschäft. Ein variantenarmes Sachleistungsangebot wird durch kundenspezifische Dienste individualisiert. Hier reicht das Spektrum von klassischen industriellen Dienstleistungen wie etwa technischer Kundendienst und Projektierung über die Beratung und Finanzierung (z.B. -» Leasing) bis hin zu Betreibermodellen.
497
Mass Customization
Mass Customization •
Selbst-Customizing: Hierbei erfolgt die Leistungsindividualisierung in der Regie des Kunden. Die Leistungen werden nicht in Varianten angeboten, sondern enthalten eine eingebaute Flexibilität. Durch verstellbare Sitze und Lenksäulen oder einfache Programmierungen ist es dem Kunden möglich, ein Fahrzeug oder einen Computer auf seine individuellen Gegebenheiten anzupassen. Dies kann beim dynamischen Self-Customizing auch in späteren Lebenszyklusphasen geschehen, beispielweise beim Austausch von Karosserie-Modulen des Smart. Technologische Entwicklungen erweitern das Spektrum der SelfCustomizing-Optionen.
aber früh beim Hersteller (z.B. integrierte Kindersitze) erfolgen. Erkenntnisse aus dem Business Process Reengineering (Kunde-zu-Kunde-Prozesse) sprechen ftir eine frühe Einbindung des Kunden in den Prozess der Leistungsspezifikation, etwa nach dem Vorbild des -> Simultaneous Engineering. Dienstleistungsprozesse lassen sich durch verstärkte kundenneutrale Vorfertigung kostengünstiger gestalten. Diese kostenfokussierte Prozesssegmentierung wird beispielsweise im Bauhandwerk und in der Fast-FoodBranche betrieben. •
Zeitmanagement: Auch innerhalb der MC-Strategie kommt dem Time Based Management eine zentrale Bedeutung zu. Hier geht es einmal darum, alle Beschleunigungspotenziale durch Simultanisierung und Synchronisierung von Abläufen, Vermeidung von Medienbrüchen und durch schnittstellenarme Aufbauorganisation (z.B. Installation von Prozessinhabern, Auftragszentren, Rundumsachbearbeitung) auszuschöpfen. Durch dieses Speed Management (kurze Antwortzeiten und Auftragsdurchlaufzeiten) wird der Zeitsouveränität der Kunden Rechnung getragen. Mit Blick auf die Kosten gilt es aber auch, Leistungsprozesse zu verstetigen. Zu diesem Zweck sollte der sogenannte Grenzänderungszeitpunkt, zu dem der Kunde spätestens eine Änderung der Spezifikationen vornehmen kann, möglichst nach vorn verlegt werden. Nur so lassen sich die hohen Kosten später Änderungen vermeiden.
•
Modulare Produktgestaltung: Im Rahmen von Baukastensystemen basiert die Kundenindividualisierung auf den Gesetzen der Kombinatorik: Der Kunde kann seine persönliche Leistungskonfiguration aus einer Fülle möglicher Varianten auszuwählen. Die Palette von Modularisierungsformen reicht von Textbausteinen über Soft-
Das klassische Selbst-Customizing in Form der Selbstbedienung (z.B. Flugtickets, Selbstbedienungsterminals in Banken) hat durch den Einsatz von Smart Cards (-> Datensicherheit) und vor allem durch das E-Business (Bestellung über -> Internet; -> ECommerce) einen kräftigen Schub erhalten. Die Informationstechnologie eröffnet außerdem mehrere Möglichkeiten eines automatischen Customizing. Dies gelingt etwa durch den Einsatz intelligenter Einkaufsagenten, die sich als lernende Systeme ein im Zeitablauf optimiertes Modell von ihrem Auftraggeber und dessen Konsumgewohnheiten machen können. •
Segmentierung des Wertschöpfungsprozesses: Der Prozess der Leistungserstellung wird dabei in ein kundenneutrales und ein kundenspezifisches Segment aufgeteilt. In der Fabrik entspricht diesem Prozesssplitting die gemischte Steuerung des Materialflusses nach dem auftragsunabhängigen Push- und dem auftragsspezifischen Pull-Prinzip. Bei Sachleistungen wie z.B. Automobilen kann die Kundenindividualisierung erst sehr spät beim Zubehör-, Autohändler, Fahrzeugveredler bzw. Logistik-Dienstleister oder
498
MbO
Mass Customization ware-Komponenten und modular konzipierten Musterverträgen bis hin zur Plattform-Strategie und zum ModularVehicle-Konzept. Plattform- Strategien, die inzwischen nicht nur in der Automobilindustrie, sondern auch in Banken zur Anwendung kommen, nutzen die Fixkostendegressionseffekte von Gleichteilen (z.B. identische Bodengruppen in mehreren Baureihen oder gar Marken). Der Anbieter betreibt über eine Modularisierung der Gesamtleistung in standardisierte Teile ein spezifisches Komplexitätsmanagement (s.a. -»Komplexitätskosten). Es ermöglicht die Bereitstellung einer kundengerechten Vielfalt von Leistungen bei überschaubarer Vielfalt der Module und Varianz der Prozesse. Ein derartiges Komplexitätsmanagement ist allerdings auf eine leistungsfähige Informations-, Konstruktions- und Prozesssteuerungstechnologie angewiesen, die auch Prozesse über Abteilungs-, Standort- und Unternehmensgrenzen hinweg unterstützt. Literatur.: Piller, F.T.: Kundenindividuelle Massenproduktion. Die Wettbewerbsstrategie der Zukunft, München-Wien 1998; Pine, B.J.: Maßgeschneiderte Massenfertigung: Neue Dimensionen im Wettbewerb, Wien 1994.
Michael Reiß Massenfertigung Massenfertigung liegt vor, wenn das Produktionsprogramm aus nur einer Produktart besteht, die dafür in großer Stückzahl hergestellt wird, sich somit der Produktionsprozess laufend wiederholt. Das Gut wird in einer möglichst gleichbleibenden Qualität gefertigt. Klassische Beispiele der Massenfertigung sind die Stromerzeugung oder die Trinkwasserproduktion (s.a. -»Mass Customization) Maßgeblichkeit -* Grundsatz ordnungsgemäßer Buchführung (GoB), nach dem die Handelsbilanz für die Steuerbilanz maßgeblich ist.
Material Requirement Planning (MRP I) Das MRP I Konzept beschränkt sich auf die Planung eines Ablaufkonzepts für das benötigte Material. Die Funktionen umfassen die terminierte Bedarfsermittlung, die Losgrößenplanung, die Planung der Lagerhaltung und die Planung des Kapazitätsbedarfs. Im Gegensatz dazu integriert das Konzept des -> Manufactoring Resource Planning (MRP II) die Planung und Steuerung zu einer zusammenhängenden Logistikkette. Materialwirtschaft Ziel der Materialwirtschaft ist die Bereitstellung der Produktionsfaktoren für das Unternehmen. Diese Produktionsfaktoren sind in der benötigten Art, Qualität und Menge rechtzeitig am vorgegebenen Einsatzort für den Produktionsprozess zielorientiert zur Verfugung zu stellen. Die Aufgabe der Materialwirtschaft besteht demnach aus der Bestimmung des qualitativen und quantitativen Materialbedarfs, der -> Beschaffung des Materials, der Lagerhaltung (-» Lagermanagement), der Bewegung des Materials und der Entsorgung. Die betriebswirtschaftliche Bedeutung der Materialwirtschaft ist vor allem dadurch gekennzeichnet, dass die Materialkosten einen großen Kostenblock in den Unternehmen stellen. Damit einher gehen i.d.R. hohe Lagerkosten und damit verbundene Kapitalbindungskosten. Matrixorganisation Organisationsformen, onsstrukturen
-> Organisati-
MbD (Management by Delegation) -> Management by Delegation MbDC (Management by Direction and Control) -> Management by Direction and Control MBNQA -> Malcolm Baldrige National Quality Award MbO (Management by Objectives) Management by Objectives 499
Menschenbilder
M-Commerce M-Commerce M-Commerce (Mobile Commerce) bezeichnet den Handel mit Gütern oder Dienstleistungen über mobile Endgeräte. Schätzungen gehen davon aus, dass bis 2005 die Anzahl mobiler - und trotzdem mit dem -* Internet verbundener - Geräte die Anzahl der stationären Geräte übersteigen wird. Mit neuer Technik und größeren Datenübertragungsraten (Nutzung der UMTS-Frequenzen) wird die Nutzung der Geschäftsmodelle des bisherigen -> E-Commerce überall möglich. Mediaselektionsmodell -> Werbestreuplanung Mediawerbung Bei Werbung in Insertionsmedien (Zeitungen, Zeitschriften, Außenwerbung) oder in elektronischen Medien (Fernsehen, Kino, Hörfunk) spricht man von Mediawerbung. Ihre Planung vollzieht sich in zwei Phasen: die -* Werbebudgetierung und die -* Werbestreuplanung. Medieninvolvement -> Involvement Megatrend Trendforschung Mehrfachbesetzungssysteme Mehrfachbesetzungssysteme sind —• Arbeitszeitmodelle, die zur konkreten Ausgestaltung des -> Arbeitszeitmanagements eingesetzt werden. Bei den Mehrfachbesetzungssystemen werden Arbeitsplätze nicht nur von einem, sondern von einer Mehrzahl von Arbeitnehmern abwechselnd besetzt. Beispiel: 5 Arbeitnehmer besetzen 4 Arbeitsplätze (= 5:4-System). Vorteil: Möglichkeit der Besetzungsdifferenzierung, d.h. Reduzierung der Besetzungsstärke zu bestimmten Zeiten, die beim herkömmlichen Schichtsystem (Anzahl der Arbeitnehmer je Arbeitsplatz entspricht Anzahl der Schichten) nicht möglich ist. Karl-Friedrich Ackermann/ Simone Vollmer
500
Mehrheitsbeteiligungen -> Unternehmenszusammenschluss Memorandum of Understanding (MoU) ->• Letter of Intent (LOI) Menschenbilder Menschenbilder sind stark vereinfachende Typenbildungen. Sie beziehen sich auf das Wesen und den Grundcharakter des Menschen, oftmals beinhalten sie implizit anzustrebende Idealvorstellungen des Verhaltens oder Handelns. Als bewusste Setzungen sind sie Leitlinien der Führungs- und Gestaltungspraxis in Unternehmungen. 1. Grundlagen Menschenbilder sind Typologisierungen vom Menschen. Sie dienen dazu, die Vielfalt, Heterogenität oder auch subjektiv empfundene Widersprüchlichkeit menschlicher Erscheinungsweisen, Wesensmerkmale und Verhaltensweisen zu ordnen, zu vereinfachen und dadurch überschaubar zu machen (Weinert 1995). Sie sind kollektiv erzeugt und unterliegen dem gesellschaftlichen Wandel. Menschenbilder kanalisieren die Wahrnehmung, dienen der subjektiven Weltinterpretation und wirken als Prämissen auf die Entscheidungen und Handlungen ihrer jeweiligen Träger. Es handelt sich dabei um "Bilder", die nicht mit der Wirklichkeit gleichzusetzen sind. Drei Erscheinungsformen sind zu nennen (Wiswede 1995): •
Als subjektive Beschreibungen, Deutungen oder Verhaltensinterpretationen beziehen sich Menschenbilder auf das "Wesen" oder den "Grundcharakter" des Menschen. Sie werden als implizite Theorien bezeichnet, wenn sie Vorstellungen beinhalten, die der Laie oder Handelnde in Bezug auf sein Gegenüber entwickelt, um dessen Verhaltensweisen oder Eigenheiten zu deuten oder zu erklären;
Menschenbilder •
als anzustrebende Ideale haben Menschenbilder Vorbildfunktion, sie sind häufig nicht besonders konkret ausgearbeitet, bleiben auslegungsbedürftig oder ideologieträchtig;
•
in wissenschaftlichen Aussagen spielen Menschenbilder ebenfalls eine große Rolle. Einerseits sind sie auch hier implizit in normativen Aussagen enthalten, wenn z.B. Gestaltungsempfehlungen gegeben werden. Andererseits können es explizit formulierte Vorannahmen sein, die dann als grundlegende Denkgerüste dienen und die Auswahl von wissenschaftlichen Fragestellungen leiten. Als forschungsleitende Annahmen bleiben sie hinterfragbar und diskutierbar.
Menschenbilder temommen, unterschiedliche Arten und Inhalte von Menschenbildern herauszuarbeiten, sie zu systematisieren, grundlegend zu ordnen oder ihre Bedeutung empirisch zu untersuchen. Zur wirklichen Vereinheitlichung hat dies bislang nicht geführt, exemplarische Auflistungen und Gegenüberstellungen sind daher häufig. Ein früher und weitverbreiteter Ansatz wurde durch McGregor (1973) mit seiner "Theorie X' und "Theorie Y" entwickelt. Einander entgegengesetzte Eigenschaften und Verhaltensweisen von Menschen dienen als Anker, um Konsequenzen für das Managementhandeln zu verdeutlichen. •
In der Theorie X wird das Individuum mit einer angeborenen Scheu vor Arbeit gesehen, ganz überwiegend an materiellen Anreizen interessiert, mit wenig Ehrgeiz ausgestattet und kaum geneigt, Verantwortung zu übernehmen. Eine solche Einschätzung oder Beschreibung des arbeitenden Menschen hat erhebliche Konsequenzen, wenn das Arbeits- und Leistungsverhalten betrieblich gesteuert oder gestaltet werden soll. Kontrolle, straffe Führung, materielle Anreize oder Zwangsmaßnahmen sind dann die geeigneten Führungsmittel (-> Führungsinstrumente). Anders, wenn man die Theorie Y zur Grundlage des Führungs- und Menschenverständnisses macht.
•
In der Theorie Y wird ein Menschenbild entwickelt, in dem Arbeit als wichtige Quelle der individuellen Zufriedenheit dient und Menschen nach Selbstverantwortung und Verwirklichung ihrer Potenziale streben. Die Identifikation mit den Zielen der Unternehmung macht Fremdkontrolle und Sanktionen durch den Vorgesetzten weitgehend überflüssig, die Mitarbeiter haben das zur Aufgabenerledigung notwendige Maß an Selbstkontrolle und Eigeninitiative. Führung ist hier auf die Gestaltung des Arbeits-
Wie in anderen wissenschaftlichen Disziplinen auch, haben sich in der Betriebswirtschaftslehre und in der Managementlehre unterschiedliche, bereichsund theorieabhängige Menschenbilder entwickelt. Ihre Veränderung wird durch den wissenschaftlichen Erkenntnisfortschritt vorangetrieben. Für das Managementhandeln ist die Kenntnis der Arten und Funktionen von Menschenbildern deswegen wichtig, weil zwischen ihnen, dem Entscheidungsverhalten und der Mitarbeiterführung vielfältige Beziehungen bestehen. Da Menschenbilder Grundannahmen über Ziele, Motive, Bedürfnisse und Erwartungen über Verhaltensweisen beinhalten, beeinflussen sie Mitarbeiter und Vorgesetzte in ihrem Denken, Entscheiden und Handeln. Sie dienen des Weiteren dazu, Entscheidungen zu rechtfertigen und zu begründen. Ihre Analyse hat auch ideologiekritische Funktion (Conrad 1983). 2. Arten und Funktionen von Menschenbildern Menschenbilder beschäftigen die Managementliteratur bereits relativ lange (vgl. zusammenfassend z.B. Neuberger 1990; Bühner 1997; Weinert 1998; Staehle 1999). Zahlreiche Versuche wurden un-
501
Menschenbilder und Handlungskontextes gerichtet, Spielräume werden bewusst eingeräumt, Ergebniskontrolle tritt an die Stelle von Prozesskontrolle. Schein (1980) unterscheidet in seiner weitverbreiteten Typologie vier grundlegende Menschenbilder. Auch ihre Bedeutung erschließt sich aus den jeweiligen Konsequenzen für die Mitarbeiterführung, die Gestaltung der Handlungsspielräume und des betrieblichen Geschehens: •
•
•
der rational-ökonomische Mensch wird in erster Linie durch materielle Anreize motiviert (->• Entgeltmanagement), kalkuliert seine Anstrengung gezielt, ist außengesteuert und dementsprechend muss Fremdkontrolle eingesetzt werden, um ihn als Mitarbeiter auf die betrieblichen Ziele auszurichten; der sozial motivierte Mensch betrachtet die sozialen Beziehungen am Arbeitsplatz als wesentliche Triebfeder seines Handelns. Soziale Normen seiner Bezugsgruppe regulieren sein Verhalten stärker als die Anreize und Kontrolle durch Vorgesetzte. Demzufolge liegen die Personalführungsaufgaben dann darin, -> Motivation über die Gestaltung von Gruppenbeziehungen zu schaffen und Möglichkeiten herzustellen, die Anerkennung und Zugehörigkeitsgefühl entstehen lassen können (-»Teamstrukturen); der nach Selbstverwirklichung strebende Mensch verlangt nach Arbeitsbedingungen, die Autonomie zulassen sowie Selbstkontrolle und Identifikation mit den Aufgaben ermöglichen. Die Führungsaufgaben bestehen hier darin, die Arbeits- und Handlungsbedingungen so zu verändern, dass Mitbeteiligung und Mitbestimmung möglich werden. Entscheidungen werden in stärkerem Masse delegiert, die Vorgesetztenrolle wandelt sich von der Kontrolle und Motivation durch materielle Anreize zur Unterstützung und Förderung;
502
Menschenbilder •
der komplexe Mensch ist wandlungsund lernfähig. Auch seine handlungsleitenden Bedürfnisse verändern sich, er erwirbt neue Orientierungen und Motive. Sie werden in Abhängigkeit von den Handlungssituationen stets neu belebt. Entsprechend wandeln sich die Führungsaufgaben. Wichtig wird die Fähigkeit des Vorgesetzten zur Situations- und Persondiagnostik, da nur so auf die vielfaltigen und unterschiedlichen Bedürfnisse und Erwartungen der verschiedenen Mitarbeiter eingegangen werden kann. Individualisierte und eine nach den Interessen der Mitarbeiter flexibilisierte Führung tritt an die Stelle generell gültiger Maßnahmen.
3. Bereichsbezogene Menschenbilder Verschiedentlich sind Menschenbilder nach ihren hauptsächlichen Bezugsgruppen differenziert worden (Neuberger 1990). Eine Typologisierung von Führungskräften wurde von Maccoby (1979) entwickelt. Er kommt auf der Grundlage qualitativer Studien zu vier Managertypen\ •
der Fachmann ist der rational denkende, an Qualität und Sparsamkeit orientierte Manager, der die Sachaufgabe und ihre Erledigung in den Vordergrund stellt;
•
der Dschungelkämpfer ist machtorientiert und bereit, seine Interessen auch rücksichtslos durchzusetzen. Für ihn ist der Erfolg das Ergebnis von Kampf und Auseinandersetzung, wobei sich der Stärkere durchsetzt;
•
der Firmenmensch ist durch seine meist langjährige Zugehörigkeit zur Unternehmung geprägt, gruppenorientiert und stark mit ihren Zielen identifiziert;
•
den Spielmacher kennzeichnet seine positive Einstellung zum Wettbewerb als Mittel des persönlichen Fortkommens. Er sucht ständig neue Heraus-
Menschenbilder forderungen und Erfolgschancen und möchte die Dinge am Laufen halten. Menschenbilder spielen eine wichtige Rolle im Rahmen von Organisations- und Führungsphilosophien sowie bei Planungs- und Kontrollkonzepten, die Unternehmungen zu ihrer Leitung und Steuerung einsetzen. Hierbei sind Menschenbilder, Technikkonzeptionen und Organisationsvorstellungen eng verzahnt. Als erlernte Sichtweisen sind sie oftmals relativ stabil und durch einzelne Trainingsoder Schulungsmaßnahmen kaum beeinflussbar. Insoweit ähneln sie der -> Untemehmungs- bzw. Organisationskultur, die ebenfalls nur gesamthaft verändert und gestaltet werden kann (Staehle/Sydow 1992). 4. Gestaltung und Verwendung von Menschenbildern Unter Gestaltungsgesichtspunkten können die mit den jeweiligen Menschenbildern verknüpften Verhaltensweisen unter mehreren Aspekten bedeutsam sein. Interpretiert man Menschenbilder im Sinne von Persönlichkeitstheorien, so lässt sich ihre Verbreitung bei Mitarbeitern und Führungskräften einer Unternehmung erfassen. Im Rahmen einer Führungsdiagnostik liefert ihre Verteilung Hinweise auf bevorzugte Führungsstile, das Entscheidungsverhalten oder das Führungsklima. Sofern sich empirisch zeigen lässt, dass bestimmte Persönlichkeitstypen bei der Bewältigung spezieller unternehmerischer Problemlagen besonders erfolgreich (oder abträglich) sind, könnte sich z.B. die Auswahl oder Entwicklung von Führungskräften oder Mitarbeitern an den von ihnen vertretenen Menschenbildern mit ausrichten. Bislang vorliegende empirische Studien zeigen allerdings, dass sich die verschiedenen Menschenbilder nicht in den wissenschaftlich reinen Formen wiederfinden, man hat es stattdessen mit Mischtypen zu tun. Die schränkt eine breitere Anwendung stark ein (Weinert 1998). Einen weiteren wichtigen Gestaltungsbe-
Menschenbilder reich für explizite Menschenbildannahmen findet man bei Führungsleitbildern. Hier werden Menschenbilder, Führungsstil-Vorgaben, Führungsziele, Führungsaufgaben, Führungsinstrumente und Anwendungsbereiche zu einem umfassenden Management-Konzept verbunden. Ziel ist es, mittels der Führungsleitbilder ein erwünschtes Leistungs- und Sozialverhalten in einem einheitlichen Führungs- und Kooperationsmodell umzusetzen (Wunderer/Klimecki 1990). Eine Analyse und Gestaltung von Menschenbildern im Rahmen unterschiedlicher Führungskonzepte darf nicht nur funktional erfolgen, es geht immer auch um ihre konkreten Inhalte und Konsequenzen. Insofern müssen sich Menschenbilder auch ethisch rechtfertigen lassen und können nicht auf ihre Steuerungsleistung reduziert werden. Literatur: Bühner, R.: Personalmanagement, 2., Überarb. Aufl., Landsberg/Lech 1997; Conrad, P.: Maslow-Modell und Selbsttheorie, in: Die Unternehmung, Band 37, 1983, S. 2 5 8 - 2 7 7 ; Kappler, E.: Menschenbilder, in: Gaugier, E.AVeber, W. (Hrsg.): Handwörterbuch des Personalwesens, 2. neubearb. und erg. Aufl., Sp. 1324-1342, Stuttgart 1992; Maccoby, M.: Die neuen Chefs, Reinbek bei Hamburg 1979; McGregor, D.: Der Mensch im Unternehmen, 3. Auflage, Düsseldorf 1973; Neuberger, O.: Führen und geführt werden. 3., völlig Uberarb. Aufl. von "Führung", Stuttgart 1990; Schein, E.: Organizational Psychology, 3rd. ed., Englewood Cliffs, N.J 1980; Staehle, W.H.: Management - eine verhaltenswissenschaftliche Perspektive, 8. Aufl., Überarb. v. Conrad, P./Sydow, J., München 1999; Staehle, W.H./Sydow, J.: Management-Philosophie, in: Handwörterbuch der Organisation, 3., völlig neu gestaltete Aufl., 1992, Sp. 1286-1302; Weinert, A.B.: Menschenbilder und Führung, in: Kieser, A. (Hrsg.): Handwörterbuch der Führung, 2., neugestaltete Aufl., Sp. 1495-1510, Stuttgart 1995; Weinert, A.B.: Organisationspsychologie, 4., vollständig Überarb. und erw. Aufl., Weinheim 1998; Wiswede, G.: Einfuhrung in die Wirtschaftspsychologie, 2., neubearb. und erw. Aufl., München, Basel 1995; Wunderer, R./Klimecki, R.: Führungsleitbilder. Grundsätze für Führung und Zusammenarbeit in deutschen Unternehmen, Stuttgart 1990.
Peter Conrad
503
Merger
Mentoring Mentoring Mentoring ist eine Hilfestellung für neue Mitarbeiter. Eine in der Hierarchie höherstehende Person tritt als Ansprechpartner (Mentor) in persönlichen und fachlichen Fragen auf (bspw. bei Problemen mit Vorgesetzten oder Mitarbeitern).
von Waren und Dienstleistungen, besonders im Internet, ausgedehnt. Als Merchandiser werden in diesem Sinne solche Mitarbeiter bezeichnet, die als kombinierte Einkaufs- und Verkaufsleiter für das - • "Key Account Management" einer bestimmten Warengruppe zuständig sind.
Merchandising Merchandising umfasst ein breites Bedeutungsspektrum, das von der Regalpflege über Verkaufsförderung und Marketinglogistik bis hin zur universellen Nutzung von Rechten im Zusammenhang mit Produkten und Dienstleistungen reicht.
Nach einer noch weiter gefassten Definition gehören zum Merchandising alle Maßnahmen, die der Vermarktung durch universelle wirtschaftliche Nutzung von Rechten wie
Über die ursprüngliche Bedeutung der Regalpflege hinaus wurden unter Merchandising später auch alle anderen warenbezogenen Maßnahmen des Herstellers, insbesondere von Markenartikeln, zur -» Verkaufsförderung am sogenannten "Point of Sale" in den Verkaufsräumen des Handels verstanden. Hierzu gehören Produktplatzierung, Warenpräsentation, Displaygestaltung und Werbung, Preisauszeichnung sowie Sonderverkaufsaktionen, oft verbunden mit Vorfuhr-, Testund Verkostungsaktionen sowie Warenprobenverteilung am Verkaufsort. Konsequenterweise werden entsprechend als "Merchandiser" Mitarbeiter bezeichnet, die im Auftrag des Herstellers die ständige Präsenz und eine seinem -* Corporate Design und seiner -» Corporate Identity entsprechende Präsentation und Preisauszeichnung von Waren im Handel übernehmen. In der Praxis werden Merchandising und Marketinglogistik (Warennachfüllung, Warenauszeichnung und Warenüberprüfung) oft gleichgesetzt oder Merchandising wird umfassender als Oberbegriff für Verkaufsförderung und Marketinglogistik verwandt (Schuh 1995). Das Bedeutungsspektrum von Merchandising wurde in den letzten Jahren auf die generelle Präsentation und Vermarktung 504
• • • • • • • •
Patenten und Gebrauchsmustern, Urheberrechten, Markenzeichen, Geschmacksmustern, Namensrechten, Persönlichkeitsrechten, Fi Im verwertungsrechten und Veranstaltungsrechten
dienen. Merchandising ist oft nicht auf die Vermarktung von Filmen und Veranstaltungen beispielsweise bekannter Fußballvereine oder Musikgruppen beschränkt, sondern umfasst auch die wirtschaftliche Nutzung von damit verbundenen Fanbzw. Souvenirartikeln. Heute werden alle genannten Begriffsdefinitionen für Merchandising parallel eingesetzt, ohne dass ein Ende der Ausdehnung des Bedeutungsspektrums auf neue Bereiche absehbar ist. Literatur: Boll, K.: Merchandising und Licensing: Grundlagen, Beispiele, Management, München 1999; Geisbüsch, H.-G./Gemel, R./Lauer, H.: Das kleine Marketing-Lexikon, 2. Aufl., Düsseldorf 1999; Schuh, A.: Merchandising, in: Tietz, B. (Hrsg.): Handwörterbuch des Marketing, 2. Aufl., Stuttgart 1995, Sp. 1876-1886; Tietz, B.: Marketing, 3. Aufl., Düsseldorf 1993.
Helmut Schulte Herbrüggen Merger Unter einem Merger versteht man einen -> Unternehmenszusammenschluss. Im Gegensatz zur -> Unternehmensakqui-
Metra-Potenzial Methode
Merger sition kauft dabei aber nicht einer der Partner den anderen, sondern beide verschmelzen gleichberechtigt ("Merger of Equals"). In der Praxis ist eine vollständige Gleichgewichtung der Partner in der Regel unmöglich, da sich nur sehr selten zwei Unternehmen mit exakt gleichem (Börsen-)Wert zusammenschließen; daher werden die Eigentümer des gewichtigeren Partners auch die Mehrheit der Anteile der neuen Gesellschaft halten. Den Prozess des Mergers beschreibt das -> Merger-Management. Merger-Management Unter Merger-Management versteht man den Prozess des Unternehmenszusammenschlusses oder —> Mergers bzw. der -> Unternehmensakquisition. Man unterscheidet dabei die Pre-Merger-Phase vor dem Zusammenschluss und die PostMerger-Phase, nachdem der Merger stattgefunden hat. Der Prozess des Zusammenschlusses beginnt in der Pre-Merger-Phase mit der Auswahl eines geeigneten Partners. Nach der strategischen Stoßrichtung unterscheidet man finanzbezogene, marketingbezogene und fertigungsprozessbezogene Merger. Ein geeigneter Partner muss dann bewertet und analysiert werden. Dies geschieht im Rahmen der -» Due Diligence. Danach wird der Modus des Zusammenschlusses vereinbart und ggf. das Umtauschverhältnis für Anteilspapiere ermittelt. Der Zeitpunkt des Mergers ist der Eintrag der neuen Gesellschaft ins Handelsregister. Nach dem Zusammenschluss soll das Post-Merger-Management folgende Stimmigkeiten erreichen: •
Finanzielle Stimmigkeit: Das finanzielle Gleichgewicht im Unternehmen muss wiederhergestellt werden. Die Bilanzierungs- und Controlling-Systeme sind abzustimmen. Ein -> Cash-
•
•
Management soll die Liquidität sichern. Funktionale Stimmigkeit: Die Produktlinien, Fertigungsprozesse, Forschungsanstrengungen sind anzupassen und physisch zu integrieren, um weitreichende -» Synergien (-> Synergiemanagement) zu heben. Organisatorische Stimmigkeit: Die Organisationsstrukturen sind den neuen Gegebenheiten anzugleichen, die Führungssysteme und Kulturen müssen aufeinander abgestimmt werden.
Wesentlicher Erfolgsfaktor bei der Integration ist die Zeit: Die Kompetenzen müssen sofort festgelegt werden, damit der Integrationsprozess wirkungsvoll begonnen werden kann. Restrukturierungen besonders beim Personal - sollten sehr schnell nach dem Merger umgesetzt werden, damit Aktionäre, Mitarbeiter und Kunden wissen, woran sie sind und was sie erwartet. Die Angst vor drohenden Änderungen, die noch im Räume stehen, kann den gesamten Integrationsprozess lahmlegen. Zur organisatorischen Umsetzung der Integration im Rahmen des Post-MergerManagements haben sich Projektgruppen - auch als Task-force - zur Koordination bewährt (s.a. -> Gruppenkonzepte, -> Projektmanagement). Methode 6-3-5 Die Methode 6-3-5 ist eine -> Kreativitätstechnik zur Ermittlung von Lösungsmöglichkeiten für ein vorgegebenes Problem. Man bildet ein Team von sechs Mitarbeitern, von denen jeder drei Vorschläge zur Lösung des gegebenen Problems notiert. Anschließend kommentieren die anderen fünf Teammitglieder die Vorschläge und ergänzen sie gegebenenfalls. Die 6-3-5-Formel bietet bei vergleichsweise geringem (Koordinations-) Aufwand eine gute Chance, dass eine tragbare Lösung ermittelt wird. Metra-Potenzial Methode Projektmanagement, -> Netzplan 505
Micro Hedge Micro Hedge -> Hedging Minderheitenschutz im Konzern 1. Zur Notwendigkeit des Minderheitenschutzes Konzerne zeichnen sich dadurch aus, dass abhängige Unternehmen unter der einheitlichen Leitung eines herrschenden Unternehmens zusammengefasst sind (-> Konzern). Aufgrund dieser einheitlichen Leitung besteht die Gefahr, dass Vermögensverlagerungen vom abhängigen in das herrschende Unternehmen vorgenommen und somit die Eigentumsrechte von Minderheitseignern des abhängigen Unternehmens ausgedünnt werden. Faktisch haben die Vermögensverlagerungen zur Folge, dass die Minderheitseigner am Gewinn des abhängigen Unternehmens mit einer Quote beteiligt werden, die kleiner ist als ihre Beteiligungsquote am abhängigen Unternehmen. Auf welche Art und Weise diese ausbeutungsoffene Position von Minderheitsgesellschaftern verhindert wird, hat entscheidende Bedeutung für die Funktionsfähigkeit des Kapitalmarktes. Die Aussicht, bei nicht vorhandenem Minderheitenschutz übervorteilt zu werden, reduziert die Bereitschaft von Kapitalgebem, Unternehmen Beteiligungskapital zur Verfügung zu stellen, und führt im Extremfall dazu, dass Investitionen aufgrund nicht vorhandener Finanzierungsmittel unterbleiben (Hecker/Wenger 1995). Welcher Schutz den Minderheitseignem gewährt wird, hängt in Deutschland von der rechtlichen Gestaltung des -»Konzerns ab. Die in diesem Zusammenhang wichtigsten konzemrechtlichen Regelungen des Aktiengesetzes sollen im folgenden erörtert werden. 2. Minderheitenschutz im faktischen Konzern Im faktischen Konzern basiert die einheitliche Leitung in der Regel auf einer Mehrheitsbeteiligung des herrschenden Unternehmens am abhängigen Unterneh506
Minderheitenschutz im Konzern men. Vertragliche Vereinbarungen zwischen den beiden Gesellschaften sind keine Bedingung für das Vorliegen dieses Konzemtyps. Das gesetzliche Regelungssystem zum Schutz der Minderheitsgesellschafter eines faktischen Konzerns beruht auf dem Grundsatz, dass der abhängigen Gesellschaft keine Vermögensnachteile aus ihrer Abhängigkeit entstehen dürfen. Der in § 311 AktG kodifizierte sogenannte Nachteilsausgleich stellt dabei den entscheidenden Schutzmechanismus für die Minderheitsgesellschafter dar. Danach darf die herrschende Gesellschaft die abhängige Gesellschaft zu Maßnahmen oder Rechtsgeschäften, die für diese nachteilig sind, nur dann veranlassen, wenn die daraus resultierenden Vermögensnachteile durch die herrschende Gesellschaft ausgeglichen werden. Der Vorstand der abhängigen Gesellschaft hat einen sogenannten Abhängigkeitsbericht zu erstellen, in dem "alle Rechtsgeschäfte, welche die Gesellschaft im vergangenen Geschäftsjahr mit dem herrschenden oder einem mit ihm verbundenen Unternehmen oder auf Veranlassung oder im Interesse dieses Unternehmens vorgenommen hat, und alle anderen Maßnahmen, die sie auf Veranlassung oder im Interesse dieser Unternehmens im vergangenen Geschäftsjahr getroffen oder unterlassen hat" (§312 AktG), dokumentiert werden müssen. Dieser Bericht ist vom Aufsichtsrat (§314 AktG) und - sofern der -» Jahresabschluss der Gesellschaft einer Pflichtprüfung unterliegt - vom Abschlussprüfer (-'•Abschlussprüfung) zu prüfen (§313 AktG). Falls der den Bericht erstellende Vorstand feststellt, dass Nachteile entstanden sind und nicht ausgeglichen wurden, oder der Aufsichtsrat oder der Abschlussprüfer Einwendungen gegen die Ordnungsmäßigkeit des Abhängigkeitsberichts erheben, können die Minderheitseigner gemäß § 315 AktG eine Sonderprüfung beantragen. Außerdem haben sie die Möglichkeit, Schadenersatzansprüche geltend zu machen, wenn gesetz-
Minderheitenschutz im Konzern liehe Vorschriften zum gleich verletzt wurden.
Nachteilsaus-
Das theoretisch einleuchtende Konzept des Nachteilsausgleichs bereitet einige Probleme bei der praktischen Umsetzung. Schwierigkeiten ergeben sich insbesondere hinsichtlich der vollständigen Erfassung aller nachteiligen Rechtsgeschäfte und Maßnahmen sowie hinsichtlich der an die Rechtsgeschäfte und Maßnahmen im konkreten Fall anzulegenden Wertmaßstäbe (Schenk 1997). 3. Minderheitenschutz im Vertragskonzern Zwingende Voraussetzung eines Vertragskonzerns ist das Vorhandensein eines Beherrschungsvertrages, welcher der herrschenden Gesellschaft eine weitgehend unbeschränkte Leitungsmacht über die Tochtergesellschaft verschafft. Das herrschende Unternehmen ist berechtigt, dem Vorstand der abhängigen Gesellschaft Weisungen zu erteilen, die fiir diese nachteilig sind, solange sie im Konzerninteresse sind und der Satzung des abhängigen Unternehmens und geltenden Gesetzen nicht widersprechen. Diese unbeschränkte Weisungsbefugnis beeinträchtigt die Vermögensinteressen von Minderheitseignem ohne Frage in erheblichem Maße. Die entscheidenden Schutzmechanismen für die Minderheitseigner finden sich in den §§ 304, 305 AktG. Demnach ist den Minderheitseignern bei Abschluss eines Beherrschungsvertrages sowohl ein angemessener Ausgleich als auch eine angemessene Abfindung anzubieten. Der Ausgleich besteht entweder aus einem fixen Betrag, der jedes Jahr in gleicher Höhe gezahlt wird, oder aus einem variablen Anteil, dessen Höhe sich an den Dividendenzahlungen der Muttergesellschaft orientiert (§ 304 Abs. 2 AktG). Bei Wahl der Abfindung scheidet der Minderheitseigner aus der Gesellschaft aus. Als Abfindung sind ihm Bargeld oder -» Aktien anzubieten. Den Minderheitseignern steht schließlich im Rahmen der
Mitarbeiterauswahl §§ 304, 305 AktG das Recht zu, die Angemessenheit der Abfindung und des Ausgleichs gerichtlich überprüfen zu lassen. Auch die Regelungen des Vertragskonzerns gewährleisten nicht zwangsläufig ausreichenden Schutz fiir die Minderheitseigner. Neben den grundsätzlichen Problemen der bei der Bestimmung von Ausgleich und Abfindung notwendigen —• Unternehmensbewertung muss erwähnt werden, dass der gesetzlich vorgesehene Weg der Ausgleichs- und Abfindungsbemessung die Risiken weitgehend den Minderheitseignern aufbürdet (Schildbach 1996). Insbesondere ist zu kritisieren, dass im Falle der gerichtlichen Bestimmung von Abfindung und Ausgleich dem herrschenden Unternehmen gemäß § 304 Abs. 5 und § 305 Abs. 5 Satz 4 AktG de facto eine risikolose Rückzugsmöglichkeit eingeräumt wird, da es den Vertrag innerhalb von zwei Monaten ohne Kündigungsfrist kündigen kann, sofern ihm die vom Gericht ermittelten Beträge nicht zusagen. Literatur: Hecker, R./Wenger, E.: Der Schutz von Minderheiten im Vertragskonzern - Ein Betriebsunfall des Aktienrechts in: ZBB, 7. Jg., S. 321341; Schenk, G.: Konzernbildung, Interessenkonflikte und ökonomische Effizienz, Frankfurt/Main u.a. 1997; Schildbach, T.: Der handelsrechtliche Konzemabschluß, 4. Aufl., MünchenAVien 1996.
Gerald Schenk Minderheitsbeteiligung Untemehmenszusammenschluss MIS Entscheidungsunterstützende Systeme Mitarbeiterauswahl Unter der Mitarbeiterauswahl ist grob die anforderungsgerechte Selektion von Personal für die Besetzung vakanter Stellen sowie fiir die Erfüllung temporärer Aufgaben (z.B. Kommissionsarbeit) zu verstehen. Wichtig ist im Zusammenhang mit Stellenbesetzungen eine dynamische Betrachtung, wonach vor allem langfristig eine möglichst gute Übereinstimmung zwischen Anforderungsprofil der Stelle 507
Mitarbeiterauswahl und Persönlichkeitsprofil des Mitarbeiters im Vordergrund steht. Betrachtet sei im Folgenden die Auswahl externer Mitarbeiter für Stellenbesetzungen. Dem Arbeitgeber stehen eine ganze Reihe von Auswahlinstrumenten zur Verfugung: Hierzu zählt als erstes die Auswertung der Bewerbungsunterlagen (Anschreiben, Lebenslauf, Arbeitsproben, [Arbeits-] Zeugnisse und Referenzen). Ergänzt um einen vom Bewerber auszufüllenden Mitarbeiterfragebogen dienen die Unterlagen zumindest für eine Vorauswahl unter den Bewerbern. Als Zweites kann der Arbeitgeber Vorstellungsgespräche mit den noch verbleibenden Bewerbern führen. Ziel des Gesprächs ist es, genauere Informationen über die Persönlichkeit und Interessen des Bewerbers zu erhalten sowie diesen über das Unternehmen näher zu informieren. Trotz ihrer hohen Bedeutung sind Vorstellungsgespräche aufgrund der starken Situationsabhängigkeit und dem großen Einfluss subjektiver Faktoren in ihrer Aussagekraft nicht unumstritten. Weitere Instrumente der Mitarbeiterauswahl stellen Tests (u.a. Intelligenztests, Leistungstests, Konzentrationstests, Persönlichkeitstests) und -* AssessmentCenter (AC) dar. AC beziehen sich auf eine Gruppe von Bewerbern, die für ein oder mehrere Tage von Fachleuten des Unternehmens in verschiedenen Tests, Übungen, Rollenspielen und Gesprächen auf ihre Geeignetheit hin überprüft werden. Die Validität von AC fällt u.a. aufgrund ihrer vielfaltigen Gestaltungsoptionen sehr unterschiedlich aus. Da AC vergleichsweise aufwendig sind, empfiehlt sich ihr Einsatz hauptsächlich für die Auswahl von Führungskräften und Fachspezialisten. Unter die Instrumente der Mitarbeiterauswahl ist im weiteren Sinne auch die Personalbeurteilung während der Probezeit zu subsumieren (s.a. -»• Mitarbeiterbeurteilung). In dieser Phase lassen sich 508
Mitarbeiterbeteiligung wichtige Leistungsinformationen über den Mitarbeiter vor Ort gewinnen, und eine mögliche Fehlauswahl kann noch vergleichsweise kostengünstig revidiert werden, da u.a. gesetzliche und vertragliche Kündigungsschutzregelungen üblicherweise noch nicht greifen. Matthias Kräkel Mitarbeiterbefragung Die Mitarbeiterbefragung ist eine Form der systematischen Erhebung von Meinungen und Einstellungen von Mitarbeitern einer Organisation zu arbeitsbezogenen Themen. Zweck der Mitarbeiterbefragung ist es, Informationen bereitzustellen, auf die Aktionen folgen können, die der Erreichung von Zielen des Auftraggebers der Mitarbeiterbefragung dienen. In diesem Sinne dient die Mitarbeiterbefragung vor allem als Instrument der Organisationsentwicklung. Aufbauend auf den Ergebnissen der Befragung unter den Mitarbeitern, können konkrete Veränderungsprozesse zur Verbesserung der Arbeitsbedingungen eingeleitet und überwacht werden. Mitarbeiterbeteiligung Die Mitarbeiterbeteiligung unterteilt sich in die überbetriebliche und die betriebliche Beteiligung. Der erste Fall beschreibt eine Beteiligung an Rechtsträgern verschiedener Rechtsformen, die ihrerseits an mehreren Unternehmen beteiligt sind. Im zweiten Fall ist der Mitarbeiter entweder unmittelbar durch Aktien, Schuldverschreibungen usw. mit dem arbeitgebenden Unternehmen verbunden, oder er ist an einem Rechtsträger beteiligt, der seinerseits eine Beteiligung am Unternehmen hält. Insgesamt hielten 1999 in Deutschland rund 2,5% der Arbeitnehmer Anteile an ihren arbeitgebenden Unternehmen, mit einem Beteiligungkapital von über DM 25 Milliarden. Erwartet wird von der Beteiligung meist eine gesteigerte Motivation der Mitarbeiter, die zu höherer Produktivität sowie geringeren Fluktuations-
Mitarbeiterbeurteilung
Mitarbeiterbeteiligung und Abwesenheitsraten fuhren soll. Unter gesellschaftspolitischen Gesichtspunkten wird oftmals eine höhere Verteilungsgerechtigkeit des Kapitals sowie die Möglichkeit zu Vermögensbildung angeführt. Aus Sicht des Unternehmens bietet sich je nach Art der Beteiligung - die Möglichkeit, zusätzliches Eigenkapital zu erhalten. Die wesentlichen gesetzlichen Grundlagen der Mitarbeiterbeteiligung sind der Anlagekatalog forderungsfähiger Beteiligungsformen (5. Vermögensbildungsgesetz) sowie die Regelungen über die steuerliche Förderung des Erwerbs von Vermögensbeteiligungen (§ 19aEStG). Wichtige Formen der Mitarbeiterbeteiligung sind Belegschaftsaktien, Genusskapital und -» Mitarbeiterdarlehen. Mitarbeiterbeurteilung Unter Mitarbeiterbeurteilung wird die planmäßige und systematische Beurteilung von Mitarbeitern verstanden, die im Regelfall durch den Vorgesetzten nach vorgegebenen Zeitabständen vorgenommen wird, wobei sich die Urteile auf -> Beobachtungen aus der alltäglichen Zusammenarbeit stützen. Gegenstand von Beurteilungen sind gewöhnlich ein oder mehrere Aspekte der Ergebnisse des Arbeitsverhaltens, das Verhalten selbst und/oder die Person des Mitarbeiters. Ziel ist es, zu möglichst reliablen (-> Reliabilität) und validen (-> Validität) Einschätzungen der Leistung in Form der Ergebnisse zu kommen. Verhalten und Persönlichkeitsmerkmale sollten dabei lediglich als Indikatoren dienen, wenn das Ergebnis nicht genau messbar ist. Mit der Mitarbeiterbeurteilung verschiedene Ziele verfolgt: • • • •
werden
Entgeltdifferenzierung (-> Entgeltmanagement) Personelle Entscheidungen -> Führung und Motivation Förderung der Mitarbeiterqualifikation
Diese Ziele sind z.T. widersprüchlich und können daher nicht mit einem Verfahren bzw. in einem Beurteilungsprozess realisiert werden. Die in der Praxis verwendeten Verfahren lassen sich in freie und gebundene einteilen. Die freien Eindrucks Schilderungen haben den Vorteil der Ökonomie und ermöglichen es, jedem Mitarbeiter in gebotener Differenzierung gerecht zu werden. Sie erlauben aber keine Vergleiche zwischen Mitarbeitern. Dazu werden gebundene Verfahren verwendet, am häufigsten die Einstufungsverfahren. Diese ordnen Verhaltensbeobachtungen, Ergebnisoder Merkmalseinschätzungen mehrstufigen Skalen zu. Wegen der einfachen Handhabung und der Möglichkeit der testtheoretischen Überprüfung der Urteilsqualität werden solche Verfahren in der Praxis häufig bevorzugt, sie sind allerdings besonders anfallig für Urteilsfehler. Bei der Mitarbeiterbeurteilung treten eine Reihe von Fehlern auf, die in Anlehnung an die statistischen Kennwerte als Mittelwerts-, Streuungs- und Korrelationsfehler klassifiziert werden. Sie äußern sich als systematische Verschiebungen oder Verzerrungen der Urteile und sind auf die Anwendung unterschiedlicher Bezugsnormen und Maßstäbe zurückzuführen. Die häufigsten Mittelwertsfehler sind die Tendenz zur Milde, zur Strenge bzw. zur Mitte. Streuungstendenzen zeigen sich als Extremisierung, als Verringerung bzw. als Erhöhung der Varianz. Solche Tendenzen sind allerdings nur bei unterstellter Normalverteilung als Beurteilungsfehler einzustufen, eine Annahme, die allein aufgrund der gezielten Auswahl und Zuweisung von Mitarbeitern wenig wahrscheinlich ist. Korrelationsfehler äußern sich in statistischen Beziehungen zwischen verschiedenen beurteilten Merkmalen, wobei diese Beziehungen von der beurteilenden Person kognitiv konstruiert werden und sachlich nicht
509
Mitarbeiterbeurteilung gerechtfertigt sind. Siehe auch: Potenzialbeurteilung, -»• Vorgesetztenbeurteilung Literatur: Landy, F. J./Farr, J. L.: The measurement of work Performance, Orlando 1983; Schuler, H. (Hrsg.): Beurteilung und Förderung beruflicher Leistung, Göttingen, 1991.
Friedemann W. Nerdinger Mitarbeiterdarlehen Das Mitarbeiterdarlehen ist eine wichtige Form der Mitarbeiterbeteiligung: Der Mitarbeiter stellt dem Unternehmen als Schuldner einen gewissen Geldbetrag für eine vorab bestimmte Zeitspanne zur Verfügungen und erhält dafür Zinszahlungen. Die Zahlungen fallen unabhängig vom wirtschaftlichen Erfolg des Unternehmens an und sind daher wenig risikobehaftet. Das Mitarbeiterdarlehen kann unabhängig von der Rechtsform des Unternehmens abgeschlossen werden. Weitere gängige Formen der Mitarbeiterbeteiligung sind Belegschaftsaktien und —> Genußkapital. Mitarbeiterdatenbank Personalinformationssystem Mitarbeitereinsatz nach Eignung und Neigung Es erstaunt immer wieder, dass Mitarbeiter, obwohl formal bestens qualifiziert und mit großer Sorgfalt ausgewählt (-» Mitarbeiterauswahl), nicht in der Lage sind, ihr Potenzial in der täglichen Arbeitspraxis voll zur Anwendung zu bringen. Allzu vordergründig liegt der Schluss nahe, dass die Personalauswahl dann eben doch eine Fehlentscheidung war. Eine Interpretation liegt darin, dass bei der Mitarbeiterauswahl zu großer Wert auf die formale Qualifikation gelegt wurde und zu wenig auf die Neigung des Mitarbeiters bei der zu bewältigenden Aufgabe. Ein Beispiel mag das verdeutlichen: Ein neuer Mitarbeiter kommt nach den ersten Wochen zu seinem neuen Chef und beklagt sich darüber, dass die Aufgabenstellung weder der zweifelsohne "aufge510
Mitarbeitereinsatz n. Eignung u. Neigung blasenen" Stellenbeschreibung noch den Vereinbarungen des Vorstellungsgespräches entspricht. Die Antwort des Chefs dürfte kein Einzelfall sein: "Sie sind erst kurze Zeit bei uns und sicher noch nicht richtig eingearbeitet, dies wird schon besser, Sie brauchen nur etwas Geduld." Zwei Verhaltensweisen können als typische Reaktionen bezeichnet werden: 1. Der neue Mitarbeiter fügt sich in sein Schicksal, die Aufgaben machen ihm nicht viel Freude und die Arbeitsmotivation sinkt, er verlagert seinen Tatendrang z.B. in Freizeitaktivitäten. 2. Der neue Mitarbeiter versucht ein zweites, vielleicht drittes Mal eine Aufgabenveränderung zu erwirken, und wenn ihm dies nicht gelingt, verlässt er das Unternehmen. Dass Freude an der Arbeit die beste Motivation ist, wird zwar jeder zweifelsohne bejahen, das tägliche Handeln vieler Führungskräfte lässt jedoch bezweifeln, ob sie diese Aussage auch tatsächlich ernst nehmen. Auslösender Fehler ist meist die Dominanz der Eignungsfeststellung in Beschaffungsprozessen. Es ist ein Trugschluss zu glauben, dass jeder der sich auf eine freie Stelle bewirbt, hierfür auch eine besondere Neigung verspürt. In vielen Fällen spielen ganz andere Faktoren für die Bewerbung eine große Rolle: Endlich mehr Geld verdienen, in eine andere Stadt ziehen, vor Arger mit dem bisherigen Chef davonlaufen, einfach mal wieder etwas anderes arbeiten, usw. Aber nicht nur bei Neueinstellungen wird der Neigungsaspekt sträflichst vernachlässigt. Wer als Führungskraft in seinem Verantwortungsbereich danach Ausschau hält, wie vorhandene Potenziale noch besser ausgeschöpft werden können, wird eher selten über organisatorische Maßnahmen erfolgreich sein. Veränderungen in der Aufgabenzuordnung, die stärker die Neigung der Mitarbeiter berücksichtigen, kann jedoch überraschende Leistungsre-
Mitarbeitereinsatz n. Eignung u. Neigung serven zu Tage fördern und zur Ausschöpfung bringen. Viel häufiger sollten die Mitarbeiter einer Organisationseinheit die Chance haben, gemeinsam über eine neue Aufgabenverteilung mit Fokussierung auf den neigungsorientierten Mitarbeitereinsatz nachzudenken. Die häufig in diesem Zusammenhang vorgebrachten Argumente, "die Mitarbeiter werden dafür bezahlt, dass sie die zu bewältigenden Aufgaben ordentlich durchführen" oder "wir haben keine Wunschsendung, sondern knallharte Ziele zu erfüllen", sind weniger hilfreich, Leistungsverbesserungen zu initiieren. Abschließend sei das wichtigste Argument für eine stärkere Berücksichtigung des neigungsorientierten Mitarbeitereinsatz genannt: Instrumente, die eine mangelnde Neigung für eine Aufgabe verbessern, gibt es nicht. Nicht ganz optimale Eignung kann dagegen mit Qualifizierungsmaßnahmen verbessert werden (-» Personalentwicklung). Insofern ist es leichter, auf etwas Eignung zu verzichten, wenn ich dafür stärkere Neigung der Mitarbeiter bekomme. Motivation und besseres Ausschöpfen der vorhandenen Mitarbeiterpotenziale machen eine möglicherweise notwendige Bildungsmaßnahme mehr als wett. Werner Fröhlich Mitarbeiterzufriedenheit 1. Begriff Mitarbeiterzufriedenheit ist als Begriff in der Literatur erst in jüngerer Zeit zunehmend anzutreffen. Wurde in der Vergangenheit die Zufriedenheit von Mitarbeitern in einem Unternehmen thematisiert, so wurde häufiger von der Arbeitszufriedenheit gesprochen. Damit wurden i.e.S. Sachverhalte erfasst, die die Zufriedenheit einer Person mit ihrer Arbeit (Inhalten und Arbeitsplatz) betreffen. Mitarbeiterzufriedenheit kann demgegenüber in einem erweiterten Sinn verstanden werden. Sie umfasst sowohl die Zufriedenheit mit
Mitarbeiterzufriedenheit dem eigenen Arbeitsplatz und den Arbeitsinhalten als auch die Zufriedenheit des Mitarbeiters mit den unternehmensinternen Leistungsprozessen. Der Fokus beschränkt sich demnach nicht nur auf eine enge Betrachtung des Arbeitsplatzes, sondern bezieht auch die weiteren unternehmensinternen Zusammenhänge mit ein. Mitarbeiterzufriedenheit kann in Entsprechung zur Zufriedenheitsforschung über einen Abgleich zwischen den Erwartungen des Mitarbeiters und der Wahrnehmung seiner Situation erklärt werden. Stimmen Erwartung und Wahrnehmung im Wesentlichen (mit gewissen Toleranzzonen) überein, so ist die Entstehung von Mitarbeiterzufriedenheit wahrscheinlich. 2. Entstehung von Mitarbeiterzufriedenheit Die klassischen Erklärungsansätze der Mitarbeiterzufriedenheit (im Sinne der Arbeitszufriedenheit) stützen sich vielfach auf die Zweifaktorentheorie von Herzberg. Demnach sind für die Entstehung von Mitarbeiterzufriedenheit Motivationsfaktoren und Hygienefaktoren entscheidend. Motivationsfaktoren sind bei Vorhandensein geeignet, die Mitarbeiterzufriedenheit zu erhöhen (primär intrinsische Anreize, wie z.B. Lob und Anerkennung durch Vorgesetzte, erweiterte Entscheidungs- und Handlungsspielräume i.S. des -> Empowerment, Karrieremöglichkeiten und Karriereplanung). Hygienefaktoren (primär extrinsische Anreize, wie z.B. Gehalt, Arbeitsbelastung) wirken demgegenüber nicht wirklich zufriedenheitssteigemd, sondern können bei entsprechend positiver Ausprägung allenfalls die Entstehung von Unzufriedenheit verhindern. Werden die Hygienefaktoren allerdings negativ bewertet, wirken sie direkt steigernd auf die Unzufriedenheit. Neuere empirische Untersuchungen zeigen, dass verschiedenen Faktoren Wirkungen auf die Mitarbeiterzufriedenheit zugeschrieben werden können. Zu nennen 511
Mitarbeiterzufriedenheit sind hier die Wahrnehmung des Arbeitsplatzes sowie des Arbeitsumfeldes, die unternehmensinternen Interaktionsprozesse, die Aspekte Klima und Vertrauen sowie auch die wahrgenommene Wertschätzung als Person. Die Summe dieser Aspekte unterstützt das gegenüber der Arbeitszufriedenheit erweiterte Verständnis der Mitarbeiterzufriedenheit. Versteht man Mitarbeiterzufriedenheit als einstellungsähnliches Konstrukt, so sind affektive, kognitive und konative Elemente zu unterscheiden. •
Das affektive Element kennzeichnet dabei die mit der Arbeit und dem Umfeld verbundenen Gefiihlszustände des Mitarbeiters (z.B. ein Zugehörigkeitsgefühl zum Unternehmen).
•
Kognitive Elemente erfassen die aktive gedankliche Auseinandersetzung mit der Arbeitssituation (z.B. die altemativenorientierte Bewertung der Arbeitsbedingungen).
•
Konative Elemente erfassen schließlich die resultierenden Verhaltensabsichten (z.B. in Form von Absentismus und Fluktuation).
Die Entstehung von Mitarbeiterzufriedenheit wird in Entsprechung zu ihrem erweiterten Verständnis zunehmend über die Gestaltung der unternehmensinternen Leistungsprozesse erklärt. Im Vordergrund steht dabei der Mitarbeiter als unternehmensinterner Kunde. 3. Wirkungen von Mitarbeiterzufriedenheit Die Zielsetzung, in einem Unternehmen über einen Stamm von zufriedenen Mitarbeitern verfügen zu können, ist i.d.R. kein originäres Unternehmensziel. Mitarbeiterzufriedenheit wird dementsprechend vor allem angestrebt, um eine höhere -> Motivation der Mitarbeiter zu erreichen bzw. deren Leistung(sbereitschaft) zu fördern. Als inzwischen wissenschaftlich nicht mehr haltbar, dennoch aber in der Unter512
Mitarbeiterzufriedenheit nehmenspraxis zumindest implizit noch immer anzutreffend, ist der Erklärungsansatz von Maslow zu verstehen. Demnach bestimmen fünf hierarchisch angeordnete Motive das Handeln von Menschen (-> Maslows Bedürfnishierarchie). In der Vergangenheit wurde insbesondere der Zusammenhang zwischen Mitarbeiterzufriedenheit und Leistung von Mitarbeitern häufiger analysiert. Die Ergebnisse empirischer Untersuchungen zu diesem Themenbereich sind keineswegs eindeutig. Ist in der Summe ein eher positiver Zusammenhang zwischen Mitarbeiterzufriedenheit und Leistung zu unterstellen, so können bei einer differenzierteren Betrachtung verschiedene Reaktionsmuster auf (Un-)Zufriedenheit angenommen werden. So kann z.B. auch Unzufriedenheit dazu fuhren, dass über eine Senkung der Erwartungen ein Stadium resignativer Zufriedenheit erreicht wird bzw. über eine Verdrängung der Ursachen der Unzufriedenheit letztlich ein Zustand der "PseudoZufriedenheit" entsteht. Mitarbeiterzufriedenheit wird in verschiedenen Modellen auch als wichtige Determinante bei der Entstehung von Commitment seitens der Mitarbeiter gegenüber dem Unternehmen verstanden. Im Mittelpunkt steht dabei nicht ein vereinfachend unterstellter Zusammenhang zwischen Zufriedenheit und Leistung, sondern eine weiterreichende (Selbst-) Verpflichtung gegenüber dem Unternehmen, deren Verhaltenskonsequenz in psychologischer und faktischer Mitarbeiterbindung (positive Einstellung und darüber hinaus auch tatsächlicher Verbleib im Unternehmen) resultiert. Hierauf aufbauend finden in Wissenschaft und Praxis die Zusammenhänge zwischen Mitarbeiterzufriedenheit und Kundenzufriedenheit bzw. Kundenbindung zunehmende Beachtung. Im Sinne eines "Qualitätskreislaufes" wird hier unterstellt, dass Mitarbeiterzufriedenheit zu Mitarbeitermotivation führt, diese sich in erhöhter Dienstleistungsqualität und
Mitarbestimmungsrechte
Mitarbeiterzufriedenheit Kundenzufriedenheit manifestiert und schließlich in der Konsequenz über den resultierenden ökonomischen Unternehmenserfolg wiederum die Mitarbeiterzufriedenheit steigt. Bei einer differenzierteren Betrachtung lassen sich drei mögliche Ebenen der Wirkung von Mitarbeiterzufriedenheit unterscheiden: 1. Zunächst sind direkte Wirkungen der Mitarbeiterzufriedenheit auf das unternehmensinteme Mitarbeiterverhalten zu erwarten. Es wird unterstellt, dass Mitarbeiterzufriedenheit die Entstehung von Commitment gegenüber dem Unternehmen und seinen Zielen fördert und damit direkte Wirkungen auf die Leistungsbereitschaft der Mitarbeiter verbunden sind. 2. Direkte Wirkungen sind auch im Verhalten gegenüber externen Kunden zu erwarten. Es wird unterstellt, dass sich zufriedene Mitarbeiter gegenüber den externen Kunden mit größerer Wahrscheinlichkeit so verhalten, dass die Erwartungen der Kunden erfüllt werden und somit -» Kundenzufriedenheit resultiert. 3. Indirekte Wirkungen auf den Unternehmenserfolg sind schließlich gegeben, wenn die aus der Mitarbeiterzufriedenheit resultierende Kundenzufriedenheit ihrerseits zur Entstehung von Kundenbindung beiträgt. Den damit einhergehenden positiven Verhaltensweisen (Wiederkauf, CrossBuying, Weiterempfehlung usw.) werden wiederum positive Beiträge zur Erreichung der ökonomischen Unternehmensziele zugeschrieben. 4. Ausblick Trotz der teilweise langen Tradition der Erforschung der Arbeitszufriedenheit sind zahlreiche Aspekte der Mitarbeiterzufriedenheit noch nicht ausreichend erforscht. Die Komplexität des Konstrukts und der große Einfluss personenbezogener Determinanten macht auch zukünftig eine
systematische Auseinandersetzung mit den Ursachen und der Konsequenzen der Mitarbeiterzufriedenheit erforderlich. Komplexere statistische Verfahren, wie z.B. die -> Kausalanalyse, erscheinen in diesem Zusammenhang geeignet, zukünftig weitere Erkenntnisse in diesem Themenbereich zu liefern. Notwendig für die Unternehmenspraxis erscheint vor allem die Etablierung von Steuerungssystemen mit einer regelmäßigen und institutionalisierten Erfassung der Mitarbeiterzufriedenheit (M.-Tracking) zur Abbildung der aktuellen Zufriedenheitssituation sowie der Überprüfung von mitarbeiterzufriedenheitsbezogenen Zielen. Literatur: Bruhn, M./Grund, M.A.: Mitarbeiterzufriedenheit und Mitarbeiterbindung, in: Herrmann, A./Homburg, Ch. (Hrsg.): Marktforschung. Grundlagen, Methoden, Anwendungen, Wiesbaden, 1999, S. 9 3 3 - 9 5 6 ; Grund, M.A.: Interaktionsbeziehungen im Dienstleistungsmarketing. Zusammenhänge zwischen Zufriedenheit und Bindung von Kunden und Mitarbeitern, Wiesbaden 1998; Heskett, J.L.: Lessons in the Service Sector, in: Harvard Business Review, Vol. 65, 2/1987, S. 118-126; Martin, A.: Arbeitszufriedenheit, in: Gaugier, E./Weber, W. (Hrsg.): Handwörterbuch des Personalwesens, 2. Aufl., Stuttgart 1992, Sp. 4 8 1 ^ ( 9 3 .
Manfred Bruhn Mitbestimmungsrechte Die (betrieblichen) Mitbestimmungsrechte gehören mit den -> Mitwirkungsrechten zu den betrieblichen Beteiligungsrechten (-> Beteiligungsrechte, betriebliche). Sie gewährleisten dem -» Betriebsrat die Teilnahme an den — die -* Arbeitnehmer betreffenden - Entscheidungen des Arbeitgebers auf betrieblicher Ebene. Die Rechte im einzelnen: •
Widerspruchs- oder Vetorechte: Hier kann der Betriebsrat einer vom Arbeitgeber vorgesehenen Maßnahme widersprechen, allerdings bedeutet dies meist nicht, dass der Arbeitgeber die Maßnahme nicht durchführen kann. Es können aber weitere Rechtswirkungen damit verbunden sein. Beispiel: Der Betriebsrat kann einer 513
Mitunternehmertum
Mitbestimmungsrechte geplanten Kündigung widersprechen. Dies verhindert aber nicht die Wirksamkeit der Kündigung. •
•
Zustimmungsrecht (negatives Konsensprinzip): Der Betriebsrat kann die Zustimmung unter bestimmten Voraussetzungen verweigern, ist sonst aber zur Zustimmung verpflichtet. Beispiel: Bei personellen Einzelmaßnahmen kann der Betriebsrat seine Zustimmung zu einer Einstellung verweigern, wenn eine beantragte interne Stellenausschreibung unterblieben ist. Zustimmungsrechte (positives Konsensprinzip): paritätische Mitbestimmung, Initiativrecht: Hier ist die Mitwirkung des Betriebsrats an Entscheidungen des Arbeitgebers völlig gleichberechtigt. In den Fällen, in denen dem Betriebsrat diese Rechte zustehen, kann der Arbeitgeber nicht alleine entscheiden. Beispiel: In allen Fällen des § 87 BetrVG haben Betriebsrat und Arbeitgeber die gleichen Rechte. Der Betriebsrat kann auch von sich aus initiativ werden und die dort aufgeführten Punkte zur Entscheidung stellen.
Die Mitbestimmung auf Unternehmensebene regelt die Unternehmensmitbestimmung. Mitunternehmertum 1. Einführung Es handelt sich hierbei um einen Ansatz zur Förderung (mit-)unternehmerischer Orientierungen und Verhaltensmuster von Mitarbeitern mit und ohne Führungsaufgaben. Der Ansatz des Mitunternehmertums konzentriert sich auf kontinuierliche und inkrementale Veränderungen. Arbeit wird nicht nur als Produktions-, sondern als strategischer Erfolgsfaktor verstanden. Überlegungen zum Mitunternehmertum werden schon seit den fünfziger Jahren diskutiert. Entwicklungen in jüngster Zeit wie der wachsende Wettbewerbsdruck, die Globalisierung der Wirtschaft sowie der Übergang von der Industrie- zur 514
Dienstleistungsgesellschaft, die alle von den Mitarbeitern höhere Leistungsbeiträge fordern, verdeutlichen die aktuelle Bedeutung dieses Ansatzes. Hinzu kommen die unternehmensinternen Veränderungen der letzten Jahre. Beispielhaft sei hier der Wertewandel genannt, der die Motive nach Selbstständigkeit und zugleich nach Teamarbeit, nach kreativer sowie sinnhafter Tätigkeit verstärkt hat. 2. Unternehmenspraxis Was in den fünfziger und sechziger Jahren meist als normatives Konzept sozialer Mittelstandsunternehmer diskutiert und realisiert wurde, entwickelt sich nun zu einem Führungskonzept für Global Players. Nun stehen auch nicht mehr wirtschafte- und sozialethische Motive sowie Mitbestimmung oder Kapitalbeteiligung im Mittelpunkt, sondern praktische Erkenntnisse zu Anforderungen an zeitgemäßes und effizientes (Wissens-) Management - gerade von Großunternehmen, die damit einen Kultur-, Organisations und Strategiewandel anstreben. 3. Bezugsrahmen Mitunternehmerische Führung und Entwicklung werden verstanden als innovations-, umsetzungs- und kooperationserhöhende soziale Beeinflussung und Förderung von Organisationsmitgliedern. Ziel ist die langfristige Steigerung oder Sicherung des Unternehmenswertes durch optimierte Nutzenstiftung für die zentralen Bezugsgruppen. Im Mittelpunkt steht hierbei die differenzierte Förderung unternehmerischen Denkens und Handelns bei möglichst vielen Mitarbeitern, also nicht nur das unternehmerische Verhalten des (Top-) Managements. Die wesentlichen Aspekte sind in einem Bezugsrahmen systematisiert: •
•
Ziel ist die Wertschöpfung für zentrale Bezugsgruppen sowie deren indirekte oder direkte Erfolgsbeteiligung. Die interne Steuerung erfolgt nun vor allem über eine Kombination von interner Markt- und sozialer Netzwerksteuerung.
Mitunterneh mertu m •
•
•
•
Diese wird insbesondere durch fördernde Rahmenbedingungen über strukturelle Führung und Entwicklung (über Kultur-, Strategie-, Organisations- und Personalstrukturgestaltung) gesichert und über interaktive Führung sowie Selbstmanagement umgesetzt. Die Förderung bezieht auf unternehmerische Schlüsselqualifikationen und -motivationen. Die Mitarbeiter (einschließlich der Führungskräfte) werden nach ihrer (mit-)untemehmerischen Qualifikation und Motivation in einem Portfolio eingeschätzt und danach auch zielgruppenorientiert selektiert, plaziert und gefördert. Wichtige Förderungsstrategien sind: Ermächtigung und Motivation vor allem durch fördernde Rahmenbedingungen, Leitsätze fur internes Unternehmertum, zielgruppenbezogene Förderung, Erfolgsbeteiligung, Auswahl und Plazierung von Veränderung, teamorientierte Portfoliomischung, Subsidiarität in Führung und Entwicklung, Vorbild und Coaching durch Führungskräfte sowie Counselling durch Mitarbeiter, transformationale Führung.
4. Elemente der Transformationsprozesses Die folgenden zehn Elemente bilden das Modell internen Unternehmertums auf der Grundlage des zuvor diskutierten Bezugsrahmens. (1) Wertschöpfung für das Unternehmen sowie Nutzenstiftung für die zentralen Bezugsgruppen rangieren vor Nutzenmaximierung fiir einen Stakeholder Wer Arbeitnehmer langfristig und nachhaltig als Mituntemehmer gewinnen und fordern will, muss sie auch als Partner sehen und darf sie nicht als Investitionsgüter der Eigner instrumentalisieren. Dies hat sich in den Unternehmensgrundsätzen und auch im Alltagshandeln der Unternehmensleitung wiederzufinden. Dies betrifft
Mitunternehmertum auch eine materielle Beteiligung der Mituntemehmer an der erzielten Wertschöpfung des Unternehmens. Dabei sollte aber nie vergessen werden, dass der Ansatz des Mituntemehmers als intrinsisches Motivations- und Verhaltenskonzept zu verstehen ist. Dieses sollte vor allem nicht durch extrinsische Anreize (z.B. Entlohnung), welche die intrinsische Motivation verdrängen, gestört werden. (2)Markt- und soziale Netzwerksteuerung dominieren und modifizieren die klassische Führungskonfiguration über Hierarchie und Bürokratie Bei sozialen Netzwerken stehen die wechselseitige Kooperation, die menschliche Begegnung und der emotionaler Austausch, aber auch die Pflege von Beziehungen vor dem Hintergrund von Nützlichkeitserwägungen im Vordergrund. Das Netzwerk bewirkt in der Regel langfristigere und stärkere, weil emotional fundierte Bindungen an die internen Marktteilnehmer als die professionelle Bindung über Bürokratie. Und sie ist im Vergleich zur hierarchischen Steuerung weniger weisungsorientiert, fremdorganisiert und mehr lateral sowie abstimmungsorientiert und proaktiv. Die interne Marktsteuerung geschieht zunehmend mit geldwertem Austausch - meist über Verrechnungspreise. Praktiziert wird diese häufig für interne Dienstleistungen, wie z.B. das Personalwesen. Es entsteht eine Mischkultur zwischen Markt und sozialem Tausch. In dieser Kombination von Wettbewerb und Kooperation wird die erwünschte bzw. erforderliche Steuerungskonfiguration gesehen. Hierarchie und bürokratische Steuerung werden dabei weiterhin eingesetzt, aber nun mit nachrangiger Bedeutung. (3) Strukturell-systemische Führung und Entwicklung definieren die fördernden Rahmenbedingungen für interaktive, 515
Mitunternehmertum
Mitunternehmertum Markt in den Fokus der Mitarbeiter gerückt wird. Zur unternehmerischen Organisation werden bevorzugt folgende Gestaltungsoptionen diskutiert: marktorientierte Organisation, Dezentralisierung, Profit- oder Wertschöpfungs-CenterOrganisation. Zu beachten ist, dass mit der Verkündung neuer Organisationsstrukturen die Vorstellung in den Köpfen der Mitarbeiter noch lange nicht verändert sind.
transformationale, situations- und mitarbeitergerechte Führung Strukturelle Führung wird vor allem über vier Gestaltungsansätze realisiert, und zwar in allen Dimensionen: Mituntemehmerische Kultur, Strategie, Organisation und Personalstruktur. Ebenso sind aber auch die vier Ebenen Person, Team, Unternehmen und Umwelt - integriert zu sehen und zu gestalten. Es ist eine Unternehmens- und Führungskultur über leitende Werte internes Unternehmertum zu entwickeln und in entsprechenden Grundsätzen zu dokumentieren. Dazu zählen Werte wie Eigeninitiative, freiwilliges Engagement, Chancenorientierung, Handlungs- und Umsetzungsorientierung, die Unterstützung persönlicher Ziele, aber auch Kooperation und prosoziales Verhalten. Abbildung 1 verdeutlicht die Elemente einer dem internen Mitunternehmertum förderlichen Kultur.
Bei der qualitativen Personalstruktur geht es um die Ausrichtung nach unternehmerischen Kompetenzen und Motiven. Der transforationalen Führung, mit der die Mitarbeiter auf anspruchsvollere Werte und Ziele "transformiert" werden, kommt ebenfalls große Bedeutung zu. Sie fördert die Selbststeuerung und -entwicklung. Die Coachund Motivatorenrolle stehen dabei im Mittelpunkt. (4) Proaktive Selbststeuerung und -organisation im Rahmen der strukturellen Führung reduzieren tayloristische Fremdsteuerung.
Die Strategie verbindet wertfundierte Ziele mit dafür ausgewählten Mitteln. Hier ist die kundenorientierte strategische Ausrichtung von besonderer Bedeutung, weil damit auch der interne
V o n der Bürokratie zum internen Unternehmertum Wandel als Bedrohung
Wandel als Chance
Angst vor Fehlern
Bereitschaft Fehler zu begehen und daraus zu lernen
Infragestellen neuer Ideen
Engagierte Unterstützung von Ideen
Instruktionen und Regeln
Sinngebung durch Visionen
Kontrolle
Gegenseitiges Vertrauen und Freiheit
Innenorientierung
Kundenorientierung
Big-Bang Innovation
m^
Auch kleine Innovationen werden gewürdigt
Abb. 1: Von der Bürokratie zum internen
516
Unternehmertum
Mituntemehmertum
Mitunternehmertum
Im Zentrum des Ansatzes steht die Förderung der dafür qualifizierten und motivierten Mitarbeiter durch fördernde Rahmenbedingungen (Kultur, Strategie und Organisation) sowie entsprechende Leadership. Grundlage für das Mitwissen, Mitdenken, Mitentscheiden, Mithandeln und Mitverantworten der Mitarbeiter ist aber deren Qualifikation und Motivation zum freiwilligen Engagement, zur proaktiven und durch Führung gelenkten und gecoachten Selbststeuerung. Nach dem Subsidiaritätsprinzip hat damit die Führungskraft grundsätzlich erst dann einzutreten, wenn der jeweilige Mitarbeiter durch die Aufgaben in der jeweiligen Situation überfordert wird.
Mitarbeiter gegebene Potenziale auch oder gerade im Unternehmen einsetzen, ist die Förderung der Identifikation und Motivation der Mitarbeiter von besonderer Bedeutung. Den Identifikationsmustern der Mitarbeiter wird dabei eine noch größere Bedeutung beigemessen als der Motivation, weil es sich bei der Identifikation des Mitarbeiter mit seinem Unternehmen um relativ stabile "Werteskripte" handelt, die geringeren Schwankungen unterworfen sind als situationsbestimmte Motivation. Problematisch ist, dass die Motivation und Identifikation von Bewerbern im Rahmen der Personalauswahl bzw. der Personaleinsatzplanung nur schwer erkennbar ist.
(5) Auswahl und Förderung erfolgen nach wenigen unternehmerischen Schlüsselqualifikationen statt nach allgemeinen oder fach- bzw. stellenspezifischen Merkmalen Für den Ansatz sind drei Schlüsselqualifikationen von größter Bedeutung: - Gestaltungskompetenz (Fähigkeit zu strategieorientierten Problemlösungen) - Handlungskompetenz (Fähigkeit zur effizienten Umsetzung) - Sozialkompetenz (Fähigkeit zur kooperativen Selbstorganisation) In arbeitsteiligen, sozial stabilen, auf langfristige und enge interne Kooperation angelegten Organisationen ist die Fähigkeit und Bereitschaft der Mitarbeiter zur Teamarbeit wie auch zur abteilungsübergreifenden Zusammenarbeit über soziale Netzwerke Voraussetzung für eine effiziente Umsetzung von Problemlösungen.
(7) Differenzierte (Selbst-)Selektion, Plazierung und Entwicklung nach einem Portfolio-Ansatz verhindern exklusive bzw. utopisch-kollektive Verhaltensanforderungen Realistische Fördermodelle fordern eine Abkehr von exklusiven Ansätzen (z.B. nur Führungskräfte) oder von utopischen und undifferenzierten Vorstellungen zu kollektiven Verhaltensänderungen bei allen Mitarbeitern. Die Mitarbeiter sollten deshalb nach ihrem (mit-)untemehmerischen Reifegrad differenziert geführt, entwickelt und eingesetzt werden. Dazu kann der Portfolio-Ansatz eine hilfreiche Unterstützung liefern. Er erlaubt eine differenzierte Analyse und Strategie nach Verhaltenskategorien, Schlüsselqualifikationen, Entwicklungsphasen und einzelnen Komponenten. Er bewahrt vor utopischen Verhaltensanforderungen an alle Mitarbeiter und er fördert eine zweckmäßige Teambildung.
(6) (Mit-)Unternehmerische Motivation und Identifikation werden zunächst getrennt von den relevanten Fähigkeiten analysiert und gezielt gefördert Da bei einem auf rein fachlichen Fähigkeiten basierenden Ansatz keineswegs automatisch gesichert ist, dass
(8) Teambezogene sowie individualisierte Mitarbeiterentwicklung ergänzen zielgruppenorientierte Führung Im Kontext der zielgruppenorientierten Förderung spielt die Teamentwicklung eine zentrale Rolle, da sie bei unterschiedlichen Reifegraden der 517
Mitunternehmertum Mitarbeiter wichtige Ausgleichs- und Sozialisationsfunktionen übernehmen kann. Das Team kann verschiedene Rollenanforderungen eignungsgerecht auf die einzelnen Mitglieder verteilen. Die Führungskraft leistet individuelle Förderung im Sinne einer Hilfe zur Selbsthilfe.
-
-
-
(9) Selbstentwicklung und Entwicklung on-the-job durch Führungskräfte rangieren vor zentraler Personalentwicklung und off-the-job-Förderung Die erste und letzte Verantwortung für die Entwicklung unternehmerischer Kompetenzen und Werthaltungen auch im Kontext der eigenverantwortlichen Beschäftigungssicherung - liegt beim Mitarbeiter selbst. Führungskräfte können und müssen aber wesentliche Unterstützung leisten. Und das Topmanagement wie auch die Personalabteilung sind insbesondere für die dafür fördernden Rahmenbedingungen verantwortlich.
-
-
-
-
(10) Leitsätze für umfassendes Mitunternehmertum ersetzen Maximen für spezielles Intrapreneurship Die Leitsätze lauten:
Mitunternehmertum Arbeite auf Dauer nur für Aufgaben, Organisationen und mit Menschen, mit denen Du Dich insgesamt (noch) identifizieren kannst. Komme jeden Tag zur Arbeit mit der Bereitschaft, Dich freiwillig zu engagieren. Verstehe Probleme als Herausforderung und nicht als Bedrohung. Versuche möglichst jeden Tag, bessere Problemlösungen in Deiner Arbeit zu entwickeln. Verbessere dabei auch Deine unternehmerischen Schlüsselqualifikationen sowie die Deines Teams. Konzentriere Dich auf Ergebnisse, insbesondere auf Nutzen für Deine Bezuggruppe (z.B. Kunden) statt auf Inputs. Setze Deine Ziele - im Rahmen Deines Handlungsspielraums möglichst eigenständig und selbstverantwortlich, aber Strategie- und teamorientiert um. Arbeite dabei langfristig kooperativ mit anderen Beteiligten zusammen. Verhalte Dich dabei so, wie Du selbst gerne behandelt werden möchtest.
Mitunternehmertum als Transformationsprozess
2 S m
Steuerungskonzept
Schlüsselqualifikationen
Auswahl und Entwicklung
interner Markt; kooperatives Netzwerk
Gestaltungs-; Umsetzungs-; Sozialkompetenz
Portfolio; Selbst- und Teamentwicklung
W)
Leitsätze
Im 5
Führung
Identifikation Motivation
strukturell systemisch; transformationalinteraktiv
Engagement; Empowerment
Koordination
Potenzial
Abb. 2: Mitunternehmertum
518
als
für Mituntemehmer
Politik Transformationsprozess
S S
6
Mitunternehmertum
Mobbing
Die Abbildung 2 "Mitunternehmertum als Transformationsaufgabe" verdeutlicht noch einmal den Prozess zur Einführung eines internen Unternehmertums. 5. Fazit Die Förderung internen Unternehmertums stellt die größten Anforderungen zur Veränderung an die Führungskräfte. Die Einführung des internen Unternehmertums muss nicht total bzw. auf einmal geschehen. Inkrementales Mitunternehmertum im Sinne eines "Continous improvement" heißt auch hier die Devise. Literatur: Wunderer, R.: Mitarbeiter als Mitunternehmer. Grundlagen, Förderinstrumente, Praxisbeispiele, München 1999; Wunderer, R./Kuhn, T.: Unternehmerisches Personalmanagement, in: Wunderer R./Kuhn T. (Hrsg.): Innovatives Personalmanagement, Neuwied u.a. 1995; Wunderer, R./Mittmann, J.: Identifikationspolitik, Stuttgart 1995; Wunderer, R./Arx, S.v./Jaritz, A.: Unternehmerische Ausrichtung der Personalarbeit, in: Personal, 50. Jg., Nr. 6/1998, S. 2 7 8 - 2 8 3 .
Rolf Wunderer Mitwirkungsrechte Die Mitwirkungsrechte gehören mit den -> Mitbestimmungsrechten zu den betrieblichen Beteiligungsrechten (-»Beteiligungsrechte, betriebliche). Sie gewährleisten dem Betriebsrat die gewissenhafte Vorbereitung der Entscheidungsfindung im Rahmen der Mitbestimmung. Die Rechte im einzelnen: •
•
Unterrichtungsbzw. Informationsrecht: Hiermit ist eine einseitige Information des Betriebsrats durch den Arbeitgeber gemeint. Der Arbeitgeber hat dabei entscheidungsrelevante Sachverhalte mitzuteilen. Diese Rechte gewährleisten zwar keine unmittelbare Mitwirkung des Betriebsrats, sind aber die Voraussetzung einer sinnvollen Beteiligung des Betriebsrats. Beispiel: Im Vorfeld personeller Einzelmaßnahmen ist der Betriebsrat zu unterrichten. Anhörungsrechte: Die nächst höhere Stufe der Mitwirkung ist die Anhörung, bei welcher der Arbeitgeber die
Meinung des Betriebsrats zur Kenntnis zu nehmen hat und sich anschließend mit den Anregungen und Einwendungen zu befassen hat. Beispiel: Vor Aussprechung einer Kündigung ist der Betriebsrat zu anzuhören. Die dabei geäußerten Meinungen verpflichten den Arbeitgeber aber zu nichts. •
Beratungsrecht: Das Beratungsrecht ist das stärkste der Mitwirkungsrechte, da es den Arbeitgeber verpflichtet, die Meinung des Betriebsrats nicht nur entgegen zu nehmen, sondern den Verhandlungsgegenstand gemeinsam zu erörtern und die Gründe des Betriebsrats abzuwägen hat. Beispiel: Im Rahmen einer geplanten Betriebsänderung ( § 1 1 1 BetrVG) besteht die Verpflichtung zur Beratung mit dem Betriebsrats.
Mobbing Als Mobbingaktivitäten können grob jene Verhaltensweisen definiert werden, durch die einzelne Organisationsmitglieder anderen Organisationsmitgliedern im Rahmen der gemeinsamen Arbeit gezielt Schaden zufügen. Hierbei kann es sich beispielsweise um das Vorenthalten wichtiger Informationen, um die Verbreitung von Gerüchten oder sogar um den Einsatz körperlicher Gewalt handeln. Letztlich ist eine objektive Abgrenzung von Mobbingaktivitäten kaum möglich; z.B. mag das (dauerhafte) Ausbleiben der morgendlichen Begrüßung am Arbeitsplatz als subtiles Mobbing empfunden werden, zum anderen kann es jedoch auch schlicht auf Zerstreutheit oder Zeitmangel der betreffenden Person zurückzufuhren sein. Es lassen sich verschiedene Ursachen für Mobbing unterscheiden. Ganz allgemein kann hierbei eine Unterteilung in nichtökonomische und ökonomische Ursachen erfolgen. •
Nicht-ökonomische Ursachen bestehen u.a. dann, wenn das Verhalten einzel519
Mobbing ner Personen bereits in frühen Sozialisationsphasen dahingehend geprägt wird, dass das Schädigen anderer Personen fortan zu den festen Verhaltensroutinen der betrachteten Person gehört. Denkbar ist zudem, dass Individuen eine Befriedigung darin sehen, anderen Personen Schaden zuzufügen. •
Allerdings sind ebenfalls rein ökonomische Ursachen für Mobbingaktivitäten vorstellbar. Beispielsweise kann es für einzelne Organisationsmitglieder rational sein, Kollegen gezielt durch Mobbing in ihrer Arbeit zu behindern, wenn diese Kollegen die härtesten Konkurrenten im Beförderungswettbewerb sind (horizontales Mobbing). Möglich ist auch, dass Vorgesetzte den Erfolg ihrer Mitarbeiter durch Mobbingaktivitäten zu mindern versuchen, wenn sie befurchten, später einmal durch einen erfolgreichen Mitarbeiter ersetzt zu werden (vertikales, abwärts gerichtetes Mobbing). Sofern die Sanktionsmöglichkeiten eines Vorgesetzten nicht hinreichend groß sind, ist sogar denkbar, dass ein untergeordneter Mitarbeiter den Vorgesetzten mittels subtilen Mobbings zu einem Abteilungs-, Betriebs- oder gar Unternehmenswechsel zu veranlassen versucht, um dessen Nachfolger zu werden (vertikales, aufwärts gerichtetes Mobbing).
Neben den Ursachen von Mobbing stellt sich aus Unternehmenssicht die Frage nach geeigneten Gegenmaßnahmen, da durch Mobbingaktivitäten erhebliche Kosten verursacht werden. Das Ergreifen gezielter Gegenmaßnahmen ist im Einzelfall jedoch mit Problemen verbunden. Zunächst einmal ergibt sich ein Unterscheidungsproblem: Über Mobbing könnten sich beispielsweise auch solche Organisationsmitglieder beschweren, die als Drückeberger von ihren Kollegen sanktioniert werden, die aktuell Vergel520
Mobbing tungsmaßnahmen eigener Mobbingopfer zu ertragen haben oder die lediglich zu Überempfindlichkeit neigen. Gegebenenfalls könnte sich die Miteinbeziehung des -»• Betriebsrats zur Klärung der genauen Zusammenhänge als äußerst hilfreich erweisen, da der Betriebsrat oftmals über wichtige dezentrale Informationen verfügt und im Allgemeinen an einer Aufrechterhaltung der Leistungsfähigkeit des Betriebs interessiert sein dürfte. Ein zweites Problem betrifft die Effizienz von Gegenmaßnahmen. Mobbing mag ein gesellschaftlich relevantes Problem sein, für ein bestimmtes Unternehmen empfehlen sich Gegenmaßnahmen jedoch erst dann, wenn die hierdurch eingesparten Kosten in Form von Effizienzverlusten aufgrund von Mobbing (z.B. Kosten infolge von Absentismus oder Fluktuation) größer sind als die durch die Gegenmaßnahmen verursachten Kosten. Ergibt sich vor dem Hintergrund dieses "Kosten-Nutzen-Kalküls" ein Handlungsbedarf für einen Arbeitgeber, so stellt sich zusätzlich die Frage, welche präventiven und Ad-hoc-Maßnahmen im Einzelfall angemessen sind. Präventive Maßnahmen bieten gegenüber Ad-hoc-Maßnahmen den Vorteil, dass bereits im Vorfeld Mobbingaktivitäten entgegengewirkt wird. Ein Beispiel für präventive Maßnahmen bildet die Androhung von Sanktionen, die je nach Schwere der Verfehlung z.B. aus einer —• Ermahnung, einem Beförderungsstopp oder einer Entlassung bestehen können. Ein anderes Beispiel stellen präventive Beförderungsregeln dar, die u.a. vorsehen, dass ein Vorgesetzter nur dann weiterbefördert wird, wenn er selbst einen fähigen Nachfolger vorschlagen kann. Diese Regel würde zum einen vertikales, abwärts gerichtetes Mobbing verhindern, bei dem Vorgesetzte ihre fähigsten Mitarbeiter behindern, da sie ihre Stelle als bedroht ansehen. Zusätzlich entstehen Anreize für den Vorgesetzten, relevantes Wissen an seinen potenziellen
Mobbing Nachfolger weiterzugeben, statt ihm dieses bewusst vorzuenthalten. Zum anderen würde auch vertikalem, aufwärts gerichtetem Mobbing entgegengewirkt, da ein mobbender Mitarbeiter befurchten muss, nun auf keinen Fall als Nachfolger empfohlen zu werden. Horizontales Mobbing wird in dem Sinne verhindert, dass der Vorgesetzte, der anhand seiner Beförderungsempfehlung gemessen wird, aus Eigeninteresse nach dem fähigsten Mitarbeiter sucht und dabei diejenigen Kandidaten ausselektiert, die ihre Erfolge allein ihrem rücksichtslosen Durchsetzungsvermögen im internen Leistungswettbewerb verdanken. Neben derartigen Beförderungsregeln bieten sich auch weitere präventive Maßnahmen an. Beispielsweise könnte ein verstärkter Rückgriff auf -> Jobrotation erfolgen. Hierdurch würden Mitarbeiter nur noch für begrenzte Zeit zusammen in eine gemeinsame Interaktionsbeziehung eingebunden. Der mögliche Schaden aus vertikalem und horizontalem Mobbing wird insofern begrenzt, als Mitarbeiter nicht mehr auf Dauer Mobbingaktivitäten bestimmter Kollegen ausgeliefert sind. Auch gezieltem Mobbing aus ökonomischen Motiven wird durch Jobrotation entgegengewirkt, da einer dauerhaften Behinderung interner Konkurrenten durch den regelmäßigen Arbeitsplatzwechsel großenteils die Grundlage entzogen wird. Für eine Begrenzung der Interaktionsdauer zwischen denselben Mitarbeitern kann zudem auf bestimmte -»Arbeitszeitmodelle (z.B. über -» Schichtoder —> Teilzeitarbeit; -> Arbeitszeitmanagement) und auf eine entsprechende Gestaltung der Arbeitsplätze (z.B. Verzicht auf Großraumbüros) zurückgegriffen werden. Die Verkürzung der Interaktionsdauer zwischen den Mitarbeitern als Präventivmaßnahme gegen Mobbing zeigt allerdings auch, dass die Bekämpfung von Mobbing für den Arbeitgeber zwangsläufig mit Kosten verbunden ist, da nun produktive (allerdings auch kontraproduktive) Kooperationsanreize sinken
Modellierungssysteme und eingespielte Teams auseinander gerissen werden. Zusätzlich zu den genannten vorbeugenden Maßnahmen gegen Mobbing empfehlen sich im Einzelfall auch Präventivmaßnahmen begleitend zu Reorganisationen, um interne Machtkämpfe zu verhindern. Zudem wäre zu überlegen, auf eine zu starke (hierarchische) Entgeltdifferenzierung (-» Entgeltmanagement) zu verzichten, um ökonomisch motiviertes Mobbing zu verhindern. Zu bedenken ist dabei jedoch, dass durch eine zunehmende Angleichung der individuellen Entgelte im Unternehmen neben den kontraproduktiven Mobbinganreizen auch die produktiven Leistungsanreize sinken könnten. Oftmals empfiehlt sich zusätzlich, auch Ad-hoc-Maßnahmen gegen Mobbing zu ergreifen. Aus ökonomischer Sicht könnte sich beispielsweise für einen Arbeitgeber das Hinzuziehen eines Mobbing-Therapeuten oder die Errichtung einer betrieblichen Mobbingberatungs- und -betreuungsstelle lohnen, um den aktuellen Schaden aus Mobbing zu begrenzen und zudem in seine Reputation als verantwortungsvoller Arbeitgeber zu investieren. Matthias KLräkel Mobilitätsbarrieren Strategische Gruppen Modellierungssoftware —1• Modellierungssysteme Modellierungssysteme Modellierungssysteme sind Modellierungswerkzeuge, die die Konstruktion und Repräsentation von abstrakten Modellen eines realen Systems unterstützen. Sie werden in der Regel zur Unterstützung spezieller Modellierungsmethoden oder -techniken entwickelt, die zur Modellentwicklung für -> Anwendungssysteme, Abstraktionsansätze oder zur Analyse von Modelleigenschaften konzipiert wurden. 521
Modellierungssysteme 1. Allgemeines Modellierungssysteme dienen i.w.S. als Grundlage bzw. Hilfsmittel für die Erstellung und Entwicklung von Modellen bzgl. eines bestimmten Modellierungszweckes. I.e.S findet der Terminus für spezielle Modellierungssoftware Verwendung. Modellierungssysteme sind Systeme, die die Modellierung eines Realweltausschnittes (Anwendungsbereich) mit Hilfe vorgegebener Grundbegriffe und -konzepte erlauben. Es wird damit die Erstellung eines Modells (vereinfachtes oder abstraktes Abbild des Realweltausschnittes, das Funktions-, Struktur- oder Verhaltensähnlichkeiten bzw. -analogien aufweist) des untersuchten Gegenstandsbereiches unterstützt. Da es unmöglich ist, alle Aspekte dieses Teilausschnittes der Realität zu beschreiben, muss sich der Modellbildner auf wesentliche Aspekte, die für die Lösung der zugrundeliegenden Aufgabe bzw. zum Erreichen des Modellierungszieles nötig sind, beschränken und somit von nicht relevanten Sachverhalten abstrahieren. 2. Modellierungssysteme
i.w.S.
Überblick: Unter Modellierungssystemen i.w.S. werden Systeme verstanden, die es ermöglichen, ein Original bzgl. eines bestimmten Modellierungszweckes als Modell zu beschreiben. In der Informatik werden hierunter vorwiegend symbolische Werkzeuge (wie etwa Sprachkonstrukte, Kalküle) und entsprechende Methoden zu deren graphischer Repräsentation verstanden. Es wird differenziert, ob die Konstruktionselemente eines Modellierungssystems nur zur Beschreibung statischer Systeme dienen oder aber die Abbildung dynamischer Prozesse zulassen. Zur Beschreibung stetiger Prozesse bieten sich als Konstruktionsbausteine z.B. Differenzialgleichungssysteme an, diskrete Prozesse 522
Modellierungssysteme lassen sich mit Hilfe von Term- und Graphersetzungssystemen und Prozessalgebren, Petri-Netzen oder modaler Logik abbilden. Modellierungssysteme können entweder auf einer formalen, semi-formalen oder nicht-formalen Basis beruhen. Klassifikationen: Modellierungssysteme können zunächst nach den ihnen zugrunde liegenden Modellierungsmethoden klassifiziert werden. Modellierungsmethoden eignen sich zur Konstruktion von Modellen spezieller Modellklassen. So gibt es Modellierungssysteme, die ausschließlich zur Konstruktion und Repräsentation von Modellen spezieller Modellklassen geeignet sind. Als solche (nicht disjunkte) Modellklassen lassen sich folgende Modelle unterscheiden: • •
Modelle mit statischer Struktur grafisch oder symbolisch repräsentierte Modelle • analytische oder algebraische / relationale Modelle • dynamische Modelle für - kontinuierliche Prozesse (Beschreibung durch gewöhnliche oder partielle Differenzialgleichungssysteme) - diskrete Prozesse (zustandsorientierte Modellierungskonzepte wie Automaten, Petri-Netze, Graphgrammatiken, Termersetzungssysteme; logikorientierte Modellierungskonzepte wie temporale Logik, Prozessalgebren; ereignisorientierte Konzepte) Modellierungssysteme können auch nach den wesentlichen Grundphänomenen klassifiziert werden, die sie in den mit ihnen erzeugten Modellen zu spezifizieren erlauben; hierzu zählen Phänomene wie Parallelität (Nebenläufigkeit), Synchronisation, Kommunikation, räumliche Verteilung, Kausalität, Nichtdeterminismus, Zeitstrukturen, Hierarchisierung/Modularisierung.
Modellierungssysteme Klassifikationen können ferner durch die in einem Modellierungssystem zur Verfügung gestellten Grundbegriffe und Konstruktionsregeln getroffen werden (z.B. zur Repräsentation von Handlungen, Zuständen oder Situationen, logischen Abhängigkeiten, Zeitintervallen etc.). In der Informatik werden Modellierungssysteme insbesondere danach bewertet, inwieweit die ihnen zugrunde liegenden Modellierungsmethoden Entwurfsparadigmen oder Spezifikationsanforderungen genügen, z.B. in Hinblick auf Formalität und Konstruktivität. Zunehmende Bedeutung gewinnen hierbei Modellierungssysteme zur Erstellung von formalen oder semi-formalen Spezifikationen. Formale Modellierungssysteme: Formale Modellierungssysteme erlauben die Konstruktion formaler Modelle mit Hilfe einer formalen Methodik, eines formalen Ansatzes oder einer formalen Sprache, die die Semantik des formalen Modells mit mathematischen und logischen Mitteln festlegen, d.h. eine mit einem mathematischen Formalismus definierte Semantik, die nicht notwendigerweise konstruktiv sein muss. Häufig ist die formale Semantik modelltheoretisch definiert und repräsentiert ein semantisches Modell, das die Fakten und Regeln eines Realweltausschnittes abbildet. Spezielle formale Modellierungssysteme erlauben den konstruktiven Einsatz formaler Ansätze zur Entwicklung von formalen Spezifikationen, die beschreiben, "was" ein Softwaresystem leisten soll. Dies bildet die Grundlage für spätere formale Eigenschaftsanalysen (z.B. Korrektheitsbeweise). Eine formale Spezifikation definiert Modelle unabhängig von deren technischer Realisation, d.h. sie beschreibt eine Klasse von Programmen, deren Ausführungen die Anforderungen der Spezifikation erfüllen. Sonderfalle bilden direkt ausführbare Spezifikationen.
Modellierungssysteme Formale Spezifikationen laufen Gefahr, schnell umfangreich und unübersichtlich zu werden. Ihre Notation setzt weiterhin häufig erweiterte Kenntnisse in Logik und Mathematik voraus. Beispiele für formale Spezifikationssprachen sind Petri-Netze, PrädikatsTransitionsnetze, Z, VDM, Modallogiken oder die Prozessbeschreibungssprache CCS. Semi-formale Modellierungssysteme: Semi-formale Modellierungssysteme erlauben die Beschreibung eines Modells in einer Sprache, deren Syntax formal festgelegt ist. Aufgrund der fehlenden formalen Festlegung der Semantik kann die Gültigkeit von Beschreibungen nicht formal überprüft werden. Semi-formale Modellierungssysteme sind häufig intuitiver nutzbar als formale, die Prüfung auf Konsistenz des erstellten Modells ist jedoch nur unvollständig möglich. Ein Beispiel für semi-formale Modellierungssysteme ist die Object Modelling Technique (OMT). Dieses von Rumbaugh et al. vorgestellte und primär in der objektorientierten Softwaretechnik eingesetzte Modellierungssystem differenziert in Objektmodell, dynamisches Modell und funktionales Modell. Im Objektmodell werden zunächst statische Strukturen und Daten wie Objektklassen, Attribute und Beziehungen in einer dem EntityRelationship-Diagramm ähnlichen Darstellung modelliert. Das dynamische Modell bildet zeitliche Verhaltens- und Kontrollaspekte wie z.B. die Sequenz der Operationen (Events) und Zustände, die den Kontext für Events darstellen, graphisch mit Hilfe von sog. "state diagrams" ab. Im funktionalen Modell werden Zustandsveränderungen, Wertänderungen und Abbildungen (graphisch durch Flussdiagramme dargestellt) erfasst. Weitere Beispiele sind SADT, SOM, EPKs etc. 523
Modellierungssysteme
Modellierungssysteme
Nicht-formale Modellierungssysteme: Der Modellierung liegt weder eine formale Syntax, noch die formale Semantik einer Sprache zugrunde. Beispiele für nicht-formale Modellierungssysteme sind Beschreibungen, die in natürlicher Sprache oder mit Mindmaps formuliert werden. 3. Modellierungssysteme
i.e.S.
Überblick: Unter Modellierungssystemen i.e.S. versteht man Softwarewerkzeuge, die zur Unterstützung des Modellierungsprozesses herangezogen werden können. Zur Entwicklung von Anwendungssystemen werden in der Informatik Systeme eingesetzt, die phasenübergreifend die Konstruktion unterschiedlicher Teilmodelle unterstützen. Modellierungswerkzeuge: Modellierungswerkzeuge unterstützen die Modellierung durch Softwarefunktionalität (z.B. MID Innovator, ARIS Toolset, SOMPro). Dem Modellbildner werden Strukturen, Verfahrensweisen, best practices etc. zur Seite gestellt. Expertensysteme: Die Erstellung von Modellen mit Hilfe eines Modellierungssystems kann durch Expertensysteme unterstützt werden. Diese versuchen meist, Analogien in Bereichen der Modellbildung zu nutzen, um somit Modellierungsabläufe zu unterstützen und zu vereinfachen. 4. Anforderungen An Modellierungssysteme stellen sich u.a. folgende Anforderungen: •
•
Exaktheit (Das im Modellierungssystem erstellte Modell sollte sein Urbild in den für die Modellierung relevanten Dimensionen möglichst exakt abbilden können. Die Komplexität der zu modellierenden Domänen sollte beherrschbar sein.) Konsistenz (Erstellte Modelle sollten widerspruchsfrei sein.)
524
•
•
•
5.
Benutzbarkeit und Verständlichkeit (Das Modellierungssystem sollte vom Modellbildner handhabbar sein, d.h. seinen sensomotorischen und kognitiven Fähigkeiten entgegenkommen. Verständlichkeit im Dialog über die mit dem System erstellten Modelle sollte gewährleistet sein.) Modularität und Wiederverwendbarkeit (Die mit Hilfe des Modellierungssystems erstellten Modelle sollten zur Bewältigung höherer Komplexität in Module gliederbar sein. Bei analogen Aufgabenstellungen sollten diese Module wiederverwendet werden können.) Wirtschaftlichkeit (Der Einsatz des Systems zur Problembeschreibung und als Hilfsmittel zur Problemlösung sollte aus betriebswirtschaftlicher Sicht sinnvoll sein, auch in Hinblick auf die Kosten der Anschaffung entsprechender Werkzeuge, Software etc.) Anwendung
Überblick: In der Informatik werden Modellierungssysteme zur Konstruktion und Repräsentation von Anwendungsmodellen, formalen Modellen (Spezifikationen, die beschreiben, was das Modell leisten soll) und Berechnungsmodellen (Programme, die beschreiben, wie Modellanwendungen ausgeführt werden) verwendet. Modellierungssysteme unterstützen dabei die Aktivitäten der • •
•
Informatisierung (Sachverhalte symbolisch repräsentieren) Diskretisierung (mit diskreten Wertebereichen Zustände von Objekteigenschaften und Objektbeziehungen repräsentieren) Systematisierung (Modellelemente, Operationen und Relationen konzipieren).
Motivation
Modellierungssysteme Modelle können entweder ausschließlich in einem oder durch Verwendung mehrerer Modellierungssysteme erstellt werden. Direkte Modellierung: Der zu modellierende Sachverhalt wird aus dem Problembereich direkt mit dem Modellierungssystem in ein Modell überführt. Der Modellbildner muss aufgrund des hohen methodischen Anspruchs dieser Form der Anwendung von Modellierungssystemen die Domäne und die Grundbausteine und Funktionalitäten des Modellierungssystems sehr gut kennen. Mit zunehmender Komplexität der Domäne steigen die Anforderungen an den Modellierer. Transitionale Modellierung Die Modellbildung vollzieht sich über (mehrere) Zwischenstufen. Zunächst wird der Problembereich in einem ersten, leicht verständlichen Modellierungssystem umrissen. Hierfür bieten sich nicht-formale und semi-formale Systeme aufgrund ihrer intuitiven Handhabbarkeit an. Danach erfolgt die Überfuhrung der erstellten Modelle in mit Hilfe eines weiteren Modellierungssystems erstellte Nachfolgermodelle. Diese sollten mächtiger in Hinblick auf Konsistenzprüfung und Abbildungsgenauigkeit (meist formale Modelle) sein. Anzumerken ist hier der höhere Aufwand der Modellbildung. Anmerkung Bei der Entwicklung von Anwendungsmodellen in der Informatik und Wirtschaftsinformatik sollten (neben der Softwarequalität) die Aspekte menschengerechter Gestaltung von Arbeitsmitteln (Ergonomie, Awareness etc.) und die Berücksichtigung individueller kognitiver Ausprägungen der mit dem System arbeitenden Menschen beachtet werden. Walter Augsburger Modulare Produktgestaltung Mass Customization Monte-Carlo-Simulation Simulationswerkzeuge
Moral Hazard Informationsasymmetrie Morphologische Methode Die Morphologie ist eine —> Kreativitätstechnik zur Ermittlung von Lösungsmöglichkeiten für ein vorgegebenes Problem. Bei der morphologischen Methode wird vorausgesetzt, dass bereits einzelne Ansätze zur Lösung des Problems ermittelt worden sind, etwa durch ein Brainstorming. Allerdings hat sich keiner der Vorschläge als durchschlagend erwiesen. Die morphologische Methode versucht nun, aus Kombinationen einzelner Komponenten der vorhandenen Ansätze eine unkonventionelle Gesamtlösung zusammenzusetzen. Motivation Gilt es, das Leistungsverhalten von Mitarbeitern zu erklären oder zu beeinflussen, sind damit allgemein zwei Fragen verbunden. Zum einen die Frage des "Könnens". Sie zielt auf Fähigkeiten und Fertigkeiten ab, die vorhanden sein müssen, damit ein Mitarbeiter ein bestimmtes Leistungsverhalten überhaupt erbringen kann. Zum anderen die Frage des "Wollens". Sie bezieht sich darauf, unter welchen Voraussetzungen und in welcher Intensität bzw. Dauer ein Mitarbeiter ein bestimmtes Leistungsverhalten - das er grundsätzlich zu erbringen in der Lage ist - auch tatsächlich zeigt. In der Managementtheorie und -praxis wird die Frage des "Könnens" i.d.R. unter dem Stichwort "Eignung", die Frage des "Wollens" unter dem Stichwort "Motivation" diskutiert. Es ist offensichtlich, dass nur motivierte Mitarbeiter sich selbst und ihr Unternehmen zum Erfolg fuhren (lassen) können. Entsprechend ist heute kein Führungstraining denkbar, in dem die Frage, "wie motiviere ich meine Mitarbeiter?" nicht eine zentrale Stellung einnimmt. Und gerade in der Folge moderner Managementkonzepte, die auf mehr (Eigen-) Verantwortung und Selbststeuerung von Mitarbeitern abzielen (-> Empowerment), gewinnt die Motivationsproblematik noch 525
Motivation zusätzlich an Bedeutung. Denn in dem Ausmaß, in dem Mitarbeitern selbst auszugestaltende Handlungsfreiräume zugesprochen werden, steigen auch die Ansprüche an die Motiviertheit der Mitarbeiter, •
•
•
die ihnen zugesprochenen Handlungsfreiräume auch tatsächlich (unternehmerisch) zu nutzen, über längere Zeiträume hinweg auch in unstrukturierten, wenig kontrollierten und unterstützten Arbeitssituationen eine hohe Einsatzintensität zu zeigen und sich selbst, wie auch ihr Arbeitssystem kontinuierlich weiterzuentwickeln.
Obwohl "Motivation in Unternehmen" bereits seit Jahrzehnten viel diskutierter Forschungsgegenstand der Arbeits- und Organisationspsychologie und des -»Personalmanagement ist, zeigt der erste Blick auf die zur Motivationsproblematik vorliegenden Theorien und Konzepte eher Ergebnisse von Grundlagenforschung, als für den Praktiker direkt Umsetzbares. Der aktuelle Forschungsstand ist in den gängigen Management(hand)büchern durch z.T. widersprüchliche Aussagen unterschiedlicher "Schulen" dokumentiert. Ein umfassendes und praxisorientiertes Motivationskonzept liegt nicht vor. Dennoch lassen sich - in Zusammenfassung der wichtigsten Ansätze - zentrale Ansatzpunkte zur "Bearbeitung" der Motivationsproblematik benennen. Damit kann man Führungskräften in Unternehmen einen Rahmen geben, der Orientierung für deren tägliche "Motivationsarbeit" bietet. Mit "Motiven", "Valenzen", und "Erwartungen" werden im folgenden drei solcher Ansatzpunkte skizziert: 1. Der Gedanke, dass menschlichem Verhalten bestimmte Motive zu Grunde liegen, kennzeichnet die klassischen Ansätze der Motivationstheorie und ist in der Managementpraxis weit 526
Motivation verbreitet. Letztlich handelt es sich bei Motiven aber nicht um dem Menschen innewohnenden Kräfte, sondern um positiv bewertete und potenziell angestrebte Zustände, bzgl. derer eine Person korrespondierende Handlungsbereitschaften ausgebildet hat. Solche Motive sind z.T. genetisch verankert und/oder werden im Laufe der individuellen Entwicklung durch Sozialisation erworben bzw. überformt. Hinsichtlich der betrieblichen Motivationsproblematik sind solche Motive interessant, die im Rahmen der beruflichen Tätigkeit umgesetzt werden können. Deshalb werden in der Managementtheorie und -praxis insbesondere die Motive "Kontakt", "Leistung" und "Selbstverwirklichung" diskutiert. Dabei handelt es sich um Motive, die bei allen Mitarbeitern vorhanden, aber unterschiedlich ausgeprägt sind und die weniger durch die Ergebnisse des Arbeitshandelns, als durch das Arbeitshandeln selbst befriedigt werden können. Konkret kann dies bedeuten, dass ein Vertriebsmitarbeiter nicht primär durch die Erreichung seines Umsatzzieles motiviert ist, sondern dadurch, dass er über seine Tätigkeit in Kontakt mit einer Vielzahl von Menschen treten kann, durch seine getätigten Abschlüsse immer wieder ein positives Leistungsfeedback (-> Feedback) erhält und im Rahmen seiner Tätigkeit seine individuellen Begabungen und Fähigkeiten einsetzen und weiterentwickeln kann (s.a. -» Mitarbeitereinsatz nach Eignung und Neigung). Allgemein wird einer solchen intrinsischen Motivation im Vergleich zu einer Motivation durch (tätigkeits-) externe Anreize eine wesentlich größere Dauerhaftigkeit zugesprochen. 2. Natürlich wird im obigen Beispiel des Vertriebsmitarbeiters auch ein erfolgsabhängiger Entgeltanteil motivierende Wirkungen haben. Der hohe Stellen-
Motivation wert, der bspw. betrieblichen Erfolgsbeteiligungssystemen zugesprochen wird zeigt, dass Motivation in der betrieblichen Praxis vielfach nach dem klassischen "Belohnungsprinzip" (und damit extrinsisch) herzustellen versucht wird. Dabei geht man von der Annahme aus, dass es insbesondere von den Valenzen der erwarteten Handlungskonsequenzen abhängt, ob und in welcher Intensität ein Mitarbeiter ein erwünschtes (Arbeits-) Verhalten zeigen wird. Dabei wird unter "Valenz" der Wert bzw. Nutzen, den eine Handlungskonsequenz für einen Mitarbeiter hat, verstanden. Ein und dieselbe Handlungskonsequenz wie eine Leistungszulage oder eine Beförderung kann für verschiedene Mitarbeiter unterschiedliche Valenz besitzen. Welcher Wert einer bestimmten Handlungskonsequenz (bzw. einem Anreiz) von einem Mitarbeiter konkret zugesprochen wird, ist abhängig von der Sozialisation des Mitarbeiters, aber auch von den jeweils geltenden Normen und den vom Mitarbeiter wahrgenommenen Vergleichsniveaus. So ist die Anreizwirkung einer Vergütung nicht von deren absoluter Höhe abhängig, sondern davon, inwieweit sie dem Erwartungsniveau des Mitarbeiters entspricht und/oder als überdurchschnittlich eingestuft wird, wodurch ihr eine entsprechend differenzierende "Prestigewirkung" zugesprochen werden kann. 3. Soll ein Mitarbeiter durch einen Anreiz zu einem bestimmten (Arbeits-) Handeln motiviert werden, muss der jeweilige Anreiz (als Handlungskonsequenz) für den Mitarbeiter jedoch nicht nur eine positive Valenz besitzen. Vielmehr muss der Mitarbeiter auch die Erwartung ausbilden, die positiv bewertete Handlungskonsequenz tatsächlich realisieren zu können. Zum einen bedeutet dies, dass dieser eine positive Anstrengungserwartung ausbilden, d.h. zu der Auffassung gelan-
Motivation gen muss, die im Zusammenhang mit den angestrebten Handlungskonsequenzen stehenden Aufgaben auch tatsächlich durch eigene Anstrengungen bewältigen zu können. Die Ausprägung der Anstrengungserwartung ist abhängig von der wahrgenommenen Aufgabenschwierigkeit, aber auch von personalen Faktoren wie der unterstellten "Selbstwirksamkeit". Zum anderen muss eine positive "Konsequenzerwartung" ausgebildet werden, d.h. der Mitarbeiter muss zu der Auffassung gelangen, dass eine erfolgreiche Aufgabenerfüllung auch tatsächlich zu den erwünschten Handlungskonsequenzen (beruflicher Aufstieg, Boni etc.) führt. Natürlich ermöglichen die o.g. Determinanten keine umfassende Darstellung des Motivationsgeschehens. Der Führungskraft im Unternehmen zeigt dieser "schlanke" Rahmen jedoch wichtige Eckund Ansatzpunkte der betrieblichen Motivationsproblematik auf und ermöglicht es, der tagtäglichen Motivationsarbeit eine gedankliche Struktur zu geben bzw. zentrale Grundsätze für diese abzuleiten. So wird deutlich, dass nahezu alle Tätigkeiten in sich die Möglichkeit zur Befriedigung menschlicher Motive bergen und damit über ein motivierendes Potenzial verfugen, das aktiv gemanagt werden muss, wenn Mitarbeiter intrinsisch motiviert sein sollen. Eine solche Motivation lässt sich jedoch nicht über die klassischen Führungsmittel "Kontrolle mit anschließender Belohnung" oder "motivierende Ansprache" erzeugen. Aufgabe des Vorgesetzten ist es vielmehr, die Motivstruktur eines Mitarbeiters zu erkennen und diesem über eine entsprechende Gestaltung seines Arbeitssystems (Aufgaben, Kompetenzen etc.) sowie eine kontinuierliche Förderung und Unterstützung die Möglichkeit zur Befriedigung seiner (Wachstums-)Motive im Rahmen der Arbeitstätigkeit zu bieten. 527
Multivariate Analyseverfahren
Motivation Bei der Gestaltung extrinsischer Anreize ist die grundsätzliche Gefahr zu beachten, dass die vergleichsweise kostengünstig zu erzeugende und nachhaltig wirkende intrinsische Motivation durch eine Überbetonung extrinsischer Anreize untergraben wird. Darüber hinaus ist bei der Ausgestaltung von Anreizsystemen zu berücksichtigen, dass sich der (in der Vergangenheit bereits gezeigte) gesellschaftliche Trend einer Auseinanderentwicklung individueller Motivstrukturen in Zukunft noch verstärken wird. Das bedeutet, dass einem Anreiz von Mitarbeiter zu Mitarbeiter u.U. unterschiedliche Valenz zugeschrieben wird. Dem kann in der betrieblichen Praxis nur mit einer differenzierten Anreizgestaltung begegnet werden. Daher muss die Führungskraft im Unternehmen die entsprechenden Erwartungen seiner Mitarbeiter kennen und/oder diese aktiv an der Ausgestaltung von Anreizsystemen beteiligen. Darüber hinaus besteht die "Motivationsarbeit" der Führungskraft aber auch darin, bei Mitarbeitern eine positive Anstrengungserwartung zu erzeugen. Konkret bedeutet dies: • •
•
mit dem Mitarbeiter anspruchsvolle, aber erreichbare Ziele zu vereinbaren, den Mitarbeiter mit allen notwendigen Kompetenzen auszustatten, die dieser benötigt, um seine Ziele zu erreichen, den Mitarbeiter durch ein unterstützendes und förderndes Führungsverhalten sowie andere geeignete Maßnahmen zu befähigen und zu ermutigen, anstehende Aufgaben aufzunehmen und zu bewältigen.
Selbstverständlich ist, dass nur solche (Leistungs-) Zusagen motivierend wirken, von denen der Mitarbeiter ausgehen kann, dass sie im Falle einer Zielerreichung auch eingelöst werden (können). Literatur: Kühl, J./Heckhausen, H. (Hrsg.): Motivation, Volition und Handlung, Göttingen 1996; Sprenger, R. K.: Mythos Motivation, 16. Aufl., Frankfurt 1999.
Jürgen Berthel/Michael Touet
528
MPM -> Projektmanagement,
Netzplan
MRPI Material Requirement Planning M R P II Manufactoring Resource Planning, ->• Produktionsplanungsund -steuerungssystem Multilaterales Clearing -> Cash Management Multinationales Management Management, internationales Multiples Begriff aus der -> Unternehmensbewertung, der die Bewertung eines Unternehmens in Bezug setzt zu einer Basisgröße, wie etwa dem Umsatz, dem Gewinn, der Kundenzahl. Der Multiple gibt dabei an, mit dem Wievielfachen beispielsweise seines Umsatzes ein Unternehmen bewertet wird. Der Multiple als Vergleichsgröße wird verwendet bei Vergleichen zwischen Unternehmen zur Ermittlung von vermeintlichen Uber- oder Unterbewertungen. Multivariate Analyseverfahren Multivariate statistische Verfahren erlauben die simultane Analyse mehrerer Merkmale bzw. deren Ausprägungen an Objekten einer gegebenen Gesamtheit bzw. Stichprobe. Der Vorteil gegenüber univariaten Analysen besteht darin, dass auch Abhängigkeiten zwischen den einzelnen interessierenden Merkmalen erfasst werden. Die Einteilung dieser Verfahren wird sowohl durch die gegebene Fragestellung und der Art der Behandlung der Variablen (die Untersuchungsmerkmale werden entweder in abhängigen/unabhängigen Variablen eingeteilt oder aber simultan behandelt) als auch durch das Messniveau der Merkmale (metrisch, kategorial, gemischtskaliert) bestimmt. Viele Verfahren lassen sich nur auf metrische, quantitative Merkmale anwenden. Zusätzlich sind die meisten Programmpakete auf derartige
Multivariate Analyseverfahren Daten abgestellt. Einige Methoden wurden auch für kategoriale, qualitative Verfahren entwickelt. Schwierig ist die Behandlung von ordinalskalierten Daten (z.B. Ratingskalen); man behilft sich durch Umkodierung (z.B. Additive Coding), was Informationsverluste mit sich bringt. Die adäquate Behandlung gemischt skalierter Datensätze ist noch gering entwickelt. Das bekannteste multivariate Verfahren ist die mehrdimensionale -> Regressionsanalyse, die den funktionalen Zusammenhang einer zu erklärenden Variablen (Regressand) und mehrerer erklärenden Merkmale (Regressoren) möglichst gut spezifizieren soll. Ziel ist der Nachweis bekannter funktionaler Beziehungen, die Schätzung von Parametern und die Prognose der Regressandenausprägungen. Die kategoriale Regressionsanalyse ist entsprechend einzusetzen. Die multivariate Varianzanalyse kann zu Mittelwertvergleichen herangezogen werden. Es soll untersucht werden, ob unterschiedliche "Behandlungen" unterschiedliche Effekte hervorrufen. Man spricht in diesem Zusammenhang auch von Versuchsplänen. Eine anschließende Profilanalyse gibt weitere Aussagemöglichkeiten über die Wirkung einzelner Behandlungen. Die multivariate -* Diskriminanzanalyse dient dazu, eine Gesamtheit aufgrund bestimmter Merkmale in Gruppen aufzuteilen, um neu hinzukommende Objekte einer dieser Klassen zuzuordnen. Diese Neuzuordnung soll mit einer möglichst geringen Fehlklassifikationswahrscheinlichkeit behaftet sein. Die Verfahren der -> Clusteranalyse bieten ebenfalls die Möglichkeit, eine Menge von Objekten aufgrund mehrerer Merkmale in Teilmengen (Klassen) einzuteilen. Die Klassen sollen in sich möglichst homogen, die einzelnen Klassen dagegen möglichst heterogen sein. Im Gegensatz zur Diskriminanzanalyse, die hauptsäch-
Multivariate Analyseverfahren lieh auf die Neuzuordnung von Objekten zu gegebenen Klassen abstellt, ist das Anliegen der Clusteranalyse die eigentliche Klassenbildung. Meistens werden Clustermethoden angewandt, die deskriptiver, hierarchischer Art sind und zu disjunkten Klassen fuhren. Diese konstruieren aufgrund von vorzugebenden Ähnlichkeits- bzw. Distanzmaßen (z.B. euklidische Distanz, City-Block-Metrik) eine Folge von Partitionen. Zu unterscheiden sind die agglomerativen Verfahren, die schrittweise jene Klassen zusammenfassen, die am ähnlichsten sind, und die divisiven Verfahren, die umgekehrt von der Gesamtheit ausgehen, und diese sukzessive in Klassen aufteilen. Die bekanntesten agglomerativen Verfahren sind das Single-Linkage-, das Complete-Linkage-, das Average-Linkage- und das WARDVerfahren. Divisive Methoden (z.B. die Association Analysis) sind ebenso wie nichthierarchische bzw. stochastische Verfahren von geringer Bedeutung. Kriterien für die Festlegung der Anzahl der Klassen sind zu beachten. Die Verfahren der linearen Faktorenanalyse dienen der Daten-(Dimensions-) Reduktion und der Parameterschätzung der unterstellten Verteilung. Die beobachtbaren Merkmale sollen durch eine geringere Anzahl von nicht beobachtbaren Größen (Faktoren, Hauptkomponenten) erklärt werden. Geometrisch betrachtet wird durch eine gegebene pdimensionale Datenstruktur ein - im Allgemeinen orthogonales - q (< p)-dimensionales Koordinatensystem gelegt, dessen Achsen (Faktoren, Hauptkomponenten) diese Struktur möglichst gut erklären. Eine eindeutige Bestimmung der Parameter ist nicht möglich; es existieren das "Rotationsproblem" und das "Kommunalitätenproblem". Bestimmte Hilfskriterien zu deren Behebung sind zu beachten. Innerhalb der linearen Faktorenanalyse werden die deskriptiven Verfahren bevorzugt. Das bekannteste ist die Hauptkomponentenanalyse.
529
Multivariate Analyseverfahren Die Verfahren der -* Multidimensionalen Skalierung (MDS) zielen darauf ab, Informationen über die Wahrnehmung/Beurteilung bestimmter Objekte durch Personen zu erhalten. Dies geschieht durch die Abbildung der Objekte in einem mehrdimensionalen Raum. Die orthogonalen Achsen (Merkmale, Eigenschaften), die diesen Raum aufspannen, sollen anschließend entsprechend interpretiert werden; d.h. sie liefern - annahmegemäß - Informationen über die Wahrnehmungsoder Urteilsvorgänge. Ihre Anzahl soll möglichst klein sein. Es werden keine konkreten Merkmale vorgegeben, sondern die Probanden haben nur globale Ähnlichkeits- bzw. Distanzaussagen bezüglich der einzelnen Objektpaare zu treffen. Ein Problem dabei ist, von subjektiven Beurteilungskriterien (ordinale Ähnlichkeitsdaten) auf die Lage der Objekte im Raum
530
Mystery Customer Management zu schließen; ein zweites besteht darin, dass die gesuchte Abbildung unter Verwendung mehrerer Distanzmaße möglich ist. Die Zielsetzung der MDS entspricht der Zielsetzung der Faktorenanalyse. Letztere geht jedoch von Ausgangsdaten in Form von Korrelationskoeffizienten und nicht von beliebigen Ähnlichkeitsdaten aus. Die Verfahren der MDS können in metrische und nichtmetrische Methoden eingeteilt werden; letzteren kommt in der Praxis größere Bedeutung zu. Zusammenhangsanalysen können auch in mehrdimensionalen Kontingenztabellen erfolgen (loglineare Modelle); diese haben geringere Relevanz. Gertrud Moosmüller Mystery Customer Management -> Testkunden
Netzwerk
Nachfasswerbung Nennbetragsaktien -> Aktie Nachfasswerbung Begriff des -» Direktmarketings. Hochwertige und komplexe Güter lassen sich kaum über -> einstufige Werbung verkaufen. Der potenzielle Kunde benötigt meist weitere Informationen sowie kaufunterstützende Argumente. Diese werden im Rahmen der Nachfasswerbung geliefert: Man baut auf einen bereits hergestellten Kundenkontakt auf und versucht, diesen zu vertiefen. Schwierig abzuwägen ist der richtige Zeitpunkt fiir die letzte Stufe der -» AIDA-Regel, die Auslösung des Kaufprozesses: Versucht man zu früh, den Kaufprozess durch Nachfasswerbung abzuschließen, verprellt man möglicherweise den potenziellen Kunden. Zieht sich die Nachfasswerbung zu lange hin, schmälert dies durch die gestiegenen Kosten den bei Kaufabschluss realisierbaren Gewinn. Als Kompromiß zwischen den Extremen der einstufigen Werbung und der Nachfasswerbung kann die zweistufige Werbung gesehen werden. Nachteilsausgleich Weicht der Unternehmer im Anschluss an die Verhandlungen zu einer -» Betriebsänderung von einem gefundenen Interessenausgleich ab oder hat er den Interessenausgleich nicht versucht, so können die von der Betriebsänderung betroffenen Arbeitnehmer über den Nachteilsausgleich Entschädigung für die verursachten wirtschaftlichen Nachteile verlangen. Namensaktien ->• Aktie Nature of Expense Method Gesamtkostenverfahren NC-Systeme -> Automatisierung
Nettoreichweite -»Kontaktmaßzahlen Netzplan Der Netzplan ist Instrument der Organisationstechnik. Er dient der Darstellung, Planung, Überwachung und Steuerung von Einzelprojekten. In den Netzplan werden alle Teilaufgaben eines Projektes aufgenommen und so verrichtungs-, Objekt- und zeitorientierte Abhängigkeiten aufgezeigt. Die Auswertung eines Netzplanes erfolgt meist nach der "Critical Path Method", bei der vom Beginn des Projektes ausgehend der längste Weg - ausgedrückt in z.B. Zeiteinheiten - bis zum Projektabschluss gesucht wird. Dem längsten Weg kommt eine besondere Bedeutung zu, da er die kürzestmögliche Projektdauer angibt. Soll die Projektdauer verkürzt werden, so ist stets am längsten Weg des Netzplans anzusetzen, denn dieser beinhaltet alle kritischen Tätigkeiten bzw. Teilaufgaben, die den Projektabschluss verzögern könnten. Netzwerk In allgemeinster Form stellen Netze räumliche Gebilde dar, die aus Knoten und Kanten bestehen, wobei die Knoten durch die Kanten miteinander verbunden sind. In der Graphentheorie werden Netzwerke als (bewertete) Graphen verstanden, die ihrerseits ebenfalls aus Knoten, Kanten sowie einer Abbildungsvorschrift bestehen, durch welche die Verbindung der Knoten durch Kanten vorgegeben sind. Die Anwendung des Netzwerkbegriffs erstreckt sich auf sehr unterschiedliche Wissensgebiete. In einer ersten Unterteilung kann zwischen technischen und sozialen Netzwerken unterschieden werden. Als Beispiel für die technische Anwendung des Netzwerkbegriffs sei etwa auf Übertragungssysteme im Nachrichtenver-
531
Netzwerk
Netzwerk nur zur Koordination ihrer intraorganisatorischen (unternehmungsinternen) Aktivitäten, sondern ebenfalls zur Koordination der zwischenbetrieblichen (interorganisatorischen) Zusammenarbeit innerhalb des Netzwerks sowie zwischen dem Netzwerk und seinem Umsystem (Sydow 1992). Damit versuchen Unternehmungsnetzwerke letztendlich die Koordination über die Hierarchie und jene über den Markt auf intelligente Weise miteinander zu verbinden (Sydow, 1995), was nicht zuletzt unter dem Aspekt der Reduktion von Transaktionskosten vorteilhaft erscheint (-» Transaktionskostentheorie).
kehr verwiesen. Im hier interessierenden Zusammenhang sind soziale Netzwerke (oder personale Netzwerke) der Ausgangspunkt, die sich durch soziale Beziehungen zwischen Akteuren (Personen) herausbilden. Akteure in sozialen Netzwerken können aber nicht nur (natürliche) Personen sein, sondern auch rechtlich und wirtschaftlich selbstständig am Markt agierende Unternehmungen. Im letzteren Fall bilden sich durch deren spezifischen Beziehungsaustausch (Krebs/Rock 1984) Unternehmensnetzwerke. Unternehmungsnetzwerke ihrerseits können in einer intrasystemischen und in einer intersystemischen Sichtweise betrachtet werden (intraorganisatorische und interorganisatorische Netzwerke). In der intraorganisatorischen Perspektive wird die Bildung von Netzwerken (Netzwerkorganisationen) häufig als ein Ansatz zur Flexibilisierung hierarchisch-bürokratischer Strukturen gesehen. Moderne Organisations- und Führungskonzeptionen weisen dabei eine deutliche Präferenz für so entstehende, organische Prozessorganisationen mit Netzwerkcharakter auf (Hierarchie versus Netzwerk). Wesentliche Voraussetzung dafür ist allerdings die Nutzung vernetzter Informationssystemarchitekturen (Weber, 1996).
Häufig wird bei der Darstellung von Unternehmungsnetzwerken zwischen regionalen und strategischen Netzwerken unterschieden (Sydow 1995). Strategische Netzwerke werden von einer (fokalen) Unternehmung strategisch geführt. Diese strategische Führung zielt auf eine proaktive, hauptsächlich an marktökonomischen Erfordernissen und technologischen Möglichkeiten ausgerichtete sowie auf die Erschließung und dauerhafte Absicherung wettbewerbsrelevanter Potenziale ausgerichtete Planung, Steuerung und Kontrolle der Netzwerkaktivitäten ab. Netzwerk strategisches
Besondere Bedeutung scheint die interorganisatorische Perspektive der Netzwerkbildung zu genießen. In dieser Sichtweise entstehen Netzwerke durch Unternehmungskooperation (Unternehmungsnetzwerke). Im Verständnis der sog. Institutionenökonomie stellen Unternehmungsnetzwerke eine intermediäre Organisationsform zwischen Markt und Hierarchie dar. Dabei sieht man Unternehmungsnetzwerke weder als Alternativen zum Markt, noch zur Hierarchie (im Sinne einer herkömmlichen, auf einheitliche Weisung basierenden Unternehmung). Vielmehr nutzen die an einem Untemehmungsnetzwerk beteiligten Unternehmungen (Netzwerkuntemehmungen) ihre hierarchische Strukturen nicht 532
•
Unternehmungen unterschiedlicher Größe
•
strategisch v o n einer Großunternehmung geführt eher intentionale formale Struktur
•
regionales •
kleine u n d mittlere Unternehmungen
•
ohne strategische F ü h r u n g d u r c h eine einzelne Unternehmung eher e m e r g e n t e , informale Struktur
•
•
stabile I n t e r o r g a n i s a t i onsbeziehungen
•
w e c h s e l n d e Interorganisationsbeziehungen
•
r ä u m l i c h ( h ä u f i g gar i n t e r n a t i o n a l ) verteilt
•
r ä u m l i c h konzentriert in einer R e g i o n
Abb. 1 : Merkmale regionaler und strategischer Netzwerke (Sydow 1995)
Regionale Netzwerke stellen dagegen eine in erster Linie räumlich - oft auch international - orientierte Agglomeration der angeschlossenen (meist kleineren oder mittleren) Unternehmungen dar. Sie sind im Vergleich zu strategischen Netzwer-
Netzwerk ken von größerer Polyzentriertheit und kommen vor allen Dingen ohne strategische Führerschaft aus. Als Beispiel für regionale Netzwerke kann die Kooperation zwischen hoch-spezialisierten Unternehmungen kleiner und mittlerer Größen in bestimmten Regionen, etwa im Silicon Valley gelten. Abb. 1 stellt die Merkmale strategischer und regionaler Netzwerke einander gegenüber. Besondere Vorteile der Bildung von Netzwerken ergeben sich aus der Nutzung von Flexibilitäts- und Synergiepotenzialen (sowie ggf. aus der Risikoteilung). Dem stehen allerdings auch spezifische Restriktionen gegenüber, die in erster Linie aus möglichen Interessenkonflikten zwischen den Netzwerkpartnern und einem mangelnden Vertrauen (Krystek 1999) zwischen den Netzwerkunternehmungen resultieren können (Krystek/Redel/Reppegather 1997). Dem -> Netzwerkmanagement kommt deshalb - speziell bei strategischen Netzwerken besondere Bedeutung zu. Literatur: Krebs, M./Rock, R.: Unternehmungsnetzwerke - eine intermediäre oder eigenständige Organisationsform?, in: Sydow, J./Windeler, A. (Hrsg.): Management interorganisationaler Beziehungen, Opladen 1994, S. 322 ff.; Krystek, U.: Vertrauen in Unternehmensnetzwerken, in: Fink, D./Wilfert, A. (Hrsg.): H a n d b u c h T e l e k o m m u n i kation und Wirtschaft, München 1999, S. 437 ff.; Krystek, U./Redel, W./Reppegather, S.: Grundzüge virtueller Organisationen. Elemente und Erfolgsfaktoren, Chancen u n d Risiken, Wiesbaden 1997; Sydow, J.: Strategische Netzwerke. Evolution und Organisation, Wiesbaden 1992; Sydow, J.: Netzwerkorganisation. Interne und externe Restrukturierung von Unternehmungen, in: WiSt, Nr. 12, 1995, S. 629 ff.
Ulrich Krystek Netzwerkmanagement, internes Die wirtschaftlichen Aktivitäten in Organisationen, insbesondere in Unternehmungen, werden trotz modemer, auf -» Motivation, Partizipation, Delegation und Mitbestimmung setzender Führungskonzeptionen in letzter Konsequenz durch Hierarchie koordiniert. Dennoch wird
Netzwerkmanagement, internes häufig von einem Wandel von Unternehmungen in Richtung einer Netzwerkorganisation (s.a. -> Netzwerk) gesprochen. Solange dieser Wandel nicht zur Auflösung von Unternehmungen fuhrt, ist es möglich, eine interne von einer externen Netzwerkorganisation und damit ein internes von einem externen Netzwerkmanagement (-> Unternehmensnetzwerke, Management von) zu unterscheiden. Internes Netzwerkmanagement zielt auf die Intensivierung der untemehmungsintemen Kooperation, ohne jedoch letztlich auf das Koordinations- und Integrationspotenzial von hierarchischer Weisung zu verzichten. Dabei kann die Verstärkung organisationsinterner Kooperation auf personale und/oder organisationale Vernetzung setzen. (Ein externes Netzwerkmanagement zielt demgegenüber auf eine /«/erorganisationale Vernetzung). Personale Vernetzung bezeichnet den Auf- und Ausbau personaler Netzwerke. Diese basieren im Allgemeinen auf persönlichem Kennen und erreichen in Freundschaftsnetzwerken die wohl intensivste Form. Solche personalen Netzwerke, die in der Regel auf Initiative konkreter Personen entstehen und sich oft auf bestimmte Arten von Organisationsmitgliedern (z.B. Minderheiten, Jahrgangskohorten) beschränken, erleichtern den Kommunikationsfluss in der Unternehmung, bieten informelle Anlässe für Abstimmung und Zusammenarbeit und eröffnen den Netzwerkmitgliedern (zusätzliche) Karrierechancen. Für die Organisation können personale Netzwerke, insbesondere Freundschaftsnetzwerke, jedoch auch dysfunktionale Folgen haben. Dennoch wird heute das "networking" in Organisationen auf vielfältige Weise gefördert. Organisationale Vernetzung ist zwar auf das Handeln von Personen angewiesen, löst sich jedoch ein Stück weit von den konkreten Personen. Die Notwendigkeit einer verstärkten organisationalen bzw. strukturalen Vernetzung ergibt sich oft in 533
Netzwerkmanagement, internes Folge einer gesteigerten organisationsinternen Differenzierung, zum Beispiel im Zusammenhang mit der Einführung einer -> Spartenorganisation oder eines Centerkonzepts. Um die Zusammenarbeit zwischen solchen Organisationseinheiten zu fordern bzw. die Synergiepotenziale (-> Synergiemanagement) zwischen ihnen auszuschöpfen, werden beispielsweise organisationsweit gültige Kooperationsregeln vereinbart, entsprechende Kommunikationssysteme eingeführt und die Kooperation fordernde Anreiz- und Sanktionssysteme errichtet. Internes Netzwerkmanagement bezieht sich selbstredend auch auf Konzerne, schließlich konstituieren diese aus betriebswirtschaftlich-organisatorischer Sicht eine Unternehmung. Dies gilt im übrigen auch für international tätige Konzerne, für die schon lange die Entwicklung eines integrierten Netzwerks" vorgeschlagen wird. Literatur: Sydow, J.: Strategie und Organisation international tätiger Unternehmungen - Managementprozesse in Netzwerkstrukturen, in: Ganter, H.-D./Schienstock, G. (Hrsg.): Management aus soziologischer Sicht. Wiesbaden 1993, S. 47-82; Sydow, J.: Netzwerkbildung und Kooptation als Führungsaufgabe, in: Kieser, A./Reber, G./Wunderer, R. (Hrsg.): Handwörterbuch der Führung, 2. Aufl., Stuttgart 1995, Sp. 1622-1635.
Jörg Sydow Neue 7-S -> Hypercompetition Neuer Markt Das seit dem 10. März 1997 existierende Börsensegment Neuer Markt hat die deutsche Börsenlandschaft nachhaltig geprägt. Mit diesem Börsensegment besteht erstmals in Deutschland für junge, wachstumsorientierte mittelständische Unternehmen die Möglichkeit, über die -* Börse Eigenkapital zu erhalten. Der Neue Markt hat die sehr erfolgreiche Computerbörse NASDAQ in den USA als Vorbild. Das neue Marktsegment ist kein nationaler Alleingang, sondern ein Teil der europäischen Initiative EURO.NM. 534
Neuer Markt Daran sind bisher neben dem deutschen Wachstumssegment der französische Nouveau Marché, der belgische New Market und der holländische Nieuwe Markt beteiligt. Ziel ist die Etablierung eines paneuropäischen Aktienmarktes. Die Akzeptanz des Börsensegments für innovative Unternehmen ist bei Investoren und Emittenten unumstritten. Bis Ende 1999 notierten 198 Unternehmen am Neuen Markt. Wenn auch die anfangs extrem übersteigerten Kurse in diesem Ausmaß nicht mehr zu erwarten sind, wird auch die Normalisierung der Kursentwicklungen weiterhin das Interesse an dem neuen Marktsegment für Wachstumsunternehmen nicht schmälern. Während man zu Beginn vor allem Unternehmen aus der Software-, der Telekommunikations- und Hochtechnologiebranche zum Neuen Markt zugelassen hat, sind mittlerweile die klassischen Wachstumsbranchen, wie Informationsund Biotechnologie, Medizintechnik, Multimedia und Entertainment verstärkt vertreten. Der Neue Markt ist im Gegensatz zum Amtlichen Handel und zum Geregelten Markt nicht öffentlich-rechtlich, sondern privatrechtlich organisiert. Die Flexibilität des Trägers, der Deutschen Börse AG, auf sich ändernde Anforderungen zeitnah zu reagieren, ist dadurch sichergestellt. Für die Emittenten besteht kein Anspruch auf eine Zulassung, auch wenn sie die erforderlichen Voraussetzungen erfüllen. Es obliegt dem Vorstand der Deutschen Börse AG, darüber zu entscheiden, welche Unternehmen zugelassen werden. Die Zulassungsvoraussetzungen ergeben sich aus dem "Regelwerk" der Deutschen Börse AG. Sie basieren auf der Erfüllung der zentralen Ziele Liquidität, Transparenz, Publizität und -»• Marketing. Eine Zulassung zum Neuen Markt setzt eine Zulassung zum Geregelten Markt voraus. Beide Zulassungsanträge werden i.d.R. gleichzeitig gestellt. Mit der Zulas-
Neuer Markt sung zum Neuen Markt erfolgt ein Verzicht auf eine Notierung im Geregelten Markt. Durch das geforderte Mindestemissionsvolumen von 5 Mio. Euro und durch ein Betreuerkonzept sind die Voraussetzungen für eine ausreichende Liquidität gegeben. Aufgabe des Betreuers, dem sog. -> Designated Sponsors, ist es, für die von ihm betreuten Unternehmen am Neuen Markt fortlaufend und verbindlich Geldlimits (Kauf) und Brieflimits (Verkauf) zu stellen. Nach dem Regelwerk besteht die Verpflichtung, zwei Betreuer, die i.d.R. aus dem Konsortium kommen, zu benennen. Eine ausreichende Streuung der -»Aktien soll durch die Vorschrift des Regelwerkes, möglichst 25% des Nennwertes (mindestens 20%) zu platzieren, sichergestellt werden. Um einen möglichst hohen Mittelzufluss beim Unternehmen zu erreichen, sollen möglichst 50% des Emissionsvolumens aus einer Kapitalerhöhung gegen Bareinlage kommen. Die Haltefrist der Altaktionäre wird von den konsortialfuhrenden Banken zeitlich immer weiter ausgedehnt; 2 Jahre sind dabei nicht mehr die Ausnahme. Um eine Stimmrechtsbeschränkung der neuen Aktionäre über die Ausgabe von z.B. stimmrechtslosen Vorzugsaktien auszuschließen, sind bei der Erstemission nur Stammaktien zugelassen. Die im Neuen Markt vorherrschenden Transparenzerfordernisse orientieren sich an internationalen Gepflogenheiten. So ist der zu erstellende Emissionsprospekt nach internationalem Standard deutschund englischsprachig. Die Aufstellung von -» Jahresabschlüssen nach HGB und IAS- oder US-GAAP-Vorschriften (-* International Accounting Standards) ist obligatorisch. Dies gilt für die letzen drei Jahre und als Folgepflicht für die Zukunft. Sollte das Emissionsuntemehmen in der Vergangenheit noch nicht als -> AG fungiert haben, sind sog. Als-ObAG-Abschlüsse aufzustellen. Als weitere Folgepflichten sind z.B. regelmäßig Quartalsberichte zu veröffentlichen, ist jährlich eine Analystenveranstaltung ab-
Neuproduktmanager zuhalten sowie ein jährlicher Unternehmenskalender mit wichtigen Unternehmensnachrichten zu veröffentlichen. Um diese Transparenzanforderungen jederzeit zu erfüllen, muss der Emittent die unbedingte Bereitschaft für ein Investor Relation mitbringen. Ein aktives Marketing für die Aktie am Neuen Markt wird von den privaten und institutionellen Investoren erwartet. Literatur: Koch, W./Wegmann, J.: PraktikerHandbuch Börseneinführung, 3. Auflage, Stuttgart 2000.
Jürgen Wegmann Neuproduktflexibilität des Leistungserstellungssystems -> Produktionsflexibilität Neuproduktmanager Grundgedanke der Schaffung eines Neuproduktmanagements in der Organisationsstruktur eines Unternehmens ist die Institutionalisierung einer marketingorientierten Unternehmensführung, die besonderes Gewicht auf die Bedeutung neuer Produkte legt. Die Betonung neuer Produkte ist deshalb besonders wichtig, da sich innerhalb weniger Monate vor und nach der Markteinführung entscheiden kann, ob das neue Produkt ein Erfolg oder ein Flop wird. Die hohe Floprate von Neuprodukteinführungen verdeutlicht diese Problematik. Durch den Neuproduktmanager wird eine Produkt-Markt-Querschnittskoordination über funktional ausgerichtete Organisationsbereiche hinweg ermöglicht. Der Neuproduktmanager hat in der Organisation alle den Erfolg der Neuprodukteinfuhrung gefährdenden Faktoren zu beseitigen - soweit dies seine Befugnisse erlauben auch gegen den Widerstand der Funktionsbereiche im Unternehmen. Der Neuproduktmanager verfugt i.d.R. über ein Informationsrecht, ein Mitspracheund Mitwirkungsrecht sowie über ein fachgebundenes Entscheidungs- und Weisungsrecht. 535
New Economy
Neuronale Netze Neuronale Netze Neuronale Netze stellen ein Verfahren der künstlichen Intelligenz dar, bei dem versucht wird, mittels mathematischer Methoden die Arbeitsweise des menschlichen Gehirns im Computer zu simulieren bzw. nachzubilden. Dabei erhält - im einfachsten Fall - ein "Neuron" gewichtete Inputs von anderen "Neuronen". Jede am empfangenden Neuron einlaufende Aktivation eines sendenden Neurons wird also mit dem Wert der Stärke der Verbindung zwischen beiden Neuronen gewichtet. Die Summe dieser "Nettoinputs" wird ggf. noch erhöht durch externe Inputs und den alten Aktivationszustand des Neurons. Der so gebildete Gesamtinput wird nun einer Aktivationsfunktion zugeführt, meist eine lineare, eine Schwellwert- oder eine Sigmoidfunktion. Der dabei ermittelte "innere" Wert eines Neurons wird vor Ausgabe an das nächste Neuron ggf. noch über eine Ausgabefunktion transformiert. Neuronale Netze sind wie das menschliche Gehirn in der Lage zu "lernen" und zu "abstrahieren": Modifikationen an den Verbindungsgewichten oder an der Aktivationsfunktion verändern das Ausgabeverhalten der Netze. Durch ihre Lern- und Abstraktionsfähigkeit eignen sich neuronale Netze zur Mustererkennung im weitesten Sinne. Typische Einsatzgebiete sind Bonitätsprüfungen, optische Bildverabreitung in der automatisierten Fertigung, Spracherkennung aber auch Wissensdatenbanken. Der große Nachteil neuronaler Netze ist darin zu sehen, dass das implizit im Netz gespeicherte Wissen nicht in explizites Wissen extrahiert werden kann: So mag ein entsprechend trainiertes neuronales Netz das Insolvenzrisiko eines Unternehmens nach Datenlage treffend bestimmen, man wird aber nicht erfahren, warum dieses Risiko vorliegt. Thomas Träger
536
New Venture Division -> New Venture Management New Venture Management Eine insbesondere von Großunternehmen mit einer -> Geschäftsbereichsorganisation relativ häufig benutzte -> Organisationsform zur Auslagerung neuer Produkt-Markt-Aktivitäten. Die Verankerung der neuen Geschäftsaktivitäten erfolgt bei einem New Venture Management in einem eigenständigen Geschäftsbereich der New Venture Division - oder als neue Abteilung innerhalb eines bestehenden Geschäftsbereichs. Durch das New Venture Management soll die Situation eines Unternehmensgründers nachgebildet werden. Die damit geschaffenen Strukturen sollen die Transformation von Forschungs- und Entwicklungsergebnissen in neue Produktmarkt-Aktivitäten erleichtern. Probleme bei einem New Venture Management entstehen durch die unterschiedlichen Kulturen zwischen dem New Venture Division und den anderen Geschäftsbereichen sowie durch die Integration der in der in der New Venture Division entwickelten Produkte in die anderen Geschäftsbereiche, wenn sich das Produkt erst einmal im Markt etabliert hat. New Economy In den letzten Jahren konnte man in den USA beobachten, wie trotz rückläufiger Arbeitslosenzahlen sinkende Zinsen und Preisniveaustabilität erreicht werden konnte. Damit schienen auf gesamtwirtschaftlicher allgemeingültige Wirtschaftsgesetze (-> Magisches Viereck, Arbeitsmarkt- und Beschäftigungspolitik) ausgehebelt. Gleichzeitig etablierte sich auf Unternehmensebene ein neuer Geschäftstyp: die -> Dotcoms. Auch hier galten althergebrachte Regeln nicht mehr. Es war nicht mehr wichtig, ob man Umsatz oder gar Gewinn im —• Jahresabschluss ausweisen konnte - im Gegenteil: Es war geradezu ein Erfolgszeichen, wenn man möglichst hohe Ausgaben
New Economy vorweisen konnte; der Begriff der Cash-Burn-Rate verdeutlicht dies. Diese Umwälzungen werden mit dem Begriff der New Economy belegt. Zurückgeführt werden sie auf den breiten Einsatz der neuen Informations- und Kommunikationstechnologien, wie etwa dem -> Internet. Hier ermöglichen Computer bei nur geringen Mehrkosten gewaltige Produktivitätssteigerungen. Einige Punkte, in denen die Unternehmen der New Economy von denen der Old Economy abweichen: •
•
•
Rolle des Mitarbeiters: War er in der Old Economy oftmals mehr oder weniger einfacher Ausführungsgehilfe der Unternehmensleitung, ist er heute der wichtigste Produktionsfaktor jedes Unternehmens der New Economy. Kapitalbeschaffung: Nach Sicherheiten zu fragen, ist überflüssig bei einem Dotcom-Unternehmen. Trotzdem bekamen die Start-up Unternehmen der New Economy in der Vergangenheit stets genug Gelder. -» Venture Capital wurde auf Ideen und Visionen vergeben. Nicht wenige Dotcoms brachten ihr Unternehmen zur weiteren Kapitalbeschaffung an die Börse. Die —> Marktkapitalisierungen, die dabei erzielt werden, übersteigen die der etablierten Unternehmen oftmals um ein Zehnfaches. Rasantes Wachstum: Das US-Dotcom "Priceline" schaffte es beispielsweise innerhalb von zwei Jahren, die Umsatzmarke von US-$ 100 Mio. zu überspringen. Wachstum ist wichtig für die Dotcoms, da man so versucht, "Claims" abzustecken und sich im Markt günstig zu positionieren.
Momentan befindet sich die New Economy selbst in einer Phase des Umbruchs: Die Begeisterung der Kapitalgeber für alles, was mit "E." beginnt, hat nachgelassen. Es wird nicht mehr nur auf die Geschäftsidee geblickt, sondern potenzielle Investoren erwarten ein solides
Nonprofit Organisation Geschäftsmodell mit fundierter Planung, nur dann kommt eine -> Gründungsfinanzierung zustande. Auch die jungen Unternehmen der Internet-Zeit müssen also erkennen, dass an den Regeln der Old Economy kein Weg vorbei fuhrt. Nischenstrategie Diese Strategie ist eine der -> NormStrategien nach Michael E. Porter. Das Unternehmen nimmt eine -> Marktsegmentierung vor und etabliert sich in dem Teilmarkt, in dem es sich einen wesentlichen Wettbewerbsvorteil aufgrund seiner Kernkompetenzen verspricht. Eine Nischenstrategie kann dabei verbunden sein mit einer -»Produktdifferenzierung, wobei das Produkt genau auf die Bedürfnisse des Nischenmarktes angepasst wird. Ebenso lässt sich die Nischenstrategie mit der Kostenführerschaft verbinden, wenn das Unternehmen genau den Zielmarkt bedient, in dem es gegenüber seinen Konkurrenten Kostenvorteile erlangen kann. Nonprofit Organisation Das US-amerikanische Rechtssystem unterscheidet zwischen profit organizations und nonprofit organizations. Während die profit organization dem privatrechtlichen gewinnorientierten Unternehmen entspricht, ist die nonprofit organization ein eigenes Konstrukt, das im deutschen Rechtssystem kein unmittelbares Pendant hat. Nonprofit Organizations (NPOs) unterliegen dem Recht der einzelnen USBundesstaaten, mithin unterscheidet sich die Rechtslage geringfügig von Staat zu Staat. Allgemein werden NPOs regelmäßig in der Form einer Corporation geführt, die eine eigene Rechtspersönlichkeit annimmt und die Haftung ihrer privaten Träger begrenzt oder ganz ausschließt. Der Unternehmenszweck und die Unternehmensverfassung werden in der Charter und den By-Laws festgelegt. Der Zweck muss nicht unbedingt gemeinnützig sein, 537
Nonproflt Organisation eine Nonproflt Organisation ist auch zunächst nicht steuerbefreit. In Hinblick auf die Gewinne aus der Geschäftstätigkeit ist der Name "Nonproflt" irreführend, denn eine NPO kann sehr wohl Gewinne erwirtschaften, ohne ihren Nonprofit-Status zu gefährden. Im Unterschied zu einer Profit-Organisation darf sie den Gewinn aber nicht zum eigenen Nutzen oder dem ihrer Mitglieder und Angestellten verwenden, sondern ist verpflichtet, ihr satzungsgemäßes Ziel zu verfolgen. Die Träger der NPO haben also - im Gegensatz zu den Eigentümern eines gewinnorientierten Unternehmen keinen persönlichen Nutzen aus den Gewinnen der NPO. Am ehesten sind die Nonproflt Organisationen der USA mit den deutschen privatrechtlichen Stiftungen zu vergleichen, die Träger von gewinnorientierten Unternehmen sind. Einige bedeutende deutsche Unternehmen (Bertelsmann, Zeiss) werden von Stiftungen getragen, die ihrerseits gemeinnützige Ziele verfolgen. Die Unternehmensgewinne sind dabei eine wichtige Einnahmequelle der TrägerStiftungen. Non-Published Auction -»Internet-Auktionen NOPAT und NOPLAT NOPAT (Net Operating Profit After Taxes) und NOPLAT (Net Operating Profit Less Adjusted Taxes) beschreiben das Betriebsergebnis nach Steuern. Die identischen Größen lassen sich problemlos aus der Gewinn- und Verlustrechnung eines Unternehmens ermitteln: Dabei werden die Umsatzerlöse um operative Aufwendungen wie -> Herstellungskosten, Personalaufwand, Abschreibungen, Steuern usw. vermindert. = = 538
Umsatz operative Aufwendungen Betriebsergebnis Steuern auf das Betriebsergebnis NOPAT/NOPLAT
Normstrategie Durch die einfache buchhalterische Ermittlung und die hohe Nachvollziehbarkeit haben NOPAT und NOPLAT in zahlreichen Analysetools Eingang gefunden. Beispiel hierfür ist die Kapitalrendite eines Unternehmens, die sich durch Division von NOPAT/NOPLAT mit dem investierten Kapital berechnen lässt. Daneben dient NOPAT/NOPLAT als Ausgangspunkt zur Ermittlung des Economic Value Added (-> Shareholder Value), der die Wertänderungen eines Unternehmens oder einzelner Investitionen mißt. Dies erfolgt durch die Verminderung von NOPAT bzw. NOPLAT um die Finanzierungskosten des hierfür eingesetzten Kapitals. Ein positives Ergebnis zeigt einen Wertzuwachs im Unternehmen an, da nicht nur die operativen Aufwendungen gedeckt werden konnten, sondern auch die Kosten für das eingesetzte Kapital (-* Kapitalkosten). Normal Hedge -> Hedging Normalkostenrechnung Die Normalkostenrechnung ist ein Kostenrechnungssystem des internen Rechnungswesens, der -> Kosten und Leistungsrechnung. Die Normalkostenrechnung stellt eine Fortentwicklung der Istkostenrechnung dar. Sie soll die bei der Istkostenrechnung auffällige Sensibilität gegenüber einmalig schwankenden Kosten vermeiden, indem bei der Normalkostenrechnung die normalerweise entstehenden Kosten (Vergangenheitsbetrachtung) zu Grunde gelegt werden. Normstrategie Nach Michael E. Porter hat ein Unternehmen drei (Grund-)Möglichkeiten, dauerhafte Wettbewerbsvorteile zu erringen: -> Kostenführerschaft, -» Produktdifferenzierung und die -» Nischenstrategie (focus strategy). Diese generischen Strategievarianten werden auch als Portersche Normstrategien bezeichnet.
Normung Normung 1. Grundlagen Normung ist eng mit der Entwicklung von Industrie und Handel verbunden. Normung ist die planmäßige, von interessierten Kreisen gemeinschaftlich durchgeführte Vereinheitlichung und Dokumentation von materiellen und immateriellen Gegenständen zum Nutzen der Allgemeinheit (DIN 820). Grundsätze der Normungsarbeit sind Konsens, Allgemeingültigkeit und Freiwilligkeit. Ziel der Normungsarbeit ist die Regelsetzung durch Richtlinien und Normen (Standards), den sogenannten Regeln der Technik. Im staatlichen Bereich begleitet der Gesetzgeber die Normung indem er in seinen Rechtsnormen auf die Regeln der Technik verweist. International wird Normung durchgeführt, um einen von technischen Handelshemmnissen freien Markt zu schaffen. 2. Gegenstand der Normung Gegenstand der Normung können Materialien, Produkte, Abläufe und Verfahren oder Dienstleistungen sein. Normung ist eine Voraussetzung für die Entwicklung von Industrie und Handel sowohl regional als auch global. Der Normenbestand ist somit ein Abbild des Entwicklungsstandes dieser Sektoren. Dynamik und Erfolg der Regelsetzung sind Indikatoren für den Fortschritt auf den verschiedenen Gebieten. Freiwilligkeit und Konsens fuhren dazu, dass Normen sich durchsetzen, wo ein Bedarf vorhanden ist und Nutzen entsteht. So haben sich die Schwerpunkte der Norminhalte gebildet: Maße, Stoffe, Berechnung, Sicherheit, Prüfen, Ver- und Bearbeiten, Liefern, Informationsaustausch (Darstellung, Übertragung, Auswertung). 3. Bedarf und Nutzen der Normung Bedarf und Nutzen der Normung ergeben sich durch eine oder mehrere der folgenden Funktionen einer Norm: Ersparnis von Energie, d.h. Zweckerfüllung mit geringerem Aufwand; Erreichung eines Zustandes größerer Ordnung, d.h. Syste-
Normung matisierung und Klassifizierung; Austauschbarkeit von Teilen, d. h. geringere Kosten durch teilweisen Ersatz; Häufung gleichartiger Teile, d.h. Verringerung der Anzahl von Typen und größere Stückzahl je Typ; Vereinheitlichung der Kommunikation, d.h. eindeutige Terminologie, vergleichbare Ergebnisse, schnellerer Informationsaustausch; Erleichterung im Rechtsverkehr, d.h. Verbesserung der Gesetzgebung bei Regelungen mit technischen Inhalten; Arbeitssicherheit und Unfallschutz, d.h. Schutz des Menschen, Senkung mittelbarer Kosten; Vertrauen in die Güte/Qualität eines Produktes, d.h. Zusicherung und Prüfbarkeit der durch die Norm definierten Merkmale eines Produktes für den Benutzer. Um Planungssicherheit bei Anwendung neuer Technologien und Entwicklung neuer Produkte zu erreichen, sind Normen notwendig. Andererseits benötigen Normungsprojekte Zeit, da sie auf den Konsens der interessierten Kreise angewiesen sind, international durchschnittlich fünf Jahre. In diesem Zeitraum kann ein marktführendes Produkt einen "De-factoStandard" setzen, dem sich die Normungsinstanzen nachträglich anschließen. Normung soll Handelshemmnisse abbauen und den weltweiten Marktzugang zu ermöglichen. Normung kann dennoch eingesetzt werden, um den Wettbewerb zu behindern. Mechanismen sind: Qualitätsstandards die als Marktzutrittsschranke von Unternehmen gesetzt werden, die diese Standards schon erfüllen, Umweltstandards, die von interessierten Kreisen gesetzt werden, um ein Maximum an Kosten auf andere abzuwälzen, Standards, die bei unterschiedlichen Kostenstrukturen die Kosten der Wettbewerber erhöhen, Verwendung geschützten Wissens in Standards mit der Folge, dass Lizenzgebühren für die Nutzung verlangt werden können. 4. Normungsprozess Der Normungsprozess, die Erstellung einer Norm setzt voraus, dass der Bedarf 539
Normung einer allgemeingültigen Regelung vorhanden ist und von interessierten Kreisen erkannt wird, die eine Gruppe von Experten mit der Erstellung einer Regel beauftragen und Konsens über den Inhalt erreichen. Globale oder regionale Bedeutung und Anwendungsbereich einer Norm sind deshalb Ergebnis der bei der Erstellung zusammenwirkenden Kreise. Regelsetzung hat ihren Ursprung auf regionaler Ebene in Berufs- und Fachverbänden und führte in den Industriestaaten in kurzer Zeit zu nationalen Normenorganisationen (z.B. DIN, AFNOR, BSI, SIS, ANSI, CSBTS). Die europäische Einigung, mit dem Ziel eines gemeinsamen Wirtschaftsraumes setzt zwangsläufig gemeinsame Europäische Normen voraus. Diesem Ziel dienen die europäischen Normungsinstitutionen CEN, CENELEC und ETSI, deren Mitglieder die nationalen Normenorganisationen sind. Zur Ausfüllung der EG-Richtlinien wurden an CEN/CENELEC und ETSI von der Europäischen Kommission und von EFTA Normungsaufträge (Mandate) vergeben. Weltweit wird Normung durch ISO und IEC durchgeführt, deren Mitglieder nationale Normenorganisationen sind. ISO und IEC arbeiten auf dem Gebiet der Informationstechnologie eng mit ITU, der zuständigen Organisation innerhalb der UN zusammen. Auf dem Gebiet der elektrotechnischen Normung haben CENELEC und IEC die Zusammenarbeit in Form gemeinsamer Normen vereinbart.
540
Nutzwertanalyse Auskunft zu geltenden Normen und Regelwerken geben die Normenorganisationen: Das Deutsche Informationszentrum für technische Regeln (DITR) im DIN für Europa, ISONET, das ISO-Informationsnetzwerk weltweit über die angeschlossenen nationalen Organisationen. Literatur: Handbuch der Normung Bd. 1, Beuth 1993; Jens Kleinemeyer: Standardisierung zwischen Kooperation und Wettbewerb, 1997; Europäische Normung, ein Leitfaden des DIN, Deutsches Institut für Normung e.V., 1996.
Anton Münzebrock Nutzwertanalyse Die Nutzwertanalyse ist ein Verfahren zur Bewertung von Neuprodukten. Die Alternativen können mit Hilfe dieses Verfahrens nicht nur anhand von monetären Kriterien, sondern auch aufgrund nicht in Geldeinheiten meßbaren Zielen (bspw. Innovationsgrad) beurteilt werden. Zur Bestimmung der Lösung werden die einzelnen Produkte oder Alternativen anhand ihres Zielerreichungsgrades in Bezug auf die ausgewählten Kriterien bewertet. Dieses Zwischenergebnis stellt den Teilnutzen dar. Der Gesamtnutzenwert wird häufig unter Anwendung der Additionsregel bestimmt. Problem bei diesem Verfahren ist die subjektive Auswahl und Bewertung der einzelnen Kriterien. Deshalb zeigt das Ergebnis nicht die optimale Lösung auf, sondern es kann nur eine "subjektiv beste Lösung" bestimmt werden.
Offene Handelsgesellschaft
o Offene Handelsgesellschaft (OHG) Die Offene Handelsgesellschaft ist eine Personengesellschaft, deren Zweck auf den Betrieb eines Handelsgewerbes (zum Begriff s. § 1 Abs. 2 HGB) unter gemeinsamer Firma gerichtet ist, und bei der die Gesellschafter ihre Haftung den Gesellschaftsgläubigern gegenüber nicht durch die Wahl einer anderen zulässigen Rechtsform beschränkt haben (§ 105 Abs. 1 HGB). Sie ist der Prototyp der Personenhandelsgesellschaft, da die Vorschriften zur -> Kommanditgesellschaft auf den Bestimmungen über die OHG aufbauen (§ 161 Abs. 2 HGB); die OHG ihrerseits beruht auf der gesetzlichen Regelung der -> Gesellschaft bürgerlichen Rechts (vgl. § 105 Abs. 3 HGB). Entstehung: Die OHG entsteht regelmäßig durch den Abschluss des Gesellschaftsvertrages, der grundsätzlich (es sei denn, die übernommenen Beitragspflichten sind formbedürftig, vgl. z.B. § 3 1 3 BGB) keinem Formzwang unterliegt. Mit Vertragsschluss ist die OHG im Innenverhältnis zwischen den Gesellschaftern entstanden; im Außenverhältnis, d.h. Dritten gegenüber, wird die OHG gemäß § 123 Abs. 1 HGB durch die Eintragung im Handelsregister wirksam, es sei denn, die OHG beginnt ihre Geschäfte bereits vor der Eintragung und ihr handelsgewerbliches Unternehmen erfordert nach Art und Umfang einen in kaufmännischer Weise eingerichteten Geschäftsbetrieb, § 123 Abs. 2 HGB. Daneben kann eine OHG auch durch -» Umwandlung (z.B. nach dem UmwG) oder, wenn das gewerbliche Unternehmen einer Gesellschaft bürgerlichen Rechts einen nach Art und Umfang eingerichteten Geschäftsbetrieb nicht erfordert, oder sie nur eigenes Vermögen verwaltet, durch Eintragung der Firma in das Handelsregister (§§ 2, 105 Abs. 1, 2 HGB) entstehen.
Offene Handelsgesellschaft Wichtige Rechte und Pflichten der Gesellschafter: Im Innenverhältnis, welches durch die § § 1 0 9 bis 122 HGB geregelt wird, gelten nach § 109 HS 1 HGB zunächst die Regelungen des Gesellschaftsvertrages, die den §§ 110 bis 122 HGB, soweit diese dispositiv sind, vorgehen. Das HGB enthält neben Bestimmungen über den Aufwendungsersatz (§110 HGB) und das Wettbewerbsverbot (§§ 112, 113 HGB) solche zur Geschäftsführung, zu der nach § 114 Abs. 1 HGB alle Gesellschafter berechtigt und verpflichtet sind. Jeder Gesellschafter ist grundsätzlich allein für das gesamte Unternehmen geschäftsfiihrungsbefugt, es kann aber eine Ressortverteilung durch den Gesellschaftsvertrag erfolgen. Die Beteiligung an Gewinn und Verlust sowie die Entnahmen regeln die § § 1 2 0 bis 122 HGB. Jeder Gesellschafter hat neben seinem Geschäftsanteil (seiner Beteiligung am Gesellschaftsvermögen) einen Kapitalanteil. Dieser drückt zunächst den Wert der geleisteten Einlage aus, verändert sich dann aber in Folge weiterer Einlagen, Gewinngutschriften und Entnahmen. Das Außenverhältnis ist in den §§ 123 bis 130 HGB geregelt. Dritten gegenüber vertretungsbefugt ist gemäß § 125 Abs. 1 HGB jeder der Gesellschafter allein, wenn nicht der Gesellschaftsvertrag etwas anderes bestimmt, was nach § 125 Abs. 4 HGB im Handelsregister einzutragen ist. Die Vertretungsmacht erstreckt sich auf alle gerichtlichen und außergerichtlichen Geschäfte und Rechtshandlungen (auch Grundstücksgeschäfte sowie Erteilung und Widerruf einer Prokura), und dieser Umfang ist Dritten gegenüber grundsätzlich unbeschränkbar, § 126 HGB. Rechtsnatur: § 124 HGB verselbstständigt die OHG insoweit, als sie unter ihrer Firma Rechte erwerben und Verbindlichkeiten eingehen, Eigentum und andere dingliche Rechte an Grundstücken erwerben sowie vor Gericht klagen und verklagt werden kann und zur Zwangsvoll-
541
Offene Handelsgesellschaft Streckung in das Gesellschaftsvermögen ein gegen die OHG selbst gerichteter Titel erforderlich ist. Schuldenhaftung: Die Gesellschafter haften für die Verbindlichkeiten der OHG den Gläubigern gegenüber primär, persönlich, unmittelbar, unbeschränkt und gesamtschuldnerisch, § 128 HGB. Ein gewissen Schutz gibt § 129 HGB jedem Gesellschafter, denn den Gläubigern der OHG können bestimmte Einwendungen, welche dem Verhältnis zwischen der OHG und dem Gläubiger entspringen, entgegengesetzt werden; daneben ist die Vollstreckung in das Privatvermögen nur mit einem gegen den Gesellschafter persönlich gerichteten Titel möglich. Ausscheiden und Ausschluss eines GeseWschafters, Auflösung der OHG: Nach § 131 Abs. 3 S. 1 HGB scheidet ein Gesellschafter, wenn im Gesellschaftsvertrag nichts anderes bestimmt ist, aus der OHG aus, wenn er stirbt, über sein Vermögen das Insolvenzverfahren eröffnet wird, er kündigt oder durch einen seiner Privatgläubiger gekündigt wird, der Gesellschaftsvertrag in weiteren Fällen ein Ausscheiden bestimmt oder die Gesellschafter es beschließen. Möglich ist auch die rechtsgeschäftliche Übertragung des Anteils, wenn die übrigen Gesellschafter zustimmen. Eine ^«ssc/i/wssmöglichkeit regelt § 140 HGB bei Vorliegen eines wichtigen Grundes (vgl. § 133 HGB). Die Auflösung der G. erfolgt durch Ablauf der Zeit, für die die OHG eingegangen wurde, durch Gesellschafterbeschluss, durch Eröffnung des Insolvenzverfahrens über das Vermögen der OHG oder durch gerichtliche Entscheidung (§131 Abs. 1 HGB; s.a. § 131 Abs. 2 HGB). Als Konsequenz des Ausscheidens oder Ausschlusses eines Gesellschafters wächst der Anteil des Ausscheidenden am Gesellschaftsvermögen automatisch den übrigen Gesellschaftern zu und der Ausscheidende erhält einen Abfindungsanspruch (§ 105 Abs. 3 HGB i.V.m. § 738 BGB); bei der Anteilsübertragung können
542
Öffentlichkeitsarbeit sich Abweichungen ergeben. Folge der Auflösung ist regelmäßig zunächst nur die Zweckänderung der OHG: statt der werbenden Tätigkeit der OHG ist deren Zweck jetzt in der Regel die Liquidation (§ 145 Abs. 1 HGB), die sich nach den §§145 ff. richtet. Die OHG wird gemäß § 156 HGB für die Abwicklung grundsätzlich wie eine fortbestehende OHG behandelt; sie erlischt erst, wenn die Liquidation abgeschlossen ist. Literatur: Schmidt, 3. Aufl., 1997.
K.:
Gesellschaftsrecht,
Peter Deeg Öffentlichkeitsarbeit Neben dem Begriff Öffentlichkeitsarbeit (ÖA) findet häufig in synonymer Bedeutung der Begriff Public Relations (PR) Verwendung. Grunig/Hunt definieren PR als "das Management der Kommunikation zwischen einer Organisation und ihren Teilöffentlichkeiten". Unter ÖA werden zunächst diejenigen Kommunikationsmaßnahmen subsumiert, die sich auf die Organisation als ganzes, nicht auf einzelne Leistungsangebote, beziehen. Allerdings sind je nach dem Grade der Exponiertheit einzelner Produkte bzw. Strategischer Geschäftsfelder auch PRMaßnahmen für einzelne Leistungsangebote des Unternehmens denkbar und üblich. Generell hat die gesellschaftliche Sensibilität gegenüber den Handlungsweisen der Unternehmen in den letzten Jahren deutlich zugenommen. Aus empirischen Untersuchungen des Instituts für Marketing der Freien Universität Berlin geht hervor, dass Ende der 80er Jahre 20,9% der geplanten Untemehmensstrategien in der Industrie durch Widerstände in der gesellschaftlichen Umwelt erheblich verändert werden mussten, 3,9% erwiesen sich sogar in der vorgesehenen Form als undurchführbar. Anfang der 90er Jahre war der Anteil der undurchführbaren Unternehmensstrategien bereits auf 9,7% angewachsen.
Öffentlichkeitsarbeit
Öffentlichkeitsarbeit
räum für die Durchsetzung Strategien zu gewinnen.
Häufig wird ÖA als Basis-Kommunikationsinstrument aufgefasst mit dem Ziel, die Beziehungen des Unternehmens zu internen und externen Bezugsgruppen vorteilhaft zu gestalten. Als übergeordnete Zielsetzung kann formuliert werden, bei allen relevanten Teilöffentlichkeiten positive Images aufzubauen und zu erhalten. Einen Überblick über einzelne Teilöffentlichkeiten der PR im internen, marktlichen und gesellschaftlichen Umfeld vermittelt Abb. 1. Diejenigen Teilöffentlichkeiten, die über Macht und Einfluss verfugen und von bestimmten Handlungen des Unternehmens direkt betroffen sind, verhalten sich i.d.R. aggressiv, um ihre eigenen Zielvorstellungen häufig auch entgegen denen des Unternehmens durchzusetzen. Sie stellen in diesen Fällen Ansprüche an das Unternehmen und werden zu Strategischen Anspruchsgruppen, an die sich das Unternehmen mit seinen PR-Maßnahmen wendet.
geplanter
Wichtigkeit für die PR Aufbau und Erhaltung eines positiven Firmen-Images
96,0%
Förderung des Ansehens der Firma bei relevanten gesellschaftlichen und politischen Institutionen
76,9%
Information und Motivation der Mitarbeiter in der Firma
72,9%
Schaffung von günstigen Bedingungen fur die Firma, z.B. am Personal- Finanzmarkt
49,1%
Aufbau und Erhaltung von positiven Produktimages
46,7%
Bekanntmachung von neuen Produkten
40,5%
Erhöhung der Aktualität der vorhandenen Produkte
18,0%
Pflege der Abnehmer/Akquisition neuer Abnehmer
15,3%
Abb. 2: Ziele von
Grundsätzlich ist das Unternehmen bestrebt, den spezifischen Erwartungen dieser Anspruchsgruppen entgegenzukommen, um auf diese Weise Handlungsspiel-
Öffentlichkeitsarbeit
Quelle: Haedrich u.a. (1995), S. 619.
Subsysteme Intern Angestelltenverhältnis - Manager - Angestellte - Arbeiter
- Auszubildende - Betriebsrat
marktlich
Eigentumsverhältnis - Eigentümer - Großaktionäre - Muttergesellschaft
Beschaffung - Lieferanten - Kreditinstitute
Absatz
- Handel
gesellschaftlich politisch
sozioökonomisch
- industrielle Abnehmer
- Regierung - Berufskammern - Behörden - Wirtschaftsverbände
- Endabnehmer
- Gewerkschaften - Parteien
Abb. 1: Teilöffentlichkeiten in den unternehmerischen
medial
- Massenmedien - Fachpresse
- Verbraucherschutzorganisationen - Bürgerinitiativen - Umweltschutzorganisationen Subsystemen
Quelle: J e s c h k e (1993), S. 53.
543
Off-line-Qualitätskontrolle
Öffentlichkeitsarbeit Dazu ist es von Seiten des Unternehmens notwendig, potenzielle Ansprüche frühzeitig zu thematisieren und mit den betreffenden Strategischen Anspruchsgruppen intensiv zu kommunizieren, u.U. auch Handlungsbereitschaft im Sinne der Zielsetzung der Anspruchsgruppen zu signalisieren, sofern deren Position gerechtfertigt erscheint. Abb. 2 enthält eine Zusammenstellung von konkreten PRZielen, die von den Inhabern leitender PR-Stellen in der deutschen Industrie als wichtig eingestuft werden. Mitarbeiter bzw. Abteilung vorhanden, der/die sich in erster Linie mit PR-Aufgaben befasst Mitarbeiter bzw. Abteilung vorhanden, der/die sich unter anderem mit PR-Aufgaben befasst
1993
1981
73,0%
60,8%
23,8%
34,7%
3,2%
4,5%
100%
100%
Abb. 3: Zuständigkeit
PR-Aufgaben
Q u e l l e : H a e d r i c h u.a. (1995), S. 628.
PR ist auf der obersten bzw. zweiten Hierarchieebene (direkt bei der Geschäftsführung/Spartenleitung bzw. als Hauptabteilung) eingeordnet PR ist auf der dritten Hierarchieebene (auf Abteilungsebene) oder tiefer eingeordnet Abb. 4: Organisatorische Abteilung für
1993
1981
87,0%
76,4%
13,0% 100%
23,6% 100%
Einordnung der Stelle/ PR-Aufgaben
Quelle: Haedrich u.a. (1995), S. 623.
Aufgrund ihrer wichtigen Steuerungsfunktion hat die Bedeutung von ÖA im Kommunikationsmix der Unternehmen in den letzten Jahren erheblich zugenommen. Unter anderem ist das daraus abzulesen, dass PR verstärkt auf der obersten bzw. zweiten Hierarchieebene der Unternehmen angesiedelt werden und dass der Anteil derjenigen Unternehmen, die feste Mitarbeiter für PR einsetzen, in der Vergangenheit größer geworden ist (vgl. 544
Literatur: Grunig, J.E./Hunt, T.: Managing Public Relations. New York 1984; Jeschke, B.C.: Konfliktmanagement und Unternehmenserfolg. Ein situativer Ansatz. Wiesbaden 1993; Haedrich, G./Jenner, Th./Olavarria, M./Possekel, St.: Zur Situation der Öffentlichkeitsarbeit in deutschen Unternehmen im Jahre 1993. In: Die Betriebswirtschaft, Jg. 55, Nr. 5/1995, S. 615-626; Armbrecht, W.: Innerbetriebliche Public Relations. Grundlagen eines situativen Gestaltungskonzepts. Opladen 1992; Haedrich, G.: Images und strategische Unternehmensund Marketingplanung, in: Armbrecht, W./Avenarius, A./Zabel, U. (Hrsg.): Image und PR, Opladen 1993, S. 251 - 2 6 2 .
Günther Haedrich
PR-Aufgaben werden direkt durch die Geschäftsführung wahrgenommen für
Abb. 3 und 4). Gleichzeitig ist festzustellen, dass der für systematische Planungsaufgaben verwendete Zeitanteil (Analyse, Ziel- und Zielgruppenplanung, Entwicklung von längerfristigen PRKonzeptionen, systematische Kontrollmaßnahmen) in den Unternehmen deutlich im Ansteigen begriffen ist.
Off-line-Qualitätskontrolle Im Gegensatz zu den Verfahren der Qualitätskontrolle, die auf der Stufe der Herstellung eines Produktes eingesetzt werden und die darauf abzielen, den Produktionsprozess zu kontrollieren, um damit Herstellungsmängel zu reduzieren, werden die Verfahren der Off-lineQualitätskontrolle auf der Stufe des Produkt- und des Produktionsprozessdesigns - also vor der eigentlichen Herstellung eines Produktes - zu Qualitäts- und Kostenkontrolle eingesetzt. Durch die Arbeiten von Taguchi wurde das Methodenspektrum um die statistische Versuchsplanung erweitert. Damit verbunden war aber auch eine Modifizierung des Begriffes der Qualität. Üblicherweise definiert man Qualität als die Gesamtheit von Eigenschaften und Merkmalen eines Produktes, die sich auf deren Eignung zur Erfüllung gegebener Erfordernisse beziehen. Viel umfangreicher dagegen definiert Taguchi als Qualität den Verlust, den ein bereits ausgeliefertes Produkt der Gesellschaft zufügt. Funktionskennwerte sind charakteristische Größen eines Produktes, die die
Ökologische Konsulnforschung
Off-line-QualitätskontroIle Funktionsfähigkeit hinsichtlich der Erfordernisse eines Benutzers determinieren. Um den Grad der Übereinstimmung mit diesen Erfordernissen quantifizieren zu können, muss der günstigste Wert eines Funktionskennwertes bekannt sein; dieser heißt Sollwert. Sollwerte von Funktionskennwerten werden üblicherweise als Nominalwert zusammen mit einem Toleranzintervall um diesen Nominalwert angegeben; es ist aber auch denkbar, dass dieser günstigste Wert des Funktionskennwertes als Minimierungswert oder als Maximierungswert angegeben wird. Ein qualitativ hochwertiges Produkt wird über die gesamte Lebensdauer hinweg einen Funktionskennwert aufweisen, der nahe beim Sollwert bzw. beim Minimierungs- oder Maximierungswert liegt. Je geringer diese Abweichung (funktionale Variabilität, -> Qualitätsverlustfunktion) vom Sollwert bzw. Minimierungs- oder Maximierungswert ist, umso besser ist die Qualität. Die Hauptursachen für die funktionale Variabilität sind Umwelteinflüsse, Produktabnutzung und Herstellungsmängel. Obwohl grundsätzlich alle Stufen der Produktherstellung vom Design (Entwurf) bis zur Herstellung die Qualität und die Kosten eines Produktes beeinflussen, ist hier besonders das Design des Produktes sowie das Design des Herstellungsprozesses zu nennen, die beide sowohl die funktionale Variabilität als auch die Herstellungskosten determinieren. Die Produktentwicklung kann in drei Stufen eingeteilt werden, die sich teilweise überdecken, das Produktdesign, das Produktionsprozessdesign und die Herstellung. Aus der nachfolgenden Tabelle (vgl. Kackar 1986) geht hervor, dass Maßnahmen zur Reduzierung der funktionalen Variabilität, verursacht durch Umwelteinflüsse und durch die Produktabnutzung, nur wirksam sind, falls sie auf der Stufe des Produktdesigns eingebracht werden. Da die Aufdeckung und Beseitigung von Herstellungsmängeln bei einer
bereits angelaufenen Produktion mit erheblichen Kosten verbunden ist, ist es günstiger, bereits auf der Stufe des Produkt- und des Produktionsprozessdesigns dafür zu sorgen, dass solche Mängel in reduziertem Maße auftreten.
Stufen der Produktentwicklung
Produktdesign
Ursachen der funktionalen Variabilität Umwelteinflüsse
Produktabnutzung
Herstellungsmängel
o
o
o
Produktionsprozessdesign Produktion
o
-
-
o
o Gegenmaßnahmen möglich. - Gegenmaßnahmen nicht möglich.
Mit den Aktivitäten der Off-lineQualitätskontrolle (Quality Engineering) sollen die Produktionsvoraussetzungen sowie die Zuverlässigkeit des Produktes verbessert und die Kosten für die Produktentwicklung und für die Nutzung über die gesamte Lebensdauer reduziert werden, so dass damit sowohl die funktionale Variabilität als auch die Produktionskosten gesenkt werden können. Literatur: Taguchi, G.: System o f Experimental Design, V o l u m e 1, V o l u m e 2, White Plains 1987; Taguchi, G.: Quality Engineering, Minimierung von Verlusten durch Prozessbeherrschung, München 1989; Davies, O.L. (Hrsg.): T h e Design and Analysis of Industrial Experiments, 2. Aufl., London und N e w York 1979; Daniel, C.: Applications of Statistics to Industrial Experiments, N e w York 1976; Juran, J.M.: T h e Quality Function, in: Juran, J.M./Gryna, F.M. (Hrsg.): Juran's Quality Control Handbook, 4. Aufl., New York usw. 1988; Kackar, R.N.: T a g u c h i ' s Quality Philosophy: Analysis and Commentary, in: Quality Progress, Dezember 1986, S. 2 1 - 2 9 .
Walter Schweitzer Ökologische Konsumforschung 1. Forschungsgegenstand Im Mittelpunkt der ökologischen Konsumforschung steht das umweltbezogene Handeln der Verbraucher. Die die Forschung dominierenden Sozialwissen545
Ökologische Konsumforschung Schäften (Soziologie, Psychologie, Ökonomie) untersuchen Werthaltungen, Lebensstile, Einstellungen sowie das Kaufund Nutzungsverhalten unter dem Aspekt der ökologischen Relevanz. Da ein ökologieverträglicher Konsum ein eben solches Angebot voraussetzt, interessieren neben den sozialen und individuellen Einflussvariablen des Handelns auch Fragen der Bewertung der konsumierten Güter: Ohne ein normatives Maß für das ökologisch Vorzugswürdige kann eine konsumbezogene Umweltforschung nicht betrieben werden. Gerade mit Blick auf den normativen Bezug der Handlungsebene hat sich in den letzten Jahren ein dramatischer Wandel vollzogen. Die Diskussion war lange dominiert von der Verpackungs- und Abfallproblematik sowie von humantoxikologischen Einzelstoffuntersuchungen (Dioxine, Schwermetalle). Daneben spielten die Kunststoffdebatte (Jute statt Plastik) sowie die aus der Industrie bekannten nachgeschalteten Filtertechnologien (Rußfilter, Katalysator) eine gewisse Rolle. Insgesamt waren die Handlungsoptionen eher auf Partialprobleme gerichtet. Insbesondere quantitativen Maßstäben kam nur eine untergeordnete Bedeutung zu. Für die Konsumenten waren solche Fokussierungen wenig bedrohlich, da sie keine grundsätzlichen Veränderungen der Verbrauchsgewohnheiten forderten. Ihr langfristiger ökologischer Nutzen war dagegen häufig umstritten. Mit dem Leitbild der Nachhaltigen Entwicklung rückten die indirekten ökologischen Folgen des Umgangs mit jedweder Form von Material und Energie in den Vordergrund. Konkret: Die Inanspruchnahme der Natur als Quelle von Ressourcen und als Senke von Emissionen und Abfällen. Eine globale Reduktion der Material- und Energiebewegungen, so die These, setzt an den Grundlagen der ökologischen Gefährdungen an und verringert damit Abfallmengen, Verkehr, Land546
Ökologische Konsumforschung schaftszerstörung und Klimagefahren durch Emissionen. Ein solcher paradigmatischer Blickwechsel vom Nanogramm zur Megatonne verschiebt die Perspektive von der Einzelstoffbetrachtung zu den gesamten anthropogenen Stoff- und Energieströmen. In der ökologischen Konsumforschung rücken damit ganze Bedürfnisfelder wie Wohnen, Ernährung, Mobilität oder Freizeit in das Zentrum der Untersuchungen. Diese werden im Hinblick auf die ökologischen Leitgrößen Material- und Energieverbrauch analysiert, um Hinweise auf Reduktionsmöglichkeiten und Prioritäten zu gewinnen. Die bedürfnisfeldorientierte Analyse deckt dabei sowohl die Angebotsseite (z. B. Bauen) als auch die Nachfrageseite (z. B. Wohnen) ab. Mit der interdisziplinären Ausrichtung zwischen Sozial- und Naturwissenschaften sowie dem Perspektivenwechsel, bedingt durch die Nachhaltigkeitsdebatte, sind die Kernelemente der modernen ökologischen Konsumforschung beschrieben. Die zahlreichen Studien lassen sich in theoriegeleitete und empirischpragmatische Ansätze unterscheiden. 2. Theoriegeleitete Forschungskonzeption Diese vornehmlich mit den Methoden der empirischen Sozialforschung arbeitenden Ansätze analysieren in einer (makro-) soziologischen Variante die Herausbildung von ökologiebezogenen Lebensoder Konsumstilen. Lebensstile sind relativ dauerhaft angelegte Verhaltens- und Selbstdarstellungsmuster, nach denen Gruppen von Menschen ihr Alltagsleben organisieren. In ihnen spiegeln sich sowohl objektive Bedingungslagen als auch die subjektiven Möglichkeiten, eigene Werte und Ziele zu verfolgen. Die Lebensstilforschung setzte zunächst darauf, dass konsumfernere, postmaterialistische Werte wie Selbstverwirklichung oder soziale Anerkennung an Dominanz gewinnen und damit gleichsam automatisch umweltfreundliche Lebensweisen generieren würden. Heute zeigt die empirische
Ökologische Konsulnforschung Forschung eine zunehmende Ausdifferenzierung der Lebensstile, die durch Begriffe wie Individualisierung, Werteerosion oder Pluralisierung gekennzeichnet wird. In den diversen Lebensstilgruppen (auch: Milieus) finden sich höchst unterschiedliche Kombinationen umweltfreundlichen und -schädlichen Verhaltens, was mit dem Ausdruck ökologisch-ambivalente Patchwork-Lebensstile treffend etikettiert ist. Öko-Anhänger sind in keiner Lebensstilgruppe mehrheitsfahig. Ähnlich sind die Ergebnisse der Konsumstilforschung, die primär Fragen der Konsumausstattung und des Konsumverhaltens betont. Als Ansatzpunkte für eine Ökologisierung werden u.a. Gesundheits-, Qualitäts- oder Regionalisierungsargumente genannt; dem Präfix "Öko" stehen dagegen die Stilgruppen fast durchgängig misstrauisch oder ablehnend gegenüber. Die psychologischen Ansätze fokussieren stärker auf die einzelnen Akteure und untersuchen die Zusammenhänge zwischen allgemeinen Bewusstseins- resp. Werthaltungen, gegenstandsspezifischen Einstellungen und dem Verhalten. Fragen nach umweltrelevanten Wertorientierungen (z. B. Bedeutung des Umweltschutzes, Verhältnis zur belebten und unbelebten Natur) zeigen i.A. eine hohe Grundsensibilisierung, die allerdings seit einigen Jahren mit einer rückläufigen Prioritätenzuschreibung im Vergleich zu anderen Politikbereichen verbunden ist. Einstellungen werden in der Regel nach der Drei-Komponenten-Hypothese operationalisiert. Danach sind emotionale (Betroffenheit), kognitive (Wissen) und intentionale (Handlungsbereitschaften) Dimensionen handlungsauslösend. Die naheliegende Vermutung, dass Einstellungen das Verhalten determinieren (E-VHypothese) konnte allerdings weder in der sozialwissenschaftlichen noch in der Umweltbewusstseinsforschung durchgängig bestätigt werden. Die gefundenen Korrelationen verweisen allenfalls auf moderate Zusammenhänge. Und: Das umweltgerechte Handeln in bestimmten
Ökologische Konsumforschung Bereichen geht mit Umweltsünden in anderen einher Patchwork-Handeln auch auf der Ebene der Akteure. Im Übrigen machen die differierenden Ergebnisse vieler Untersuchungen deutlich, dass auch psychologische Kategorien lediglich normativ zu bestimmen sind. So fallen die Antworten unterschiedlich aus, je nachdem, ob die Fragen als ökologische Referenzgrößen kleinteilige Schritte im Rahmen der Abfallwirtschaft oder längerfristig als nachhaltig einzustufende Verhaltensoptionen heranziehen. Für ein gesellschaftlich breit akzeptiertes Handeln (z.B. Mülltrennung) genügt schon ein oberflächliches Problembewusstsein. Ökonomisch-orientierte Ansätze beschäftigen sich in erster Linie mit strategischen und operativen Fragen des Marktverhaltens von Unternehmen. Soweit konsumbezogene Problemstellungen ins Kalkül rücken, betreffen diese vor allem die Preisbereitschaft der Verbraucher, die auf die (kognitiv verortete) Preiskenntnis sowie auf das (motivational bestimmte) Preisbewusstsein zurückgeführt wird. Beide sind individuell geprägt, da sie von den Prädispositionen der Nachfrager und auch von den Kontextbedingungen des Kaufs abhängen. Untersuchungen zeigen eine durchschnittlich nur geringe Mehrpreisbereitschaft für ökologische Produkte (i.A. ca. 10%) bei sinkender Tendenz. Eine andere ökonomische Näherungsweise gründet auf der Informationsökonomie und thematisiert die Informationsasymmetrien zwischen Anbietern und Verbrauchern. Umwelteigenschaften von Produkten sind danach Vertrauens- oder Placebo-Eigenschaften: Auch wenn sie vom Anbieter zugesichert werden, kann der Käufer sie nicht unmittelbar durch Begutachtung verifizieren. Solche verdeckten Merkmale eröffnen Spielräume für opportunistisches Handeln, etwa durch Vorspiegelung falscher Tatsachen. Für den Konsumenten ergeben sich 547
Ökologische Konsumforschung Transparenzdefizite, die zu Echtheitszweifeln, Vertrauensverlust u.ä. fuhren können. Für den Anbieter geht es dann darum, dem Informationsdilemma durch ein glaubwürdiges Engagement zu begegnen. Da das tatsächliche Konsumhandeln so wenig mit der ökologischen Grundsensibilisierung der Bevölkerung übereinstimmt, haben alle Forschungstraditionen nach Hemmnissen/Barrieren gesucht, die dem implizit postulierten BewusstseinsVerhaltens-Zusammenhang behindern könnten. Verwiesen wird auf interne (personale) Barrieren wie Verdrängung, Motivkonflikte, fehlende Kenntnisse oder Irrelevanzeindruck, sowie auf externe (exogene) Hemmnisse wie fehlende Verfügbarkeit, irreführende Werbung und Kennzeichnung oder Strukturdefizite, wie das Fehlen einer akzeptablen Verkehrsanbindung. 3. Empirisch-pragmatische Konzepte Empirisch-pragmatische Ansätze stellen der Tendenz der theoriegeleiteten Traditionen, sich eher mit allgemeinen Bestimmungsgründen des ökologischen Konsumverhaltens zu beschäftigen, bewusst konkrete Handlungsmöglichkeiten gegenüber. Das Spektrum dieser problemorientierten Vorgehensweisen ist vielfältig und nicht erschöpfend darstellbar. Es reicht von der Ratgeberliteratur bis zur Erforschung alternativer Handlungsangebote und Nutzungsformen wie Car-Sharing, Tauschbörsen oder Selbsthilfegruppen. Es umfasst die Entwicklung empirischfundierter Indikatoren eines nachhaltigen Konsumverhaltens wie Wasser- oder Energieverbrauch pro Kopf ebenso, wie die Weiterentwicklung der Verbraucherinformationen durch Beratungs- oder Kennzeichnungskonzepte. 4. Forschungsaufgaben Zunächst wäre die empirische Forschung zu verstärken, wobei auf die Vergleichbarkeit der Ergebnisse durch Vereinheitlichung der Begriffe und Messvorschriften zu achten ist. Viele Studien weisen zwar 548
Ökologische Konsumforschung ein hohes Umweltbewusstsein der Bevölkerung aus, die Fragestellungen beinhalten aber ziemlich handlungsferne Kategorien auf hohem Abstraktionsniveau. Außerdem wird das Umweltthema von den Probanden i.A. mit sozialen Erwünschtheitseffekten assoziiert. Grundsätzlich gilt: Fragen zum Umweltengagement transportieren immer eine Mischung aus gesellschaftlichen Konventionen, dem aktuellen Erkenntnisstand der Forschung und den normativen Festlegungen des Forschers. Die empirische Forschung hätte zu beachten, dass Einstellungen handlungsnah erfasst werden. Konkretes Umweltengagement, Marktwissen oder Kaufverhalten sind validere Indikatoren als einfache Zustimmungen oder emotionale Betroffenheiten. Explorationsstudien, die diese Anforderungen berücksichtigen, machen deutlich, dass das Segment der ökologisch Engagierten sehr klein (unter 10%) ist. Insgesamt ist besonders das Marktwissen kaum entwickelt und überformt von der Schadstoff- und Abfalldiskussion der 80er Jahre. Weiterhin wären ökologisch prioritäre Handlungsfelder (z.B. Wohnen, Mobilität) von eher nachrangigen (z.B. Abfalltrennung) zu unterscheiden. Trennt man die umweltbezogenen Konsumentscheidungen in strategische (langfristiger Planungshorizont: Hobbies, Wohnen, Heizen) und operative (Kauf von Gütern des täglichen/periodischen Bedarfs) so zeigt sich, dass Letztere in der Umweltdiskussion heute noch dominieren. Strategische Entscheidungen fixieren aber den Umweltverbrauch für einen längeren Zeitraum und sind kurzfristig aufgrund der einmal getätigten Investitionen und/oder der emotionalen Bedeutung kaum veränderbar. Hinzu kommt, dass sie den Handlungsrahmen für die nachgelagerten Konsumentscheidungen weitgehend vorgeben. So gesehen legen wenige Entscheidungen das Ausmaß der persönlichen Umweltbelastung weitgehend fest.
Online-Controlling
Ökologische Konsumforschung Schließlich: Es gibt Anzeichen dafür, dass große Teile der ökologischen Diskussion nur Insider, nicht aber die Bevölkerung treffen. Ein Indiz dafür ist die verbreitete Ablehnung der Bezeichnungen Öko oder Bio. Hier wird deutlich, dass zur schnelleren Diffusion ökologischer Verhaltensmuster auch nach anderen Motiven des Wandels gesucht werden muss. Gesundheit, Zeitwohlstand, Sparen, Genuss oder Verantwortung sind brauchbare Surrogate. Literatur: Diekmann, A./Franzen, A.: Kooperatives Umwelthandeln, Chur/Zürich 1995; G f K (Hrsg.): Öko-Marketing aus Verbrauchersicht, Nürnberg 1995; Seel, B./Stahmer, C. (Hrsg.): Haushaltsproduktion und Umweltbelastung, Frankfurt/M., N e w York 1995; Weskamp, C. (Hrsg.): Ökologischer Konsum, Berlin 1995; Diekmann, A./Jaeger, C. C. (Hrsg.): Umweltsoziologie, Kölner Zeitschrift für Soziologie und Sozialpsychologie, SH 36/1996, Opladen 1996; Bodenstein, G./Spiller, A./Elbers, H.: Strategische Konsumentscheidungen: Langfristige Weichenstellungen für das Umwelthandeln - Ergebnisse einer empirischen Studie, Diskussionsbeitrag des FB Wirtschaftswissenschaften der Universität Duisburg Nr. 234, Duisburg 1997; Scherhorn, G./Reisch, L./Schrödl, S.: Wege zu nachhaltigen Konsummustern: Überblick über den Stand der Forschung und vorrangige Forschungsthemen, Marburg 1997; Bundesministerium für Umwelt, Naturschutz und Reaktorsicherheit (Hrsg.): Umweltbewußtsein in Deutschland 1998, Hausen 1998; UNESCO-Verbindungsstelle im Umweltbundesamt (Hrsg.), Angewandte Sozialwissenschaftliche Umweltforschung, Berlin 1998; Preisendörfer, P.: Umwelteinstellungen und Umweltverhalten in Deutschland - Empirische Befunde und Analysen auf der Grundlage der Bevölkerungsumfragen "Umweltbewußtsein in Deutschland 1991-1998", herausgegeben vom Umweltbundesamt, Opladen 1999.
Gerhard Bodenstein Ökologisches Produktdesign -> Produktgestaltung OLAP OLAP ist das Akronym für Online Analytical Processing. OLAP untersucht wie -> Data Mining den Datenbestand eines Data Warehouse. Kennzeichen von OLAP ist die Mehrdimensionalität: Mehrere Datendimensionen werden (z.B.
Produkte, Preise, Absatzmengen, Distributionsgebiete usw.) gleichzeitig untersucht und grafisch aufbereitet dem Anwender z.B. in einer -> "Cockpitchart" präsentiert. One-Piece-Flow Der One-Piece-Flow ist ein Verfahren der Produktionstechnik, das in der Industrie Anwendung findet. Hier wird die strenge Arbeitsteilung und Spezialisierung der Fließfertigung aufgehoben. Ein einzelner Mitarbeiter ist beim One-Piece-Flow für die Verarbeitung eines Werkstückes in mehreren Schritten verantwortlich. Das hat folgende Vorteile: •
Für jedes produzierte Teil kann bei mangelhafter Qualität der zuständige Mitarbeiter festgestellt werden, der das Teil von Anfang bis Ende bearbeitet hat. • Die -* Motivation der Mitarbeiter steigt, da die Arbeit vielseitiger wird. • Die Ausschussrate sinkt aus den beiden genannten Gründen. Der One-Piece-Flow lässt sich nur bei einem mittleren Komplexitätsgrad umsetzen. Einerseits muss der Prozess zu komplex sein, um automatisch erledigt zu werden, andererseits müssen die Mitarbeiter alle anfallenden Arbeitsschritte erlernen und beherrschen können. Die Arbeitsplatzumgebung muss so gestaltet sein, dass die Wege zwischen den einzelnen Arbeitsschritten möglichst kurz sind und die Arbeitsschritte ergonomisch gut bewältigt werden können, z.B. durch Anordnung der Werkplätze in Hufeisenform. Diese ökonomische Orientierung unterscheidet den One-Piece-Flow von der -> Werkstattfertigung. One-to-One-Marketing Direktmarketing Online-Controlling Online-Controlling umfasst die Steuerung und Wirkungskontrolle des OnlineAuftritts und des ->• Online-Marketings. Begünstigt wird die Informationssammlung des Online-Controlling dadurch, 549
Online-Controlling dass im -»Internet jeder -» Web-Server viele Nutzungsparamter automatisch erfasst und in sog. Log-Dateien speichert. Diese Datensammlungen bilden dann die Grundlage der Auswertung. Gängige Messgrößen sind: -
-
-
-
-
-
-
-
Visits: Die Visits geben die Zahl der Besucher während eines Zeitraums an. Gemessen wird dies über zusammenhängende Seitenaufrufe des Nutzers. Jeder Besucher generiert einen Visit. Hits: Mit den Hits wird gemessen, wie oft eine Datei von den Nutzern abgerufen wurde. Hits sind kein verlässliches Maß zur Erfolgskontrolle, da eine Internetseite in der Regel aus vielen Dateien aufgebaut ist (Text, Grafiken, Banner usw.). Besser ist die Messung mittels Page Impressions. Page Impression: Gibt an, wie oft eine Seite aufgerufen wurde. Dabei zählt jede Seite nur einmal, auch wenn diese aus mehreren Dateien besteht. AdClicks (auch als Click-Trough bzeichnet): Misst, wie oft eine Bannerwerbung mit dem Mauszeiger angeklickt wurde. AdClicks sind daher eine hervorragende Größe zur Erfassung der Werbewirkung (-> Werbewirkung und Werbeumfeld). View Time: Wie lange war eine bestimmte Seite des Internetangebots minimal/durchschnittlich/maximal eingeblendet? Eine hohe View Time bedeutet intensiveren Kontakt mit Werbebotschaften. Nutzungszeit: Zu welcher Zeit wurden Informationen abgerufen? Diese Größe kann verwendet werden, um die zeitliche Besetzung des Call-Centers zu optimieren. Ausstiegsseite: Wohin sind die Nutzer gegangen? In der Regel sind dies unmittelbare Wettbewerber. Herkunft: Web-Server ermitteln, von wo Informationen angefordert wurden. Es lässt sich so eine Länderverteilung ermitteln. Diese Information kann Grundlage der Entscheidung sein, das
550
Online-Marketing Intemetangebot mehrsprachig aufzubauen. Online-Marketing Online-Marketing ist eine neue Form des Marketing. Man nutzt beim OnlineMarketing die technischen Möglichkeiten des -> Internets (Hauptsächlich -> WWW und E-Mail), um mit dem Konsumenten in einen interaktiven Kontakt zu treten. Oftmals wird eingewendet, es habe sich beim Online-Marketing lediglich der Übertragungsweg einer Werbebotschaft zum Konsumenten geändert. Dies trifft nicht zu, wie die Aufzählung der Besonderheiten des Online-Marketing gegenüber klassischen Marketing-Wegen aufzeigt: -
-
-
-
Werbebotschaften werden durch den Konsumenten aktiv abgerufen: Während beim klassischen Marketing versucht wird, möglichst eingängige Botschaften an den Konsumenten zu übermitteln, wird im Internet der Konsument aktiv. Er besucht WWWSeiten, folgt u.U. Werbebannern oder stellt seine E-Mail-Adresse für einen "Newsletter" zur Verfügung. Werbebotschaften können multimedial aufbreitet werden: Mittels entsprechender -»Plug-ins wird jeder -» Web-Browser zur Multimediamaschine. Das Marketing kann dies nutzen, indem Botschaften animiert oder mit Ton versehen werden. Auch die Schaffung virtueller Werbeumgebungen oder Einkaufsstätten (-• Virtual Reality, -> VRML) ist möglich. Ständige Verfügbarkeit der Werbebotschaften und Ubiquität: Werbebotschaften im Internet haben keine spezifische Sendezeit, sie sind immer dann verfügbar, wenn der Konsument sie (direkt oder indirekt) anfordert. Die Vernetzung des Internets macht es zudem möglich, Werbebotschaften global abzurufen. Werbung erfolgt kostengünstig: Im Vergleich zu klassischer -> Mediawerbung ist eine weltweite Werbepräsenz
Online-Marketing
-
-
mit geringem Aufwand möglich. Auch die Produktionskosten der Werbebotschaft lassen sich tendenziell senken wobei natürlich auch hier dem möglichen Aufwand keine Grenzen gesetzt sind. Skalierbarkeit des Marketings: OnlineMarketing muss nicht gleich mit der Tür ins Haus fallen. Der Konsument hat die Möglichkeit, nach und nach immer detaillierte Informationen abzurufen. Hat er sich ausreichend über ein Produkt informiert, kann er bei vielen Anbietern direkt online kaufen. Werbeerfolg ist grundsätzlich messbar: Jeder Web-Server zählt die Besuche auf einer Internetseite, zählt Bannereinblendungen (-» Bannerwerbung) und kann die Anzahl der Besucher ermitteln, die auf ein Banner "geklickt" haben - und damit einer Werbebotschaft gefolgt sind. -» Kontaktmaßzahlen sind im Internet also stets auf den Nutzer genau zu ermitteln.
Die Unterschiede können auch schon als die Wesentlichen Vorteile des OnlineMarketings gesehen werden. Daneben exisiteren auch Nachteile: -
-
Konsument muss aktiv werden: Die Werbebotschaften sind prinzipiell global verfügbar. Allerdings gilt hier die Abwandlung des MarketingSprichwortes "Ein Produkt, von dem der Käufer nicht weiß, existiert nicht" zu "Eine Werbebotschaft, von der der Konsument nicht weiß, existiert nicht". Es ist also essentiell erforderlich, den Konsumenten auf das eigene Online-Marketing zu stoßen. Erst dann kann die Skalierbarkeit des Marketing ihre Wirkung entfalten. Produktabhängigkeit: Produkte, die stark erklärungsbedürftig sind, bei denen der Konsument ein hohes -* Involvement zeigt oder die vor dem Kauf "gefühlt" werden müssen (wie Textilien) lassen sich online weniger gut bewerben oder gar vertreiben.
-
Operations Research Bestimmte Zielgruppen nicht erreichbar: Senioren und Kinder nutzen das Internet kaum. Frauen sind in der Nutzung noch unterrepräsentiert (holen aber auf).
Das Online-Marketing setzt als Instrumente zur Kundengewinnung die Bannerwerbung, das E-Mail-Marketing, zur Kundenbindung Virtuelle Communities (-• Virtual Community) und -» Chats ein. Daneben werden stets neue Formen des Online-Marketing erprobt. Bereits heute zeigt sich aber, dass eine alleinige Online-Werbung nicht ausreichend ist. Das Online-Marketing etabliert sich damit als ein weiteres Instrument im —• Marketing-Mix. Die Erfolgsmessung des Online-Marketing geschieht mit den Größen des Online-Controlling. Literatur: Krause, J./Somm F.: Online-Marketing, München, Wien 1998; Modahl, M.: Der Wettlauf um den Internet-Kunden, Landsberg/Lech 2000.
Thomas Träger Operations Research Operations Research (auch bekannt unter den Begriffen Operational Research oder Management Science) ist ein auf praktische Anwendung mathematischer Methoden ausgerichteter Wissenszweig, der sich mit der Problemanalyse und Vorbereitung optimaler Entscheidungen in Organisationen befasst. Operations Research (OR) beschäftigt sich vor allem mit Anwendungen, die aufgrund der ungeheuren Komplexität einer Problemsituation eine abstrakte mathematische Betrachtung erfordern. Ein bekanntes Beispiel der OR ist das Traveling Salesman Problem: Ein Handlungsreisender soll eine Reihe von Kunden an verschiedenen Orten besuchen. Gesucht ist die optimale Reihenfolge, das heisst die Reihenfolge, aus der sich die geringste Anzahl an gefahrenen Kilometern ergibt. Nun lässt sich einwenden, dass ein menschlicher Disponent einer 551
Operations Research Landkarte ansieht, welche Routen gut sind. Die Schwierigkeit ergibt sich jedoch durch die Berücksichtigung von hunderten von Zielorten und von Nebenbedingungen wie Öffnungszeiten etc. Operations Research befasst sich nun mit Möglichkeiten, solche Probleme mit praxisnahem Aufwand zu lösen. Für Unternehmen ist es erforderlich, nach Möglichkeiten zur Effizienzsteigerung zu suchen. Erfahrungen haben gezeigt, dass durch verbesserte Entscheidungs- und Planungsinstrumente, wie sie das OR bereitstellt, solche Effekte erreicht werden können. Opportunitätskosten Opportunitätskosten sind Kosten, die durch entgangenen Nutzen eines Gutes bei einer anderen Verwendung entstehen: Kapital, das im Unternehmen gebunden ist, könnte z.B. auf dem Markt gewinnbringend angelegt werden; dieser entgangene Gewinn fällt unter den Begriff Opportunitätskosten. In der Kostenrechnung sind die Opportunitätskosten den kalkulatorischen Kosten zuzurechnen, darunter fallen u.a. kalkulatorische Zinsen für gebundenes Kapital (z.B. in der Lagerhaltung), kalkulatorische Miete für Güter, die man vermieten könnte oder der kalkulatorische Unternehmerlohn, weil der Unternehmer seine Arbeitskraft jemand anderem entgeltlich zur Verfügung stellen könnte. Literatur: Coenenberg, A.G., Kostenrechnung und Kostenanalyse, 4. Aufl., Landsberg am Lech 1999, S. 6 1 - 6 7 .
Optimum Strategy-Modell -> PIMS-Datenbank, -> PIMS-Programm Optionsplan 1. Begriff Der Begriff Optionsplan bezeichnet eine Methode der erfolgsabhängigen Entlohnung von Führungskräften (-» Führungskräfteentlohnung) und Mitarbeitern. Gemeinsames Merkmal aller Optionspläne (OPe) ist, dass sich die Höhe der erfolgsabhängigen Vergütung an der Entwicklung des Marktwertes des Unternehmens 552
Optionsplan orientiert. In der Praxis unterscheidet man zwei Varianten von OPen: Aktienoptionspläne (AOPs) und Stock Appreciation Rights (SARs) (auch virtuelle Optionspläne oder Phantompläne genannt). AOPs gewähren den Planteilnehmern das Recht, -* Aktien des eigenen Unternehmens innerhalb einer bestimmten Frist zu einem vorab bestimmten Preis (sog. Bezugskurs) zu erwerben. Ein finanzieller Vorteil für den Planteilnehmer entsteht dann, wenn der Börsenkurs der Aktie den Bezugskurs überschreitet. In diesem Fall kann der Planteilnehmer die Aktie zum Bezugskurs erwerben und zum höheren Börsenkurs verkaufen. SARs bilden diesen Vorgang lediglich fiktiv nach. Bei Ausübung erhält der Planteilnehmer die Differenz zwischen dem Tageskurs der Aktie und dem fiktiven Bezugskurs bar ausgezahlt. Eine Transaktion in Aktien findet bei SARs nicht statt. 2. Planteilnehmer Planteilnehmer sind üblicherweise das Top-Management und der obere Führungskreis. Zunehmend werden aber auch weitere Mitarbeiter in OPe einbezogen, in einzelnen Fällen die gesamte Belegschaft. OPe verfolgen üblicherweise die Zielsetzung, den Planteilnehmern einen Anreiz zur Steigerung des Marktwertes der von ihnen geleiteten Unternehmen zu geben. Durch diesen Anreizmechanismus soll der potenzielle Agency-Konflikt ( - > AgencyTheorie) zwischen Management und Eigentümern bzw. zwischen Mitarbeitern und Management entschärft werden. Als vorteilhaft gilt hierbei, dass durch die Begrenzung des persönlichen Verlustrisikos auf den wertlosen Verfall der Optionen bei gleichzeitig hohen Gewinnchancen ein Anreiz geschaffen wird, auch riskantere Strategien mit höherer erwarteter Rendite zu wählen. Da der optimale Punkt des zu wählenden Risikos jedoch in der Praxis nicht bestimmt werden kann, besteht bei sehr umfangreichen OPen allerdings auch die Gefahr, Anreize für das Eingehen zu hoher Risiken zu setzen.
Optionsplan
Optionsplan
gestellt werden. Die Bedienung über eine bedingte Kapitalerhöhung ist derzeit die am weitesten verbreitete Bedienungsform in der Bundesrepublik. In Abhängigkeit von der Bedienungsform ergeben sich sehr unterschiedliche Liquiditätseffekte für die Unternehmen. Während dem Unternehmen bei der Bedienung über ein bedingtes oder genehmigtes Kapital bei Optionsausübung Liquidität zufließt, kommt es bei SARs, dem Rückkauf eigener Aktien am Markt oder dem Kauf von Optionen von einem Dritten zum Liquiditätsabfluss. Aufgrund des durchschnittlich höheren Liquiditätsbedarfs bevorzugen gerade junge, wachstumsorientierte Unternehmen eine Bedienung über genehmigtes oder bedingtes Kapital.
3. Varianten des OP OPe können in verschiedenen Varianten implementiert werden, die in der Praxis jeweils sehr unterschiedlich stark zur Anwendung kommen. -
Ein wichtiges Kriterium zur Unterscheidung der Optionsplanvarianten ist die Art, in welcher Unternehmen die Optionsverpflichtungen bedienen, die sich aus der Einräumung der Optionsrechte an die Planteilnehmer ergeben. Während SARs durch ihren Barzahlungsanspruch eindeutig geregelt sind, bestehen für AOPs mehrere Möglichkeiten der Bedienung. Im Fall der AOPs sind die Unternehmen verpflichtet, den Planteilnehmern Aktien zum Bezugskurs anzubieten. Dazu müssen die Unternehmen über die Aktien verfügen können. Hierbei lässt sich zunächst danach unterscheiden, ob die zu liefernden Aktien neue oder alte Aktien sind. Damit die Lieferung neuer Aktien möglich ist, müssen diese im Rahmen einer bedingten (§192 ff. AktG) oder genehmigten (§ 202 ff. AktG) Kapitalerhöhung geschaffen werden. Erfolgt die Beschaffung über eine bedingte Kapitalerhöhung, so kann entweder der Weg über sog. "nackte Optionsrechte" nach § 192 Abs. 2 Nr. 3. AktG oder über eine Kopplung der Optionsrechte an eine Wandelschuldverschreibung oder Optionsanleihe gemäß § 192 Abs. 2 Nr. 1 in Verbindung mit § 221 AktG gewählt werden. Die notwendige Kapitalerhöhung muss vor Einräumung der Optionen von der Hauptversammlung beschlossen werden. Werden Optionen auf bereits bestehende Aktien gewährt, müssen diese vom Unternehmen über die Börse zurückgekauft werden (§ 71 Abs. 1 Nr. 8 AktG) oder das Unternehmen erwirbt seinerseits Optionen von einem Dritten, der die Aktien im Fall der Optionsausübung liefern muss. Als Sonderform ist schließlich noch möglich, dass die Aktien direkt von den Altaktionären zur Verfügung
-
Neben der Form der Bedienung können OPe auch hinsichtlich der wirtschaftlichen Ausgestaltung weiter differenziert werden. Besondere Bedeutung wird hierbei der Festlegung des Bezugskurses beigemessen. Dieser kann fest oder variabel gestaltet sein. Bei Verwendung fester Bezugskurse wird üblicherweise der Tageskurs der Aktien am Tag der Optionsgewährung gewählt. In der Praxis wird dieses Verfahren üblicherweise durch eine sog. Performancehürde ergänzt, welche vorschreibt, dass der Kurs erst um einen bestimmen Prozentsatz innerhalb der Optionslaufzeit gestiegen sein muss, ehe die Optionen ausgeübt werden dürfen. Bei Verwendung variabler Bezugskurse wird der Bezugskurs entweder periodisch angehoben oder der Bezugskurs wird an die Entwicklung eines Aktienindex gekoppelt. Bei diesem Vorgehen wird der Bezugskurs zunächst auf den Tageskurs bei Einräumung der Optionen gelegt. Danach wird der Bezugskurs um den gleichen Prozentsatz verändert, um den sich auch ein passend gewählter Aktienindex ab dem Tag der Optionseinräu-
553
Optionsplan mung verändert. Um Stichtagseffekte zu vermeiden werden statt Tageskursen gelegentlich auch Durchschnittskurse verwendet. Soll mit einem Optionsplan die Schaffung von Shareholder Value gefordert werden, ist das Verfahren der Indexbindung vorzuziehen. In diesem Fall können Optionen nur dann mit Gewinn ausgeübt werden, wenn sich die Aktie des Unternehmens nach Optionseinräumung besser entwickelt als der Index. Hierin kommt die Idee des -> Shareholder Value Ansatzes zum Ausdruck, dass nur dort Mehrwert für die Aktionäre geschaffen wird, wo die erwirtschaftete Rendite ihrer Aktien höher liegt als die Rendite, die sie bei vergleichbarem Risiko in einer alternativen Anlage hätten erzielen können. Die Indexentwicklung dient hierbei als Maß für die Opportunitätskosten der Aktionäre. Bezüglich der Laufzeit bestehen je nach Bedienungsform unterschiedliche Vorgaben. Während für SARs keine rechtlichen Vorschriften existieren, sind genehmigte Kapitalerhöhungen für längstens 5 und bedingte Kapitalerhöhungen für längstens 10 Jahre zulässig. In der Praxis werden üblicherweise Optionen mit Laufzeiten von 3, 5 oder 10 Jahren eingeräumt. Typischerweise dürfen Optionen frühestens nach 2 bis 3 Jahren (Sperrfrist) ausgeübt werden. Vielfach finden sich auch Ausübungsbeschränkungen, nach denen Optionen einer Tranche nur zeitlich gestaffelt ausgeübt werden dürfen. Überwiegend werden amerikanische Optionen vergeben, die nach Ablauf der Sperrfrist jederzeit bis zum Ende der Laufzeit ausgeübt werden dürfen. Vereinzelt finden sich aber auch europäische Optionen, bei denen die Ausübung nur am Ende der Laufzeit möglich ist. Werden amerikanische Optionen vergeben, werden die Ausübungstermine üblicherweise weiter eingegrenzt, um möglichen Verstößen gegen die Insiderregeln des
554
Optionsplan Wertpapierhandelsgesetzes vorzubeugen. Als Ausübungstermine werden in diesem Fall Zeitfenster für die Ausübung kurz nach der Veröffentlichung wichtiger Unternehmenszahlen (z.B. Quartalsberichte) eingerichtet. Schliesslich können die Ausübungsgewinne beschränkt werden. Von dieser Möglichkeit wird insbesondere bei Programmen auf Basis von SARs Gebrauch gemacht, da ansonsten ein fast unbegrenzter Liquiditätsabfluss möglich wäre. Die Einteilung eines Optionsplanes in Tranchen mit jeweils kürzerer Laufzeit ist der einmaligen Gewährung von Optionen vorzuziehen, da sich die Anreizwirkung über die Laufzeit der Optionen verändern kann. Liegt der Aktienkurs bereits während der Sperrfrist sehr weit über dem Bezugskurs, könnten die Planteilnehmer bestrebt sein, in der Folge sehr risikoscheu zu agieren, um den Wert ihrer Optionen nicht wieder zu gefährden. Umgekehrt kann ein Anreiz zu übermäßigem Risiko bestehen, wenn der Aktienkurs sehr weit unter dem Bezugskurs liegt. In diesem Fall können die Optionen nur noch nach starken Kursanstiegen gewinnbringend ausgeübt werden. Um diesen möglichen Verhaltenseffekten vorzubeugen sollten jeweils neue Optionen in regelmäßigen Abständen gewährt werden. Diese bilden dann in ihrer Anreizwirkung ein Gegengewicht gegen die evtl. bereits veränderten Anreizwirkungen älterer Optionen. 4. Besteuerung Die Besteuerung von OPen ist zur Zeit noch nicht abschließend geklärt. Dies gilt insbesondere für die Regelung der steuerlichen Abzugsfähigkeit beim Unternehmen. Hier hängt die steuerliche Wirkung noch zentral von der Form der Optionsbedienung ab. Während SARs oder der Kauf von Optionen von einem Dritten völlig zweifelsfrei als Personalaufwand abzugsfähig sind, existiert derzeit keine
Optionsplan verbindliche Regelung der steuerlichen Behandlung von OPen auf Basis eines bedingten oder genehmigten Kapitals. Eine Klärung dürfte jedoch relativ schnell zu erwarten sein. Beim Optionsempfanger gilt grundsätzlich, dass dieser die Gewinne aus der Optionsausübung im Jahr der Ausübung zu versteuern hat. Lediglich bei noch nicht börsennotierten Unternehmen besteht vereinzelt die Möglichkeit einer Versteuerung des Optionswertes im Jahr der Einräumung der Optionen. Bei Verwendung korrekter Optionsbewertungsverfahren lässt sich allerdings zeigen, dass der Zeitpunkt der Besteuerung irrelevant ist, da die Barwerte der Steuern übereinstimmen. 5. Verbreitung von OPe OPe wurden erstmalig in den USA in größerem Umfang eingeführt. Dort hat die Verbreitung bis Mitte der 80er Jahre ständig zugenommen. Je nach betrachtetem Börsensegment haben teilweise mehr als 90% aller dortigen Unternehmen OPe eingeführt. In der Bundesrepublik hat diese Entwicklung erst mit erheblicher zeitlicher Verzögerung eingesetzt. Während erste OPe hier in den 80er Jahren eingeführt worden sind (z.B. Continental AG) hat erst mit den OPen von Daimler Benz und Deutsche Bank im Jahr 1996 eine intensive öffentliche Diskussion begonnen, in deren Folge OPe auch in der Bundesrepublik eine rasche Verbreitung gefunden haben. Ende 1999 wird die Zahl der eingeführten OPe auf ca. 250 geschätzt. Die häufigste Form der Bedienung ist hier die über eine bedingte Kapitalerhöhung. Die relativ starke Verbreitung von OPen lässt sich derzeit nicht durch die Erfolge dieses Vergütungskonzeptes begründen. Die wenigen vorhandenen Studien aus den USA können keine nennenswerten Effekte der Einführung von Optionsplänen auf den Unternehmenserfolg nachweisen. Allerdings leiden die durchgeführten Studien unter einer Reihe von methodischen Mängeln, die eine ab-
Organisation schließende Beurteilung von OPen nicht zulassen. Gerade im Vergleich zu herkömmlichen Tantiemeregelungen dürfte die Orientierung von OPen am Marktwert aber vorteilhaft sein. Es ist daher zu vermuten, dass OPe bei angemessener Gestaltung ein brauchbares Entlohnungskonzept darstellen. Stefan Winter Organigramm Das Organigramm ist ein Darstellungsmittel (-» Organisationsdarstellung) zur übersichtlichen Abbildung der betrieblichen ->• Aufbauorganisation. Es zeigt säulen- oder kreisförmig das Stellengefüge bzw. dessen Zusammenfassung zu Abteilungen, die Rangordnung der Instanzen, die Eingliederung unterstützender Stellen (-» Stabsorganisation) und die Kommunikationswege der Aufbauorgansiation. Organisation Der Begriff Organisation umfasst drei Bedeutungen. ( 1 ) Funktionaler Organisationsbegriff Organisation ist der Vorgang des Organisierens. Die Umsetzung einer geplanten Ordnung durch ein System von generellen und fallweisen Regelungen fällt unter diesen Organisationsbegriff. (2) Institutioneller Organisationsbegriff Als Organisation kann man auch jedes zielgerichtete soziale System bezeichnen. Unternehmen sind demnach Organisationen, genau wie Wohngemeinschaften, Vereine, Verbände, Kirchen. (3) Instrumentaler Organisationsbegriff Organisation als Instrument begriffen, beschreibt das System betriebsgestaltender Regelungen, die zum Erreichen des Betriebsziels erlassen werden. Die Organisation eines Unternehmens ist dann das Ergebnis des Organisierens, wie es im funktionalen Organisationsbegriff zum Ausdruck kommt: Das Unternehmen hat eine Organisation. 555
Organisation Um das Ziel des Unternehmens zu erreichen, kann man die Regelungen - also die Organisation des Unternehmens - anpassen (-» Change Management). In diesem Sinne kann man auch von der Organisation als Betriebsstruktur (-> Organisationsstruktur) sprechen. Der instrumentale Organisationsbegriff wird verwendet, wenn organisatorische Fragen als Führungsaufgabe im Unternehmen verstanden werden. Die Organisation lässt sich dann weiter unterteilen in die -> Aufbauorganisation (-> Organisationsformen) und die -» Ablauforganisation sowie in die -> formale und -> informale Organisation.
Organisationsformen bestehen wechselseitige Abhängigkeiten, sog. Interdependenzen. Ressourceninterdependenzen entstehen, wenn verschiedene Einheiten auf dieselben Ressourcen bzw. Kapazitäten zurückgreifen. Dies können z.B. Mitarbeiter, Kapital, Maschinen oder Betriebsmittel sein. Marktinterdependenzen entstehen, wenn gemeinsam auf externen Absatz- oder Beschaffungsmärkten agiert wird. Z.B. können Vertriebsniederlassungen bestehen, die von verschiedenen Abteilungen genutzt werden oder es können bei der Beschaffung bessere Konditionen durch Poolung der Bestellungen erzielt werden.
Organisationsdarstellung Das Gefiige der Aufbau- oder Ablauforganisation eines Unternehmens lässt sich mittels verschiedener Darstellungstechniken beschreiben. Dazu gehören (mit aufsteigendem Grad an Detailliertheit): Organigramm, -> Stellenbeschreibung und -> Netzplan(technik).
Prozessinterdependenzen ergeben sich aus der Aufspaltung eines Bearbeitungsvorganges (Ablaufes) auf verschiedene Stellen/Abteilungen. Z.B. wird eine F&EAbteilung bei der Produktentwicklung auf Informationen aus dem Marketing zugreifen müssen.
Organisationsentwicklungsstrategie -> Management des Wandels
Bei der Aufteilung von Aktivitäten auf Stellen sind zwei grundsätzliche Konflikte zu beachten:
Organisationsformen Organisationen sind Systeme von Regelungen, die das Verhalten von Mitarbeitern auf ein übergeordnetes Unternehmensziel ausrichten. Dabei sind einerseits Aktivitäten auf verschiedene Akteure aufzuteilen, andererseits ergibt sich daraus die Notwendigkeit zur Abstimmung dieser Teilaktivitäten. Durch geeignete Organisationsformen soll erreicht werden, dass zum einen so wenig wie möglich Kosten durch Nicht-Abstimmung verschiedener Teilaktivitäten entstehen (Autonomiekosten), zum anderen sollen die Kosten der Abstimmung selbst (Koordinationskosten) so gering wie möglich gehalten werden. Das Kernproblem besteht somit in der Tatsache, dass die Handlung einer Stelle oder Abteilung Auswirkungen auf andere Stellen im Unternehmen haben kann. Es
556
1. Organisationen sollen die Generierung von Spezialisierungsvorteilen ermöglichen, die wiederum zu Erfahrungsund Effizienzvorteilen fuhren. Spezialisierung bedingt Arbeitsteilung. Arbeitsteilung jedoch zwingt dazu, die arbeitsteiligen Schritte wieder zusammenzuführen (Koordination), was mit Aufwand verbunden ist. Es besteht somit ein Konflikt zwischen Spezialisierungsvorteilen und Koordinationsaufwand. 2. Organisationen haben den Zweck, durch eine feststehende Ordnung Stabilität zu gewährleisten. Auf der anderen Seite müssen Organisationen die Fähigkeit zur Generierung von Innovationen und zur Anpassung an veränderte Umweltbedingungen behalten. Es besteht somit ein Konflikt zwischen Stabilität und Flexibilität.
Organisationsformen
Organisationsformen
aus. Demgegenüber können Spezialisierungsvorteile entfallen, bestehende Kapazitäten werden weniger effizient genutzt als im Fall der Verrichtungszentralisation (z.B. Gefahr von Leerkosten). Solche Effekte fallen jedoch mit steigender Größe des Objekts zunehmend weniger ins Gewicht, da mit zunehmender Größe Spezialisierungsvorteile abnehmen.
Bei der Organisationsgestaltung wird zum einen die inhaltlichen Ausrichtung der einzelnen Stellen festgelegt (Segmentierung), zum anderen wird die Entscheidungskompetenz der untergeordneten Stellen bestimmt (Strukturierung). Da untergeordnete Stellen wiederum mit Weisungsbefugnissen gegenüber anderen Aufgabenträgern ausgestattet sein können, entsteht auf diese Art ein hierarchisches Entscheidungsgefüge. Bei der Segmentierung wird entschieden, wonach eine Stelle oder Abteilung inhaltlich ausgerichtet wird: •
•
Eine Ausrichtung auf bestimmte Verrichtungen liegt vor, wenn Stelleninhaber gleichartige Verrichtungen (z.B. Beschaffung/Produktion/Absatz) an unterschiedlichen Objekten/ Produkten vornehmen. Hier lassen sich Spezialisierungsvorteile in hohem Maße verwirklichen, Ressourcen werden besonders effizient genutzt. Jedoch bestehen bei den betrieblichen Abläufen zahlreiche Schnittstellen zwischen den verschiedenen Funktionalbereichen (Prozessinterdependenzen), die häufig zu Zwischenlagern, damit verbundenen längeren Durchlaufzeiten und erhöhten Informations- und Koordinationskosten führen. Je heterogener die zu bearbeitenden Produkte sind, desto höher liegen diese Abstimmungskosten. Sie können ab einem gewissen Grad an Diversifikation auch durch verrichtungsbezogene Spezialisierungsvorteile nicht mehr kompensiert werden. Eine Ausrichtung auf Objekte liegt vor, wenn ein Stelleninhaber verschiedene Verrichtungen an gleichartigen Objekten vornimmt. Objekte können dabei Produkte bzw. Produktgruppen, geographische Regionen oder Kunden sein. Objektzentralisation fuhrt meist zu einer Verkürzung von Informationswegen und Durchlaufzeiten. Abstimmungskosten bei der Bearbeitung eines Objektes fallen insgesamt gering
Neben der Segmentierung muss über die Kompetenzverteilung zwischen übergeordneter Instanz und untergeordneten Stellen geregelt werden (Strukturierung). Zum einen stellt sich die Frage, ob für jede Stelle genau eine vorgesetzte Instanz besteht (Ein-Linien-System), oder ob Mitarbeiter von mehreren übergeordneten Einheiten Weisungen empfangen (MehrLinien-System). Zum anderen muss sich die Unternehmensleitung entscheiden, in welchem Detaillierungsgrad Vorgaben gemacht werden. •
Verhaltensvorgaben liegen vor, wenn Entscheidungen weitgehend zentralisiert und formalisiert sind. Die Abstimmung der Teilbereiche erfolgt über einen Gesamtplan, in dem detailliert Handlungsanweisungen gegeben werden.
•
Zielvorgaben beschränken sich hingegen auf die Vorgabe bestimmter Zielwerte, z.B. Gewinn, Rentabilitäts- oder Umsatzwerte. Bei der Realisierung dieser Zielwerte besitzen die Teilbereichsleiter weitgehende Autonomie.
Während es sich bei Verhaltensvorgaben vor allem um einen hierarchischen -> Führungsstil handelt, werden Zielvorgaben häufig mit marktorientiertem Führungsstil gleichgesetzt. Durch die Vorgabe von Zielwerten werden quasimarktliche Anreize gesetzt. Die weitgehende Autonomie bei der Verwirklichung der Ziele soll bei den Mitarbeitern Eigeninitiative und unternehmerisches Handeln fördern. Die Wahl der Koordinati557
Organisationsformen
Organisationsformen onsinstrumente hat somit nicht nur Auswirkungen auf die innerbetriebliche Abstimmung. Obwohl entsprechende verhaltenstheoretische Zusammenhänge aus wissenschaftlicher Sicht nicht abgesichert sind, wird derartigen Strukturierungsentscheidungen in der Praxis weitgehende Bedeutung für die -» Motivation der Mitarbeiter zugemessen. Praktisch relevante
Organisationsformen
Eindimensionale Strukturen sind gegeben, wenn die Stellenaufgaben einer Hierarchieebene nach genau einem Kriterium abgegrenzt werden. Erfolgt die Segmentierung nach der Art der Verrichtung, liegt eine Funktionalorganisation vor. Da bei den einzelnen Bearbeitungsschritten Erfahrungs- und Größenvorteile realisiert werden können, wird eine effiziente Nutzung bestehender Ressourcen sichergestellt. Aufgrund der hohen prozessbezogenen Verflechtungen zwischen verschiedenen Stellen ist jedoch ein hoher Koordinationsaufwand nötig. Zielvorgaben werden sich für die Koordination als nicht ausreichend herausstellen, so dass Verhaltensvorgaben gemacht
Abb. 1:
Funktionalorganisation
werden müssen. Entsprechend weisen Funktionalorganisationen ein hohes Maß an hierarchischer und zentralisierter Koordination auf. Bei steigender Produktdiversifikation geht man daher häufig zur Geschäftsbereichsorganisation über. Hier erfolgt die Segmentierung nach der Art des Produktes. Die einzelnen Abteilungen sind mit eigenen Ressourcen zur Leistungserstellung ausgestattet. Die tendenziell bessere Abgrenzbarkeit der einzelnen Produkte 558
erlaubt eine stärker Dezentralisation der Entscheidungen. Es wird möglich, die Abteilungen in stärkerem Maße nur über Zielvorgaben zu koordinieren. Der höheren Autonomie und entsprechend höheren Flexibilität steht eine tendenziell schwächere Ausnutzung von Ressourcen entgegen. Darüber hinaus können Marktinterdependenzen entstehen, z.B. wenn verschiedene Produkte über dieselben Vertriebskanäle abgesetzt werden.
Abb. 2:
Geschäftsbereichsorganisation
Bei hoher geographischer Streuung kann sich schließlich eine Segmentierung nach Regionen anbieten. Ergebnis ist eine Regionalorganisation. Bei konsequenter Verwirklichung dieser Organisationsform fuhren die jeweiligen Einheiten sämtliche Leistungserstellungsaufgaben - von der Beschaffung über die Produktion bis zum Absatz - autonom aus. In dieser Form liegen zwischen den Einheiten keine Interdependenzen vor. Jedoch wird vor allem in Hinblick auf eine wirtschaftliche Nutzung von Ressourcen eine reine Form der Regionalorganisation nur sehr selten zu finden sein. In der Regel weicht man in solchen Fällen von einer eindimensionalen Strukturierung ab. Abteilungen, die nach anderen Kriterien strukturiert sind, werden ergänzt. Es entstehen mehrdimensionale Strukturen.
Abb. 3:
Regionalorganisation
Organisationsformen
Organisationsformen Bei mehrdimensionalen Strukturen wird versucht, die jeweiligen Nachteile eindimensionaler Strukturen zumindest teilweise zu kompensieren. Stellenaufgaben einer Hierarchieebene werden daher durch mehr als ein Kriterium segmentiert. Bei der Verankerung der zusätzlichen Aufgabenperspektive bieten sich drei Prinzipien an. Die Reihenfolge der Auflistung orientiert sich dabei am zunehmenden Gewicht, das der jeweiligen Perspektive innerhalb der Organisation eingeräumt wird. Beim Stabsprinzip übernimmt eine zusätzliche Stelle entscheidungsvorbereitende Aufgaben. Weisungsrechte existieren nicht.
Neben der in Abb. 5 gezeigten zweidimensionalen Matrix sind auch Organisationsstrukturen noch höherer Ordnung zu finden. Bei der Bewertung muss hier eine entsprechende Abwägung zwischen effizienter Nutzung von Interdependenzen und Abstimmungskosten vorgenommen werden. Das Ausgliederungsprinzip wird angewandt, wenn die weitere Dimension in einer eigenen Einheit mit voller Entscheidungskompetenz über eigene Ressourcen verfugt.
Instanz
(^ProduktjP)
(^odukt2^)
Abb. 6: Funktionsmanagement nach dem Ausgliederungsprinzip
1 Beschaffung
Produktion
Abb. 4: Produktmanagement dem Stabsprinzip
Absatz
nach
Mit dem Matrixprinzip werden unterschiedliche Dimensionen formal gleichberechtigt mit Weisungsrechten ausgestattet. Die Einheiten greifen auf gemeinsame Ressourcen zurück (es bestehen Ressourceninterdependenzen). Nötig ist daher eine ausführliche gegenseitige Abstimmung.
Instanz
Produkt 1
Produkt 2
Region 1 Region 2
Abb. 5: Beispiel einer Matrixstruktur
Entsprechend der drei Segmentierungskriterien, die auch schon bei eindimensionalen Organisationsstrukturen zur Anwendung kommen, lassen sich auch zusätzliche Aufgabenperspektiven einordnen. Beim Funktions-Management werden produkt- oder regional-orientierte Grundstrukturen um funktional ausgerichtete Bereiche ergänzt. Häufig finden sich in der Praxis eine größere Anzahl von Zentralbereichen, in denen Funktionen wie z.B. -> Controlling oder -> Qualitätsmanagement zusammengeführt sind. Angestrebt werden damit eine bessere Auslastung von Ressourcen sowie Größen- und Erfahrungseffekte (in Abb. 6: innerhalb der F&E-Abteilung). Dem gegenüber stehen zusätzliche Schnittstellen zwischen dem Funktional- und den anderen Bereichen (in Abb. 6: Produktsparten). Produkt-Management bringt eine zusätzliche produktsbezogene Perspektive in bestehende Funktional- oder Regionalorganisationen ein. Regional- oder Kundenmanagement institutionalisiert eine entsprechende Perspektive in Funk559
Organisationsformen
Organisationsstruktur
tional- oder -»• Geschäftsbereichsorganisationen. Die hier dargestellten Segmentierungskonzepte können prinzipiell auf jeder Hierarchiestufe angewandt werden. Erich Frese Organisationshandbuch In einem Organisationshandbuch werden alle die Organisation eines Unternehmens betreffenden Regelungen zusammengefasst. Es umfasst neben -> Stellenbeschreibungen und -» Organigrammen oft auch Führungsanweisungen (-» Führungsstil) Organisationsstruktur Jede Art von Institution verfugt über eine Struktur, die ihr einen Handlungsrahmen verleiht. In der Regel ist diese Struktur frei wählbar und autonom gestaltbar, gelegentlich sind jedoch gesetzliche Normen zu beachten. Die Organisationsstruktur dient der Zielführung des Systems, der Verhaltenssteuerung seiner Mitglieder sowie der Transparenz nach innen wie nach außen. Man bezeichnet diese Struktur auch als Auftyauorganisation und in ihrer visualisierten Form als -» Organigramm. Die wichtigsten Festlegungen der Organisationsstruktur betreffen die Arbeitsteilung, die Kommunikation, die Weisungsrechte, die Ressourcenverteilung, aber auch -> Motivation und Anreize, also die zentralen Instrumente der Koordination. Die jeweilige Ausgestaltung der Struktur determiniert die Breite und Tiefe einer Institution, oft mit dem (ab)wertenden Begriff der Hierarchie belegt. Während die Tiefe vor allem maßgeblich ist für die Dauer und Qualität des Informationsflusses, resultiert aus der Breite insbesondere die gesamte Führungsproblematik. Die Realität der Organisationsgestaltung ist derart variantenreich, dass Vollständigkeit einer Beschreibung nicht gelingen kann. Eine Typologie der wichtigsten Strukturformen muss daher genügen. Bei sog. Mono-Strukturen oder eindimensio-
560
nalen -> Organisationsformen bildet ein einziges Gestaltungsprinzip die konzeptionelle Basis: Die funktionale (Verrichtungs-) Organisation legt klassische betriebliche Funktionen wie Beschaffung, Produktion und Absatz als Kriterien der Abteilungsbildung zu Grunde. Die divisionale (Objekt-) Organisation geht von Produkten oder Produkt- bzw. Warengruppen aus und ordnet danach die Struktur. Eine Überlagerung von divisionaler und regionaler Organisation entsteht, wenn nicht das Produkt, sondern spezifische Marktmerkmale strukturprägend werden. Man spricht dann auch von Spartenorganisation oder -» Geschäftsbereichsorganisation. Im ersten Falle betrachtet man den Markt unter Bedarfsund Konsumgewohnheiten, im zweiten Falle wird der Markt als geographischer Raum verstanden. Bei sog. dualen oder zweidimensionalen Organisationsformen bilden zwei Gestaltungsprinzipien gemeinsam die Strukturgrundlage: Die Stab-Linie-Organisation verknüpft die ausschließliche Linienkompetenz der Entscheidung mit der vorbehaltlichen Stabskompetenz zur Information und Beratung. Jeder Linieninstanz wird (zumindest in den höheren Rangebenen) eine Assistenzstelle zugeordnet. Die Matrix-Organisation stellt eine Kombination von funktionaler und divisionaler Organisation dar. Sie weist einerseits produkt- und/oder marktbezogene Zuständigkeiten den Sparten zu und legt andererseits Querschnittskompetenzen der Zentralbereiche fest. Auf diese Weise wird versucht, gewollte Egoismen der Sparten durch strategische Orientierungen der Zentralbereiche zu kompensieren. Bei sog. multiplen oder mehrdimensionalen Organisationsformen, meist als Tensor-Organisation bezeichnet, bilden drei oder mehr Gestaltungsprinzipien die Grundlage: Hier ist die Kombinationsvielfalt geradezu beliebig und es gibt keine besonders häufig auftretende Beispiele. Zu nennen sind aber vor allem die Pro-
Outplacement
Organisationsstruktur jekt-Organisation und die Einrichtung von sog. Strategischen Geschäftseinheiten. In aller Regel sind Organisationsstrukturen langfristig angelegt und dies aus mehreren Gründen: Zum einen bedeutet die Entwicklung und Stabilisierung einer bestimmten Organisationsform einen hohen materiellen und deklaratorischen Aufwand. Zum anderen vermittelt Organisation sachliche sowie persönliche Orientierung und damit Verhaltenssicherheit. Umgekehrt fuhren strukturelle Änderungen erneut zu Aufwand, vor allem aber zu vielfältigen Verunsicherungen bezüglich der Aufgaben, Zuständigkeiten, Abläufe, Kommunikation und Koordination bis hin zu (überwiegend berechtigter) Sorge um den individuellen Arbeitsplatz. Trotz oder gerade wegen der generell freien Gestaltbarkeit einer Organisation stellen sich zwei zentrale Fragen. Welche Rahmenbedingungen haben Einfluss auf eine (effiziente) Strukturform? Wie kann man Organisationsstrukturen empirisch messen mit dem Ziel, ihre Effizienz zu ermitteln? Einfache Antworten darauf gibt es nicht. Aber immerhin existieren Erklärungsansätze: Wichtige Einflussfaktoren der Organisationsgestaltung sind die Größe, Aufgabe und Umweltdynamik einer Institution. Bei Unternehmen kommen die jeweilige Technologie sowie die Marktstrategie hinzu. In jüngerer Zeit und in Zukunft gewinnen Merkmale wie Innovationsdruck sowie Internationalität verstärkt an Bedeutung. Bei Konzernen findet sich die Unterscheidung nach Stammhaus- und Holdingstruktur. Immer noch ungeklärt ist der kausale Zusammenhang zwischen Strategie und Struktur. Ansätze einer quantitativen Erfassung der Organisationsstruktur sind der Grad der Arbeitsteilung (Differenzierung, Spezialisierung), Formen und Ausmaß der Koordination, Breite und Tiefe der Konfiguration sowie die Formalisierung als Maß der
expliziten Normen und Regelungen, vielfach auch kritisch als Bürokratie bezeichnet. Rolf Bronner Organizational Memory Systems Computer Aided Organizational Engineering OTC-Wert Werbestreuplanung Outbound-Telemarketing - > Telefonmarketing Outpacing-Strategie Die Outpacing-Strategie ist eine Weiterfuhrung des Konzeptes der -> Normstrategien von Porter. Ein Unternehmen, das eine Outpacing-Strategie verfolgt, versucht, die -»Kostenführerschaft mit der -»Produktdifferenzierung zu verbinden. Im Laufe des Produktlebenszyklus eines Produktes gilt es zunächst, mit Hilfe der Differenzierung unbesetzte Nischen (-> Nischenstrategie) oder Marktsegmente (-» Marktsegmentierung) zu erschließen und dort die Marktführerschaft zu erringen. Wenn man so einen Quasi-Standard auf dem betreffenden Markt mit dem eigenen Produkt gesetzt hat, verfolgt man den Ansatz der Kostenfuhrerschaft, indem man die Produktionskosten minimiert (-> Produktionscontrolling) und -> Skalenerträge anstrebt. Outplacement Das Outplacement ist eine Variante der Personalfreisetzung bei Führungskräften im oberen oder auch mittleren Management. Meist erfolgt es mit Unterstützung eines externen Beraters. Die Beratung ist darauf spezialisiert, für kürzlich Entlassene neue Arbeitsplätze und Aufgabenfelder zu finden sowie das Selbstwertgefühl zu stabilisieren. Die Gebühren für die Outplacement-Beratung werden üblicherweise vom ehemaligen Arbeitgeber des Entlassenen bezahlt.
561
Outsourcing
Outsourcing Outsourcing Unter Outsourcing, einem Kunstwort, das durch Zusammenziehen des Begriffs "Outside resource using" entstanden ist, wird der Übergang von bislang im Unternehmen erbrachten Leistungen oder Funktionen an einen externen Dritten verstanden. Diesem wird dabei die dauerhafte unternehmerische Verantwortung für eine sachgerechte Leitungserstellung übertragen. Outsourcing ist damit eine spezielle Form des Fremdbezugs. Im Gegensatz zum Fremdbezug im konventionellen Sinn, der auch die Beschaffung von nicht im Unternehmen erstellten Gütern oder Dienstleistungen bzw. die Wahrnehmung bestimmter Funktionen umfasst, betrifft das Outsourcing nur den Bezug solcher Leistungen und Funktionen, die bisher im Unternehmen erbracht wurden, aber in Zukunft extern beschafft werden sollen. Die direkte Gegenbewegung zum Outsourcing wird als ReInsourcing bezeichnet. Sie steht für die Wiedereingliederung von Aktivitäten, die in der Vergangenheit vom Unternehmen bereits einmal ausgelagert worden waren. Demgegenüber bezeichnet der Begriff Insourcing, dass eine bisher nicht selbst erbrachte Leistung als neue Aktivität ins Programm des Unternehmens übernommen oder bestehende Leistungen entsprechend erweitert werden. Outsourcing bezieht sich dabei nicht nur auf einzelne, gut abgrenzbare Sach- oder Dienstleistungen; Outsourcing-Objekte können auch komplexe Leistungsbündel, Funktionen oder Prozesse von Unternehmen sein; so lagern manche Industriebetriebe etwa ihre Fertigungsprozesse an spezialisierte Dritte aus. Die Ziele, die mit einem Outsourcing von Aktivitäten verfolgt werden, sind unterschiedlich. Allgemein dient Outsourcing als Ansatz zur Gestaltung unternehmensinterner Erfolgspotenziale im Sinne von Effizienz- und Effektivitätssteigerungen. Dazu zählen:
562
•
Die Konzentration auf die Kernkompetenzen. Outsourcing bietet Entlastung von Aktivitäten, die für Unternehmen nur Randbereiche darstellen, und es hilft, den Einsatz knapper Ressourcen auf strategisch relevante Kompetenzfelder zu fokussieren.
•
Die Steigerung der Leistungsqualität. Tätigkeitsbereiche, in denen sich ein Unternehmen als nicht kompetent genug erweist, um im Wettbewerb zu bestehen, können an professionelle Leistungserbringer ausgelagert werden. Diese verfugen gewöhnlich über eine auf den jeweiligen Leistungsbereich spezialisierte Wissensbasis, was sich beispielsweise in höheren Innovationsraten, kürzeren Reaktionszeiten oder gesteigerter Servicequalität manifestiert.
•
Eine professionellere Leistungserbringung durch ein Outsourcing an spezialisierte Unternehmen ermöglicht vielfach auch Kosteneinsparungen, da solche Spezialisten ihre Ressourcen rationeller einsetzen können. Darüber hinaus fuhrt ein externer Bezug von Leistungen dazu, dass beim outsourcenden Unternehmen ein Teil der Fixkosten in variable Kosten umgewandelt werden kann. Für das auslagernde Unternehmen entstehen im Idealfall nur noch die Kosten für tatsächlich in Anspruch genommene Leistungen.
•
Outsourcing ermöglicht auch die Beseitigung von Kapazitätsengpässen. Unternehmen können damit beweglicher werden und sich flexibler an konjunkturelle und saisonale Belastungsschwankungen anpassen.
Erfolgreiches Outsourcing bedingt immer auch eine genaue Reflexion der mit einer Fremdvergabe verbundenen Risiken. Zu beachten sind in diesem Zusammenhang vor allem: •
Die erhöhte Abhängigkeit vom Outsourcing-Partner. Sind die fremdbezogenen Leistungen einfach und
Outsourcing
Outsourcing leicht imitierbar, muss aufgrund der Konkurrenz auf dem Zulieferermarkt kein outsourcendes Unternehmen eine zu große Abhängigkeit befurchten. Ein Outsourcing von komplexen Leistungsbereichen oder -bündeln kann hingegen Probleme bereiten. Oftmals ist die Entscheidung zur Auslagerung solcher Leistungen zumindest kurzfristig nicht reversibel. Bei ungünstiger Verhandlungsmacht oder bei Nichteintritt der erhofften Vorteile kann daraus für den betroffenen Partner ein großes Risiko erwachsen. •
•
Die Erosion von Wissen. Aufgrund der externen Erstellung bestimmter Leistungen und Funktionen wird das im Unternehmen diesbezüglich vorhandene Wissen nicht mehr weiterentwickelt bzw. fließt ab. Daher können, werden Kernleistungen nach außen vergeben oder beim Outsourcing von vermeintlichen Randaktivitäten unerkannte Kernkompetenzen mit ausgelagert, negative Auswirkungen auf die Unternehmensentwicklung die Folge sein. Die Entstehung zusätzlicher Kosten. Outsourcing ist auf den ersten Blick ein leichter Weg für schnelle Kostensenkungen. Die Kosteneinsparungen ergeben sich jedoch nicht zwangsläufig. Nicht wenige Unternehmen sehen sich nach Auslagerungen sogar mit höheren Gesamtkosten konfrontiert, die etwa aus anfallenden Transaktionskosten, einer ungenügenden Fixkostenreduktion oder der Überschätzung der eigenen Herstellkosten resultieren.
Eigenfertigung
Eigenerstellung
Abbildung
internes
CenterKonzeption
I: Spektrum
•
Besondere Risiken entstehen auch durch die unpräzise Definition der auszulagernden Aktivitäten. Zwar werden beim Outsourcing Leistungen von außen bezogen, die bislang intern erbracht wurden und demnach bzgl. Art, U m f a n g und Inhalt bekannt sind, dennoch ergeben sich in der Regel Interpretationsspielräume für die zu erbringenden Leistungen. Diese entstehen vor allem dadurch, dass es in vielen Fällen Probleme bereitet, Leistungen bzw. Funktionen präzise in Worte zu fassen und sie mit all ihren Ausnahmen und Unregelmäßigkeiten zu beschreiben.
Die Verteilung der einzelnen Chancen und Risiken ist für jedes OutsourcingVorhaben unterschiedlich. Wesentliche Determinanten hierfür sind - neben situationsund unternehmensspezifischen Gegebenheiten - das Outsourcing-Objekt sowie die Wahl einer entsprechenden Outsourcing-Variante. Die unterschiedlichen Chancen und Risiken spiegeln sich auch in der Entwicklung des Outsourcing wider. Bislang lassen sich zwei grundsätzliche Entwicklungsstufen unterscheiden. Die ersten Outsourcingbemühungen standen in engem Zusammenhang mit -* Lean Management bzw. Reengineering-Konzepten und waren hauptsächlich vom Streben nach mehr Effizienz geprägt. Es wurden meist einfache, standardisierte Leistungen oder Funktionen ausgelagert. Inzwischen erfolgt eine Umorientierung der Unternehmen, und der Effektivitätsaspekt rückt stärker ins Zentrum. Outsourcing wird
externes
Outsourcing
Kooperation
der Outsourcing-
gern einsam e Servicegesellschaft
Kapitalbeteiligung
langfristige Zusamm enarbeit
Outsourcing
m ittelfristige Zusamm enarbeit
spontane Zusamm enarbeit
Varianten
563
Outsourcing
Outsourcing
immer mehr dazu benutzt, die eigenen Stärken zu fokussieren und zu professionalisieren. Dies erfolgt nicht nur durch eine bloße Konzentration auf die jeweiligen Kernkompetenzen. Im Sinne eines strategischen Outsourcing wird immer mehr versucht, durch Auslagerung kernnaher Aktivitäten den Auf- und Ausbau der eigenen Kernkompetenzen zu forcieren. Unternehmen schließen sich dazu zu Wertschöpfungspartnerschaften (-> Kooperationen), Allianzen ( - • Strategische Allianzen) oder -» Netzwerken zusammen, in denen eine mehr oder weniger gleichberechtigte Zusammenarbeit stattfindet. Sie versuchen, durch solche Kooperationen zusätzliche Wettbewerbsvorteile zu erlangen. Die Outsourcing-Entscheidung beschränkt sich jedoch nicht allein auf die Frage, ob Aktivitäten auszulagern sind und in welchem Umfang dies zu geschehen hat; sie beinhaltet auch eine Festlegung der institutionellen Einbindungsform der outzusourcenden Leistungen. Dazu kommen verschiedene OutsourcingVarianten in Betracht, die das Chancenund Risikenpotenzial des Outsourcing wesentlich beeinflussen. Ein intelligentes Outsourcing erreicht eine ausgewogene und der jeweiligen Situation angemessene Verteilung von Chancen und Risiken durch die entsprechende Konfiguration der beschriebenen Determinanten und ist damit ein wesentlicher Baustein für das Gelingen eines Outsourcing-Vorhabens.
à l s i | Ist' / Analyse
Và
Erfolgreiches Outsourcing bedingt darüber hinaus ein systematischmethodisches Vorgehen, das im nachstehenden genetischen Prozess skizziert ist. Sowohl die inhaltliche Ausgestaltung als auch die Reihenfolge der einzelnen Phasen sind dabei der spezifischen Situation anzupassen. Zur Identifikation von Leistungen, Funktionen, Prozessen und dergleichen, die ein Outsourcing sinnvoll erscheinen lassen, ist zunächst eine Ist-Analyse erforderlich, die die gegenwärtigen und künftigen Anforderungen des Marktes auflistet und daraus die notwendigen Unternehmensleistungen ableitet. Ergebnis der IstAnalyse ist gleichsam ein Lastenheft, das angibt, was ein Unternehmen können muss, wenn es sich im Wettbewerb erfolgreich behaupten will. In der Make-or-Buy-Phase (-> Make-orBuy) wird geklärt, welche Leistungen überhaupt nach außen vergeben werden können, ohne die Kompetenzbasis des Unternehmens zu gefährden. Die für eine Auslagerung in Frage kommenden Leistungen werden dann auf ihr Kosten-/Leistungsniveau bei Selbsterstellung untersucht und dem Kosten-/Leistungsniveau bei Fremdbezug gegenübergestellt. Die hieraus gewonnenen Erkenntnisse sowie eine umfassende Chancen-/RisikenAbwägung sind die Grundlage für die Make-or-Buy-Entscheidung. Zeigen die bis dahin durchgeführten Analysen, dass eine Auslagerung sinnvoll ist, sollten in der Phase der Kontaktaufnahme zunächst Vorstellungen darüber
V
Mäke-
V \ or-Buym /
. Kontakt? aufnähme
/ Abgleich
:
Vertrag
Abbildung 2: Generischer Outsourcing-Prozess
564
Implementierung
Outsourcing entwickelt werden, was der ideale Dienstleister bzw. Outsourcing-Partner leisten muss. Resultat dieser Überlegungen ist ein Pflichtenheft mit dem detaillierten Soll-Profil der Leistungen des Outsourcing-Partners. Es folgen das Einholen verschiedener Angebote sowie ihr Vergleich und ihre Bewertung anhand der Leistungserwartungen des auslagernden Unternehmens. Ergebnis dieses Abgleichs ist entweder die Entscheidung für einen Outsourcing-Partner oder die Aufgabe des geplanten Outsourcing-Vorhabens.
Outsourcing chen Vertrag fixiert. Dieser bildet zusammen mit einem gegenseitigen Vertrauensverhältnis die Basis für eine erfolgreich funktionierende Partnerschaft. Der Outsourcing-Prozess endet schließlich mit der Phase der Implementierung und Zusammenarbeit, in der vor allem bei komplexen Outsourcing-Objekten gemeinsames Lernen die wichtigste Erfolgsvoraussetzung sein kann. Erich Zahn/Tilmann Barth
In Vertragsverhandlungen werden dann die verschiedenen Eckpunkte der zukünftigen Zusammenarbeit in einem schriftli-
565
P/E
Penetration-Strategie
% P/E Kurs-Gewinn-Verhältnis Pac-Man-Strategie Untemehmensakquisition, -> Übernahme, feindliche Pareto-Analyse Die Pareto-Analyse ist ein elementares Werkzeug des Qualitätsmanagements (-> Qualitätsmanagementwerkzeuge), das es ermöglicht, grafisch oder tabellarisch aus einer Vielzahl von Informationen gezielt die Wichtigsten (z.B. bzgl. Kosten oder Anzahl) zu erkennen (-»Paretodiagramm). Die Pareto-Analyse beruht auf dem Pareto-Prinzip, welches besagt, dass die meisten Auswirkungen (ökonomische, technische) auf eine relativ kleine Anzahl von Ursachen zurückzuführen sind (80/20-Regel). Engelbert Westkämper/ Alexander Schloske Paretodiagramm Das Paretodiagramm stellt eine spezielle Form der grafischen Auswertung der -> Fehlersammeikarte dar, einer tabellarischen Häufigkeitsverteilung mit den verschiedenen Fehlerarten in der Vorspalte und der Anzahl der gefundenen Fehler für die k Stichproben in den Tabellenfeldern. Fehlerart
A n z a h l der F e h l e r in S t i c h p r o b e - N r . 1
2
k-1
Häufigkeit k
Summe
%
F, F, F,
Aus den absoluten bzw. relativen Häufigkeiten in den beiden Schlussspalten ist zu erkennen, welchen Fehlerarten man bei der Steuerung des Produktionsprozesses bes. Aufmerksamkeit schenken sollte. Wenn man die absoluten bzw. relativen Häufigkeiten nach abnehmender Größe ordnet, erhält man das P. (Siehe Abbildung). 566
10
n F,
r-i Fehlerart
Das P. ist nach dem Nationalökonomen V. Pareto (1948-1923) benannt, der diese Form der linkssteilen Häufigkeitsverteilung bei seinen Untersuchungen zur Einkommensstatistik verwendet hat. Man erkennt sofort, dass in der obigen Darstellung 95% der Fehler bei diesem Produktionsprozess durch die Fehlerarten F 2 , F 4 , Fi und F 6 verursacht werden. Literatur: Rinne, H. / Mittag, H.-J.: Statistische Methoden der Qualitätssicherung, 2. Aufl., München und Wien 1991.
Walter Schweitzer Par-Modell ->• PIMS-Programm,
PIMS-Datenbank
Pay-off-Rechnung —> Investitionsrechnung PDCA-Zyklus -> Deming-Zyklus Penetration-Strategie Die Penetration-Strategie beschreibt wie die -> Skimming-Strategie eine Markteintrittsstrategie. Die Penetration-Strategie zielt dabei auf eine rasche Marktdurchdringung. Erreicht werden soll dies durch die Wahl eines relativ niedrigen Preises bei der Markteinführung eines Produkt bzw. einer Dienstleistung. Im Laufe der Zeit wird der Preis dann nach und nach erhöht. Als Vorteile der Penetration-Strategie werden neben der Marktdurchdringung das rasche Erreichen eines hohen Verkaufsvolumens, die hiermit verbundene
Penetration-Strategie Stückkostendegression sowie die Abschreckung potenzieller Konkurrenten gesehen. Nachteilig sind die entstehenden Anfangsverluste, die jedoch auch als eine Investition in die Markterschließung gewertet werden können. Pensionsrückstellungen /. Begriff Pensionsrückstellungen sind ihrer Art nach Rückstellungen für ungewisse Verbindlichkeiten (Pensionsverpflichtung). Pensionsverpflichtungen entstehen aus Anwartschaften auf Altersversorgung aktiver und ausgeschiedener Mitarbeiter sowie aus laufenden Renten ehemaliger Mitarbeiter. Die Ungewissheit besteht in der Leistungspflicht (Erfüllung bestimmter Voraussetzungen), in der Leistungshöhe (Abhängigkeit von der Dienstzeit) sowie in dem Leistungszeitpunkt bzw. -Zeitraum (Lebenserwartung). Es wird zwischen unmittelbaren, mittelbaren und pensionsähnlichen Pensionsverpflichtungen unterschieden (Art. 28 EGHGB). Unmittelbare Pensionsverpflichtungen beruhen auf einer Direktzusage des Arbeitgebers, für das Alter, den Tod (in diesem Fall für den überlebenden Ehegatten oder die Kinder) oder die Invalidität eines Arbeitnehmers aus betrieblichen Mitteln eine Versorgung (Pension) zu gewähren, wobei diese Zusage auf einem Einzelvertrag, einer Pensionsordnung, einer Betriebsvereinbarung oder einem Tarifvertrag beruhen kann. Bei mittelbaren Pensionsverpflichtungen verpflichtet sich der Arbeitgeber, betriebliche Mittel einer Einrichtung - Unterstützungskasse, Pensionskasse oder Versicherungsunternehmen - zur Verfügung zu stellen, damit diese im Versorgungsfall die Pension an den Berechtigten auszahlt. Pensionsähnliche Verpflichtungen, wie z.B. Vorruhestands- und Übergangsgelder, haben neben dem vorhandenen Versorgungsmoment eher Abfindungscharakter. Nachfolgend wird schwerpunktmäßig auf die unmittelbaren Pensionsver-
Pensionsrückstellungen pflichtungen eingegangen, da diese in Deutschland, trotz der neuerdings verstärkten Innovation anderer Versorgungsmodelle, vorherrschend sind. 2. Bilanzierungsansatz: In der Handelsbilanz (HGB) besteht für unmittelbare Pensionszusagen, die rechtsverbindlich nach dem 31.12.1986 eingegangen wurden (sog. Neuzusagen), eine Passivierungspflicht, für sog. Altzusagen und deren Erhöhung ein Passivierungswahlrecht (§ 249 Abs. 1 S.l HGB i.V.m. Art. 28 EGHGB). Maßgebende Bestimmungen für die Passivierung der Pensionsverpflichtungen in der Steuerbilanz sind § 6a EStG und R 41 EStR. Zunächst besteht grundsätzlich ein steuerliches Wahlrecht zur Passivierung (§ 6a Abs.l S.l EStG). Gemäß dem Maßgeblichkeitsprinzip (§ 5 Abs. 1 EStG; Maßgeblichkeit) fuhrt jedoch die handelsrechtliche Passivierungspflicht für Neuzusagen auch zu einer Ansatzpflicht in der Steuerbilanz, soweit dem nicht steuerliche Bilanzierungsvoraussetzungen entgegenstehen. Zum Bilanzstichtag ist eine inventurmäßige Erfassung des Bestandes an Pensionsverpflichtungen notwendig. Weitere wesentliche Voraussetzungen für die steuerliche Zulässigkeit: der Pensionsberechtigte muss einen Rechtsanspruch auf Pensionsleistungen haben und die Zusage muss schriftlich erteilt worden sein. Der Berechtigte muss mindestens das 30. Lebensjahr erreicht haben (Mindestalterklausel). Eine einmal unterlassene zulässige Rückstellungszuführung darf nicht nachgeholt werden, es sei denn, der Versorgungsfall tritt ein oder der Anwärter scheidet mit einer unverfallbaren Anwartschaft aus dem Unternehmen aus (Nachholverbot). Nach Eintritt des Versorgungsfalls sind die laufenden Pensionszahlungen als abzugsfähige Betriebsausgaben zu berücksichtigen und die Pensionsrückstellung in Höhe der laufenden Veränderung des Barwerts
567
Pensionsrückstellungen anzupassen. Des Weiteren gibt es steuerliche Restriktionen bei Pensionen an Ehegatten als Arbeitnehmer sowie bei Pensionen an beherrschende Gesellschafter/Geschäftsführer von Kapitalgesellschaften. Pensionszusagen an Gesellschafter von Personengesellschaften sind grundsätzlich steuerlich unwirksam. Für die Bilanzierung von Pensionsverpflichtungen nach den -> International Accounting Standards (IAS) sind die IAS 19 (überarbeitet 1998) "Leistungen für Arbeitnehmer" maßgebend. Diese entsprechen im Wesentlichen den -> USGAAP (SFAS No. 132). Grundsätzlich besteht für unmittelbare Pensionsverpflichtungen sowie für Unterdeckungen bei mittelbaren Versorgungszusagen über sog. "funds" eine Passivierungspflicht, wobei der Umfang der Bilanzierung tendenziell höher ist, da es nach internationalen Vorschriften kein handelsrechtliches Passivierungswahlrecht für Altzusagen und keine steuerlichen Restriktionen im Sinne des § 6a EStG gibt. Bewertung: In der Handelsbilanz sind Rückstellungen gem. § 253 Abs. 1 S.2 HGB nur in der Höhe des Betrags anzusetzen, der nach vernünftiger kaufmännischer Beurteilung notwendig ist. Eine Konkretisierung dieser allgemeinen Bewertungsvorschrift für die Bewertung von Pensionsrückstellungen erfolgt durch den HFA des IDW: Demnach hat die Bewertung unter Beachtung der -» GoB sowie des Grundsatzes der Einzelbewertung mittels der anerkannten Regeln der Versicherungsmathematik zu erfolgen, wobei das steuerrechtliche Teilwertverfahren (§ 6a Abs. 3 EStG) diesen Anforderungen am ehesten gerecht wird. Dabei sind den Berechnungsverfahren die biometrischen Grundlagen (Sterbe- und Invaliditätswahrscheinlichkeiten), das Rentenalter der Berechtigten und ein Diskontierungszinssatz von 3-6% p.a. zu Grunde zu legen. In der Steuerbilanz sind Pensionsrückstellungen höchstens mit dem Teilwert zu 568
Pensionsrückstellungen bewerten. Gem. § 6a Abs. 3 Nr. 2 EStG gilt als Teilwert 1. vor Beendigung des Dienstverhältnisses des Pensionsberechtigten der Barwert der künftigen Pensionsleistungen am Schluss des Wirtschaftsjahrs abzüglich des sich zu demselben Zeitpunkt ergebenden Barwerts betragsmäßig gleichbleibender Jahresbeträge; 2. nach Beendigung des Dienstverhältnisses des Pensionsberechtigten unter Aufrechterhaltung seiner Pensionsanwartschaft oder nach Eintritt des Versorgungsfalls der Barwert der künftigen Pensionsleistungen am Schluss des Wirtschaftsjahrs. Gem. IAS 19 ist für die Bewertung der Pensionsrückstellungen ein Anwartschaftsbarwertverfahren anzuwenden (sog. ProjectedUnit-Credit-Methode). Bei der Projected-Unit-Credit-Methode werden nicht nur die am Bilanzstichtag bekannten Renten und Anwartschaften, sondern auch künftig zu erwartende Steigerungen von Gehältern und Renten berücksichtigt. Dies führt im Vergleich zum steuerlichen Teilwertverfahren meist zu einem (wesentlich) höheren Wertansatz. Ausweis: Für mittelgroße und große Kapitalgesellschaften gem. § 267 Abs. 2 u. 3 HGB ist der Bilanzausweis des Gesamtbetrages der Pensionsrückstellung in der Handelsbilanz gesondert unter der Bezeichnung "Rückstellungen für Pensionen und ähnliche Verpflichtungen" vorzunehmen. Ausgenommen hiervon sind kleine Kapitalgesellschaften, die die Pensionsrückstellung in einem Betrag als Rückstellungen ausweisen dürfen. Ist im Rahmen des -* Jahresabschlusses ein -> Anhang zu erstellen, sind in diesem die auf die Pensionsrückstellungen angewendeten Bilanzierungs- und Bewertungsmethoden anzugeben (§ 284 Abs. 2 Nr. 1 HGB). Dies gilt insbesondere auch
Pensionsrückstellungen
Personaladministration
für Änderungen der Berechnungsgrundlagen gegenüber dem Vorjahr (§ 284 Abs. 2 Nr. 3 HGB). Kapitalgesellschaften, die aufgrund von Passivierungswahlrechten (z.B. bei Altzusagen) die Einstellung von Pensionsrückstellungen unterlassen haben, sind nach Art. 28 Abs. 2 EGHGB verpflichtet, den Fehlbetrag im Anhang anzugeben.
scher Maßnahmen. Die personalpolitische Zielsetzung besteht darin, ein optimales Match zwischen den aufgabenbezogenen Anforderungen und den Fähigkeiten der Mitarbeiter dauerhaft zu erzielen. Die Sicherung der ökonomischen Effizienz wird mit der Personaladministration instrumenteil unterstützt, wobei auch deren Koordinationskosten zu beachten sind.
Gem. IAS sind Pensionsrückstellungen gesondert auszuweisen und detailliert zu erläutern. In der -» Gewinn- und Verlustrechnung wird der Dienstzeitaufwand (Service Cost) unter dem Personalaufwand und der Zinsanteil (Interest Cost) der Rückstellungszuführung im Finanzergebnis ausgewiesen. In den Notes (Anhang) sind z.B. die Bilanzierungs- und Bewertungsmethoden, die bestehenden Verpflichtungen, die Pensionsaufwendungen und der Pensionsplan anzugeben. Des Weiteren sollen u.a. die Häufigkeit der Einholung von versicherungsmathematischen Gutachten mit Datum des letzten Gutachtens sowie die wesentlichen versicherungsmathematischen Prämissen genannt werden.
Die Personaladministration umfasst Instrumente der qualitativen und quantitativen Personalbestandsund Personalbedarfsanalyse, der Personalbeschaffung, der —> Personalentwicklung (Aus- und Weiterbildungsmaßnahmen, —> Karriereplanung), des Personaleinsatzes (Gestaltung von Arbeitsorganisation, Arbeitszeiten und Arbeitsplätzen), der indirekten und direkten -> Personalfreisetzung (Umschulungen oder Umsetzungen bzw. Kündigungen) und schließlich die Koordination der Entgeltsysteme (Lohn- und Gehaltsabrechnung; —> Entgeltmanagement, —> Entlohnungssysteme).
3. Finanzierungswirkung: Die Bildung von Pensionsrückstellungen führt bei Vorhandensein eines Jahresüberschusses zu einem Finanzierungseffekt, da die zugeführten Beträge bis zu ihrer Inanspruchnahme disponibel bleiben (Graues Eigenkapital). Die Höhe des Finanzierungseffektes ist abhängig von der Art der Gewinnverwendung (-> Rücklagen- und Ausschüttungsmanagement), vom Steuersatz sowie von der Zeitdauer der Rückstellungsbildung. Jürgen Jüttermann Perfect Hedge Hedging Personaladministration Die Personaladministration umfasst die Verwaltung der Humanressourcen. Sie beinhaltet die Koordination der Allokationsprozesse des Faktors Arbeit und begleitet die Durchfuhrung personalpoliti-
Die rasche Entwicklung und Verbesserung der Informations- und Kommunikationstechnologie ermöglicht einen hohen Grad an technischer Unterstützung der einzelnen Instrumente der Personaladministration durch -> Personalinformationssysteme. Diese beinhalten Datenbanken mit Personendaten, Stellendaten und verknüpfenden Methoden, die mit einer zielgerechten Nutzung der Personalinformationen die Effizienz der Personaladministration in der Weise erhöhen, dass Koordinationskosten gesenkt werden können. Wie bei vielen anderen betrieblichen Funktionen besteht die Möglichkeit, Teile der Personaladministration auszulagern, was unter dem Stichwort -» "Outsourcing" diskutiert wird. Marktliche Koordinationsprozesse im Bereich der Personaladministration sind bereits bei der Personalbeschaffung oder der Lohnund Gehaltsabrechnung zu beobachten. Auch die Aus- und Weiterbildung wird nicht nur intern durchgeführt, sondern kann von externen Bildungsträgern 569
Personaladministration
Personalakte
zugekauft werden. Für jede Teilfunktion wird geprüft, ob die interne Leistung wettbewerbsfähig im Vergleich zur externen Leistung angeboten wird. Diese Entscheidung wird maßgeblich von der Spezifität der Leistung, d.h. ob überhaupt prinzipiell eine Marktleistung zur Verfugung steht oder diese nur durch die Unternehmung selbst erstellt werden kann, sowie von den internen Koordinationskosten beeinflusst. Silvia Föhr Personalakte Die Personalakte ist jede Sammlung von Urkunden und Vorgängen, die sich auf die persönlichen und dienstlichen Verhältnisse des -> Arbeitnehmers bezieht und mit dem Arbeitsverhältnis in Zusammenhang steht. Der Arbeitgeber muss die Personalakte so fuhren, dass sie ein vollständiges und zutreffendes Bild des Arbeitnehmers in seiner Persönlichkeit als Arbeitnehmer vermittelt. Hierauf hat der Arbeitnehmer einen arbeitsvertraglichen Anspruch. Der Schutz der Privatsphäre des Arbeitnehmers begrenzt den zulässigen Inhalt der Personalakte. Er korrespondiert weitgehend mit den bei Bewerbungsgesprächen zulässigen Fragen. Inhalt können nur Unterlagen sein, die das konkrete Arbeitsverhältnis berühren, wie: Bewerbungsunterlagen, Personal fragebogen, Ergebnisse betriebsärztlicher Untersuchungen (nicht der Befund), Arbeitsvertrag, Beurteilungen, Zeugnisse, -* Abmahnungen, Krankheitsbescheinigungen, Urlaubsanträge und -bewilligungen, Kündigungsschreiben, Aufhebungsverträge. Nicht hierzu zählen: betriebliche Unterlagen wie z.B. Unterlagen der Gehaltsabrechnung, Lohn- und Personallisten. Erforderlich ist weiter ein "gewisser offizieller Anstrich". Notizen und Entwürfe gehören nicht in die Personalakte, auch nicht Prozessakten - wohl aber z.B. ein Urteil - , denn: erforderlich ist ferner ein abschließender Inhalt der beurkundeten Erklärung. Im öffentlichen Dienst ist der 570
Arbeitgeber verpflichtet, den Arbeitnehmer anzuhören, will er der Personalakte möglicherweise belastende Unterlagen beifügen, § 13 Abs. 2 BAT, MTArb. Für die Verwahrung psychologischer und graphologischer Gutachten ist die Genehmigung des Arbeitnehmers erforderlich, auch für Eignungstests und Ergebnisse eines -> Assessment-Centers, sowie f ü r Management-Potenzial-Analysen (s.a. —> Potenzialbeurteilung), wie sie bei Fusionen zur integrierenden Zusammenführung der Führungskräfte üblich ist. Das Genehmigungserfordernis hindert den Arbeitgeber aber nicht, die Ergebnisse solcher Verfahren separat aufzubewahren. Dies kann mit Blick auf das Einsichtsrecht des Arbeitnehmers in seine Personalakte praktisch sinnvoll sein, lässt seinen Anspruch auf Einsicht auch in die separierten Unterlagen aber freilich unberührt, denn: Personalakte ist nicht nur das, was der Arbeitgeber als solche bezeichnet. Die Separation ist rechtlich zulässig. Zwar darf der Arbeitgeber grundsätzlich nur eine Personalakte fuhren; die Führung von Doppeln und die Anlage von Auszügen ist unzulässig. Aber besonders vertrauliche und sensible Unterlagen, die nicht bei jeder Einsichtnahme ins Auge fallen sollen und dürfen, sind wegen des Schutzes der Privatsphäre getrennt aufzubewahren. Hierzu zählen auch die psychologischen Aussagen einer Potenzialanalyse. Das jederzeitige Einsichtsrecht des Arbeitnehmers ist ausdrücklich genannt in § § 8 3 Abs. 1 BetrVG, 26 Abs. 2 SprAuG, impliziert das Recht, Notizen und Fotokopien zu fertigen - nicht aber ein Aktendoppel - und bei Verwendung eines Personalinformationssystems einen Ausdruck zu verlangen. Es verpflichtet den Arbeitgeber zur vollständigen Vorlage der Personalakte. Möchte der Arbeitgeber dem Arbeitnehmer Unterlagen nicht zugänglich machen, bleibt ihm nur die Möglichkeit der Vernichtung. Der Arbeitgeber kann bei der Einsichtnahme anwesend
Personalcontrolling
Personalakte sein. Der Arbeitnehmer darf die Hinzuziehung eines Betriebsratsmitglieds verlangen - ein eigenständiges Einsichtsrecht hat der Betriebsrat nicht - , ein Schwerbehinderter die Hinzuziehung des Schwerbehindertenvertreters. Auch darf der Arbeitnehmer eine Person seiner Wahl zur Einsichtnahme bevollmächtigten, insbesondere einen Rechtsanwalt. Dessen Zurückweisung ist nur aus betrieblich gebotenen Gründen möglich. Das Einsichtsrecht endet mit Beendigung des Arbeitsverhältnisses. Danach muss der ehemalige Arbeitnehmer ein besonderes berechtigtes Interesse zur Einsichtnahme nachweisen. Wegen der gebotenen Vertraulichkeit ist die Personalakte vor dem Zugriff Unberechtigter zu schützen. Zur Einsichtnahme befugt sind neben dem Arbeitnehmer nur die für Personalentscheidungen und ihre Vorbereitung zuständigen Betriebsangehörigen, nicht also Mitarbeiter der Personalabteilung der Muttergesellschaft oder eines Kaufinteressenten. Dies schafft bei Unternehmensumwandlungen erhebliche praktische Schwierigkeiten, oft gegen die Interessen der betroffenen Arbeitnehmer. Will der Arbeitgeber bei einer Fusion dem Käufer die Gehaltsdaten seiner Arbeitnehmer mitteilen, damit dieser für die überzuleitenden Arbeitnehmer adäquate Positionen schaffen kann, müsste er zunächst deren Genehmigung zur Weitergabe der Daten einholen. Wenn Fürsorgepflicht des Arbeitgebers und Persönlichkeitsrecht des Arbeitnehmers kollidieren, ist der Arbeitgeber zum Schutz des Arbeitnehmers von den Schranken des Persönlichkeitsrechts zu dispensieren. Ohnehin können überwiegende Interessen des Arbeitgebers auch Dritten gegenüber die Offenlegung der Personalakte rechtfertigen. Der Arbeitnehmer hat einen Beifügungsanspruch. Er ist berechtigt, der Personalakte Unterlagen beizufügen, insbesondere Gegendarstellungen, und die A u f n a h m e von Unterlagen zu verlangen, wie z.B.
Nachweise über erworbene Qualifikationen. Weiter hat der Arbeitnehmer einen Entfernungsanspruch. Er kann die Entfernung unrichtiger, ihn zu Unrecht belastender Darstellungen oder unzulässig aufgenommener Unterlagen verlangen. Tarifvertragliche Ausschlussfristen gelten hier nicht. Praktisch häufigster Anwendungsfall sind Abmahnungen. Für die rein arbeitsvertraglichen Unterlagen besteht nach Beendigung des Arbeitsverhältnisses grundsätzlich keine arbeitsrechtliche Verwahrungspflicht. Es ist aber zweckmäßig, sie jedenfalls für die Dauer von Ausschluss- und Verjährungsfristen aufzubewahren, für etwaige Wiederbewerbungen auch darüber hinaus. Literatur: Küttner, Personalbuch 1999, Personalakte. BAG 15.7.1987, DB 1987 S. 271; BAG 4.4.1990, DB 1990 S. 1522; BAG 14.12.1994, DB 1994 S. 981.
Nicolai Kranz Personalbemessung -* Personalplanung Personalcontrolling Personal-Controlling wird verstanden als ein planungsfundiertes Evaluationsinstrument. Ziel ist die Optimierung des ökonomischen und sozialen Nutzens der Personalarbeit. Dies wird über Informationssammlung. Analyse der ermittelten Daten, deren Bewertung sowie anschließende Planung und Steuerung realisiert. Der Schwerpunkt des PersonalControlling liegt dabei eindeutig auf der Bewertung der Personalarbeit und nicht des Personals. Dabei lassen sich drei wesentliche Dimensionen unterscheiden: Das strategische Controlling versucht die Frage zu beantworten: "Werden die richtigen Dinge getan?" Sollte also die Personalrekrutierung von Führungskräften bzw. deren Freisetzung selbst oder über Personalberater durchgeführt werden? Ist das Verhältnis von On-the-Job und Off-theJob Entwicklungsmaßnahmen zweckmäßig, kümmert man sich bei der -»Perso571
Personaleinsatzsteuerung
Personalcontrolling nalentwicklung nur um das Management (-> Führungskräfteentwicklung) und warum nicht auch um den Bereich der durchführenden Tätigkeiten? Das operative Controlling stellt die Frage: "Werden die Dinge richtig getan?" Die Schwerpunkte liegen also bei Soll-Istbzw. Ist-Ist-Vergleichen (z.B. über -»• Benchmarking). Das Wirkungs-Controlling fragt schließlich: "Werden die Dinge erfolgreich getan?" Hier wird über Indikatoren versucht, die Wirkung von zuvor geplanten Personalmanagemententscheidungen und -aktivitäten zu ermitteln. Das Personal-Controlling könnte die Funktion eines unternehmerischen Entwicklungshelfers erhalten. Denn ohne fundierte -> Personalplanung und eine darauf aufbauende Evaluation von sozialen und ökonomischen Wirkungen der Personalarbeit besteht weiterhin die Gefahr, dass sich das Personalwesen in administrativen, operativen und taktischen Maßnahmen verliert (s.a. -> Personalmanagement). Damit wird die Gewinnung von Steuerungsinformationen in das Zentrum rücken, die möglichst dezentral abgerufen, verarbeitet und evaluiert werden können - zu Lasten des klassischen Berichtswesens, das häufig zum "Zahlenfriedhof' degeneriert. Weiterhin ist eine Integration mit dem gesamten Unternehmens-Controlling ( - • Controlling) anzustreben - zumindest in Bezug auf Philosophie, Systematik, Methodik und Indikatoren. Literatur: Wunderer, R./Kuhn, T.: Unternehmerisches Personalmanagement. Konzepte, Prognosen und Strategien für das Jahr 2000.
Rolf Wunderer Personaleinsatz Personaleinsatz ist eine der Kernfunktionen des -> Personalmanagements. Er beginnt nach der Personalgewinnung (-> Mitarbeiterauswahl) mit der Einarbeitung und Integration des Mitarbeiters in den technischen und sozialen Arbeits572
prozess. Der Personaleinsatz ist gerade bei Unternehmen mit stark - teilweise sehr kurzfristig - schwankenden Beschäftigungszeiten von besonderem Interesse. Personaleinsatz wird auch zunehmend als Qualifizierungsmaßnahme verstanden. Und schließlich werden hier Aspekte der Identifikation und Motivation der zunehmend selbstbewußten und selbstständigen Mitarbeiter immer wichtiger. Auf operativer Ebene wird der Personaleinsatz durch die -> Personaleinsatzsteuerung umgesetzt. Literatur: Wunderer, R./Kuhn, T.: Unternehmerisches Personalmanagement. Konzepte, Prognosen und Strategien für das Jahr 2000.
Rolf Wunderer Personaleinsatzsteuerung Personaleinsatzsteuerung ist die kurzfristig ausgelegte Variante der Personaleinsatzplanung, deren zentraler Punkt die Steuerung eines wechselnden, bedarfsorientierten Personaleinsatzes innerhalb eines kurzen Zeitraumes an den verschiedenen Arbeitsplätzen ist. Dieser Begriff wird häufig auch als "kurzfristige Personaleinsatzplanung" bzw. "kurzfristiger flexibler Personaleinsatz" bezeichnet. Ziel ist es, in einem globalen Sinn eine effiziente Besetzung von Arbeitsplätzen mit dem dafür geeigneten Personal innerhalb eines kurzfristigen Zeitraums zu erzeugen. Als Nebenbedingungen treten hierbei als wichtigste Kriterien eine hohe Kapazitätsauslastung, die Erfüllung des Bedarfs von verschiedenen Arbeitsplätzen, qualifikations- und anforderungsspezifische Bedingungen sowie die Zufriedenheit der Mitarbeiter (-> Mitarbeiterzufriedenheit) auf, die durch Unter- bzw. Überforderungen bezüglich ihrer Qualifikationsprofile beeinflusst werden kann. Zur Berechnung einer Lösung bei der Personaleinsatzsteuerung können sowohl heuristische Verfahren als auch optimale Lösungsalgorithmen verwendet werden.
Personalentwicklung
Personaleinsatzsteuerung Ein auf einen Zeitpunkt reduziertes Personaleinsatz-Steuerungsproblem kann als Zuordnungsproblem formuliert werden, welches sich in polynomialer Zeit optimal lösen lässt. Hier wird die konkrete Zuordnung von aktuell vorhandenem Personal zu den über den vorliegenden Bedarf zu besetzenden Arbeitsplätzen vorgenommen. Dabei werden die jeweiligen Qualifikationsprofi le oder aber vorliegende Funktionscodes der Mitarbeiter bei den möglichen Zuordnungen berücksichtigt. Durch Hinzunahme weiterer Nebenbedingungen oder Berücksichtigung mehrerer Zeitpunkte mit unterschiedlichen Bedarfsanforderungen kann das eigentliche Problem aus algorithmischer Sicht sehr viel schwerer zu lösen sein. Hier kann schon das Finden einer zulässigen Lösung bzw. einer Lösung mit möglichst wenig verletzten Nebenbedingungen, die ihrerseits wieder gewichtet sein können, von Vorteil sein. Die Gewichte für verletzte Nebenbedingungen können dabei flexibel gewählt werden, so dass hier eine unternehmensspezifische Anpassung an die jeweilige Zielsetzung möglich ist. Die Personaleinsatzsteuerung steht in Wechselwirkung mit anderen Personalplanungsfeldern. Insbesondere mit der Personaleinsatzplanung, aber auch bei der Personalentwicklungsplanung, ist diese gegenseitige Beeinflussung besonders stark. Die Personalbedarfs-, die Personalbeschaffungs- und die Personalfreisetzungsplanung werden ebenfalls von den Ergebnissen der Personaleinsatzsteuerung beeinflusst bzw. dienen wiederum als Grundlage für die Einsatzsteuerung selbst. Durch zunehmende Marktorientierung und wachsende Bedeutung von Flexibilität und hoher Einsatzbereitschaft des Personals sowie schnelle Reaktionsfähigkeit auf wechselnde Kundenwünsche rückt die Personaleinsatzsteuerung immer mehr in den Vordergrund produktionsplanerischen Handelns. Dies ist vor allem bei Unternehmen der Fall, deren Mitarbeiter sich
durch Mehrfachqualifikation auszeichnen und dadurch flexibel eingesetzt werden können. Erst durch diese Art von Qualifikation und Flexibilität kann die automatische Einsatzplanung durch die gestiegene Problemkomplexität Vorteile gegenüber manueller Zuweisung erzielen. Die Personaleinsatzsteuerung stellt darüber hinaus Daten für die Personaleinsatzplanung zur Verfügung, die verwendet werden können, um zukünftige Qualifikationsbedarfe oder veränderte Qualifikationsverteilungen bei den Mitarbeitern zu erkennen. Durch die kurzfristige Auslegung der Personaleinsatzsteuerung kann im Gegensatz zur Personaleinsatzplanung mit dem aktuell zur Verfugung stehenden Personal und dem augenblicklich vorliegenden Bedarf modelliert werden. So können Personalfehlbestände durch Krankheit oder Fortbildungsmaßnahmen sowie kurzfristige Änderungen am Bedarf in der Einsatzsteuerung direkt berücksichtigt werden. Hans Achatz Personalentwicklung Personalentwicklung (PE) ist ein wichtiges Instrument des Personalmanagements, um die Leistungskraft und Wandlungsfähigkeit von Betrieben und Unternehmungen zu gestalten. Personalentwicklung als Managementfunktion umfasst drei Teilsysteme: • • •
die zielgerichtete Beeinflussung der Qualifikationen der Mitarbeiter, die Entwicklung und Gestaltung von Karrieremöglichkeiten und die Gestaltung der Handlungsspielräume der Mitarbeiter.
Hauptaufgabe und Gestaltungsziel ist die nachhaltige und langfristige Sicherung der Leistungs- und Anpassungsfähigkeit der Unternehmung bzw. des Betriebs. 1. Grundlagen Personalentwicklung ist ein wesentliches Aufgabengebiet des Managements der Humanressourcen. Ursprünglich war es 573
Personalentwicklung
Personalentwicklung auf die geplante Entwicklung des Personals gerichtet, indem seine bestehenden Qualifikationen erweitert oder vertieft und neue Qualifikationen vermittelt wurden. Aus Managementsicht beinhaltet die Personalentwicklung ein Bündel von Instrumenten, um Veränderungen des Umfeldes der Unternehmung, der betrieblichen Arbeitsprozesse, sich wandelnde Erwartungen der Mitarbeiter an ihre Arbeitstätigkeit und berufliche Entwicklung sinnvoll miteinander in Einklang zu bringen. Es geht darum, das menschliche Arbeitsvermögen unter Verwendung sozialund verhaltenswissenschaftlicher Erkenntnisse und Methoden (vorwiegend aus der Psychologie, Arbeits- und Organisationssoziologie sowie der Arbeits- und Betriebspädagogik) umzuformen und mit den sozialen Bedingungen sowie betrieblichen Anforderungen der Leistungserstellung zu integrieren (vgl. Ridder 1999). Ziel ist es, hierdurch zu einer erhöhten betrieblichen Wertschöpfung zu gelangen (vgl. Wunderer/von Arx 1998). Personalentwicklung als eigenständiges Aufgabenfeld hat sich seit Ende der sechziger Jahre des vergangenen Jahrhunderts in Theorie und Praxis des Personalmanagement erfolgreich etabliert. In einer engen begrifflichen Fassung versteht man darunter die gezielte Veränderung von individuellen berufsbezogenen Kenntnissen, Fertigkeiten und Fähigkeiten, um den Leistungsgrad des Mitarbeiters und dadurch die wirtschaftliche und soziale Anpassungsfähigkeit der Unternehmung zu erhalten oder zu erhöhen. Nach wie vor ist dieses klassische personenbezogene Verständnis mit seinem berufs- und arbeitsbezogenen Bildungsbzw. Sozialisationsschwerpunkt ein wichtiges Aufgabenfeld. Zunehmend hat sich die Einschätzung durchgesetzt, dass Arbeitshandeln und Leistungsverhalten auch durch die Gestaltung des Kontextes wesentlich mitgeprägt werden. Die bedürfnisgerechte Anpassung von Arbeitsinhalten (mikro-organisatorische Ebene) 574
und der Arbeitsumgebung (Arbeitssystem-Ebene) sind hierfür Beispiele. Des Weiteren verlangt die Aufrechterhaltung der betriebliche Leistungsfähigkeit nach einer systematischen Planung von Karriereverläufen. In einer weiten begrifflichen Fassung sind daher neben die Bereiche Aus- und Weiterbildung weitere Funktionsfelder hinzugetreten, die jeweils für sich wie im Zusammenhang mit den anderen Teilsystemen der Personalentwicklung gestaltet werden können. Es handelt sich um •
•
die systematische Planung und Gestaltung betrieblicher Karrieren (-> Karriereplanung) die Erweiterung von Handlungs- und Kontrollspielräumen überwiegend auf arbeitsorganisatorischer Ebene. Hierbei spielen die individuellen Fähigkeiten zum Selbstmanagement und zur Eigensteuerung der Mitarbeiter eine wichtige Rolle. So können die Flexibilitätsspielräume hierarchiearmer Strukturen auch produktiv genutzt werden (Gestaltung der Handlungsspielräume, Verantwortlichkeiten und Handlungsfähigkeiten).
Die gewollte Beeinflussung menschlichen Verhaltens im Arbeitsbereich, um betriebliche Ziele zu erreichen oder den Zielerreichungsgrad zu erhöhen, muss stets auch die Identifikationsprozesse der Mitarbeiter mit ihrer Unternehmung, dem Betrieb und der Aufgabenstellung mitberücksichtigen, damit sich neu erworbene Kompetenzen in konkretes Arbeitshandeln umsetzen. Erst die Berücksichtigung der spezifischen individuellen und sozialen Momente des betrieblichen Leistungsgeschehens lässt Personalentwicklung auch ökonomisch wirksam werden. Betriebswirtschaftlich betrachtet sind Personalentwicklungsmaßnahmen eine Alternative zur Beschaffung der gewünschten oder notwendigen Qualifikationen des Personals über den Arbeits-
Personalentwicklung
Personalentwicklung markt (Fremdbezug). Bei der betrieblichen Personalentwicklung handelt es sich um ein Bündel von Instrumenten/ Managementmaßnahmen, die mit dem Ziel eingesetzt werden, diese Qualifikationen selbst zu erstellen (Eigenerstellung). 2. Ziele, Arten und Adressaten der Personalentwicklung Die Ziele der Personalentwicklung speisen sich aus den drei Herkunftsquellen gesellschaftliche Zielsetzungen, Ziele der Unternehmung und Ziele des Mitarbeiters. Sie sind aufeinander abzustimmen; dies vollzieht sich nicht immer konfliktfrei. Faktisch sind für die Personalentwicklung die betrieblichen Interessen und Ziele vorrangig, aber individuelle Erwartungen, Wünsche und Motivation in Bezug auf Karriere und persönliche Weiterentwicklung müssen als wichtige Nebenbedingungen bei der Planung und Umsetzung von Personalentwicklungsmaßnahmen stets mitbedacht werden. Folgende Zielbündel werden über Personalentwicklung angestrebt (vgl. Berthel 1997, Staehle 1999): • •
• • •
die Erhöhung der Wettbewerbsfähigkeit der Unternehmung, die Erhöhung der Anpassungsfähigkeit der Unternehmung bzw. des Betriebs an sich wandelnde ökonomische, soziale und gesellschaftliche Bedingungen, die Erhöhung der Mitarbeitermotivation und ihrer sozialen Integration, die Sicherung eines qualifizierten Mitarbeiterstammes und die Reintegration von Arbeitslosen in den Arbeitsprozess, Umschulung von Berufstätigen.
Dabei sind die individuellen und bildungspolitischen Ansprüche der Mitarbeiter als Randbedingungen einer Gestaltung mit zu berücksichtigen (vgl. Staehle 1999). Zu beachten sind in diesem Zusammenhang Mitbestimmungs-, Mitwirkungsund Informationsrechte (-» Mitwirkungs- und Mitbestimmungs-
rechte) des ->• Betriebsrates bzw. des Sprecherausschusses, die in entsprechenden -» Betriebsvereinbarungen dokumentiert werden. Nach ihrer Nähe zum Arbeitsplatz sind folgende Arten der Personalentwicklung zu unterscheiden (vgl. Conradi 1983, Staehle 1999) •
•
• • • •
berufliche Erstausbildung, Einführung neuer Mitarbeiter, Trainee- und systematische Einführungsprogramme, Arbeitsunterweisung, Erfahrungslernen am Arbeitsplatz, systematischer Arbeitsplatzwechsel, Arbeitsstrukturierung mit dem Ziel der Qualifikationserhöhung, Lernstatt, Entwicklungsarbeitsplätze, Qualitätszirkel, Betriebliche und überbetriebliche Weiterbildung, Selbststudium, Karriereplanung, Mitarbeiterförderung, Outplacement, Ruhestandsvorbereitung.
Da durch Personalentwicklung die Wandlungsfähigkeit von Unternehmungen erhöht werden soll, werden strategische Neuausrichtungen und internationalisierte oder globalisierte Geschäftstätigkeit durch vorauslaufende oder in engem zeitlichen Bezug dazu stehende Personalentwicklungsmaßnahmen begleitet (s.a. Management, internationales, Globalisierung). Man setzt an den beruflich relevanten fachlichen, methodischen, sozialen und persönlichen Qualifikationen und Anpassungsfähigkeiten der Mitarbeiter an und verkoppelt diese mit organisatorischen und strategischen Veränderungsinstrumenten zu einem Instrumentenmix. Dieser Funktionswandel der Personalentwicklung zeigt sich auf folgenden Feldern: •
induziert durch technologischen, sozialen und kulturellen Wandel entstehen neue qualifikatorische Anforde575
Personalentwicklung
•
•
rangen, die über Personalentwicklungsmaßnahmen gemeistert werden können. Die Bedeutung kultureller Sensibilität nimmt ebenso zu, wie die Notwendigkeit zur Beherrschung unterschiedlicher Sprachen; Karrieren vollziehen sich stärker als bisher international und in unterschiedlichen Kulturräumen. Einzelbetriebliche Karriereansätze verlieren an Bedeutung, weil sich Unternehmungen strategisch neu ausrichten oder verstärkt zu Netzwerken integrieren; Netzwerkkarrieren und entsprechende Karrierekonzepte müssen entwickelt werden; begleitet wird dieser Aufgabenwandel der herkömmlichen Personalentwicklung durch ein verändertes Managementdenken, das stärker auf 'weiche 1 Mittel der Handlungskoordination ausgerichtet ist. Da Untemehmungsbzw. Organisationskulturen hierbei auch eingesetzt werden, um zu intensiverer und reibungsloserer Zusammenarbeit der Mitarbeiter beizutragen, wird das Management von Organisationsund Unternehmungskulturen wichtiger.
Im Hinblick auf zunehmende International isierungserfordernisse fuhrt dies dazu, dass einzelne der genannten Arten erweitert bzw. ergänzt werden. Dann treten hinzu: • • • • • •
Auslandseinsätze im Rahmen von Einführungsprogrammen Auslandseinsätze zur Sammlung internationaler Erfahrungen Bildung international zusammengesetzter Mitarbeitergruppen International ausgerichtete Programme des Arbeitsplatzwechsels Cross-Cultural Management-Trainings Internationales Unternehmungs- bzw. Organisationskultur-Management
Als eigenständige neue bzw. neu zu entwickelnde Arten der Personalentwicklung
Personalentwicklung sind zu nennen (vgl. Schreyögg/Oechsler/Wächter 1995; Prange 1996): • • •
Führungskräfte und kaufmännische sowie technische Angestellte sind die hauptsächlichen Adressatengruppen der betrieblichen Personalentwicklung. An- und ungelernte Arbeitnehmer sowie Facharbeiter wurden in den letzten Jahren verstärkt durch öffentlich geforderte Maßnahmen weiterqualifiziert (vgl. Staehle 1999). Die Personalentwicklung für Führungskräfte und den Führungskräftenachwuchs bildet aufgrund ihrer Funktionsbedeutung ein eigenes Segment innerhalb vieler Personalentwicklungskonzepte; hierfür hat sich der Begriff der -> Führungskräfteentwicklung oder der Managemententwicklung eingebürgert. 3. Hauptaufgaben und Instrumente Neben der Personalführung (-» Führung), der -» Motivation und der Gestaltung der monetären und nicht-monetären Anreize (-» Entgeltmanagement, -+ Optionspläne), ist die Personalentwicklung ein weiteres, wichtiges Instramentenbündel, um das Arbeits- und Leistungshandeln der Mitarbeit zu beeinflussen bzw. zu erhöhen (vgl. Berthel 1997; Staehle 1999). Die konkrete Programmplanung in den Teilgebieten der Personalentwicklung vollzieht sich mehr oder weniger partizipativ. Folgende drei Teilsysteme sind zu gestalten: Aus- und Weiterbildung: Bei der Aus- und Weiterbildung steht der berufliche Bezug im Vordergrund. Im Einzelnen sind hier zu nennen: • • •
576
die Gestaltung organisationaler Lernprozesse, die Gestaltung und das Management von Organisationskulturen und die Einrichtung von Netzwerkkarrieren.
die berufliche Erstausbildung, die Ergänzungs- bzw. Anpassungsweiterbildung, die Aufstiegsweiterbildung,
Personalentvvicklung
Personalentwicklung • •
die Umschulung sowie die berufliche Rehabilitation, die Wiedereingliederung von Langzeitarbeitslosen und die Erschließung von Humanressourcen, die dem Arbeitsmarkt bislang nicht oder nur eingeschränkt zur Verfügung standen.
Unter der beruflichen Erstausbildung sind dabei die betrieblich veranlassten und teilweise gesetzlich normierten Bildungsmaßnahmen (duales System) zu verstehen, die für die Durchführung bestimmter Tätigkeiten oder Berufe notwendig sind; Fort- und Weiterbildungsmaßnahmen beinhalten organisierte Lernprozesse, die auf einer bereits vollzogenen Bildungsphase aufsetzen. Karriereplanung Unter einer Karriere versteht man jede beliebige Stellenfolge in einem betrieblichen Gefüge, die ein Mitarbeiter im Laufe seiner Zugehörigkeit durchläuft (vgl. Berthel 1997). Als Karriereplanung gilt die gedankliche Vorwegnahme einer Stellenfolge. Karriereplanung unterscheidet sich demnach von improvisierten, bloß zufalligen Beförderungs- oder Versetzungsentscheidungen, weil sie gezielt erfolgt. Verstärkt bezieht man sich dabei nicht auf die Zielplanung für einzelne Positionen, sondern auf Positionsmehrheiten ("Positionsfamilien"), die über gemeinsame Anforderungscharakteristika verfugen. Planerisch berücksichtigt werden müssen des Weiteren sich lebenszeitlich wandelnde Erwartungen an berufliche Karrieren, wobei nach den Phasenmodellen der Karriereentwicklung jeweils typische Erwartungs- und Leistungsprofile der Mitarbeiter zu bewältigen sind. Eine sich zunehmend verändernde Leitungsgliederung (Abbau von Managementebenen im Zuge von Enthierarchisierung, vermehrter Einsatz sich selbststeuernder Teams bzw. Arbeitsgruppen) stellt die Karriereplanung vor neue Herausforderungen, da sich das Angebot an klassi-
sehen hierarchischen Aufstiegsmöglichkeiten zunehmend verknappt hat. Einerseits sind drei unterschiedliche Karrierevorstellungen zu unterscheiden, die jeweils für sich genommen eigene Entwicklungsmöglichkeiten bieten. Andererseits haben sich verschiedene Entwicklungspfade herausgebildet, die als Alternativen zur klassischen Führungslaufbahn dienen können. Je nach betrieblichen Erfordernissen und individuellen Fähigkeiten und Erwartungen könne Mitarbeiter im Hinblick auf die verschiedenen Karrierearten entwickelt werden. Auch sind Wechsel zwischen den Karrierearten und ihre Kombination möglich. Im Hinblick auf die Verlaufsrichtung von Karrieren sind drei Arten zu unterscheiden: •
•
•
die hierarchische Karriere; sie beinhaltet den vertikalen Aufstieg in einem Stellengefuge. Dies entspricht dem bislang immer noch vorherrschenden Bild von erfolgreicher Tätigkeit, eng verbunden mit dem Zuwachs an Positionsmacht, personeller und fachlicher Verantwortung, Einkommen und gesellschaftlichem Prestige; die horizontale Karriere; sie bezeichnet eine berufliche Entwicklung, die sich als Erfahrungs- und Erkenntniszuwachs vollzieht, ohne dass eine hierarchisch höherliegende Position übernommen wird. Es handelt sich um eine Seitwärtsbewegung etwa in der Form einer Versetzung auf eine andere, gleichwertige Aufgabenstellung bzw. Position in einem anderen Funktionsbereich; die zentripetale Karriere; sie ist ebenfalls eine nicht-hierarchische Form der beruflichen Weiterentwicklung, sie bezieht sich auf den Wechsel von einer dezentralen zu einer zentralen Organisationseinheit, ohne dass es hierbei zu einem Kompetenzzuwachs kommt.
577
Personalentwicklung Neben der Führungslaufbahn als dem Prototyp hierarchischer Karriere sind Fachlaufbahnen und Projektlaufbahnen zu nennen, die beide hierarchische Elemente ("Aufstieg") beinhalten, sich aber im Hinblick auf die Vorgesetztenaufgaben der Mitarbeiterfiihrung deutlich von der Führungslaufbahn unterscheiden. Fachlaufbahnen oder Spezialistenlaufbahnen sind durch ihren hohen fachlichen Bezug der Aufgabenstellungen bei gleichzeitig geringer Personalfuhrungsverantwortung geprägt; Projektlaufbahnen vollziehen sich in zeitlich begrenzt tätigen Projektgruppen, wobei die individuelle Entwicklungsperspektive darin besteht, nach und nach an größeren Projekten mitzuwirken oder diese zu organisieren. Gestaltung der Handlungsspielräume: Gegenstände der Personalentwicklung sind auch die Gestaltung von Arbeitsinhalten und von Handlungsspielräumen für die Aufgabendurchführung; in diesem Sinne werden Kontexte für individuelles Arbeitshandeln gestaltet. Besondere Bedeutung haben die Arten der Arbeitsfeldstrukturierung, die zu einer mengen- oder artmäßigen Vergrößerung des Arbeitsfeldes fuhren. •
Die Aufgabenerweiterung und der Aufgabenwechsel beinhalten mengenmäßige Vergrößerungen des Arbeitsfeldes. Im ersten Fall werden den bisherigen Aufgaben neue, von den Anforderungen her gleichartige Aufgaben hinzugefügt. Beim Aufgabenwechsel geht es zum einen um eine Rotation des Mitarbeiters auf inhaltlich gleichwertige, von den Tätigkeitsvollzügen her aber unterschiedliche Aufgaben innerhalb eines Funktionsbereichs. Dies ist ein Schwerpunkt der Entwicklung von Fachkräften. Zum anderen gibt es funktionsübergreifende Aufgabenwechsel, die die Übernahme von Aufgaben mit unterschiedlichen Anforderungen beinhalten. Solche funktionsübergreifenden Wechsel sind
578
Personalentwicklung
•
•
eher typisch für die Führungskräfteentwicklung. Die Aufgabenanreicherung beinhaltet einen artmäßigen Wandel des Aufgabeninhalts; neue, interessantere und schwierigere Aufgabenanteile treten zu den bisherigen hinzu, es werden höhere Anforderungen gestellt. Die Übertragung von Planungs-, Regelungs- und Kontrollaufgaben auf Arbeitsgruppen oder Teams fuhrt zu ihrer Teilautonomie; Planungs- und Kontrollaufgaben, die bislang durch Fremdkontrolle über den Vorgesetzten erbracht wurden, werden in die teilautonome Gruppe zurückverlagert. Dies hat insgesamt veränderte Managementfunktionen zur Folge.
Bildete bis in die siebziger Jahre die Idee der Schließung von Qualifikationslücken das Zentrum von Gestaltungsüberlegungen, so wurde in den nachfolgenden Jahren die Verbindung von Fort- und Weiterbildungsmaßnahmen mit den Leistungs- und Anpassungsproblemen auf der Unternehmungsebene verstärkt. Dies hat mit dazu beigetragen, dass Personalentwicklung heute integraler Bestandteil des Managements von Wandel ist, der die Potenzialentwicklung der Mitarbeiter als zentrales Erfolgsmoment begreift. Literatur: Berthel, J.: Personal-Management, 5., aktual. und korr. Aufl., Stuttgart 1997; Becker, M.: Personalentwicklung, 2. Aufl., Stuttgart 1999; Bühner, R.: Personalmanagement, 2., Überarb. Aufl., Landsberg/Leeh 1997; Conrad, P. (1988a): Organisationskultur-Forschung und Ansätze der Personalentwicklung - konzeptionelle Überlegungen zu ihrem Zusammenhang, in: Dürr, W. u.a. (Hrsg.): Personalentwicklung und Weiterbildung in der Unternehmungskultur, Baltmannsweiler 1988, S. 8 6 - 1 6 4 ; Conrad, P. (1988b): Involvement-Forschung, Berlin/New York 1988; Conradi, P.: Personalentwicklung, Stuttgart 1983; Neuberger, O.: Personalentwicklung, Stuttgart 1991; Prange, C.: Interorganisationales Lernen. Lernen in, von und zwischen Organisationen, in: Schreyögg, G./Conrad, P. (Hrsg.): Wissensmanagement, Managementforschung Bd. 6, 1996, S. 163-189; Ridder, H.-G.: Personalwirtschaftslehre, Stuttgart u.a. 1999; Schreyögg, G./Oechsler, W.A./Wächter, H.: Managing in a European Con-
Personalinformationssystem
Personalentwicklung text, Wiesbaden 1995; Staehle, W.H.: Management - eine verhaltenswissenschaftliche Perspektive, 8. Aufl. überarb. von Conrad, P./Sydow, J., München 1999; Waldschmidt, K.: Personalentwicklung und organisationale Identifikation, München/Mering 1999; Wunderer, R./v. Arx, S.: Personalmanagement als Wertschöpfiings-Center, Wiesbaden 1998.
•
Peter Conrad Personalfreisetzung In den letzten Jahren - im Zeichen weltweiter struktureller und konjunktureller Krisen - hat die Personalfreisetzung sprunghaft an Bedeutung gewonnen. Viele Unternehmen waren über Jahrzehnte gewohnt, sich nur auf die Personalbeschaffungsseite zu konzentrieren und damit eine "asthmatische" Personalarbeit ("Einatmen gut, Ausatmen beschränkt") zu betreiben. Während früher nicht altersbedingte Freisetzungsentscheide von den Mitarbeitern getroffen wurde, müssen sie nun vermehrt vom Management gefallt werden. Gerade hier spielen gesetzliche und betriebliche Regelungen, Mitbestimmungsorgane, aber auch Untemehmenskultur und Wertewandel eine wesentliche Rolle. Die Unternehmen können dabei immer weniger eine spezifische Arbeitsplatzsicherheit garantieren. Dagegen sollten sie aber Beschäftigungssicherheit anstreben, d.h. eine Qualifikation der Mitarbeiter, die auch in anderen Unternehmen oder Branchen eingesetzt werden kann. Literatur: Wunderer, R./Kuhn, T.: Unternehmerisches Personalmanagement. Konzepte, Prognosen und Strategien für das Jahr 2000.
Rolf Wunderer Personalinformationssystem Kernstück eines informationsorientierten -> Personalmanagements ist ein computergestütztes Personalinformationssystem. Dieses weist im Regelfall zwei zentrale Komponenten auf: •
Die Stellendatenbank beinhaltet aufgaben- und arbeitsplatzbezogene Informationen, unter anderem betriebliche Steuerungsdaten sowie stellenbe-
zogene Anforderungsprofile. Über die Stellendatenbank kann auch die Verbindung zur Produktions- und Absatzplanung hergestellt werden. Die Mitarbeiterdatenbank enthält alle Daten, die sich unmittelbar auf die einzelne Person beziehen. Hierzu zählen neben den Stammdaten (Name, Adresse, Arbeitsplatz) Informationen zur Aus-, Weiter- und Fortbildung sowie der bisherige Karriereverlauf.
Auf diese beiden Datenbanken greifen unterschiedlichste Programme zu, die ihrerseits zusätzliche Datenbestände generieren. Beispiele für derartige Systeme sind: • • • •
Bewerberverwaltung, -> Personaleinsatzsteuerung, -> Personalentwicklung sowie Lohn- und Gehaltsabrechnung.
Hinzu kommen diverse Statistiken, die sich aus der Berichtspflicht des Unternehmens gegenüber externen Institutionen (wie Sozialversicherungsträger) ergeben. Für ein Personalinformationssystem gibt es Einsatzmöglichkeiten auf allen drei Planungs- und Managementebenen: 1. Auf der operativen Ebene stehen der einzelne Mitarbeiter und der einzelne Arbeitsplatz im Vordergrund. Datenmäßig bedeutet dies die Abspeicherung von Mitarbeiter- und Stellendaten sowie unter anderem die Einsatzplanung (s.a. -> Personaleinsatzsteuerung). Die verwendeten Methoden sind überwiegend routinemäßige Abwicklungsaufgaben der Periodenfortschreibung sowie einzelfallspezifische Abfragen. Vor allem auf dieser Ebene geht es um Personalstammdaten, die von entsprechend geschulten Sachbearbeitern in periodischen Abständen aktualisiert werden sowie um diverse Abrechnungsdaten, die sich aus dem unmittelbaren Betriebsablauf (beispielsweise der Zeitwirtschaft) erge579
Personalinformationssystem ben (-> Stammdaten, —> Bewegungsdaten). Speziell auf der operativen Ebene herrscht eine hohe Regeldichte, die aus Mitbestimmungs- und Datenschutzvorschriften (-» Datenschutz) resultiert. 2. Auf der taktischen Ebene stehen Gruppen von Mitarbeitern und Gruppen von Stellen im Mittelpunkt, um auf diese Weise zumindest ein Mindestmaß an Komplexitätsreduktion zu realisieren. Inhaltlich dominiert auf dieser Ebene aus dem Personalkostenmanagement der Aspekt der Personalbudgetbestimmung und -abwicklung. Ab der taktischen Ebene wird ausschließlich mit aggregierten und anonymisierten Daten gearbeitet, die keinerlei Rückschlüsse mehr auf konkrete Personen zulassen. Neben vorgefertigten Standardberichten werden vor allem hier zusätzlich frei gestaltbare Berichte und interaktive Abfragemöglichkeiten zur Projektion und Analyse verwendet. Speziell auf dieser Ebene wird so zunehmend auch eine Brücke zum unternehmensbezogenen Wissensmanagement geschlagen, das helfen soll, aus der existierenden Datenflut sinnvolle Informationen zu generieren. 3. Auf der strategischen Ebene rücken hoch aggregierte Steuerungsgrößen in den Vordergrund. Hier geht es um die langfristige Absicherung des "Erfolgsfaktors Personal". Beispiele für derartige Ansätze sind - jeweils in einer interaktiven Form - Bestandsprojektionen, Personalszenarien, Personalfaktorkostenanalysen. Sie sind im Regelfall in ein Executive Information System integriert, das auch Querbezüge zu anderen Untemehmensfunktionen zulässt (-> Entscheidungsunterstützende Systeme, -> Data Warehouse). Das Schwergewicht der meisten kommerziellen und im Einsatz befindlichen Programme liegt eindeutig auf der operativen 580
Personalinformationssystem Ebene, wenngleich durch Datenexport und Kombination mit anderen Systemen auch die strategische Ebene abbildbar ist. Trotzdem ist jedoch das Defizit auch in den stark verbreiteten "integrierten" Programmen mitausschlaggebend dafür, dass die computergestützte Personalplanung selbst in den letzten Jahren keine nennenswerten Fortschritte gemacht hat. Gegenwärtig befinden sich Personal informationssysteme aufgrund von drei sich beeinflussenden Faktoren im Umbruch: •
•
•
Es verändert sich die Personalorganisation mehr in Richtung auf Dezentralität und Föderalismus; auf diese Weise wird der Kreis der Personen, die Personalinformationssysteme pflegen und nutzen, zwangsläufig größer. Die Client-Server-Architektur beziehungsweise die Intranet- und Internettechnologie (-> Intranet, —> Internet) bietet inzwischen weitreichende Möglichkeiten für verteilte Arbeitsvorgänge, die im Extremfall dazu führen, dass Mitarbeiter selber für die Führung ihrer elektronischen Personalakte verantwortlich sind; auch nimmt das Denken in klassischen ("integrierten") Datenbanken im Zeitalter der Hypertext-Dokumente und Netz-Suchmaschinen ab. Angesichts von globaleren Ausrichtungen von Unternehmen und verstärktem Wettbewerbsdruck nimmt die Bedeutung der strategischen Ebene des Personalinformationssystems zu, wo es vor allem um die Schaffung von flexiblen und multimedialen Informationsnetzwerken mit strategischer Steuerungswirkung geht.
Im Ergebnis sind Unternehmen auf dem Weg zu einem "Personalinformationssystem", das zwar grundsätzlich der klassischen Funktionalität entspricht, in seiner Struktur und seiner Interaktivität mit Nutzem aber mehr der vernetzten Struktur
Personalinformationssystem des Internets gleicht. Ausgenommen davon dürfte in absehbarer Zukunft allenfalls die Lohn- und Gehaltsabrechnung sein. Literatur: Scholz, Ch.: Personalmanagement. Informationsorientierte und verhaltenstheoretische Grundlagen, 5. Aufl., München 2000.
Christian Scholz Personalmanagement /. Begriff Personalarbeit kann als "strukturelle Personalführung" definiert werden. Diese sieht ihren Schwerpunkt nicht im operativen, taktischen und reaktiven Eingreifen der Personalverantwortlichen in das Betriebsgeschehen, sondern in der Förderung unternehmerischen Denkens, Handelns und Verantwortens möglichst vieler Mitarbeiter über darauf ausgerichtete Strukturen (Strategie, Organisation, Kultur). Damit kann die Fähigkeit und Bereitschaft zur Selbstorganisation, Selbstentwicklung und Selbststeuerung der Mitarbeiter erhöht werden - Mit dem Ziel, die Wertschöpfung der menschlichen Arbeit zu steigern. Die "strukturelle" Managementfunktion steht damit im Mittelpunkt. In den letzten Jahren kann man eine Hinwendung auf grundsätzliche Fragen, auf strategische Denkweisen sowie qualitative Gestaltungsaspekte des Personalmanagement erkennen. Der Mitarbeiter gilt als wichtigste, wertvollste und sensitivste Unternehmensressource. Das Personalmanagement soll ihn als Mitunternehmer gewinnen, entwickeln und erhalten. Die Wertschöpfung (value added) steht dabei im Vordergrund. Die weitere Entwicklung dürfte zu einer stärkeren Integration von den bisher bevorzugten verhaltenswissenschaftlichen Ansätzen mit ökonomischen und betriebswirtschaftlichen Denkweisen führen. Immer mehr wird das Personalmanagement zu einem ressourcenorientierten, strategischen Konzept der gesamten Unternehmensführung. Auch deshalb setzt
Personalmanagement sich der Begriff des "Human-ResourceManagement" stärker durch, während traditionelle Begriffe wie Personalwesen und Personalwirtschaft in den Hintergrund rücken. 2. Kernfunktionen des Personalmanagement Es lassen sich fünf Kernfunktionen des Personalmanagement identifizieren: -
-
-
-
Arbeitsgestaltung unter Personalmarketingaspekten (-> Personalmarketing); Personalgewinnung, -einsatz und -freisetzung (-» Mitarbeiterauswahl, -* Personaleinsatz, -> Personalfreisetzung) ->• Personal-Controlling Führung und Kooperation (-> Führungsinstrumente, -> Führungqualität, -» Führungsrichtlinien) Personalentwicklung.
5. Organisation und Träger des Personalmanagement Für das Personalmanagement verantwortlich sind grundsätzlich die Geschäftsleitung, das Personalwesen, die Linie sowie teilweise auch die institutionellen Mitarbeitervertretungen im Unternehmen. Bei konsequenter Weiterentwicklung des unternehmerischen Konzepts werden aber zwei weitere Träger mehr in den Vordergrund rücken. Einmal sind es die Mitarbeiter selbst, von denen man bei wachsender Qualifikation und Selbstmotivation auch einen höheren Grad an Selbstorganisation im Bereich der Personalarbeit erwarten kann (z.B. teilautonome Arbeitsgruppen, selbstständige Absprachen bei anfallsbedingter Arbeitszeit oder Urlaubsregelungen, Selbstbeurteilung vor dem Mitarbeitergespräch, eigene Karriereplanung und Selbstentwicklung). Daneben wird nun unter strategischen Aspekten immer mehr die Frage gestellt, welche Aufgaben von internen Personalverantwortlichen zu erfüllen sind und welche auf Externe verlagert werden
581
Personalmanagement
Personalplanung
können und sollten - z.B. Aus- oder Fortbildung. Die Entscheidung zum "Outsourcing" - auch im Rahmen von langfristigen Partnerschaften und Allianzen verlagert damit wesentliche Funktionen nach außen. An die Personalverantwortlichen sind ebenfalls gewandelte Anforderungen zu stellen: Mit administrativem, operativem und reaktivem Denken und Handeln können die Aufgaben nicht mehr gelöst werden. Ebensowenig wird eine "Kaminkarriere" sowie eine rein auf nationale Besonderheiten ausgerichtete Erfahrung ausreichen. Gefordert ist "unternehmerisches Denken". Dies verlangt dabei von allen Personalverantwortlichen ein Mitwissen, Mitdenken, Mithandeln und Mitverantworten in allen wesentlichen Unternehmensentscheiden. Generalistische Ausrichtung, kommunikative Sozialkompetenz, ganzheitlich integrierendes, vorwärts orientiertes, progressives Vorgehen sind die wesentlichen Kriterien im Anforderungsprofil des zukünftigen Personalmanagers. Dann kann auch gewährleistet werden, dass das zukünftige Personalmanagement als integrierte Funktion der Unternehmensfiihrung verstanden und praktiziert wird. Literatur: Wunderer, R./Kuhn, T.: Unternehmerisches Personalmanagement. Konzepte, Prognosen und Strategien für das Jahr 2000, Frankfurt a.M., New York 1993; Wunderer, R.: Führung und Zusammenarbeit, Stuttgart 1993.
Rolf Wunderer Personalmarketing Unter Personalmarketing verstehen wir die Kunst, attraktive und effiziente Arbeitsbedingungen zu analysieren, zu gestalten und zu kommunizieren. Darin wird eine Philosophie und Strategie des Human-Resource-Management gesehen, die sowohl auf die Bedürfnisse der Arbeitsund Lebenssituation der Mitarbeiter als auch der anderen wesentlichen Märkte bzw. Kunden (Linie als interne Kunden sowie bedeutsame außerbetriebliche Sta582
keholder als externe Kunden) ausgerichtet ist. Bei der Formulierung des Leitbildes einer schweizerischen Unternehmung wurde dies so zusammengefasst "Absatzund Arbeitsmarkt sind unsere Herausforderung, Kunden und Mitarbeiter unsere wichtigsten Zielgruppen. In beiden Märkten analysieren, gestalten und kommunizieren wir als Unternehmer. Dabei orientieren wir uns an den Bedürfnissen der Zielgruppen, gestalten wir attraktive Partnerschaften, steigern wir Wertschöpfung und Wettbewerbsfähigkeit." (Wunderer 1991, S. 124 f.). Personalmarketing kann auf eine interne oder externe Zielgruppe ausgerichtet werden. Bei externer Ausrichtung konzentriert man sich auf die Personalgewinnung. Intern haben die Arbeitsbedingungen höchste Priorität. Dieser weite Begriff umfasst sowohl die klassischen - traditionell in der Arbeitswissenschaft diskutierten - Arbeitsbedingungen wie auch die vorzugsweise in der betriebswirtschaftlichen Managementlehre thematisierten Aspekte; folgende interne Gestaltungsdimensionen sind im Begriff Personalmarketing eingeschlossen: Arbeitsinhalte, Arbeitsplatz und Technologie, Arbeitsumfeld, Arbeitszeit (-» Arbeitszeitmodelle), Entgelt und Zusatzleistungen (-> Entgeltmanagement), direkte und indirekte Mitwirkung am und über den Arbeitsplatz hinaus sowie Untemehmensstruktur, -kultur (-> Unternehmenskultur) und -Strategie. Literatur: Wunderer, R.: Personalmarketing, in: DU, 45. Jg., 1991, S. 119-131; Wunderer, R./ Kuhn, T.: Unternehmerisches Personalmanagement. Konzepte, Prognosen und Strategien für das Jahr 2000.
Rolf Wunderer Personalplanung 1. Begriff und Aufgaben der Personalplanung Über die Definition der Personalplanung gibt es in der Literatur verschiedene Auffassungen. Kerninhalt ist unbestritten die Personalbedarfsplanung, die die Ermitt-
Personalplanung
Personalplanung lung der richtigen Anzahl an Mitarbeitern, zum richtigen Zeitpunkt mit der richtigen Qualifikation für den vorgesehenen Arbeitsplatz zum Gegenstand hat. Darüber hinaus wird die Planung der Personalbeschaffung, der -» Personalentwicklung, der Vergütung und anderer wichtiger Personalfunktionen, wie z. B. der Personalfreistellung, ebenfalls der Personalplanung zugerechnet. Künftige, den Personalbedarf beeinflussende Entwicklungen sollen vorausgesehen, ihre Auswirkungen auf Unternehmen und Mitarbeiter erkannt und durch geeignete personalpolitische Anpassungsmaßnahmen gezielt mitgestaltet werden. Innerhalb der unternehmerischen Wertkette fallt der Personalplanung als Teil des -> Personalmanagements die Rolle einer "unterstützenden Wertaktivität" zu. Zusammen mit anderen Wertaktivitäten in der Wertkette ( - • Wertschöpfungskette) dient die Personalplanung der Gewinnung und Sicherung dauerhafter Wettbewerbsvorteile in Form von Kostenvorteilen (Strategie der Kostenführerschaft) und/oder durch bessere Produkt-/Dienstleistungsqualität aus Sicht der Kunden (Strategie der Produktdifferenzierung). Träger der Personalplanung sind typischerweise die Unternehmensleitung, die Personalabteilung, die einzelnen Fachbereiche sowie Arbeitnehmervertreter. Die mit der Personalplanung verbundenen Aufgaben fallen unterschiedlichen betrieblichen Entscheidungsträgern zu. Hierbei sind Unternehmensleitung, Personalmanager, Abteilungs- bzw. Bereichsleiter sowie Arbeitnehmervertreter zu nennen. Die Personalbedarfsplanung läuft in drei Phasen ab: 1. Ermittlung des gesamten zukünftigen Personalbedarfs (Personalbruttobedarf), 2. Ermittlung des zukünftigen Personalbestandes (Ist-Personalbestand) und
3. Ermittlung der Differenz von Personalbruttobedarf und IstPersonalbestand. Diese Differenz wird als Nettopersonalbedarf bezeichnet. Ist sie größer als Null, besteht Beschaffungsbedarf, ist sie kleiner als Null, liegt Personalüberhang vor. Die Personalbedarfsplanung kann nach dem Planungshorizont in die kurz-, mittel- und langfristige Bedarfsplanung unterschieden werden. Der Zeitraum der kurzfristigen Planung liegt bei einem Jahr und geht von konstanten betrieblichen Umfeldbedingungen und einem absehbaren Personalbestand aus. Die mittelfristige Planung kann sich bis drei Jahre erstrecken und berücksichtigt neben betrieblichen Prozessveränderungen auch Abweichungen im Absatzprogramm sowie tarifvertragliche und gesetzliche Bestimmungen. Die langfristige Planung geht über drei Jahre hinaus und soll den künftigen Personalbedarf grob bestimmen; sie ist z.B. für die Planung des Ausbildungsbedarfs entscheidend. 2. Methoden der quantitativen Personalbedarfsplanung Die quantitative Personalbedarfsplanung lässt sich grundsätzlich in unsystematische und systematische Verfahren unterteilen. Letztere berücksichtigen die Faktoren, die den Personalbedarf unmittelbar bestimmen. Sie lassen sich unterscheiden in rechnerisch-mathematische Verfahren (Kennzahlenmethode, Verfahren der Personalbemessung, Rosenkranzformel) sowie in erfahrungsbasierte Verfahren (Schätzverfahren, Stellenplanmethode). •
Kennzahlenmethode Das Ziel dieser Methode ist es, eine stabile Beziehung zwischen dem Personalbedarf und einer oder mehrerer Determinanten zu ermitteln und durch eine Kennzahl auszudrücken. Dabei ist die bedeutendste Kennzahl die Arbeitsproduktivität, bei der eine Ertragsgröße (z.B. Umsatz) zum Arbeitseinsatz (z.B. Anzahl der Mitar-
583
Personalplanung
Personalplanung beiter) in Beziehung gesetzt wird. Der Personalbedarf wird in der Weise ermittelt, dass der zukünftige Ertrag als Zielgröße angesetzt wird; die künftige Arbeitsproduktivität hingegen wird mittels bestimmter Methoden geschätzt (z.B. Trendextrapolation). •
•
Verfahren der Personalbemessung Zu den Verfahren der Personalbemessung zählen arbeitswissenschaftliche Methoden, wie z.B. das REFAZeitaufnahme-Verfahren, M T M (Methods of Time-Measurement) und das WF-Verfahren (Work Factor Analysis). Die Zeitermittlung setzt sich dabei aus dem Erfassen der Ist-Zeiten und der Bestimmung der Soll-Zeiten zusammen. Bei der REFA-Methode wird der Zeitbedarf zur Erstellung eines Gutes (Auftragszeit) nach funktionellen Aspekten gegliedert. Demnach lassen sich Rüst- und Ausfuhrungszeit unterscheiden, die jeweils wiederum nach Grund-, Erholungs- und Verteilzeit zu differenzieren sind. Für jeden einzelnen Arbeitsvorgang wird die Zeit gemessen, die zur Auftragszeit summiert wird. Das MTM-Verfahren zergliedert jede körperliche Arbeit in elementare Grundbewegungen (z.B. Greifen, Drehen, Loslassen), die zur Ausführung der entsprechenden Arbeitsaufgabe erforderlich sind. Jeder dieser Grundbewegungen ist ein bestimmter Zeitwert zugeordnet; durch Addition der Einzelwerte ergibt sich die Vorgabezeit. Rosenkranzformel Die Rosenkranzformel ist eine Methode, um insbesondere im Verwaltungsbereich den Personalbedarf mit Hilfe von Vorgabezeiten zu ermitteln. Das Verfahren basiert auf einem Mengenund Zeitgerüst, wobei das Zeitgerüst aus geschätzten, gemessenen oder mit Hilfe von Systemen vorbestimmter Zeiten gewonnenen Zeitbedarfswerten bestehen kann. Ebenso können auch
584
Erfahrungswerte in die Zeitermittlung einfließen. •
Schätzverfahren Das Schätzverfahren ist stark von der Subjektivität einzelner Führungskräfte bzw. durch das Gruppenurteil mehrerer kompetenter Personen geprägt. Unterscheiden lassen sich die einfache Schätzung, die normale Expertenbefragung und die systematisierte Expertenbefragung (Delphi-Methode, -> Delphi-Technik).
•
Stellenplanmethode Die Stellenplanmethode beruht auf der Fortschreibung der Stellenpläne bzw. Stellenbeschreibungen. Ein Stellenplan beinhaltet für jede Organisationseinheit bis in die unterste Hierarchieebene alle Stellen. Anwendung findet die Methode überwiegend im Dienstleistungs- und Verwaltungsbereich, also dort, wo die Belegung der Arbeitsplätze zumindest kurzfristig nicht von der Outputmenge beeinflusst wird.
3. Qualitative Personalbedarfsplanung Der qualitative Personalbedarf ergibt sich aus den Funktionen der jeweiligen Aufgabenbereiche. Dabei sollen die Fähigkeiten und Kenntnisse der Mitarbeiter den Anforderungen der Arbeitsaufgabe genügen. Bezogen auf das gesamte Unternehmen umfasst die qualitative Personalplanung Aspekte wie Berufsstruktur, Ausbildung, Berufserfahrung, Altersstruktur, physische und psychische Eignungsstruktur sowie besondere Einsatzbeschränkungen und Erschwernisse. Die qualitative Personalplanung lenkt den Ausgangspunkt der Betrachtung auf die Entwicklung des Unternehmens sowie dessen Umfeld. Lässt sich hierbei ein variabler Zustand erkennen, können Szenarien künftiger Tätigkeitsfelder der Unternehmung hinsichtlich guter, schlechter bzw. sehr schlechter Planbarkeit differenziert werden. Erstere ist verhaltensorientiert geprägt, während die beiden letzteren dem Fähigkeitenansatz entsprechen (s.u.).
Personalplanung
Personalplanung und von Grund auf neu geplant werden sollen. Dazu werden die einzelnen Entscheidungspakete entsprechend ihrer Priorität sortiert und in eine Rangordnung gebracht. Das für jeden Unternehmensbereich vorgegebene Sollbudget begrenzt, entsprechend der Rangordnung, die erfüllbaren Entscheidungspakete. Für den Bereich der Personalplanung kann es somit zur Senkung von Kostengrößen, verbunden mit einer optimierten Neugestaltung der Personalplanungsprozesse, kommen.
Die Notwendigkeit der qualitativen Personalbedarfsplanung ist die Voraussetzung für eine effektive und effiziente Maßnahmenplanung (z.B. Personalbeschaffung, -entwicklung und -abbau) sowie für eine differenzierte Personalkostenplanung (Findung von Lohn- und Gehaltsgruppen). Es sind verschiedene Methoden der qualitativen Personalbedarfsplanung zu unterscheiden. •
Fähigkeitsansatz (eigenschaftsorientierte Verfahren): Hierbei werden die tätigkeits- bzw. aufgabenrelevanten Fähigkeiten zur Erfüllung der jeweiligen Aufgabe bestimmt. Dazu lassen sich Fach-, Methoden-, Sozial-, und Persönlichkeitskompetenz unterscheiden. Grundsätzlich ist dieser Ansatz auf alle Aufgabentypen anwendbar.
4. Personal- und Unternehmensplanung Die Integration der Personalplanung in die Unternehmensplanung kann durch folgende Aspekte wiedergegeben werden: •
•
Verhaltensansatz (verhaltensorientierte Verfahren): Die für die jeweiligen Aufgaben relevanten tätigkeitsbzw. aufgabenrelevanten Verhaltensweisen werden mit Hilfe von verhaltensorientierten Beurteilungsskalen ermittelt. Dazu lassen sich die Verhaltenserwartungsskalen, die verhaltensverankerten Beurteilungsskalen sowie die Verhaltensbeobachtungsskalen zählen.
•
Ergebnisansatz (ergebnisorientierte Verfahren): Dem Ergebnisansatz liegt die Bestimmung von Leistungskriterien zu Grunde, die nach quantitativen und qualitativen Gesichtspunkten unterschieden werden.
•
Integrativer Ansatz: Personalplanung und Zero-Base-Budgeting: —> ZeroBase-Budgeting kann sowohl der quantitativen als auch der qualitativen Personalplanung zugerechnet werden. Ziel des Zero-Base-Budgetings ist die Senkung der Gemeinkosten sowie des wirtschaftlichen Einsatzes der verfügbaren Ressourcen, indem sämtliche Aufgaben im Gemeinkostenbereich (-»Kostenarten) kritisch durchdacht
•
•
Handlungen müssen koordiniert und somit aufeinander abgestimmt werden Förderung der Kommunikation von abteilungsübergreifend erstellten (Personal-) Plänen Sicherstellung, dass das Unternehmen auf künftige Entwicklungen vorbereitet ist.
Die strategische Personalplanung kann als Schnittstelle zwischen der strategischen Untemehmensplanung und der operativen Personalplanung angesehen werden. Sie stellt die Leitfunktion für personalwirtschaftliches Handeln dar. Zur notwendigen Zielerreichung muss die strategische Personalplanung in Einklang mit der strategischen Unternehmensführung stehen. Die operative sowie taktische Personalplanung bezieht sich hingegen auf die Erfüllung der aktuellen Aufgaben, die z.B. aus dem Absatz- und Produktionsprogramm ableitbar sind. Die Personalbedarfsplanung berücksichtigt somit unterschiedliche Aspekte, wie Entwicklung der Altersstruktur, Fluktuationsrate, Auftragslage, Situation auf dem Arbeitsmarkt sowie politische und gewerkschaftliche Einflussgrößen.
585
Personalplanung 5. Personalplanung und Mitbestimmung Die Personalplanung eines Unternehmens ist insbesondere nach § 92 BetrVG mitbestimmungspflichtig. Demnach hat der Arbeitgeber den -> Betriebsrat vor allem bezüglich des gegenwärtigen und zukünftigen Personalbedarfs sowie über die personellen Maßnahmen zu unterrichten. Der Betriebsrat kann dem Arbeitgeber Vorschläge für die Einfuhrung einer Personalplanung, verbunden mit Maßnahmen zu deren Durchführung unterbreiten. Vor allem in Großunternehmen nehmen die Betriebsräte Einfluss bei Maßnahmen der Bedarfsdeckungsplanung und somit auf die betriebliche Beschäftigungspolitik. 6. Problemfelder der Personalplanung Die gegenwärtige Praxis der Personalplanung weist entscheidende Schwachstellen auf. Dazu sind u.a. zu nennen: •
• •
• •
•
Quantitativ unvollständige und qualitativ unbefriedigende Informationsgrundlagen Dominanz intuitiver gegenüber analytischen Methoden Mangelnde oder unzureichende Integration der Personalplanung in die Untemehmensplanung Vorrang der partiellen gegenüber der totalen Personalplanung Bevorzugung der kurzfristigen gegenüber der mittel- und langfristigen Personalplanung Anwendungsdefizit der Personalplanung insbesondere in Klein- und mittelständischen Betrieben.
Literatur: Bosch, G. u.a.: H a n d b u c h der Personalplanung, Ein praktischer Ratgeber, Köln 1995; Elsik, W.: Strategisches Personalmanagement, Konzeption und Konsequenzen, München 1992; Hentze, J./Kammel, A.: Personalcontrolling, Bern u.a. 1993; Mag, W.: Einführung in die betriebliche Personalplanung, 2. Aufl., München 1998; Scholz, C.: Personalmanagement: informationsorientierte und verhaltenstheoretische Grundlagen, München 1994; Wimmer, P./Neuberger, O.: Personalwesen 2, Personalplanung, Beschäftigungssysteme, Personalkosten, Personalcontrolling, Stuttgart 1998; Wimmer, P.: Personalplanung: problemori-
586
Personalpolitik, internationale entierter Überblick - theoretische Vertiefung, 2. Aufl., Stuttgart 1991; Wittlage, H.: Personalbedarfsermittlung, München und Wien, 1995.
Karl-Friedrich Ackermann/Roland Lober Personalpolitik, internationale 1. Einleitung Die internationale Personalpolitik befasst sich mit der dauerhaften Sicherstellung des geeigneten Managementpersonals in international tätigen oder multinationalen Unternehmen (MNU). Sie bezieht sich auf alle Aktivitäten, die die generischen Personalfunktionen - die Personalgewinnung, Personalerhaltung und -> Personalentwicklung - umfassen. Die "internationalen" Führungskräfte müssen qualifiziert und in der Lage sein, im In- und Ausland Aufgaben des internationalen Managements wahrzunehmen, welches die Gründung und Führung von —> Auslandsgesellschaften im Rahmen von -> Direktinvestitionen zum Gegenstand hat (-» Management, internationales). Die Entwicklung der speziellen Probleme der internationalen Personalpolitik muss folglich in Verbindung mit dem Konzept des internationalen Managements erfolgen. Dies lässt sich bekanntlich am besten durch zwei analytisch getrennte, aber inhaltlich miteinander im Komplementärverhältnis stehende Interaktionsmodelle darstellen: 1. Interaktion der M N U mit der Umwelt der Gastländer, in denen sie tätig ist. Dadurch bedingt ist die Notwendigkeit zur Anpassung des Managements (Strategie der lokalen Anpassung). 2. Interaktion der weltweit gestreuten Auslandsgesellschaften der MNU mit dem Stammhaus und untereinander. Daraus resultiert das Erfordernis der internationalen Koordination oder Integration des Managements (Strategie der globalen Koordination/Integration). Entsprechend diesem theoretischen Modell müssen die Personalfunktionen der
Personalpolitik, internationale
Personalpolitik, internationale internationalen Personalpolitik danach untersucht werden, ob und inwieweit sie •
•
den lokalen Bedingungen der Gastländer angepasst bzw. im Rahmen der globalen Personalpolitik koordiniert sind und in ihrer instrumentellen Funktion zur Globalisierungsstrategie, die die beiden Strategien im Management miteinander kombiniert, einen Beitrag leisten (Bartlett/Ghoshal 1989).
Aus den generischen Personalfunktionen ergeben sich konkret die folgenden Aufgaben und Problemfelder: Identifizierung der Rekrutierungsquellen und Entwicklung von Auswahlkriterien (Personalgewinnung), Festlegung von Beurteilungsmaßstäben und des Entwicklungsbedarfs (Personalentwicklung) und Entwicklung von Entlohnungs- und Anreizsystemen (Personalerhaltung, s.a. -» Entgeltmanagement). 2. Personalgewinnung: Rekrutierung und Aliswahl Im Mittelpunkt bei der internationalen Rekrutierung steht die Frage der Nationalität der Führungskräfte. Dabei kommen für die internationale Stellenbesetzung grundsätzlich drei Möglichkeiten in Betracht: Angehörige des Stammlandes, des Gastlandes und von Drittländern. Dabei wird von Stammhaus- und Stammlandangehörigen erwartet, dass sie stärker den Anforderungen entsprechen, die von einer Koordinationsstrategie (Kumar 1992) verlangt werden. Manager aus dem Gastland werden dagegen i.d.R. eher den Anforderungen der lokalen Anpassung gerecht. In Anlehnung an die beiden Grunddimensionen der strategischen internationalen Personalpolitik lassen sich die Auswahlkriterien für Führungspositionen in M N U bestimmen. Sie werden j e nach Strategievariante unterschiedlich gewichtet. •
Die Koordination und die damit verbundene Aufgabe des Know-how- und
•
Ressourcentransfers sind nur auf der Grundlage guter Fachqualifikation und organisatorischer Fähigkeiten möglich, die Fachwissen genauso wie Anwendungsvermögen voraussetzen. Die lokale Anpassung ist mit Aufgaben verbunden, die von Stelleninhabern eine Auseinandersetzung mit fremden Kulturen und fremdländischen Menschen sowie eine entsprechende Verhaltensauffassung erfordern.
Die mit den Koordinationsaufgaben verbundenen Qualifikationen erfordern gute Kenntnisse des Unternehmens und seiner Politik und Kultur, was die Bedeutung der tätigkeitsbezogenen Merkmale hervorhebt. Da die Koordination vor allem auf intersubsidiären Austauschbeziehungen beruht, werden außerdem hohe Anforderungen an die internationale Mobilität der Manager gestellt, die häufig an wechselnden Standorten und für längere Zeit im Ausland eingesetzt werden müssen. Die Anpassung der Tätigkeit an die lokalen Bedingungen andererseits setzt ein intensives Engagement mit dem ausländischen Umfeld und kulturelle Empathie voraus und lässt deshalb die personenbezogenen Merkmale und die interkulturellen Fähigkeiten wichtig erscheinen. Daneben sind für beide Strategien interkulturelle Kompetenzen in unterschiedlichem Maße wichtig. Die nachfolgende Darstellung fasst die vorangegangenen Überlegungen zusammen. Insofern als die Koordinationsstrategie und die betreffenden Aufgaben in den Auslandsgesellschaften dominierend sind, wird der Einsatz von Stammhausmitarbeitern im Ausland erforderlich. Dabei ist die Auslandsentsendung - wie verschiedene Studien (Kumar/Steinmann 1986) mit Praxisbeispielen zeigen - nicht unproblematisch. Probleme der Eingewöhnung, die hohen Kosten der Entsendung und die schwierige Frage der lokalen Akzeptanz der Entsandten können den Einsatzerfolg stark gefährden. 587
Personalpolitik, internationale
Personalpolitik, internationale
Anforderungs-/Auswahlkriterien für internationale Fach-/ Führungskräfte Anforderungs-/Auswahlkriterien Aufgaben Interaktion mit dem Stammhaus: Sicherstellung der Koordination/Integration Aufgaben: Know-how-/ Ressourcentransfer, einheitliche Berichterstattung, einheitliche Führung, Entwicklung eines Bewusstseins globalen bei den Führungskräften
Interaktion mit dem Gastland: Anpassung des Niederlassungsmanagements an lokale Bedingungen Aufgaben: Aneignung von Know-how im Ausland, Entwicklung der Managementfähigkeiten
Tätigkeitsbezogen
Interkulturell
Personenbezogen
Internationale Mobilität
z.B.
z.B.
z.B.
z.B.
Fähigkeit, Fachwissen im integrierten Rahmen anzuwenden, Fachwissen über Technologie, Managementmethoden
Fähigkeit, vom eigenen Bezugsrahmen zu abstrahieren, Erkennen von intercultural universals, Fähigkeit, die Anpassungsnotwendigkeit von Technologien zu erkennen z.B.
Loyalität, Koordinationsvermögen, Abstraktionsfähigkeit, Selbstdisziplin, Flexibilität, Organisationsvermögen, Geduld
Bereitschaft, häufig zwischen Stammhaus und Niederlassung zu pendeln, familiäre und sonst. Bindungen, Einstellung des Ehepartners zum Auslandsaufenthalt z.B.
für fachliche Fähig- Sensibilität keit, Technologie fremde Kulturen, und Produkte an Sprachkenntnisse die Bedürfnisse der Gastländer anzupassen
physische und psychische Belastbarkeit, Motivation, Improvisationsvermögen
z.B.
z.B.
Einstellung des Ehepartners zum Auslandsaufenthalt
Q u e l l e : E i g e n e D a r s t e l l u n g , in A n l e h n u n g an K u m a r / H o f f m a n n 1998.
Die beste Gewähr für einen präsumtiven Erfolg ist nach wie vor die richtige Personalauswahl. Es muss vor allen Dingen sichergestellt werden, dass der Entsandte eine positive Einstellung zum Auslandseinsatz hat. Es zeigt sich, dass Unternehmen diese Einstellung durch die Inaussichtstellung einer Laufbahn, in der die im Ausland erworbenen Erfahrungen und Qualifikationen gewürdigt werden, unterstützen können. Dies bedeutet allerdings, dass die Rückkehr und Reintegration bereits zusammen mit der Entsendung geplant werden. Ein weiterer wichtiger Faktor ist die Familie des Entsandten, da deren Zufriedenheit den Arbeitseinsatz des Entsandten vor Ort maßgeblich beeinflussen kann. 3. Personalerhaltung: Entlohnung Das Entlohnungssystem, in dem monetäre und nicht monetäre Komponenten ent588
halten sind, soll so gestaltet sein, dass es sowohl den Strategieanforderungen und dem Leistungsgrad gerecht wird als auch die Mitarbeiter motiviert, so zu handeln, dass es dem Unternehmen hilft, seine Strategie zu formulieren und zu realisieren. Bei internationalen Positionen, die mit Auslandseinsätzen verbunden sind, muss auch berücksichtigt werden, dass genügend hohe geldliche und nicht-monetäre Anreize oft erst die -* Motivation für die Annahme von Auslandsstellen schaffen. Dies hängt dabei vor allem mit Hindernissen zusammen, die im familiären Bereich liegen. Zwar rangiert bei Führungskräften das Einkommensmotiv für die Annahme von Auslandpositionen hinter aufgabenbezogenen Beweggründen (Kumar 1992), doch ist die Rolle der Entlohnung für die Motivation unumstritten.
Personalpolitik, internationale
Personalpolitik, internationale Aus den beiden Dimensionen Koordination und lokale Anpassung werden die lohnrelevanten Anforderungen abgeleitet. Die strategiegerechte Entlohnung muss jeweils an den Merkmalen der Strategie und den daraus resultierenden Anforderungen orientiert sein. Beispielsweise können Anreizsysteme an die erzielte Effizienz von Verbundeffekten oder an die Zufriedenheit der lokalen Mitarbeiter (-»Mitarbeiterzufriedenheit) mit dem Führungsstil der Entsandten geknüpft werden. und Personal4. Personalbeurteilung entwicklung Die personalpolitische Aufgabe besteht darin, Personalbeurteilungsmaßstäbe zu entwickeln, die den diversen Facetten des strategischen Modells der internationalen Personalpolitik Rechnung tragen. Sie sollen geeignet sein, Auskunft zu geben, ob und inwieweit eine Führungskraft in einer internationalen Position den Anforderungen der globalen Koordination bzw. der lokalen Anpassung in der spezifischen Situation gerecht wurde. In Anlehnung an die Grundkonzeption der Personalbeurteilung werden drei Ansätze (Steinmann/Schreyögg 1997) vorgeschlagen: 1. Eigenschaftsansatz. Im Mittelpunkt steht die Persönlichkeit der internationalen Führungskraft. Dieser Ansatz erscheint im Zusammenhang mit der -> Globalisierung zweckmäßig und relativ zuverlässig, weil die relevanten personenbezogenen Anforderungen ziemlich spezifisch und die dazugehörigen Eigenschaften relativ leicht zuzuordnen sind. So kann als Beurteilungskriterium für die Integration das Koordinationsvermögen, für die Anpassung Belastbarkeit verwendet werden (s. Abb.). 2. Tätigkeitsorientierter Ansatz. Zu bewerten ist die Art des Tätigkeitsvollzugs der internationalen Führungskraft. Ausgangspunkt bilden
-
Wissenstransfer und Durchsetzung von Veränderungen (Koordination) sowie
-
Verhaltensanpassung (lokale Anpassung). Die ihnen zu Grunde liegenden Einzelaktivitäten verkörpern die Grundlage für den Beurteilungsmaßstab, so z.B. Entwicklung eines einheitlichen Berichtswesens als Indikator für die Koordination oder Entwicklung lokaler Technologien für die Anpassung.
3. Ergebnisorientierter Ansatz. Gegenstand der Beurteilung bildet das Resultat der Tätigkeit. Es gilt, dafür Maßstäbe zu vereinbaren, die die Konsequenzen der Globalisierung widerspiegeln. Im Zusammenhang mit der lokalen Anpassung können je nach Umfeld der Gastländer erfolgreich vermarktete Produktvarianten, für die Bewertung der Ergebnisse der globalen Koordination z.B. der Anteil der Transferleistungen innerhalb des globalen Unternehmensverbundes herangezogen werden. Die durch die Personalbeurteilung identifizierten Defizite im Management bilden bekanntlich die Grundlage für die Personalentwicklung. Die Personalentwicklungsarbeit zur Förderung von (lokalen) Verhaltensanpassungen wird zwangsläufig das interkulturelle Training einschließen. Betrachtet man die Anforderungen der globalen Koordination, so muss im Mittelpunkt die Vermittlung von Kenntnissen und Fertigkeiten stehen, die das Verhalten der Führungskräfte auf eine unternehmenseinheitliche Weise prägen. Die hier eingenommene strategische Perspektive der internationalen Personalpolitik wird in Zukunft von einer ethischen ergänzt werden müssen. Bekanntermaßen bahnen sich in Verbindung mit der Globalisierung Probleme und Konflikte an, die nur auf der Grundlage interkultureller Verständigung gelöst werden
589
PIMS-Datenbank
Personalpolitik, internationale können. Vom internationalen Personalmanagement wird in viel stärkerem Maße als heute verlangt werden, dass es Methoden und Qualifikationsmerkmaie entwickelt und einsetzt, die diesen Prozess des Verstehens und der Veränderung (Kumar/Hoffmann 1999, Kumar/Graf 1998) fördern. Literatur: Bartlett, C./Ghoshal, S.: Managing across Borders, Boston/Mass 1989; Kumar, B.N.: Personalpolitische Herausforderungen für im Ausland tätige Unternehmen, in: Dichtl, E./Issing, 0 . (Hrsg.): Exportnation Deutschland, 2. Aufl., München 1992; Kumar, B.N./Graf, I.: Globalization, Development and Ethics: Moral responsibility and Strategies of International Management in the Perspective of 'Sustainable Development', in: Kumar, B.N./Steinmann, H. (Hrsg.): Ethics in International Management, Berlin/New York 1998; Kumar, B.N./Hoffmann, K.: Anforderungen an international einsetzbare kaufmännische Führungs(nachwuchs-)kräfte, in: Groenewald, H. (Hrsg.): Ausbildung, Beschäftigung und Karrieren von Wirtschaftswissenschaftlern i m internationalen Vergleich, Wiesbaden 1998; Kumar, B. N./Steinmanri, H.: Managementkonflikte zwischen entsandten und lokalen Führungskräften in deutschen und japanischen Unternehmungen, in: Zeitschrift für Betriebswirtschaft, 56. Jg., Heft 12/1986; Steinmann, H./Schreyögg, G.: Management, 4. Aufl., Wiesbaden 1997.
Brij Nino Kumar/Karen Birkmann Personengesellschaft Die Personengesellschaft ist eine privatrechtliche Gesellschaftsform, die im Gegensatz zur -> Kapitalgesellschaft keine eigene (juristische) Person darstellt. Damit hängt ihre Existenz von den Gesellschaftern ab. Diese haften für Verbindlichkeiten mit ihrem Privatvermögen (Ausnahme: Kommanditisten einer Kommanditgesellschaft). Zu den Personengesellschaften gehören die -> Gesellschaft bürgerlichen Rechts (GbR), die -» Offene Handelsgesellschaft und die oben bereits erwähnte Kommanditgesellschaft (KG). Personenspezifisches Involvement -> Involvement Persönlichkeitstheorien -> Menschenbilder 590
PERT -* Projektmanagement, Netzplan Peter-Prinzip Karriereplanung Phantompläne -> Optionsplan PIMS-Datenbank 1. Aufbau der PIMS-Datenbank Die PIMS-Datenbank enthält Daten von über 3.000 —> strategischen Geschäftseinheiten aus Nordamerika, Europa und Ostasien, gesammelt im Rahmen des PIMS-Programms. Unter einer strategischen Geschäftseinheit wird dabei ein vom Produkt her homogener Geschäftsbereich verstanden, der eigenständig auf einem abgegrenzten Markt mit Wettbewerbern konkurriert. Die in der Datenbank erfassten strategischen Geschäftseinheiten lassen sich zahlreichen Branchen, Produkten, Märkten und geographischen Gebieten zuordnen. Jede Geschäftseinheit wird durch ca. 500 quantitative Merkmale beschrieben. Dazu gehören Angaben über Marktcharakteristika (z.B. Marktwachstumsrate, Konzentrationsgrad auf der Anbieter- und der Abnehmerseite, Produktlebenszyklusphase, Kundencharakteristika), Wettbewerbsposition (z.B. relativer und absoluter Marktanteil, relative Produktqualität, relativer Preis, relativer Patentvorteil), Kapitalund Produktionsstruktur (z.B. Investitionsintensität, Zusammensetzung der Investitionen, Produktivität, Grad der vertikalen Integration, Kapazitätsauslastung, Herstellkosten bezogen auf den Umsatz, Forschungs- und Entwicklungsaufwand bezogen auf den Umsatz), allgemeine Unternehmensmerkmale (z.B. Unternehmensgröße, Diversifikationsgrad) und Ergebnisgrößen (z.B. Gewinn, Return on Investment (ROI), -> Cash-flow). Durch Anwendung quantitativer Methoden auf die Daten, vor allem der linearen multiplen -> Regressionsanalyse, wurde und wird untersucht, welche Faktoren in welchem Ausmaß die Größen ROI, Ge-
PIMS-Datenbank winn und Cash-flow beeinflussen. Als primäre Kennziffer für den strategischen Erfolg einer Geschäftseinheit wird im Rahmen des PIMS-Programms der ROI angesehen, wobei für dessen Bestimmungsgrößen Gewinn vor Steuern und vor Abzug von Fremdkapitalzinsen sowie durchschnittlich gebundenes Kapital jeweils Durchschnittswerte über vier Jahre benutzt werden. Weiter wurden Modelle entwickelt, mit deren Hilfe zum einen die erzielten Ergebnisse einer Geschäftseinheit hinsichtlich der dafür verantwortlichen Faktoren analysiert und zum anderen mögliche Strategien auf den damit verbundenen ROI und Cash-flow untersucht werden können. 2. Wesentliche Ergebnisse Auf der Grundlage einer multiplen Regressionsanalyse konnten etwa 40 Variablen identifiziert werden, die zusammen ca. 80% der Varianz des ROI erklären, wobei die Angaben zur Anzahl der Variablen und zum Ausmaß der erklärten Varianz in den Veröffentlichungen schwanken. Die wichtigsten der Determinanten des ROI sind aber über die Veröffentlichungen und über die Jahrzehnte der Projektlaufzeit hinweg dieselben. Auch die Angaben über das Ausmaß ihres Einflusses sind nur unwesentlich verschieden. Als strategische Schlüsselfaktoren, die 65% der Varianz des ROI erklären, werden vom SPI (vgl. www.thespinet.org, 2000) folgende Größen angegeben: absoluter Marktanteil, relativer Marktanteil (relativ zu den drei größten Konkurrenten), relative Qualität, relativer Preis, Marketingaufwendungen bezogen auf den Umsatz, Kundenkonzentration, Einkaufsvolumen pro Kunde, Konzentration der Anbieter, Anteil der neuen Produkte am Umsatz, Forschungs- und Entwicklungsaufwand bezogen auf den Umsatz, reales Marktwachstum, Investitionsintensität (durchschnittlich gebundenes Kapital bezogen auf den Umsatz), durchschnittlich gebundenes Kapital bezogen auf die
PIMS-Datenbank Wertschöpfung, Anschaffungswert der Sachanlagen bezogen auf das durchschnittlich gebundene Kapital, Produktivität (Wertschöpfung bezogen auf die Anzahl der Beschäftigten), Forderungen bezogen auf das durchschnittlich gebundene Kapital, Kapazitätsauslastung, vertikale Integration (Wertschöpfung bezogen auf den Umsatz). Zwischen den strategischen Schlüsselgrößen und den Zielgrößen ROI, Gewinn und Cash-flow wurden folgende wesentliche Zusammenhänge aufgedeckt: •
•
• •
•
•
Sowohl mit zunehmendem absoluten als auch mit zunehmendem relativen Marktanteil steigen ROI, Gewinn und Cash-flow. Mit steigender relativer Produktqualität nehmen der ROI und der Cash-flow zu. Die relative Produktqualität wird dabei aufgrund von Kundeneinschätzungen der von der Geschäftseinheit angebotenen Produkte im Vergleich zu den Konkurrenzprodukten bestimmt. Mit steigender Investitionsintensität fallen der ROI und der Cash-flow. In reifen und stabilen Märkten steigt der ROI mit zunehmender vertikaler Integration, in stark wachsenden, schrumpfenden und schwankenden Märkten gilt das Gegenteil. Unternehmen mit einer höheren Produktivität weisen gewöhnlich einen höheren ROI und einen höheren Cashflow auf als solche mit einer niedrigeren Produktivität. Das Marktwachstum hat einen positiven Einfluss auf den Gewinn in absoluten Zahlen, einen indifferenten Einfluss auf den ROI und einen deutlich negativen Einfluss auf den Cash-flow.
Die Wirkungen der einzelnen Faktoren dürfen nicht isoliert gesehen werden, da sie einander teilweise verstärken, aber auch gegenseitig aufheben können. So ergibt sich etwa bei Maßnahmen zur Erhöhung der Produktivität, die mit einer Erhöhung der Investitionsintensität ver591
PIMS-Datenbank
PIMS-Datenbank bunden sind, insgesamt eine negative Auswirkung auf den ROI und den Cashflow. Das komplexe Zusammenwirken der Bestimmungsgrößen des Erfolgs wird in verschiedenen Modellen zur Unterstützung der strategischen Planung erfasst. 3. Nutzungsmöglichkeiten Auf der Grundlage der PIMS-Datenbank lassen sich mit Hilfe einer Reihe von Modellen strategische Analysen durchfuhren. Das PAR-Modell berechnet mittels einer multiplen Regressionsgleichung, die etwa 200 Variablen enthält, für eine Geschäftseinheit den normalen bzw. par-ROI, d.h. den ROI, der üblicherweise von Geschäftseinheiten mit dem gleichen Profil strategischer Merkmale erzielt wird. Es wird auch angegeben, welche Einflussfaktoren fur die Höhe des ROI verantwortlich sind und wie hoch ihr Einfluss ist, so dass strategische Stärken und Schwächen aufgedeckt werden. Das Limited Information (LIM)-Modell basiert auf ca. 20 Eingabedaten und erzeugt mit Hilfe eines vereinfachten Regressionsmodells analoge Ergebnisse wie das PARModell. Da die für das LIM-Modell erforderlichen Daten auch für strategische Geschäftseinheiten der Konkurrenz beschaffbar sind, ist dieses Modell insbesondere für die Konkurrenzanalyse von Bedeutung. Die Look-Alike-Analyse dient zur Identifikation von Erfolg versprechenden und nicht Erfolg versprechenden strategischen Maßnahmen. Hierzu werden aus der Datenbank die Geschäftseinheiten herausgesucht, die ein ähnliches Merkmalsprofil wie die zu untersuchende Geschäftseinheit aufweisen, und in erfolgreiche sowie erfolglose gruppiert. Anschließend wird ermittelt, bezüglich welcher Faktoren sich die erfolgreichen von den erfolglosen Geschäftseinheiten unterscheiden. Die Konsequenzen strategischer Entscheidungen können mit Hilfe des Strategy Analysis- und des Optimum StrategyModells prognostiziert werden. Das Strategy Analysis-Modell simuliert fiir einen 592
Geschäftsbereich die Ergebnisse möglicher Strategien, wobei hierzu aus der Datenbank Geschäftseinheiten herangezogen werden, die ein ähnliches strategisches Profil aufweisen und für die eine ähnliche Strategie verfolgt wurde. Als Ergebnisgrößen werden etwa der mit der Strategie verbundene ROI und Cash-flow betrachtet. Das simulationsgestützte Optimum Strategy-Modell dient zur Ermittlung von Bündeln strategischer Maßnahmen, insbesondere von Veränderungen des Marktanteils, der vertikalen Integration und der Investitionsintensität, die eine optimale Zielerreichung bezüglich vorzugebender Erfolgsgrößen ermöglichen sollen. 4. Kritik des PIMS-Konzeptes Gegen das PIMS-Programm werden eine Reihe von Einwänden erhoben. Kritikpunkte sind vor allem •
•
•
•
unzureichende Transparenz, da die genaue Modellstruktur und detaillierte statistische Ergebnisse nicht veröffentlicht worden sind mangelnde Modelladäquanz, da die bei einer multiplen linearen Regressionsanalyse erforderliche Unabhängigkeit der erklärenden Variablen durch erhebliche Multikollinearitäten beeinträchtigt ist Verwischung der Unterschiede zwischen verschiedenen Branchen und Industriezweigen durch die branchenübergreifende Querschnittsanalyse in einer Reihe von Studien wurde nachgewiesen, dass auch bei einem kleinen Marktanteil ein hoher ROI möglich ist.
Dennoch ist die PIMS-Studie bislang der umfassendste Versuch, Einsichten in das komplexe Feld der strategischen Erfolgsfaktoren zu gewinnen. Die Ergebnisse der Studie sind auch weniger als Erfolgsrezepte, sondern vielmehr als empirisch fundierte Orientierungshilfen zu verstehen. Literatur: Buzzell, R.D./Gale, B.T.: The PIMS Principles: Linking Strategy to Performance, New
PIMS-Datenbank York 1987; Neubauer, F.F.: Das PIMS-Programm und Portfolio-Management, in: Hahn, D./Taylor, B. (Hrsg.): Strategische Unternehmensplanung, 7. Aufl., Heidelberg, 1997; Venohr, B: "Marktgesetze" und strategische Unternehmensfuhrung: Eine kritische Analyse des PIMS-Programms, Wiesbaden, 1988.
Hans Ziegler PIMS-Programm Das PIMS-Programm ( P I M S = Profit Impact of Market Strategy) wurde 1960 als internes Projekt der General Electric Company zur Identifizierung der Bestimmungsgrößen des Erfolgs ihrer -> strategischen Geschäftseinheiten gestartet. Von 1972 bis 1975 wurde es vom Marketing Science Institute der Harvard Business School auf mehrere Unternehmen erweitert. Seit 1975 wird das PIMSProgramm von einem eigenständigen Institut, dem Strategie Planning Institute (SPP) - www.thespinet.org - weitergeführt. In Europa gibt es mehrere Zweigniederlassungen des SPI - www.pimseurope.com Ziel der branchenübergreifenden Studie des PIMS-Programms ist es, empirische Gesetzmäßigkeiten zu finden, die unabhängig von der Branche und dem Produkt den Erfolg oder Misserfolg einer strategischen Geschäftseinheit bestimmen, um daraus Hinweise für Strategien ableiten zu können, die generell anwendbar sind. Grundlage für die Ermittlung erfolgsrelevanter Faktoren und deren Einfluss auf den Erfolg ist eine umfangreiche Datenbank (-> PIMS-Datenbank). Diese Datenbank bildet auch die Basis für strategische Diagnose- und Prognosemodelle. Hans Ziegler Plankostenrechnung Die Plankostenrechnung ist ein Kostenrechnungssystem des internen Rechnungswesens, der Kosten und Leistungsrechnung. Die Plankostenrechnung rechnet mit den geplanten Kosten. Daher ist in diesem Rechnungssystem eine Kostenkontrolle möglich, wenn man geplante und tatsächlich entstandene
Planung Istkosten (-* Istkostenrechnung) einander gegenüberstellt. Man unterscheidet die starre und die flexible Plankostenrechnung. Bei der starren Form werden die Kosten für ein bestimmtes Beschäftigungsniveau (Auslastungsniveau) geplant, bei der flexiblen Rechnung werden Kosten flir mehrere mögliche Auslastungsgrade ermittelt. Planung 1. Definition von Planung und Plan Planung ist ein geordneter informationsverarbeitender Prozess zur Erstellung eines Entwurfs, der Ziele und Aktivitäten zur Erfüllung dieser Ziele vorausschauend festlegt. (Schweitzer 1983, S. 102). Der Entwurf, der den Planungsprozess dokumentiert und alle Informationen enthält, die zur Durchführung der vorgegebenen Aktivitäten notwendig sind, wird als Plan bezeichnet. 2. Funktionen der Planung Folgende Funktionen kommen der Planung zu: -
Kreativitätsfunktion Festlegungsfunktion Koordinationsfunktion Sicherungsfunktion Motivationsfunktion
3. Vorteile und Nachteile der Planung • Vorteile Planung erfordert ein gründliche und umfassende Entscheidungsvorbereitung und ermöglicht so eine systematische Abstimmung der unternehmerischen Aktivitäten. Innerhalb der durch den Plan vorgegebenen Grenzen verfügen die mit der Durchführung befassten Personen über einen relativ großen Handlungsspielraum. Werden für wahrscheinlich gehaltene Situationen in der Zukunft Szenarien geplant, werden die Entscheidungsträger in die Lage versetzt sofortige Anpassungen an die neue Situation vorzunehmen. Dies führt zu einer Erhöhung der Effizienz der Entscheidungsträger.
593
Planung •
Nachteile Die Planung befasst sich nur mit vorhersehbaren Situationen und ist daher im Vergleich zur Improvisation mit einer höheren Unsicherheit hinsichtlich ihrer Anwendbarkeit versehen. Im Vergleich zur Improvisation ist die Planung aufwendiger und damit kostenintensiver.
Als Ergebnis der Vor- und Nachteile der Planung wird gefordert die Improvisation als Planungsergänzung fiir Entscheidungen zu verwenden, bei denen sich eine Planung nicht lohnt, und als Planungsersatz, wenn unerwartete Situationen eintreten.
Planung "Kann". Die letzte Planungsphase der Entscheidung beinhaltet die Bewertung der Alternativen und die anschließende Entscheidung bzgl. der Auswahl der geeignetsten Alternative - Bestimmung des "Soll Sein". Die sich anschließende Implementierung der Entscheidung wird nicht mehr zum Planungsprozess gezählt. (Töpfer 1976, S. 81)
5. Zeitliche Aspekte der Planung •
Länge des Planungszeitraums Hinsichtlich der Fristigkeit der Planung bzw. den Planungsstufen unterscheidet man nach langfristiger bzw. strategischer Planung (drei und mehr Jahre), mittelfristige bzw. taktische Planung (ein bis drei Jahre) und kurzfristige bzw. operative Planung (bis zu einem Jahr).
•
Geltungsdauer der Planung Betrachtet wird der Planungszyklus, d.h. der Rhythmus, in dem eine Planung neu durchgeführt bzw. überarbeitet (revidiert) wird. Zu unterscheiden ist:
4. Phasen des Planungsprozesses Der Planungsprozess beginnt mit der Zielplanung, welche die Zielsuche und der Bildung eines Zielsystems umfasst. Dieser erste Planungsschritt definiert das "Soll", d.h. das mit der Planung zu erreichende Ergebnis. An die Zielplanung schließt sich die Lageanalyse an, die das Unternehmen und die Unternehmensumwelt als Gegenstand der Analyse hat. Hier wird das "Ist" definiert - die Ausgangslage, die die Basis für die weitere Planung bildet. Dem "Ist" der Lageanalyse wird das "Wird" der Lageprognose gegenüber gestellt. Für das Unternehmen und die Unternehmensumwelt werden Entwicklungspfade dargestellt, die eintreten würden, wenn keine Aktivitäten unternommen würden. Die nächste Phase der Problemformulierung stellt "Soll-Ist"und "Soll-Wird"-Vergleiche an und arbeitet mittels dieser Abweichungsanalyse mögliche Ziellücken heraus. Ziellücken sind Diskrepanzen zwischen dem Anspruchsniveau des "Soll" und dem gegenwärtigen bzw. dem vermeintlichen zukünfitgen Zustand des "Ist" bzw. "Wird". Die Phase der Alternativenplanung zielt auf die Beseitigung dieser Ziellücke ab. Es wird in dieser Planungsphase nach Alternativen gesucht, die das Potenzial haben, die zuvor definierten Ziele zu erreichen - Festlegung des
594
a) Starre Planung ohne Revisionsmöglichkeit Eine Reihung von Plänen, bei denen eine Anpassung des jeweils folgenden Plans erst nach Ablauf des vorangegangenen Plans möglich ist. b) Starre Planung mit Revisionsmöglichkeit Eine Staffelung von Plänen, die sich für einen bestimmten Zeitraum überlappen. Eine Anpassung der Pläne ist in dem Zeitfenster möglich, in dem sich vorangehender und folgender Plan überlappen. Es ist auch eine rollierende Planung denkbar, die bspw. aus drei aufeinander folgenden Plänen besteht. Nach Ablauf des ersten Planes werden die beiden folgenden Teilpläne überarbeitet und ein neuer dritter Plan an das Ende angefügt. Hinsichtlich des Anpassungszeitpunktes von Plänen auf eine Informationsänderung
Poka Yoke
Planung unterscheidet man in Batch- und Net-Change-Planung. Bei der Batch-Planung erfolgt eine Revision des Planes nur zu vorher bestimmten Zeitpunkten - auch dann, wenn zu einem früheren Zeitpunkt eine bedeutende Informationsänderung eingetreten ist. Die NetChange-Planung ist im Gegensatz zur Batch-Planung nicht zeitpunktorientiert, sondern ereignisorientiert. Bei der Net-Change-Planung werden Informationsänderungen durch sofortige Planüberarbeitungen in der Planung berücksichtigt. c) Flexible Planung Im Rahmen der flexiblen Planung werden vorab definierten möglichen Umweltzuständen Eintrittswahrscheinlichkeiten und damit verbundene Handlungsalternativen sowie damit verbundene Handlungsergebnisse zugeordnet. Es wird die Handlungsalternative gewählt, die unter Berücksichtigung der Eintrittswahrscheinlichkeiten, den höchsten Ergebniswert aufweist. 6. Koordination horizontal differenzierter Teilplanungen Hinsichtlich der Koordination horizontal differenzierter Teilplanungen unterscheidet man in: a) Simultanplanung, die den Interdependenzcharakter der zu planenden Teilsysteme wahrt, indem alle Entscheidungsvariablen gleichzeitig als variabel betrachtet und geplant werden. b) Sukzessivplanung, bei der jeder Teilplan auf einem sachlichen oder zeitlichen Vorgänger basiert, wobei die vorangehenden Pläne für die nachfolgenden Pläne vorgegebene Daten sind. 7. Integration hierarchisch differenzierter Planungen Hinsichtlich der Integration hierarchisch differenzierter Planungen unterscheidet man in:
a) Retrogrades Verfahren (Top-DownPlanung) Unter inhaltlichen Aspekten werden aus den strategischen Plänen taktische und operative Pläne abgeleitet. Der langfristig angelegte Plan wird somit in detailliertere kurzfristigere Pläne heruntergebrochen (-> Top-Down-Planung). b) Progressives Verfahren (BottomUp-Planung) Aus den operativen und taktischen Plänen wird unter inhaltlichen Aspekten ein weniger differenzierter strategischer Plan entwickelt. Die Pläne werden somit auf der nächst höheren Stufe zusammengefasst und koordiniert Bottom-UpPlanung) c) Zirkuläres Verfahren (Gegenstromverfahren) Es werden die unter a) und b) beschriebenen Verfahren kombiniert. Es erfolgt i.d.R. ein retrograder Vorlauf, der in einem progressiven Rücklauf korrigiert und ergänzt wird (-» Gegenstromverfahren) Literatur: Schweitzer, M.: Planung, in: Bea, F.X./Dichtl, E./Schweitzer, M . (Hrsg.): Allgemeine Betriebswirtschaftslehre, Bd. 2, Stuttgart, New York 1983, S. 101-150. Töpfer, A.: Planungs- und Kontrollsysteme industrieller Unternehmungen, Berlin 1976, S. 80-84. Welge, M.K./Al-Laham, A.: Planung, Wiesbaden 1992.
Planung, strategische -* Unternehmensfiihrung Plug-in Ein Plug-in ist ein Zusatzprogramm, welches den zum "Surfen" im Internet verwendeten Standard-Browsern ( - » W W W Browser) über definierte Schnittstellen weitere Funktionalitäten von Drittanbietern zur Verfügung stellt. Es gibt z.B. Plug-ins zur Darstellung komprimierter Animationen und Videosequenzen, aber auch zur Erzeugung virtueller Welten (-> Virtual Reality; -> VRML). Poka Yoke Poka Yoke ist ein aus Japan stammendes Konzept zur Vermeidung zufalliger Fehler. Mittels einfacher technischer Hilfsmittel soll ein Prozess so abgesichert 595
Poka Yoke werden, dass eine irrtumsbedingte Fehlhandlung eines Mitarbeiters nicht zu einem fehlerhafeten Ergebnis fuhrt. Poka Yoke setzt damit an der Fehlerquelle an und lässt den unbeabsichtigten Fehler erst gar nicht entstehen. Muss beispielsweise eine Abgasanlage mit neun Lötpunkten versehen werden, so kann Poka Yoke eine Vorrichtung umfassen, die das Werkstück erst freigibt, wenn wirklich alle neun Lötpunkte gesetzt worden sind. Das unbeabsichtigte Vergessen einer Lötstelle durch den Mitarbeiter wird damit unmöglich gemacht. Polyzentrische Strategie -» Management, internationales Pooling -> Cash-Management Pooling of Interests-Methode ->• Konsolidierung Pop-Up Banner Das Pop-Up Banner ist eine Sonderform der Bannerwerbung. Beim Betreten oder Verlassen einer Internetseite (-> WWW, ^ Internet) öffnet sich ("popup") ein eigenes Fenster mit Werbeinhalt. Die Wirkung der Pop-Up Banner ist umstritten: Unzweifelhaft hat die Werbebotschaft eine sehr hohe Aufmerksamkeit; jedoch sind bei den Internet-Nutzern auf wear-out Effekte bezüglich dieser Werbeform zu beobachten: Das unaufgeforderte Öffnen von Fenstern und das im Vergleich dazu - mühselige manuelle Schließen des Fensters durch den Nutzer verärgert viele. Portal Der Begriff des Portals beschreibt eine große Webpräsenz zu einem übergeordneten (Spezial-)Thema. Portale haben speziell für die Nutzergruppe aufbereitete redaktionelle Inhalte, oftmals über ein Content-Management-System (->• Content Management) präsentiert. Portale weisen in der Regel eine hohe Kundenbindung auf.
596
Portefeuille-Theorie Portefeuille-Theorie 1. Grundlagen: Effizienz und Diversifikation Die Portefeuille-Theorie (PortfolioTheorie) gibt Hinweise für die Optimalgestaltung, -strukturierung von Vermögensanlagen. Wenn auch die Planung von Wertpapier-Portfolios (i.A. sogar verengt auf die Planung von Aktienportfolios) im Mittelpunkt der Überlegungen steht, lassen sich doch die Grundgedanken auf breitere Klassen von Vermögensgegenständen, z.B. auch auf investitionstheoretische Fragestellungen übertragen. Die Theorie beruht auf einer Abwägung von Erträgen, -> Risiken und Kosten von Portfolios; eine weitgehend präferenzfreie Minimalbedingung fiir eine rationale Abwägung besteht in der Effizienzeigenschaft: Ein Portfolio ist effizient, wenn es kein anderes Portfolio gibt, das a) billiger (jedenfalls nicht teurer) ist, b) zu einem höheren (jedenfalls nicht geringeren) Erwartungswert des zukünftigen Vermögens führt und c) ein geringeres (jedenfalls kein höheres) Risiko des Endvermögens induziert (dabei wird das Risiko an der statistischen Varianz gemessen, und nur eine der Ungleichungen muss strikt erfüllt sein, um die Effizienzbedingung zu verletzen). Effiziente Portfolios sind stets diversifiziert, d.h. enthalten im Regelfall sämtliche verfügbaren Anlageformen in allerdings unterschiedlichem Umfang. Man muss sich der Tatsache bewusst sein, dass Effizienz ein relatives Konzept ist: Diese Eigenschaft hängt von den vorhandenen bzw. in die Planung einbezogenen Anlageformen ab, und sie hängt von der spezifischen Ausgangssituation des Investors ab, d.h. davon, ob er über weitere Vermögensgegenstände oder Einkünfte verfügt, die nicht zur Disposition gestellt werden (sollen). 2. Einfache Markowitz-Diversifikation Im einfachsten Fall werden effiziente Portfolios im Zwei-Zeitpunkte-Kontext
Portefeuille-Theorie bestimmt, wenn eine Revision der Dispositionen in ihrem Zielfunktionsbeitrag nicht antizipiert wird. In der klassischen Analyse wird der zu investierende Betrag effizient auf eine gegebene Anzahl von Wertpapieren verteilt, wobei ein Zusammenhang mit schon vorhandenen Einkommensquellen ("exogenes" Einkommen bzw. Vermögen) nicht vorhanden ist oder nicht berücksichtigt wird. In diesem Fall lässt sich jedes effiziente Portfolio durch die individuelle Kombination zweier so genannter Separationsfonds zusammenstellen: Der eine dieser Fonds weist Kovarianzen mit den Wertpapieren gerade in Höhe ihrer Erwartungswerte, der andere in Höhe ihrer Preise auf; der erste Fonds geht immer mit positivem Vorzeichen (höhere Erwartungswerte sind erwünscht), der zweite mit negativem Vorzeichen (höhere Preise sind unerwünscht) in das effiziente Portfolio ein. Im Erwartungswert/Streuungsdiagramm sind die effizienten Kombinationen durch einen hyperbolischen Verlauf gekennzeichnet, wobei höhere Erwartungswerte nur bei Akzeptanz höherer Streuungen erreicht werden können (asymptotisch in linearem Verhältnis). Steht eine risikofreie Anlage zur Verfügung (oder kann sie synthetisiert werden), liegt das Verhältnis, in dem die beiden Fonds kombiniert werden, fest und entspricht der risikofreien Rendite; der resultierende Fonds wird als Tobin-Fonds bezeichnet. 3. Exogenes Vermögen/Einkommen Verfugt der Investor über risikobehaftetes Vermögen oder Einkommen, das nicht marktfähig ist (z.B. Humankapital) oder dessen Disposition vorrangig festgelegt ist (z.B. Realinvestitionsprogramm), so führt die Realisation eines im Sinne von Abschnitt 2 effizienten Portfolios i.A. nicht mehr zu effizienten Gesamtvermögenspositionen. Vielmehr muss zusätzlich zu den beiden Separationsfonds (oder dem Tobin-Fonds) ein individuelles Korrekturportfolio realisiert werden, das die
Portefeuille-Theorie Aufgabe hat, den Teil des exogenen Risikos (Varianz) zu hedgen (-» Hedging), der durch die marktfähigen Wertpapiere (im Sinne einer linearen multivariaten -> Regressionsanalyse) "erklärt" werden kann. Insofern kann der Aufbau eines Wertpapierportfolios dazu dienen, diejenigen Risiken aus einem Realinvestitionsprogramm zu hedgen, die mit marktfähigen Papieren in statistischem Zusammenhang stehen. 4. Dynamische Portfolio-Strategien Bettet man die Portfolio-Entscheidung in einen dynamischen Zusammenhang ein, so ergeben sich interessanterweise ähnliche Effekte wie in Abschnitt 3 bei der Berücksichtigung von exogenem Vermögen. Zusätzlich zu den (über kleine Teilperioden hinweg) im Sinne von Abschnitt 2 effizienten Portfolios werden auch hier Korrekturportfolios erforderlich, die soweit möglich den Einfluss von stochastisch sich ändernden Verteilungsparametern (insbesondere des Zinssatzes und der Kovarianzstruktur der Wertpapiere) und den Einfluss von außergewöhnlichen Preisänderungen (Sprüngen) hedgen. Eine exakte Umsetzung dieser theoretischen Einsichten in eine praktische Portfolio-Strategie dürfte aber derzeit kaum möglich ein. 5. Ergänzende Aspekte Das Vordringen des Risikomanagements auf der Grundlage des so genannten -* Value at Risk fuhrt auch zu einer veränderten oder ergänzenden Betrachtung der Portfolio-Planung. Als zusätzliches Zielfunktionselement tritt nun der Beitrag des Portfolios zu jenem Verlust in Erscheinung, der nur mit geringer Wahrscheinlichkeit überschritten werden soll. Von eigenständiger Bedeutung ist das vor allem dann, wenn Portfolios mit insgesamt deutlich unsymmetrischen Verteilungen in Rede stehen, z.B. wenn gewichtige Optionsbestandteile zu berücksichtigen sind. Jochen Wilhelm
597
Posttest
Portfolio-Management Portfolio-Management Das Portfolio-Management umfasst die Maßnahmen, die ein Unternehmen ergreift, um sein Engagement erfolgsgerecht zu steuern. Im Portfolio des Unternehmens können sich dabei sowohl Beteiligungen an anderen Unternehmen wie auch eigene, operative Engagements befinden. Beim Portfolio-Management geht es im Grunde darum, zu entscheiden, in welche Bereiche das Unternehmen investieren soll. Während es für diese Entscheidung bei rein finanziellen Investitionen seit langem gute Entscheidungshilfen gibt (-> Aktienanalyse, -> Due Diligence), beschränkt sich die Portfolio-Entscheidung bei operativen Engagements im Wesentlichen auf die Portfolio-Matrix-Technik. Dieses Verfahren wurde von der Boston Consulting Group entwickelt, weshalb es auch unter dem Namen BCG-Matrix bekannt geworden ist.
Fragezeichen Stars (Question Marks)
Arme Hunde
Melkkühe
Poor Dogs
Cash Cows
niedrig
hoch Marktanteil
Abb. 1: Die BCG-Matrix
Um die richtigen (Des-) Investitionsentscheidungen zu finden, wird das betrachtete Geschäft auf einer zweidimensionalen Matrix positioniert. Dabei wird untersucht, wie stark der jeweilige Markt wächst (y-Achse) und welchen Marktanteil das Unternehmen erreicht (x-Achse). Wenn man beide Dimensionen einteilt in die Kriterien "hoch" und "niedrig", erhält man vier Felder: Arme Hunde (geringer 598
Marktanteil in stagnierendem Markt), Fragezeichen (geringer Marktanteil in wachsendem Markt), Stars (hoher Marktanteil in wachsendem Markt) und Melkkühe (hoher Marktanteil in stagnierendem Markt). Im -» Produktlebenszyklus stehen zu Beginn die Fragezeichen (Einführung), die zu armen Hunden werden können oder zu Stars (Wachstum). Wenn die Reife- und Sättigungsphase erreicht sind, können Stars zu den Melkkühen (Cash Cows) im Unternehmen werden. Stars sind das Traumziel des PortfolioManagements, von den Armen Hunden sollte sich das Unternehmen schnell trennen. Von Melkkühen gilt es zu profitieren, solange der (stagnierende) Markt noch ausreichende Gewinnbeiträge abwirft. Die Fragezeichen stellen den Scheidepunkt dar: Wenn das Unternehmen den Marktanteil im wachsenden Markt erhöhen kann, werden sie zu Stars. Das ist der Wunsch des Unternehmens. Wenn dagegen der Marktanteil nicht erhöht wird, und der Markt zu stagnieren beginnt, ist das Stadium der Armen Hunde erreicht. Portfolio-Theorie -* Portefeuille-Theorie Posttest Der Posttest gehört zu den Instrumenten der Werbewirkungskontrolle und dient zur Ermittlung der Werbewirkung während oder nach der Schaltung eines Werbemittels (z.B.: Anzeige oder TV-Spot). Die verwendeten Verfahren sind teilweise mit den Pretestmethoden (-» Pretest) identisch, ergänzend werden auf der Grundlage von Paneldaten ökonometrische Analysen durchgeführt. Bekannt ist der sog. "Day-After-Recall". Der Posttest soll eine kontinuierliche Erfolgskontrolle sicherstellen, wobei auch die Schaltungshäufigkeit und die Medienauswahl berücksichtigt wird ("Timing"), um die Effizienz und die Effektivität der Gesamt-
Potenzialbeurteilung
Posttest kampagne zu verfolgen und frühzeitig Abnutzungserscheinungen ("Wear-out"Effekt) zu erkennen. Hierzu werden sog. Tracking-Untersuchungen durchgeführt, die auch als Werbemonitore bezeichnet werden. Eine Reihe von Instituten bieten solche Verfahren an, wie der Werbemonitor des IVE, Hamburg, der Werbeindikator der GfK, Nürnberg oder ad trek von Icon, Nürnberg. Hinzu kommen die Tracking-Studien der Medien. Häufig gemessene Indikatoren sind: globale Werbeerinnerung, Markenbekanntheit, Kaufinteresse und Markenverwendung, langfristige Imageveränderungen und auf der Grundlage von SingleSource-Panel auch ökonomische Werbewirkungen - wobei teilweise echte "Split Cable" Experimente durchgeführt werden. Mit der STAS-Formel ("Short Term Advertising Strength) soll die kurzfristige Umsatzwirkung von Werbung gemessen werden. Es besteht die Tendenz, über ARM ("Advertising Response Model") eine Integration multipler Messverfahren zu realisieren. Zusammenfassend kann man feststellen, dass die stärksten Effekte für die Erhöhung des Marktanteils aus dem Werbedruck und der Werbequalität, die durch Kreativität und sozialtechnischoptimierte Umsetzung erzielt wird, resultieren. Werbedruck allein führt bei unwirksamen Kampagnen zu keinem Erfolg. Im Zuge der Professionalisierung des -* Online-Marketing gewinnt die InternetKommunikation ( - • Internet) und damit auch die permanente Analyse der Website und der -> Bannerwerbung an Bedeutung. Hier entwickelt sich das neue Gebiet der Multimedia-Marktforschung, die neben Online-Befragungen auch sog. LogfileAnalysen zur Erforschung des Zugriffsverhaltens der Internetnutzer verwendet. Bruno Neibecker Potenzialbeurteilung Der Begriff "Potenzial" bezeichnet die Handlungskompetenz eines Individuums, im Sinne der Fähigkeit, den Herausforde-
rungen der Umwelt mit realisierbaren, situations- und problemadäquaten Handlungsentwürfen zu begegnen. Dabei ist zwischen Leistungs- und Entwicklungspotenzial zu unterscheiden. Die Handlungskompetenz, über welche ein Mitarbeiter aktuell verfügt, wird (unabhängig davon, inwieweit diese im Rahmen dessen momentaner beruflicher Tätigkeit tatsächlich umgesetzt wird) unter dem Begriff "Leistungspotenzial" zusammengefasst. Als "Entwicklungspotenzial" wird die zukünftige, aktuell nicht realisierbare und noch zu entwickelnde Handlungskompetenz eines Mitarbeiters bezeichnet. Dem alltagssprachlichen Verständnis folgend, wird Potenzialbeurteilung in der Managementtheorie und praxis i.d.R. als zukunftsorientierte, auf das Entwicklungspotenzial eines Mitarbeiters bezogene Beurteilung aufgefasst (s.a. -> Mitarbeiterbeurteilung). Grundsätzlich lassen sich mit der informatorischen Fundierung von personalwirtschaftlichen Selektions- und Modifikationsstrategien zwei mögliche Verwendungszusammenhänge von Potenzialbeurteilungen unterscheiden. Im Zusammenhang mit Auswahlentscheidungen stehen Potenzialbeurteilungen bspw. dann, wenn es darum geht, Mitarbeiter zu identifizieren, die über ein ausreichendes Entwicklungspotenzial verfügen, um mittelfristig entstehende Vakanzen zu besetzen und/oder als Führungsnachwuchs entwickelt und aktiv an das Unternehmen gebunden werden sollen. Dem Einsatz von Potenzialbeurteilungsverfahren liegt damit der Wunsch nach einer effizienten Nutzung der betrieblichen Humanpotenziale sowie die Erkenntnis zu Grunde, dass im Rahmen einer langfristigen Personalplanung nur die Entwicklung solcher Mitarbeiter Sinn macht, deren Entwicklungspotenziale den Anforderungen der jeweiligen Zielpositionen mindestens entsprechen. Im Rahmen personalwirtschaftlicher Modifikationsstrategien ist es Aufgabe der 599
Potenzialbeurteilung Potenzialbeurteilung, den Prozess der -> Personalentwicklung selbst informatorisch zu fundieren. Denn nur wenn die individuellen Entwicklungsvoraussetzungen und -möglichkeiten eines Mitarbeiters bekannt sind, lassen sich Personalentwicklungsmaßnahmen gezielt konzipieren und steuern. Diesen Aufgaben kann die gängige Potenzialbeurteilungspraxis z.Z. jedoch kaum gerecht werden. So wird in der Managementtheorie und -praxis vielfach davon ausgegangen, dass die von einem Mitarbeiter entwickelbare Handlungskompetenz im Sinne einer Begabung endogen vorgegeben ist. In der Folge stellt sich Potenzialbeurteilung im Kern als die Suche nach Anlagen, Talenten oder zentralen Persönlichkeitsmerkmalen dar, welche die Vorhersage der Entwicklung individueller beruflicher Handlungskompetenz ermöglichen. Allerdings sind solche Prädiktoren bis heute nicht verfügbar, wie nicht zuletzt die Ergebnisse der vorliegenden Validierungsstudien aus der betrieblichen Praxis zeigen. Ohnehin muss man die Frage stellen, inwieweit der Vorhersagbarkeit individueller Entwicklung grundsätzliche Grenzen gesetzt sind. Faktisch beschränkt man sich im Rahmen der gängigen Potenzialbeurteilungspraxis denn auch auf die Diagnose des Leistungspotenzials. Denn alle Aussagen, die bspw. im Rahmen von -»Assessment Center oder Leistungsbeurteilungen hinsichtlich der Entwicklungsmöglichkeiten von Mitarbeitern gemacht werden, basieren letztlich immer auf der Beurteilung von Leistungen, welche diese im Rahmen diagnostischer Übungen oder ihrer beruflichen Tätigkeit erbracht haben. Damit unterscheiden sich Potenzialbeurteilungen von klassischen Eignungsbeurteilungen nur dadurch, dass die Beurteilung der aktuellen Handlungskompetenz (Leistungspotenzial) in die Zukunft extrapoliert wird. Auf diesem Wege lassen sich aber weder valide Prognosen formulieren noch Informationen generieren, die ge-
600
Pre Acquisition Audit eignet sind, "weitere Personalentwicklungsmaßnahmen" zu begründen. Will man Letzteres ermöglichen, setzt dies eine Abkehr von der gängigen Potenzialbeurteilungspraxis voraus. Potenzialbeurteilung kann nicht als reine "Messung" betrieben werden. Vielmehr handelt es sich um einen letztlich nicht objektivierbaren Entscheidungs- und Verständigungsprozess, in dem Unternehmen und Mitarbeiter gemeinsam Potenzialentwicklungsoptionen erarbeiten und hinsichtlich ihres Nutzens und ihrer Umsetz barkeit bewerten. Im Rahmen dieses Prozesses kann der Mitarbeiter nicht als zu vermessendes Objekt angesehen werden, sondern hat als erster Gestalter seiner weiteren Entwicklung konkrete Verantwortung nicht nur für den Potenzialentwicklungs- sondern auch für den Potenzialbeurteilungsprozess zu übernehmen. Dabei geht es nicht nur darum, beim Mitarbeiter statt (passiver) Akzeptanz (aktive) Selbstverpflichtung für den Potenzialbeurteilungsprozess zu erzeugen. Denn wie die Erfahrungen der Praxis zeigen, lässt sich eine Vielzahl der für die Steuerung und Kontrolle von Potenzialentwicklungsprozessen notwendigen Informationen praktisch nur über Selbstbeurteilungen erheben. In der Konsequenz bedeutet dies, dass die selbstbezogene diagnostische Kompetenz von Mitarbeitern systematisch zu entwickeln und im Rahmen von Potenzialbeurteilungen zu nutzen ist. Literatur: Touet, M. (1997): Möglichkeiten und Grenzen der Potentialbeurteilung, Köln 1997.
Michael Touet PPS Produktionsplanungs- und -steuerungssystem Pre Acquisition Audit Due Diligence.
Preispolitik Preispolitik Die Preispolitik ist Teil des -> MarketingMix. In der Preispolitik werden Entscheidungen über die Höhe des Absatzpreises sowie über Preisdifferenzierungen getroffen. Zu beachten sind dabei die Nebenbedingungen, die durch Gesetze festgelegt sind, so z.B. durch das Gesetz gegen den unlauteren Wettbewerb (UWG). Konkretisiert wird die Preispolitik durch die -> Preissetzung/Preiskalkulation. Preissetzung/Preiskalkulation 1. Preissetzung und Preiskalkulation als Teil der Preispolitik Die Preis- oder Entgeltpolitik beinhaltet alle absatzpolitischen Maßnahmen eines Anbieters zur Bestimmung (Preissetzung) und Durchsetzung der monetären Gegenleistung, die ein Käufer bzw. Erwerber für eine Sach- oder Dienstleistung zu erbringen hat. Mitunter wird der Begriff der Preiskalkulation synonym zu Preissetzung verstanden; häufig wird von Preiskalkulation jedoch dann gesprochen, wenn die Kosten - als einer von mehreren Einflussfaktoren auf den Preis - als wesentliche Determinante gesehen werden und damit die Kostenrechnung als hauptsächliche Grundlage für die Preissetzung dient. So, gewissermaßen als eine Unterform der Preissetzung, soll der Begriff der Preiskalkulation auch hier verstanden werden. Um die mit der Preissetzung verbundenen Probleme zu verdeutlichen, wird im Folgenden auf den entscheidungstheoretischen Ansatz zurückgegriffen. Dazu werden zunächst die Ziele und Wirkungen angesprochen, dann wird auf die Aktionsmöglichkeiten und die Einflussfaktoren eingegangen und letztlich werden verschiedene Verfahren der Preissetzung vorgestellt. 2. Ziele und Wirkungen der Preissetzung Um beurteilen zu können, ob eine bestehende oder geplante Preissetzung vorteilhaft oder nachteilig ist, sind die Ziele zu benennen, die mittels der Preissetzung erreicht werden sollen und anhand derer die Wirkungen von Preissetzungsmaß-
Preissetzung/Preiskalkulation nahmen gemessen werden können. Gegen das Ziel der Gewinnmaximierung wird zum Teil eingewendet, es stünde für eine kurzfristige Denkweise, die nicht zu längerfristigem Unternehmenserfolg fuhren könne. Gewinnmaximierung lässt sich aber durchaus auch langfristig verstehen; Simon weist darauf hin, dass Zielsetzungen, die am Absatz, am Umsatz oder am Marktanteil orientiert sind, "nicht einmal schlechte" Ersatzziele für die langfristige Gewinnmaximierung darstellen. Diese Ersatzziele bieten den Vorteil, dass sich die Auswirkungen von Preissetzungsmaßnahmen in aller Regel leichter messen und anschließend beurteilen lassen. Preissetzungen können aber auch auf andere (Hilfs-) Ziele ausgerichtet werden, wie z.B. Neukundengewinnung oder Abwehr potenzieller Konkurrenten. Preissetzungsentscheidungen tragen meist recht unmittelbar zu einer Veränderung des Absatzes bzw. des Umsatzes bei, was in der Folge auch eine veränderte Kostensituation (z.B. über Auslastungssteigerung, Lagerabbau) und eine Änderung der finanzwirtschaftlichen Situation (z.B. höherer -> Cash-flow) nach sich zieht. 3. Die Handlungsalternativen in der Preissetzung Die Bestimmung eines Preises bedeutet grundsätzlich die Festlegung eines Quotienten: Der Preis besteht aus einem Preiszähler, dem zu entrichtenden Entgelt, und einem Preisnenner, dem Leistungsumfang, den der Käufer für das geforderte Entgelt bekommt. Nachfolgend steht der Zähler im Mittelpunkt, während die Festlegung des Leistungsumfanges - wie in der Literatur üblich - der -> Produktpolitik zugerechnet wird. Im Zähler ist nicht nur der zu fordernde Geldbetrag festzulegen (Preissetzung im engeren Sinn), sondern es ist auch an zeitliche und qualitative Aspekte zu denken, die auch als Festlegung von Konditionen und Rabatten bezeichnet werden. Dazu zählen etwa Zahlungstermine (z.B. Anzahlungen, Vorauszahlungen, vereinbarte Zahlungs601
Preissetzung/Preiskalkulation ziele) und zugelassene Zahlungsmittel. Von Bedeutung sind auch Rabattsysteme, in der Theorie als Preisdifferenzierung bezeichnet, die Preisnachlässe gegenüber einem Basispreis festlegen, wodurch der Preis gegenüber einzelnen Abnehmern zu verschiedenen Zeiten oder bei verschiedenen Umständen differenziert wird. Bei der Festlegung von Preisen lassen sich eine strategische und eine operative Ebene unterscheiden. In der strategischen Dimension werden Überlegungen angestellt, welche Position die anbietende Unternehmung gegenüber dem Wettbewerb einnehmen will, ob sie ein qualitativ hohes und exklusives Image der eigenen Leistung aufbauen will, in welchem Preisbereich sie ihre Leistungen anbieten will und ob sie hierfür die Voraussetzungen geschaffen hat. Auf der taktischoperativen Wirkungsebene der Preissetzung geht es um die Feinjustierung und um kurzfristig wechselnde Maßnahmen (Aktionen, Sonderangebote). 4. Die Einflussfaktoren der Preissetzung Die Einflussfaktoren der Preissetzung lassen sich drei Bereichen zuordnen. Zum einen gibt es innerhalb des Unternehmens selbst Bestimmungsfaktoren für die Preissetzung. Solche innerbetrieblichen Faktoren sind zunächst ganz wesentlich die von dem jeweiligen Produkt verursachten Kosten, es sind daneben aber auch andere, wie etwa beschränkte Kapazitäten in der Produktion oder der Logistik oder die finanzwirtschaftliche Situation des Unternehmens. Einen zweiten Bereich von Einflussfaktoren bildet das Marktsystem, in dem das Unternehmen agiert und das insbesondere durch die Abnehmer wie auch durch die Konkurrenten gekennzeichnet wird, zum Teil auch durch die Lieferanten. Das Verhalten dieser Gruppen wird u.a. von der Anzahl der jeweiligen Marktteilnehmer sowie vom Grad der Marktvollkommenheit und der Preistransparenz abhängen. Handelt es sich bei den Abnehmern nicht um die Endverbraucher des Produktes 602
Preissetzung/Preiskalkulation bzw. der Dienstleistung, sondern um Händler, so ist zu beachten, dass diese ihre eigene Preissetzung gegenüber ihren Kunden vornehmen werden. Mit den eigenen Preisen kann also in mehrstufigen Märkten seit dem Verbot der Preisbindung der zweiten Hand allenfalls mittelbar auf den Endabgabepreis eingewirkt werden. Umgekehrt sind dann die Lieferanten und deren Preise als Einflussfaktoren für die Preissetzung von Händlern oder weiterverarbeitenden Produzenten zu nennen. Schließlich sind es u.a. technische, ökonomische und soziale Aspekte in der Umwelt eines Anbieters, die Einfluss auf die Preissetzung haben. So werden z.B. aufkommende Produktsubstitute, die allgemeine konjunkturelle Lage oder modische Trends in Preisentscheidungen eingehen. Von besonderer Bedeutung ist jedoch der rechtliche Rahmen: Vor allem das Gesetz gegen Wettbewerbsbeschränkungen (GWB), das Gesetz gegen unlauteren Wettbewerb (UWG), das Rabattgesetz und die Zugabeverordnung sind in diesem Zusammenhang zu beachten. 5. Verfahren zur Preissetzung Wenn der Gewinn, definiert als Differenz von Umsatz und Kosten, die Zielgröße der Preissetzung bildet, so folgt daraus, dass diese beiden Größen für die Bestimmung des Preises eine zentrale Rolle spielen. Infolgedessen unterschiedet man kosten- und marktorientierte Verfahren der Preissetzung. Marginalanalytische Verfahren schließlich verknüpfen die beiden Dimensionen und bemühen sich darum, den gewinnmaximalen Preis mit Hilfe der Differenzialrechnung zu bestimmen. Kostenorientierte Verfahren nutzen Informationen der betrieblichen -»Kostenrechnung, in der mit Hilfe der -> Kostenträgerrechnung die Preisuntergrenze für ein Produkt ermittelt wird. Kurzfristig liegt diese bei den variablen Stückkosten, langfristig bei den Vollkosten
Preissetzung/Preiskalkulation (-* Kostenarten). Als Methode für die Preissetzung dient dann meist die Kostenplus-Kalkulation, bei der auf die ermittelte Preisuntergrenze als Ausgangsbasis ein absoluter oder prozentualer Aufschlag erfolgt. Stellen die Vollkosten die Berechnungsgrundlage dar, so enthält dieser Aufschlag den angestrebten Gewinn, im Falle von variablen Stückkosten als Basis umfasst er zusätzlich den erwünschten Deckungsbeitrag zur Deckung des Fixkostenblockes. Der größte Vorzug dieses in der Praxis sehr bedeutenden Verfahrens liegt in der recht einfachen Handhabung und dem geringen zusätzlichen Informationsbedarf, da eine Kostenträgerrechnung in aller Regel ohnehin vorhanden ist. Der gravierendste Nachteil ist darin zu sehen, dass die Marktseite, also die Umsatzkomponente des Gewinns, nicht berücksichtigt wird. Während man kostenorientierte Preiskalkulationsverfahren als inside-out-Ansätze bezeichnen kann, gehen marktorientierte Verfahren den umgekehrten Weg (outside-in), indem Preise auf der Basis von Informationen gesetzt werden, die dem Absatzmarkt entnommen werden. Dabei interessiert naturgemäß insbesondere das Preisverhalten der Abnehmer. Aber auch die Preise von Konkurrenten und deren mögliche Preissetzungsreaktionen müssen berücksichtigt werden. Als Instrument zur Erfassung des Nachfrageverhaltens in Abhängigkeit vom Preis verwendet man die Preis-Absatz-Funktion, anhand derer sich der Absatz bei alternativen Preisen abschätzen lässt. Mittels einer anschließenden Deckungsbeitragsrechnung kann dann die Vorteilhaftigkeit im Hinblick auf das Gewinnziel beurteilt werden. Der Verlauf der Preis-AbsatzFunktion kann entweder auf der Basis unmittelbar erhobener Daten (insbes. Scanner-Daten) geschätzt werden oder aber durch Kundenbefragungen ermittelt werden, wobei besonders das Conjoint Measurement gegenwärtig häufig zum Einsatz kommt, auch, um die Relevanz des Preises im Vergleich zu anderen Pro-
Present Value duktparametern einschätzen zu können (s.a. -> Marktforschung). Ein neuerer Ansatz einer solchen outside-inVorgehensweise liegt im sog. TargetPricing, bei dem die erhobene Preisbereitschaft der Abnehmer bereits in der Produktentwicklungsphase die Zielkosten des Produktes festlegt. Marginalanalytische Verfahren schließlich nutzen Erkenntnisse der mikroökonomischen Preistheorie, indem sie von Beginn an Preis-Absatz- und KostenFunktionen zusammenführen und auf dem Wege der Differenzialrechnung den gewinnmaximalen Preis bestimmen. Hierfür steht eine Vielzahl von Modellen zur Verfugung, die sich unterscheiden u.a. durch den Verlauf der Preis-Absatz-Funktion, den der Kostenfunktion und durch die Marktform, welche den möglichen Konkurrenzeinfluss determiniert. Die Güte des berechneten Ergebnisses hängt davon ab, wie gut die angenommenen Funktionsverläufe den tatsächlichen PreisAbsatz-Zusammenhang wiedergeben können. Die genannten Preissetzungsverfahren haben alle eher kurzfristigen Charakter. Über die Bestimmung eines Preises hinaus müssen Entscheidungen getroffen werden z.B. hinsichtlich einer längerfristigen Preisstrategie, einer Preislinienpolitik für das gesamte Sortiment sowie in Bezug auf eine mögliche Preisdifferenzierung oder eine Preisvariation im Zeitablauf. Literatur: Diller, H.: Preis- und Konditionenpolitik, in: Wittmann, W . / K e m , W./Köhler, R. (Hrsg.): H W B , 5. Aufl., Stuttgart 1993; Diller, H.: Preispolitik, 2. Aufl., Stuttgart-Berlin-Köln 1991; Simon, H.: Preismanagement: Analyse-StrategieUmsetzung, 2. Aufl., Wiesbaden 1992; Simon, H.: Preispolitik, in: Tietz, B./Köhler, R./Zentes, J. (Hrsg.): H W M , 2. Aufl., Stuttgart 1995.
Lothar Müller-Hagedorn/Sven Spork Prepackaged Bankruptcy ->Insolvenz Present Value Investitionsrechnung 603
Product Placement
Pretest Pretest Mit dem Pretest soll die Wirkung eines Werbemittels (z.B.: Anzeige oder TVSpot) vor seiner Schaltung überprüft werden (-> Werbewirkungskontrolle). Dabei werden einzelne Anzeigen oder Motive (Sujet-Test) bis hin zu alternativen Kampagnen vergleichend getestet. Neben dem fertigen Werbemittel werden aus Kostenund Zeitgründen auch nur teilweise ausgearbeitete Werbemittel getestet (z.B.: Roughs, Storyboards, Animatics). In einer sehr frühen Phase der Werbeplanung werden auch Konzepttests durchgeführt. Es gibt eine Reihe unterschiedlicher Verfahren: In Gruppendiskussionen wird über Kampagnen in Kleingruppen diskutiert. Mit Expertensystemen (wissensbasierten Systemen) lässt sich die Werbung computergestützt systematisch analysieren. Exklusivstudien werden speziell auf eine Kampagne zugeschnitten. Apparative Messungen konzentrieren sich auf diagnostische Indikatoren wie die Wahrnehmung einzelner Motive, die dann über Blickregistrierung ermittelt werden kann, aber auch Aktivierungsmessungen über Hautwiderstandsveränderungen oder Gefallensmessungen mittels sog. Programmanalysatoren sind möglich. Verbreitet haben sich Standardtests etabliert, die auf der Grundlage von Normwerten, die aus Hunderten von Testwerten als Benchmarks erstellt werden, weitgehend objektive Urteile ermöglichen. Erfahrungsgemäß genügen bereits 100 bis 200 Testpersonen, die meist nach dem Verfahren der Quotenstichprobe entsprechend der Zielgruppendefinition zusammengesetzt sind, um aussagekräftige Ergebnisse zu erzielen. In weiteren Testvarianten wird zwischen einmaliger und zweifacher Exposition (bzw. Mehrfach-Darbietung) unterschieden. Weiterhin kann mit oder ohne Konkurrenzwerbung getestet werden. Schließlich gibt es die Variante mit Vorher-/Nachhermessung und nur Ex-PostMessung. 604
Neuere empirische Untersuchungen, die vergleichend auch direkte Absatzzahlen berücksichtigen, konnten die Relevanz von Pretests bestätigen, wobei die Unterschiede zwischen den verschiedenen Verfahren geringer sind, als man aufgrund der Auseinandersetzungen zwischen den Marktforschungsinstituten annehmen durfte. Bruno Neibecker Price-Earnings Ratio Kurs-Gewinn-Verhältnis Primäre Kosten -> Kostenarten Primärerhebung Marktforschung Primary Underwriter Konsortialführende -> Emissionsbank, die alle Aktien aus einer Kapitalerhöhung einer -> Aktiengesellschaft zeichnet und dann andere Banken an der Emission beteiligt. Private Equity Kapital, das in ein nicht börsennotiertes Unternehmen investiert wird, um an den laufenden Gewinnen zu verdienen. Die Teilhabe an einem gestiegenen Unternehmenswert durch Anteilsveräußerung steht hier nicht im Mittelpunkt des Investoreninteresses. Diese fehlende Exitperspektive unterscheidet Private EquityGeber von -» Venture Capitalists. Product Life Cycle Costing Life Cycle Costing Product Placement Unter Product Placement versteht man das Präsentieren von Markenartikeln in Medien außerhalb der für Werbung reservierten Räume. Besondere Bedeutung hat Product Placement im Kino und Fernsehen, etwa wenn James Bond einen BMW fährt. Die Zuschauer sollen das positive Image auf das Produkt übertragen, außerdem ist die Aufmerksamkeit für das Produkt größer als bei einer Präsentation im reinen Werbeumfeld.
Produktdifferenzierung Produktdifferenzierung Die Produktdifferenzierung ist eine der -> Normstrategien nach Michael E. Porter. Das Unternehmen strebt dabei an, sich gegenüber seinen Konkurrenten durch einzigartige Produkteigenschaften abzuheben. Wenn die Kunden diese Produktbesonderheiten als wichtig ansehen und kein Konkurrent vergleichbare Eigenschaften bietet, dann kann das Unternehmen einen erhöhten Produktpreis verlangen und eine entsprechende Prämie für die Einzigartigkeit seines Produktes abschöpfen. Produktelimination Die Produktelimination ist die endgültige Herausnahme einzelner Produktvarianten (-• Variantenbildung) aus dem Produktprogramm sowie die Aufgabe ganzer Produktgruppen (-• Sortimentspolitik). Am Ende des Produktlebenszyklus (-• Lebenszyklus) steht die Degenerationsphase und hier stellt die Produktelimination eine grundsätzliche Planungsalternative innerhalb der Produktplanung dar. Zur Entscheidungsfindung werden bspw. -> Checklisten und Scoring Modelle verwendet. Um eine objektive und systematische Entscheidung über die Elimination einzelner Produkte treffen zu können, ist es wichtig, Kriterien festzulegen, die als Maßstab für eine Entscheidung dienen. Hierbei unterscheidet man quantitative Maßstäbe, wie bspw. sinkenden Umsatz, sinkenden Marktanteil und ungünstige Umsatz/Kosten Relation, und qualitative Maßstäbe, bspw. negativer Einfluss auf das Firmenimage, Änderungen gesetzlicher Vorschriften und technologische Vereiterung. Trotz der Schwierigkeiten bei der Messung qualitativer Maßstäbe ist es notwendig, diese zu berücksichtigen, um die Wahrscheinlichkeit einer Fehlentscheidung möglichst gering zu halten. Da es sich bei einer Eliminationsentscheidung um eine endgültige Entscheidung handelt, sollte diese nicht voreilig getroffen werden.
Produktgestaltung Produktgestaltung 1. Begriff Die Produktgestaltung betrifft alle marktbezogenen Entscheidungen, die sich auf die Existenz und Ausprägung der Eigenschaften von Produkten beziehen, die von einem Unternehmen angeboten werden. Produktgestaltung ist in erster Linie eine Aufgabe der Hersteller von Sachgütern oder Dienstleistungen; zunehmend übernehmen aber auch Handelsunternehmen diese Funktion, etwa wenn sie Eigenmarken konzipieren (-> Handelsmarken) oder in nachfragemächtiger Position ihren Lieferanten weitgehende Qualitätsvorschriften auferlegen. Das zu gestaltende "Produkt" ist hier ganz allgemein als ein konkretes Vermarktungsobjekt zu verstehen und kann enger oder weiter abgegrenzt werden. So beschränkt sich, bezogen auf Sachgüter, das substanzielle Produkt auf physisch abgrenzbare Objekte. Das erweiterte Produkt hingegen schließt auch die produktbezogenen Dienstleistungen i.S. ergänzender Services mit ein. Nimmt man konsequent die Sichtweise des Nachfragers ein, der ja weniger an einem Objekt als an einer Problemlösung interessiert ist, so bietet es sich sogar an, ganze Leistungssysteme i.S. mehrdimensionaler Absatzobjekte als ein Produkt zu begreifen. Im Übrigen sind hier unter einem Produkt keineswegs nur Sachgüter, sondern genauso gut Dienstleistungen (als Hauptleistung) oder auch Rechte zu verstehen. Entsprechend der Marketingphilosophie hat sich die Gestaltung von Produkten in erster Linie an den Bedürfnissen und Anforderungen der jeweiligen Zielgruppe(n) zu orientieren, aber auch an den eigenen strategischen Vorgaben und Potenzialen des Unternehmens. Produktgestaltungsentscheidungen leiten sich aus der übergreifenden Produktpolitik ab. Diese beinhaltet Entscheidungen über Ziele, Strategien und Maßnahmen sowie deren Umsetzung und Kontrolle, soweit sie mit der Gestaltung von Produkten in Zusammen605
Produktgestaltung hang stehen. Zentrale Problembereiche der Produktgestaltung sind die Gestaltungsbereiche, Gestaltungskriterien (-anforderungen) sowie Gestaltungsanlässe. 2. Gestaltungsbereiche Obwohl die Produktgestaltung primär von der subjektiven Seite des Nachfragers auszugehen hat, sind zunächst die objektiv-real zur Verfügung stehenden Gestaltungsbereiche zu klären. Bei Sachgütern wird hier, bezogen auf ein substanzielles Produkt, gerne unterschieden in Produktkern und Produktäußeres. Ersteres umfasst dann die verwendeten Materialien und Teile, deren Zusammenstellung und Verarbeitung, sowie die daraus entstehenden Grundfunktionen des Produkts (z.B. Schleifen und Bohren bei einer Bohrmaschine). Letzteres bezieht sich auf Größe, Form, Farbe, Oberfläche und gesamte Produktaufmachung, wobei insbesondere bei Konsumgütern der Verpackungsgestaltung und Markierung besondere Bedeutung zukommt. Bei Dienstleistungen kann Produktgestaltung am Prozess der Dienstleistungserbringung selbst, aber auch an dafür bereitgehaltenen Potenzialfaktoren ansetzen. Ersteres stellt z.B. auf Verlässlichkeit (etwa Pünktlichkeit), Höflichkeit, Kompetenz und Vertrauenswürdigkeit, Einfühlungsvermögen und Verständnis ab; letzteres auf die Fähigkeiten von Mitarbeitern sowie die sachliche Ausstattung des Dienstleistungsanbieters ("Tangibles"). 3. Gestaltungskriterien Produktgestaltung zielt auf eine möglichst hohe -> Produktqualität. Darunter ist die Eignung der realen Produkteigenschaften zur Erfüllung bestimmter Zwecksetzungen bzw. Anforderungen zu verstehen (teleologischer Qualitätsbegriff). Im Rahmen der Produktgestaltung sind diese Anforderungen hinsichtlich Art und Ausprägung als Gestaltungskriterien festzulegen. Mit der Verbreitung des Marketinggedankens hat sich dabei in Theorie und Praxis eine nachfragerorientierte Perspektive durchgesetzt. Gestaltungsanfor-
606
Produktgestaltung derungen bestimmen sich hier nicht mehr primär nach technischen Vorgaben, sondern nach den Erwartungen und Bewertungen der (potenziellen) Produktverwender bzw. -käufer. Als solche sind in erster Linie Konsumenten oder Betriebe als Endabnehmer zu beachten. Insbesondere bei Konsumgütern sind für den Hersteller aber auch die Anforderungen des ggf. in die Distribution eingeschalteten Handels zu berücksichtigen: Er will beispielsweise, dass Produkte stapelfähig, scanningfähig und selbstbedienungsgerecht sind, den knappen Regalplatz optimal ausnutzen, sich leicht handhaben lassen (Handling) und sich von der Verpackungsgestaltung und Markierung her für Verkaufsförderungszwecke gut eignen. Im Mittelpunkt der nachfragerorientierten Perspektive steht jedoch die subjektive Qualität aus Sicht der als Zielgruppe ins Auge gefassten Endabnehmer. Produktqualität ist im doppelten Sinne subjektiv, weil sie einerseits von den Erwartungen der (potenziellen) Kunden ausgeht und andererseits auf deren Produkt- bzw. Eigenschaftsbeurteilungen abstellt: Qualität i.S. von Qualitätsurteilen. Zentrale Bedeutung kommt dabei der Nutzentheorie bzw. Nutzenanalyse zu. Der Nachfrager sieht in einem Produkt weniger ein Aggregat aus verschiedenen realen Teilbeschaffenheiten, als vielmehr ein Bündel an nutzenstiftenden Eigenschaften, das ihm zur Erfüllung seiner Motive, Erwartungen, Anforderungen dienen soll. Ein Mercedes der S-Klasse bspw. interessiert ihn nicht als eine ca. zwei Tonnen schwere Ansammlung an Metall, Kunststoff und Gummi, sondern als ein Bündel an Form, Farbe, Leistung, Fahrverhalten und Komfort, das nicht nur Sicherheit und Bequemlichkeit verschafft, sondern vielleicht auch Prestige, Seriosität und ein Stück Lebensgefühl vermittelt. Seit Vershofen unterscheidet man in diesem Zusammenhang den auf sachlich-funktionale Aspekte bezogenen Grundnutzen von dem auf emotionale Erlebnisse und
Produktgestaltung soziale Anerkennung ausgerichteten Zusatznutzen. Dementsprechend hat Produktgestaltung die Aufgabe, einerseits Sachqualitäten, andererseits Anmutungsqualitäten und soziale Qualitäten zu schaffen. Die Literatur zur Produktgestaltung beschäftigt sich heute hauptsächlich mit der verhaltenstheoretischen und empirischen Analyse produktbezogener Nutzenerwartungen und -einschätzungen. Das praktische Ziel ist es, Präferenzen der (potenziellen) Kunden hinsichtlich konkreter Eigenschaftsausprägungen in Erfahrung zu bringen - beispielsweise mit Hilfe der -* Conjoint Analyse, die Gesamtpräferenzen für Produkte durch sog. Teilnutzenwerte einzelner Produkteigenschaften zu erklären versucht. Das Hauptproblem der Forschung liegt hierbei in der Transformation von subjektiven Motiven und Erwartungen in konkrete objektive Eigenschaftsausprägungen. In diesem Zusammenhang kommt der Means-End-Theorie besondere Bedeutung zu. Sie leitet die Urteile einer Person über konkrete Eigenschaften eines Produktes aus abstrakten Eigenschaften ab, die mit funktionalen und psychischen Nutzenkomponenten beim Ge- oder Verbrauch des Produktes verknüpft sind und ihrerseits wiederum auf dahinter liegende instrumentale und terminale Werthaltungen zurückgeführt werden können. Der nutzentheoretische Ansatz hat sich in der Praxis, insbesondere im Konsumgütermarketing, für eine erfolgreiche marktorientierte Produktgestaltung als sehr hilfreich erwiesen. Gerade im Konsumgüterbereich orientieren sich Unternehmen aber keineswegs immer zuerst an den gegebenen Präferenzen der Konsumenten. Vielmehr verfolgt in modischen und stark designorientierten Produktfeldern die Anbieterseite häufig eine in hohem Maße stilprägende und Präferenzen erst schaffende Produktgestaltung. Diese findet ihren Ausdruck in bestimmten Designstilen. Die Frage nach dem Verhältnis
Produktgestaltung zwischen Funktion und Form wird dabei unterschiedlich beantwortet. Auch bei technischen Produkten (Gebrauchsgüter und insbes. Industriegüter) orientiert sich die Produktgestaltung nicht immer zuerst an Nachfragerpräferenzen. Hier stehen oft technologieinduzierte, innovative Entwicklungen im Vordergrund, die sich aber ohne konkrete Nutzenvorteile aus Kundensicht im Markt nicht durchsetzen werden. Im Übrigen ist die Nachfragerperspektive heute zu ergänzen um eine Gesellschaftsund Umweltperspektive. An die Produktgestaltung werden vielfältige ökologische Anforderungen gerichtet (z.B. Ressourcenschonung, Recycelfähigkeit etc.), die sich nicht nur auf das Produkt als solches, sondern den gesamten "ökologischen Produktlebenszyklus" beziehen (von der Wiege bis zur Bahre; ökologisches Produktdesign). Es geht hier beispielsweise aber auch um die Haltbarkeit von Produkten, um dem Vorwurf künstlicher Veralterung (Planned Obsolescence) im funktionalen oder modischen Sinne zu entgehen. 4. Gestaltungsanlässe Entscheidungen zur Produktgestaltung sind einerseits bei der Entwicklung neuer Produkte (Produktinnovation) zu treffen. Grundlage ist dann ein ganzheitliches Produktkonzept, in dessen Zusammenhang insbesondere auch die Produktpositionierung vorzunehmen ist. Konsequenterweise hat die Produktgestaltung hier über die Definition einzelner Produkteigenschaften hinaus vor allem deren sinnvolle Kombination zur Aufgabe. Werden hingegen bereits gestaltete und im Markt eingeführte Produkte verändert (Produktvariation) oder werden eingeführte Produkte um weitere Varianten ergänzt (Produktdifferenzierung, s.a. -> Variantenmanagement), so setzt Produktgestaltung eher an einzelnen Produkteigenschaften an. Produktvariation oder -differenzierung können an grundnutzenorientierten
607
Produktgestaltung
Produkthaftung
Produkteigenschaften (z.B. Sicherheit, Benzinverbrauch oder Kofferraumvolumen eines Kfz) ebenso ansetzen wie an solchen des Zusatznutzens (z.B. Karosseriedesign oder Optik der Innenausstattung). Literatur: Brockhoff, K.: Produktpolitik, Stuttgart, Jena 1993; Haedrich, G./Tomczak, T.: Produktpolitik, Stuttgart u.a. 1996; Herrmann, A.: Produktmanagement, München 1998; Herrmann, A.: Nachfragerorientierte Produktgestaltung, Wiesbaden 1996; Hüttel, K.: Produktpolitik, 3. Aufl., Ludwigshafen 1998; Koppelmann, U.: Produktmarketing, 5. Aufl. Berlin u.a. 1997; Meffert, H.: Marketing, 8. Aufl. Wiesbaden 1998; Nieschlag, R./Dichtl, E./Hörschgen, H.: Marketing, 18. Aufl., Berlin 1997.
Frank Wimmer Produkthaftung Die Produkthaftung ist die deliktische Haftung des Herstellers (Produzenten) für Schäden, die aus der Fehlerhaftigkeit der von ihm hergestellten Produkte entstehen. Bei der Verwendung von industriell gefertigten Massengütern können durch die Fehlerhaftigkeit des Produktes Personenund Sachschäden auftreten. Da vertragliche Haftungsansprüche gegen den Verkäufer wegen der kurzen Verjährungsfrist von 6 Monaten regelmäßig ausscheiden, bleibt dem Geschädigte nur die Möglichkeit, sich über die Produkthaftung gegenüber dem Hersteller schadlos zu halten. Die Rechtsprechung hat in Deutschland auf der Grundlage der allgemeinen Deliktsnorm des § 823 BGB Maßstäbe für die Produkthaftung entwickelt. Bahnbrechend wirkte die 1968 eingeführte Umkehrung der Beweislast für das Verschulden des Herstellers. Seit dem 1.1.1990 ist das auf der Richtlinie 85/374/EWG beruhende Produkthaftungsgesetz in Kraft, das zu Gunsten von Endverbrauchern eine verschuldensunabhängige Gefährdungshaftung statuiert, die jedoch nicht die sog. Haftung für Entwicklungsfehler umfasst, § 1 II Nr. 5 ProdHaftG. Der Verbraucher als Geschädigter kann sich auf beide Haftungstatbestände berufen, wobei nur die deliktsrechtliche Haftung des BGB
608
zum Anspruch auf Schmerzensgeld führt, § 847 BGB. 1. Grundlagen Voraussetzung ist bei beiden Anspruchsgrundlagen die Fehlerhaftigkeit eines Produktes. Ob diese gegeben ist, definiert § 3 ProdHaftG, der der langjährigen Rechtsprechung des BGH zur Produkthaftung nach § 823 I BGB entspricht. Ein Fehler soll vorliegen, wenn das Produkt nicht die Sicherheit bietet, die unter Berücksichtigung bestimmter Umstände, wie zu erwartender Gebrauch, Darbietung des Produkts berechtigterweise zu erwarten war. Abzustellen ist daher auf die Erwartungen der Allgemeinheit über die Sicherheit eines Produkts unter Berücksichtigung der Vorstellung des Herstellers. Keine Fehlerhaftigkeit liegt vor, wenn das Produkt zu einem späteren Zeitpunkt verbessert auf den Markt gebracht wird, § 3 II ProdHaftG. Geschützt ist über die Produkthaftung das Integritätsinteresse des Geschädigten, mithin sein Interesse daran, dass die Sache die berechtigterweise zu erwartende Sicherheit für sonstige Rechtsgüter bietet. Ersatz kann daher nur für Folgeschäden verlangt werden, die nicht unmittelbar an dem Produkt selbst entstanden sind. Mit abgedeckt werden nach der Rechtsprechung sog. Weiterfresserschäden, d.h. Schäden, die ein fehlerhaftes Einzelteil am Gesamtprodukt verursacht. Der Kreis der Haftenden geht über den Produzenten hinaus. So können auch Quasi-Hersteller (derjenige, der sich durch Warenzeichen o.ä. als Hersteller geriert), nach dem ProdHaftG auch Importeure und subsidiär Lieferanten haften. In Anspruch genommen werden kann das herstellende Unternehmen, jedoch auch die Geschäftsleitung bzw. einzelne Mitarbeiter. Eine Haftungsfreizeichnung des Herstellers ist weder nach dem ProdHaftG noch nach dem Deliktsrecht möglich. Indes kann die Nichtbeachtung von Warnhinweisen als Mitverschulden des Geschädigten gewertet werden. An-
Produkthaftung spräche sowohl nach Deliktsrecht als auch nach dem ProdHaftG verjähren innerhalb 3 Jahren. 2. Ausprägung Die Haftung nach § 823 BGB setzt voraus, dass der Hersteller eine ihm obliegende Verkehrssicherungspflicht verletzt hat. Die Rechtsprechung hat einen derartigen Verstoß in einem ausdifferenzierten Pflichtenkatalog präzisiert. Danach trifft den Hersteller die Pflicht, eine Konstruktion und Planung auf Grundlage des aktuellen technischen Stands zu gewährleisten, die der durchschnittliche Benutzer gefahrlos verwenden kann. Ferner hat er seinen Betriebsablauf so zu organisieren und zu überwachen, dass nur einwandfreie und fehlerlose Produkte auf den Markt kommen. Insofern trifft ihn auch eine Instruktionspflicht, er hat auf bestehende Benutzungsgefahren durch Warnhinweise auf dem Produkt bzw. in der Bedienungsanleitung hinzuweisen. Auch nach der Markteinführung hat der Hersteller weitergehende Pflichten zur Produktbeobachtung und ggf. daraus resultierende Reaktionspflichten wie Rückrufe. Grundsätzlich hat der Geschädigte Fehler, Schaden, Kausalität und Verschulden zu beweisen. Die Gerichte gewähren jedoch großzügige Beweiserleichterungen schon bei der Feststellung des Fehlers. Eine Rechtspflicht zur Dokumentation besteht zwar nicht, erleichtert aber u.U. die Beweisführung für den Unternehmer. Ist die Fehlerhaftigkeit des Produktes erwiesen, so wird nach der Rechtsprechung das Verschulden des Herstellers vermutet. Die Rechtsprechung hat die Maßstäbe an den Entlastungsbeweis ständig erhöht, so dass die Produkthaftung de facto oftmals einer Gefährdungshaftung gleichkommt. Die Produkthaftung nach dem ProdHaftG ist als verschuldensunabhängige Gefährdungshaftung ausgestaltet. Sie unterscheidet sich jedoch nicht wesentlich von der deliktsrechtlichen Haftung des Produzenten (in der ihr von der Rechtsprechung gegebenen Ausformung). Der geschädigte
Produktionscontrolling Verbraucher steht sich nach dem ProdHaftG insofern günstiger, als der Hersteller auch für unvermeidbare Fabrikationsfehler, sog. Ausreißer, haftet. Nach der Änderung der Produkthaftungsrichtlinie 1999/34/EG haftet neben dem Hersteller der landwirtschaftliche Primärerzeuger (ab dem 4.12.2000) und - abweichend von § 823 BGB - gemäß § 3 II ProdHaftG der Importeur und der Lieferant, wenn weder der Hersteller/Importeur oder Großhändler zu ermitteln ist und/oder vom Händler/Lieferanten nicht benannt wird/werden kann. Nachteilig kann sich der Haftungshöchstbetrag von 160 Mill. DM, bei Sachbeschädigungen der Selbstbehalt von 1125 DM auswirken, §§ 10, 11 ProdHaftG. Hans-W. Micklitz Produkthaftungsgesetz Produkthaftung Produktinnovation Innovation, —• Innovationsmanagement, Innovationsmarketing Produktinvolvement Involvement Produktionscontrolling 1. Generelle und spezielle Aufgaben des Controlling Aufgabe des -» Controlling ist es, das gesamte Entscheiden und Handeln in der Unternehmung durch eine entsprechende Aufbereitung von Führungsinformationen ergebnisorientiert auszurichten. Die generelle Aufgabe des Controlling besteht damit in der informationellen Sicherung bzw. Sicherstellung ergebnisorientierter Planung, Steuerung und auch Überwachung des gesamten Unternehmungsgeschehens - vielfach verbunden mit einer Integrations- bzw. Systemgestaltungsfunktion, grundsätzlich verbunden mit einer Koordinationsfunktion. Das Zahlenwerk des Controlling stützt sich hierbei primär auf das Rechnungs- und Finanzwesen, möglichst verkettet mit 609
Produktionscontrolling einer betriebswirtschaftlich-technischen Daten-, Modell- und Wissensbank. Aus der generellen Aufgabe können als spezielle Aufgaben des Controlling Nutzungs- und Gestaltungsaufgaben abgeleitet werden: Nutzungsaufgaben bzw. Anwendungsaufgaben bezogen auf • Unternehmungsplanung und -kontrolle, insb. die ergebnis- und z.T. liquiditätsorientierte Planungs- und Kontrollrechnung: - Mitwirkung und Mitentscheidung bei genereller Zielplanung, strategischer Planung und operativer Planung und deren Kontrollen, - Koordination aller Teilplanungen mit Durchführung der periodischen Ergebnis- und Finanzplanungen. • Rechnungswesen als Dokumentationsrechnung: - Durchfuhrung der Kosten- und Erlösrechnung sowie ggf. - Buchhaltung, ->• GuV und -> Bilanz sowie - Steuern und Zölle. • primär ergebnisorientierte Informationserstellung und -erstattung - für intern interessierte Gruppen und - für extern interessierte Gruppen. Gestaltungsaufgabe bezogen auf Systeme, Verfahren und Organisation • der Unternehmungsplanung und -kontrolle, inkl. der Planungs- und Kontrollrechnung und • des Rechnungswesens. Da das Kerninstrument des Controlling, die ergebnis- und liquiditätsorientierte Planungs- und Kontrollrechnung, als integraler Bestandteil eines Planungs- und Kontrollsystems interpretiert wird, gehört zu den vorrangigen Aufgaben des Controlling zwingend die Gestaltung des Planungs- und Kontrollsystems. Controlling umfasst also Dienstleistungs- bzw. Beratungsfunktionen sowie Entscheidungsbzw. Mitentscheidungsfunktionen bezogen auf die Unternehmung als Ganzes, 610
Produktionscontrolling Unternehmungsbereiche, Funktionsbereiche, Produkte und Projekte sowie Prozesse und Potenziale auf allen organisatorischen Ebenen. Je nach Unternehmungsgröße sowie Organisations- und Standortstruktur können daher zur Bewältigung der Aufgaben des Controlling neben dem Zentralcontrolling entsprechende dezentrale Controllingeinheiten gebildet werden. Innerhalb von Industrieunternehmungen kommt hierbei dem Produktionscontrolling besondere Bedeutung als Führungsunterstützungsfunktion zu. 2. Generelle Aufgaben des Produktionscontrolling Dem Produktionscontrolling obliegt als generelle Aufgabe die Sicherung ergebnisorientierter Planung, Steuerung und Kontrolle im Rahmen des Entstehungsprozesses von Produkten - im Funktionsbereich Produktion. Hierbei stützt sich das Controlling im Produktionsbereich primär auf die Verfahren der -> Kostenrechnung und der Investitionsrechnung. Es sind im Rahmen der Planungs-, Steuerungs- sowie Kontrollaufgaben im Produktionsbereich technische Qualitäts-, Mengen- und Zeitgrößen mit Wertgrößen zu verbinden. Dem ProduktionsController obliegt hier die Aufgabe, im Hinblick auf den Produktionsbereich die relevanten Informationen der Planungsund Kontrollrechnung - insb. ->• Keimzahlen - zu erfassen, aufzubereiten und als Führungsinformationen für den Produktionsbereich und für das Zentralcontrolling bereitzustellen. Die wichtigsten Kennzahlen im Produktionsbereich bezogen auf die Produktion als Ganzes, auf Produkte und Projekte sowie Prozesse und Potenziale sind: Kapitalwerte, Operative Ergebnisse vor oder nach -> Kapitalkosten, der Return on Investment, spezifische Deckungsbeitrage und Kostenpositionen.
Produktionscontrolling
Produktionscontrolling Produktions3. Spezielle Aufgaben des controlling Aus den generellen Aufgaben lassen sich sodann spezielle Aufgaben operativer und strategischer Art des Produktionscontrolling ableiten: Regelmäßige Aufgaben: • Mitarbeit bei der kurz- und mittelfristigen Programm- sowie Materialbedarfsplanung, • Mitarbeit bei der integrierten Produktionsprozessplanung und -kontrolle (Termin-, Kapazitätsbelegungs- sowie Materialeinsatz- und Instandhaltungsplanung und -kontrolle), • Budgetplanung und -kontrolle des Produktionsbereiches nach -» Kostenarten (Material-, Personalkosten u.a.), Kostenbereichen und -stellen (Hauptbetriebe, Hilfsbetriebe) und Kostenträgern (in Verbindung mit dem Zentralcontrolling), • Mitarbeit in Ausschüssen: - Produktplanungsausschuss, - Ausschuss für strategische Programmplanung, - Ausschuss für Kapazitäts- und Layout-Planung, -- Ausschuss für die Planung von Eigenfertigung und/oder Fremdbezug sowie auch - Qualität-, Lizenzausschuss u.a. • Mitarbeit bei der Führungskräfte- und Mitarbeiterweiterbildung. Fallweise Aufgaben: • Erarbeitung von Grundsätzen und Verfahren, • Konzeption, Implementierung und Weiterentwicklung eines bereichsbezogenen sowie produkt-, prozess- und potenzialbezogenen Planungs-, Steuerungs- und Kontrollsystems, • Beurteilung von technischen Investitionen, • Mitarbeit an produkt-, prozess- und potenzialbezogenen Wertanalyseprojekten (-»Wertanalyse),
•
• •
Durchfuhrung von GemeinkostenWertanalysen einschließlich —> Benchmarking, Prozesskostenmanagement, Mitarbeit bei der Erarbeitung von Arbeits- und Betriebszeitregelungen, Ermittlung und Beurteilung von spezifischen Maßnahmen des Produktionsbereichs (Reorganisationsprojekte, Standortplanung u.a.).
Einordnung des 4. Organisatorische Produktions-Controller Von besonderer Bedeutung für die Tätigkeit des Produktions-Controller ist die Frage seiner fachlichen und disziplinarischen Unterstellung, da er sowohl der Führung des Produktionsbereiches als auch dem Zentralcontrolling unterstellt werden könnte. In der Praxis hat sich hier eine organisatorische Regelung bewährt, in der Konflikte und Akzeptanzprobleme umgangen werden: der Produktions-Controller wird fachlich und disziplinarisch der Führung des Produktionsbereiches unterstellt, wobei dem Zentralcontrolling ein generelles Informationsrecht in Controllingfragen, ein Entscheidungsrecht in System- und Verfahrensfragen sowie ein Mitentscheidungsrecht in speziellen Sachfragen und vor allem bei der Auswahl bzw. Abberufung des Controllers eingeräumt wird. 5. Ausblick Durch die Bedeutungszunahme funktionsübergreifender Managementund Organisationskonzepte in den letzten Jahren hat eine Aufgabenerweiterung des Produktionscontrolling stattgefunden. Produktions-Controller sind heute zunehmend in funktionsübergreifenden Ausschüssen oder Projekten in die Planung und Umsetzung von Konzepten wie Total Quality Management, Lean Management, Business Reengineering (-* Business Process Reengineering) oder - > Supply Chain Management eingebunden. Hierzu wird neben der Aufbereitung ergebnisorientierter Kennzahlen die Verantwortung des Controlling um die Pla611
Produktionsflexibilität
Produktionscontrolling nung und Kontrolle nichtmonetärer Kennzahlensysteme, etwa im R a h m e n des Balanced Scorecard-Ansatzes (-» Balanced Scorecard), erweitert. Literatur.: Hahn, D.: Aufgaben und organisatorische Stellung des Produktions-Controllers, in: Steffen, R.AVartmann, R. (Hrsg.): Kosten und Erlöse - Orientierungsgrößen der Unternehmenspolitik, Stuttgart 1990; Hahn, D.: PuK - Controllingkonzepte, 5. Aufl., Wiesbaden 1996; Hahn, D./Laßmann, G.: Produktionswirtschaft - Controlling industrieller Produktion, Bd. 1 & 2, 3. Aufl., Heidelberg 1999; Horvath, P.: Controlling, 7. Aufl., München 1998.
Dietger Hahn Produktionsflexibilität Produktionsflexibilität ist als Oberbegriff für ein B ü n d e l von Eigenschaften und Fähigkeiten des Produkt- bzw. Produktionssystems zu verstehen, das d e m Unternehmen A n p a s s u n g e n an variierende Situationen bzw. Zustände erlaubt. Anpassungen im Unternehmen im Bereich der Produktion entstehen vor allem aus Wettbewerbsgründen. So kann eine Anpassung der Leistungserstellung notwendig werden, u m • •
•
•
in kurzer Zeit neue oder verbesserte Produkte auf den Markt zu bringen, individuelle K u n d e n w ü n s c h e befriedigen b z w . eine Vielfalt von Produktvarianten herstellen zu können (-> Variantenmanagement), die Vielzahl von Varianten zu wettbewerbsfähigen Preisen offerieren zu können, eine h o h e —> Lieferbereitschaft bzw. kurze Lieferzeiten (trotz Variantenvielfalt) zu gewährleisten.
U m diese Situationen zu bewältigen, müssen im Unternehmen gewisse Fähigkeiten v o r h a n d e n sein. H ä u f i g e Produktinnovationen bzw. -Variationen lassen sich nur bewerkstelligen, w e n n diese in relativ kurzer Zeit mit angemessenen Kosten z u realisieren sind. Das bedeutet nicht zuletzt, dass auch bei kurzen Produktlebenszyklen eine weitere wirtschaft-
612
liehe Nutzung v o n vorhandenen gungsmitteln möglich sein sollte.
Ferti-
Bietet ein U n t e r n e h m e n eine h o h e Variantenanzahl an, so erfordert dies die Fähigkeit, unterschiedliche Produkte auch in kleinen Stückzahlen wirtschaftlich fertigen zu können. Dies setzt voraus, trotz fortwährender Ä n d e r u n g e n im ProduktMix, den Produktionsablauf möglichst kontinuierlich zu gestalten, also Umrüstzeiten zu begrenzen. Differierende T e r m i n w ü n s c h e der Kunden wiederum verlangen die Möglichkeit, Durchlaufzeiten kurzfristig anpassen zu können. Derartige Fähigkeiten der Produktion konstituieren die Flexibilität. Unter Produktionsflexibilität versteht m a n daher die •
•
Fähigkeit dieses Systems, sich an ein neues oder geändertes Produktprog r a m m aufgrund variierender Kundenwünsche anpassen zu können. Fähigkeiten dieses Systems, sich an variierende K u n d e n w ü n s c h e innerhalb eines bestehenden Produktprogramms anpassen zu können.
Die Produktionsflexibilität lässt sich daher in zwei Kategorien einteilen (Abb. 1) Im Rahmen der ersten Kategorie unterscheiden wir zwischen einer Neuproduktund Expansionsflexibilität. Der Zeitraum, auf den sich diese Flexibilitätsarten beziehen, ist in der Regel längerfristig. Die Neuproduktflexibilität - auch Entwurfsflexibilität genannt - beschreibt die Fähigkeit, wie schnell die Leistungserstellung neue oder verbesserte Produkte schaffen und auf den Markt bringen kann. Der A u f b a u v o n Flcxibilitätspotenzialen. wie z.B. die organisatorische Fähigkeit zur Parallelisierung der Tätigkeiten der Produkt- und Prozessentwicklung sowie die frühzeitige Einbindung der Zulieferer in diesen Prozess (-» Simultaneous Engineering) oder der Einsatz von C A D Systemen sind Beispiele für Flexibilitätspotenziale dieser Art. Diese zielen darauf
Produktionsflexibilität
Produktionsflexibilität
ten Anforderungen zu erweitern. Eine hohe Erweiterungsflexibilität liegt beispielsweise vor, wenn ein Unternehmen die für seine neuen Erzeugnisse erforderlichen Potenziale und Kompetenzen schnell und kostengünstig ausbauen kann. Variierende Kundenwünsche machen auch im Rahmen eines bestehenden Produktprogramms laufend Anpassungen der Leistungsmenge, Leistungsarten und Lieferzeiten notwendig. Diese Anpassungen haben eher kurz- bis mittelfristigen Charakter. In diesem Zusammenhang sind im besonderen die Volumen- sowie die Produktmixflexibilität von Bedeutung.
Abb. 1: Arten der
Produktionsflexibilität
ab, Produktentwicklungszeiten kurz zu halten und damit eine schnelle Anpassung an geänderte Kundenwünsche zu ermöglichen bzw. Wettbewerbsvorteile daraus zu gewinnen. Die Expansionsflexibilität wird vor allem durch die Anpass- und Erweiterungsflexibilität konstituiert. Anpassflexibilität lässt sich durch die Fähigkeit ausdrücken, in welchem U m f a n g vorhandene Bearbeitungs-, Materialfluss- und Informationsmittel auch bei geänderten oder neuen Produkten weiterverwendet werden können. Damit ist der sogenannte Wiederverwendbarkeitsgrad von vorhandenen Techniken angesprochen: Dieser kennzeichnet jenen Anteil an den gesamten Investitionen, den man sich durch die Weiterverwendung der "alten" Technologie erspart (Industrieroboter z.B. 0,6-0,8). Die Erweiterungsflexibilität ist durch die Fähigkeit gegeben, ein bestehendes System der Leistungserstellung kostengünstig und zeitgerecht hinsichtlich der geänder-
Die Mengen- oder Volumenflexibilität beschreibt die Anpassungsfähigkeit eines Arbeitssystems an variierende Mengen für einen bestimmten Zeitabschnitt. Volumenflexibilität hängt aber nicht nur von dem U m f a n g der Anpassungsfähigkeit eines Systems an Mengenschwankungen ab, sondern auch davon, ob sich diese Mengenschwankungen ökonomisch durchführen lassen. Ein System der Leistungserstellung weist eine hohe Volumenflexibilität auf, wenn sich gegebene Mengenschwankungen mit geringen Kosten bzw. Qualitätsabweichungen etc. durchfuhren lassen. Der Umfang der Anpassungsfähigkeit eines Systems an Mengenschwankungen hängt vor allem ab von der • •
Erweiterungsfähigkeit sowie der Kompensationsfähigkeit.
Mit Erweiterungsfähigkeit wird die quantitative Leistungsreserve eines Fertigungsmittels bzw. einer Kapazitätseinheit bezeichnet, d.h. inwieweit die Nutzungsdauer oder Nutzungsintensität variiert werden kann (z.B. durch automatisches Durcharbeiten in den Pausen, Möglichkeit einer personalreduzierten zweiten oder dritten Schicht, Überstunden, Erhöhung des Ausstoßes j e Zeiteinheit).
613
Produktionsflexibilität Die Flexibilität des Fertigungsmittels bestimmt sich in diesem Fall aus den technisch möglichen Änderungen der Nutzungsdauer (zeitliche Anpassung) und der Nutzungsintensität (intensitätsmäßige Anpassung). Die Kompensationsfähigkeit ist demgegenüber eine Eigenschaft eines Produktionssystems, quantitative Verschiebungen innerhalb des Produktprogramms dadurch aufzufangen, indem kurzfristig z.B. Personalumschichtungen, Wiederinbetriebnahme bzw. Stilllegung von Fertigungsmitteln vorgenommen werden können (querschnittsmäßige Anpassung). Damit zusammenhängend ist die Fertigungsmittelredundanz zu sehen. Sie lässt sich dadurch beschreiben, in welchem Umfang bei Bearbeitungs-, Materialfluss- und Informationssystemen jeweils mehrere, hinsichtlich ihres Funktionsumfanges gleichartige Einrichtungen vorhanden sind. Die Fertigungsredundanz ist umso höher, j e mehr sich ersetzende Maschinen vorhanden sind. Die Produktmix-Flexibilität kennzeichnet die Fähigkeit eines Systems der Leistungserstellung, verschiedenartige Produkte gleichzeitig herstellen zu können. Diese ist näher durch die Komponenten Vielseitigkeit, Umrüstbarkeit sowie Durchlauffreizügigkeit charakterisiert. Vielseitigkeit bezeichnet die Fähigkeit eines Systems der Leistungserstellung, verschiedene Fertigungsaufgaben mit den vorhandenen Potenzialen ausführen zu können. Dabei kann weiter nach der Anzahl der Verrichtungen, die von einem Fertigungsmittel vorgenommen werden können, und nach dem Variantenspektrum unterschiedlicher Werkstücke in Bezug auf Dimensionierung und materielle Beschaffenheit differenziert werden. Die Umrüstbarkeit ist die Fähigkeit eines Produktionssystems, unterschiedliche Arbeitsobjekte nach einem mehr oder weniger zeitaufwendigen Rüsten bearbeiten zu können (z.B. durch bearbeitungszeitparalleles Rüsten). Die Durchlauffreizügig614
Produktionsflexibilität keit beschreibt die Fähigkeit eines Produktionssystems, auch bei wechselnden Arbeitsobjekten und Bearbeitungspfaden den Materialfluss schnell und kostengünstig anpassen zu können. Eine hohe Durchlauffreizügigkeit ist z.B. bei der Fertigung von Teilen durch flexible Fertigungssysteme gegeben, da es möglich ist, die Wege der Transportmittel frei zu programmieren. Prozessflexibilität lässt sich durch die Fähigkeit des Systems der Leistungserstellung ausdrücken, wie kurzfristig es sich an die Wünsche der Kunden anpassen kann. Die Prozessflexibilität schließt Mix- und Volumenflexibilität ein. Diese Flexibilität ist nicht nur durch die Anpassungsfähigkeit im Hinblick auf einen kurzfristig variierenden Produktmix und an Mengenschwankungen bestimmt, sondern auch von der Zeit, in der die Leistungserstellung auf (erwartete oder unerwartete) Kundenwünsche reagieren kann. Die Lieferschnelligkeit stellt eine entscheidende Determinante dar. Eine schnelle Belieferung der Kunden lässt sich durch einen hohen Vorfertigungsgrad anstreben, der mit Lagerbeständen verbunden ist. Ein höherer Vorfertigungsgrad verkürzt die Lieferzeit, da bereits Teile oder Baugruppen bzw. im Extremfall Enderzeugnisse bei Auftragseingang auf Lager liegen. Der ökonomische Nachteil besteht darin, dass Lagerhaltungskosten entstehen und bei größerer Variantenvielfalt eine genaue Prognostizierbarkeit der Bedarfe schwierig bzw. unmöglich wird. Ist eine Prognostizierbarkeit des Bedarfes längerfristig nicht möglich, so wird eine Prozessflexibilität durch Bestände fragwürdig. Daher ist in den neueren Produktions- und Logistikkonzepten (z.B. Just in time, Just in time-Konzept) zunehmend vorgesehen, Prozessflexibilität dadurch zu erreichen, indem die Reaktionsfähigkeit des Systems soweit erhöht wird, dass weitgehend bedarfssynchron die Leistungen erstellt werden können. Dies macht aber neue
Produktionslogistik
Produktionsflexibilität Flexibilitätspotenziale erforderlich.
im
Unternehmen
Neuere empirische Untersuchungen zur Flexibilität, z.B. in der Automobilindustrie, stützen die Hypothese, dass sich die Prozessflexibilität vor allem durch systemische Betrachtungsweise der -> Wertschöpfungskette, kooperative Beziehungen zu Lieferanten und Setzen auf die Lösungskompetenz universell ausgebildeter Arbeitskräfte vor Ort erreichen lässt. Literatur: Kaluza, B.: Betriebliche Flexibilität, in: Wittmann, W. et. al. (Hrsg.): H W B , Stuttgart 1993; Parker, R.P./Wirth, A.: Manufacturing flexibility: Measures and relationships, in: European Journal of Operational Research, Vol. 118, 1999; Schneeweiß, Ch.: Flexibilität, Elastizität und Reagibilität, in: Kern, W./Schröder, H./Weber, J. (Hrsg.): H W P r o d , Stuttgart 1995; Suarez, F.F./Cusumano, M.A./Fine, C.F.: A n Empirical Study of Manufacturing Flexibility in PrintedCircuit Board Assembly, M I T Sloan School of Management, Boston 1992.
Günther Zäpfel Produktionslogistik 1. Begriff Gegenstand der Produktionslogistik ist die zielorientierte organisatorische und technische Planung, Realisation, Steuerung und Überwachung des innerbetrieblichen Güterflusses sowie des zugehörigen Informationsflusses. Der innerbetriebliche Güterfluss erstreckt sich ausgehend vom Wareneingang über alle Produktionsteilsysteme bis hin zum Absatzlager. Er umfasst fremdbezogene Roh-, Hilfs-, Betriebsstoffe, Kaufteile, Komponenten und Module sowie im Produktionssystem erstellte Zwischen-, End- und Abfallprodukte. Bei funktionaler Betrachtung der Unternehmenslogistik sind der Produktionslogistik die Beschaffungslogistik vorgelagert und die -» Distributions- sowie die Entsorgungslogistik nachgelagert. 2. Zielsetzung und Aufgaben Ziel der Produktionslogistik ist es, den innerbetrieblichen Güter- und Informationsfluss so zu gestalten, dass die richtigen Güter in den richtigen Mengen und den
richtigen Qualitäten zu den richtigen Zeitpunkten an den richtigen Orten zu minimalen Kosten und bei optimalem Lieferservice zur Verfügung stehen. Hierzu sind die Struktur des produktionslogistischen Systems in geeigneter Weise zu gestalten sowie die wertschöpfenden Produktionsteilprozesse und die logistischen Lager-, Kommissionier-, Transport-, Handhabungs- und Umschlagsprozesse zielorientiert zu planen, zu veranlassen, zu steuern und zu überwachen. 3. Strukturierung des schen Systems
produktionslogisti-
Aufgaben und Ziele: Die Planung der Struktur des produktionslogistischen Systems, häufig auch als materialflussgerechte Fabrikplanung bezeichnet, hat eine mittel- bis langfristige Wirkungsdauer. Aufgabe ist es, das produktionslogistische Gesamtsystem in Teilsysteme (Produktions-, Lager-, Kommissionier- und Transportsystem) zu untergliedern, diese zu strukturieren, technisch und organisatorisch auszulegen sowie das Zusammenwirken der Teilsysteme in technischer und organisatorischer Hinsicht zu gestalten. Hierzu sind das gesamte Produktionssystem in einzelne Produktionsteilsysteme (Segmente, Fraktale) zu untergliedern und deren räumliche Anordnung festzulegen sowie die Produktionsteilsysteme selbst analog zu strukturieren. Weiter sind die vor, zwischen, nach und in den Produktionsteilsystemen benötigten Lagerteilsysteme und deren räumliche Anordnung sowie die Komponenten des Kommissionierund des Transportsystems zu bestimmen und auszulegen. Bei der Lösung der Strukturierungsaufgabe sind die vielfältigen Interdependenzen zwischen dem Produktions-, Lager-, Kommissionier- und Transportsystem zu berücksichtigen. Ziel der Strukturierung ist es, einen schnellen, übersichtlichen, flexiblen und kostengünstigen Güterfluss zu ermöglichen.
615
Produktionslogistik Strukturierung des Produktionssystems: Die Strukturierung des gesamten Produktionssystems sowie der gebildeten Produktionsteilsysteme wird wesentlich durch das langfristige Produktionsprogramm, das die Arten und Mengen der innerhalb eines langfristigen Zeitraums herzustellenden Produkte spezifiziert, den strukturellen Aufbau der Produkte und die einzusetzenden Produktionsverfahren beeinflusst. Als Organisationsformen der Produktion, die die Struktur des innerbetrieblichen Güterflusses wesentlich prägen, können das Verrichtungsprinzip, das Objekt- bzw. Flussprinzip und das Gruppenprinzip unterschieden werden. Beim Verrichtungsprinzip (Werkstattproduktion) sind Arbeitssysteme, die gleichartige Verrichtungen ausfuhren können, räumlich zu sogenannten Werkstätten (Werkstattorganisation) zusammengefasst. Die Produkte durchlaufen die verschiedenen Werkstätten entsprechend der im Arbeitsplan festgelegten Abfolge der Arbeitsgänge. Bei Werkstattproduktion ergibt sich ein stark vernetzter Güterfluss. Beim Objekt- bzw. Flussprinzip (Fließproduktion) werden die Arbeitssysteme räumlich entsprechend der Abfolge der Arbeitsgänge zur Herstellung des Produkts angeordnet. In der Regel durchlaufen alle Produkte die Arbeitssysteme in derselben Reihenfolge und Richtung. Es ergibt sich ein einheitlich ausgerichteter Güterfluss. Als Mischform des Verrichtungs- und des Objektprinzips fasst das Gruppenprinzip (Zentrenproduktion) nach dem Objektprinzip Arbeitssysteme mit unterschiedlichen Bearbeitungsfunktionen räumlich und organisatorisch in Produktionszentren so zusammen, dass eine möglichst vollständige Bearbeitung einer bestimmten Gruppe von ähnlichen oder fertigungstechnisch verwandten Produkten in einem Produktionszentrum ermöglicht wird. Im gesamten Produktionssystem existieren in der Regel mehrere Organisations616
Produktionslogistik formen nebeneinander, etwa Werkstattproduktion in der Teilefertigung und Fließfertigung in der Montage. Die Strukturierung des Produktionssystems legt die Grundstruktur der innerbetrieblichen Standortverteilung bereits weitestgehend fest. Innerbetriebliche Standortplanung: Gegenstand der innerbetrieblichen Standortplanung (Layoutplanung) ist die räumliche Anordnung der Betriebsgebäude auf dem Betriebsgrundstück, der Produktionsund Lagerteilsysteme innerhalb der Gebäude sowie der produktiven Einheiten innerhalb der Produktionsteilsysteme, wobei das Transportsystem in die Betrachtung einzubeziehen ist. Sie kann in der Form der Neu-, Ergänzungs- und Umplanung durchgeführt werden. Zur Layoutplanung werden analytische Modelle des Operations Research eingesetzt, auf deren Grundlage mit Hilfe exakter und heuristischer Verfahren Lösungen ermittelt werden. Als Zielsetzung wird zumeist die Minimierung der Transportkosten verfolgt. Planung des Lager-, Kommissionier- und Transportsystems: Bei der Planung der technischen und organisatorischen Auslegung des Lager-, Kommissionier- und Transportsystems sind aufgrund der engen Beziehungen zwischen den Logistik- und den Produktionsprozessen die Interdependenzen zum Produktionssystem zu berücksichtigen. Aufgrund der hohen Komplexität des produktionslogistischen Gesamtsystems und der komplexen Interdependenzen zwischen den einzelnen Teilsystemen ist eine Anwendung analytischer Planungsmethoden nicht möglich. Zur Planung der Auslegung des Lager-, Kommissionierund Transportsystems wird daher die Simulation eingesetzt, mit deren Hilfe sich unterschiedliche vorgegebene Systemauslegungen zielorientiert bewerten lassen.
Produktionsmanagement, strategisches
Produktionslogistik 4. Planung, Steuerung und des Güterflusses
Überwachung
Aufgaben und Ziele: Die Planung, Steuerung und Überwachung des Güterflusses hat den zur Realisation eines vorgegebenen kurzfristigen Produktionsprogramms erforderlichen Güterfluss durch das produktionslogistische System nach Art, Menge, Ort und Zeit zielgerichtet zu planen, die Planvorgaben durchzusetzen, die Realisation zu überwachen und bei Soll-Ist-Abweichungen geeignete Korrekturmaßnahmen einzuleiten. In die Betrachtung sind dabei die auszuführenden Produktionsteilprozesse, die Lager-, Kommissionier-, Transport-, Handhabungs- und Umschlagsprozesse einzubeziehen. Zielsetzung aus betriebswirtschaftlicher Sicht ist die Minimierung der entscheidungsrelevanten Kosten bei gegebenem Lieferservice. Da die entscheidungsrelevanten Kosten teilweise sehr schwer oder nicht zu quantifizieren sind, werden häufig Zeit- und Mengenziele, wie die Minimierung von Durchlaufzeiten, von Terminabweichungen und von Beständen, als Ersatzziele herangezogen. Planungs- und Steuerungssysteme: Zur Unterstützung der Planung, Steuerung und Überwachung des Güterflusses werden -» Produktionsplanungsund -steuerungssysteme (PPS-Systeme), Lagerverwaltungs- und -steuerungssysteme sowie Transportplanungs- und -steuerungssysteme eingesetzt. PPS-Systeme bestimmen ausgehend von der Planung des kurzfristigen Produktionsprogramms der Fertigerzeugnisse (Primärbedarf) unter Berücksichtigung der Lagerbestände Arten und Mengen der benötigten Zwischenerzeugnisse und Materialien und leiten daraus Fertigungs- und Beschaffungsaufträge ab. Die anschließende Termin- und Kapazitätsplanung bestimmt auf der Ebene der Arbeitsvorgänge unter Berücksichtigung der verfügbaren Kapazitäten Solltermine für die geplanten Fertigungsaufträge. Im Rahmen der Auf-
tragsfreigabe werden die für die Fertigung freizugebenden Aufträge ermittelt, deren Vollzug schließlich gesteuert und überwacht wird. Lagerverwaltungsund -steuerungssysteme verwalten den Wareneingang, weisen Lagerplätze zu, disponieren Material für Aufträge, planen und steuern die Ein- und Auslagerung von Gütern, steuern die Kommissionierbereiche und generieren Transportaufträge. Transportplanungs- und -steuerungssysteme planen und steuern die Ausfuhrung der Transportaufträge zwischen den Produktions-, Lager- und Kommissionierteilsystemen. Zur Erzielung eines optimalen Güterflusses müssen das PPS-, das Lagerverwaltungs- und -steuerungs- sowie das Transportplanungs- und - steuerungssystem informationell über eine gemeinsame Datenbasis und steuerungstechnisch über Prozesskopplungs- und - koordinationsmechanismen integriert zusammenarbeiten. Literatur: Gudehus, T.: Logistik: Grundlagen, Strategien, Anwendungen, Berlin, Heidelberg, N e w York 1999; Schulte, C.: Logistik. W e g e zur Optimierung des Material- und Informationsflusses, 3. Aufl., München 1999.
Hans Ziegler Produktionsmanagement, strategisches 1. Wesen des strategischen Produktionsmanagements Das strategische Produktionsmanagement hat die Aufgabe, Grundsatzentscheidungen über die Leistungserstellung im Unternehmen zu fällen. Grundsatzentscheidungen haben eine fundamentale Tragweite für ein Unternehmen und beeinflussen seine Wettbewerbsfähigkeit. Der zentrale Inhalt dieser Grundsatzentscheidungen liegt daher auf dem Schaffen und Erhalten einer wettbewerbsfähigen Leistungserstellung. Strategisches Produktionsmanagement ist Teil des strategischen Managements, das den Aufbau und die Absicherung von Wettbewerbs vorteilen für das Unternehmen bzw. für seine strategischen Geschäftseinheiten zu ermöglichen hat. Im Besonderen bei oligopolistischen und monopolistischen 617
Produktionsmanagement, strategisches Marktstrukturen bestehen signifikante strategische Handlungsspielräume für die Wettbewerbsstrategie. Einem Ansatz von Porter folgend umschreibt die Wettbewerbsstrategie die Wahl offensiver und defensiver Maßnahmen, um eine gefestigte Branchenposition zu schaffen, d.h. erfolgreich mit den Wettbewerbskräfiten (Kunden- und Lieferantenmacht, Gefahr durch Substitutionsprodukte und neue potenzielle Wettbewerber sowie der Rivalität innerhalb der Branche) fertig zu werden und damit am Markt bestehen zu können. Um sich Erfolg versprechend mit den Wettbewerbskräften auseinander zu setzen, lassen sich eine Reihe von generellen Wettbewerbsstrategien unterscheiden, z.B.: • • •
Kostenführerschaftsstrategie, Differenzierungsstrategie, Strategie der Konzentration Schwerpunkte.
auf
Die Kostenführerschaftsstrategie ist dadurch gekennzeichnet, dass durch eine Reihe von Maßnahmen die Stückkosten unter das Niveau der wichtigsten Konkurrenten gesenkt werden sollen, um durch eine Politik niedriger Preise im Volumengeschäft Wettbewerbsvorteile zu realisieren. Eine Differenzierungsstrategie zeichnet sich dadurch aus, Leistungen des Unternehmens bzw. der strategischen Geschäftseinheiten gegenüber den Wettbewerbern so zu differenzieren, dass das Unternehmen in der Branche eine Einzigartigkeitsposition aus der Sicht der Abnehmer einnimmt. Die Konzentration auf Schwerpunkte besteht darin, durch Spezialisierung auf eine bestimmte Abnehmergruppe Wettbewerbsvorteile gegenüber jenen Konkurrenten zu erringen, deren Wettbewerbsausrichtung die gesamte Branche oder andere Abnehmergruppen umfasst. Kernaufgabe des strategischen Produktionsmanagements ist es nun, einen wesentlichen Beitrag zu diesen grundlegenden Wettbewerbsstrategien zu leisten und 618
Produktionsmanagement, strategisches einen Entscheidungsprozess in Gang zu setzen, der Aussagen zu zukünftigen Leistungen bzw. Produkten sowie betrieblichen Prozessen und Ressourcen (Produkt-, Prozess-, Ressourcenkonzept) des Unternehmens macht. Entscheidungen des strategischen Produktionsmanagements betreffen daher im Einzelnen: • •
Neue und verbesserte Produkte bzw. Produkttechnologien; Umfang der Wertschöpfung, Einsatz neuer Prozesstechnologien bzw. Ressourcen, Dimensionierung der bereitzustellenden Kapazitäten für die Ressourcen, Wahl der Lieferkettenstruktur etc.
Die Grundsatzentscheidungen zum Technologieeinsatz, zur Wertschöpfung sowie zur Wahl der Lieferkettenstruktur stellen die Kernelemente der Produktionsstrategie dar. In der Abb. 1 sind die wesentlichen Elemente von Produktionsstrategien nochmals im Überblick wiedergegeben.
Abb. I: Elemente der
Produktionsstrategie
Die Wertschöpfungsstrategie umfasst jene Grundsatzentscheidung, die den Umfang an Prozessen, die das Unternehmung im Hinblick auf seine gewünschten Leistungen selbst durchfuhrt bzw. von außen bezieht, bestimmt. Vor allem sind aus der Sicht der Produktion Aussagen zur Wertschöpfungstiefe in Bezug auf die eigene Forschung und Entwicklung sowie die Fertigungs- und Logistikprozesse zu machen. Die Entwicklungstiefe legt daher fest, welche Forschungs- und Entwicklungsprozesse für neue Produkte im eigenen Unternehmen und welche extern
Produktionsmanagement, strategisches durchgeführt werden. Die Fertigungstiefe charakterisiert den Umfang der Wertschöpfung, die ein Unternehmen bzw. eine strategische Geschäftseinheit durch die eigene Fertigung im Verhältnis zu der insgesamt erforderlichen Wertschöpfung für ein jeweiliges Endprodukt selbst erstellt. Logistiktiefe zeigt an, in welchem Ausmaß ein Unternehmen logistische Aktivitäten - wie z.B. Transportieren, Fördern, Sammeln, Verteilen, Lagern, Umschlagen, Kommissionieren von Gütern - selbst durchführt oder von anderen Unternehmen, wie Lieferanten, Logistikdienstleistern und Kunden, ausfuhren lässt. In einem Unternehmen werden in der Regel eine Vielzahl von Technologien in Produkten und Prozessen eingesetzt. Die Technologiestrategie stellt eine Grundsatzentscheidung dar, welche von alternativ einsetzbaren Technologien zu wählen ist. Generell können dabei die Strategien der Produkt- und Prozessintensivierung sowie der Produkt- und Prozesstechnologie-Innovation unterschieden werden. Eine Produkt- bzw. Prozessintensivierung liegt vor, wenn ein Unternehmen die effiziente Umsetzung von bekanntem technologischen Know-how zur Lösung seiner Kundenprobleme anstrebt. Es steht also nicht die Kreation technologischer Innovationen im Vordergrund, vielmehr wird versucht, in Anwendungsfällen schon bewährte Technik zu intensivieren (z.B. durch Produktstandardisierung). Produkttechnologie-Innovationen sind dadurch charakterisiert, dass ein Unternehmen aufgrund technologischer Neuerungen Produkte entwickelt, mit denen es eine Marktführerschaft gewinnen möchte. Prozesstechnologie-Innovationen sind gegeben, wenn durch technologische Neuerungen die Wettbewerbsfähigkeit des Fertigungssystems - gegenüber den Konkurrenten - gesteigert werden kann (-> Produktionsflexibilität). Dabei ist nicht nur an die Entwicklung und An-
Produktionsmanagement, strategisches wendung neuer Fertigungstechnologien zu denken, sondern auch daran, dass der zeitliche Entwicklungsprozess beschleunigt werden kann, z.B. durch -» Simultaneous Engineering. Die Lieferkettenstrategie ist jene Grundsatzentscheidung, die die Struktur und die Regelung des Material- und Warenflusssystems von den Lieferanten durch das Unternehmen bis zu den Kunden festlegt. Zu den Strukturentscheidungen gehören vor allem die Festlegung der Anzahl der inner- und außerbetrieblichen Produktions- sowie Lagerstandorte sowie die Dimensionierung der entsprechenden Kapazitäten. Ferner zählen dazu der Entwurf der Zulieferstrukturen (z.B. -> Justin-time Konzepte versus Vorratsbeschaffung) und Distributionsstrukturen (z.B. klassische versus neue Distributionskonzepte, wie -» Efficient Consumer Response). Entscheidungen zu Regelung der Lieferkette beziehen sich auf das Konzept des Systems zur Produktionsplanung und -Steuerung bzw. der Lieferkettenplanung. Die einzelnen Elemente der Produktionsstrategie stehen in einem engen Zusammenhang und beeinflussen sich wechselseitig. Beispielsweise legt die Strategie zur Logistiktiefe den Umfang an logistischen Prozessen fest, die ein Unternehmen selbst durchführt, und setzt einen Rahmen für die Lieferkettenstrategie. Andererseits hat die Lieferkettenstrategie einen Einfluss auf die Wahl der Logistiktiefe. Durch diese Produktionsstrategien wird die generelle Ausrichtung des Unternehmens in seiner Umwelt in entscheidendem Maße mitbestimmt. Als Informationsinput für die rationale Wahl der Strategie ist zum einen eine Umweltanalyse notwendig, die die im Wettbewerb sich bietenden Chancen (aber auch Bedrohungen) zu identifizieren hat, und zum anderen eine Unternehmensanalyse, die den betrieblichen Möglichkeitsraum für notwendige Veränderungen im Hinblick auf die unternehmenseigenen Ressourcen 619
Produktionsmanagement, strategisches erkennen lässt, aber auch die Chancen, die sich aus den eigenen Fähigkeiten und Potenzialen im Wettbewerb ergeben (ressourcenbasierte Strategiesicht). 2. Festlegung des strategischen Produktionskonzepts als Kernaufgabe des strategischen Produktionsmanagements Eine Kernaufgabe des strategischen Produktionsmanagements besteht nun darin, die einzelnen Elemente der Produktionsstrategie unter Beachtung der generellen Wettbewerbsstrategie festzulegen. Das Resultat stellt das strategische Produktions- und Logistikkonzept dar, das die Fähigkeiten und Potenziale (Produkt-, Prozess- und Ressourcenkonzept) im Bereich der Leistungserstellung definiert, die zu schaffen bzw. zu erhalten sind, um einen Beitrag zur Wettbewerbsfähigkeit des Unternehmens zu leisten bzw. umfassender zu Wettbewerbsvorteilen fuhrt. Die strategische Rolle des Produktionsmanagements hat daher nicht nur eine reaktive Ausprägung, indem die Produktion lediglich die Wettbewerbsstrategie unterstützt, sondern eine aktive Rolle, indem die Produktion die überlegenen Fähigkeiten und Potenziale, die zu Wettbewerbsvorteilen führen, schafft. Die neuen Produktions- und Logistikkonzepte, die in der Praxis in der jüngsten Zeit für erhebliches Aufsehen gesorgt haben, werden als entscheidend für Vorteile im Wettbewerb angesehen: z.B. -»Just in Time-Konzept, Time-BasedManagement, Fraktale Fabrik, -»Lean Production, um nur einige zu nennen. Diese Diskussion wurde im besonderen hervorgerufen durch Untersuchungen über den Erfolg der fernöstlichen Konkurrenz vor allem in der Automobilindustrie - aber auch in anderen Branchen - , die trotz der Erfüllung von individuellen Kundenwünschen in Form einer Vielzahl von Varianten lediglich etwa die Hälfte an Entwicklungszeit, Personal in der Fabrik, Produktionsfläche, Investitionen in Werkzeuge und Lagerbeständen benöti620
Produktionsmanagement, strategisches gen und ungefähr doppelt so produktiv sind. Gemeinsam ist diesen Konzepten, dass sie von einer stetigen Verbesserung bzw. Vereinfachung der Wertschöpfungsprozesse (-> Wertschöpfungskette) ausgehen und damit Ressourcen- und Prozessrestriktionen, z.B. durch lange Rüstzeiten, unabgestimmte Teilprozesse mit langen Wartezeiten, unzuverlässige Prozesse mit hoher Nacharbeit, zu vermindern oder zu vermeiden versuchen. Diese Konzepte basieren daher vor allem darauf, überlegene Fähigkeiten und Potenziale im Bereich der Leistungserstellung zu schaffen, die Wettbewerbsvorteile begründen. In den genannten Konzepten wird vor allem auch die Abstimmung der gesamten Wertschöpfungskette als entscheidend für den Erfolg im Wettbewerb angesehen. Dabei ist nicht nur die Abstimmung der innerbetrieblichen, sondern auch der außerbetrieblichen Wertschöpfungsprozesse gemeint. Untersuchungen zeigen nämlich, dass der Erfolg im Wettbewerb entscheidend durch ein effizientes Management der gesamten Lieferkette (supply chain) bestimmt wird. Nicht mehr allein Unternehmen gegen Unternehmen stehen im Wettbewerb, sondern Lieferkette gegen Lieferkette. Diese Lieferketten stellen Wertschöpfungsverbunde verschiedener Partner dar. Aus der Sicht eines Unternehmens, das Güter flir den Markt erstellt, können diese Partner z.B. sein: Lieferanten - logistische Dienstleister - Kunden. Das macht notwendig, alle Material- und Warenflüsse sowie der dazugehörigen Informationsflüsse innerhalb gesamter Lieferketten zu betrachten. -> Supply Chain Management wird daher in jüngster Zeit als das für den Wettbewerb entscheidende Produktions- und Logistikkonzept angesehen, das sich definieren lässt als die Führung aller unternehmensweiten und unternehmens-übergreifenden Material- und Warenflüsse, die die gesamte Lieferkette - im Extremfall vom Lieferanten des Lieferanten bis zum Kun-
Produktionsmanagement, strategisches den des Kunden - unter Wettbewerbsgesichtspunkten plant und integriert. Literatur: Corsten, H.: Grundlagen der Wettbewerbsstrategie, Leipzig 1998; Porter, M.E.: Wettbewerbsstrategie, 3. Aufl, Frankfurt a.M. 1995; Wildemann, H.: Fertigungsstrategien, 2. Aufl., München 1994; Zäpfel, G.: Strategisches Produktionsmanagement, Berlin, New York 1989.
Günther Zäpfel Produktionsorganisation 1. Grundsätzliches Bei der Planung der Organisation ist von den generellen Wert-, Sach- und Sozialzielen der Unternehmung auszugehen. Im Produktionsbereich stehen vor allem Kosten-, Qualitäts-, Mengen-/Zeit- sowie Motivations- und Flexibilitätsziele im Vordergrund. Haupteinflussfaktoren fur die konkrete, individuelle Gestaltung der Organisation einer Industrieunternehmung und damit auch der Produktion bilden Unternehmungsgröße, Programmstruktur, Produktionstyp und Führungs-
Produktionsorganisation konzeption, insb. -* Führungsstil. Ferner sind als Einflussfaktoren die historische Entwicklung der Industrieunternehmung von Bedeutung, des Weiteren Erfahrung und Ziele der für die Produktion zuständigen (obersten) Führungskraft bzw. Führungskräfte. Die folgenden Ausfuhrungen beziehen sich primär auf die zusammenbauende Produktion (Fertigung mit Fertigungstechnik), gelten aber auch weitgehend analog für die chemische Produktion (Erzeugung mit Verfahrenstechnik). 2. Organisatorische Stellung der Produktion innerhalb der Gesamtunternehmung Die klassischen hierarchischen Organisationsmodelle leiten ihr Hauptcharakteristikum aus dem vorherrschenden Gliederungsmerkmal für Aufgabenkomplexe auf der zweiten Führungsebene ab. Es lassen sich Industrieunternehmungen mit primär funktionsbezogener, primär produktbezogener und primär regionenbezogener
Abb. I: Eingliederung der Produktion in die funktionale Organisation einer Unternehmung mit Einzelproduktion 621
Produktionsorganisation sowie primär projekt- und kundenbezogener Aufbauorganisation unterscheiden (eindimensionale Organisation). Hierbei können auch zwei oder drei dieser Gliederungsmerkmale gleichzeitig zur Anwendung kommen (mehrdimensionale Organisation: z.B. Matrixorganisation, -> Organisationsformen, -> Organisationstrukturen). Eine funktionale Gliederung der Industrieunternehmung ist zweckmäßig bei relativ homogenem Produktprogramm. Die Einordnung der Produktion und damit die Gesamtorganisation einer Industrieunternehmung richten sich hier primär nach dem jeweiligen Produktionstyp im Hinblick auf die Verbundenheit der Produktion zum Absatzbereich und Absatzmarkt, den Grad der Leistungswiederholung und die (davon teilweise bestimmte) Anordnung der Betriebsmittel. So lassen sich z.B. für Industrieunternehmungen mit synthetischer bzw. zusammenbauender Produktion Konzepte der Aufbauorganisation in Abhängigkeit davon charakterisieren, ob eine unmittelbar kundenorientierte Einzelproduktion (auch (Klein-) Serienproduktion) nach dem Werkstattprinzip und/oder Zentrenprinzip oder ob eine mittelbar kundenorientierte (vereinzelt auch unmittelbar kundenorientierte) Großserienproduktion oder Massenproduktion nach dem Fließprinzip vorliegt. Bei Vorliegen von unmittelbar kundenorientierter Einzelproduktion (Abb. 1) ist die Zusammenfassung von Absatz und Produktion, insbesondere von Vertrieb und Konstruktion sowie Entwicklung, sinnvoll, da gegenüber dem Kunden häufig technische Problemlösungen und individuelle Lösungsvarianten zum dominierenden Verkaufsargument werden. Zudem sind vielfach während der Auftragsanbahnung, Verhandlung und Durchführung spezifische Kundenwünsche zu berücksichtigen, die Konstruktion und Fertigungsprozess und damit Kosten, Preis und Termin beeinflussen. Insbesondere 622
Produktionsorganisation im Großanlagengeschäft findet deswegen die Projektorganisation Anwendung, und zwar hier übergreifend in den Bereichen Vertrieb und Engineering. Bei mittelbar kundenorientierter Serienoder Massenproduktion nach dem Fließprinzip werden grundsätzlich die Funktionen Absatz und Produktion und bei größeren Unternehmungen auch Beschaffung, -> Controlling und weitere Funktionen organisatorisch verselbstständigt (Abb. 2). Der technische Bereich wird auf die ihm als Kernfunktion eigenen Tätigkeiten der Produktion beschränkt. Notwendige Zusammenarbeit erfolgt in Ausschüssen und Projektteams (-> Teams, -* Teamstrukturen, -> Gruppenkonzepte, —> Projektmanagement). Oberste F ü h r u n g
Zentralabteilungen
Beschaffung
Controlling, Finanzierung u.Verwaltung
Abb. 2: Eingliederung der Produktion in die funktionale Organisation mit (Groß-) Serienproduktion oder Massenproduktion
Ist eine Industrieunternehmung auf der zweiten Führungsebene nach Produkten und/oder Regionen gegliedert und liegen entsprechende Divisions vor, so ist für die Stellung der Produktion innerhalb der Organisation vornehmlich entscheidend, ob ein relativ homogenes Produktprogramm oder ein relativ heterogenes Produktprogramm vorliegt. Besitzt die Industrieunternehmung ein relativ homogenes Produktprogramm, so wird sie in mehreren Divisions ggf. an mehreren Standorten dieselben oder ähnliche Produkte erzeugen und ggf. auch Absatz und andere Funktionen dezentralisieren. Dies ist z.B. vielfach in der international tätigen Automobilindustrie der
Produktionsorganisation Fall. Hier wird durch entsprechende Zentralabteilungen und Ausschüsse eine Koordination des Absatzes, der Produktion, der Beschaffung und auch der übrigen Funktionen bezogen auf die einzelnen Divisions bzw. Unternehmungsbereiche erforderlich. In der Zentralabteilung Produktion, die gegenüber den Produktionsbereichen sachliche Mitentscheidungsbefugnisse besitzt, werden die mittelfristige und kurzfristige Produktprogrammplanung und damit auch die Kapazitätsbelegungsplanung der einzelnen Unternehmungsbereiche koordiniert. Mit zunehmender Heterogenität des Produktprogramms (Ausdehnung des Tätigkeitsbereichs auf unterschiedliche Branchen) entfallen die Voraussetzungen für eine zentrale Koordination der Grundfunktionen Absatz, Produktion und Beschaffung. Dies ist z.B. bei Konzernen der Fall, die in der Eisen und Stahl schaffenden Industrie, im Maschinenbau, im Schiffbau und im Verkehr und Handel tätig sind. Man wird hier nur noch jene Aufgaben durch Koordinationsabteilungen oder zentrale Abteilungen bei der obersten Führung belassen, die zur Gewährleistung der Aufgabenerfüllung der obersten Führung und einer möglichst hohen Effizienz für die gesamte Unternehmung nicht oder nicht allein von den Divisions wahrgenommen werden können. Eine Zentralabteilung Produktion für den Konzern ist hier nicht sinnvoll begründbar. Alle mit der Produktion verbundenen Führungsaufgaben werden in den spezifischen Gesellschaften bzw. Betrieben der divisionalisierten Unternehmung wahrgenommen. 3. Organisatorische Gliederung innerhalb des Produktionsbereiches Innerhalb des Produktionsbereiches einer Industrieunternehmung lässt sich eine organisatorische Gliederung grundsätzlich nach den Führungs- und Durchführungstätigkeiten vornehmen. So lassen sich unterhalb der Produktionsleitung die organisatorischen Einheiten nach Pla-
Produktionsorganisation nungs-, Steuerungs- und Durchführungs(Produktion/Fertigung) sowie Kontrollaufgaben untergliedern. Da die Mengenund Zeitenkontrolle in der Praxis im Rahmen der Steuerung mit wahrgenommen wird, beschränkt sich hierbei die Kontrolle i.d.R. auf eine übergeordnete Qualitätskontrolle. Zur strategischen Planung gehört im Produktionsbereich die Fabrikplanung, die in Abstimmung mit der strategischen Produktprogramm- und Potenzialplanung für die Gesamtunternehmung erfolgt. Sie umfasst im Kern die langfristige programmorientierte Anlagen- und dazugehörige Personalplanung für die Produktionshauptbetriebe und -hilfsbetriebe (Kapazitäts- und Layoutplanung). Zur operativen Planung gehören die Produktprogrammplanung, die Materialbedarfs- und Kapazitätsnutzungsplanung als Grobplanung sowie die Prozess- bzw. Ablaufplanung (Terminplanung, Kapazitätsbelegungsplanung mit integrierter Materialeinsatzplanung) mit daraus resultierendem Produktionsprogramm als Feinplan. Für die produktionswirtschaftlichen Grundlagen (Erstellung von Konstruktionszeichnungen, Stücklisten, Arbeitsplänen usw.) sowie Rationalisierungsaufgaben (—> Wertanalyse, -» Normung) werden oft gesonderte Abteilungen im Bereich der Planung gebildet. Die Organisation der Aufgabenbereiche Steuerung und Durchführung (Produktionshaupt- und Produktionshilfsbetriebe) hängt weitgehend vom Produktionstyp im Hinblick auf das Merkmal Prozesswiederholung ab. Bei Einzel- und Kleinserienproduktion nach dem Werkstattprinzip bilden die einzelnen Werkstätten die organisatorischen Einheiten mit jeweils dazugehöriger Steuerung. Die Koordination erfolgt über die Ablauf- bzw. Prozessplanung. Vielfach erfolgt die Koordination der Ablauf- bzw. Prozessplanung und -Steuerung in Form eines Auftragsabwicklungszentrums. Innerhalb der
623
Produktionsorganisation Werkstätten kann je nach Größe eine weitere organisatorische Gliederung in Meisterbereiche sowie Bereiche von Gruppenführern (Vorarbeitern) erfolgen. Zu deren Steuerung, primär zur Arbeitsverteilung und -fortschrittsüberwachung, werden meist sog. Produktions- bzw. Steuerungsleitstände als besondere Abteilungen gebildet. Bei Produktion nach dem Zentrenprinzip (z.B. mittels Fertigungsinseln) werden vielfach zentral nur terminliche, qualitative und quantitative Ziele j e Planungsperiode vorgegeben und die Aufgabenzuteilung auf die Arbeitssysteme den Gruppenmitgliedern überlassen. Die Abstimmung zwischen den einzelnen Zentren kann dezentral erfolgen (z.B. über das -> KANBAN-System), i.d.R. wird es aber noch eine zentrale Koordinationsebene geben. Bei Großserien- und Massenproduktion nach dem Fließprinzip bilden die einzelnen Produktionsstraßen bzw. Produktionsbänder organisatorische Einheiten unter der Produktionsleitung. Neben einer zentralen Produktionssteuerung im Zusammenhang mit der Ablauf- bzw. Prozessplanung finden sich in den einzelnen Produktionsbereichen ebenfalls Steuerungsleitstände, die vielfach auch die Bedienung der Maschinen mit übernehmen. Im Bereich Qualitätskontrolle können zentral durchzuführende Aufgaben nach Prozessstufen (Eingangskontrolle, Prozesskontrolle, Endkontrolle), nach Produktgruppen und nach Funktionsbereichen (z.B. Qualitätslabor, Messtechnik) organisatorisch gegliedert werden. Sowohl bei Werkstattproduktion als auch bei Zentrenproduktion und bei hochautomatisierter Fließproduktion werden Aufgaben der Qualitätskontrolle und der Instandhaltung zunehmend der jeweiligen Bedienungsmannschaft von Anlagen bzw. Anlagenbereichen mit übertragen. Die Erstellung von Gütern bzw. Leistungen in der geforderten Qualität bilden allerdings kardinale Aufgaben eines jeden Mitarbeiters.
624
Produktionsorganisation 4. Ablauforganisation der Produktion Auftragsabwicklung Zur Auftragsabwicklung gehören sämtliche Planungs-, Steuerungs-, Durchführungs- und Kontrolltätigkeiten, die im Zusammenhang mit einer Leistungs- bzw. Produkterstellung anfallen. Es handelt sich um die verketteten Aktionskomplexe in allen Bereichen der Unternehmung im Zusammenhang mit der Produkterstellung unter besonderer Berücksichtigung des Zeitbedarfs. Die Durchführung der meisten Aufgaben der Auftragsabwicklung kann heute in größeren Industrieunternehmungen unter Einsatz leistungsfähiger elektronischer Informations- und Kommunikationssysteme erfolgen. Hierbei strebt man eine integrierte Aufgabendurchführung im Rahmen des sog. Computer Integrated ManufacturingKonzeptes (CIM-Konzeptes) an. CIM umfasst das informationstechnologische Zusammenwirken zwischen CAD (Computer Aided Design), CAP (Computer Aided Planning), CAM (Computer Aided Manufacturing), CAQ (-> Computer Aided Quality Assurance) und PPS (Produktionsprozessplanung, -Steuerung und -kontrolle). Hierbei soll die Integration der technischen und organisatorischen Funktionen zur Produkterstellung erreicht werden. Die Tätigkeiten der Produktionsprozessplanung, -Steuerung und -kontrolle (PPS) bilden das Kernstück des dispositiven Teils der Auftragsabwicklung. Ausgangspunkt sind das vorab festgelegte Produktprogramm sowie die Ermittlung der hierfür erforderlichen Materialien in qualitativer und quantitativer Sicht. Die Produktionsprozessplanung beinhaltet die auftrags- und potenzialorientierte Terminund Kapazitätsbelegungsplanung mit integrierter Materialeinsatz- und Instandhaltungsplanung. Die Produktionsprozesssteuerung umfasst für durchzuführende Aufträge nach einer Verfügbarkeitsprüfung der benötigten Produktions-
Produktionsorganisation faktoren die Erstellung der für die Durchführung notwendigen Informationen, die Arbeitsverteilung bzw. endgültige Kapazitätsbelegung, die Arbeitsingangsetzung sowie die Materialeinsatzsteuerung. Abschließend erfolgt die Produktionsprozesskontrolle. 5. Entwicklungstendenzen Durch die Verbreitung modemer Management- und Organisationskonzepte bspw. -* Total Quality Management, -> Business Process Reengineering oder Lean Management - in der Industriepraxis haben dezentrale Organisationsstrukturen Einzug in den Produktionsbereich gehalten. Sie sind Teil eines ganzheitlichen Konzeptes, in dem Strategie, Struktur und Kultur abzustimmen sind. Mit der Einrichtung dezentraler Strukturen wird vor allem die Unterstützung von Flexibilität und Kundennähe durch die Organisation erhofft. Parallel dazu verspricht Dezentralität die Potenziale der Mitarbeiter besser auszuschöpfen, indem deren Eigenverantwortung, -> Motivation und Kreativität ausgenutzt werden. Delegation von Aufgaben, Kompetenzen und Verantwortung ist folglich das primäre Merkmal dezentraler Strukturen (-> Empowerment). Als weitere wichtige Merkmale lassen sich noch Kunden- und Prozessorientierung, Mitarbeiterorientierung, Gruppenprinzip, ganzheitliche Aufgabenerfüllung, flache Hierarchien sowie Vernetzung und Kommunikation nennen. Als dezentrale strukturorientierte Konzeptionen haben sich in Literatur und Praxis vor allem teilautonome Arbeitsgruppen, Fertigungsinseln, Fertigungssegmente und die fraktale Fabrik etabliert. Literatur: Bleicher, K.: Organisation: Strategien Strukturen - Kulturen, 2. Aufl., W i e s b a d e n 1991; Biihner, R.: Betriebswirtschaftliche Organisationslehre, 9. Aufl., M ü n c h e n , Wien 1999; Hahn, D./Laßmann, G.: Produktionswirtschaft - Controlling industrieller Produktion, Bd. 1 & 2, 3. A u f l . , H e i d e l b e r g 1999; Hahn, D. et al.: M o d e r n e M a n a g e m e n t k o n z e p t e unter besonderer Berücksichtigung des Produktionsbereiches, Gießen
Produktionsplan, u. -steuerungssystem 1999; Krüger, W.: Organisation der Unternehmung, 3. A u f l . , Stuttgart u.a. 1994; Warnecke, H J . : D i e Fraktale Fabrik, 2. A u f l . , Berlin et al. 1993; W i l d e m a n n , H.: D i e modulare Fabrik, 4 . Aufl., M ü n c h e n 1 9 9 4 .
Dietger Hahn Produktionsplanungs- und -steuerungssystem 1. Konzept und Aufgaben des PPSSystems Die Produktionsplanung- und -Steuerung (PPS) hat die Aufgabe, aufgrund erwarteter und/oder vorliegender Kundenaufträge den mengenmäßigen und zeitlichen Produktionsablauf unter Beachtung der verfugbaren Ressourcen (z.B. Personal, Maschinen, Werkzeuge etc.) durch Planvorgaben festzulegen, diese zu veranlassen sowie zu überwachen und bei Abweichungen Maßnahmen zu ergreifen, so dass bestimmte betriebliche Ziele erreicht werden. Aus betriebswirtschaftlicher Sicht ist als Ziel im Besonderen die Minimierung der entscheidungsrelevanten Kosten (z.B. Produktions-, Transport-, Zwischen- und Endlagerkosten) für eine gegebene -> Lieferbereitschaft anzustreben. In der Praxis werden aus Gründen der Einfachheit zeitliche Ersatzziele genannt, wie hohe Termintreue, kurze Durchlaufzeiten, hohe Kapazitätsauslastung, niedrige Lagerbestände (-» Lagermanagement), hohe Flexibilität (-> Produktionsflexibilität) etc. Das PPS-System bestimmt im Wesentlichen den mengenmäßigen Produktionsablauf, wobei die betrieblichen Material- und Warenflüsse durch die beteiligten Stellen abzustimmen sind (Koordinierung der Material- und Warenflussströme). Ferner sind durch das PPS-System die Beginn- und Endzeitpunkte der Fertigungsaufträge und der damit verbundenen Arbeitsvorgänge unter Beachtung der technologischen Reihenfolgen und der begrenzten Kapazitäten zu fixieren (Koordinierung des zeitlichen Ablaufs der Prozesse). Neuere computergestützte PPS-Systeme basieren auf dem MRPII (-»Manufacturing Resource Planning) -Konzept. 625
Produktionsplan, u. -steuerungssystem Dabei sind als Planungsebenen eine Geschäfts-, Programm-, Mengen-, Terminund Kapazitätsplanung sowie die Steuerung vorgesehen, die durch eine Topdown-Kopplung verbunden sind. Das bedeutet, die übergeordneten Planungsebenen legen die Rahmenbedingungen für die untergeordneten Planungsebenen fest (-> Top-Down-Planung). Innerhalb jeder Planungsstufe ist eine wechselseitige (iterative) Abstimmung zwischen dem jeweiligen Mengen- und Ressourcenplan vorgesehen, wobei der Detaillierungsgrad der verwendeten Informationen von Planungsebene zu Planungsebene sowohl in sachlicher und räumlicher als auch in zeitlicher Hinsicht zunimmt. Dabei wird auf jeder Planungsstufe keine simultane Mengen- und Ressourcenplanung automatisch durchgeführt, sondern für den jeweils vom Disponenten vorgegebenen (u.U. aggregierten) Mengenplan werden durch das EDV-System die sich ergebenden Ressourcenbelastungen bestimmt ("simuliert"). Der Benutzer kann den Mengenplan umändern, und es lässt sich wiederum der resultierende Ressourcenbedarf ermitteln. Diese interaktive Verarbeitung zwischen dem Mengen- und Ressourcenplan wird auch als what-ifSimulation bezeichnet. Die Teilplanungen werden schrittweise hintereinanderfolgend ("sukzessiv") durchgeführt, mit jeweils zunehmendem Detaillierungsgrad der Daten und abnehmendem Planungshorizont. Die hierarchisch angeordneten Planungsebenen sind in der Abb. 1 skizziert. Die Geschäftsplanung ermittelt über die Planung des Betriebs- und Untemehmenserfolgs das Gesamtbudget. Die konkrete Ausgestaltung dieser Planungsebene hängt vom Betriebstyp ab. Grundlage der Produktionsprogrammplanung für Produktgruppen (aggregierte Programmplanung) bildet der Absatzplan auf Produktgruppenebene sowie (bei Lagerfertigung) die geplanten Lagermengen 626
Produktionsplan, u. -steuerungssystem Planungséfcene (Mengenplan)
Geschäftsplanung (Business Planning) Absatz- und Produktionsprogrammplanung für Produktgruppen (Sales and Operations Planning) Programmplanung für Enderzeugnisse (Master Production Scheduling MPS) Vertriebsplanung fur Enderzeugnisse (Distribution Requirements Planning) Materialbedarfsplanung (Materials Requirements Planning - MRP) Fertigungssteuerung (shop floor control)
Planungsebene (Ressourcenplan)
Budget, Erfolgsplan (wertmäßig) Ressourcenplanung auf Basis aggregierter Größen (Resource Planning) Grob-Kapazitätsplanung (Rough-cut Capacity Planning)
Termin- und Kapazitätsplanung (Capacity Requirements Planning) Maschinenbelegung (machine sequencing)
Abb.!: Grundstruktur eines PPS-Systems Basis des MRPH-Konzepts
auf
der Produktgruppen. Aus diesem Absatzund Lagerplan wird ein Produktionsprogramm für Produktgruppen abgeleitet und die resultierenden Ressourcenbelastungen ermittelt. Als Ressourcen müssen nicht nur Maschinenkapazitäten verstanden werden, sondern es lassen sich z.B. ebenso Personalressourcen, kritische Materialien, Vorrichtungen, Werkzeuge etc. einbeziehen. Aggregierte Arbeitspläne, Fristenpläne u.ä. stellen dabei grundlegende Informationen dar. Ist das Produktionsprogramm ressourcenmäßig undurchführbar, sind Eingriffe des Benutzers erforderlich und eine Umplanung ist vorgesehen. Die Auswirkungen werden wiederum ressourcenmäßig überprüft und die Prozedur solange fortgesetzt, bis ein zufriedenstellendes Programm gefunden ist. Um den Aufwand bei den interaktiven Simulationsverfahren in Grenzen zu halten, werden vor allem Engpassressourcen (z.B. kritische Materialien, bekannte Engpassmaschinen) in die Analyse einbezogen.
Produktionsplan, u. -steuerungssvstem Die Produktionsprogrammplanung für einzelne Enderzeugnisse hat die Mengen pro Enderzeugnis (bei einer Fertigung einer großen Variantenvielfalt gegebenenfalls pro Hauptbaugruppe) zu bestimmen. Dazu ist das Produktionsprogramm auf der Basis von Produktgruppen in das jeweilige Enderzeugnis zu disaggregieren. Für die Disaggregation wird in MRPIISystemen häufig eine sehr einfache Vorgehensweise vorgeschlagen, nämlich die Produktionsmenge einer Produktgruppe nach dem Anteil des Bedarfs der zugehörigen Einzelerzeugnisse aufzuschlüsseln. Auswirkungen, die ein konkretes Produktionsprogramm (master production schedule) auf den Ressourcenbedarf hat, lassen sich wiederum auf detaillierterer Ebene in analoger Weise simulieren. Die Mengenplanung ermittelt die Materialien (Repetierfaktoren) nach Art, Menge und Termin, die zu fertigen bzw. zu beschaffen sind, um das geplante Produktionsprogramm durchzufuhren. Dazu enthalten PPS-Systeme EDV-Programme der Stücklistenauflösung, die es ermöglichen, den Bedarf an Baugruppen, Teilen, Rohstoffen - also allgemein den Sekundärbedarf - unter Zugrundelegung des Produktionsprogramms zu errechnen. Bei der Nettobedarfsermittlung werden die verfügbaren Lagerbestände der Komponenten (Lagerbestand, Bestellbestand, Werkstattbestand sowie Reservierungen) in der Rechnung berücksichtigt. Der Nettobedarf für jede Komponente wird dabei durch eine zeitliche Vorlaufverschiebung auf Perioden zugeordnet. Die Vorlaufverschiebung basiert auf geplanten Durchlaufzeiten durch die beteiligten Stellen. Untrennbar mit diesen Aufgaben ist eine Bestandsführung verbunden. Diese erfasst und verbucht Lagerzugänge und Lagerabgänge. Damit lassen sich die buchmäßigen Lagerbestandswerte feststellen und statistische Auswertungen über den vergangenen Verbrauch vornehmen. Wahlweise lässt sich der Bedarf auch durch eine verbrauchsgesteuerte Disposition
Produktionsplan, u. -steuerungssvstem bestimmen, die auf dem vergangenen Bedarf gründet. In der Regel wird dies nur für die Komponenten mit geringem Wert durchgeführt. Sind alle Bedarfe einer Komponente bekannt, so werden diese gegebenenfalls nach wirtschaftlichen Kriterien im Rahmen der Losgrößen- bzw. Bestellgrößenrechnung in Lose bzw. Bestellmengen zusammengefasst. Viele PPS-Systeme enthalten dazu einfache Näherungsverfahren, die erlauben, Rüst- und Lagerhaltungskosten alternativer Auftragsgrößen gegeneinander abzuwägen. Ergebnis dieses Schrittes sind Vorschläge über Fertigungsaufträge bzw. über Bestellaufträge für Einkaufteile. Mengenpläne lassen sich ressourcenmäßig auf Zulässigkeit prüfen. Eine simultane Optimierung der Mengen an Komponenten und der Kapazitäten ist aufgrund des Rechenaufwandes aber auch in dieser Teilplanung nicht realisiert. Vielmehr werden die Kapazitäten jeweils im Anschluss an die Mengenplanung betrachtet. Die Kapazitätsplanung lässt sich daher als Werkzeug interpretieren, um die Zulässigkeit der Mengenpläne testen zu können. Die Termin- und Kapazitätsplanung ermittelt die Start- und Endtermine der Arbeitsvorgänge für die geplanten Fertigungsaufträge. Basis stellen dabei die Rüstzeiten und Bearbeitungszeiten je Einheit aus den Arbeitsplänen dar sowie die in der Regel vergangenheitsbezogenen Übergangszeiten, die Warte-, Transportzeiten und dergleichen antizipieren sollen. Die Termin- und Kapazitätsplanung erfolgt in der Fertigungsindustrie im Allgemeinen in zwei Schritten. Bei der Durchlaufterminierung werden die Startund Endtermine unter Beachtung der technisch bedingten Arbeitsabläufe festgelegt, ohne aber die Kapazitätsgrenzen zu berücksichtigen. Die Kapazitätsbedarfsrechnung ermittelt aus diesen terminierten Arbeitsvorgängen den Kapazitäts627
Produktionsplan, u. -steuerungssvstem bedarf auf den entsprechenden Kapazitätseinheiten in den einzelnen Planperioden. Dazu werden die Kapazitätsbedarfe der einzelnen Arbeitsvorgänge j e Maschinengruppe und Periode summiert und dem entsprechenden Kapazitätsangebot gegenübergestellt. Resultat sind gegebenenfalls Über- und Unterdeckungen. Die Kapazitätsterminierung hat die Aufgabe, Kapazitätsbedarf und -angebot aufeinander abzustimmen, sofern diese pro Maschinengruppe und Periode voneinander abweichen. Als Hilfsmittel sind elektronische Leitstände einsetzbar. Für die geplanten Fertigungsaufträge aus der Termin- und Kapazitätsplanung ist im nächsten Schritt zu bestimmen, welche von diesen kurzfristig aus Termingründen freigegeben werden müssen. Die Auftragsfreigabe ist mit einer Verfügbarkeitskontrolle verbunden. Diese hat zu gewährleisten, dass für die freigegebenen Aufträge das erforderliche Personal, die Maschinen, die Werkzeuge und Vorrichtungen etc. bereitstehen. Im Rahmen der automatisierten Fertigung ist auch die Verfügbarkeit von NC-Programmen und Roboter-Programmen sicherzustellen. Für die freigegebenen und in Arbeit befindlichen Aufträge ist aus Aktualitätsgründen in vielen Fällen eine erneute Arbeitsgangterminierung - die sogenannte Terminfeinplanung - erforderlich. Die sich ergebenden Maschinenbelegungspläne und die benötigten Fertigungsinformationen (z. B. Fertigungsbelege) sind im Anschluss daran den durchfuhrenden Produktionsstellen zu übermitteln und die Arbeit zu verteilen. Steuerung besteht im Wesentlichen aus Kapazitäts- und Auftragsüberwachung. Durch diese Aktivitäten ist das Produktionsgeschehen zu verfolgen, also die Zustandsänderungen bezüglich der Kundenund Fertigungsaufträge in der Produktion sowie die bezüglich der Kapazitätseinheiten.
628
Produktionsplan, u. -steuerungssvstem Die A uftragsfortschrittsüberwachung betrachtet auftragsbezogene Daten, im Besonderen ob sich die Aufträge entsprechend den Planwerten nach Qualität, Menge und Zeit verhalten. Damit lässt sich der Abarbeitungsgrad der Aufträge feststellen sowie ein Vergleich zwischen Soll- und Ist-Daten vornehmen, und es lassen sich gegebenenfalls Maßnahmen ergreifen. Die Kapazitätsüberwachung erfasst maschinenbezogene und mitarbeiterbezogene Daten. Der Übergang von Planung und Steuerung vollzieht sich dort, wo Planvorgaben in Durchsetzungsaktivitäten übergehen. Allerdings ist diese Schnittstelle nicht generell formulierbar, sondern hängt davon ab, inwieweit einzelne Planungsaufgaben (vor allem die Maschinenbelegungsplanung) von den ausführenden Ebenen übernommen werden. Die darauf beruhende Unterteilung konstituiert eine Unterscheidungsmöglichkeit zwischen einer zentralen oder dezentralen Produktionsplanung und -Steuerung. 2. Neuere Entwicklungen Die Prozesse eines Unternehmens werden zunehmend aus einer ganzheitlichen Perspektive betrachtet. Für das PPS-System bedeutet das, die einzelnen computergestützten Anwendungssysteme der betrieblichen Funktionsbereiche können immer weniger isoliert gesehen werden. Dies führt zu Enterprise Resource Planning Systems (ERP). Diese stellen Informationssysteme dar, die Geschäftsprozesse sowohl innerhalb der einzelnen betrieblichen Hauptfunktionen als auch über die Bereiche des Unternehmens hinweg abbilden. ERP zieht alle für die Geschäftstätigkeit eines Unternehmens notwendigen relevanten Ressourcen in die Betrachtung ein und kann als eine konsequente Weiterentwicklung des MRPIIKonzepts gesehen werden. Der nächste logische Schritt besteht darin, die logistischen Prozesse nicht nur aus der Sicht eines Unternehmens zu betrachten,
Produktlebenszyklus
Produktionsplan, u. -steuerungssystem sondern auch die gesamten Material- und Warenflüsse einschließlich der Ressourcen sowie die Informationsflüsse zwischen den rechtlich selbstständigen Wertschöpfungspartnern in das Planungs- und Informationssystem einzubeziehen. Für diese umfassende Aufgabe muss das PPSKonzept zu einem umfassenden Supply Chain Planungs- und Steuerungssystem weiterentwickelt werden, um auch Potenziale zu erschließen, die durch eine unternehmensübergreifende Koordination der Material- und Warenflüsse verschiedener kooperierender Unternehmen erzielt werden können. Supply Chain Software unter Einbindung von Internet- und Intranetlösungen (-» Intranet) sowie ERPSystemen ist derzeit die umfassendste Lösung, die für einen abgestimmten Ressourceneinsatz eines unternehmensübergreifenden Material- und Warenflusses angeboten wird. Dabei ist auch vorgesehen, Mengen- und Ressourcenpläne mittels Optimierungsmethoden (z.B. durch lineare Optimierung) im Rahmen der Supply Chain Software simultan abzustimmen. Literatur: Fandet, G./Francois, P./Gubbitz, K.M.: PPS- und integrierte betriebliche Software, 2.
Aufl., Berlin, Heidelberg 1997; Kurbel, K.: Produktionsplanung und -Steuerung, 4. Aufl., München, Wien 1999; Zäpfel, G.: Grundzüge des Produktions- und Logistikmanagement, Berlin, N e w York 1996.
Günther Zäpfel Produktlebenszyklus Im Zeitablauf unterscheidet man für Produkte verschiedene Phasen des Markterfolges, analog zu den Lebensphasen in der Biologie. 1. Einführungsphase. Das Produkt ist neu, die Umsätze sind noch gering. Der Werbe- und Vertriebsaufwand hingegen ist hoch, daher lässt sich in der Regel noch kein Gewinn erzielen. 2. Wachstumsphase. Die Nachfrage steigt, entsprechend gehen die Umsätze nach oben, und der Deckungsbeitrag wird positiv. 3. Reifephase. Das Produkt ist selbstverständlich geworden. Die Umsätze steigen nur noch schwach an, die Gewinne sind positiv und konstant. Durch Differenzierung der -* Produktgestaltung (Produktdifferenzierung) oder andere Maßnahmen der ->• Verkaufsförderung soll die Nachfrage angekurbelt werden.
Umsatz
Einfuhrung
y Wachstum
Reife
Sättigung Degeneration
Zeit Abb. I: Phasen des
Produktlebenszyklus
629
Produktlebenszyklus 4. Sättigungsphase. Die Nachfrage stagniert, die Umsätze bleiben konstant. Durch verstärkte Konkurrenz und den damit verbundenen Preisverfall sinken die Gewinnbeiträge in dieser Phase. 5. Degenerationsphase. Der Absatz sinkt erst langsam, dann immer schneller. Das Produkt "stirbt". Die Phasen des Produktlebenszyklus sind in Abb. 1 dargestellt. Die Dauer des Produktlebens ist von Produkt zu Produkt verschieden. Manche ausgereiften Güter sind vor langer Zeit marktreif geworden und werden in ihrer Reifephase sehr lange Zeit nachgefragt (z.B. Werkzeuge wie der Hammer), andere durchlaufen den gesamten Zyklus in weniger als einem Jahr, weil der technische Fortschritt oder neue Moden über sie hinweggehen (Computer oder modische Accessoires). Produktpolitik Die Produktpolitik geht davon aus, dass Produkte neben der Erfüllung von Ansprüchen an ihre Zweckmäßigkeit auch werbende Wirkung entfalten müssen, um erfolgreich am Markt bestehen zu können. Die Produktpolitik befasst sich mit unternehmerischen Maßnahmen, mit denen die Attraktivität von Produkten bei den Konsumenten gesteigert werden kann. Als produktpolitische Alternativen sind zu nennen: 1. Die Produktentwicklung Entwicklung von Grund auf neuer Produkte, die auf neuen Technologien basieren. 2. Produktdifferenzierung Von einem Grundmodell, das schon auf dem Markt erhältlich ist, werden neue Varianten abgeleitet (-»Variantenmanagement). Neben das bestehende Produkt tritt also eine neue Variante, mit etwas anderen Eigenschaften. 3. Produktvariation Die Eigenschaften des bestehenden Produktes werden variiert. D.h., es entsteht kein weiteres Produkt, son630
Profit Center dem das bestehende Produkt wird verändert und neu positioniert. 4. Produktelimination Streichung eines Produktes aus dem Absatzprogramm, da beispielsweise bestimmte Renditekennzahlen (z.B. Produktdeckungsbeitrag) hinter den Erwartungen zurückbleiben (-»Produktelimination) Profit Center Center-Konzepte verbinden organisationsstrukturelle Merkmale mit steuerungstechnischen Elementen des Finanzund Rechnungswesens. Ein Profit Center ist ein objektorientierter, organisatorisch abgegrenzter Teilbereich eines Unternehmens, der aus Sicht des Finanz- und Rechnungswesens mit einer eigenen Gewinnverantwortung ausgestattet ist. Profit Center verfügen über eine Selbstständigkeit im Wertschöpfungs- und im Absatzbereich. Typischerweise werden Sparten, Divisionen oder Geschäftsbereiche von Unternehmen (-> Organisationsformen, ->Organisationsstrukturen) als Profit Center organisiert. Zunehmend werden aber auch Unternehmensbereiche ohne direkten Marktzugang sowie interne Zentralabteilungen, die in der Regel Dienstleistungsfunktionen erfüllen (-» Service Center), als Profit Center geführt. Profit Center können mit einer rechtlichen Selbstständigkeit ausgestattet werden. Ziel der Einrichtung von Profit Centern ist die Förderung internen Unternehmertums, das insbesondere in monolithisch organisierten Großunternehmen nur ungenügend ausgebildet ist. Profit Center tragen bei vorgegebenem Kapitaleinsatz die Verantwortung für den erwirtschafteten Gewinn. Die mit der Profit CenterBildung einhergehende dezentralisierte, größere Handlungsautonomie erfüllt dabei eine wesentliche Motivationsfunktion für das Management des Profit Centers. Um unternehmerisches Motivationspotenzial freisetzen zu können, bedingt eine Gewinnverantwortung notwendigerweise auch eine Beeinflussbarkeit der wesentli-
Projektmanagement
Profit Center chen Stellhebel auf der Kosten- und Absatzseite. Der Gewinnausweis fordert darüber hinaus die Transparenz im Unternehmen und unterstützt das Topmanagement, unrentable Unternehmensbereiche zu identifizieren. Interne Leistungen an oder von anderen Bereichen des Unternehmens werden über Verrechnungspreise abgewickelt. Insbesondere interne Bereiche ohne direkten Marktzugang werden damit einem Marktdruck ausgesetzt, der zu effizienterem Umgang mit den Ressourcen fuhren soll. Literatur: Frese, E.: Das Profit-Center-Konzept i m Spannungsfeld von Organisation und Rechnungswesen, in: Ahlert, D./Franz, K.-P./Göppl, H. (Hrsg.): Finanz- und Rechnungswesen als Führungsinstrument, W i e s b a d e n 1990; Kreuter, A.: Verrechnungspreise in Profit-Center-Organisationen, 2. Aufl., München/Mering 1999; Kreuter, A./Solbach, B.: Die rechtliche Verselbständigung von Profit-Centern, in: Zeitschrift Führung + Organisation, 4/1997, S. 224-230.
Projektmanagements im technischen Bereich, zum Beispiel zur Abwicklung von Großbauprojekten, hat sich ein breites Anwendungsspektrum entwickelt. Projekte zur Reorganisation, zur Entwicklung und Implementation von Informationssystemen sowie zur Kundenauflragsfertigung seien exemplarisch genannt. Zusammenfassend lässt sich Projektmanagement als Führungskonzept zur Abwicklung komplexer, in der Regel einmaliger Vorhaben interpretieren. Im Wesentlichen besteht das Projektmanagement aus einer funktionellen, einer institutionellen und einer personellen Komponente: •
Das funktionelle Projektmanagement definiert Projektgegenstand, -aufgaben und -ziele. Als integraler Bestandteil bestimmt die -> Prozessorganisation bzw. -> Ablauforganisation die einzusetzenden Instrumente sowie die Reihenfolge und den Zeitpunkt der Bearbeitung der Aufgaben. Zentrale Aufgabe des funktionellen Projektmanagements ist das Ressourcenmanagement.
•
Das institutionelle Projektmanagement ordnet den Projektträgern Aufgaben, Kompetenzen und Verantwortung zu und konstituiert somit die projektinterne Aufbauorganisation. Mit der Definition der Schnittstellen zwischen dem Projekt und der übergeordneten Organisationseinheit wird die projektexteme Aufbauorganisation festgelegt.
•
Das personelle Projektmanagement definiert, basierend auf den Projektaufgaben, die Anforderungsprofile der Projektträger und Maßnahmen zur Abdeckung der Anforderungen. Unter Berücksichtigung der -> Untemehmenskultur wird die Projektkultur durch Führungs-, Kooperations- und Verhaltensrichtlinien vorgegeben.
Andreas Kreuter Prognoseverfahren Trendforschung Program Evaluation and Review Technique Projektmanagement, Netzplan Progressive Planung Synonym für -> Bottom-up Planung Projektgruppen -»• Gruppenkonzepte, ment
Projektmanage-
Projektmanagement 1. Gegenstand des Projektmanagement Ein Projekt ist ein einmaliges, zeitlich, sachlich und räumlich begrenztes Vorhaben, das unter Verwendung knapper Ressourcen durchzuführen ist. Projektaufgaben sind in der Regel relativ komplex und erfordern funktionsübergreifendes Wissen. Die Maßnahmen zur Durchfuhrung eines Projektes werden unter Projektmanagement subsummiert. Planung, Steuerung und Kontrolle von Aufgaben, Personal und Betriebsmitteln im Sinne der Projektziele bilden die Schwerpunkte. Aus der ursprünglichen Anwendung des
Unter den Methoden zur Durchführung konkreter Aufgaben des Projektmanage631
Projektmanagement ment nimmt die Netzplantechnik eine herausragende Stellung ein (-> Netzplan). 2. Netzplantechnik und Projektmanagement Gegenstand der Netzplantechnik ist die Entwicklung von Modellen und die Anwendung von Verfahren zur Planung, Steuerung und Überwachung von Projekten. Die Netzplantechnik ist im Prinzip sehr einfach: Das Projekt wird in elementare Einheiten (Vorgänge, Ereignisse ...) zerlegt. Zwischen den Vorgängen bestehen Anordnungsbeziehungen (VorgängerNachfolger-Beziehungen). Vorgänge und Anordnungsbeziehungen werden graphisch in Form eines Netzplanes dargestellt. Der Netzplan ist als Modell des Projektablaufes Informationsbasis für alle Projektbeteiligten. Zur Vermeidung von Kommunikationsstörungen müssen gewisse Begriffe bekannt und verbindlich sein. Einige dieser Begriffe sind in DIN 69900 normiert. Beispiele sind: Ein Vorgang ist ein zeiterforderndes Geschehen mit definiertem Anfang und Ende. Ein Ereignis ist ein definierter Zustand im Projektablauf. Die folgenden speziellen Netzpläne werden unterschieden (aus einem allgemeinen Ablaufgraphen herleitbar): Vorgangsknotennetzpläne entstehen, wenn man die Vorgänge durch Knoten darstellt. Die "Metra-Potenzial Methode" (MPM) arbeitet in der ursprünglichen Konzeption mit Vorgangsknotennetzplänen. Vorgangspfeilnetzpläne entstehen, wenn man die Vorgänge durch Pfeile darstellt. In der ursprünglichen Version verwendet die "Critical Path Method" Vorgangspfeilnetzpläne. Ereignisse lassen sich bei Vorgangsknoten- und Vorgangspfeilnetzplänen z.B. aus Beginn oder Ende von Vorgängen herleiten. Ereignisknotennetzpläne entstehen, wenn man lediglich die Ereignisse eines Projektes erfasst und als Knoten darstellt. Vorgänge lassen sich als 632
Projektmanagement Übergänge zwischen den Ereignissen bestimmen. Die "Program Evaluation and Review Technique" (PERT) arbeitet in der Originalversion nur mit Ereignisknotennetzplänen. (Ereignispfeilnetzpläne finden keine Verwendung, da die Darstellung eines Ereignisses - d.h. eines Zustandes - als Pfeil wenig Sinn ergibt.) Sind Vorgangsdauern und Vorgangsfolgen mit Sicherheit bekannt, so spricht man von deterministischer Netzplantechnik. Häufig besteht jedoch nicht nur Unsicherheit über die Vorgangsdauern, sondern auch darüber, ob einzelne Vorgänge überhaupt durchgeführt werden sollen. Für Netzpläne mit stochastischer Vorgangsfolge wurde die "Graphical Evaluation and Review Technique" (GERT) entwickelt. Die Strukturplanung dient zum Herausarbeiten der Ablaufstruktur eines Projektes. Dies geschieht im Wesentlichen durch Zerlegung des Projektes in Vorgänge und/oder Ereignisse. Daraus werden durch Berücksichtigung organisatorischer und technologischer Anordnungsbeziehungen die unmittelbaren Vorgänger oder Nachfolger von Vorgängen und/oder Ereignissen abgeleitet. Im Rahmen der Zeitplanung berechnet man (aufbauend auf dem Strukturplan) frühest- und spätestmögliche Anfangs- und Endzeitpunkte aller Vorgänge bzw. Ereignisse und ihre Pufferzeiten (zeitliche Verschiebungsmöglichkeiten). Vorgänge bzw. Ereignisse mit der Pufferzeit Null bezeichnet man als kritisch, da ihre Verschiebung zu einer Verlängerung des Projektes führt. Die kritischen Vorgänge bzw. die kritischen Ereignisse legen mindestens einen kritischen Pfad zwischen Projektbeginn und Projektende fest. Die Kapazitätsplanung baut auf Struktur- und Zeitplanung auf. Sie kommt dann zum Einsatz, wenn Personal und/oder Maschinen nicht in ausreichender Quantität zur Verfügung stehen. Zum Ausgleich zwischen Bedarf und Angebot versucht man zunächst, die Vorgänge bzw. Ereignisse im Rahmen ihrer
Projektmanagement Pufferzeiten zu verschieben. Reicht das zur Anpassung an die verfugbaren Ressourcen nicht aus, so schafft man durch Verschieben des Projektendes so lange zusätzliche Pufferzeiten, bis Kapazitätsbedarf und Kapazitätsangebot einander auf der Zeitachse entsprechen. Die Kostenplanung baut ebenfalls auf Struktur- und Zeitplanung auf. Bewertet man die Vorgangsdauern mit den zugehörigen Kosten, so eröffnen sich Möglichkeiten zur Kostenanalyse und -kontrolle. Alternative Einsatzmöglichkeiten der Ressourcen vorausgesetzt, kann man bei nicht beschränkten und bei beschränkten Kapazitäten die kostenminimale Projektdauer bestimmen. Die skizzierten Planungsprobleme lassen sich als gemischt-ganzzahlige Optimierungsprobleme formulieren. Zu deren Lösung wurden im -»Operations Research exakte und heuristische Verfahren entwickelt. Exakte Verfahren bestimmen die optimale Lösung. Wegen hoher Rechenzeit- und Speicherplatzanforderungen sind sie in der Regel nur für kleinere Probleme geeignet. Exakte Verfahren sind zumeist Branch-and-Bound- Verfahren (Branching = Verzweigen in Teilprobleme, Bounding = Ermittlung von Schranken für Zielfunktionswerte). Heuristische Verfahren bestimmen näherungsweise optimale Lösungen. Sie verwenden zumeist Prioritätsregeln; diese wählen unter mehreren gleichzeitig durchführbaren Vorgängen denjenigen aus, der das günstigste Gesamtergebnis erwarten lässt. Mit ihrer Hilfe sind "große" praktische Probleme lösbar. Literatur: Bnicker, P./Drexl, A./Möhring, R. H./Neumann, K./Pesch, E.: Resource-constrained project scheduling: Notation, classification, models and methods, European Journal of Operational Research, Vol. 112, 1999, S. Domschke, W./Drexl, A.: Einführung in Operations Research. 4. Aufl., Berlin 1998; Drexl, A./Kolisch, R./Sprecher, A.: Koordination und Integration im
Property-Rights- Ansatz Projektmanagement - A u f g a b e n u n d Instrumente, Zeitschrift für Betriebswirtschaft, Jg. 68, 1998, S. 2 7 5 - 2 9 5 ; Schwarze, J.: Netzplantheorie. Herne, Berlin 1983.
Andreas Drexl Promotorenkonzept Witte unterscheidet nach Fachpromotoren - Personen, die in einer Organisation über fachliche Kompetenz verfügen - , Machtpromotoren - Personen, die in einer Organisation über finanzielle Macht verfugen (Kompetenz zur Vergabe von Budgets) - und Prozesspromotoren - Personen, die für die Moderation zwischen Fach- und Machtpromotoren verantwortlich sind. Hervorgehoben wird die Bedeutung einer frühzeitigen Einbeziehung von Machtpromotoren in den Entscheidungsprozess, da allein sie es sind, die durch ihre Budgetgewalt die Entscheidung für oder gegen ein Projekt treffen können. Besondere Bedeutung erlangt dieses Konzept beim -» Management des Wandels Property-Rights-Ansatz 1. Einordnung und Ziel Der Property-Rights-Ansatz, auch als Theorie der Verfügungsrechte bezeichnet, bildet neben der -» Transaktionskostentheorie und dem Principal-Agent-Ansatz (-> Agency-Theorie) die dritte Säule der Neuen Institutionenökonomik. Das Ziel dieser Ansätze ist es, die Struktur, die Verhaltenswirkungen, die Effizienz und den Wandel von ökonomischen Institutionen zu erklären. Der Property-RightsAnsatz analysiert, welche Auswirkungen unterschiedliche Formen der Gestaltung und Verteilung von Verfugungsrechten auf das Verhalten ökonomischer Akteure und auf die Faktorallokation haben und wie sich die Entstehung von Verfügungsrechten, ihre Verteilung und ihr Wandel erklären lassen. 2. Grundbausteine Der Property-Rights-Ansatz beruht auf drei Grundbausteinen: (a) der Annahme nutzenmaximierenden Verhaltens der
633
Property-Rights-Ansatz
Property-Rights-Ansatz Individuen (Homo Oeconomicus), (b) dem Konzept der Verfügungsrechte und (c) der Annahme, dass die Spezifizierung, Übertragung und Durchsetzung von Verfügungsrechten Transaktionskosten verursachen. a) Mit der Annahme nutzenmaximierenden Verhaltens unterstellt der Property-Rights-Ansatz den handelnden Akteuren, so zu handeln, dass der ihnen entstehende Nettonutzen (Nutzen der Zielerreichung abzüglich der hierfür entstehenden Kosten) möglichst groß ausfällt. b) Verfügungsrechte legen fest, in welcher Weise ihr Inhaber legitimerweise über die Ressourcen verfugen kann, an denen er die Rechte innehat. Welche Nutzungsmöglichkeiten einer Ressource einem Akteur legitimerweise offen stehen, hängt dabei zum einen von den besonderen Verfügungsrechten ab, die der betreffende Akteur an der Ressource selbst hält. Der Property-Rights-Ansatz unterscheidet traditionell vier Verfügungsrechte an einer Ressource: das Recht - die Ressource zu nutzen (usus), - ihre Form oder Substanz zu ändern {abusus) - die Erträge der Ressourcennutzung einzubehalten oder die Verluste zu tragen (usus fructus), sowie - alle oder einzelne der vorstehenden Verfügungsrechte auf andere zu übertragen (Übertragungsrecht). Neben den besonderen Verfügungsrechten, die eine Person an einer Ressource innehat, bestimmen auch die im institutionellen Kontext geltenden Regelungen - oft staatlich gesetztes Recht in welcher Weise ein Akteur eine Ressource legitimerweise nutzen darf. Im Falle eines Hauses werden die Verfügungsrechte des Eigentümers beispielsweise durch die Bestimmungen der Bauordnung, die Mietgesetze
634
und die schränkt.
Gewerbeordnung
einge-
c) Der Property-Rights-Ansatz bezeichnet die Kosten, die für die Bestimmung, Übertragung und Durchsetzung von Verfügungsrechten anfallen, als Transaktionskosten. Hierzu gehören beispielsweise die Informations-, Verhandlungs- und Vertragskosten, die beim Verkauf eines Gutes entstehen, aber auch die Kosten eines Pförtners, der die Eintrittskarte in ein Kino kontrolliert, die Kosten eines Zaunes, mit dem ein Grundstück vor unbefugtem Betreten geschützt wird, oder die Kosten eines Gerichtsverfahrens, in dem Haftungsansprüche entschieden werden. 3. Implikationen Gemäß des Property-Rights-Ansatz beeinflusst die Verteilung der Verfügungsrechte an einer Ressource sowie die Struktur und Höhe der Transaktionskosten, die für die Bestimmung, Übertragung und Durchsetzung der gehaltenen Rechte entstehen, das Verhalten der von der Ressourcennutzung betroffenen Wirtschaftssubjekte. Der Mieter eines Mietwagens wird beispielsweise nicht selten weniger pfleglich mit dem Wagen umgehen als wenn ihm das Fahrzeug gehören würde; ein Firmentelefon wird auch für private Telefongespräche genutzt werden, wenn es für den Eigentümer des Telefons zu kostspielig ist, die private Nutzung nachzuweisen und den Beschäftigten in Rechnung zu stellen. In Hinblick auf die effiziente Gestaltung von Verfügungsrechtsstrukturen formuliert der Property-Rights-Ansatz die folgende These: Je vollständiger die positiven und negativen Konsequenzen aus der Nutzung der Verfügungsrechte an einer Ressource deren jeweiligen Inhabern zufallen, d.h. je geringer die externen Effekte der Ressourcennutzung sind, desto stärker ist für die Inhaber der Rechte der Anreiz, ihre jeweiligen Verfügungsrechte
Property-Rights-Ansatz effizient auszuüben und die Ressource so insgesamt mit ihrem gesellschaftlich maximalen Nutzen einzusetzen. Gemäß des Property-Rights-Ansatz ist demnach diejenige Verteilung von Verfügungsrechten effizient, welche die Summe aus den entstehenden Transaktionsaktionskosten und den durch eventuell auftretende externe Effekte resultierenden Wohlfahrtsverlust minimiert. Dementsprechend führt der PropertyRights-Ansatz die Entstehung und Veränderung von Verfügungsrechtsstrukturen darauf zurück, dass die betroffenen Akteure solche Verfügungsrechtsstrukturen etablieren, die externe Effekte der Ressourcennutzung so lange weiter internalisieren wie der Nutzen der weiteren Internalisierung deren Kosten übersteigt. Allein die Existenz von Externalitäten impliziert daher noch nicht, dass eine Verfiigungsrechtsstruktur als ineffizient gelten kann. Denn jede Maßnahme, die auf eine Internalisierung bestehender Externalitäten zielt, um damit einen Anreiz zu effizienterer Faktorallokation zu setzen, verursacht Transaktionskosten, die bei der Beurteilung der Effizienz der resultierenden Verhältnisse berücksichtigt werden müssen. 4. Anwendungen Der Property-Rights-Ansatz hat eine breite Anwendung erfahren. So ist er für die Analyse der Effizienzimplikationen unterschiedlicher Eigentumsformen verwendet worden, z.B. von Privat- und Gemeineigentum sowie privatwirtschaftlichen und öffentlichen Unternehmungen. Einen großen Forschungsbereich bildet die Analyse unterschiedlicher Unternehmungsverfassungen. Darüber hinaus ist der Property-Rights-Ansatz auch für die Theorie der Firma, die sich der Erklärung der Existenz von Unternehmungen sowie der Analyse der Wirkung unterschiedlicher Verteilungen von Entscheidungsrechten in Unternehmungen widmet, fruchtbar gemacht worden. Ein weiterer Schwerpunkt der Forschung liegt schließ-
Prozessanalyse, computergestützt lieh auf dem Gebiet wirtschaftshistorischer Analyse; hier wird der PropertyRights-Ansatz benutzt, um die Entstehung, den Wandel und nationale Unterschiede von ökonomischen Institutionen und besonderen Verfügungsrechtsstrukturen zu erklären. 7. Kritik Wichtigster Kritikpunkt am PropertyRights-Ansatz ist, dass dessen zentrale Konzepte (die Nutzenfunktion der handelnden Akteure, die Verteilung von Verfügungsrechten und die Transaktionskosten) sich nur schwer präzise operationalisieren lassen. Dies erschwert sehr die empirische Überprüfung der Erklärungsleistung der Theorie als auch die Möglichkeiten ihrer pragmatischen Umsetzung. Literatur: Ebers, M./Gotsch, W.: Institutionenökonomische Theorien der Organisation, in: Kieser, A. (Hrsg.): Organisationstheorien. 3. verb. Aufl., Stuttgart 1999, S. 199-251; Gerum, E.: Unternehmensverfassung und Theorie der Verfugungsrechte, in: Budäus, D./Gerum, E./Zimmermann, G. (Hrsg.): Betriebswirtschaftslehre und Theorie der Verfügungsrechte, Wiesbaden 1988, S. 21-43; Picot, A.: Der Beitrag der Theorie der Verfügungsrechte zur ökonomischen Analyse von Unternehmungsverfassungen, in: Bohr, K./Drukarezyk, J./Drumm, H.J./ Scherrer, G. (Hrsg.): Unternehmensverfassungen als Problem der Betriebswirtschaftslehre, Berlin 1981, S. 153-197; Picot, A./Dietl, H./Franck, E.: Organisation - Eine ökonomische Perspektive, 2. Aufl., Stuttgart 1999.
Mark Ebers Proxy-Server Proxy-Server sind -* Webserver, über die der Datenverkehr der angeschlossenen Nutzer gelenkt wird. Sie haben die Funktionalität eines -> Gateways, können die Aufgaben einer ->• Firewall übernehmen und besitzen meist ein -> Cache. In diesem Cache sind häufig aufgerufene Internet-Seiten zwischengespeichert, so dass der Datenverkehr im Internet minimiert wird. Prozessanalyse, computergestützt Computer Aided Organizational Engineering 635
Prozesscontrolling Prozesscontrolling 1. Begriff Wie der Begriff Controlling selbst, wird auch der des Prozesscontrollings sehr unterschiedlich abgegrenzt. Verschärfend kommt hinzu, dass er noch nicht zu den betriebswirtschaftlichen Standardbegriffen gehört, wie seine Nichterwähnung in vielen ControllingLehrbüchern sowie in einschlägigen Lexika und Handwörterbüchern zeigt. Ausgehend von einem modernen Controllingverständnis wird den nachstehenden Ausführungen folgende Arbeitsdefinition zu Grunde gelegt: Prozesscontrolling dient der Sicherstellung eines rationalen Prozessmanagements, also aller inhaltlichen, ablauforientierten und kulturellen Managementfunktionen, die bei der zielorientierten Lösung der Gesamtheit aller auf Güter- oder Informationsflüssen basierenden Probleme zur Anwendung kommen. Im Einzelnen umfasst diese Sicherstellung rationaler Führung die Bereitstellung prozessrelevanter Führungsinformationen, die Unterstützung einer systematischen Ziel- und Prozessplanung sowie die Koordination wichtiger Führungsteilsysteme wie Planung, Kontrolle, Informationsversorgung, Organisation und Personalfuhrung. Probleme und Anforderungen an das Prozesscontrolling werden im Folgenden näher beschrieben. Dabei wird eine Unterscheidung in strategische, operative langfristige sowie operative kurzfristige Fragestellungen zu Grunde gelegt. 2. Strategisches Prozesscontrolling Strategische Entscheidungen legen fest, welche Leistungen auf welchen Märkten welchen Kunden angeboten werden sollen und welche Ressourcen (z.B. Anlagen, Personal, Know-how) dafür bereitgestellt werden müssen. Beide Planungsebenen setzen hinreichend konkretes Wissen über die im Unternehmen sowie in Kontakt zu seinen Kunden und Lieferanten ablaufenden Prozesse und deren Zusammenhang voraus. Die Aufgabe des Controllings besteht hierbei darin, an der Beantwor636
Prozesscontrolling tung der Frage mitzuwirken, welche Prozesse im Unternehmen mit Kernkompetenzen verbunden und damit besonders betrachtungswürdig sind. Neuere Erkenntnisse der Betriebswirtschaftslehre haben dafür sensibilisiert, dass Wettbewerbsvorteile (z.B. Kosten, Qualität, Produktdifferenzierung) insbes. auch durch den Wertschöpfungsprozess im Unternehmen entstehen (resource based view, Ressourcentheorie). Daher ist möglichst frühzeitig zu klären, welche Bedeutung das Ausmaß der Prozessfähigkeit für die Wettbewerbsposition des Unternehmens sowie für das Erreichen seiner strategischen Ziele inne hat. Portfolio-Darstellungen - etwa mit den Dimensionen "internes Marktwachstum" und "externer Marktbezug" von Prozessen - können die Transparenz verbessern und so dazu beitragen, dass sich das strategische Prozesscontrolling auf wenige, dafür aber essenziell wichtige Schwerpunkte konzentriert. Allerdings sollte sich das Controlling vor der allzu leichtfertigen Übernahme von Normstrategien, wie der Empfehlung, Prozesse mit geringem externem Marktbezug und niedriger Befähigung an Dritte auszulagern, hüten. Im Zusammenhang mit der Prozessfähigkeit ist die Frage zu beantworten, welche Anforderungen an die als wichtig identifizierten Prozesse zu stellen sind. Ansatzpunkt dafür sind zuvorderst die Bedarfe und Wünsche der Kunden. Für den Bereich Lieferservice z.B. sind die kurzfristige Reaktionsfähigkeit auf Marktveränderungen und Kundenwünsche, die Einhaltung vereinbarter Liefertermine sowie die Auftragsdurchlaufzeit als mögliche Kriterien denkbar. Können bestimmte Anforderungen nicht erfüllt werden, muss gefragt werden, in welchen Schritten die gewünschte Prozessfähigkeit erreicht werden kann. Je nach Problemsituation kann einer der beiden folgenden Wege beschritten werden. Ist die Prozessfähigkeit innerhalb des Standardablaufs (wie-
Prozesscontrolling der) herstellbar, handelt es sich um ein normales Führungsgeschäft, das über Sachzielvorgaben und ein verbessertes operatives kurzfristiges Prozesscontrolling bewältigt werden kann. Reicht die Verbesserung der Sachzielsteuerung hingegen nicht aus, sind Struktur- und damit Prozessänderungen notwendig, die das operative langfristige Prozesscontrolling betreffen. 3. Operatives langfristiges Prozesscontrolling Die in Frage stehenden Prozesse sind als Teil der unternehmerischen -> Wertschöpfungskette (einschließlich der Kontakte zu den Marktpartnern) so zu optimieren, dass sich der Erreichungsgrad der strategischen Ziele sowie die Wettbewerbsposition des Unternehmens insgesamt verbessern. Ging man in der Vergangenheit überwiegend davon aus, dass Kosten, Zeit und Qualität ein magisches Dreieck bilden (dies gilt in der Tat häufig für bestehende Systeme, also für gegebene Strukturen), ist man sich heute einig, dass Unternehmen durch geschickte Neugestaltung der Prozesse (-» Business Process Reengineering) alle drei Ziele gleichzeitig verbessern können. Dies schließt nicht aus, dass im Grenzbereich immer noch Zielkonflikte eine Rolle spielen mögen. Unstrittig ist jedoch, dass Kosten ihre zentrale Bedeutung zur Effizienzverbesserung eingebüßt haben. Die Prozesse sind es, die optimiert werden müssen, nicht die Kosten. Rechnungswesenbasierte Instrumente zur Unterstützung des operativen langfristigen Prozesscontrollings sind die Gemeinkosten-Wertanalyse (GWA, Wertanalyse), das Zero-Base-Budgeting (ZBB) sowie die -> Prozesskostenrechnung (PKR). Einer der fundamentalen Unterschiede zwischen der PKR und traditionellen Kostenrechnungssystemen besteht darin, dass erstere den Prozess selbst als Kostenträger behandelt und diesem Kosten zuordnet. Die so gewonnene Transparenz kann im Rahmen von
Prozesscontrolling Prozessreorganisationsprojekten zur Bewertung von Prozessalternativen genutzt werden. Möglich ist aber auch, das Wissen über strategische Kostentreiber (z.B. Komplexität, Variantenvielfalt, Anzahl Lieferanten) für ein operatives langfristiges Prozesscontrolling zu nutzen. Dabei ergeben sich - wie auch beim Einsatz von GWA und ZBB - enge Beziehungen zum Gemeinkosten managem en t (-»Kostenarten). 4. Operatives kurzfristiges Prozesscontrolling Wurde im Rahmen des strategischen Prozesscontrollings auf die Notwendigkeit der Definition und Quantifizierung der wichtigsten Prozessanforderungen an die im Unternehmen und in Kontakt zu seinen Marktpartnern ablaufenden Prozesse hingewiesen, so muss beim operativen kurzfristigen Prozesscontrolling dafür Sorge getragen werden, dass die Anforderungen laufend erfüllt werden. Dies bedeutet u.a., dass zeitnahe Informationen vorliegen, da nur so unmittelbar auf die Prozesse eingewirkt werden kann. Monetäre und nichtmonetäre Prozessinformationen, die erst zu Beginn der Folgewoche in entsprechenden Berichten zur Verfügung stehen, kommen grundsätzlich zu spät und können allenfalls als Ergänzung (Lernen für zukünftige Abläufe) gesehen werden. Für das kurzfristige Controlling muss daher Priorität haben, dass Prozessinformationen soweit wie möglich "in Urform" einsetzbar sind. Geeignete Visualisierungen beim Prozessablauf können sehr viel schneller und besser auf drohende Störungen oder Gefahren hinweisen als die spätere Dokumentation des Problems als Abweichung in einem Wochenbericht. Dennoch kann nicht vollständig auf Prozessinformationen in Berichtsform verzichtet werden. Bedeutung erlangen diese vor allem für Zwecke der Performancemessung als Bestandteil ergebnisorientierter Führung sowie als Erfahrungspool, auf den im Rahmen eines längerfristigen und strate-
637
Prozesscontrolling gischen Prozesscontrollings zurückgegriffen werden kann. Denkbar ist zunächst die Aufbereitung von "traditionellen" Leistungsmessgrößen (wie die Zahl transportierter und beschädigter Ladeeinheiten bei Transportprozessen) und die Kommunikation von kapazitätsbezogenen Kenngrößen (wie geleistete Personalstunden oder Anzahl eingesetzter Transportfahrzeuge). Sinnvoll erscheint darüber hinaus die Abbildung der Systemleistung. Dazu gehören Merkmale der Schnelligkeit (z.B. Prozesszeiten einzelner Stufen, Lieferzeiten), Flexibilität (z.B. Umstellungszeiten von Bearbeitungsstationen, Umstellungsdauer auf neue Produkte), Präzision (z.B. Lieferzuverlässigkeit, Servicegrade) sowie der Effizienz (z.B. Prozesskosten einzelner Auftragsklassen, Stellung der Pufferlager im Wertschöpfungsprozess). Eine strategiebezogene Auswahl solcher quantitativen und qualitativen Kennzahlen (-• Kennzahlen und Kennzahlensysteme) kann auch für den Aufbau einer -> Balanced Scorecard genutzt werden, mit dem Ziel, das operative Geschäft stärker an Strategie und Vision des Unternehmens anzubinden. Neben der Stärkung des Zusammenhangs zwischen strategischer und operativer Planung muss es das Anliegen des Prozesscontrollings sein, die Prozessorientierung in der operativen Planung selbst zum Ausdruck zu bringen. Da die Jahresplanung eines Unternehmens in Geld formuliert ist, geht es darum, die Verbindung von Formalzielund Sachzielplanung zu intensivieren. Sinnvoll ist die Aufnahme konkreter Sachziele in die laufende Planung und Kontrolle. 5. Fazit Insgesamt bedeutet Prozesscontrolling ein Denken in Flüssen, das nicht an den Grenzen organisatorischer Einheiten halt macht, sondern auch und gerade auf die Beherrschung abteilungsübergreifender Probleme ausgerichtet ist. Dieses Prozessdenken tangiert aber nicht nur die 638
Prozessmanagement oben schwerpunktmäßig behandelten Informations-, Planungs- und Kontrollaufgaben. Prozesscontrolling muss ebenso dafür Sorge tragen, dass die organisatorischen Rahmenbedingungen den Material-, Waren- und Informationsfluss nicht stören und dass die Möglichkeiten moderner Personalführung dazu genutzt werden, die Mitarbeiter für ihren Beitrag zu einer erfolgreichen Prozessgestaltung und -durchfuhrung zu belohnen. In diesem Sinne ist Prozesscontrolling eine Funktion, welche letztlich alle Führungsfelder sowie deren Verbindungen und Abstimmungsbedarfe berührt. Literatur: Weber, J.: Prozessorientiertes Controlling, Reihe Advanced Controlling, Bd. 1, W H U Koblenz, Vallendar 1997; Weber, J.: Einführung in das Controlling, 8. Aufl., Stuttgart 1999; Witt, F.-J. (Hrsg.): Aktivitätscontrolling und Prozesskostenmanagement, Stuttgart 1991; Fröhling, O.: Prozessorientierte Portfolioplanung, in: Controller Magazin 1990, S. 193-198.
Dieter Pfaff Prozess-Idee -> Prozessmanagement Prozessinnovation Innovationsmanage—• Innovation, ment, -> Innovationsmarketing Prozesskostenrechnung Synonym für den Begriff der Prozesskostenrechnung spricht man auch von Activity Based Costing oder Cost Driver Accounting. Bei diesem System der Kosten- und Leistungsrechnung wird eine Vollkostenrechnung (-> Kostenund Leistungsrechnung) durchgeführt, die den Anspruch erhebt, insbesondere die in indirekten Leistungsbereichen anfallenden Gemeinkosten differenziert zu analysieren und zuzurechnen. Prozessmanagement Der Grundgedanke des Prozessmanagements besteht darin, Unternehmungen horizontal nach kundenorientierten Prozessen zu gliedern. Ziel ist es, durchgängige Prozesse mit möglichst wenigen Schnittstellen vom Lieferanten bis zum Kunden zu gestalten. Dadurch wird er-
Prozessmanagement
Prozessmanagement stens für jeden Teilprozess ein "Fenster zum Kunden" geschaffen. Zweitens wird das Schnittstellenproblem zwischen den organisatorischen Teilbereichen gelöst. Denn jede Schnittstelle ist erstens eine Liegestelle, weil zeitliche Abstimmungsprobleme bei der Übergabe entstehen, zweitens eine Irrtumsquelle, weil Informationsverluste über den gesamten Aufgabenzusammenhang entstehen und drittens eine Quelle der organisatorischen Unverantwortlichkeit, weil Fehler und Unzulänglichkeiten nur noch schwer zurechenbar sind. Die Koordination über die Schnittstellen hinweg muss in der traditionellen Organisation von den hierarchischen Vorgesetzten geleistet werden, die damit schnell überfordert sind. Wie ein Kamin ziehen sie sämtliche abteilungsübergreifenden Aktivitäten an sich. Dies führt zu einer starken Binnenorientierung und birgt die Gefahr einer mangelnden Orientierung am Wettbewerbsumfeld. Prozessmanagement beruht im Wesentlichen auf drei neuen Ideen: der Prozessidee, der Idee der informationellen Vernetzung sowie der Triage Idee. •
Die Prozess-Idee ist durch einen 90 Grad-Shift in der Organisation gekennzeichnet. Damit ist gemeint, dass die Organisation nicht mehr vertikal nach Funktionen oder Produkten, sondern horizontal nach Prozessen gegliedert ist. Diese haben unmittelbaren Kundenkontakt. Im Idealfall entsteht dadurch eine kundenorientierte Rundumbearbeitung aus einer Hand ohne Schnittstellen vom Lieferanten bis zum Kunden. Die Prozesse werden von selbststeuernden Prozessteams bearbeitet (s.a. -» Teams, ->• Teamstrukturen, -* Gruppenkonzepte). Sie haben gegenüber dem (internen und externen) Kunden Verantwortung für die Auftragserfüllung. Dadurch werden Vorgesetzte von Koordinationsaufgaben entlastet. Ihre Leitungsspanne
kann größer und die Hierarchie flacher werden. •
Prozessmanagement ist erst durch die informationelle Vernetzung mittels neuer Anwendungen der Informatik möglich geworden. Moderne Informationstechnologien sollen nicht nur bestehende Prozesse automatisieren, sondern sie grundlegend neu gestalten. Insgesamt bewirkt die informationelle Vernetzung, dass innerhalb von kundenorientierten Prozessen der Nachteil der geringeren Spezialisierung durch weniger Koordinationsprobleme und intensivere Mitarbeiterintegration überkompensiert werden kann.
•
Die Triage-Idee oder die Idee der horizontalen Segmentierung bedeutet die konsequente Anwendung des Prinzips der horizontalen Organisation auch bei großen Prozessen. Sie findet dann Anwendung, wenn die einzelnen Prozesse so umfangreich sind, dass die Kapazität eines Prozess-Teams zur Aufgabenabwicklung nicht mehr ausreicht. In diesem Falle wird auch im Prozessmanagement eine Arbeitsteilung eingeführt, allerdings in einer spezifischen Form. Drei Varianten der horizontalen Segmentierung sind denkbar: erstens die funktionale Segmentierung, zweitens die Segmentierung nach Problemhaltigkeit oder Komplexität sowie drittens nach Kundengruppen oder Regionen.
Die Umsetzung der drei neuen Ideen des Prozessmanagements lässt eine völlig neue Organisationsform entstehen: die Prozessorganisation. Diese ist ein InputTransformations-Output-Modell. Den Input liefern Kundenbedürfnisse und Lieferantenleistungen. Er wird in den verschiedenen Prozessvarianten transformiert, bis der Output, die Kundenleistungen, entstanden ist. Die Prozessorganisation besteht aus drei Elementen: Kernprozessen, Supportprozessen und Kompetenzzentren.
639
Prozessmanagement
Prozessmanagement
Lieferanten (Beschaffungsmarkty Kundenbedürfnisse-/
Abb. 1: Das Unternehmen als
Kernprozesse bestehen aus der Verknüpfung von zusammenhängenden Aktivitäten, Entscheidungen, Informationen und Materialflüssen, die zusammen den Wettbewerbsvorteil eines Unternehmens ausmachen. Sie werden aus den strategischen Kernkompetenzen abgeleitet. Dabei handelt es sich um schwer imitierbare, unternehmensspezifische Fähigkeiten, die einen wahrnehmbaren Nutzen stiften, das heißt, die Kunden müssen bereit sein, dafür zu bezahlen. Kernkompetenzen können ihren Wert erst durch ihre Einbettung in spezifische organisationale "settings" entfalten. Kernprozesse sind deshalb durch eine komplexe Form interdependenter Zusammenarbeit gekennzeichnet. Wichtig ist dabei, dass mit Komplexität in diesem Zusammenhang nicht etwa technische Komplexität gemeint ist. Technisch komplexe Systeme wie z.B. ManagementInformations-Systeme, Expertensysteme oder Standard Software sind über kurz oder lang imitierbar. Nicht imitierbar ist hingegen die organisationale Fähigkeit, Technologien effizient umzusetzen. Auch ein formales Planungssystem ist imitierbar, nicht-imitierbar ist hingegen die Sensibilität, mit der Unternehmen ihr Planungssystem in der Tiefenstruktur der Organisation verankern.
640
Prozessorganisation
Die Gestaltung von Kernprozessen setzt an den Kundenbedürfnissen an, indem die Prozesse als spezifische KundenLieferanten-Beziehung definiert werden. Sie müssen so beschaffen sein, dass alle für die Erfüllung eines Kundenwunsches notwendigen Aktivitäten möglichst in einem Verantwortungsbereich ohne interne Schnittstellen zusammengefasst sind. Darüber hinaus gibt es aber in jedem Unternehmen zahlreiche weitere Prozesse, die diese Kriterien nicht erfüllen und trotzdem im Unternehmen bearbeitet werden. Diese werden als Supportprozesse von den Kernprozessen getrennt. Supportprozesse erfüllen unterstützende Aufgaben, damit die Kernprozesse reibungslos ablaufen und entlastet werden. Sie haben für das betreffende Unternehmen keine strategische Bedeutung. Für den nachhaltigen Wettbewerbsvorteil eines Unternehmens ist es nicht ausschlaggebend, ob diese Prozesse unternehmensintern erbracht oder im Wege des Outsourcing ausgelagert werden. In jedem Falle sollten Supportprozesse aus zwei Gründen als eigenständige Module von den Kemprozessen abgespalten werden. Zum Ersten werden die Kernprozesse dadurch überschaubarer. Die Verwirklichung einer durchgängigen kundenorientierten Rundumbearbeitung wird er-
Prozessmanagement leichtert. Die Kernprozesskette wird schlanker. Es wird das "one face to customer"-Prinzip möglich. Dasselbe gilt für die Supportprozesse. Auch diese werden schlanker und überschaubarer und können selbstständigen Teams zugeordnet werden. Diese können, müssen aber nicht untemehmensextern ausgegliedert werden. Zum Zweiten können die Supportprozesse einem Benchmarking unterzogen werden. Benchmarking bedeutet den Vergleich der eigenen Leistung mit der des "klassenbesten" Konkurrenten. Dies funktioniert immer dann, wenn die Leistungsverflechtung zwischen Kemund Supportprozess so gering ist, dass der Supportprozess als eigenständige Leistung separierbar ist. Dies ist bei Kernprozessen nur sehr eingeschränkt möglich, weil sie unternehmensindividuell sind. Freilich entstehen durch die Ausgliederung von Supportprozessen wieder interne Schnittstellen. Allerdings sind diese Schnittstellen weniger schwerwiegend als bei den herkömmlichen Organisationskonzepten. Schließlich handelt es sich bei Supportprozessen um weitgehend standardisierbare Leistungen, die ohne hohe Transaktionskosten intern ausgehandelt oder sogar extern eingekauft werden können. Kompetenzzentren'. Obwohl die Bedeutung funktionaler Abteilungen als klassische Linienfunktion gegenüber den neu gestalteten kundenorientierten Prozessen stark zurückgegangen ist, soll Prozessmanagement nicht den Eindruck erwecken, als würden alle funktionalen Abteilungen zu Gunsten von funktionsübergreifenden Prozessen aufgelöst werden. In jedem Unternehmen verbleiben nach wie vor einige Zentralbereiche, weil auf die Vorteile der funktionalen Spezialisierung nicht verzichtet werden kann. Spezialisierungsvorteile entstehen aus der umfassenden Nutzung von unternehmenseigenen Ressourcen (Personen, Anlagen und immaterielle Ressourcen). So haben viele Unternehmen für juristische Fragen eine
Prozessmanagement eigene Rechtsabteilung, weil es erstens unwirtschaftlich wäre, jeder Abteilung oder jedem Prozess einen eigenen Juristen zur Verfugung zu stellen, zweitens innerhalb der Rechtsabteilung das fachspezifische Wissen am besten weiterentwickelt werden kann und drittens juristische Fragen im ganzen Unternehmen nach einheitlichen Richtlinien gelöst werden können. Am besten werden die Spezialisierungsvorteile in funktionalen Spezialabteilungen oder Zentralbereichen realisiert, die als Kompetenzzentren oder funktionale Schulen bezeichnet werden. Sie bieten spezifische Kenntnisse an, die in den Prozessen nicht ausreichend vorhanden sind. Bei einer zu einseitigen Ausrichtung auf funktionsübergreifende Teams, wie sie auch der Prozess-Idee zu Grunde liegen, besteht die Gefahr des sukzessiven Verlustes an fundiertem Spezialistenwissen im Unternehmen. Deshalb haben die funktionalen Schulen oder Kompetenzzentren primär eine Dienstleistungsaufgabe, nämlich die Vermittlung von Wissen an die Prozesse. Darüber hinaus müssen sie ständig neues Fachwissen erwerben. Praktisch bedeutet dies, dass Kompetenzzentren als Cost Center ausgestaltet werden. Es muss von Fall zu Fall ausgehandelt werden, welcher Anteil des Budgets für Dienstleistungen und welcher für eigenständigen kreativen Wissenserwerb verwendet werden darf. Wichtig ist, dass funktionale Schulen ebenso wie die Kernprozesse zum Wettbewerbsvorteil des Unternehmens beitragen. Im Unterschied zu den Kernprozessen haben sie jedoch keinen direkten Kundenkontakt. Im Ergebnis werden beim Prozessmanagement durch die Gestaltung ganzheitlicher Leistungsprozesse Abstimmungsschwierigkeiten auf ein Minimum reduziert. Innerhalb der Prozesse kann implizites Wissen zwischen den Teammitgliedern leichter übertragen werden, weil es keine Schnittstellen mehr gibt und "face641
Prozessmanagement to-face"-Kontakte möglich sind. Zugleich muss darauf geachtet werden, dass strategisch bedeutsame Aktivitäten Bestandteil der Kernprozesse oder Kompetenzzentren sind und nicht im Wege des Outsourcing ausgelagert werden. Literatur: Bamey, J.B.: Firm Resources and Sustained Competitive Advantages, in: Journal of Management, 17. Jg., 1991, S. 99-120; Osterloh, M./Frost, J.: Prozeßmanagement als Kernkompetenz. Wie Sie Business Reengineering strategisch nutzen können, 2. Aufl., Wiesbaden 1998; Osterloh, M./Wübker, S.: Wettbewerbsvorteile durch Prozeß- und Wissensmanagement. Mit Chancengleichheit auf Erfolgskurs, Wiesbaden 1999; Prahalad, C.K./Hamel, G.: Nur Kernkompetenzen sichern das Überleben, in: Harvard Manager, 13. Jg., 2/1991, S. 66-78.
Margit Osterloh/Jetta Frost Prozessorganisation -> Prozessmanagement Prüfplanung Die Prüfplanung ist die Grundlage für die Durchführung von -> Qualitätsprüfungen. Die Prüfplanung legt ausgehend von der Konstruktionszeichnung und dem Arbeitsplan für alle Stufen der Produktherstellung, an denen Prüfungen durchgeführt werden, die Prüfungen fest und dokumentiert diese in Prüfplänen. Die Prüfpläne sind vergleichbar den Arbeits- oder Fertigungsplänen, d.h. sie sind auftragsneutral und enthalten noch keine Angaben über die zu fertigenden Mengen. Diese kommen erst bei der Prüfauftragserzeugung hinzu und ergeben die zu prüfende Stichprobengröße und die maximal zulässige Anzahl fehlerhafter Einheiten in der Stichprobe. Im Prüfplan werden Aufgabe, Art und Umfang der qualitätssichernden Maßnahmen während der Produktentstehung festgelegt. Dabei wird zwischen zwei Arten von Prüfungen unterschieden, den losbezogenen Stichproben- oder 100%-Prüfungen (Wareneingangs-, Zwischen- und Endprüfung), die sich auf die Prüfung eines bereits gefertigten Loses beziehen, und der fertigungsbegleitenden Prüfungen, die im Rahmen der Statisti642
Prüfungsgrundsätze sehen Prozessregelung (SPC) im sogenannten kleinen Regelkreis während der Fertigung der Teile durchgeführt werden. Engelbert Westkämper/ Alexander Schloske Prüfungsgrundsätze 1. Einführung: Die —• Abschlussprüfung soll gewährleisten, dass die Adressaten der externen Rechnungslegung verlässliche Informationen zur Fundierung eigener finanzieller Entscheidungen erhalten, so dass die in einer Volkswirtschaft stattfindende Kapitalallokation mithin maßgeblich durch die Unternehmenspublizität und deren Prüfung beeinflusst wird. Allgemein kann das Ziel der Prüfung in der Abgabe vertrauenswürdiger Urteile über wirtschaftliche Sachverhalte gesehen werden. Die im Rahmen solcher Prüfungen vorzunehmenden Tätigkeiten sind allerdings komplex und regelmäßig nicht ohne weiteres beobachtbar. Kodifizierte Prüfungsgrundsätze haben in diesem Zusammenhang sowohl eine normative als auch eine deskriptive Funktion: Aus normativer Sicht sollen sie die Aktivitäten des Prüfers so lenken, dass der Erhalt vertrauenswürdiger Urteile gewährleistet ist. Aus deskriptiver Sicht informieren sie externe Gruppen und Adressaten über die grundsätzliche Art und Weise der Prüfungsdurchführung, so dass Erwartungen über die Inhalte und Modalitäten einer Prüfung gebildet werden können. 2. Quellen für Prüfungsgrundsätze: In Deutschland finden sich Regelungen zu Prüfungsgrundsätzen in verschiedensten Gesetzen und Verordnungen. Allgemein sind bei einer Prüfung sowohl berufliche als auch fachliche Grundsätze zu beachten. Die beruflichen Aspekte ergeben sich aus den generellen Berufsgrundsätzen des Wirtschaftsprüferberufs; sie sind insbesondere in den §§43, 44 und 49 der Wirtschaftsprüferordnung (WPO) sowie der sogenannten Berufssatzung (BS) der Wirtschaftsprüferkammer
Prüfungsgrundsätze (WPK) niedergelegt. Diese Grundsätze bilden gewissermaßen den Rahmen für die Ausübung des Prüferberufs schlechthin und haben demnach nicht nur für die Abschlussprüfung im engeren Sinne Bedeutung. Die in den genannten Quellen angeführten Grundsätze werden teilweise aber auch noch in spezifischen Gesetzen erwähnt, etwa in den HGB-Vorschriften zur Prüfung von Jahresabschlüssen (siehe §§ 318 ff. HGB). Neben diesen Rahmengrundsätzen sind außerdem fachliche Grundsätze zu beachten. Sie beziehen sich zumeist auf konkrete Prüfungsinhalte, Prüfungsgegenstände und Prüfungsmethoden und können sich sowohl in Gesetzen (siehe bspw. die §§316-317 HGB zur Prüfungspflicht und zu den Inhalten einer Abschlussprüfung) als auch in anderen Verlautbarungen finden. Diesbezüglich relevant sind insbesondere die vom Institut der Wirtschaftsprüfer (IDW) herausgegebenen Fachgutachten (FG 1/1988) und Prüfungsstandards (IDW-PS (bzw. EPS für Entwürfe von Prüfungsstandards), die frühere Fachgutachten teilweise oder vollständig ersetzen (die FG 2 und 3/1988 wurden durch IDW-PS 450 und 400 ersetzt)), in denen die Berufsauffassung zu wesentlichen Inhalten von Prüfungen und der damit zusammenhängenden Berichterstattung dargelegt wird. Außerdem finden sich unter dem Dach des IDW zahlreiche Fachausschüsse, in denen Probleme bestimmter Wirtschaftszweige (bspw. Banken, Versicherungen etc.) oder Methoden (etwa der elektronischen Buchführung) diskutiert und in Empfehlungen zur Prüfungsdurchführung umgesetzt werden. Die in den genannten Vorschriften kodifizierten Grundsätze sind für Prüfungen in Deutschland unmittelbar bindend. Grundsätze, die von internationalen Organisationen wie etwa der IFAC (International Fédération of Accountants) erarbeitet wurden (die sogenannten "International Standards on Auditing" (ISA)), sind da-
Prüfungsgrundsätze gegen für deutsche Wirtschaftsprüfer nicht direkt maßgeblich. Sie stellen vielmehr "Empfehlungen" dar, die an die IFAC-Mitgliedsorganisationen (in Deutschland die WPK und das IDW) gerichtet sind, mit der Maßgabe, die Umsetzung in nationales Recht nach Möglichkeit zu fordern. Das IDW legt aber typischerweise Wert auf die Feststellung, dass bspw. die jüngst zur Diskussion gestellten Entwürfe für die Prüfungsstandards "Ziele und allgemeine Grundsätze der Durchführung von Abschlussprüfungen" (IDWEPS 200) und "Rechnungslegungs- und Prüfungsgrundsätze für die Abschlussprüfung" (IDW-EPS 201) mit dem korrespondierenden ISA 200 weitgehend harmonieren; ähnliche Feststellungen werden auch bei anderen, bereits verabschiedeten Prüfungsstandards getroffen. Auf die fachlichen Grundsätze kann hier aus Platzgründen naturgemäß nicht näher eingegangen werden (siehe dazu ausführlich die am Ende des Beitrags angegebene Literatur). Nachfolgend sollen einige Aspekte der wichtigsten Berufsgrundsätze erörtert werden. 3. Wichtige berufliche Prüfungsgrundsätze: § 4 3 ( l ) W P O definiert die allgemeinen Berufspflichten wie folgt: "Der Wirtschaftsprüfer hat seinen Beruf unabhängig, gewissenhaft, verschwiegen und eigenverantwortlich auszuüben. Er hat sich insbesondere bei der Erstattung von Prüfungsberichten und Gutachten unparteiisch zu verhalten". Daraus lassen sich die Prüfungsgrundsätze der Unabhängigkeit (ergänzt durch die Unbefangenheit gemäß § 49 WPO), Gewissenhaftigkeit, Verschwiegenheit, Eigenverantwortlichkeit und Unparteilichkeit ableiten. Diese Grundsätze gelten analog natürlich auch im internationalen Kontext. Unabhängigkeit und Unbefangenheit: Ein vertrauenswürdiges Urteil verlangt eine vornehmlich nach sachlichen Gesichtspunkten durchgeführte Prüfung. Um 643
Prüfungsgrundsätze dies sicherzustellen, sollte der Prüfer möglichst frei von irgendwelchen Einflüssen agieren können. Solche Einflüsse könnten sich zunächst aus wirtschaftlichen Aspekten und Verflechtungen ergeben, etwa dann, wenn der Prüfer Anteile an dem zu prüfenden Unternehmen hat. In einem solchen Fall spricht man von "Abhängigkeit", die wiederum eine unwiderlegbare Vermutung für eine Befangenheit des Prüfers darstellt. Sowohl die Berufssatzung (siehe etwa § 21 (2) Nr.2 BS) als auch bspw. § 319 HGB bemühen sich daher um eine Auflistung von Sachverhalten, bei denen Abhängigkeiten zu vermuten sind. Ein besonderes Problem stellt dabei stets die sogenannte "Mandantenabhängigkeit" dar, denn ein Prüfer könnte versucht sein, ein für den Mandanten günstiges Testat wider besseres Wissen zu erteilen, um auch künftig das Mandat zu behalten. In diesem Zusammenhang definiert §319 (2) Nr.8 HGB eine Umsatzgrenze von 30% für Geschäfte (Prüfung und Beratung) mit dem zu prüfenden Unternehmen, womit die ökonomische Bedeutung eines bestimmten Mandats für den Prüfer angesprochen ist. Wenngleich in dieser Umsatzgrenze auch potenzielle Beratungsaufträge eingeschlossen sind, kann die Verbindung von Prüfung und Beratung beim gleichen Unternehmen Urteilsprobleme mit sich bringen, falls etwa der Prüfer bei bestimmten Investitionsvorhaben beraten hat und diese nun im Jahresabschluss zu bewerten sind. Dieser Aspekt leitet über zur Befangenheit im engeren Sinne, die sich auf persönliche Beziehungen zu Personen des zu prüfenden Unternehmens bezieht. Gemäß § 49 WPO ist auch zu beachten, dass der Prüfer seine Tätigkeit bereits dann versagen muss, wenn alleine eine Besorgnis der Befangenheit bei externen Adressaten gegeben sein könnte. Gewissenhaftigkeit: Der Grundsatz der Gewissenhaftigkeit verpflichtet den Prüfer dazu, sich fort644
Priifungsgrundsätze während über die oben erwähnten fachlichen Grundsätze und Regeln zu informieren und diese anzuwenden. Dies impliziert unter anderem, dass sich ein Prüfer vor der Annahme eines Prüfungsauftrags zu vergewissern hat, dass er über die für die konkret durchzuführende Prüfung notwendigen Fachkenntnisse verfügt (etwa bei der Prüfung von Unternehmen in besonderen Branchen). Außerdem wird der Prüfer zur sorgfältigen Prüfungsplanung und Terminüberwachung verpflichtet. Verschwiegenheit, Eigenverantwortlichkeit und Unparteilichkeit: Weil Prüfer im Laufe ihrer Tätigkeit zahlreiche Insiderinformationen über das geprüfte Unternehmen erhalten, sind sie zur Verschwiegenheit verpflichtet. Gemäß der Eigenverantwortlichkeit muss der Prüfer sicherstellen, dass sich sein Urteil auf Grund seiner eigenen Kenntnis der Sachverhalte bilden kann, er sich also nicht gänzlich auf die Zuarbeit anderer Personen verlassen muss. Schließlich impliziert der Wunsch nach einer vorwiegend aus sachlichen Aspekten abgeleiteten Urteilsbildung auch das Erfordernis der Unparteilichkeit, gemäß der sich ein Prüfer von bewussten "Anteilnahmen" für eine der involvierten Parteien fernhalten muss. Eine fehlende Unparteilichkeit ist demnach auch eine unwiderlegbare Befangenheitsvermutung. Abschließend sei darauf hingewiesen, dass die konkrete Ausfüllung der hier erwähnten Prüfungsgrundsätze einen permanenten Diskussionspunkt sowohl in der nationalen als auch internationalen Diskussion darstellt. Insbesondere darf man nicht darauf schließen, dass die Nennung oder Kodifizierung solcher Grundsätze quasi automatisch deren Einhaltung sichert. Als prägnantes Beispiel dafür mag die jüngst von der amerikanischen Securities Exchange Commission (SEC) an einige Prüfungsgesellschaften ergangene Ermahnung dienen, die Beteiligungsverhältnisse ihrer Partner neu zu
Punktbewertungsmodelle
Prüfungsgrundsätze ordnen, denn es wurde festgestellt, dass etliche Partner an Mandantenuntemehmen ihrer Prüfungsgesellschaft finanzielle Beteiligungen hielten. Literatur: Ewert, R.: Wirtschaftsprüfung, in: Bitz, M. et al. (Hrsg.): V a h l e n ' s Kompendium der Betriebswirtschaftslehre, 4. Aufl., Band 2, München 1999, S. 5 0 5 - 5 5 3 ; I D W (Hrsg.): Die Fachgutachten und Stellungnahmen des Instituts der Wirtschaftsprüfer auf dem Gebiete der Rechnungslegung und Prüfung, Düsseldorf 1997; IDW (Hrsg.): IDW Prüftingsstandards und I D W Stellungnahmen zur Rechnungslegung, Düsseldorf 1999; Leffson, U.: Wirtschaftsprüfung, 4. Aufl., Wiesbaden 1988; Rückle, D.: Grundsätze ordnungsmäßiger A b s c h l u ß p r ü f u n g (GoA), in: v. Werder, A. (Hrsg.): Grundsätze ordnungsmäßiger Unternehmungsführung (GoF), ZfbF-Sonderheft 36, 1996, S. 107-148.
Ralf Ewert Public Relations Öffentlichkeitsarbeit Punktbewertungsmodelle Punktbewertungsmodelle kommen zur Anwendung, wenn bei Entscheidungsproblemen mehrere und/oder qualitative Ziele von Bedeutung sind, so dass quantitative Entscheidungsverfahren entweder nicht angewandt werden können oder zur Bestimmung optimaler Alternativen nicht ausreichen. Beispiele für praktische Anwendungen von Punktbewertungsmodellen sind die Standortwahl, die Beurteilung von Forschungs- und Entwicklungsmaßnahmen, die Lieferantenauswahl oder die Auswahl von ->• Standardsoftware. Der Ablauf eines Punktbewertungsmodells vollzieht sich im allgemeinen in folgenden Schritten: 1. Bestimmung der Alternativen Alternativen können mehrere sich ausschließende Projekte oder auch die JaNein-Entscheidung bezüglich eines Projektes sein. 2. Festlegung der relevanten Entscheidungskriterien (Ziele) Die für die Alternativenwahl wichtigen Aspekte müssen definiert werden. 3. Festlegung der Gewichte für jedes Kriterium
Da die verschiedenen Entscheidungskriterien selten gleichrangig nebeneinander stehen, sind sie gemäß ihrer Bedeutung zu gewichten, wobei zweckmäßigerweise die Gewichte so gebildet werden, dass ihre Summe 100% ergibt. 4. Bewertung jeder Alternative für jedes Kriterium Im Anschluss an die Gewichtung ist jede Alternative nach jedem Kriterium zu bewerten, wobei vorab eine entsprechende Bewertungsskala (z.B. von 0 - schlecht bis 10 - hervorragend) festgelegt werden muss. 5. Multiplikation von Punktzahl und Gewichtungsfaktor 6. Addition der gewichteten Punkte Ausgewählt wird dann die Alternative mit der höchsten Gesamtpunktzahl; bei Ja-Nein-Entscheidungen darf eine vom Entscheidungsträger vorgegebene Mindestpunktzahl nicht unterschritten werden. Die Vorgehensweise soll anhand eines Beispiels erläutert werden. Ein international tätiger Konzern plant aus Kostengründen die Verlagerung eines Fertigungswerkes an einen ausländischen Standort. Da vorhandene Strukturen mitgenutzt werden sollen, kommen zwei bereits bestehende Standorte in Frage, die im Folgenden mit A und B gekennzeichnet werden sollen. Folgende Kriterien sollen dabei Beachtung finden: • • • • •
Rendite politische Stabilität Währungsstabilität Streiksituation Lieferzuverlässigkeit.
Die fünf Kriterien werden dann nach ihrer Bedeutung für die Entscheidungsträger gewichtet. Die nachstehende Tabelle zeigt die Gewichtung in der zweiten Spalte. Im Anschluss an die Festlegung der Gewichte muss nun jede Alternative nach jedem Kriterium bewertet werden. Die 645
Punktbewertungsmodelle Entscheidungsträger nehmen für die einzelnen Alternativen die in nachstehender Tabelle wiedergegebene Bewertung vor. Die Werturteile werden dann mit den Gewichten des jeweiligen Kriteriums multipliziert und die gewogenen Punktwerte jeder Alternative summiert. Die Tabelle zeigt für die angegebenen Kriterien die vorgenommene Bewertung und die hieraus folgenden Berechnungen.
Pure Hedge fest, nehmen die Bewertung - oft unter Konsultation weiterer Experten - vor und legen dann der entscheidungsbefugten Unternehmensleitung die Ergebnisse in detaillierter Form vor. In dieser Runde werden dann die einzelnen Faktoren erläutert und nochmals diskutiert sowie bei Unstimmigkeiten und Unplausibilitäten überarbeitet. Damit sind im Ergebnis gut fundierte Entscheidungen mit einem hohen Maß an Objektivität zu erwarten.
Damit ist unter Beachtung aller relevanten Entscheidungskriterien sowie der vorgenommenen subjektiven Gewichtung und Bewertung der Standort A derjenige, der den Zielvorstellungen der Entscheidungsträger am ehesten entspricht.
Darüber hinaus ist - insbesondere bei nahe beieinander liegenden Resultaten die Durchfuhrung von Sensitivitätsanalysen üblich. Man prüft z.B., wieweit Gewichte und/oder Bewertungsansätze abgewandelt werden können, bis zwei Alternativen gerade indifferent sind, oder wie sich Änderungen der Faktoren auf die Reihenfolge der Alternativen auswirken. Diese Sensitivitätsanalysen lassen sich unter Zuhilfenahme eines Tabellenkalkulationsprogramms recht einfach durchführen.
Diese angesprochene Subjektivität von Bewertung und Gewichtung wird als das Hauptproblem der Punktbewertungsmodelle angesehen. Aus praktischer Erfahrung heraus kann man dem nicht unbedingt zustimmen. Die Bewertung wird nämlich im Allgemeinen nicht von einer einzelnen Person vorgenommen, die dann auch noch die Entscheidung selbst trifft und durchsetzt.
Lothar Hans/V olker Warschburger Pu rch ase-Methode Konsolidierung
In der Praxis erfolgt normalerweise die Entscheidungsvorbereitung durch ein Team bestehend aus Mitarbeitern der vom anstehenden Planungsproblem involvierten Fachabteilungen. Diese legen in mehreren Diskussionsrunden die Gewichte
Entscheidungskriterium Gewicht
Pure Hedge Hedging
Land A
Land B
Punkte
gew.
Punkte
gew.
35%
5
1,75
9
3,15
Pol. Stabilität
5%
9
0,45
2
0,10
Währung
20%
8
1,60
1
0,20
Streiksituation
15%
7
1,05
4
0,60
Lieferzuverl.
25%
8
2,00
3
Summe
100%
Rendite
6,85
0,75 4,80
Tabelle I: Kriterien, Bewertung und Ergebnis in einem Punktbewertungsmodell
646
Qualitätsauszeichnungen
QFD
Q QFD Quality Function Deployment QS 9000 (Quality System Requirements - QS9000) ist die branchenspezifische Erweiterung der ISO 9001 (-»DIN EN ISO 9000ff) durch die drei großen amerikanischen Automobilhersteller Chrysler, Ford, General Motors sowie einiger Nutzfahrzeugehersteller. Schwerpunkte eines Qualitätsmanagement-Systems nach der QS-9000 sind kontinierliche Verbesserung, Fehlervermeidung, Zuverlässigkeit, Prozessfahigkeit und Kundenzufriedenheit. Die QS-9000 orientiert sich dabei an den 20 Elementen der ISO 9001 und ergänzt diese um die branchenspezifischen Forderungen der Automobilindustrie. Darüber hinaus existieren weitere vertiefende und erläuternde Handbücher. Engelbert Westkämper/ Alexander Schloske Qualität ersten Grades Servicequalität, Servicephilosophie Qualität zweiten Grades Servicequalität, Servicephilosophie Qualitative Personalplanung Personalplanung Qualitätsauszeichnungen 1. Entwicklungslinien und Hintergründe Obwohl die Diskussion um -> Qualität und -> Qualitätsmanagement schon seit Jahren intensiv gefuhrt wird, hat sie nichts an Aktualität eingebüßt - eher ist das Gegenteil der Fall, denn durch die zunehmende Internationalisierung der Wirtschaft tritt Qualität als Wettbewerbsfaktor immer mehr in den Vordergrund. Neben der Globalisierung der Märkte haben dazu auch der in nahezu allen Bereichen festzustellende Wandel vom -> Verkäufermarkt zum Käufermarkt
und der damit verbundene Zuwachs an Marktmacht für die Kunden beigetragen. Überdies fordern die rechtlichen Rahmenbedingungen in Deutschland und Europa im Bereich der Produkthaftung eine intensivere Auseinandersetzung mit dem Thema Qualitätsmanagement. Ein Teil der Qualitätsforderungen, denen Unternehmen gegenüberstehen, lässt sich über die Methoden und Verfahren der traditionellen Qualitätssicherung (-> Qualitätssicherungssystem) erfüllen, was insbesondere ftir die rechtlichen Anforderungen im Zusammenhang mit der Produkthaftung gilt. Dem Zwang zur Erzielung hervorragender Untemehmensleistungen im Sinne von Business Excellence können hingegen nur weitergehende Ansätze wie beispielsweise -» Total Quality Management (TQM) gerecht werden. Darüber hinaus muss beachtet werden, dass Wettbewerb sich nicht nur auf Unternehmen beschränkt, sondern sich auch zwischen Staaten und Regionen abspielt. Die Angleichung technologischer Kompetenz und die Möglichkeit, durch informationstechnische Vernetzung (-> Virtualität, -»Virtuelle Organisation) Entwicklungs- und Fertigungsprozesse räumlich voneinander zu trennen, fuhren dazu, dass Unternehmen Globalisierungsstrategien entwickeln und flexibel Standortvorteile einzelner Wirtschaftsräume nutzen. Entsprechend verfolgt die Qualitätspolitik, die sich in den Ländern Europas beobachten lässt, zwei Ziele: Einerseits stärkt sie auf makroökonomischer Ebene das Bewusstsein für Qualität und trägt zur Standortsicherung im internationalen Vergleich bei. Andererseits fördert sie den Einsatz des Qualitätsmanagements und unterstützt die Wettbewerbsfähigkeit der Unternehmen. Dabei spielen nationale und internationale Qualitätspreise eine herausragende Rolle.
647
Qualitätsauszeichnungen
Qualitätsauszeichnungen 2. Funktionen und Aufgaben der Qualitätspreise Die Auslobung eines Qualitätspreises eröffnet die Chance, umfassende Qualität ins Bewusstsein der Öffentlichkeit zu rücken: Die Verleihung bietet die Gelegenheit, das Thema wirksam in den Medien zu positionieren; zudem gewinnen die ausgezeichneten Unternehmen ein interessantes Werbemittel (-> Öffentlichkeitsarbeit). Daneben repräsentieren die Kriterien der Preise einen praktikablen Bewertungsansatz, der es Unternehmen ermöglicht, selbstständig eigene Stärken und Verbesserungsbereiche zu identifizieren, die den Ausgangspunkt für einen systematischen Organisationsentwicklungsprozess bilden (-> Benchmarking). Ursprünglich mehrheitlich als Bewertungsraster für die Vergabe der Auszeichnungen entwickelt, kommt den Qualitätsauszeichnungen mittlerweile eine vielfältigere Bedeutung zu: Über die Kriterien für interne Selbstbewertungen konkretisieren abstrakte Forderungen wie -» Kundenorientierung oder Mitarbeiterorientierung und geben eine Hilfe für die langfristige Entwicklung in Richtung Business Excellence, die sich nicht ausschließlich auf Qualitätsaspekte aus technischer Sicht konzentriert, sondern vielmehr alle Themengebiete der Unternehmensführung umfasst. Die Chancen und Möglichkeiten von Qualitätspreisen wurden zunächst in Japan und später in den USA erkannt. Entsprechend wurden 1951 der Deming Prize bzw. 1987 der -> Malcolm Baldrige National Quality Award (MBNQA) eingeführt. Auf europäischer Ebene wird seit 1992 der European Quality Award (EQA) vergeben. Zwischenzeitlich besitzen fast alle europäischen Staaten einen nationalen Qualitätspreis. Auch in Deutschland hat sich 1997 der Ludwig-Erhard-Preis als natio648
naler Qualitätspreis etabliert. Insgesamt können in Europa gegenwärtig zwei Gruppen von Qualitätspreisen unterschieden werden: •
Die Auszeichnungen in Frankreich, Finnland und Schweden greifen Elemente des MBNQA auf.
•
Qualitätspreise in Belgien, Dänemark, Großbritannien, Irland, Italien, Norwegen, Österreich, in den Niederlanden, in Portugal, Russland, Slovenien, Spanien, in der Türkei sowie in Ungarn orientieren sich im Aufbau und bei der Gestaltung des Bewertungsund Vergabeverfahrens am EQA. Auch das Kriterienmodell der deutschen Auszeichnung, des LudwigErhard-Preises, orientiert sich am EQA.
Sowohl der MBNQA (-»Malcolm Baldrige National Quality Award) als auch der EQA (-> European Quality Award) haben die Gestaltung nationaler Qualitätspreise in Europa maßgeblich geprägt. Unabhängig von der konkreten Gestaltung der Qualitätspreise, beispielsweise des MBNQA oder des EQA, tragen diese den Anforderungen umfassender Qualität Rechnung und eröffnen die Chance, das Bewusstsein für Business Excellence zu erhöhen und die Wettbewerbsfähigkeit von Organisationen und Ländern zu stärken. Auf Organisationsebene bieten die Kriterienmodelle ein Instrument, um selbstständig Stärken und Verbesserungsbereiche zu identifizieren und auf dieser Basis einen kontinuierlichen Organisationsentwicklungsprozess zu steuern. In dieser Funktion liegt das größte Potenzial, das die Qualitätspreise bergen. Literatur: Zink, K.J.: T Q M als integratives Managementkonzept, Das europäische Qualitätsmodell und seine Umsetzung, München, Wien 1995: Schmidt, A./Zink, K.J.: Nutzt ein nationaler Qualitätspreis? Q Z - Qualität und Zuverlässigkeit, 39. Jg., 1994, Heft 11, S. 1242-1244; Zink, K. J.:
Qualitätsauszeichnungen
Qualitätsmanagement-Handbücher
Bewertung ganzheitlicher Unternehmensfilhrung am Beispiel des Ludwig-Erhard-Preises für Wettbewerb, München, Wien 1998; National Institute of Standards and Technology (Hrsg.): M a l c o l m Baldrige National Quality Award, 2000 Criteria for Excellence, Gaithersburg 1999; EFQM (Hrsg.): Das EFQM Modell fiir Excellence 1999, Brüssel 1999.
Klaus J. Zink Qualitätslenkung Die Qualitätslenkung erfüllt vorbeugende, überwachende und korrigierende Aufgaben, um die Qualitätsforderung zu erfüllen. Dabei analysiert die Qualitätslenkung in der Regel die Ergebnisse der Qualitätsprüfung und korrigiert Prozesse. Engelbert Westkämper/ Alexander Schloske Qualitätsmanagement Das Qualitätsmanagement umfasst alle Tätigkeiten und Zielsetzungen zur Sicherung der Produkt- und Prozessqualität. Zu berücksichtigen sind hierbei Aspekte der Wirtschaftlichkeit, Gesetzgebung, Umwelt und Forderungen des Kunden. Zu den Aufgaben des Qualitätsmanagements zählen -» Qualitätsplanung, -» Qualitätslenkung, Qualitätsprüfung und -> Qualitätsverbesserung. Zur methodischen und systematischen Unterstützung des Qualitätsmanagements existieren Methoden (-> Qualitätsmanagement-Methoden), Werkzeuge (-> QualitätsmanagementWerkzeuge) und Prinzipien (-> Qualitätsmanagement-Prinzipien). Die IT unterstützt das Qualitätsmanagement durch ->• CAQ-Systeme. Ziel ist dabei eine unternehmensweite Qualitätsverbesserung. Zur Zielerreichung werden in allen Untemehmensbereichen Maßnahmen identifiziert und realisiert, mit deren Hilfe die Effektivität und Effizienz des Qualitätsmanagements und der zugehörigen Prozesse erhöht werden kann. Engelbert Westkämper/ Alexander Schloske
Qualitätsmanagement-Dokumentation Die Dokumentation des Qualitätsmanagements erfolgt in QualitätsmanagementHandbüchern, Verfahrensanweisungen sowie Arbeits- und Prüfanweisungen. Qualitätsmanagement-Handbücher beschreiben Grundsätze, Aufbau- und Ablauforganisation und Ziele des -+ Qualitätsmanagement-Systems eines Unternehmens. Sie enthalten kein FirmenKnow-how und können Kunden bei Bedarf zugänglich gemacht werden. Verfahrensanweisungen beschreiben spezielle Verfahren und Abläufe auf Abteilungsebene. Sie enthalten organisatorisches und technisches Firmen-Know-how und sind nur für den internen Gebrauch bestimmt. Arbeits- und Prüfanweisungen beschreiben Arbeits- und PrüfVorgänge auf Arbeitsplatzebene. Sie enthalten technisches Firmen-Know-how und sind nur für den internen Gebrauch bestimmt. Engelbert Westkämper/ Alexander Schloske Qualitätsmanagement-Methoden Unter Methoden des -> Qualitätsmanagements werden Arbeitstechniken verstanden, die sich durch ein planmäßiges nachvollziehbares Vorgehen auszeichnen. Methoden lassen sich oftmals nur bestimmten Phasen des Produktlebenslaufes zuordnen. Zu den wichtigsten Methoden des Qualitätsmanagements gehören -> Quality Function Deployment (QFD), -> Fehlermöglichkeits- und -einflußanalyse (FMEA), Fehlerbaumanalyse (FBA), Ereignisablaufanalyse (EAA), -> Statistische Versuchsplanung (SVP) und ->• Statistische Prozessregelung (SPC) Engelbert Westkämper/ Alexander Schloske Qualitätsmanagement-Handbücher -» Qualitätsmanagement-Dokumentation
649
Qualitätsmanagement-Prinzipien Qualitätsmanagement-Prinzipien Prinzipien dienen dazu, die Qualitätspolitik und Qualitätsphilosophie von Unternehmen zu verdeutlichen. Eines der bekanntesten Prinzipien ist das -* PokaYoke-Prinzip, das durch geeignete Maßnahmen (z.B. Zähleinrichtungen oder Sensoren) gezielt zufallige Fehlhandlungen zu begegnen versucht. Engelbert Westkämper/ Alexander Schloske Qualitätsmanagement-System Ein Qualitätsmanagement-System (QMSystem) umfaßt die Aufbau- und Ablauforganisation, Verfahren, Prozesse und Mittel zur Umsetzung des -> Qualitätsmanagements. Forderungen an derartige QM-Systeme sind in Branchenstandards, wie -> VDA6 und -> QS-9000 sowie in den Normen DIN EN ISO 9001 bis 9003 festgelegt (-> DIN EN ISO 9000ff). Die Dokumentation von QM-Systemen erfolgt üblicherweise in Qualitätsmanagement-Handbüchern, Verfahrensanweisungen sowie Arbeits- und Prüfanweisungen (-» Qualitätsmanagement-Dokumentation). Die Wirksamkeit von QM-Systemen wird durch QualitätsmanagementSystemaudits überprüft und kann von unabhängigen akkredierten Stellen zertifiziert (-> Zertifizierung) werden. Ein Systemaudit ist eine systematische und unabhängige Untersuchung, um festzustellen, ob das QualitätsmanagementSystem und die damit zusammenhängenden Ergebnisse den geplanten Anforderungen entsprechen und ob diese Vorgaben effizient verwirklicht und geeignet sind, die Ziele zu erreichen. Engelbert Westkämper/ Alexander Schloske Qualitätsmanagement-Werkzeuge Unter Werkzeugen des -> Qualitätsmanagements werden elementare Hilfsmittel zur Problemlösung verstanden. Die Anwendung der Werkzeuge ist nahezu über alle Phasen des Produktlebenslaufes 650
Qualitätsregelkarte möglich. Zu den sieben elementaren Werkzeugen des Qualitätsmanagements (Sieben Tools) gehören -> Fehlersammeloder Strichliste, Histogramm, -» Flußdiagramm, -> Pareto-Analyse, Ursache-Wirkungs-Diagramm (IshikawaDiagramm), -> Korrelationsdiagramm und die -> Qualitätsregelkarte. Engelbert Westkämper/ Alexander Schloske Qualitätsplanung Die Qualitätsplanung wählt Qualitätsmerkmale - dies sind für die Beschaffenheit des Produktes maßgeblich mitbestimmende Eigenschaften - aus, klassifiziert und gewichtet sie und konkretisiert alle Einzelforderungen an die Beschaffenheit einer Einheit. Hierdurch wird die Qualitätsforderung an die Einheit geplant und weiterentwickelt. Engelbert Westkämper/ Alexander Schloske Qualitätspreise Qualitätsauszeichnungen Qualitätsprüfung Die Qualitätsprüfung stellt fest, inwieweit eine Einheit die Qualitätsforderung erfüllt. Die Qualitätsforderung kann in Lastenheften, Spezifikationen, Zeichnungen u.a. dokumentiert sein. Zur Qualitätsprüfung gehört insbesondere das Planen (->• Prüfplanung) und Ausführen von Prüfungen. Engelbert Westkämper/ Alexander Schloske Qualitätsregelkarte Ist ein elementares Werkzeug des Qualitätsmanagements (-> Qualitätsmanagement; Qualitätsmanagement-Werkzeuge) und dient im Rahmen der Statistischen Prozessregelung (SPC) zur Überwachung und Regelung einer Serienproduktion auf Sollwert und Toleranzeinhaltung. Regelkarten enthalten neben den Toleranzgrenzen zusätzlich noch Eingriffsgrenzen, bei deren Über-
Qualitätsverlustfunktion
Qualitätsregelkarte schreitung regelnd in den Prozess eingegriffen werden muss. Darüber hinaus können auch bestimmte, in den Regelkarten dokumentierte Verläufe der Stichproben (Trend, Run, Middle-Third und Prozess-Shift) einen Eingriff in den Prozess notwendig machen.
zer entstehen, wenn y außerhalb dieses Toleranzintervalls liegt, ermittelt werden kann. Der Verlauf dieser Verlustfunktion ist in der nachfolgenden Abbildung dargestellt.
Engelbert Westkämper/ Alexander Schloske Qualitätsverlustfunktion Um den Optimalwert für einen Funktionskennwert eines Produktes bestimmen zu können (-> Off-line-Qualitätskontrolle), benötigt man die Qualitätsverlustfunktion, die dazu herangezogen werden kann, den durchschnittlichen Wert des Verlustes zu minimieren, den der Benutzer eines Produktes über die Gesamtlebensdauer eines Produktes erleidet. Bezeichnet man mit T den Sollwert des Funktionskennwertes eines Produktes und mit y den tatsächlichen Wert dieses Funktionskennwertes, so wird bei Betrachtung verschiedener Einheiten dieses Produktes zu einem bestimmten Zeitpunkt der Wert y vom Sollwert t in unterschiedlichem Ausmaß differieren (funktionale Variabilität). Betrachtet man dagegen ein einziges Produkt über die Gesamtlebensdauer, so wird auch hier zu verschiedenen Zeitpunkten der Wert y vom Sollwert x unterschiedlich stark abweichen. Ist L(y) der monetäre Verlust, der einem Benutzer dieses Produktes entsteht, falls zu einem bestimmten Zeitpunkt während der Lebensdauer dieses Produktes y von T abweicht, dann kann L(y) mit Hilfe einer Taylorschen Reihe um den Sollwert x entwickelt werden und man erhält die Qualitätsverlustfunktion: L(y) = k(y-0 2 . Dabei bezeichnet man k als Qualitätsverlust-Koeffizient, der mit Hilfe der Breite 2A des Toleranzintervalls um T, bei dem dem Benutzer kein Verlust entsteht, falls y innerhalb dieses Toleranzintervalls liegt, und den Kosten A, die dem Benut-
Soll der Funktionskennwert T eines Produktes möglichst nahe beim Minimierungs- bzw. Maximierungswert liegen, so erhält man mit der Breite A des Toleranzintervalls und den Kosten A die Qualitätsverlustfunktion
bzw. L(y) = A A 2 - J _ , y die in den nachfolgenden Abbildungen dargestellt sind. k L(y) Verlust Maximierungswert
1 0
^
A y Funktionskennwert
Die Ermittlung des durchschnittlichen Verlustes sowie dessen Minimierung und die damit verbundene Verminderung der funktionalen Variabilität wird ebenfalls dargestellt. Bezeichnet Ey den durch651
Qualitätsverlustfunktion
Qualitätszirkel
schnittlichen Wert des Funktionskennwertes y und var y die Varianz von y, so erhält man für den durchschnittlichen Verlust X beim Vorliegen eines Sollwertes T. Ä = ~lyary
+ (T-Ey)2]
.
Aus dieser Beziehung geht hervor, dass die Reduzierung des durchschnittlichen Verlustes sowohl durch eine Verringerung der Varianz des Funktionskennwertes y als auch durch Angleichung des durchschnittlichen Wertes von y an den Sollwert t erfolgen kann. Die Maßnahmen der Off-line-Qualitätskontrolle können also darauf ausgerichtet sein, die Varianz des Funktionskennwertes y (die funktionale Variabilität) zu reduzieren, als auch den durchschnittlichen Wert des Funktionskennwertes an den Sollwert t anzugleichen. Literatur: Schweitzer, W./Baumgartner, C.: Offline-Qualitätskontrolle und Statistische Versuchsplanung - Die Taguchi-Methode, in: Zeitschrift für Betriebswirtschaft, Januar 1992, S. 7 5 - 1 0 0 .
Walter Schweitzer Qualitätszirkel 1. Entwicklungslinien und Hintergründe Der Ursprung des japanischen QualityCircle-Konzeptes lässt sich bis in die Zeit nach dem Zweiten Weltkrieg zurückverfolgen, als amerikanische Experten (z.B. Deming und Juran) das Gedankengut einer systematischen Qualitätssicherung (-> Qualitätssicherungssystem) nach Ja652
pan brachten. Als Konsequenz begannen Mitte der 50er Jahre nationale Aufklärungs- und Trainingsmaßnahmen, die auch die Identifikation und Analyse potenzieller Fehlerursachen unter Einbeziehung von Mitarbeitern der ausführenden Ebene in Quality-(Control-)Circles zum Inhalt hatten. Hierbei werden Gruppen von vier bis zehn Mitarbeitern eines Arbeitsbereichs gebildet, die unter Führung des direkten Vorgesetzten periodisch zusammentreffen, um Probleme und Schwachstellen des eigenen Arbeitsbereichs zu identifizieren, zu analysieren und zu beseitigen (Zink/Schildknecht 1994). 2. Ziele und Aufgaben Quality Circles tragen dem Gedanken Rechnung, dass Probleme und Schwachstellen, die die Mitarbeiter bei der Ausfuhrung ihrer Arbeit behindern, am besten durch die betroffenen Personen erkannt und beseitigt werden. Entsprechend werden mit Quality Circles folgende Ziele verfolgt (Zink 1992): •
Steigerung der betrieblichen Leistungsfähigkeit, d.h. - Verbesserung der Produktqualität, - Verminderung der Kosten und Erhöhung der Produktivität (z.B. verbesserte Arbeitsabläufe, geringere Ausschussquoten und niedrigeren Materialeinsatz).
•
Verbesserung der Arbeitszufriedenheit und -motivation durch - gesteigerte Mitwirkungsmöglichkeiten bei der Arbeitsgestaltung, - verbesserte innerbetriebliche Kommunikation und Zusammenarbeit, - positivere Einstellung gegenüber Veränderungen durch die Einbindung der Mitarbeiter in den Veränderungsprozess.
In diesem Sinne repräsentieren Quality Circles einen Baustein eines Organisations- und Personalentwicklungskonzeptes, das den Mitarbeiter nicht nur als bloßen Anweisungen beEmpfanger von
Qualitätszirkel trachtet, sondern auch als Träger von Ideen und Erfahrungen. Während beim Quality-Circle-Ansatz ursprünglich die Verbesserung der Produkt- und Prozessqualität im Vordergrund stand, erstrecken sich die heutigen Themen auf alle Probleme, die einem reibungslosen Arbeitsablauf im Wege stehen, und zwar ohne Beschränkung auf bestimmte Arbeitsbereiche oder Branchen. Zudem kann beobachtet werden, dass die Grundgedanken der Quality Circles in Veränderungsansätze wie beispielsweise -> "Lean Management" oder "Business Re-Engineering" (—> Business Process Reengineering) eingeflossen sind. Auch im Rahmen umfassenderer Qualitätskonzepte wie "Total Quality Control" bzw. -> "Total Quality Management" haben Kleingruppenansätze ihren festen Platz. So werden beispielsweise bei der Einführung umfassender Qualitätsmanagementkonzepte neben Quality Circles weitere Formen der -> Gruppenarbeit thematisiert. Die nachfolgende Tabelle 1 gibt einen Überblick über die verschiedenen Teamkonzepte (s.a. -» Teams) und grenzt typische Formen zur Mitarbeiterbeteiligung nach den Kriterien Aufgaben, Zusammensetzung und zeitliche Befristung voneinander ab. 3. Zusammenfassende Betrachtung Insgesamt zeigen die praktischen Erfahrungen, dass die Aktivierung des Problemlösungspotenzials der Mitarbeiter auf der ausführenden Ebene einen wichtigen Beitrag zur Erhaltung bzw. Steigerung der Wettbewerbsfähigkeit zu leisten vermag und zur Humanisierung der Arbeit beiträgt (Bungard/Wiendeck/Zink 1992; Zink 1995). Bei der Einführung von Quality Circles sind insbesondere der Einführungsstrategie und sowie der Struktur des gewählten Konzepts Beachtung zu schenken. Denn gerade Fehler im Einführungsprozess
Qualitätszirkel Formen der Mitarbeiterbeteiligung Qualitätsgespräche (Lerngruppen)
Quality Circles
Task-ForceGruppen/ Projektgruppen
Teilautonome Arbeitsgruppen
Aufgaben
Diskussion aktueller Qualitätsfragen, Analyse von KundenLieferantenBeziehungen Lösung frei gewählter Problemstellungen im eigenen Arbeitsbereich Lösung vorgegebener Problemstellungen, Analyse bereichsübergreifender Prozesse
Zusammenarbeit bei einer definierten Aufgabe, Einfluss auf Arbeits Verteilung und Inhalt
Mitwirkende/ Zusammensetzung Vorgesetzter und die ihm direkt unterstellten Mitarbeiter
Zeitliche Befristung Keine zeitliche Befristung
Mitarbeiter der ausführenden Ebene eines Arbeitsbereichs auf freiwilliger Basis Mitarbeiter aus unterschiedlichen Arbeitsbereichen und Hierarchieebenen, nach fachlichen Gesichtspunkten zusammengesetzt
Keine zeitliche Befristung
Nach fachlichen Gesichtspunkten zusammengesetzt, u.U. Mitwirkung bei der Auswahl
Keine zeitliche Befristung
Auflösung der Gruppe nach Abschluss der Aufgabe
Tab. ¡. Formen der Gruppenarbeit im von TQM-Konzepten
Rahmen
(z.B. unzureichende Information der Beteiligten, fehlende Schulung) wirken sich negativ auf eine langfristige Fortfuhrung und Stabilisierung des Konzeptes aus. Ein weiterer Faktor für den Grad der Akzeptanz der Quality Circles ist die organisatorische Verankerung des Kleingruppenansatzes, wie beispielsweise die Einrichtung eines Steuerkreises, die Benennung eines Koordinators, die Formulierung von Regelungen zur Freistellung der Mitarbeiter und zur Erfolgskontrolle der Teams sowie die Anbindung der Teamziele an die Unternehmensziele. Literatur: Zink, K . J . / S c h i l d k n e c h t , R.: T o t a l Quality K o n z e p t e - E n t w i c k l u n g s l i n i e n und Überblick, in: Zink, K.J. (Hrsg.): Qualität als Managem e n t a u f g a b e , 3. A u f l a g e , L a n d s b e r g 1994, S. 7 3 -
653
Quick Wins
Qualitätszirkel 107; Zink, K.J.: Qualitätszirkel und Lernstatt, in: Frese, E. (Hrsg.): Handwörterbuch der Organisation, 3. Auflage, Stuttgart 1992, Sp. 2129-2140; Zink, K. J.: TQM als integratives Managementkonzept - Das europäische Qualitätsmodell und seine Umsetzung, München, Wien 1995, S. 83f.; Bungard, W.; Wiendeck, G.; Zink, K.J. (Hrsg.): Qualitätszirkel im Umbruch, Ludwigshafen 1992; Zink, K.J. (Hrsg.): Erfolgreiche Konzepte zur Gruppenarbeit - aus Erfahrungen lernen. Human Resource Management in Theorie und Praxis, Luchterhand Verlag, Neuwied 1995; Zink, K. J.: Stabilisierung von Kleingruppenarbeit im Rahmen umfassender Qualitätsförderungskonzepte Grundlagen, in: Kamiske, G.F. et al. (Hrsg.): Innovatives Qualitätsmanagement - Praxis erfolgreicher Unternehmen, München, Wien 1997, S. 690-708.
Klaus J. Zink Quality Engineering -» Off-line-Qualitätskontrolle Quality Function Deployment (QFD) Das Quality Function Deployment (dt.: Entwicklung der qualitätsbezogenen Funktionen) ist eine formalisierte, teamorientierte QualitätsmanagementMethode zur schrittweisen und systematischen Umsetzung von Kundenanforderungen ("Stimme des Kunden") in meßbare technische und qualitative Merkmale ("Stimme des Unternehmens") mit dem Ziel der Herstellung wettbewerbsfähiger, kundenorientierter Produkte. Der wichtigste Aspekt bei der Durchführung der QFD ist
654
die Ausrichtung auf den (späteren) Kunden und dessen Anforderungen an das Produkt. Als Ergebnis der QFD erhält man eine nach Erfüllung der Kundenanforderungen gewichtete Darstellung der technischen und qualitativen Merkmale des Produkts. Auf deren Basis lassen sich die Entwicklung und die Entwicklungsbudgets für definierte Funktionalitäten planen (-> Target Costing). Durch die Einbeziehung von Konkurrenzprodukten in die Analyse können zudem auch strategische und marktpolitische Weichen gestellt werden. Die Dokumentation der QFD erfolgt in speziellen Formblättern (House of Quality) oder Matrizen. Engelbert Westkämper/ Alexander Schloske Quantitative Personalplanung -> Personalplanung Quick Wins Quick Wins bezeichnen kleiner Verbesserungen, die innerhalb des Leistungserstellungsprozesses sofort umsetzbar sind - dafür aber auch nicht die Verbesserungspotenziale wie "der große Wurf' haben.
Radar-Bewertungsschema
Radar-Bewertungsschema •
ein Netz von Vorgehens weisen (Approach - Annäherung) plant und entwickelt, um die erforderlichen Ergebnisse jetzt und in der Zukunft zu erreichen; • das Umsetzen (Deployment - Durchfuhrung) der Vorgehensweise systematisch vornimmt, um eine volle Einfuhrung zu erreichen; • eine Beurteilung und Review (Assessment and Review - Abschätzung und Review) der Vorgehensweise anschließt, basierend auf Beobachtung und Analyse der erzielten Resultate und aufgrund fortwährender Lernvorgänge. Hierauf basierend werden Verbesserungen identifiziert, priorisiert, geplant und eingeführt.
Radar-Bewertungsschema Engl. Akronym fur Results (Ergebnisse), Approach (Vorgehen), Assessment (Bewertung) und Review, (RADAR auf deutsch etwa: Resultate, Annäherung, Durchführung, Abschätzung und Review). Es handelt sich um die Bewertung der Kriterien nach dem -»• EFQM-Modell für Excellence unter Anwendung spezifizierter Parameter. Grundschema der Radarbewertung: Die Bewertung ist nach einer inhärenten PDSA-Logik aufgebaut, indem sie von den Ergebnissen ausgeht und dazu Vorgehensweise, Umsetzen und Bewertung, als folgerichtige Schritte einsetzt (Abb. 1).
Bewertung der Ergebnisse: Bei den Ergebnissen werden tatsächliche Zahlen und Fakten finanzieller und nicht-finanzieller Art bewertet. Insbesondere wird bei Ergebnissen verlangt, dass positive Trends aus den Ergebnissen abgelesen werden können. Das setzt voraus, dass Ergebnisse über mehrere Jahre vorhanden sind, um einen Trend erkennen zu können.
Diese Logik bedeutet, dass eine Organisation •
die Ergebnisse (Results - Resultate) festlegt, die sie mit Hilfe ihrer Politik und Strategie erreichen will. Diese Ergebnisse decken die Leistung der Organisation sowohl finanziell als operativ ab und erfassen die Wahrnehmung der Interessengruppen;
r
Bewerte Vorgehen und Umsetzung (Assess/Review)
Der zweite große Aspekt ist der Vergleich mit anderen Größen. Als erstes kommt
>
Lege beabsichtigte Ergebnisse fest
%
D
Setze Vorgehen um (Deployment)
J
Plane und entwickle Vorgehensweisen (Approach)
V
Abb. l. Das PDSA- Prinzip im Modell durch Einführung der RADAR- Bewertung
655
Radar-Bewertungsschema
Radar-Bewertungsschema
senheit der verwendeten Methoden, Instrumente und Techniken wird deshalb bewertet, da sie je nach Art des Unternehmens und der Branche unterschiedlich sein können. Es muss sichergestellt werden, dass die verwendeten Methoden bei dem jeweiligen Bewerber, - nach dem Stand der Technik und Wissenschaft angemessen sind.
ein Vergleich mit der eigenen Zielsetzung in Betracht, was voraussetzt, dass eine derartige Zielsetzung getroffen wurde. D.h., dass für die angegebenen Daten mittel- und längerfristige Ziele erarbeitet und sinnvoll festgesetzt werden. Der zweite Vergleich ist der mit Ergebnissen anderer Unternehmen, in erster Linie der Wettbewerber, aber auch branchenübergreifend mit den weit-besten Unternehmen (-> Benchmarking). Diese Benchmarkingdaten gestatten, sich mit Wettbewerbern und Weltbesten zu vergleichen und damit die eigene Position am Gesamtmarkt zu bestimmen und zu beurteilen. Fehlende Benchmarkingdaten in einer Bewerbung deuten auf ein relatives Anfangsstadium im TQM-Prozess hin (-• Total Quality Management).
TQM-Handlungsweisen sollten immer Teil der normalen Arbeitsabläufe sein; deshalb wird auf Integration in allen Phasen der Betriebsabläufe Wert gelegt. Bei Integration wird nicht nur die Verbreitung im eigenen Unternehmen, sondern auch die Ausdehnung bei anderen Unternehmen, insbesondere mit Lieferanten beurteilt; z.B. ein gemeinsames Datensystem zwischen Lieferant und Kunde wird deshalb als ein positives Element der Integration angesehen werden. Während das Vorgehen im Wesentlichen die Art, wie vorgegangen wird, hinterfragt, beurteilt der zweite Aspekt, die Umsetzung, in welchem Maße eine Maßnahme im Unternehmen ein- und durchgeführt wird, d.h., ob es in wenigen, in vielen, oder in allen Bereichen des Unternehmens angewendet wird. Insbesondere wird dabei beurteilt, ob alle relevanten Ebenen eines Unternehmens einbezogen sind, d.h., ob z.B. eine gewisse TQM- Praxis nicht nur in der Unternehmensleitung bekannt und gelebt wird, sondern auch vor Ort, wo die einzelnen Tätigkeiten verrichtet werden; dies wird als vertikale Verbreitung über alle Hierarchieebenen bezeichnet. Dementsprechend gibt es eine horizontale Verbreitung über
Ein wichtiger Aspekt für alle Ergebniswerte ist die Untersuchung, ob diese Ergebnisse vorgehensbedingt oder durch andere Ursachen erzielt wurden. Es wird also die Relevanz der dargestellten Ergebnisse auch dahingehend untersucht, ob deren Aussage im Hinblick auf ihre Rückführung auf die Prozesse verstanden wird, um diese zu verbessern. Inwieweit der Umfang der Ergebnisse auf das gesamte Unternehmen anzuwenden ist, wird im letzten Beurteilungskomplex festgestellt, wo es darauf ankommt, dass sämtliche Unternehmensbereiche abgedeckt sind, d.h. ob Ergebnisse für alle Unternehmensbereiche vorliegen und ob alle relevanten Messgrößen mit Ergebnissen belegt sind. Bewertung der Befähiger: Die AngemesGrobschema für Nachweise
R Results Ergebnisse
A Approach Vorgehen
0% 0-25% 25-50% 50-75% 75-100%
Keine Einige Für viele Für die meisten Für alle Best in Class
Keine Einige Vorhanden Klare Umfangreiche
Abb. 2 Abstufungen
656
zur Bewertung
von
D Deployment Umsetzen Keine Einige Vorhanden Klare Umfangreiche Unternehmensleistungen
AR Assessment & Review Keine Einige Vorhanden Klare Umfangreiche
Radar-Bewertungsschema alle Bereiche des Unternehmens, d.h., ob TQM nur in einem Bereich - z.B. in der Entwicklung - nicht aber im Vertrieb praktiziert wird. Erwünscht ist die gleichmäßig verteilte Umsetzung über alle Bereiche des Unternehmens. Gleichermaßen wichtig ist die Ausdehnung auf Prozesse, die quer durch die Bereiche laufen, da Prozesse Bereichsgrenzen auf natürliche Weise überspringen. Die Anwendung von TQM-Vorgehensweisen auf Geschäftsprozesse stellt deshalb einen höheren Grad der Umsetzung dar als die Umsetzung jeweils in einzelnen Bereichen. Schließlich wird noch beurteilt, ob alle Produkte und Dienstleistungen eines Unternehmens einbezogen sind oder ob nur in einzelnen Produktsparten eine Umsetzung erfolgt ist. Umsetzung: Die Umsetzung soll systematisch erfolgen und so angelegt sein, dass die im Unternehmen praktizierte Politik und Strategie mit dem jeweiligen Vorgehen unterstützt wird. Systematisch bedeutet immer das Vorhandensein einer definierten Vorgehensweise, die überdies darauf ausgelegt ist, dass sie zukünftige Abläufe in der gewünschten Richtung sicherstellt. Assessment und Review: Hier wird bewertet, was eine Organisation tut, um das Vorgehen und die Umsetzung durch regelmäßige Messungen zu bewerten und zu überprüfen. Daraus zu lernen ist eine erforderliche Aktivität, um Verbesserungen in der Organisation einzuführen. Wichtig ist das Vorhandensein von Überprüfungszyklen im Sinne eines Regelkreises. Der ständige Review einer Vorgehensweise ist erforderlich, um präventive Handlungen erzeugen zu können. Quantifizierung: Diese Vorgehensweise wird quantifiziert, indem man eine graduelle Bewertung einfuhrt; man erhält eine Messgröße für die Bewertung von Unternehmensleistung (Abb. 2). Durch prozentuale Abstufungen der Aussagen wird mittels der Quantifizie-
Random-Walk-Hypothese rung der Bewertung erreicht, dass eine Punktsumme errechnet werden kann. Bewertungsmatrizen helfen dabei, die nominalen Werte nachvollziehbar zu ermitteln. Durch Einsatz mehrerer Assessoren und durch einen Konsensprozess wird eine weitere Objektivierung erreicht. Die so gewonnene Gesamtbewertung ist weitgehend reproduzierbar. Im Bewertungsprozess beim EQA bildet die erreichte Punktsumme die Basis für die Einstufung in die Finalisten-, Preisträger- oder Awardkategorie (-> Qualitätsauszeichnungen). Henning Kirstein Random-Walk-Hypothese Im Rahmen der -» Aktienanalyse werden stets die Charttechnik sowie die -»• Fundamentalanalyse diskutiert. Beides erscheint überflüssig, wenn man der Random-Walk-Hypothese folgt: Demnach sind sämtliche Bewegungen am Aktienmarkt rein zufällig, weshalb auch die Prognose einer bestimmten Kursentwicklung unterlassen werden kann. In der Random-Walk-Hypothese steckt die Annahme, dass sich die Erwartung eines Individuums zum Kurs eines Wertpapiers aus sämtlichen vergangenen und gegenwärtigen Informationen zu dem Wertpapier ergibt, ergänzt um Erwartungen über die Zukunft. Da hier die subjektive Wahrnehmung eine zentrale Rolle spielt, wird der "geschätzte" Kurs nie mit dem "inneren" Wert einer Aktie übereinstimmen. Es entsteht eine Zufallsabweichung, die sich aufgrund der großen Menge von Marktteilnehmern wiederum zu einem zufälligen Mittelwert verdichtet. Werden neue Informationen zu dem betrachteten Wertpapier bekannt, wird sich der Kurs im Mittel verschieben. Da jedoch jedes Individuum die neuen Tatsachen etwas anders beurteilt, ist eine vorherige Prognose der Kursentwicklung unmöglich. 657
Rapid Prototyping Rapid Prototyping Das Rapid Prototyping ist eine Entwicklungstechnik (-> Forschung und Entwicklung), die hauptsächlich für individuelle Softwareprojekte genutzt wird. Ziel des Rapid Prototypings ist es, möglichst schnell einen Programm-Prototyp mit vollständiger Nutzeroberfläche, aber nur eingeschränkter Funktionalität zu generieren. Dadurch kann man dem Kunden frühzeitig das Aussehen des Produkt demonstrieren und so Korrekturbedarf und spezielle Kundenwünsche ermitteln. In späteren Entwicklungsphasen werden die fehlende Funktionalität ergänzt und der bisher geschrieben Programmcode (Quellcode) optimiert. Rating Die Zielsetzung eines Ratings besteht darin, ein ausgewähltes Objekt hinsichtlich bestimmter Merkmale zu beurteilen. Objekte von Ratings können grundsätzlich Schuld- und Anteilstitel sein. Dabei kann sich ein Rating sowohl auf die allgemeine Zahlungsfähigkeit eines bestimmten Emittenten (Emittentenrating) als auch auf die Fähigkeit eines Emittenten beziehen, die aus einem emittierten Schuld- oder Anteilstitel resultierenden Zahlungsverpflichtungen bzw. -versprechen erfüllen zu können (Emissionsrating). Vor allem das Rating von Schuldtiteln als Bonitätsurteil ist stark verbreitet (DebtRating). Beurteilt wird dementsprechend die Fähigkeit von Personen, Unternehmen oder Körperschaften, künftig bestimmte mit der Emission von Schuldtiteln verbundene Zins- und Tilgungszahlungen leisten zu können. Ein Rating stellt insofern ein Urteil über die Wahrscheinlichkeit von Zahlungsstörungen für eine bestimmte Laufzeit dar. Das Urteil wird dabei regelmäßig durch bestimmte Rating-Symbole mitgeteilt. Ratings werden von speziellen RatingAgenturen erstellt. Rating-Agenturen 658
Rating werden bei Schuldtiteln vor allem von den Emittenten beauftragt, ein entsprechendes Urteil abzugeben. Allerdings werden Ratings auch ohne einen entsprechenden Auftrag von Rating-Agenturen vorgenommen. In diesen Fällen werden die Rating-Urteile von den Agenturen an interessierte Investoren und Finanzinstitutionen veräußert. Die Bonitätsbeurteilung durch RatingAgenturen beeinflusst die Fremdkapitalkosten von Schuldtiteln und Emittenten erheblich. So fuhrt eine geringe Bonität dazu, dass ein entsprechend höherer Risikozuschlag auf den landesüblichen Kapitalmarktzinsfuß risikoloser Anleihen von dem beurteilten Unternehmen zu zahlen ist. Rating-Agenturen fällen ihr Gesamturteil über die Unternehmensbonität, indem sie die Jahresabschlüsse (-> Jahresabschluss), die Unternehmensgröße, das Branchenrisiko, den Diversifikationsgrad (-» Diversifikation), den Marktanteil sowie sogenannte "keys to success" (Produktqualität, Image und Produktdifferenzierung) analysieren. Die Bilanzbonität ist dabei lediglich einer von mehreren Faktoren für das Gesamturteil über die Unternehmensbonität. Die Bilanzbonität, die sich aus einer Analyse zeitlich aufeinanderfolgender Jahresabschlüsse des Unternehmens ergibt, spielt indes traditionell die dominierende Rolle. So hat sich bei einer empirisch-statistischen Analyse sowohl von Jahresabschlüssen als auch von Auskünften von Tausenden gesunden und Jahre später in die Insolvenz geratenen Unternehmen herausgestellt, dass den Jahresabschlussinformationen eine herausragende Bedeutung zukommt. Bei einem auf diese Weise gewonnenen Rating-Urteil wird nicht zwischen Equityund Debt-Rating unterschieden. Ziel der Bilanzbonitätsanalyse ist es, eine drohende Krise eines Unternehmens frühzeitig zu erkennen und ein Gesamturteil darüber zu fällen, ob der Fortbestand des analysierten Unternehmens
Rationalisierung
Rating gefährdet ist. Teilurteile über die wirtschaftliche Lage des Unternehmens lassen sich gewinnen, indem die Daten des Jahresabschlusses zu Bilanzpolitikkonterkarierenden (intelligenten) Verhältniszahlen verdichtet werden. In weiteren Schritten müssen die für eine Beurteilung der Insolvenzgefährdung relevanten Verhältniszahlen in optimaler Weise ausgewählt, gewichtet und zu einem Gesamturteil aggregiert werden. Die Instrumente der traditionellen und der modernen Jahresabschlussanalyse bieten in diesem Zusammenhang verschiedene Vorgehensweisen an, derartige Gesamturteile über den Fortbestand des zu analysierenden Unternehmens abzuleiten. Ein optimales Bilanzbonitätsrating lässt sich empirisch-statistisch ermitteln. Die Bilanzbonitätsanalyse mit modernen Verfahren der Jahresabschlussanalyse besitzt am Institut für Revisionswesen der Westfälischen Wilhelms-Universität Münster eine lange Tradition (vgl. u.a. Niehaus, Krause, Hüls, Uthoff, Jerschensky, Baetge/Baetge/Kruse). Schließlich wurde 1995 das BBR Baetge-BilanzRating in Zusammenarbeit mit der Baetge & Partner GmbH & Co. Auswertungszentrale KG entwickelt (Baetge 1998). Bei dem BBR handelt es sich um ein Künstliches Neuronales Netz (-> Neuronale Netze), das mit dem BackPropagation-Algorithmus trainiert wurde. In das Urteil des BBR gehen die Werte von 14 optimal ausgewählten, intelligenten Jahresabschluss-Kennzahlen ein. Diese 14 Kennzahlen werden zu einem Gesamturteil, dem Bilanzbonitätsindex (N-Wert), verdichtet. Dieser N-Wert informiert über die Bestandsfestigkeit des zu klassifizierenden ("ratenden") Unternehmens gemessen an dessen aposterioriInsolvenzwahrscheinlichkeit. Die Ausprägungen des N-Wertes dienen deshalb als Maß für das Bestandsrisiko und damit für die gesamte wirtschaftliche Lage des Unternehmens. In vielen IRW-Veröffentlichungen ist belegt, dass alle großen Krisenfälle in Deutschland mit dem
BBR Jahre vor der Insolvenz als schwach geratet worden sind. Die Validierung von BBR an Jahresabschlüssen, die nicht für das Lernen herangezogen wurden, hat gezeigt, dass mit einer Zuverlässigkeit von über 91,25% insolvenzgefährdete Unternehmen bis zu drei Jahre vor der Insolvenz als solche korrekt klassifiziert werden (vgl. Baetge, Bilanzanalyse, S. 583). Der Klassifikator wurde an Jahresabschlüssen von Unternehmen aller Rechtsformen, Größenklassen und Branchen (Ausnahmen: Banken, Versicherungen, Bauträger) validiert. Daher lassen sich mit dem entwickelten Klassifikator ohne weiteres auch Großunternehmen zuverlässig beurteilen. Literatur: Baetge, J.: Bilanzanalyse, Düsseldorf, 1998; Baetge, J.: Rating von Unternehmen anhand von Bilanzen, in: WPg 1994, S. 1 - 1 0 ; Baetge, Jörg/Baetge, Kai/Kruse, Ariane, Moderne Verfahren der Jahresabschlußanalyse: Das Rating, in: DStR 1999, S. 1628-1632; Baetge, Jörg/Jerschensky, Andreas, Beurteilung der wirtschaftlichen Lage von Unternehmen mit Hilfe von modernen Verfahren der Jahresabschlußanalyse - Bilanzbonitäts-Rating von Unternehmen mit Künstlichen Neuronalen Netzen, in: DB 1996, S. 1581-1591; Hüls, D.: Früherkennung insolvenzgefährdeter Unternehmen, Düsseldorf 1995; Jerschensky, A.: Messung des Bonitätsrisikos von Unternehmen, Düsseldorf 1998; Krause, Clemens, Kreditwürdigkeitsprüfung mit neuronalen Netzen, Düsseldorf 1993 (Kreditwürdigkeitsprüfung mit neuronalen Netzen). Niehaus, H.-J.: Früherkennung von Untemehmenskrisen, Düsseldorf 1987; Uthoff, C.: Erfolgsoptimale Kreditwürdigkeitsprüfung auf der Basis von Jahresabschlüssen und Wirtschaftsauskünften mit Künstlichen Neuronalen Netzen, Stuttgart 1997.
Jörg Baetge/Kai Niemeyer Rationalisierung 1. Rationalisierung als Systemrationalisierung Rationalisierungsentscheidungen dienen nach allgemeiner und unumstrittener Ansicht von jeher dem Zweck, Handlungen in und für Unternehmen wirtschaftlicher zu gestalten. Unterschiede gibt es dabei in den Begriffsauffassungen. Enge Fassungen finden sich vorwiegend bei 659
Rationalisierung
Rationalisierung
Praktikern, während Wissenschaftler eher weiter definierte Begriffe bevorzugen.
•
Aus einer systemorientierten Perspektive kann Rationalisierung als Systemrationalisierung gefasst werden, die auf Kostensenkung bzw. Wirtschafilichkeits- und Produktivitätssteigerung gerichtet ist. Unter Systemrationalisierung wird ein spezieller unternehmerischer Entscheidungs- bzw. Handlungstypus verstanden, der sich damit befasst, • • •
um aus der Kostenperspektive die Systemwirtschaftlichkeit über ein mehrstufiges Handlungsprogramm zu erhalten und/oder zu verbessern.
Systemwirtschaftlichkeit meint dabei den auf der Basis eines klar definierten Zielund Bezugssystems (Referenzsystem) vorgenommenen bewertenden Vergleich von Entscheidungsalternativen unter Berücksichtigung sowohl direkter als auch indirekter Systemkonsequenzen. Erst ein explizites Referenzsystem erlaubt die Beurteilung von Rationalisierungsmaßnahmen hinsichtlich ihrer Konsequenzen im System über die unmittelbaren Wirkungsbereiche der Maßnahmen hinaus.
im Rahmen einer gegebenen Wettbewerbsstrategie, gemäß den Prinzipien rationalen Handelns Funktion, Struktur und Prozess einer Unternehmung samt seiner Relationen mit anderen Marktteilnehmern, insbesondere Wertschöpfungspartnern, an geänderte Entscheidungsfelder anzupassen, d.h. zu planen, durchzufuhren und zu kontrollieren,
Mit der Auffassung von Rationalisierung als Kostenperspektive der Systemwirtschaftlichkeit verabschiedet man auch einen Ort der Rationalisierung im Unternehmen (z.B. Arbeitsvorbereitung). Ra-
Betrachtungsebene des wertschöpfenden Systems WertschöpUnternehmen Abteilung Stelle fungsnetzwerk Funktion
Baukastensystematik. Standardisierung Reduktion log. Beziehungen
I
I "
Kontinuierliche Verbesserung, Kaizen
Struktur
Just in time production IuK-Technologien
X
Segmentierung und Fraktalbildung | Projekt-und Teamarbeit TPM
Prozess
One-piece-flow, Kanban Rapid Prototyping
I
Simultaneous Engineering, fert.gerechte Konstruktion
I
I
I
Selbstorganisierende, kurze Regelkreise Integrierte
660
Rationalisierungsmaßnahmen
und
-Objekte
Rationalisierung
Rationalisierung
tionalisierung als Perspektive findet sich in allen auf Kostenreduktion abzielenden Maßnahmen eines Wertschöpfungssystems ( - • Wertschöpfungskette). 2. Prinzipien der Rationalisierung Prinzipien sind Kriterien für "richtiges Handeln" und dienen der Umsetzung von (Welt-)Anschauungen in konkretes Denken und Handeln mit dem Ziel, wirtschaftlichen Handlungserfolg wahrscheinlicher machen. Solche handlungsleitenden Prinzipien lassen sich auch für Objekt und Prozess der Rationalisierung formulieren: •
•
•
•
•
Die Unternehmung verstanden als produktives soziales System erlaubt das "Unternehmen als organisches Ganzes" zu behandeln und bekommt damit sämtliche Gestaltungsparameter des Systems in Funktion, Struktur und Prozess mit ihren jeweiligen Beziehungen zueinander als Rationalisierungspotenziale in den Griff. Ein ganzheitlich-integriertes Rationalisierungsverständnis erfordert zudem Denken in Wirkungszusammenhängen bei der Suche und Diagnose nach bzw. von Schwachstellen, bei der Entwicklung und Bewertung von Lösungsalternativen anstatt punktuellem Kurieren an sichtbaren Symptomen. Angesichts aktueller Entwicklungen ist eine Humanvermögensperspektive zwingend erforderlich. Demnach muss der Mitarbeiter als "Nutzenfaktor" und nicht nur als Kostenfaktor gesehen werden. "Vermeiden statt vermindern" als Primat des Rationalisierungshandelns zielt darauf ab, tieferliegende Ursachen von Problem(symptom)en im betrachteten System zu erkennen und wenn möglich abzustellen. Rationalisierungsprozesse sollten systematisch, pragmatisch und permanent angelegt werden. Systematik meint methodisches Vorgehen, das ausgehend von einer allgemeinen Formulierung von Problemen und Lö-
•
sungen schrittweise den Einzelfall zu spezifizieren, zu analysieren und zu diagnostizieren erlaubt. Im Phasenablauf der Willensbildung und durchsetzung kommen dabei eine Vielzahl von diskursiven und kreativen Informationsgewinnungsmethoden zum Einsatz. Pragmatisch-flexibles Vorgehen erfordert nicht nur eine Metaentscheidung über Art und Anzahl der verwendeten Methoden, sondern bedeutet zugleich, solchen Methoden den Vorzug zu geben, die für verschiedene Rationalisierungsprobleme in verschiedenen Organisationseinheiten anwendbar und in Art und Detaillierungsgrad (Brennweite der Beobachtung) auf den Analysezweck anpassbar sind.
Permanent durchgeführte, anstatt kriseninduzierter Rationalisierungshandlungen leisten einem kontinuierlichen organisatorischen Lernen Vorschub und senken die Veränderungswiderstände. 3. Objekte und Maßnahmen der Rationalisierung Die systemorientierte Auffassung von Rationalisierung als Kostenperspektive eröffnet ein weites Feld an Möglichkeiten, die Systemwirtschaftlichkeit von Funktion, Struktur und Prozess eines wirtschaftenden Systems zu verbessern. Letztlich lassen sich alle -»• Managementkonzepte darauf überprüfen, ob und inwieweit sie versuchen, die Kostendimension eines definierten Betrachtungsbzw. Referenzsystems positiv zu beeinflussen. Prima facie lässt sich demnach eine Vielzahl neuerer betriebswirtschaftlicher bzw. managerieller Konzepte aus Kostenperspektive als Rationalisierungskonzepte i.S. funktionaler, strukturaler und prozessualer Rationalisierungsmaßnahmen betrachten. Hierzu zählen umfassende Konzepte, wie z.B. -> Lean Management, Total Quality Management, Continuous Improvement (-> Kaizen), —> Business Process 661
Rationalisierung Reengineering, Supply Chain Management, Mixed Production, Efficient Consumer Response, die Mehrfachzielstellungen (z.B. Kosten-, Zeit- und Beständereduzierung sowie Qualitätsund Flexibilitätsverbesserung) verfolgen. Deren jeweils zu Grunde liegender Fokus ist auf verschiedene Betrachtungsebenen mit je spezifisch definierten Referenzsystemen gerichtet. Die genannten Konzepte umfassen wiederum ein mehr oder weniger großes Bündel von Teilkonzepten, die auch als isolierte Rationalisierungsmaßnahmen die Funktion, Struktur und Prozess eines Wertschöpfungssystems kostenwirksam beeinflussen können (siehe Abb.). Unter funktionaler Rationalisierung kann man all jene Maßnahmen zusammenfassen, die darauf abzielen die Input-OutputRelation eines Betrachtungsobjektes aus Kostensicht zu verbessern. Dabei kann der Schwerpunkt auf dem Inputbereich (z.B. Reduktion logistischer Beziehungen) und/oder auf dem Outputbereich (z.B. kundenumweltadäquate Produktbzw. Leistungspolitik) liegen.
Rechnungsabgrenzungsposten Regelkreise, -» one-piece flow und -> Kanban, -» Simultaneous Engineering). 4. Grenzen der Rationalisierung Das vorgestellte Verständnis, Rationalisierung als spezifischen, durch die Kostenperspektive im Rahmen der Systemwirtschaftlichkeitsbetrachtung entstehenden unternehmerischen Handlungstypus zu betrachten, liefert die Grenzbedingungen bereits definitorisch mit: Rationalisierung ist Handeln unter (c.p.-) Bedingungen. Durch die jeweils zu Grunde liegende Wettbewerbsstrategie als "absoluter" Bezugspunkt aller Rationalisierungsmaßnahmen werden Prämissen gesetzt. Zur Schaffung dieses Bezugspunkts bedarf es eines strategischen (Innovations-) Managements (-> Innovationsmanagement), das sich mit Fragen der Chancen/Risiken der Umwelt und deren Konsequenzen für das Produkt-/ Markt-Konzept eines wertschöpfenden Systems bzw. mit dessen Erfolg der Zukunft befasst. Damit rückt die Erlösseite der Systemwirtschaftlichkeit als Gestaltungshebel in den Blick, die letztlich vor dem Phänomen des "Sich-zuTode-Rationalisierens" bewahren soll.
Strukturale Rationalisierungsmaßnahmen sind solche, die auf kostenmäßige Verbesserung der organisatorischen, personellen und technischen Gegebenheiten eines wertschöpfenden Systems abzielen (z.B. schnittstellenvermeidende Informations- und Kommunikationstechnologien, organisatorische Segmentierung, Entspezialisierung von Mitarbeitern, Team- und Projektarbeit (-> Projektmanagement), -> Total Productive Maintenance).
Literatur: Pfeiffer/Weiß/Strubl/Küßner: Systemwirtschaftlichkeit, 2. überarbeitete Auflage. Göttingen 1999; Pfeiffer, W./Weiß, E.: Lean Management, 2. erweiterte Auflage, Berlin 1994; Pfeiffer, W./Weiß, E./Volz, T./Wettengl, S.: Funktionalmarkt-Konzept zum strategischen Management prinzipieller technologischer Innovationen, Göttingen 1997; Weiß, E.: Management diskontinuierlicher TechnologieÜbergänge, Göttingen 1989.
Als Maßnahmen zur prozessualen Rationalisierung kommen sämtliche Konzepte und Methoden infrage, die auf organisatorische, technische und führungsmäßige Verbesserung der Informations- und Materialflüsse abzielen (z.B. Typung und Normung, fertigungs-, montage- und nutzungsgerechte Konstruktion, Rapid Prototyping, selbstorganisierende kleine
Buch-
662
Enno Weiß Realisationsprinzip -> Rechnungsabgrenzungsposten, -> Grundsätze ordnungsgemäßer führung Recall-Tests -> Werbewirkungskontrolle Rechnungsabgrenzungsposten 1. Ansatzvoraussetzungen Kaum ein bilanzrechtlicher Tatbestand scheint so klar geregelt wie die symmetri-
Rechnungsabgrenzungsposten sehen Vorschriften zur aktiven und passiven Rechnungsabgrenzung in den §§ 250 Abs. 1, 2 HGB beziehungsweise 5 Abs. 5 EStG. In Absatz 1 der handelsrechtlichen Formulierung (die steuerrechtliche weicht im Wortlaut geringfügig ab, ist aber inhaltlich deckungsgleich) heißt es: "Als Rechnungsabgrenzungsposten sind auf der Aktivseite Ausgaben vor dem Abschlussstichtag auszuweisen, soweit sie Aufwand für eine bestimmte Zeit nach diesem Tag darstellen." Absatz 2 regelt die passive Rechnungsabgrenzung: "Auf der Passivseite sind als Rechnungsabgrenzungsposten Einnahmen vor dem Abschlussstichtag auszuweisen, soweit sie Ertrag für eine bestimmte Zeit nach diesem Tag darstellen." Der Hauptanwendungsbereich von Rechnungsabgrenzungsposten (RAP) sind gegenseitige Verträge, wenn für einen bestimmten Zeitraum Leistungen zu erbringen sind, aber Leistung und Gegenleistung zeitlich auseinanderfallen. Paradebeispiel ist das im Voraus bezahlte Nutzungsentgelt (Miete, Pacht etc.). Unterstellt sei bei Mieter und Vermieter der Bilanzstichtag 31.12.2000. Zahlt der Mieter in 2000 für den Zeitraum 1.10.2000 bis 30.9.2001 eine Miete von 12.000 DM, so hat er bis zum Bilanzstichtag drei Mietmonate in Anspruch genommen und der Vermieter seinerseits die vereinbarte Vermietungsleistung für die Monate Oktober bis Dezember erbracht. Der für das Jahr 2001 noch ausstehende Mietanspruch induziert beim Mieter in der Bilanz zum 31.12.2000 einen aktiven RAP, die noch zu erbringende Leistung beim Vermieter einen passiven RAP, und zwar jeweils in Höhe von 9.000 DM. Im Ergebnis werden also abgegoltene Leistungsansprüche bzw. -Verpflichtungen von noch ausstehenden abgegrenzt. Entscheidend für die Bilanzierung eines RAP ist die Zeitrawwbezogenheit des zu Grunde liegenden Geschäfts, zeit/wwfebezogene Leistungen (z.B. Kreditvermittlungs-
Rechnungsabgrenzungsposten Provisionen an Dritte) führen nicht zum Ansatz eines RAP, sondern werden sofort Aufwand bzw. Ertrag der Periode. Schließlich ist das gesetzliche Tatbestandsmerkmal der "bestimmten Zeit" zu beachten: die bestimmte Zeit muss kalendermäßig festgelegt oder berechenbar oder aus anderen Rechengrößen mathematisch ableitbar sein, eine mehr oder minder vage Schätzung scheidet aus. Die hier genannten Vorschriften des Gesetzes definieren ausschließlich die sog. transitorischen RAP. Demgegenüber wird eine antizipative "Rechnungsabgrenzung" durch Vermögensgegenstände oder Schulden abgebildet: Ertrag vor dem Stichtag, der erst zu Einnahmen nach dem Stichtag führt, wird unter Forderungen, Aufwand vor dem Stichtag, der erst zu Ausgaben nach dem Stichtag führt, unter Verbindlichkeiten bzw. Rückstellungen ausgewiesen. Zahlt in obigem Zahlenbeispiel der Mieter die Gesamtmiete erst im Jahr 2001, so resultiert daraus bei ihm in der Bilanz zum 31.12.2000 für die bereits in Anspruch genommene Mietleistung eine Verbindlichkeit über 3.000 DM, der Vermieter bilanziert für die erbrachte Vermietungsleistung eine Forderung in gleicher Höhe. Die Ermessensbeschränkung (sog. Objektivierung) bei der Bilanzierung von aktiven RAP erklärt sich nicht zuletzt aus den starken Parallelen in der Rechtsnatur von aktiven RAP und immateriellen Vermögensgegenständen; letztere dürfen in der Bilanz nur aktiviert werden, wenn sie entgeltlich erworben wurden. Das Verbot einer Aktivierung sog. transitorischer RAP im weiteren Sinne (d.h. lediglich vager Hoffnungen auf künftige Erträge, z.B. durch in einem Geschäftsjahr geballt für mehrere Jahre anfallenden Werbeaufwand) vereitelt mithin die Möglichkeit, die gesetzliche Aktivierungsbeschränkung für immaterielle Vermögensgegenstände zu unterlaufen. Passive RAP wiederum "speichern" erhaltene Einnahmen (Ver-
663
Rechnungsabgrenzungsposten mögenszugänge) in der Bilanz des Empfangers (des Vermieters in obigem Beispiel) jeweils solange, bis dieser nach Maßgabe der von ihm bereits erbrachten (Teil-)Leistungen die darauf anteilig entfallenden Beträge gewinnwirksam vereinnahmen darf; daher ist die Auflösung eines passiven RAP unmittelbar am bi lanzrechtlichen Fundamentalgrundsatz des Realisationsprinzips (§ 252 Abs. 1 Nr. 4 HGB) zu orientieren, wonach Gewinne nur vereinnahmt werden dürfen, soweit der zur Sach- oder Dienstleistung Verpflichtete seine vertragliche Leistung bereits erbracht hat. Zur der Ermittlung der "bestimmten Zeit" ist im Zweifel wegen des bilanzrechtlichen Vorsichtsprinzips (§ 252 Abs. 1 Nr. 4 HGB) der Auflösungszeitraum bei aktiven RAP im Interesse einer vorgezogenen Aufwandswirkung (Gewinnminderung) eher kürzer und bei passiven RAP wegen der Gefahr eventuell vorzeitiger (übereilter) Gewinnrealisierung eher länger festzusetzen. 2. Bewertung an nachfolgenden Bilanzstichtagen Nach herrschender Auffassung kommt es an nachfolgenden Bilanzstichtagen nicht zu einer formellen Bewertung der RAP, sondern zu einer lediglich schematischen, in der Regel zeitanteiligen Auflösung. Würdigt man allerdings nach der gegenwärtigen Rechtslage die Rechtsnatur aktiver RAP, so verkörpern diese letztlich Rechtsansprüche aus einem Dauerrechtsverhältnis und mithin immaterielle Vermögensgegenstände im Rahmen eines schwebenden Geschäfts; in gleicher Weise sind passive RAP als Rechtsverpflichtungen aus einem Dauerrechtsverhältnis und entsprechend als Verbindlichkeiten im Rahmen eines schwebenden Geschäfts anzusehen. Die beschriebene Charakterisierung der RAP legt es nahe, aktive und passive RAP an nachfolgenden Bilanzstichtagen auch wie Vermögensgegenstände und Schulden einer gesonderten Bewertung zu unterziehen.
664
Rechnungsabgrenzungsposten Die hinter einem aktiven RAP stehenden Nutzungsansprüche verkörpern wirtschaftlich betrachtet ein Leistungspotenzial; mithin ist im Idealfall die planmäßige Abschreibung entsprechend der Leistungsabgabe zu wählen. In diesem Sinne hat man etwa eine Zinsvorauszahlung auf ein in jährlichen Raten zu tilgendes Darlehen nach Maßgabe des zu jedem Bilanzstichtag noch zur Verfugung stehenden Kapitals, also degressiv aufzulösen. Auch könnten anlässlich eines Mietvertrags die Vertragsparteien durch Vereinbarung von im Zeitablauf unterschiedlich hohen Zahlungsverpflichtungen die im Zeitablauf unterschiedlich hohe Leistungsabgabe des Mietobjekts zum Ausdruck bringen. In der Regel dürfte freilich eine begründete Prognose künftiger Leistungsabgaben schon bei körperlichen und damit erst recht bei immateriellen Aktiva unmöglich sein, weshalb der RAP insoweit während der "bestimmten Zeit" nach dem sog. Prinzip vom mangelnden Grund in gleichen Jahresbeträgen, also linear abzuschreiben (aufzulösen) wäre. Die Ausführungen zur planmäßigen Wertfortführung sind im Ergebnis mit der herrschenden Meinung zur Bilanzierung von aktiven RAP vereinbar. Eine außerplanmäßige (verlustantizipierende) Abschreibung von aktiven RAP wird demgegenüber mit Hinweis auf deren mangelnde Bewertbarkeit allgemein abgelehnt. In jedem Fall Voraussetzung für die außerplanmäßige Abschreibung wäre nicht nur das bloße Absinken der Erträge, sondern tatsächlich das Absinken unter die entstandenen Aufwendungen, denn das Gesetz verlangt die Berücksichtigung vorhersehbarer Verluste, nicht künftiger Gewinnminderungen; es wird sich hier wie bei der planmäßigen Wertfortführung das (häufig unlösbare) Problem stellen, die künftigen Erträge aus dem Vertragsverhältnis annähernd ermessensfrei ("objektiviert") zu prognostizieren.
Rechnungsabgrenzungsposten Paradebeispiel für die (planmäßige) Wertfortführung von passiven RAP ist die Forfaitierung. Ein Leasinggeber (-> Leasing) verkauft seine vertraglichen Ansprüche auf künftige Leasingraten gegen deren Barwert an ein Factoringinstitut (-> Factoring); der erhaltene Betrag ist in einen passiven RAP einzustellen, da Gewinn beim Leasinggeber immer nur nach Maßgabe bereits erfolgter Leistungserbringung (Nutzungsüberlassung an den Leasingnehmer) realisiert ist. In der Literatur wird auf die Parallelen zwischen der Forfaitierung und der fristenkongruenten Fremdfinanzierung des Leasinggeschäfts hingewiesen: Die Auflösung des RAP sei fiktiv an der Tilgungsstruktur eines Darlehens zu orientieren, das der Leasinggeber zur Finanzierung des Leasinggeschäfts alternativ hätte aufnehmen können; die Berücksichtigung höheren Zinsaufwands in den ersten Perioden erfordere bei linearen (nur dann!) Leasingraten die progressive Auflösung des passiven RAP, anderenfalls werde gegen das Realisationsprinzip verstoßen. Finanzverwaltung und Bundesfinanzhof treten demgegenüber für eine lineare (also zeitanteilige) Auflösung des RAP über die Grundmietzeit ein; sie begründen dies damit, dass die Leistungsverpflichtung des Leasinggebers (d.h. die Nutzungsüberlassung) schuldrechtlich gesehen in den einzelnen Jahren von gleicher Art und von gleichem Umfang ist. Mathias Babel Rechnungswesen, Verbindung externes und internes Das betriebliche Rechnungswesen ist in einer Welt unvollkommener und unvollständiger Märkte ein Informationssystem. Wirtschaftliche Vorgänge, die innerhalb der Unternehmung ablaufen oder diese mit ihrer Umwelt verbinden, gehören zu den Informationsinhalten. Sie werden im Rechnungswesen konkretisiert und quantitativ abgebildet. Während im externen Rechnungswesen der Gesamtprozess des
Rechnungswesen, Verbindung ext. u. int. Unternehmens mit seinen unmittelbaren Außenwirkungen und damit die Zahlungsbemessungssowie die Informationsfunktion Dritter im Vordergrund stehen, fokussiert das interne Rechnungswesen auf den unternehmerischen Leistungsprozess und zielt über Planungs-, Kontroll- und Steuerungsaufgaben auf die unternehmensintemen Adressaten wie Geschäftsleitung, Bereichsmanager, Abteilungs- oder Kostenstellenleiter. Im ersten Fall wird dem Rechnungswesen pagatorischer, im zweiten (insbes. bei der Kostenrechnung) eher kalkulatorischer Charakter nachgesagt. Im externen Rechnungswesen erfolgt die Abbildung von Prozessen und Zuständen in Erfüllung gesetzlicher Vorschriften, das interne Rechnungswesen kann weitgehend ohne Beachtung von Gesetzen, Verordnungen oder richterlichen Urteilen frei gestaltet werden. Trotz dieser auf den ersten Blick gravierenden Unterschiede im Adressatenkreis, in den Zwecken, den Bezugsgrößen, den verwendeten Rechnungsgrößen und in den gesetzlichen Grundlagen gibt es zwischen dem internen und dem externen Rechnungswesen sehr enge Verzahnungen. 1. Beide Rechenwerke bilden z. T. identische Geschäftsvorfälle, Zustände oder Prozesse ab. Um unnötige Doppelarbeit bei der Erfassung, Aufbereitung und Auswertung übereinstimmender Daten zu vermeiden, wird bei dem sog. Einkreissystem die Betriebsbuchhaltung als wesentlicher Bestandteil des internen Rechnungswesens praktisch umfassend in das Kontensystem der Finanzbuchhaltung (als Grundlage des externen Rechnungswesens) integriert. Die Kostenarten-, Kostenstellen- und Kostenträgerrechnung (->• Kosten- und Leistungsrechnung) kann dabei in Kontoform (reines Einkreissystem) oder in tabellarischer Form ausgeführt sein. Im Zweikreissy-
665
Rechnungswesen, Verbindung ext. u. int.
Rechnungswesen, Verbindung ext. u. int.
stem werden demgegenüber Betriebsund Finanzbuchhaltung organisatorisch vollständig getrennt. Dennoch gibt es auch hier Verbindungen in Form von Übergangs- oder Spiegelkonten. Die Entwicklung leistungsfähiger Rechnungswesen-Software hat darüber hinaus dazu geführt, dass die Gesamtheit aller unternehmensrelevanten Daten weitgehend redundanzfrei erfasst, gespeichert und zweckgerichtet ausgewertet werden kann. Die Implementierung solcher Integrationslösungen hat in der Praxis die Diskussion über Ein- und Zweikreissysteme deutlich in den Hintergrund gedrängt.
allerdings nicht möglich. Zur Darstellung der bilanzpolitischen Spielräume empfiehlt sich die Unterscheidung zwischen aktivierungsfähigen und -Pflichtigen Herstellungskosten. Unter kostenrechnerischen Aspekten ist eine solche Klassifikation hingegen nicht notwendig.
2. Sowohl im ->Jahresabschluss (-> Bilanz, GuV) als auch in der -> Kostenträgerzeitrechnung (Kurzfristige Erfolgsrechnung, KER) sind Bestandsbewertungen gleichermaßen notwendig, sofern am Periodenstichtag fertige (aber noch nicht abgesetzte) Produkte, unfertige Erzeugnisse oder Verbrauchsmaterialien vorhanden sind. Besondere Bedeutung besitzen Bestände in Unternehmen mit langfristiger Auftragsfertigung, so im Anlagenbau oder in der Bauindustrie. Da im Produktionsbetrieb eine Bestandsbewertung die detaillierte Abbildung des Leistungsprozesses mit der Erfassung und Weiterverrechnung von Einzel- und Gemeinkosten, variablen und fixen Kosten sowie die Durchführung einer Kostenträgerstückrechnung voraussetzt, ist sie eine Domäne der Kostenrechnung. Diese übernimmt eine Doppelfunktion. Zum einen ermittelt sie für die KER die entsprechenden Bestandswerte. Die angesetzten Herstellkosten können pagatorischer oder z.B. auf Basis tagesnaher Wiederbeschaffungswerte auch kalkulatorischer Natur sein. Zum anderen dient die Kostenrechnung der Ermittlung der Herstellungskosten für die Bestandsbewertung im Jahresabschluss. Der Ansatz kalkulatorischer Werte ist hier
666
3. In vielen Unternehmen besitzt das externe Rechnungswesen schon lange nicht nur die ureigenen Informationsund Zahlungsbemessungsfunktionen nach außen, sondern ebenfalls Informations- und Steuerungsaufgaben innerhalb des Unternehmens. Die externe Rechnungslegung übernimmt damit auch Aufgaben einer internen Unternehmensrechnung. Mit Planbilanzen und Planerfolgsrechnungen werden z.B. sowohl Unternehmensziele formuliert und an ihnen insbes. die gesamte Investitions- und Finanzierungsplanung ausgerichtet als auch die bilanziellen Auswirkungen für einzelne Großprojekte untersucht. Weiterhin erfüllt das externe Rechnungswesen Aufgaben im Rahmen der Investitionskontrolle und stellt Daten bereit, die als Bemessungsgrundlage für Anreizsysteme Verwendung finden (Verhaltenssteuerungsfunktion). 4. Im Bereich der ergebnisorientierten Führung und dort vor allem im Rahmen der Konzernsteuerung ist das Zusammenspiel zwischen interner und externer Rechnungslegung besonders eng. Gerade für Konzerne mit einer Vielzahl wirtschaftlich abhängiger, rechtlich aber selbstständiger Unternehmen ist es naheliegend, die auf Basis externer Rechnungslegung ohnehin vorliegenden Informationen über die Erfolge dezentraler Verantwortungsbereiche auch für die Unternehmensoder Konzernführung zu verwenden. Damit ist der Gewinn im Rahmen der gesetzlichen Regelungen definiert und kann grundsätzlich zur Beurteilung
Rechnungswesen, Verbindung ext. u. int.
Rechtsformwah 1
und Steuerung der Bereiche herangezogen werden. Es ist allerdings zu beachten, dass die z.T. erheblichen Bilanzierungsspielräume für interne Zwecke verbindlich eingeschränkt werden sollten. Dennoch lohnt sich eine Anknüpfung an das externe Rechnungswesen, da ein internes Primärrechenwerk mit wesentlich höherem Aufwand verbunden wäre. Darüber hinaus müssten in einem solchen internen System grundsätzlich genau dieselben Probleme gelöst werden wie im externen Rechnungswesen (z.B. Ausgestaltung der Währungsumrechnung bei Auslandstöchtern, Vereinheitlichung der Bewertungsmethoden, Vorratsbewertung), für die dann aber schon konkrete Lösungen vorliegen. Lehnt man einzelne gesetzlich motivierte Vorgehensweisen der externen Rechnungslegung (wie die strengen Imparitätsvorschriften, GoB) ab, kann man für interne Zwecke von den unpassend erscheinenden Regelungen relativ einfach abweichen.
Verantwortungsbereichs und den kalkulatorischen Zinsen auf die (Rest-) Buchwerte des im Bereich gebundenen Gesamtvermögens zu Beginn der jeweiligen Periode. Bei Einhaltung bestimmter Voraussetzungen (u.a. des Kongruenzprinzips, d.h. bezogen auf die Totalperiode muss die Summe der Einzahlungsüberschüsse gleich der Summe der Periodenerfolge sein) lässt sich zeigen, dass der Barwert der Residualgewinne dem Kapitalwert der Zahlungsströme entspricht (Lücke-Theorem) und darauf aufbauend dass die Beurteilung von Bereichsmanagern am Residualgewinn dem Ziel der Kapitalwert- oder Unternehmenswertmaximierung dienlich sein kann. Insgesamt lässt sich festhalten: Die Systeme interner und externer Rechnungslegung sind derart eng miteinander verwoben, dass Praxis und Wissenschaft kaum noch an einer ganzheitlichen Sichtweise des Rechnungswesens vorbeikommen.
Dass immer mehr große Unternehmen - letztlich aufgrund des deutlich verschärften Kapitalmarkt- und Investorendrucks - auch im externen Rechnungswesen eine Philosophie der "gläsernen Taschen" und eine Hinwendung zu international vorherrschenden Standards pflegen, trägt dazu bei, den Anpassungsaufwand zu reduzieren sowie die Konvergenz interner und externer Rechnungslegung zu verstärken. Weitere Impulse kommen von der zunehmenden Beliebtheit wertorientierter Unternehmenssteuerung (etwa auf Basis von Discounted Cashflow-, Cash Value Added- oder Economic Valué /WifecZ-Konzepten; -> Discounted Cash-flow Methoden, —• Economic Value Added), die zumindest indirekt auf die Daten externer Rechnungslegung zurückgreifen und beispielsweise auf eine Abgrenzung von Aufwand und Kosten weitgehend verzichten. Von besonderem Interesse ist der Residualgewinn als Differenz zwischen dem Periodenerfolg eines
Literatur: Hoitsch, H.-J.: Kosten- und Erlösrechnung: eine controllingorientierte Einführung, Berlin etc. 1995, S. 1 - 3 8 , 3 6 4 - 3 6 9 ; Küpper, H.U.: Interne U n t e m e h m e n s r e c h n u n g auf kapitaltheoretischer Basis, in: Ballwieser et al. (Hrsg.), Bilanzrecht und Kapitalmarkt, Düsseldorf 1994, S. 9 6 7 - 1 0 0 2 ; Meyer, P.: Stellung der Kosten- und Leistungsrechnung im Rechnungswesen, in: Männel, W. (Hrsg.), Handbuch Kostenrechnung, Wiesbaden 1992, S. 5 4 - 6 6 ; Ordelheide, D.: Bilanzen in der Investitionsplanung und kontrolle, in: RUckle, D. (Hrsg.), Aktuelle Fragen der Finanz Wirtschaft und der Unternehmensbesteuerung, Wien 1991, S. 5 0 7 - 5 3 4 ; Pfaff, D.: Zur Notwendigkeit einer eigenständigen Kostenrechnung, in: ZfbF, 46. Jg., 1994, S. 1065-1084; Schweitzer, M./Ziolkowski, U. (Hrsg.): Interne Untemehmensrechnung: aufwandsorientiert oder kalkulatorisch? ZfbF-Sonderheft 42/99, Düsseldorf/Frankfurt a. M. 1999.
Dieter Pfaff Rechtsformwahl Bei der -> Unternehmensgründung müssen die Beteiligten entscheiden, ob sie ihr -> Start Up in der Rechtsform einer Personen(handels)gesellschaft oder einer Kapitalgesellschaft betreiben wollen. Personen(handels)gesellschaften sind die offene Handelsgesellschaft (oHG), 667
Ressourcentheorie
Rechtsformwahl §§105 ff. HGB, und die -»• Kommanditgesellschaft (KG), §§161 ff. HGB, einschließlich der Grundtypenvermischungen (z.B. -> GmbH & Co. KG). Kennzeichen der Personen(handels)gesellschaften ist die persönliche Verpflichtung mindestens eines Gesellschafters und dessen unbeschränkbare Haftung mit seinem gesamten Privatvermögen im Vollstreckungsfall, vgl. § 128 HGB bzw. §§ 161, 128 HGB. Kapitalgesellschaften sind insbesondere die -> Aktiengesellschaft (AG), geregelt im Aktiengesetz (AktG), und die -> Gesellschaft mit beschränkter Haftung (GmbH), geregelt im GmbH-Gesetz. Die AG bzw. die GmbH wird als juristische Person verpflichtet und berechtigt und haftet im Vollstreckungsfall mit ihrem Gesellschaftsvermögen; die Aktionäre bzw. Gesellschafter werden nicht verpflichtet und berechtigt und haften im Vollstreckungsfall nicht mit ihrem Privatvermögen. Die Wahl der optimalen Rechtsform ist ein vielschichtiges Problem. Die Haftungsbegrenzung ist nur ein kautelaijuristisches Kriterium unter vielen unternehmerischen, gesellschafts- und steuerrechtlichen Aspekten, die Unternehmensgründer bei der zweckmäßigen Rechtsformwahl berücksichtigen müssen. Stefan Hanloser Recognition-Verfahren -> Werbewirkungskontrolle Regionalorganisation -> Organisationsformen Reichweite -»Kontaktmaßzahlen Re-Insourcing -» Outsourcing Relationship Management Beziehungsmarketing Reliabilität Der Begriff der Reliabilität kommt aus dem Bereich der Statistik und findet seine Anwendung in der Marktforschung. 668
Durch die Reliabilität wird die Zuverlässigkeit eines Tests oder Verfahrens geprüft. Unter konstanten Messbedingungen müssen bei wiederholter Messung die Messwerte reproduziert werden. Am häufigsten wird die Split-halfReliabilität verwendet. Bei Verwendung verschiedener Probanden spricht man von der Parallel-Test-Reliabilität: Dagegen behandelt die Test-Retest-Reliabilität gleiche Probanden ein zweites Mal. Rentabilität Die Rentabilität ist eine spezielle Kennzahl (-> Kennzahlen und Kennzahlensysteme), die den Gewinn (od. Überschuss) in Verhältnis zu einer zweiten Größe setzt. Je nach zweiter Größe unterscheidet man ->• Kapitalrentabilität (bzw. ROI -> DuPont-Kennzahlensystem) und -> Umsatzrentabilität. Rentabilitätsrechnung Investitionsrechnung Residualeinkommen Der Begriff des Residualeinkommens kennzeichnet eine Restgröße, die nach Abzug bestimmter feststehender Zahlungsverpflichtungen entsteht. Eine zentrale Bedeutung hat der Begriff im -»• Shareholder-Value. Ressourcentheorie Die Ressourcentheorie (auch ressourcenorientierter Ansatz genannt) ist derzeit der führende Forschungsansatz des Strategischen Managements. Der Ansatz gilt als zentrale Alternative zu traditionellen industrieökonomisch geprägten Strategiekonzepten, da er von einer grundsätzlichen Unterschiedlichkeit aller Unternehmungen ausgeht, diese also nicht als homogen betrachtet. Die Ressourcentheorie versucht, den Erfolg einer Unternehmung und die Leistungsunterschiede zwischen mehreren Unternehmungen einer Branche mit dem Vorhandensein firmenspezifischer, einzigartiger Ressourcen zu erklären. Durch
Ressourcentheorie den Aufbau und die Nutzung solcher einzigartigen Ressourcen sollen Unternehmungen in der Lage sein, sich dauerhafte Wettbewerbsvorteile zu sichern. Die Nutzung des Ressourcenpotenzials wird somit zur Quelle von Wettbewerbsvorteilen, und sie ersetzt Maßnahmen zur Wettbewerbsbeschränkung, z.B. den Aufbau von Markteintrittsbarrieren, die in den industrieökonomischen Ansätzen Wettbewerbsvorteile begründen. Der Ressourcenbegriff selbst ist in der Literatur nicht eindeutig definiert. Zumeist wird auf einer sehr allgemeinen Ebene zwischen materiellen und immateriellen Ressourcen unterschieden. Beispiele für materielle Ressourcen sind z.B. Produktionsanlagen, der Standort, EDVSysteme, etc. Immaterielle Ressourcen umfassen u.a. die Organisationskultur, Patente, die Reputation, technisches Know-how sowie organisatorische Fähigkeiten, wie Koordinations-, Integrationsund Lernfähigkeiten. Viele immaterielle Ressourcen können an Märkten nicht gehandelt werden, denn sie sind oft inlangibel oder ' t a c i f , d.h. sie sind nicht eindeutig beschreibbar, und sie unterscheiden sich in ihren Ausprägungen von Unternehmung zu Unternehmung - sie sind unternehmungsspezifisch. Das Vorhandensein dieser nicht handelbaren, unternehmungsspezifischen Ressourcen erklärt dann auch, warum man von einer grundlegenden Unterschiedlichkeit aller Unternehmungen ausgehen kann. Die Ressourcentheorie erklärt diese Unterschiedlichkeit durch zwei Basisprämissen: die Ressourcenheterogenität und die Ressourcenimmobilität. Die Prämisse der Ressourcenheterogenität besagt, dass Unternehmungen durch ungleiche Ressourcenausstattungen gekennzeichnet sind, denn ein Großteil der Ressourcen einer Unternehmung ist spezifischer Natur. Die Prämisse der Ressourcenimmobilität besagt, dass wichtige, insbesondere immaterielle Ressourcen der Unternehmung, nicht handelbar und damit immobil sind.
Ressourcentheorie Vor dem Hintergrund der Annahmen der Ressourcenheterogenität und -immobilität behandelt die Ressourcentheorie die Frage, welche Bedingungen erfüllt sein müssen, damit Unternehmungen mit Hilfe ihrer Ressourcen dauerhafte, nachhaltige Wettbewerbsvorteile begründen können. Unter dauerhaften Wettbewerbsvorteilen versteht man solche Vorteile, die nicht durch Imitation der Konkurrenten zunichte gemacht werden können. Offensichtlich enthalten nicht alle Unternehmungsressourcen das Potenzial für die Schaffung nachhaltiger Wettbewerbsvorteile. In der Literatur werden vier Bedingungen für das Entstehen dauerhafter Wettbewerbsvorteile besonders hervorgehoben: Erstens müssen Ressourcen einen wertstiftenden Charakter besitzen, d.h., sie müssen es ermöglichen, Strategien zu entwickeln und umzusetzen, die die Effizienz und die Effektivität der Unternehmung erhöhen. Zweitens müssen Ressourcen knapp sein: Wenn jeder Wettbewerber über die gleichen wertstiftenden Ressourcen verfügt, kann keiner daraus einen nachhaltigen Wettbewerbsvorteil ableiten. Drittens dürfen Ressourcen nicht substituierbar sein, d.h., es darf keine ähnlichen oder alternativen Ressourcen geben, die die zum Aufbau von Wettbewerbsvorteilen notwendigen Leistungen gleichwertig erbringen können. Die vierte Bedingung, die Nichtimitierbarkeit von Ressourcen, gilt als die wichtigste Quelle dauerhafter Wettbewerbsvorteile. Die Ressourcen einer Unternehmung dürfen durch andere Unternehmungen nicht ohne weiteres kopierbar sein. Je weniger sich Unternehmungen vor den Imitationsbemühungen der Konkurrenz schützen können, desto geringer ist das strategische Potenzial ihrer Unternehmungsressourcen. Die Literatur hebt drei "Imitationsbarrieren" hervor: die Historizität der Unternehmung, die kausale Ambiguität und die soziale Komplexität. Was die Historizität betrifft, so ist jede Unternehmung durch eine eigenständige 669
Ressourcentheorie Entwicklung gekennzeichnet, die zu spezifischen Ressourcen (z.B. zu einzigartigen Managementkompetenzen) geführt hat. Historisch gewachsene Ressourcen sind aufgrund ihrer Einzigartigkeit nur schwer reproduzierbar oder imitierbar. Die kausale Ambiguität betrifft das Ausmaß der Unklarheit über vermutete Kausalzusammenhänge zwischen den unternehmungsspezifischen Ressourcen und den daraus ableitbaren Wettbewerbsvorteilen. Wenn diese Kausalitäten nicht klar beschreibbar und verständlich sind, fällt es einem Konkurrenten schwer, eine erfolgreiche Strategie zu kopieren, denn er weiß nicht, welche Ressourcen er imitieren soll. Diffuse Kausalzusammenhänge sind insbesondere für immaterielle, nur schwer beschreibbare Ressourcen kennzeichnend. Die soziale Komplexität wirkt sich ebenfalls oft als Imitationsbarriere aus. Viele Ressourcen (z.B. die Organisationskultur oder die Fähigkeiten eines eingespielten Forscherteams) bestehen aus zahlreichen Elementen, die interagieren und kaum isoliert voneinander analysiert werden können. Die Komplexität dieser aggregierten Ressourcen erschwert Duplikationsversuche. Trotz des fraglos großen Potenzials der Ressourcentheorie für die Entwicklung wertsteigernder Untemehmungsstrategien (->• Shareholder Value, Wertmanagement) bleibt die isolierte Verwendung dieses Ansatzes problematisch. Es besteht die Gefahr, dass man bei einem exklusiven Rückgriff auf die Ressourcentheorie die externe Aufgabenumwelt der Unternehmung vernachlässigt. Einzigartige Ressourcenbündel können nur dann als Grundlage dauerhafter Wettbewerbsvorteile angesehen werden, wenn sie sich auf einen Kontext beziehen, z.B. eine Branche, in der sich die durch die Ressourcen begründeten Produkte und Dienstleistungen einer Unternehmung gewinnbringend absetzen lassen. Literatur: Bamberger, I./Wrona, T.: Der Ressourcenansatz und seine Bedeutung für die Strategische Unternehmensfiihrung, in: Zeitschrift für
670
Restrukturierung betriebswirtschaftliche Forschung, Jg. 48, 1996, S. 130-153; Collis, D./Montgomery, C.: Competing on Resources, in: Harvard Business Review, Jg. 73, Juli-August 1995, S. 118-119; Knyphausen, D.: zu: W h y are Firms different? Der 'Ressourcen- orientierte Ansatz 1 im Mittelpunkt einer aktuellen Kontroverse im Strategischen Management, in: Die Betriebswirtschaft, Jg. 53, 1993, S. 771-792.
Rudi K.F. Bresser Restrukturierung 1. Restrukturierungsbegriff Systemtheoretisch betrachtet zielt jede Restrukturierung darauf ab, Elemente eines Systems mitsamt ihren Wechselwirkungen auf neue Ziele bzw. auf verbesserte Zielerreichung hin auszurichten. Speziell in wertschöpfenden Systemen geht es um die Neuausrichtung bzw. Veränderung der Strukturfaktoren und deren Beziehungen zur Erhöhung von Effektivität und Effizienz. Eine Restrukturierung ist immer dann erforderlich, wenn durch interne und/oder externe Veränderungen die angestrebten betriebswirtschaftlichen Ziele nicht oder nur noch ungenügend erreicht werden. Insofern sind sinnvollerweise systeminduzierte (z.B. unzureichende Service-, Qualitäts- und Kostensituation) und umweltinduzierte Restrukturierungsmotive (z.B. Individualisierung der Nachfrage, technischer Fortschritt, Globalisierung) zu unterscheiden. Soweit es sich um ein vorsteuemdes, proaktives Bemühen handelt, streben Restrukturierungen ähnliche Ziele an wie die Ansätze der Organisationsentwicklung. Auch diese wollen durch geplante, organisationsweite und koordinierte Aktivitäten und Interventionen die Effektivität (d.h. Überlebensfähigkeit, Umfeldanpassungsfähigkeit) der Organisation und deren "Gesundheit" (d.h. "Selbstheilfähigkeit und Entwicklungsfähigkeit") steigern. Durch Krisen ausgelöste Restrukturierungshandlungen haben eine weite Überdeckung zu Sanierungs- oder Turnaround-Programmen ( * TurnaroundManagement), da es hierbei auch um
Restrukturierung Problemlösungen unter großem Zeitdruck, mit großer Überlebensrelevanz und langfristigen Handlungswirkungen kommen kann. Inwieweit Restrukturierung im Sinne eines geplanten sozialen Wandels durch ein Veränderungsmanagement (-> Change Management) überhaupt rational steuerbar ist, ist keineswegs unumstritten. Die Steuerbarkeit ist abhängig von den vertretenen theoretischen Ansätzen, die sich in Fokus, Umfang, Erklärungskraft, Machbarkeit und Operationalisierbarkeit deutlich unterscheiden können. Aus systemtheoretischer Perspektive muss man ohnehin von einer begrenzten Gestaltbarkeit des Wandels in organisierten Systemen ausgehen, die sich an der lerntheoretisch wichtigen Unterscheidung Kontinuität/Veränderung orientiert (Willke 1997). Eine im Unternehmen wahrgenommene Lücke zwischen einem betrachteten wertschöpfenden System und seiner Umwelt spiegelt das Leistungsniveau wider und gibt damit Hinweise auf den Restrukturierungsbedarf. Ausgangszustand und Endzustand können bestimmt werden im Wege anderer betriebswirtschaftlicher oder managerieller Konzepte und Instrumentarien, z.B. durch Innovationsmanagement und -> Strategisches Management, Systemrationalisierung, Organisationsentwicklung. Insofern ist es auch sinnvoll, Restrukturierungsmanagement i.S.e. Veränderungsmanagements für den Prozess des Übergangs von einem Ist- in einen Sollzustand aufzufassen, das durch Zuhilfenahme eines sozialtechnologischen Wissenskanons die erforderliche Transformation wahrscheinlich machen soll. 2. Restrukturierungsprinzipien Restrukturierung meint einen in Grenzen steuerbaren Prozess, der sowohl rationalen Kalkülen als auch politischen Regelmäßigkeiten unterliegt und damit grundsätzlich mit Widerständen zu tun haben wird. Im Rahmen von Restrukturierungs-
Restrukturierung bemühungen erweisen sich folgende Prinzipien (Strubl 1993) bzw. Charakteristika als besonders erfolgskritisch: •
Eine Systembetrachtung erlaubt und fordert eine integrierte Sichtweise, wobei sämtliche Gestaltungsparameter des Systems mit ihren jeweiligen Beziehungen zueinander in den Blick kommen.
•
Rationalität verstanden als Prozessrationalität meint systematische, integrierte und pragmatische Vorgehensweise. Die Unterstellung eines Phasenablaufs von Willensbildung und durchsetzung erlaubt eine Strukturierung in Episoden, um Teilziele im Hinblick auf Programmziele überprüfen zu können.
•
Die Kenntnis der wesentlichen Elemente eines "politischen Kampfspiels" (Spieler, Spielregeln, Interessen) erlaubt eine bessere Steuerung des Restrukturierungsprozesses. Das politische Element einer Restrukturierung ist dabei abhängig von der Bedeutung und Komplexität des Entscheidungsproblems, von der Gewissheit über die Handlungsfolgen, von der Heterogenität des Entscheidungssystems und von Art, Anzahl und Interaktionsgeschichte der involvierten Teilnehmer.
•
Restrukturierungsprozesse sind typischerweise komplexe Lernprozesse. Sie sind multipersonal, unsicherheits-, interessen- und erwartungsgeladen sowie selbstreferenziell, weil sie die Struktur als Bedingung der Möglichkeit zur Realisierung der Systemfunktion bzw. zur Erreichung von Systemzielen selbst infrage stellen. Restrukturierungen sind als zeitverbrauchende, evolutionäre Lernprozesse zu begreifen.
•
Restrukturierung und "personaler Widerstand" stehen in einem Wechselwirkungsverhältnis, da individuelle und organisatorische Erwartungshori671
Restrukturierung zonte in zeitverbrauchenden Lernprozessen neu zur Deckung gebracht werden müssen. Neben der Sinnvermittlung und Klärung der unterschiedlichen Erwartungen wird damit Konfliktmanagement zu einem integralen, normalen Bestandteil von Restrukturierungen. 3. Restrukturierungsstrategie und -objekt Die Wahl der Restrukturierungsstrategie ist erfolgsentscheidend und muss Aussagen darüber machen, welche Maßnahmen auf welcher Ebene in welchem Umfang, in welcher Reihenfolge mit welchen Budgets durchgeführt werden, und ob die Veränderungen Top Down und/oder Bottom up erfolgen soll. Inwieweit die Einbeziehung "Dritter" (z.B. Berater, Forscher) größeren Handlungserfolg bringt, wird ebenso kontrovers diskutiert, wie die Frage, ob eine Restrukturierung in einem Schritt mit möglichst großer Schrittlänge ("Big Bang") oder inkrementell in mehreren kleinen, kürzeren Schritten (z.B. Pilotprojekte) erfolgreicher ist. Aus einem systemischen Lernansatz heraus wird man unterstellen dürfen, dass je nach Problemdruck, Handlungsebene, Technologie, beteiligten Akteuren, Unternehmensstruktur und -*Unternehmenskultur sowie Führungsqualität sich im Einzelfall kontextspezifische Gemengelagen ergeben. Studien verweisen darauf, dass die Entwicklung von Unternehmen als Abfolge radikaler und inkrementaler Restrukturierungen, als Reaktion auf Umweltereignisse und gezielten (proaktiven) Restrukturierungsbemühungen und durchaus mit Beteiligung Dritter erfolgreich gelaufen ist. Lernende Systeme können auf verschiedenen, hierarchischen Ebenen gleichzeitig Restrukturierungsprozesse durchführen, so dass das Restrukturierungsobjekt einmal abhängig ist von den initiierenden Restrukturierungssubjekten und den jeweils von diesen zu verantwortenden Zielen. Von einem Restrukturierungsma672
Restrukturierung nagement sollte nur dann gesprochen werden, wenn die einzelnen Restrukturierungsepisoden auf den verschiedenen Ebenen und in den verschiedenen Bereichen zeitlich und sachlich synchronisiert werden. Die dafür erforderliche, episodenübergreifende Integrationsleistung, muss über eine sinnstiftende Vision ("papierloses Büro", "Fabrik der Zukunft", "PC on every desk") erbracht werden. Auf welcher Betrachtungs- und Handlungsebene (z.B. Wertschöpfungsnetzwerk, Unternehmen, Bereich, Abteilung, Stelle) in welchen Zeithorizonten welche "Objekte" mit welchen Zielen einer Restrukturierung unterzogen werden, dies festzulegen ist Aufgabe des jeweiligen Entscheidungssystems. Gemäß Fundamentalprinzip der Wertschöpfungsnetzwerkbeeinflussung nehmen die Beeinflussungspotenziale mit dem Rang der Betrachtung zu (Pfeiffer/Weiß 1994). Dabei schränken die Aktivitäten auf höherer Ebene die Handlungsmöglichkeiten auf niedrigerer Ebene ein. Diese wechselseitigen Kontextbeschränkungen können nur durch integrierte Behandlung - z.B. durch mehrgliedrige, sachlich und zeitlich abgestimmte Programme - auf möglichst hoher Managementebene berücksichtigt und gesteuert werden. Diese Anschauung erlaubt es dann, das betriebswirtschaftliche Analyseund Gestaltungswissen zu den verschiedenen Strukturfaktoren eines betrachteten Systems, also Organisation, Personal, Technologie, Input und Output, als Restrukturierungsobjekt zu sehen und fruchtbar anzuwenden. Ganzheitliche Konzepte wie -* Business Process Reengineering, -> Lean Management, Supply Chain Management, -> Total Quality Management können dabei als langfristige Restrukturierungsziele dienen, deren erfolgreiche Umsetzung die Implementierung der jeweiligen Einzelbausteine voraussetzt (z.B. organisatorische Segmentierung, Empowerment, —> "one-piece-
Restrukturierung flow"- u. Kanban-Steuerung (-> Kanban), Rüstzeitreduktion, Lieferantenbewertung). Das Restrukturierungsprogramm wird nur dann erfolgreich sein, wenn die einzelnen Episoden mit allen Teilprojekten erfolgreich durchlaufen sind. 4. Restrukturierungsprozess Im Prozess erfolgt die inhaltliche, zeitliche und soziale Verknüpfung der festgelegten und als notwendig erachteten Restrukturierungsmaßnahmen. Ein Restrukturierungsprozess lässt sich wenigstens analytisch in verschiedene Phasen differenzieren: 1. Vorbereitungs- und Analysephase Restrukturierungsprobleme stellen sich nicht von selbst. Der Anstoß zum Handeln kann top down durch Erzeugung eines Gefühls für Handlungsnotwendigkeit oder bottom up erfolgen - und zwar jeweils proaktiv oder reaktiv. Die Analyse des Ausgangs-Zustands der wettbewerbskritische Parameter und der Ressourcensituation erweist sich als notwendig, um Lemfortschritte bei der Restrukturierung festzustellen. Die Festlegung der Führungs-"Koalition", die Auswahl von (internen und externen) kenntnisreichen, glaubwürdigen Promotoren bzw. Change Agents, Auswahl von Schlüssel-Personen (Multiplikatoren), (Methoden-)Schulung für Multiplikatoren in Team- und Workshoparbeit und Problemlösungstechniken, der Aufbau von Vertrauen, die Schaffung von Veränderungssymbolen - all diese Aspekte sind zu klären und zu berücksichtigen, um frühzeitig Umsetzungsproblemen der eingeleiteten Maßnahmen entgegenzuwirken. 2.
Konzeptionsphase Auf Basis einer gut verständlichen "Vision", die über Promotoren als Missionare der angestrebten Veränderungen kommuniziert wird, werden Objekte, Richtung und mögliche Ziele einer Restrukturierung definiert, in ei-
Restrukturierung ne fundierte Projektplanung mit operationalen Zeit- und Sachzielen gegossen, in Teilprojekte zerlegt und mit Etappenzielen (Meilensteinen) markiert. Die Behandlung von verhaltenserzeugenden Ursachen (-> Organisationsstruktur und -kultur, Technologie, Qualifikation) hat dabei grundsätzlich höhere Priorität als die von beobachteten Wirkungen (z.B. zu Motivations- und Qualitätsmängel). 3. Umsetzungsphase (Implementierung) Die feststellbare hohe Flop-Rate bei Restrukturierungsprogrammen lässt sich reduzieren, wenn starker Wert gelegt wird auf fordernde Voraussetzungen, wie z.B. Beseitigung struktureller Hemmnisse, Einrichtung von Schulungsund Trainingsräumen, Trainingszentrums, Workshop-Räume; CIP-Ecken. Dabei erweist sich die Projekt- und Teamorganisation als organisatorischer Grundbaustein als ebenso unabdingbar, wie eine strikte Umsetzungsorientierung: mit dem Mut anzufangen ("Bias toward action."), auf schnelle Erfolge abzielen und mit Pragmatik ("Besser 50% jetzt, als 100% nie.") auf die (langfristig) angestrebten Ziele achten. Ein konsequentes Projektcontrolling der Zeit- und Sachziele wird dabei ohne ein ebenso konsequentes Konflikthandhabungsmanagement nicht auskommen. Jede Restrukturierung trägt entgegen dem vereinfachten, linear erscheinenden Prozessverlauf paradoxe Züge insoweit, als sie permanentes Verbessern von Aktivitäten im Rahmen von Strukturen mit permanenter Verbesserung dieser Strukturen selbst rekursiv in Einklang zu bringen versucht. Diese Quadratur des Zirkels unternimmt man neuerdings mit der "lernenden Organisation" (Weiß 1995). Literatur: Willke, H.: Systemisches Wissensmanagement, Stuttgart 1998; Strubl, C.: Systemgestaltungsprinzipien, Göttingen 1993; Schreyögg, G.: Unternehmensstrategie. Grundlagen einer Theorie strategischer Unternehmensführung, Berlin, N e w York 1984; Pfeiffer, W./ Weiß, E.:
673
Risiko
Restrukturierung Lean Management, 2. überarbeitete und erweiterte Auflage, Berlin 1994; Wildemann, H. (1994): Die modulare Fabrik - Kundennahe Produktion durch Fertigungssegementierung, München 1994; Ashkenas, R. et al.: The boundaryless organization: breaking the chains of organizational structure, San Francisco 1995; Shingo, S.: A Revolution in Manufacturing: The SMED System, Cambridge 1985; Weiß, E.: Management technologischer Innovationen, Hábil. Erlangen-Nürnberg 1995.
Enno Weiß Retrograde Planung Top-Down-Planung Return on Complaint Management -» Beschwerdemanagement Return on Investment (ROI) Der Return on Investment (ROI) bildet die Spitzenkennzahl im -> Du PontKennzahlensystem. Er ist eine Rentabilitätskennzahl (-> Rentabilität, Kennzahlen und Kerunzahlensysteme). Reversed Hedge Hedging Revolutionsstrategie Management des Wandels Risiko Abgesehen von spezifischen Begriffsfassungen in den einzelnen Wissenschaftsdisziplinen wird der Begriff Risiko auch im ökonomischen Schrifttum durchaus unterschiedlich definiert. Insbesondere lassen sich eine engere (Risiko i.e.S.) und eine weite (Risiko i.w.S.) Begriffsabgrenzung unterscheiden. Risiko i.e.S. bezeichnet die Gefahr, dass eine ungünstige Entwicklung eintreten kann. Traditionell bezieht sich das vor allem auf reine Schadengefahren wie Tod, Unfall, Krankheit, Feuer, Sturm, Diebstahl, Haftpflicht usw. Diese auch als "reine Risiken" bezeichneten potenziellen Schadenereignisse wirken sich, wenn sie eintreten, stets negativ, d.h. nutzen- oder vermögensmindernd aus, und der günstigste Fall liegt darin, dass sie nicht eintreten. Sie gelten - sofern zufällig und messbar - als grds. versicherbar und sind 674
entsprechend Gegenstand des wesensmäßig auf die Kompensation der finanziellen Schadenfolgen zielenden Versicherungsgeschäfts. Das Ergebnis wirtschaftlicher Betätigung wird darüber hinaus aber stets auch von einer Vielzahl unsicherer Ereignisse beeinflusst, die sich vermögensmehrend oder vermögensmindernd auswirken können: Preis-, Kosten-, Nachfrageänderungen, Schwankungen der wirtschaftlichen Lage usw. In Abgrenzung zu den genannten "reinen Risiken" spricht man hier von "spekulativen Risiken". Bezüglich letzterer fällt nur die Gefahr, dass ein als negativ oder ungünstig empfundenes Ergebnis eintritt - im Wesentlichen also die Verlustgefahr - unter das Risiko i.e.S., wohingegen die Möglichkeit, dass die Entwicklung günstiger verläuft als erwartet oder als geplant, mit dem Begriff "Chance" belegt wird. Zusammenfassend kann daher Risiko i.e.S. auch als Schaden- oder Verlustgefahr definiert werden. Risiko i.w.S. bezeichnet demgegenüber die Gefahr, dass das tatsächliche Ergebnis vom erwarteten Ergebnis abweicht, und umfasst damit sowohl den Bereich ungünstiger (Risiko i.e.S.) als auch den Bereich günstiger (Chance) Ergebnisausprägungen. In diesem weiten Sinn wird Risiko - auch wenn man sich vielfach nur auf die Streuung als wichtigsten (Teil-) Aspekt konzentriert - vollständig erst durch die gesamte Wahrscheinlichkeitsfunktion des zufallsvariablen Ergebnisses wirtschaftlicher Betätigung erfasst. Neben der Streuung determinieren daher grds. auch Schiefe, Wölbung und alle höheren Momente der Wahrscheinlichkeitsfunktion (soweit sie existieren) das Risiko i.w.S. Um dies zum Ausdruck zu bringen, wird Risiko in diesem weiten Sinn alternativ auch als Variabilität des zufallsvariablen Ergebnisses definiert, was aber inhaltlich nichts anderes besagt als die zuerst genannte Umschreibung "Gefahr einer (positiven oder negativen) Abweichung vom erwarteten Ergebnis".
Risiko Interessanter Weise hat sich die weite Begriffsfassung gerade in den Teilen der ökonomischen Theorie entwickelt und durchgesetzt, die sich speziell und explizit mit der Risikoberücksichtigung im Entscheidungskalkül befassen: -> Entscheidungstheorie, Investitions-, Finanzierungs- und Kapitalmarkttheorie. Der Grund für diese Vorgehensweise liegt darin, dass ökonomische Entscheidungen sinnvoll nur unter Berücksichtigung aller für möglich gehaltenen Zukunftslagen und nicht nur mit Blick auf die ungünstigen Entwicklungsmöglichkeiten, das Risiko i.e.S., getroffen werden können. D.h.: Risiko i.e.S. wird bei wirtschaftlichen und insbesondere bei unternehmerischen Entscheidungen nur dann in Kauf genommen, wenn ihm entsprechende Chancen entgegenstehen, so dass stets der Gesamtbereich aller möglichen Entscheidungsergebnisse und -konsequenzen, also das Risiko i.w.S., die Entscheidungen determiniert. Somit trägt der weite Begriff dem ständigen Auf und Ab der Wirtschaft und der Erkenntnis von der generellen Mehrwertigkeit der Zukunftslagen Rechnung, während das engere Risikoverständnis wohl aus der vereinfachten Modellvorstellung einer grds. planmäßigen und nur gelegentlich durch außerordentliche Störereignisse negativ (Risiko) oder positiv (Chance) beeinflussten Zukunftsentwicklung heraus entstanden ist. Dementsprechend scheint die weite Begriffsfassung auch im allgemeinen Sprachgebrauch immer mehr Fuß zu fassen, indem von Markt-, Preis-, Zinsrisiken, von Volatilität usw. gesprochen wird. Im Gegenzug findet sich aber im jüngsten betriebswirtschaftlichen Schrifttum wieder eine Tendenz zurück zum traditionellen Risikoverständnis, eine Fokussierung auf die negativen Abweichungen vom Planwert bzw. von einer vorgegebenen Sollzielgröße (Target), das sog. "down side risk" oder "shortfall risk".
Risikomanagement Ebenso dominiert im ursprünglich allein auf die Analyse und Handhabung der grundsätzlich versicherbaren "reinen Risiken" bezogenen Risk Management (-> Risikomanagement) auch nach Ausweitung des Betrachtungsrahmens auf alle Verlustgefahren schlechthin, naturgemäß das engere Risikoverständnis. Besonderes Augenmerk gilt dabei den existenzbedrohenden Schaden- und Verlustgefahren, z.B. gemessen an der Ruinwahrscheinlichkeit oder an der kritischen Verlustobergrenze, dem sog. -> Value at Risk. Die Risikomessung erfolgt generell anhand quantitativer Maßzahlen oder durch qualitative Klassifikation mittels Bildung und Abgrenzung von Risikoklassen. Wichtigste quantitative Maße bezüglich des Risikos i.w.S. sind Varianz und Standardabweichung, ggfs. ergänzt um die Schiefe oder weitere Merkmale der Wahrscheinlichkeitsfunktion, sowie der Variationskoeffizient und (als sehr grobes Maß) die Variationsbreite. Für die quantitative Messung des Risikos i.e.S. steht eine Vielzahl unterschiedlich weit greifender Maße zur Verfügung: von der Semivarianz und der mittleren negativen Abweichung über die sog. unteren partiellen Momente (Verlustwahrscheinlichkeit, Verlusterwartung usw.) bis hin zu Konzentrationsmaßen und der bereits genannten Ruinwahrscheinlichkeit oder der kritischen Verlustobergrenze. Bernhard Kromschröder Risikokapital -> Venture Capital Risikomanagement Der Begriff Risikomanagement umfasst alle Maßnahmen, die ein Unternehmen ergreift, um relevante Risiken zu erkennen und sich davor zu schützen. Der Nachweis eines RisikomanagementSystems ist für Aktiengesellschaften nach dem -> KonTraG zwingend vorgeschrieben. Während das traditionelle Verständnis lediglich die Risiken behandelt, die durch den Abschluss von geeignetem 675
Risikomanagement Versicherungsschutz gedeckt sein können, sollte das Unternehmen in seinem Risikomanagement-System heute weiter gehen. Wenn -> Risiko verstanden wird als die Unsicherheit über das Erreichen von Zielen (Definiton nach Elmar Helten), dann muss das Risikomanagement in allen Bereichen untersuchen, welche Gefahren dem Unternehmen drohen, seine Ziele nicht erfüllen zu können. In einem geschlossenen Steuerungsprozess (Risikoanalyse, Maßnahmenplanung, Maßnahmendurchführung, Erfolgskontrolle) kann dann in jedem Funktionsbereich Gefahrenvorsorge, -abwehr bzw. Schadensvermeidung und -begrenzung getroffen werden. Das beginnt beim finanziellen Risiko (Liquiditätsrisiko), das mit Hilfe des -» Cash Managements, -» Factoring und entsprechenden Versicherungsleistungen abgedeckt werden kann. Die Gefahren im Beschaffungsbereich (Ausfälle) sollten durch Einbindung der Beschaffungslogistik kontrolliert werden. Besondere Bedeutung gewinnt dieser Bereich bei Just-in-time-Produktion. In der Produktion gilt es, die betriebliche Leistung aufrechtzuerhalten. Dazu dienen zum einen systematische Sicherungssysteme der Materialwirtschaft und Logistik, zum anderen die klassischen Methoden der Gefahrenverhütung im Sinne betrieblicher Sicherheitsmaßnahmen und den Verfahren der Unfallverhütung. Ein integriertes —> Personalmanagement soll gewährleisten, dass dem Unternehmen stets genügend geeignete Mitarbeiter zur Verfügung stehen. Das Risiko auf der Abnehmerseite zählt zum Aufgabengebiet des -» Marketing. Es kann nicht Sinn eines zentralisierten Risikomanagements sein, all diese funktionalen Aufgaben an sich zu ziehen und an einer zentralen Stelle zu bewältigen. Vielmehr muss das RisikomanagementSystem die Risikobearbeitung an den geeigneten Stellen im Unternehmen 676
Rücklagen- u. Ausschüttungsmanagement koordinieren und gegebenenfalls steuern. Es muss sichergestellt sein, dass die Funktionsbereiche um ihre Risikoexponierung wissen und dass sie geeignete Maßnahmen dagegen ergreifen. Risikomessung -> Risiko ROI Der Return on Investment (ROI) bildet die Spitzenkennzahl im -> Du PontKennzahlensystem. Er ist eine Rentabilitätskennzahl (-> Rentabilität, -> Kennzahlen und Kennzahlensysteme). Roll-over Hedge Hedging Rosenkranzformel Personalplanung Rücklagen- und Ausschüttungsmanagement Rücklagenmanagement bedeutet aktive Gestaltung des "beweglichen" Teils des Eigenkapitals eines Unternehmens. Mit dem R. wird die Höhe und Zusammensetzung des Eigenkapitals und fast immer gleichzeitig die Höhe von Ausschüttungen beeinflusst. Daher sind mit R. einzelund gesamtwirtschaftliche Konsequenzen verbunden. 1. Rücklagen als Teil des Eigenkapitals von Kapitalgesellschaften Das Eigenkapital eines Unternehmens ergibt sich aus Kapitaltransferzahlungen und Gewinnen bzw. Verlusten. Als Gewinn oder Verlust wird der Saldo derjenigen Eigenkapitalveränderungen eines Geschäftsjahres verstanden, die nicht Kapitaltransferzahlungen darstellen. Kapitaltransferzahlungen sind all jene Zahlungen, die das Unternehmen von seinen Anteilseignern zur Begründung ihres Anteils erhält (Einlagen) und diejenigen Beträge, die das Unternehmen seinen Anteilseignern für die Überlassung des Kapitals auszahlt (Ausschüttungen, Dividenden). Die Eigenkapitalerhöhungen und -Verringerungen, die zum Gewinn bzw. Verlust zusammengefasst
Rücklagen- u. Ausschüttungsmanagement werden, heißen Erträge und Aufwendungen. Die genaue Definition der Erträge und Aufwendungen hängt von dem Erfolgsverständnis ab, das den Bilanzierungsregeln zu Grunde liegt. Wenn angenommen wird, dass Eigenkapitalgeber das von ihnen im Rahmen von Kapitaltransferzahlungen eingelegte Kapital getrennt von den mit diesem Kapital erwirtschafteten und noch nicht ausgeschütteten Gewinnen sehen möchten, dann sind die Einlagen getrennt aufzufuhren vom Saldo aus der Summe der Erfolge und den Ausschüttungen. Die Darstellung des Eigenkapitals in einer -> Bilanz entspricht dieser Anforderung, wenn alle Kapitalbewegungen aufgezeichnet werden, wenn gedanklich sauber zwischen Gewinnen und Ausschüttungen getrennt wird und wenn für jedes Geschäftsjahr gilt, dass die Differenz zwischen dem Eigenkapital am Ende und am Anfang des Geschäftsjahres dem Erfolg abzüglich der Ausschüttungen entspricht. Diese Forderung wird in der U.S.-amerikanischen Literatur als Clean Surplus Relation bezeichnet. Sie stellt eine strenge Form des schon von Schmalenbach beschriebenen Kongruenzprinzips dar. Wenn das Unternehmen aus mehreren rechtlichen Einheiten besteht, hat eine ökonomisch orientierte Messung von Eigenkapital und Gewinn über diese Einheiten hinweg zu erfolgen. Die entsprechenden Zahlen sind aus dem Konzernabschluss des Unternehmens ersichtlich. Der -» Jahresabschluss einer einzelnen nur rechtlich selbstständigen Tochtergesellschaft (Einzelabschluss) könnte nämlich durch Geschäfte zwischen mehreren nur rechtlich selbstständigen Einheiten des Unternehmens verzerrt sein. Wenn Unternehmen durch Wahl einer geeigneten Rechtsform das Privileg einer Haftungsbeschränkung für sich in Anspruch nehmen (-» Kapitalgesellschaft), haben sie in vielen Ländern Ausschüttungsbeschränkungen einzuhalten und Veröffentlichungspflichten zu erfüllen.
Rücklagen- u. Ausschüttungsmanagement Die Veröffentlichungspflicht umfasst die regelmäßige öffentliche Bekanntmachung einer -»Bilanz und einer Erfolgsrechnung. In der Bilanz sind Eigenkapitalkategorien mit unterschiedlichen Ausschüttungsmöglichkeiten in der Regel getrennt voneinander anzugeben. Rücklagen stellen eine dieser Eigenkapitalkategorien dar. Gelegentlich findet man in der Literatur die Unterscheidung zwischen Offenen und Stillen Rücklagen. Wenn jemand diesen Unterschied macht, spielt er darauf an, dass er die bilanziellen Ermittlungsregeln für das Eigenkapital nicht für sinnvoll hält und selbst von einem anderen, jedoch aus Bilanzen nicht ersichtlichen Wert ausgeht. 2. Zusammenhang zwischen gezeichnetem Kapital, Rücklagen und Gewinn in Deutschland In Deutschland kann man das Eigenkapital bei Kapitalgesellschaften grob in drei Typen einteilen, das zwischen zwei Kapitalerhöhungen gleichbleibende gezeichnete Kapital, Rücklagen und den Geschäftsjahreserfolg (Gewinn oder Verlust, - GuV). Das gezeichnete Kapital beschreibt den Betrag, mit dem das Unternehmen mindestens haftet. Die Beschaffung gezeichneten Kapitals erfolgt bei der Gründung oder im Rahmen einer Kapitalerhöhung. Die Rückgewähr dieses Kapitals an die Anteilseigner oder dessen Herabsetzung ist nicht ausgeschlossen, aber mit großen rechtlichen Hürden verbunden und daher langwierig. Die Rücklagen bilden den "beweglichen" Teil des Eigenkapitals ab, der über das gezeichnete Kapital hinaus geht. Soweit es sich um einen Betrag handelt, der aus Kapitaltransferzahlungen der Anteilseigner an das Unternehmen stammt, wird er als Kapitalrücklage bezeichnet und ausgewiesen. Eine Kapitalrücklage entsteht, wenn bei der Ausgabe von Anteilen ein 677
Rücklagen- u. Ausschüttungsmanagement höherer Betrag als das gezeichnete Kapital eingenommen wird. Der über die Kapitaleinzahlungen hinausgehende Betrag ist als Gewinnrücklage anzugeben. Eine Gewinnrücklage entsteht, wenn das Unternehmen Gewinne erwirtschaftet und diese nicht ausschüttet, sondern einbehält. Während die Kapitalrücklage nur in bestimmten Fällen, beispielsweise zur Deckung von Verlusten, reduziert werden darf, unterliegt die Verwendung der Gewinnrücklage keinen Beschränkungen. Allerdings richtet sich die Berechnung der möglichen Ausschüttungen nicht nach den Zahlen des Konzernabschlusses, sondern nach den Zahlen des sogenannten Einzelabschlusses, die jedoch durch Geschäfte zwischen den Gesellschaften des Unternehmens verzerrt sein können. Der Gewinn oder Verlust stellt den Erfolg des abgelaufenen Geschäftsjahres dar. Gewinn kann zur Ausschüttung verwendet oder einbehalten werden. Die Möglichkeiten zur Ausschüttung von Gewinn richten sich ebenfalls nach den Zahlen des Einzelabschlusses. Im Falle der Einbehaltung erhöht der Betrag die Gewinnrücklagen. Ein Verlust vermindert die Gewinnrücklagen. Geht der Verlust über diese hinaus, kann er schließlich auch die Kapitalrücklagen und das gezeichnete Kapital mindern. 3. Zusammenhang zwischen Rücklagen und Bilanzgewinn in Deutschland Es besteht ein Wahlrecht, die Rücklagen vor oder nach vollständiger oder nach teilweiser Gewinnverwendung bzw. Verlustdeckung auszuweisen. Bei Rücklagenausweis vor Gewinnverwendung bzw. Verlustdeckung erscheint der gesamte Gewinn bzw. Verlust in der Bilanz. Bei Ausweis nach Gewinnverwendung bzw. Verlustdeckung erscheint überhaupt keine Erfolgsgröße in der Bilanz. Wird das Eigenkapital nach teilweiser Gewinnverwendung bzw. Verlust678
Rücklagen- u. Ausschüttungsmanagement deckung ausgewiesen, so erscheint in der Bilanz eine Größe, die als Bilanzgewinn bzw. Bilanzverlust bezeichnet wird. Der Bilanzgewinn bzw. Bilanzverlust umfasst den Teil des Gewinns, der (noch) nicht den Rücklagen zugeführt wurde bzw. den Teil des Verlustes, der noch nicht von den Rücklagen oder vom gezeichneten Kapital abgezogen wurde. Weil keine Beschränkung bei der Auflösung von Gewinnrücklagen besteht, kann der Bilanzgewinn bzw. Bilanzverlust auch einbehaltene Gewinne früherer Jahre enthalten. Wenn Gewinnrücklagen aufgelöst wurden, stellt der Bilanzgewinn bzw. Bilanzverlust somit kein Erfolgsmaß für das abgelaufene Geschäftsjahr dar. Es handelt sich vielmehr um eine vom Bilanzersteller weitestgehend beeinflussbare Größe. Ein Bilanzgewinn wird meist in Höhe des Betrages ausgewiesen, der zur Ausschüttung an die Anteilseigner vorgesehen ist. 4. Verteilung der Entscheidungskompetenzen zur Rücklagenbildung bei Aktiengesellschaften Das deutsche Recht sieht für -> Aktiengesellschaften vor, dass die Entscheidung über die Höhe einer Ausschüttung vom bilanzaufstellenden Organ, i.d.R. Vorstand und Aufsichtsrat, getroffen wird (§ 58 AktG). Sobald die Gewinnrücklagen mehr als 50% des gezeichneten Kapitals ausmachen, können Vorstand und Aufsichtsrat höchstens 50% des Jahresüberschusses den Gewinnrücklagen zuführen. Tun sie dies, so kann die Hauptversammlung über den restlichen Jahresüberschuss entscheiden. Wenn Vorstand und Aufsichtsrat Gewinnrücklagen zu Gunsten des Bilanzgewinns auflösen, kann der Betrag, über den die Hauptversammlung entscheiden kann, auch höher sein als der vom Vorstand nicht ausgeschüttete Jahresüberschuss. Die Hauptversammlung kann dann darüber entscheiden, diesen Betrag auszuschütten oder einzubehalten.
Rücklagen- u. Ausschüttungsmanagement 5. Konsequenzen des Rücklagenmanagements Das R. besteht formal darin, Entscheidungen über die Bildung, Erhöhung, Verringerung oder Auflösung einzelner oder aller Rücklagen zu treffen. Solche Entscheidungen können erstens Umbuchungen, z.B. Kapitalerhöhungen aus Gesellschaftsmitteln, und zweitens die Einbehaltung von Gewinn oder die Ausschüttung von Kapital nach sich ziehen. l.d.R. sind mit dem R. nicht nur bilanzielle, sondern auch ökonomische Konsequenzen verbunden. a) Konsequenzen von Umbuchungen Bei einer Kapitalerhöhung aus Gesellschaftsmitteln besteht die bilanzielle Konsequenz in der Erhöhung des Mindesthaftungsbetrages des Unternehmens zu Lasten der Rücklagen. Dabei erhöht sich i.d.R. die Anzahl der ausgegebenen Aktien (-» Aktie), ohne dass sich der Gesamtwert aller ausgegeben Aktien ändert; es ändert sich nur der Wert jeder einzelnen Aktie. Solche Umbuchungen werden gerne vorgenommen, wenn der Preis je Aktie oder die Dividende j e Aktie verglichen mit anderen Aktien zu hoch erscheint. Zu bedenken ist allerdings, dass man vergeblich nach einer wirtschaftswissenschaftlichen Theorie über die optimale Höhe eines Aktienpreises sucht. Nicht-bilanzielle Konsequenzen von Umbuchungen innerhalb des Eigenkapitals können für die Unternehmensleitung entstehen, weil die verschiedenen Eigenkapitalarten unterschiedlichen Verwendungsbeschränkungen unterliegen. Im Verhältnis zu Kreditgebern könnten sich Auswirkungen auf das Risiko und die --> Kapitalkosten zeigen. b) Konsequenzen von Einbehaltungsbzw. Ausschüttungsentscheidungen Mit einer Gewinneinbehaltung stärkt das Unternehmen c.p. seine Eigenkapitalbasis. Bei Fremdkapitalgebern, die ihr Engagement auf das Eigenka-
Rückiagen- u. Ausschüttungsmanagement pital ihrer Kreditnehmer ausrichten, nimmt durch die Gewinneinbehaltung c.p. die Kreditwürdigkeit zu. Liegen im Unternehmen sinnvolle Investitionsmöglichkeiten vor, so wird mit der Gewinneinbehaltung ein Wachstum der Investitionen vor sich gehen, das durch zusätzliche Kreditaufnahmen noch gesteigert werden kann. Bei einer solchen Selbstfinanzierung von Unternehmen durch die Einbehaltung von Gewinn ist indes nicht sicher gestellt, dass das Kapital für sinnvolle Investitionen verwendet wird. Die Ausschüttung von Kapital stellt dagegen eine Definanzierung dar. Soll das investierte Kapital nicht schrumpfen, so ist der Eigenkapitalabgang durch Fremdkapital oder durch eine Kapitalerhöhung zu ergänzen. Für Kapitalmarktteilnehmer, wie Anleger, Finanzintermediäre oder Informationsintermediäre, mit einer Präferenz, den Wert eines Unternehmens an dessen zukünftige Ausschüttungen zu knüpfen, bedeutet eine Gewinneinbehaltung zwecks Investition in ein ertragsteigerndes Projekt eine Wertsteigerung des Unternehmens. Eine Ausschüttung wird dagegen mit einer Wertminderung in Höhe der Ausschüttung gleichgesetzt. Vernachlässigt wird dabei allzu leicht, dass bei Verzicht auf die Ausschüttung mit dem ausgeschütteten Betrag möglicherweise erfolgsträchtige (und evtl. marktwertsteigernde) Investitionen hätten durchgeführt werden können. Wird der Kapitalmarkt von Teilnehmern geprägt, die sich am Verhältnis vom Marktwert des Eigenkapitals zum Buchwert des Eigenkapitals orientieren, so kann man bei Gewinneinbehaltung auf eine Marktwertsteigerung hoffen. 6. Konsequenzen von Verstößen gegen die Clean Surplus Relation Bei der Verwendung von Konzernabschlusszahlen ist zu bedenken, dass den Bilanzerstellern einige Ermessensspielräume zur Abbildung von Eigenkapital
679
Rücklagen- u. Ausschüttungsmanagement und Gewinn offen stehen, die es im Einzelabschluss nicht gibt. Die Konsequenzen einiger dieser Ermessensspielräume, z.B. der Möglichkeit, den Goodwill aus der Kapitalkonsolidierung direkt gegen die Rücklagen zu verrechnen, bewirken, dass gegen die Clean Surplus Relation verstoßen wird. Die Folge ist eine eingeschränkte Aussagefähigkeit des Gewinns und der Rücklagen. 7. Gesamtwirtschaftliche Konsequenzen der Rücklagenstärkung Dem Ziel einer gesamtwirtschaftlich optimalen Ressourcenallokation würde
680
Rücklagen- u. Ausschüttungsmanagement nach Ansicht vieler Ökonomen durch eine Ausschüttung der erwirtschafteten Gewinne mehr gedient als durch deren Einbehaltung. Die Anteilseigner könnten dann selbst über Konsum und Investition entscheiden und diejenige Investition wählen, die ihnen bei gegebenem Risiko den höchsten Ertrag verspricht. Peter Möller
Secret Shopper
Sachfinanzierung
s Sachfinanzierung -> Finanzierung Safe Heaven-Konzept Verrechnungspreise Sanierung Ziel einer Sanierung ist zunächst die Wiederherstellung der Liquidität. Liquiditätsbeiträge können z.B. in Form von Eigenkapitaleinlagen (z.B. Kapitalherabsetzung mit anschließender Kapitalerhöhung, Umwandlung von Gläubigeransprüchen in Eigenkapital, Ausgabe von Genusskapital), Fremdkapitalbeiträgen (Stundung, Zins- und Schulderlass, Neukredite), effizienteres Forderungsmanagement (z.B. Nutzung von Zahlungszielen, -* Factoring), Veräußerung nicht betriebsnotwendigen Vermögens oder Saleand-Lease-Back-Maßnahmen (-> Leasing) erfolgen. Die Solvenz wird aber langfristig nur durch eine ausreichende operative Performance des Unternehmens gewährleistet. Eine Sanierungsstrategie sollte deshalb neben der Erfüllung der Gläubigeransprüche letztendlich der Wertmaximierung dienen. Gelingt die Sanierung im Rahmen eines Turnaround-Management nicht, kommt es zur -»Insolvenz. Literatur: Eidenmüller, H.: Untemehmenssanierung zwischen Markt und Gesetz, Köln 1999; Schmidt, K./Uhlenbruck, W.: Die GmbH in Krise, Sanierung und Insolvenz, 2. Aufl., Köln, 1999.
Andreas Schüler SAR Optionsplan Schuldenkonsolidierung -» Konsolidierung Scoring-Modell Das Scoring-Modell kommt aus dem Bereich des ->• Marketing und wird häufig für die Beurteilung von Produkten/Alternativen herangezogen. Hierbei sollen die verschiedenen Produkte/Alternativen an-
hand von quantitativen und qualitativen Kriterien bewertet werden. Diese Bewertung muss numerisch (bspw. in Prozent) vorgenommen werden. Die Bedeutung wird den Kriterien selbst durch eine Gewichtung zugewiesen. Die Summe der Produkte aus Gewichtung des Kriteriums und Bewertung des Produkts anhand des Kriteriums bestimmt den Erfiillungsgrad des einzelnen Produkts. Am vorteilhaftesten zeigt sich dann das Produkt mit dem höchsten Erfüllungsgrad. Die Probleme bei diesem Verfahren liegen in der Auswahl und der Gewichtung der einzelnen Kriterien, da diese subjektiv vorgenommen wird. Empirische Untersuchungen in den USA ergaben, dass bis zu 86 Kriterien von verantwortlichen Managern zur Selektion von Neuproduktideen herangezogen werden. Ein weiterer Nachteil ist das Fehlen einer eindeutigen Entscheidungsregel, der "kritische Wert" wird also auch subjektiv festgelegt. Das Scoring-Modell ist eine heuristische Methode zur systematischen Entscheidungsfindung und wegen seines nachvollziehbaren und überprüfbaren Ablaufs als vorteilhafte Ergänzung anderer Methoden zu betrachten. Durch die Gewichtung der Kriterien wird vermieden, dass ein Produkt bereits aufgrund nur eines schlechten Wertes aus der Betrachtung ausgeschlossen wird, obwohl es sich insgesamt um die beste Alternative handelt, d.h. ein Weniger bei einem Kriterium kann durch ein Mehr bei einem anderen Kriterium aus geglichen werden. Scouting Trendforschung Screening Informationsasymmetrie Second Price Sealed Bid Auction -> Internet-Auktionen Secondary Purchase -> Exit Secret Shopper -> Testkunden 681
Selektivvertrieb
Seed-Phase Seed-Phase Vorgründungsphase. Die Entwicklung von der Geschäftsidee über die -»Unternehmensgründung bis zum etablierten Unternehmen verläuft in drei Phasen: von der Seed-Phase über die Start Up-Phase bis zur Expansionsphase. Die Dreiteilung orientiert sich am jeweiligen Kapitalbedarf des Unternehmens und den jeweiligen Kapitalgebem, die das Unternehmen von der Gründung bis zur Etablierung begleiten. Die drei Entwicklungsphasen sind somit Finanzierungsphasen. Die Seed-Phase umfasst nach herrschender Terminologie den Entwicklungszeitraum von der konkreten Geschäftsidee über die Erstellung des Business Plans bis zur rechtsförmigen Unternehmensgründung, sei es als -» „kleine" Aktiengesellschaft oder als -» GmbH. Die Seed-Phase beginnt mit dem ersten Kapitalbedarf: Bereits die technische und marktwirtschaftliche Überprüfung der Geschäftsidee für den Business Plan verursacht Kosten, die zunächst durch Eigenmittel der Gründer aber auch durch ->• Angel Investors oder —• institutionelle Venture Capitalists gedeckt werden können. Dasselbe gilt für die Kosten der qualifizierten juristischen Beratung zur -> Rechtsformwahl und zur Ausgestaltung des Gesellschaftsvertrages, also der Satzung der AG oder der GmbH, sowie in allfälligen Steuer- und sozialrechtlichen, patent- und markenrechtlichen, arbeitsrechtlichen, etc. Fragen, soweit diese nicht erst nach der Unternehmensgründung, also in der Start Up-Phase in Rechnung gestellt werden. Zu denken ist auch an die Notar- und Registergerichtskosten nach der Kostenordnung. Stefan Hanloser Segment of one -> Database Marketing, -> Mass Customization Segmentierter Wertschöpfungsprozess -> Mass Customization
682
Sekundäre Kosten Kostenarten Sekundärerhebung -> Marktforschung Selbst-Customizing (Self-Customizing) Mass Customization Selbstfinanzierung -»Finanzierung Selektivvertrieb Selektivvertrieb stellt eine Vertriebsform dar, bei der der Hersteller die zu beliefernden Händler auswählt. Im Gegensatz zum Universalvertrieb wird die Belieferung aller an den Produkten des Herstellers interessierten Händler nicht angestrebt. Der Hersteller verzichtet bei Selektivvertrieb daher von vornherein auf eine maximale Distributionsdichte. Selektivvertrieb stellt daher für sich genommen keine vertragliche Regelung zwischen Hersteller und Händler dar. Vielmehr wird Selektivvertrieb i.d.R. durch Vertriebsbindungen gestützt, die den ausgewählten Händlern einen Weiterverkauf an andere Händler untersagen, die nicht dem Distributionsnetz angehören. Der Ausschluss von Händlern aus dem Netz der vom Hersteller belieferten Teilnehmer kann aus qualitativen oder quantitativen Ursachen erfolgen. Im Falle qualitativer Ursachen werden vom Hersteller Kriterien zum Ausschluss von Händlern zu Grunde gelegt, die sich bspw. auf die Branchenzugehörigkeit, die Einordnung zum Groß- oder Einzelhandel, die Größe, die zu erwartende Abnahmemenge pro Jahr sowie die Übernahme von Garantie- und Reparaturverpflichtungen beziehen. Im Falle einer quantitativen Beschränkung der Händlerzahl werden in einem Gebiet nur wenige Händler beliefert. Gewährt der Hersteller dem Händler Gebietsschutz, so wird nur ein Händler in einem Gebiet beliefert, man spricht dann von -» Exklusivvertrieb.
Selektivvertrieb Die Gründe Selektivvertrieb aus Herstellersicht zu wählen, sind entsprechend den zu Grunde liegenden Kriterien sehr vielfältig. Zentrale Argumentationslinien fiir eine Händlerauswahl sind die folgenden: Erstens lässt sich zunächst konstatieren, dass Händler vom Selektivvertrieb profitieren, weil dann die Konkurrenz auf der Händlerebene zurückgeht. Die Verminderung der Konkurrenz auf der Händlerebene kann zu einer höheren Handelsspanne und einem höheren Preis bzw. einer geringeren Nachfrage fuhren und ist für den Hersteller daher für sich genommen ungünstig. Sie wirkt sich aber mittelbar vorteilhaft aus, da Handelsunternehmen im Falle einer höheren Handelsspanne selbst ein verstärktes Interesse an hohem Absatz haben. Handelsunternehmen werden im Falle von Selektivvertrieb daher ihre Leistungen verstärken (ansprechende Verkaufsräume, bessere Beratung, verstärkte lokale Kommunikation). Zweitens kann durch Selektivvertrieb eine verbesserte Reputation bzw. ein besseres Produktimage erreicht werden, wenn die Handelsunternehmen infolge einer entsprechenden Selektion bestimmte Qualitätskriterien erfüllen. Drittens kann sich die Auswahl bestimmter Händler vorteilhaft auf die Präferenzen der Konsumenten für das Produkt auswirken. Diese drei genannten Gründe implizieren einen Anstieg der Nachfrage infolge von Selektivvertrieb. Viertens können bei Selektivvertrieb die Vertriebskosten geringer als bei Universalvertrieb sein, weil bspw. umfangreiche personelle Kontakte zwischen Hersteller und Händler notwendig sind. Fünftens schließlich können externe Vorschriften, z.B. verschreibungspflichtige Medikamente, Selektivvertrieb erforderlich machen. Ein wesentlicher Nachteil des Selektivvertriebs liegt darin, dass infolge des geringeren Distributionsgrades in aller Re-
Serienfertigung gel die Nachfrage nicht voll ausgeschöpft wird. Literatur: Posselt, T.: Motive für Selektivvertrieb - Eine institutionenökonomische Untersuchung, ZfbF, 50. Jg., 1998, S. 1098-1119; Stern, L./ElAnsary, A./Coughlan, A.: Marketing Channels, 5. Aufl., Englewood Cliffs ( N e w Jersey) 1996.
Thorsten Posselt Self-managing Teams -» Teamstrukturen Sell-Off -> Unternehmensspaltung Sensitivitätsanalyse Die Sensitivitätsanalyse gibt Antwort auf die Frage, wie weit ein in das Kalkül eingehender Wert sich verändern darf, ohne dass die ermittelte Lösung hinfallig wird. So können z.B. die Absatzmengen und die Absatz- und Produktionsfaktorpreise variiert und die Auswirkungen auf den Kapitalwert der Investition überprüft werden (s.a. Investitionsrechnung) Sequentielle Produktentwicklung Bei der sequentiellen Produktentwicklung werden im Gegensatz zum —>• Simultaneous Engineering alle notwendigen Aktivitäten der Produktentwicklung nacheinander, d.h. sequentiell abgearbeitet. Die Beschleunigung der Produktentwicklung ist hier nur durch eine schnellere Durchführung der einzelnen aufeinanderfolgenden Phasen möglich. Serienfertigung Der Begriff Serienfertigung beschreibt einen Produktionstyp hinsichtlich der Auflagenhöhe der Produkte bzw. der Wiederholhäufigkeit des Produktionsprozesses. Bei der Serienfertigung werden auf denselben Fertigungsanlagen zeitlich aufeinander folgend verschiedene Produkte in begrenzter Menge erstellt. Gegenstücke sind die -> Einzel- und die Massenfertigung. Die Serienfertigung erfordert eine Flexibilität der Fertigungsanlagen, die über der von typischerweise in der Massenfertigung eingesetzten Anlagen liegt. Der 683
Serienfertigung Wechsel von einem Produkt zu einem anderen erfordert eine Umstellung der Fertigungsanlagen, das sog. (Um-) Rüsten oder Einrichten, das z.B. im Einspannen eines Werkzeugs oder der Generierung veränderter Prozessbedingungen in einem chemischen Reaktor bestehen kann. Für diese Tätigkeiten ist in der Regel der Einsatz von Fachkräften erforderlich. Die Menge identischer Produkte, die nacheinander gefertigt werden, wird in der diskreten Fertigung Los genannt, in der Prozessindustrie Charge oder Batch. Im Gegensatz zur Einzelfertigung können in der Serienfertigung auch un- oder angelernte Kräfte zum Einsatz kommen, die während der Bearbeitung eines Loses anfallende Aufgaben erfüllen. Taktische Produktionsplanungsprobleme treten in der Serienfertigung im Bereich der Produktionssegmentierung, Layoutplanung und Konfigurierung der Produktionsanlagen auf, die jeweils im Hinblick auf die Zusammensetzung des prognostizierten Produktionsprogramms gelöst werden müssen. Auf der operativen Ebene sind die Bestimmung des Hauptproduktionsprogramms, des Materialbedarfs, der Losgrößen und der Ressourcenbelegung Gegenstand der Planung (Günther 1998), die heute in der industriellen Praxis mit Softwareunterstützung durch sog. MRP II (oder Push-) Systeme und Leitstände gelöst werden (-> Produktionsplanung- und -steuerungssystem). Der Einsatz dieser Systeme hat jedoch immer wieder zu Problemen wie hohen Beständen an Vorprodukten und Halbfabrikaten sowie hohen Durchlaufzeiten gefuhrt, die im Wesentlichen durch die fehlende oder unzulängliche Berücksichtigung der vorhandenen Produktionskapazitäten und der daraus folgenden systematischen Verzerrungen der Plandurchlaufzeiten verursacht worden sind. Dem wurde mit der Entwicklung sog. Pull-Systeme begegnet, in denen die Bestände durch selbstregelnde Mechanismen (z.B. -» KANBAN) auf einem konstanten, niedrigen Niveau gehalten werden. Pull-Systeme sind je684
Service Center doch nicht für jede Serienfertigung einsetzbar. Eine echte Entscheidungsunterstützung im Sinne einer zielgerichteten Optimierung ist erst von den in jüngster Zeit vermehrt eingesetzten sog. Advanced Planning Systems zu erwarten (Günther, Tempelmeier 2000, Kap. 15). Literatur: Günther, H.O.: Produktion, in: Springers Handbuch der Betriebswirtschaftslehre, Bd. 1, Kap. 8, Berlin et al. 1998; Günther, H.O./Tempelmeier, H.: Produktion u n d Logistik, 4.Aufl., Berlin et al. 2000.
Martin Grunow Service Center Center-Konzepte verbinden organisationsstrukturelle Merkmale mit steuerungstechnischen Elementen des Finanzund Rechnungswesens. Ein Service Center ist ein organisatorisch abgegrenzter Teilbereich eines Unternehmens, der vorwiegend Dienstleistungsfunktionen für andere operative Bereiche des Unternehmens erfüllt. Dies können bspw. EDVAbteilungen und Rechenzentren, Logistikabteilungen oder auch Rechtsabteilungen, Inhouse Consulting oder andere Bereiche mit Unterstützungsfunktionen sein. Der Begriff des Service Centers legt im Gegensatz zu anderen Center-Konzepten keine determinierten Kriterien bezüglich der Steuerung im Rahmen des Finanzund Rechnungswesens an. Ein Service Center kann eine reine Kostenverantwortung für die (Dienst-)Leistungen tragen (-» Cost Center), aber auch auf die Erwirtschaftung von Gewinnen verpflichtet werden (-> Profit Center), bis hin zu eigenständigen Investitionsentscheidungen (-» Investment Center). Zentrale Faktoren hierbei sind die Gestaltung des Verrechnungspreissystems und die Möglichkeiten des Service Centers, seine Leistungen ggf. auch Kunden außerhalb des Unternehmens anzubieten. Unternehmen reorganisieren häufig im Rahmen von Dezentralisierungen ihre früheren Zentralbereiche als Service Center, um mehr Transparenz, Unternehmertum und Marktdruck insbesondere für
Service Center Bereiche ohne direkten Marktzugang zu erhalten. Die Leistungen des Service Centers werden über Verrechnungspreise bewertet und damit mess- und vergleichbar gemacht. Die Leistungsempfänger, i.d.R. die operativen Bereiche eines Unternehmens, können häufig die Bedingungen mit den Service Centern verhandeln und besitzen mitunter die Möglichkeit, diese Leistungen von externen Dienstleistern zu beziehen. Literatur: Coenenberg, A.G.: Kostenrechnung und Kostenanalyse, 4., aktual. Aufl., Landsberg am Lech 1999; Frese, E./Werder, A.v./Maly, W. (Hrsg.): Zentralbereiche, Stuttgart 1993; Kreuter, A.: Verrechnungspreise in Profit-Center-Organisationen, 2. Aufl., München/Mering 1999.
Andreas Kreuter Service Level Agreement -> Business Process Reengineering Service-Customizing -» Mass Customization Servicephilosophie Servicequalität, Servicephilosophie Servicequalität, Servicephilosophie Die vorrangige Aufgabe der Unternehmen liegt heute in der ständigen Anpassung ihrer Leistungen an sich immer schneller verändernde Kundenerwartungen. Wenn in diesem Zusammenhang über Servicequalität und der ihr innewohnenden Servicephilosophie gesprochen wird, dann wird häufig damit der Charakter einer Zusatzleistung verbunden. Serviceangebote stellen nicht die Kernleistung eines Anbieters dar, sondern erfassen vielmehr additive Elemente von Angebots- und/ oder Leistungsbündeln, um den Kunden zufrieden zu stellen. Es besteht ein Vermarktungszusammenhang zwischen dem Service und den Kernleistungen. Serviceleistungen haben das Ziel und die Aufgabe der Kundengewinnung und Kundenbindung. Das Kundenbindungspotenzial resultiert vor allem aus einer möglichen Beziehungsverlängerung und -intensivierung. Mit Hilfe von unterschiedlichsten Serviceangeboten können
Servicequalität, Servicephilosophie Zufriedenheit bei den Kunden (-> Kundenzufriedenheit) erzeugt und gleichzeitig Wechselbarrieren für ihn aufgebaut werden. In der neuen Qualitätsdefinition von Töpfer (Töpfer/Mehdorn 1995) kommt der Servicequalität eine zentrale Rolle bei der Erfüllung von Kundenwünschen zu. Neben der technischen und gesetzlichen Erfüllung von bestimmten Qualitätsstandards, die zur Qualität ersten Grades gezählt werden, umfasst die Qualität zweiten Grades alle Kontaktphasen mit dem Kunden, wozu die Kommunikation, Kundenansprache/Werbung, der Dialog mit dem Kunden, der Service und die Kundenbetreuung gehören. Die Serviceleistung wird als zusätzliche Differenzierungschance im Wettbewerb um Marktanteile, Deckungsbeiträge und Gewinne immer wichtiger. Servicequalität ist sowohl vor als auch nach dem Kauf sicherzustellen (Pre-Sales- und AfterSales-Service), wodurch Alleinstellungsmerkmale entwickelt und Wettbewerbsvorteile aufgebaut werden können. Während bei der Kontaktaufnahme der Verkäufer in der Rolle des Kontaktbereiters agiert, mit dem Ziel, Sympathie und Vertrauen aufzubauen, beginnt mit dem Vertragsabschluss die Phase der Nachbetreuung, wobei der Verkäufer als Ansprechpartner die Verbindung zum Service herstellt und sich durch regelmäßige Kontakte von der Zufriedenheit des Kunden überzeugt. Die Qualitätsansprüche des Kunden verlagern sich, je mehr die Produktqualität als selbstverständlich angesehen und die Servicequalität zur Urteilsfindung herangezogen wird (Lehmann 1995). Eine Differenzierung am Markt ist i.d.R. nur noch aufgrund der Servicequalität möglich. Wenn Qualität daran gemessen wird, ob die Erwartungen des Kunden erfüllt werden, dann beschreibt das entsprechende "Serviceangebot" genau, wie diesen Erwartungen entsprochen werden kann (Murphy 1994). Vor allem muss darauf 685
Servicequalität, Servicephilosophie geachtet werden, dass der Kunde den gebotenen Service positiv zur Kenntnis nimmt. Regelmäßige Umfragen können hierbei eine wichtige Hilfestellung bieten. Wer routinemäßig z.B. bei Versand einer Ware eine sogenannte "Meinungskarte" beifügt, gibt dem Kunden die Gelegenheit, die ausgelieferte Bestellung zu beurteilen. Mit einer derartigen Strategie ist zugleich die Möglichkeit verbunden, dass das Unternehmen sich von den anderen Mitbewerbern abhebt. Wird Service in diesem Sinne verstanden, wird er zur wesentlichen Grundlage für Kundenzufriedenheit und schafft die Voraussetzungen für eine langfristige -> Kundenbindung. Bei allen Anstrengungen ist darauf zu achten, dass die Bedürfnisse und Anforderungen der Kunden nicht nur erfüllt werden, sondern dass das übergeordnete Ziel darin bestehen muss, sie zu übertreffen. Mit Servicequalität ist auch die Erfüllung aller unfiihlbaren Servicebestandteile verbunden, die durch Mitarbeiter des Unternehmens und/oder Servicesystemen am Kunden verrichtet werden, und diesem ermöglichen, einen über das erwartete Produkt hinausgehenden Wert der Untemehmensleistung zu realisieren. In allen Teilen dieser Servicekette ist die persönliche Leistung der Mitarbeiter Einfühlungsvermögen, Bereitschaft zur Kundenbetreuung, Leistungskompetenz die entscheidende Dimension der Dienstleistung, denn nicht jeder Kunde, der das gleiche Produkt kauft, wünscht den gleichen Service. Wichtige Kriterien, die der Kunde zur Beurteilung der Servicequalität heranzieht, haben in einer umfassenden empirischen Studie Zeithami, Parasuraman und Berry 1992 zusammengetragen: 1. Materielles: das Erscheinungsbild von Einrichtungen, Ausrüstungen, des Personals und der gedruckten Kommunikationsmittel.
686
Servicequalität, Servicephilosophie 2. Zuverlässigkeit: die Fähigkeit den versprochenen Service verlässlich und präzise auszuführen. 3. Entgegenkommen: die Bereitschaft dem Kunden zu helfen, Aufträge rasch zu erledigen und Anfragen sofort zu beantworten. 4. Kompetenz: die Fähigkeiten und Fertigkeiten des Kontaktpersonals und der sie unterstützenden Mitarbeiter. 5. Zuvorkommenheit: Höflichkeit, Freundlichkeit und Respekt des Kontaktpersonals. 6. Vertrauenswürdigkeit: die Glaubwürdigkeit und Ehrlichkeit im Kundenkontakt. 7. Sicherheit: die finanzielle Sicherheit, die Bewahrung vertraulicher Informationen. 8. Erreichbarkeit: meint den einfachen und leichten Zugang zu Ansprechpartnern 9. Kommunikation: meint die Informationsbereitschaft und -fähigkeit in einer für den Kunden verständlichen Sprache. 10.Kundenverständnis: meint das Eingehen auf spezielle Bedürfnisse des Kunden, individuelle Behandlung. Werden diese Kriterien bei der Ausführung der Leistung berücksichtigt, kann dem Kunden nicht nur eine hervorragende Servicequalität geboten werden, sondern das Zusammenwirken aller dieser Faktoren schafft zugleich die Voraussetzungen für ein hohes Maß an ->• Kundenzufriedenheit. Literatur: Töpfer, A./Mehdorn, H.: Total Quality Management - Anforderungen und Umsetzung im Unternehmen, 4. Aufl., Neuwied 1995; Bruhn, M./Homburg, C. (Hrsg.): H a n d b u c h Kundenbindungsmanagement, Grundlagen-Konzepte-Methoden, Wiesbaden 1999; Lehmann, A.: Dienstleistungsmanagement. Strategien und Ansatzpunkte zur S c h a f f u n g von Servicequalität, St. Gallen, 1995; Murphy, J.A.: Dienstleistungsqualität in der Praxis, Ein Handbuch f ü r den praktischen Gebrauch, München 1994; Kong, C.C., T Q M als Differenzierungsstrategie für Service
Servicequalität, Servicephilosophie qualität, in: Mehdorn, H./Töpfer, A.: BesserSchneller-Schlanker, TQM-Konzepte in der Untemehmenspraxis, 2.Auflage, Neuwied 1996; Rapp, R.: Kundenzufriedenheit durch Servicequalität, Wiesbaden 1995; Zeithami, V.A./Parasuraman, A./Berry, L.L.: Qualitätsservice, Frankfurt a.M. 1992.
Jürgen Rothlauf Shareholder Value 1. Einleitung Implikationen und Bedeutung der Zielnorm Shareholder Value sind umstritten. Für die einen ist sie Repräsentant marktgelenkter, die Effizienz erhöhender Allokationsmechanismen, für die anderen gilt sie als sozialpolitischer Kampfbegriff. Während die finanzierungstheoretischen Vorarbeiten, auf denen der ökonomische Gehalt von Shareholder Value ruht, schon lange zurückliegen, sind es die Bücher von Fruhan (1979) und insbesondere von Rappaport (1986), die dem Konzept des Shareholder Value in der ManagementLiteratur und in der Praxis zum Durchbruch verholfen haben. Rappaports Botschaft ist, dass Vorteilhaftigkeitsmaßstäbe für Investitionen von Aktiengesellschaften genauso konstruiert sein sollten wie die Rechnung, die ein Aktionär am Ende der Halteperiode vornimmt. Da die Rechnung auf erhaltenen Dividenden und Kursveränderungen aufbaut, sind ->• Cash-flow (Ausschüttung) und Änderung des Wertes des Eigenkapitals entscheidend. Investitionen von Aktiengesellschaften müssen sich im Vergleich zu den Renditen bewähren, die Anteilseigner bei gleichem -> Risiko am Kapitalmarkt erzielen können. Mittel, die diese Renditehürde nicht erreichen, sind den Eignern zur alternativen Verwendung zurückzureichen, also auszuschütten. Unternehmen werden im Folgenden als Institutionen verstanden, deren Zweck in der Erzielung von Einkommen besteht (Rieger). Sie bündeln Ressourcen und koordinieren die Handlungen einer Vielzahl von Individuen, die prinzipiell individuelle Ziele verfolgen und deshalb auch eigennütziges bzw. opportunistisches
Shareholder Value Verhalten an den Tag legen können. Welche finanzielle Zielfunktion ist für Aktiengesellschaften mit einer Vielzahl von Eigentümern geeignet? Eine von Ökonomen häufig gegebene Antwort lautet, dass die Steigerung des Shareholder Value das geeignete Ziel sei. 2. Literaturüberblick Die umfangreiche Literatur zum Shareholder Value als finanzielle Zielsetzung lässt sich mehreren Segmenten zuordnen. 1. In einem ersten Segment wird erläutert, was man unter Shareholder Value zu verstehen habe und insbesondere, wie Shareholder Value bzw. die Veränderung des Shareholder Value zu messen sei. Unter Shareholder Value wird der "innere" (fundamentale) Wert der -> Aktien einer Gesellschaft verstanden, der sich unter der Prämisse der strengen Informationseffizienz am Kapitalmarkt in der Marktbewertung und damit im Aktienkurs spiegelt. Die neuere Literatur zur Unternehmensbewertung untersucht hauptsächlich, • welche Zahlungen (Cash-flows) zu diskontieren sind, • von welcher Ausschüttungsstrategie auszugehen ist (-» Rücklagen und Ausschüttungsmanagement), • welche Steuerwirkungen bei der Prognose der Cash-flows zu beachten sind, ob z.B. die Einkommensteuer relevant ist, • wie risikoäquivalente Diskontirungssätze (nach Steuern) zu definieren und zu messen sind, • wie man mit finanziellen Belastungen aus Pensionszusagen umzugehen hat (-• Pensionsrückstellungen). Intensiv werden dabei die relative Leistungsfähigkeit der Ertragswertmethode sowie -» Discounted Cash-flow-Methoden diskutiert. 2. Ein zweites Segment der Literatur behandelt Anwendungsprobleme jenseits des Standardfalles Kauf bzw. 687
Shareholder Value
Shareholder Value
Verkauf ganzer Unternehmen. Zur Umsetzung der Zielnorm Shareholder Value wird eine wertorientierte Unternehmensführung (Value Based Management) insbesondere vorgeschlagen
Bedingungen die normative Vorgabe, den Shareholder Value zu steigern, eine für eine Vielzahl von regelmäßig anonymen Anteilseignem sinnvolle Zielvorschrift ist.
• zur Unterstützung der strategischen Planung, • zur kapitalkostenorientierten Lenkung von Konzerngesellschaften, • zur Performance-Messung, • als Basis einer erfolgsorientierten Entlohnung von Managern (-» Führungskräfteentlohnung, -> Optionsplan), • zur eignerorientierten Ausrichtung der Kontrollsysteme über die Leistung der angestellten Manager (Monitoring) und • als generell zur Unterstützung der Überwachungsfunktion geeignetes Kontrollsystem (-> Corporate Governance), z.B. für den -> Aufsichtsrat.
4. In einem vierten Segment wird das Verhältnis der Shareholder zu den Stakeholdern (-» Stakeholder-Ansatz; -* Stakeholder-Management) auf juristisch-ökonomischer sowie politischökonomischer Ebene diskutiert.
Diese Ansätze stoßen auf erhebliches Interesse in Literatur und Praxis, weil sie herkömmliche Steuerungsinstrumente, Performance-Maße und Kontrollinstrumente an entscheidenden Stellen verbessern können: Sie sind Cash-flow basiert, sind aber ebenso in der Lage, auf den Daten des internen Rechnungswesens (-»Rechnungswesen, Verbindung externes und internes) aufzusetzen; sie berücksichtigen risikoäquivalente -> Kapitalkosten, welche die für die Eigentümer erreichbare Alternativrendite als (kalkulatorisches) Kostenelement darstellen, und indizieren deshalb die Fälle, in denen zwar schwarze GuVÜberschüsse vorliegen, aber de facto rote Kapitalwertbeiträge schlummern. 3. Das dritte Segment legt das finanzierungstheoretische Fundament des Konzeptes, das in der Literatur auch als Marktwertmaximierung des Eigenkapitals bezeichnet wird. Es wird untersucht, warum und unter welchen 688
3. Shareholder und Stakeholder Die für die Gestaltung einer Unternehmensverfassung zentralen Fragen sind die nach der Organisation der Leitungsbefugnisse und der Zuordnung der Residualeinkommen. Dies sind die finanziellen Überschüsse, die verbleiben, nachdem die Festbetragsansprüche der Vertragspartner des Unternehmens (Arbeitnehmer, Geldund Warengläubiger usw.) erfüllt sind. Es ist sinnvoll, Residualansprüche denjenigen zuzuordnen, die die Leitungsbefugnisse haben, weil diese auch die finanziellen Konsequenzen der von ihnen gefällten Entscheidungen im Prinzip allein zu tragen haben; es entstehen keine externen Effekte: Wer Entscheidungen trifft, soll auch die Folgen tragen. Folglich müssen die Entscheidungsberechtigten erstens im Zeitablauf variable Residualeinkommen übernehmen und zweitens finanzielle Defizite ausgleichen können. Entscheidungskompetenz und Anspruch auf das Residualeinkommen sollten deshalb bei einer Partei angesiedelt sein, die über Verlustausgleichspotenzial verfügt. Dazu sind Eigentümer i.d.R. eher in der Lage als z.B. Arbeitnehmer. Sie stellen den Verlustpuffer Eigenkapital und akzeptieren die Unsicherheit des Residualeinkommens, über dessen Verwendung sie gemäß ihren Präferenzen entscheiden. Darüber hinaus sind sie häufig in der Lage, ihre Investitionsentscheidungen zu diversifizieren und damit ihre Risikotoleranz zu erhöhen.
Shareholder Value Wo verbleiben in dieser Skizze weitere Anspruchsgruppen, nämlich die "Stakeholder", die wir hier mit denen gleichsetzen wollen, die primär Festbetragsansprüche halten? Verkürzt sieht eine Antwort der Theorie so aus: Arbeitnehmer, Gläubiger, Lieferanten kontrahieren freiwillig mit dem Unternehmer bzw. den Eigentümern. Sie vergleichen die geforderte Leistung und das gebotene Entgelt mit den erreichbaren Alternativen auf den Märkten. Unterstellt man, dass dort Wettbewerb herrscht, führt die Existenz dieser Alternativen dazu, dass der Unternehmer den Vertragspartnern Bedingungen bieten muss, die sie zur Kooperation bewegen. Damit sind ihre Teilnahmebedingungen im Zeitpunkt des Vertragsabschlusses fixiert. Zu späteren Zeitpunkten, während der Vertragslaufzeit, sorgen die Vertragsbedingungen und der verfügbare Rechtsrahmen für die Durchsetzbarkeit der Ansprüche. Sollte z.B. der Unternehmer zu einem späteren Zeitpunkt insolvent werden, verfügt der Kreditgeber über seine vereinbarten Prioritätsrechte bzw. über die im Insolvenzrecht entfalteten Schutzregeln. Diese Sichtweise verdeutlicht, dass man das Unternehmen als "Netzwerk von Verträgen" (Jensen/Meckling) sehen kann, dass die Inhaber von Festbetragsansprüchen durch vertragliche Vereinbarungen und den Rechtsrahmen vor Ausbeutung durch die Eigentümer geschützt werden können und dass (deshalb) der Vorwurf der "interessenmonistischen" Zielsetzung in Form der Einkommensmaximierung für die Eigentümer verfehlt erscheint. Da sich diese Zielsetzung auf die Äaszc/wa/einkommen bezieht, impliziert sie, dass das Versprechen, vorab die Festbetragsansprüche zu erfüllen, eingelöst wird. Ansprüche der Stakeholder sind in Form von Nebenbedingungen beachtet. Geht man in einer erweiterten Betrachtungsweise davon aus, dass auch andere Anspruchsberechtigte - wie z.B. Arbeitnehmer aufgrund der Bildung von unter-
Sharebolder Value nehmensspezifischem Humankapital neben dem Kontrakteinkommen zusätzliche Ansprüche auf residuale Einkommensbestandteile haben, erscheint die Zielvorschrift "Maximierung für alle Residualeinkommensbezieher" (total wealth maximization) begründbar. Dieser Gesichtspunkt soll hier aber nur angedeutet, nicht vertieft werden. Wenn ein Unternehmen eine große Zahl von Eigentümern aufweist, ist die Managementfunktion (die Entscheidungskompetenz) auf angestellte Manager delegiert. Entscheidungskompetenzen des Agenten und Residualanspruch des Prinzipals liegen somit bei verschiedenen Parteien. Die Orientierung an der Zielgröße Shareholder Value steht für die Aufforderung zur Realisierung langfristiger Untemehmensstrategien, die den Wohlstand der Eigentümer steigern, und ist als Versuch anzusehen, Agency-Probleme (-»• AgencyTheorie) zu mildern. Funktioniert der Markt für Unternehmenskontrolle, wird sich das Management im eigenen Interesse an die Norm binden, um die Gefahr einer Übernahme mit einhergehender Entlassung abzuwenden. Zudem bieten sich unternehmensinteme Anreizmechanismen an, da Zweifel an der Wirksamkeit des Markts für Unternehmenskontrolle erlaubt sind. Wird die Geltung des Residualanspruchs akzeptiert, stellt sich die Frage, wie dieser Anspruch in eine möglichst praktikable und robuste Zielvorschrift transformiert werden kann, der zudem die Masse der Eigentümer zustimmt. Die theoretische Begründung, warum (und inwieweit) Marktwertmaximierung des Eigenkapitals diesen Erfordernissen genügt, wird im Folgenden knapp wiedergegeben. 4. Finanzierungstheoretische Grundlage Eine erste Stufe besteht in der Bestimmung des heutigen Wertes einer Reihe sicherer künftiger Zahlungen. Nach D. Schneider wird erstmals eine überzeugende Begründung für eine korrekte Barwert-Berechnung von Leibniz (1682) 689
Shareholder Value vorgelegt. Eine zweite Stufe der Begründung besteht in dem von Irving Fisher (1930) gelieferten Beleg für die Bedingungen, unter denen eine Reihe künftiger sicherer Zahlungen korrekt bewertet wird, ohne von den individuellen Zielen der Einkommensempfanger Kenntnis zu nehmen. Irving Fisher zeigt, wann und warum Investoren eine gegebene Reihe künftigen Einkommens gleich bewerten. Übertragen wir dies auf ein Unternehmen, in dem angestellte Manager die Investitionsentscheidungen treffen, folgt, dass die aus der Investitionsentscheidung resultierenden künftigen Überschüsse (die Ausschüttungen), wie immer ihre Zeitstruktur auch aussehen möge, von allen Eigentümern - auch bei divergierenden Konsumwünschen - gleich bewertet werden (Fisher-Separation): Optimal ist das Programm, das den höchsten Shareholder Value schafft. Auf einer dritten Stufe ist zu klären, unter welchen Bedingungen bei Unsicherheit Investitionsentscheidungen des Managements von den Eigentümern einmütig begrüßt würden (Unanimity). Das kann nur funktionieren, wenn am Markt ein Preissystem besteht, mit dem künftige zeit- und zustandsabhängige Vorteile (Ausschüttungen) in den heutigen Wert umgerechnet werden können. Bei Existenz eines vollständigen Kapitalmarkts bietet ein Management, das für seine Eigentümer ein marktwertmaximales Investitionsprogramm realisiert, diesen den besten Startpunkt für die Planung der subjektiv optimalen Einkommensströme, die sie durch Kauf und Verkauf von unsicheren Zahlungen herstellen. Dies gilt auch bei unvollständigem Kapitalmarkt, wenn Preise für bestehende Investitionsprojekte unabhängig von Preisen noch zu realisierender Investitionsvorhaben sind, also eine polypolistische Verhaltensweise vorliegt (Competitivity), und erwünschte Konsumströme der Eigner durch Wertpapiertransaktionen synthetisiert werden können (Spanning). Um die Spanning-Eigenschaft herstellen zu können, muss vollkommene Information 690
Shareholder Value auf Seiten der Eigentümer vorliegen (Information). Idealisierend wird eine "reine" Eigentümerposition angenommen. Oftmals erhalten Eigner aber nicht nur Eigenkapitaleinkommen aus einer Unternehmung, sondern gleichzeitig auch noch weitere von der Unternehmenspolitik abhängige, partiell residuale Einkommensströme wie Arbeits-, Fremdkapitaleinkommen usw. Diese müssen perfekt versichert werden können, um weiterhin Einmütigkeit unter den Eignern zu gewährleisten. Nun sind oben genannte Bedingungen in der Realität nicht erfüllt: Kapitalmärkte und Informationen sind unvollkommen. Vollständige Verträge sind ein theoretisches Konstrukt (s.a. -> Informationsasymmetrie). Man darf hinzufügen: Wären die Bedingungen des vollständigen Kapitalmarkts und der Machbarkeit vollständiger Verträge erfüllt, wäre die Zielnorm Steigerung des Shareholder Value eine Selbstverständlichkeit: Manager, die gegen die Zielnorm handelten, hätten einen schweren Stand. Dass sie gegen die Zielnorm verstoßen, wäre wegen der Vollständigkeit der Verträge aufdeckbar und sanktionierbar. Folglich ist die Frage, ob die Steigerung des Shareholder Value eine gute Zielnorm ist, erst dann bedeutungsvoll, wenn die genannten Bedingungen nicht perfekt erfüllt sind. 5. Schlussfolgerung Wenn Autoren empfehlen, der Zielvorschrift Shareholder Value zu folgen, und Vorschläge für dessen Operationalisierung machen (vgl. 2.: 1. und 2.), so steht dahinter die Vermutung, dass die Unvollkommenheiten des Kapitalmarkts nicht so groß sind, als dass das ganze Konzept scheitern müsste. Sie glauben, dass ein fingierter Marktwert, als potenzieller Kurs der Aktie, die subjektiven Kapitalwerte der Eigentümer zusammenfassend spiegeln könnte. Diese Position erscheint verteidigbar, da alternative Konzepte, für die die Vermutung einer gleichen Lei-
Shareholder Value stungsföhigkeit spricht, derzeit nicht in Sicht sind. (Zur Umsetzung des Shareholder-ValueKonzepts Wertmanagement, ganzheitliches; zur Verbindung von Share- und Stakeholder-Value-Gedanken s. -» Value Development) Literatur: Brealey, R. A./Myers, St. C.: Principles of Corporate Finance, 6. Aufl., N e w York 1999; Copeland, T./Koller, T./Murrin, J.: Valuation: Measuring and Managing the Value of Companies, 2. Aufl., New York 1996; Breid, V.: Erfolgspotentialrechnung, Stuttgart 1994; Biihner, R./Tuschke, A.: Zur Kritik am Shareholder Value, in: BFuP, 49.Jg., 1997; Drukarczyk, J.: Wertorientierte Unternehmenssteuerung. Besprechung des Shareholder-Value-Ansatzes von Rappaport, in: ZBB, 9.Jg., 1997, S. 217-226; Drukarczyk, J.: Unternehmensbewertung, 2. Aufl., München 1998; Hachmeister, D.: Der Discounted Cash Flow als M a ß der Unternehmenswertsteigerung, 3. Aufl., Frankfurt a. Main 1999; Rappaport, A.: Creating Shareholder Value, N e w York 1986; Richter, F.: Konzeption eines marktwertorientierten Steuerungs- und Monitoringsystems, 2. Aufl., Frankfurt a. Main 1999; Schüler, A.: Performance-Messung und Eigentümerorientierung, Frankfurt a. M. 1998.
Jochen Drukarczyk/Sebastian Lobe Shop-in-Shop-Prinzip -> Handelsformen Shopping Center Handelsformen Short Hedge Hedging Shortfall Risk Risiko Signaling -> Informationsasymmetrie Silent Auction Internet-Auktionen Silent Shopper Testkunden Simulationswerkzeuge 1. Überblick Unter Simulation wird im Allgemeinen die Nachbildung eines realen oder gedachten Systems in einem Modell und das Experimentieren mit diesem Modell ver-
Simulationswerkzeuge standen, wobei hierzu im Falle der computergestützten Simulation Software benutzt wird. Im Rahmen betriebswirtschaftlicher Aufgabenstellungen wird die computergestützte Simulation vor allem zur Gewinnung von Erkenntnissen über das Verhalten betriebswirtschaftlicher Systeme und die Wirkungszusammenhänge der Systemelemente, zur Unterstützung der zielgerichteten Gestaltung von Systemstrukturen und Prozessen sowie zur Unterstützung der Entscheidungsfindung in Risikosituationen eingesetzt. Die Erstellung des Simulationsmodells sowie die Durchfuhrung und Auswertung der Experimente kann mit Hilfe von höheren Programmiersprachen (z.B. Pascal, C++), von speziellen Simulationssprachen (z.B. GPSS, SIMAN, SIMULA, SIMSCRIPT, DYNAMO) oder von Simulationswerkzeugen erfolgen. Höhere Programmiersprachen ermöglichen zwar eine sehr große Flexibilität bezüglich der abzubildenden Systeme, erfordern aber auch umfangreiche Programmierkenntnisse und einen sehr hohen Aufwand bei der Durchführung einer Simulationsstudie. Im Unterschied dazu ist der Anwendungsbereich von Simulationswerkzeugen zwar begrenzt, für die Erstellung des Simulationsmodells sind aber in vielen Fällen keine speziellen Programmierkenntnisse erforderlich und die Durchfuhrung der Experimente wird in vielfältiger Weise unterstützt, wodurch der Aufwand von Simulationsstudien erheblich gesenkt wird. Die Simulationssprachen nehmen eine Zwischenstellung ein. 2. Werkzeuge für Monte-Carlo-Simulationen Bei der Monte-Carlo-Simulation werden für ein formales Modell, das stochastische Variablen enthält, mit Hilfe von Zufallszahlengeneratoren zufallige Ausprägungen für die stochastisehen Variablen erzeugt, die in ihrer Gesamtheit jeweils einen möglichen Umweltzustand darstellen. Für den erzeugten Umweltzustand werden die bei Ergreifen vorgegebener 691
Simulationswerkzeuge
Simulationswerkzeuge Handlungsaltemativen realisierten Werte der Zielgrößen berechnet. Wird dieses Experiment in großer Zahl wiederholt, lassen sich fur jede Handlungsalternative die Verteilungen der Zielfunktionswerte bestimmen. Die Monte-Carlo-Simulation findet etwa bei der Investitions- und Finanzplanung sowie der strategischen Untemehmensplanung ( - • Unternehmensplanung, strategische) Anwendung. Simulationswerkzeuge für Monte-CarloSimulationen sind in der Form von AddIns für Tabellenkalkulationssysteme verfugbar, z.B. @ R I S K für Microsoft Excel und Lotus 1-2-3. Auf der Grundlage eines in dem Tabellenkalkulationssystem abgebildeten Planungsmodells wird die Abbildung der Wahrscheinlichkeitsverteilungen der stochastischen Größen, die Erzeugung zufälliger Ausprägungen der stochastischen Größen und damit von möglichen Umweltzuständen, die automatische Durchfuhrung des Simulationsexperimentes durch Erzeugung und Auswertung einer großen Anzahl von Umweltzuständen, die statistische Auswertung der Ergebnisse einschließlich der Ermittlung des Ausmaßes des Einflusses einzelner unabhängiger Variablen auf die Ergebnisgrößen sowie die tabellarische und grafische Darstellung der Ergebnisse des Experiments unterstützt. Das Simulationswerkzeug wird durch die Add-In-Technik nahtlos in das jeweilige Tabellenkalkulationssystem integriert und ermöglicht mittels der eingebundenen zusätzlichen Werkzeugleisten und Funktionen eine dem Benutzer vertraute Nutzung.
3. Werkzeuge für ereignisorientierte mulationen
Si-
Gegenstand der ereignisorientierten Simulation sind dynamische stochastische Systeme, die aufgrund von zufälligen Ereignissen ihren Zustand zu diskreten Zeitpunkten und/oder kontinuierlich im Zeitablauf ändern. Beispiele sind etwa Produktions-, Logistik-, Computer- und Kommunikationssysteme. Ereignisorientierte Simulationswerkzeuge sind für eine 692
Reihe von Hardwareplattformen und -> Betriebssystemen verfügbar. Auch wenn viele der Anbieter solcher Werkzeuge keine Einschränkung des Anwendungsbereiches angeben, eignen sie sich in der Regel primär nur für einen bestimmten Anwendungsbereich, etwa S I M P L E + + , Arena, ProModel, AutoMod, S I M F A C T O R Y und W I T N E S S für Produktions- und Logistiksysteme, S I M P R O C E S S und ProcessModel für Geschäftsprozesse. Moderne Simulationswerkzeuge unterstützen die Modellerstellung in der Form eines grafisch interaktiven Modellaufbaus, bei dem die benötigten Modellelemente aus einer Menge von Symbolen ausgewählt und angepasst werden können, oder/und eines menügesteuerten Modellaufbaus, bei dem die Auswahl und Anpassung der Modellelemente über Menüs erfolgt. Teilweise ist ein hierarchischer Modellaufbau möglich, bei dem ein zunächst grobes Modell schrittweise verfeinert werden kann. Zur Erhöhung der Modellierungsflexibilität stehen für die benutzerspezifische Anpassung von Modellbausteinen systemeigene Problembeschreibungssprachen und für die Einbindung spezieller Modellkomponenten und Abläufe Programmierschnittstellen zu einer höheren Programmiersprache zur Verfügung. Die Fehlersuche kann durch die Möglichkeit, den Modellablauf an jeder beliebigen Stelle zu unterbrechen und/oder das Modell schrittweise auszuführen, wobei der jeweilige Systemzustand ausgegeben werden kann, erleichtert werden. Von Bedeutung hierfür ist auch die Animation des Systemverhaltens. Simulationswerkzeuge können weiterhin die Aufbereitung und Analyse von Eingabedaten sowie die Analyse von Stichproben auf eine theoretische Verteilung ermöglichen. Die Durchführung der Experimente wird durch Zufallszahlengeneratoren zur Er-
Single Sourcing
Simulationswerkzeuge zeugung von Zufallszahlen, die verschiedenen theoretischen sowie vorgegebenen empirischen Verteilungen genügen, unterstützt. Weiter kann die Möglichkeit bestehen, zur Simulationslaufzeit Parameter oder das Modellverhalten zu verändern, sowie mehrere Simulationsexperimente mit unterschiedlichen Eingabedaten hintereinander auszufuhren. Im Rahmen der Auswertung der Ergebnisse von Simulationsexperimenten werden etwa statistische Analysen der Resultate, benutzerdefinierte tabellarische und grafische Ausgaben der Ergebnisse sowie der Datenaustausch mit Tabellenkalkulationssystemen ermöglicht. Schließlich ermöglichen Simulationswerkzeuge laufzeitparallel und/oder im Anschluss an einen Simulationslauf eine Animation auf dem Bildschirm in der Form der grafischen Darstellung des Modells mit Fortbewegung der beweglichen Systemelemente und der ständig aktualisierten Wiedergabe der Simulationsergebnisse in Verlaufskurven, Histogrammen oder Zählern. In modernen Simulationswerkzeugen sind die Modelleingabe und die Animation so weitgehend integriert, dass die Animation parallel zum Simulationsmodell erzeugt wird. Mit Hilfe moderner ereignisorientierter Simulationswerkzeuge kann zwar die Erstellung von Simulationsmodellen sowie die Durchfuhrung und Auswertung von Experimenten in erheblichem Ausmaß unterstützt werden, bei komplexeren Systemen wird sich aber der Einsatz von Simulationsspezialisten dennoch nicht vermeiden lassen. Literatur: Banks, J.: Handbook of Simulation, New York 1998; Kelton, W.D./Sadowski, R.P./ Sadowski, D.A.: Simulation with Arena, Boston 1998; Law, A.M./Kelton, W.D.: Simulation modeling and analysis, 2 nd ed., New York 1991.
Hans Ziegler Simultaneous Engineering Um ein Produkt zu entwickeln, sind eine Reihe von unterschiedlichen Aktivitäten
innerhalb eines Unternehmens notwendig, an denen verschiedene Abteilungen beteiligt sind. Die Erledigung der notwendigen Aktivitäten läuft im allgemeinen sequentiell ab (-» sequentielle Produktentwicklung). Das bedeutet, es wird erst ein Arbeitsschritt begonnen, wenn der vorherige abgeschlossen ist. Um die Entwicklung von Produkten und Prozessen zu beschleunigen und damit Kosteneinsparungen zu erreichen, ist es nötig, die Arbeitsabläufe zu parallelisieren. So können etwa bei der Produktentwicklung bereits Erkenntnisse aus der nachgelagerten -»Produktionsplanung und -Steuerung berücksichtigt werden. Die Überlappung von Produktentwicklungsphasen erfordert ein hohes Maß an Koordination, um die beteiligten Projektmitarbeiter ständig am gemeinsamen Ziel auszurichten. Daher ist ein geeignetes Informationssystem unerlässlich, das Schnittstellen überbrückt und Änderungen umgehend an die Mitarbeiter und an Zulieferer weiterleitet. Single Sourcing Single Sourcing bezeichnet die Ausrichtung der Beschaffungsstrategie auf einen Lieferanten je Rohstoff, Halbfabrikat oder Baugruppe. Da Single Sourcing meist über langfristige Lieferverträge abgesichert wird, sind auf Seiten des Zulieferers auch hohe, spezifische Investitionen zu erwarten, er kann seine Produktion speziell auf die Wünsche des Abnehmers ausrichten. Da man sich beim Single Sourcing von einem Zulieferer abhängig macht, ist diese Form der Beschaffung gefährlich: Toyota bezog ein wesentliches Teil seiner in fast allen Automobilmodellen verwendeten Bremssysteme von lediglich einem Lieferanten, der Aisin Ltd. Als Aisin über Nacht abbrannte, waren die Pufferläger der -> Just-in-Time Produktion bei Toyota rasch geleert, die gesamte Produktion musste für Tage gestoppt werden. 693
Situationsinvolvement Situationsinvolvement Involvement Skalenerträge Skalenerträge (auch Economies of Scale genannt) entstehen, wenn die Stückkosten für die Produktion eines Gutes bei zunehmender Ausbringungsmenge sinken. Das liegt zum einen daran, dass die Fixkosten auf eine größere Anzahl produzierter Einheiten umgelegt werden (Fixkostendegression), zum anderen können durch eine größere Produktionsmenge kritische Grenzen überschritten werden, ab denen sich der Einsatz automatisierter Fertigungsverfahren oder anderer Rationalisierungsmaßnahmen rentiert. Skimming-Strategie Die Skimming-Strategie beschreibt eine horizontale Preisdifferenzierung am Absatzmarkt, bei der im Zeitablauf sinkende Preise für ein Produkt bzw. für eine Leistung verlangt werden (s.a. Penetration-Strategie). Ziel der Preisdifferenzierung ist die Abschöpfung der Konsumentenrente: Nach anfänglicher Bedienung zahlungskräftiger Kunden können durch die schrittweise Preisreduktion neue Kundengruppen erschlossen werden. Als weitere Vorteile der SkimmingStrategie gelten eine relativ frühe Kostendeckung, der Spielraum für Preissenkungen, mit dem auf das Verhalten (potenzieller) Konkurrenten reagiert werden kann, sowie eine mögliche Gleichsetzung von Preis- und Qualitätsniveau in den Augen der Kunden. Die Skimming-Strategie ist oftmals mit einer Modifikation des Produktes bzw. der Leistung verbunden, um Kunden mit höherer Zahlungsbereitschaft nicht zu verägern. Solange diese Modifikationen nicht oder nur in geringem Ausmaß kostenwirksam sind, kann das Unternehmen durch die horizontale Preisdifferenzierung eine höheren Gewinn erreichen als im Fall ohne Differenzierung.
694
Social Loaflng Smart Money Bezeichnung für -» Venture Capital, die die unterstützende Beratungskomponente dieser Finanzierungsform unterstreicht. SMAX -> Aktienmarkt Social Auditing -* Stakeholder-Management Social Loafing Der von Latane, Williams und Harkins (1979) geprägte Begriff "Social Loafing" (Soziales Bummeln/Faulenzen) bezeichnet ein Phänomen, wonach Individuen in Gruppen (-* Teamstrukturen) ihren eigenen Arbeitseinsatz verringern, wenn die Anzahl der Gruppenmitglieder zunimmt (Mulvey/Veiga/Elsass 1996). Latane et al. bauen auf den Ergebnissen des deutschen Psychologen Ringelmann auf, der Anfang dieses Jahrhunderts Laborversuche zum Tauziehen mit Individuen und Kleingruppen durchführte. Dabei wurden Arbeiter gebeten, so fest sie konnten an einem Seil zu ziehen. Die Arbeiter zogen alleine, als Dyade, als Triade oder als Gruppe von acht Personen an einem Tau und die jeweils erreichte Zugleistung wurde in Kilogramm (kg) gemessen. Für die Zugkraft der einzelnen Arbeiter ergab sich ein Mittelwert von 63 kg. Gruppen mit drei Mitgliedern zogen 160 kg, nur ungefähr das Zweieinhalbfache der durchschnittlichen Individualleistung. Gruppen mit acht Arbeitern zogen 248 kg, weniger als das Vierfache der Individualleistung. Während sich also die Gesamtleistung aufgrund der gestiegenen Mitgliederzahl der Gruppe erhöht hatte, waren die Einzelbeiträge der Arbeiter bei zunehmender Anzahl der Mitglieder stetig gefallen. Bei Dyaden betrug die durchschnittliche Zugkraft 93%, bei Triaden 85% und bei Gruppen mit acht Mitgliedern nur noch 49% der Individualleistung. Spätere Laborbefunde anderer Autoren sowie Latane et al. zeigen, dass vor allem Motivationsaspekte (Reduktion des Arbeitseinsatzes) und nicht etwa Koordina-
Social Loafing tionsverluste bei der Verrichtung gemeinsamer Arbeit den von Ringelmann entdeckten Effekt begründen. Diese Autoren weisen darauf hin, dass insbesondere die Transparenz individueller Leistungen innerhalb eines Teams dazu beitragen kann, Social Loafing entgegenzuwirken. Literatur: Latané, B./Williams, K./Harkins, S.: Many hands make light the work: The causes and consequences of social loafing, Journal of Personality and Social Psychology, Vol. 37, 1979, No. 6, S. 8 2 2 - 8 3 2 ; Mulvey, P.W./Veiga, J.F./Elsass, P.M.: When teammates raise a white flag, Academy of M a n a g e m e n t Executive, Vol. 10, 1996, S. 40^19; Högl, M./Gemünden, H.G.: Determinanten und Wirkungen der Teamarbeit in innovativen Projekten: Eine theoretische und empirische Analyse, in: Gemünden, H.G./Högl, M. (Hrsg.): Das Management von Teams: Theoretische Konzepte und empirische Befunde, Wiesbaden 2000.
Hans Georg Gemünden/ Martin Högl Societas Europaea -> Europäische Aktiengesellschaft Soft Money Kapital, das beispielsweise von einer öffentlichen Fördereinrichtung ohne Renditeerwartung vergeben wird. Softwareagenten I. Definition und Charakteristika In einem allgemeinen, umgangssprachlichen Begriffsverständnis wird ein Agent als eine Person angesehen, die in fremdem Auftrag selbstständig handelt. Ein solcher (menschlicher) Agent wird dabei anhand seiner eigenen Problemlösungskompetenz entscheiden, auf welche Art und Weise und unter Einsatz welcher der ihm verfügbaren Ressourcen er tätig wird. Der Auftraggeber ist i.d.R. an dem Ergebnis und nicht an dem Weg zu diesem Ergebnis interessiert. Dieses Verständnis der Delegation hat in der Informatik seine Umsetzung im Paradigma der Softwareagenten gefunden. Obwohl in der Literatur bei einem allgemeingültigen Definitionsversuch des Agentenbegriffes noch keine Einigung erzielt wurde, herrscht weitgehende Übereinstimmung bezüglich des großen Poten-
Softwareagenten zials dieses Ansatzes für die Delegation wiederkehrender Aufgaben vom Menschen auf Software, für die Eindämmung der Informationsflut und für die Kontrolle komplexer Systeme, was nicht zuletzt durch die Aussage "Agent-Based Computing is likely to be the next significant breakthrough in software development" (The Guardian 1992) verdeutlicht wird. Softwareagenten sind zunächst Programme und können als Dienstleister angesehen werden, die eine gewünschte Tätigkeit im Auftrag ausüben, das Resultat ihrer Aktion an ihren Auftraggeber zurückmelden und dazu selbstständig agieren bzw. auf Änderungen ihrer Umgebung reagieren. I.d.R. versuchen sie, die Ziele ihres Auftraggebers in einem komplexen, dynamischen Umfeld umzusetzen. Im Gegensatz zu konventioneller Software, die durch direkte Manipulation gesteuert wird, arbeiten diese Softwareeinheiten asynchron zu ihren Auftraggebern, d.h. ohne direkte Intervention des Nutzers. Darüber hinaus sind sie - je nach Ausstattung mit Intelligenz - in der Lage, aus der Beobachtung des Benutzerverhaltens, aus der Analyse des Problemlösungsprozesses und/oder aus den Ergebnissen ihrer Aktionen ihr künftiges "Verhalten" an die Präferenzen des Benutzers zu adaptieren. Dieser Sichtweise kommt die Definition von Maes (Maes 1995) sehr nahe: Derzufolge sind Softwareagenten "...computational systems that inhabit some complex dynamic environment, sense and act autonomously in this environment, and by doing so realize a set of goals or tasks for which they are designed". Franklin und Graesser untersuchen eine Vielzahl existierender Agentendefinitionen bezüglich ihrer Gemeinsamkeiten und leiten hieraus "the essence of being an agent" ab: "An autonomous agent is a system situated within and a part of an environment that senses that environment and acts on it, over time, in pursuit of its own agenda 695
Softwareagenteil and so as to effect what it senses in the future".
Softwareagenten •
In der Literatur findet man üblicherweise zwei Wege der Typisierung von Softwareagenten, entweder anhand ihrer Eigenschaften oder anhand der Art der Aufgaben, die diese Agenten erfüllen. 2. Agentenklassifikation anhand der Eigenschaften Eine oftmals zitierte Charakterisierung von Agenten basiert auf den von Jennings und Wooldridge (1996) definierten Agenteneigenschaften. Agenten werden als Hard- oder Softwareeinheiten angesehen, die folgende konstituierende Eigenschaften ("key hallmarks of agenthood") aufweisen: •
•
•
Autonomie: Die Autonomie stellt die zentrale Eigenschaft dar, mit der Agenten gegen andere Softwareeinheiten abgegrenzt werden können: Autonomie befähigt Agenten - auf Basis einer Vorgabe, wie bestimmte Arten von Aufgaben zu bearbeiten sind - zur freien Kontrolle über die eigenen Handlungen (Aktionen) und zur selbstständigen Lösung von Aufgaben ohne direkte Einflussnahme des Benutzers. Soziales Verhalten: Soziales Verhalten kennzeichnet die Fähigkeit eines Agenten zur Interaktion mit dem Benutzer oder anderen Agenten. Die Fähigkeit zur Kommunikation ist untrennbar mit dieser Eigenschaft verbunden. Die Interaktion mehrerer Softwareagenten zur Lösung einer Aufgabe - kooperativ oder konkurrierend - erfolgt in sogenannten Multi-Agenten-Systemen. Reaktionsfähigkeit: Agenten "leben" in einer Systemumgebung und sind befähigt, ihre Umgebung wahrzunehmen und auf deren Veränderungen, z.B. Veränderungen des Ressourcenbestandes, sowie auf Veränderungen in der Bedürfnis- bzw. Anforderungsstruktur des Benutzers zu reagieren.
696
Zielorientierung: Agenten ergreifen bei Bedarf eigenständig Initiative und können sich dabei selbstständig und zielgerichtet verhalten. Dabei nehmen sie nicht nur Anweisungen entgegen, sondern unterbreiten auch Vorschläge für ein weiteres Vorgehen.
Franklin und Graesser arbeiten in ihrem Vergleich alternativer Agentenansätze weitere Eigenschaften heraus. Diese enthalten die von Jennings und Wooldridge genannten Eigenschaften als Teilmenge und sind nicht als konstituierend für Softwareagenten zu verstehen, vielmehr stellen sie eine Sammlung von Eigenschaften aus verschiedenen Agentenansätzen dar. Je nach Aufgabe und Einsatzdomäne bilden konkrete Agentensysteme einzelne oder mehrere der aufgeführten Eigenschaften in den jeweiligen Agenten ab: •
•
•
•
Persistenz: Ein Agent terminiert nicht nach Ausführung einer Aufgabe, sondern nimmt die Umgebung auch wahr, wenn er aktuell nicht mit der Problemlösung beschäftigt ist. Adaptivität: Das Agentenverhalten wird aufgrund der Beobachtung und Evaluation vergangener Konstellationen der Umwelt und/oder des Verhaltens des Benutzers angepasst. Flexibilität: Aktionen des Agenten sind nicht vordefiniert und daher ist abhängig von der jeweiligen Anforderung - eine situationsspezifische Reaktion möglich. Mobilität: Die Fähigkeit eines Agenten, den Aufenthaltsort im Netz zu wechseln, wird als Mobilität bezeichnet. Vorteile mobiler Agenten sind die Möglichkeit, Kommunikationskosten in Netzen zu verringern, die Ausfallsicherheit zu erhöhen und - durch den Einsatz mehrerer mobiler Agenten eine Parallelisierung von Such- und Verhandlungsaufgaben zu ermöglichen.
Softwareagenten •
Charakter: Agenten mit dieser Eigenschaft wird eine "Persönlichkeit" und ein "emotionaler Zustand" zugeschrieben.
3. Agentenklassifikation anhand der Aufgaben Eine weitere Klassifikationsbasis bilden die zu lösenden Aufgaben. Danach können im Wesentlichen drei verschiedene Agententypen identifiziert werden (Wooldridge/Jennings 1995): Informations-, Interface- und Task-Agenten. •
•
•
Informationsagenten dienen der Beantwortung von Anfragen des Benutzers oder anderer Agenten und legen hierfür zumeist mehrere Informationsquellen in Form von Datenbanken zu Grunde. Diese Agenten können beispielsweise Alert-Funktionalitäten übernehmen, indem sie im Rahmen des Portfoliomanagements aktuelle Nachrichten, technische Analysen, Fundamentalanalysen und Expertenmeinungen aggregieren und auf dieser Basis Kauf- und/oder Verkaufsempfehlungen geben. Das System Warren, das an der Carnegie Mellon University, Pittsburgh entwickelt wurde, arbeitet nach diesem Prinzip. Interface-Agenten sollen den Benutzer bei der Nutzung und Handhabung eines bestimmten Computerprogramms unterstützen und entlasten. Dies kann z.B. in Form einer Priorisierung oder Selektion bestimmter Nachrichten in einem E-Mail-Programm ( - • E-Mail) erfolgen, z.B. das System M A X I M S (FTP: ftp ://ftp .media.mit. edu/pub/agents/interface-agents/MAXIMS/MAXIMSmanual.rtf.hqx), oder in Form intelligenter Hilfestellungen bei einem Textverarbeitungs- bzw. Grafikprogramm. Die Dienstleistung des Agenten ist dabei häufig an ein spezifisches Programm und einen spezifischen Benutzer gekoppelt. Taskagenten agieren im Gegensatz dazu nicht unmittelbar auf der Grundlage eines Programms, sondern neh-
Softwareagenten men generelle Systemaufgaben wahr, die sich beispielsweise als Lastverteilungen in vernetzten Systemen im Rahmen der Architektur A D A M C O (Lohmann 1999) darstellen. Dire Arbeitsweise ist weitgehend unabhängig von einem bestimmten Nutzer und primär aufgabenorientiert. 4. Anwendungen und Entwicklungsperspektiven Trotz der zentralen Bedeutung, die das Thema Softwareagenten in den Forschungslaboren in den letzten Jahren gewonnen hat, sind in der Praxis meistens prototypische Realisierungen dieses Konzeptes zu finden. Besondere Potenziale liegen - aus ökonomischer Sicht - insbesondere in den Bereichen der Informationssuche und den agentenbasierten, elektronischen Märkten: Vor dem Hintergrund eines ständig wachsenden Informationsangebotes liegt eine zentrale Herausforderung des Agentenansatzes in der Informationsselektion, -filterung und -aufbereitung. Im Gegensatz zu konventionellen -» Suchmaschinen, wie z. B. Yahoo oder Lycos, die unabhängig vom Benutzer immer die gleichen Informationen bei bestimmten Suchbegriffen liefern, können Softwareagenten dem Kunden individuelle (z.B. Produkt-) Informationen - abhängig von seinen Zielen - präsentieren. Basis hierfür ist die lernende Beobachtung des Such- und Selektionsverhaltens des Nutzers. Auf elektronischen Märkten können die persönlichen Präferenzen des (menschlichen) Marktteilnehmers im Agenten abgebildet werden, um die Informationsund/oder die Vereinbarungsphase des Marktprozesses zu unterstützen. Im Rahmen der Informationssuche zu Produkten existieren unter der Bezeichnung Shopbots bereits verschiedene Agentenansätze wie die Systeme B A R G A I N F I N D E R (Internet: http://bf.cstar.ac.com/bf) oder J A N G O (Internet: http://www.jango.excite.com). Diese Agenten werden vom Benutzer 697
Softwareagenten beauftragt, Produktinformationen und -preise simultan aus einer großen Menge von Anbieter-Web-Seiten bzw. ProduktDatenbanken zu ermitteln, um eine zeitintensive und teure Suche des Benutzers zu vermeiden. Ein zentrales Problem bei der Umsetzung stellt jedoch die hiermit verbundene Markttransparenz dar. Diese führt - insbesondere bei den Anbietern hochstandardisierter Produkte wie CDs oder Bücher - zu einem intensiven Preiswettbewerb und oftmals auch der Ablehnung agentenbasierter Suchsysteme auf den eigenen Seiten. Über die reine Produktsuche hinaus existieren auch Prototypen, die im Auftrag ihres Benutzers ("pro-") aktiv Käufe und Verkäufe durchführen, indem sie Verhandlungen bezüglich der Gütereigenschaften ohne Interaktion des Benutzers führen und auch als Bietassistenten bei ->• Internet-Auktionen fungieren. Hier sind die Projekte KASBAH (Weiterentwicklung TET@TET) aus der Forschergruppe um P. Maes am MIT Media Lab, Cambridge, sowie für den Handel mit Wertpapieren das Forschungsprojekt AMTRAS (Agent Mediated Trading System) (vgl. Weinhardt/Gomber 1999) der Projektpartner Deutsche Börse AG, Compaq, living systems AG und der Professur BWL-Wirtschaftsinformatik der Uni Gießen zu nennen. Mit diesem agentenbasierten elektronischen Handelssystem wurde eine Alternative zum existierenden Broker- bzw. Telefonhandel geschaffen (Gomber 2000). Auch zur Koordination inner- und überbetrieblicher Planungsaufgaben, z. B. im Bereich des -> SupplyChain-Managements, werden Softwareagenten in zahlreichen Forschungsprojekten eingesetzt. Ein besonderer Schwerpunkt der zukünftigen Forschungsarbeit im Themengebiet Softwareagenten liegt im Bereich der Agent Communication Languages (ACL). Diese stellen ein standardisiertes Begriffssystem und eine formale Semantik für den Austausch von Nachrichten unter 698
Sortimentspolitik Bezugnahme auf eine ihnen gemeinsam bekannte Ontologie bereit, die auch unter heterogenen Agenten verwendbar ist. Die bedeutendsten Kommunikationssprachen sind KQML (Knowledge Query Manipulation Language) und die ACL der Foundation for Intelligent Physical Agents (FIPA). Literatur: The Guardian, March 12th, 1992; Maes, P.: Artificial Life meets Entertainment, in: Communications of the ACM 38 (1995) 11, S. 108114; Franklin, S./Graesser, A.: Is it an Agent, or just a Program?, in: Müller, J.P.AVooldridge, M.J./Jennings, N.R. (Hrsg.): Intelligent Agents III, ECAI'96 Workshop Proceedings, S. 21-35, Berlin et al. 1997; Jennings, N.R.AVooldridge, M.J.: Software Agents, in: IEEE Review 1996; Wooldridge, M.J./Jennings, N.R. (Hrsg.): Intelligent Agents: Theories, Architectures and Languages, Berlin et al. 1995; Lohmann, M.: Dynamische Ressourcenallokation in verteilten Systemen, Frankfurt a.M. 1999; Weinhardt, Ch./Gomber, P.: Elektronisierung des außerbörslichen Wertpapierhandels, in: Wirtschaftsinformatik 41 (1999) 6, S. 516-525; Gomber, P./Budimir, M./Kosciankowski, K./Urtheil, R./Lohmann, M./Nopper, N./Henning, P.: Agenten-basierter Rentenhandel, in: Wirtschaftsinformatik 41 (1999) 2, S. 124-131; Gomber, P.: Elektronische Handelssysteme - Innovative Konzepte und Technologien im Wertpapierhandel, Physica Verlag, Heidelberg, 2000.
Christof Weinhardt/Peter Gomber Softwarewerkzeuge Modellierungssysteme Sollzinssatzmethode -> Investitionsrechnung Sortenfertigung Sortenfertigung liegt vor, wenn verschiedene Produkte, die allerdings alle einer Produktgattung angehören, in großer Stückzahl gefertigt werden. Typischerweise sind die so erstellten Produkte unkompliziert und unterscheiden sich lediglich in ihren Abmessungen oder Qualitäten. Ein typisches Beispiel ist Bier mit seinen Sorten Pilsner, Helles, Hefeweizenbier trüb/kristallklar (Weißbier) usw. Sortimentspolitik Sortimentspolitik umfasst in einer engen Begriffsinterpretation alle Entscheidungen, die sich auf Struktur und mengen-
Sortimentspolitik mäßige Zusammensetzung des Warenund Dienstleistungsangebots eines Unternehmens beziehen. Bei diverifizierten Unternehmen bezieht sich der Begriff Sortiment auf die Angebotsleistung eines einzelnen Geschäftsfelds. Das Sortiment ist nicht mit dem Produktionsprogramm gleichzusetzen; vielmehr können zugekaufte Produkte (Handelsware) das Produktionsprogramm eines Herstellers erweitern (Herstellersortiment). Der externe Bezug der Produkte im Sortiment gilt mit der Ausnahme von selbsterstellten -> Gattungsmarken - in besonderem Umfang für den Handel. In einer weiten Auffassung zählen zur Sortimentspolitik alle Marketingentscheidungen, die aus Sicht des Gesamtsortiments getroffen werden. Zielsetzung ist es hierbei, mit Marketingaktivitäten nicht den Gewinn eines einzelnen Produkts, sondern den Gesamtgewinn des Sortiments zu optimieren. Diese sortimentsbezogene Sichtweise des -> Marketing-Mix besitzt dann Bedeutung, wenn zwischen Produkten im Sortiment absatzbezogene Interdependenzen (Sortimentsverbund) bestehen. In dieser weiten Auffassung ist Sortimentspolitik die Aufgabe aller Marketingbereiche (z.B. sortimentsbezogene Preispolitik). Die hierarchische Strukturierung eines Sortiments unterscheidet sich begrifflich zwischen Hersteller und Handel. Ein Herstellersortiment besteht in der Regel aus mehreren Produktlinien, die jeweils eine spezifische Produkt-Markt-Kombination darstellen: So fuhrt ein Hersteller im Geschäftsfeld "Bodenbelag" bspw. die Produktlinien Holz-, Kunststoff-, Teppichböden, Keramik, Industrietextilien und Folien. Innerhalb einer Produktlinie decken dann verschiedene Produktvarianten (Artikel) die differenzierten Nachfrageransprüche ab. Die Produktvarianten können sich hierbei im Leistungsumfang, Geschmack (Muster), Ausstattung, Packungs- oder Konfektionsgrößen unterscheiden. Konsumgüterhersteller fuhren
Sortimentspolitik innerhalb einer Produktlinie oft mehrere Marken (Mehrmarkenstrategie), die jeweils eine unterschiedliche Preis-/Qualitätsposition einnehmen, was auch zur Einteilung in Premium-, Zweit- und Drittmarken fuhrt. Handelssortimente werden begrifflich - in absteigender Sortimentshierarchie - in Warenbereiche (z.B. Lebensmittel), Warengruppen (z.B. Getränke), Sorten bzw. Artikelgruppen (z.B. Fruchtsäfte) und schließlich in die einzelnen Artikel (Orangensaft der Marke XY, 0,51) unterteilt. Hinsichtlich der Zusammensetzung des Produktangebots impliziert die Sortimentspolitik die unternehmensstrategische Entscheidung, ob sich eine Geschäftseinheit als Universal- oder Spezialanbieter am Markt positionieren will: Im ersten Fall umfasst das Sortiment relativ viele Produktlinien (Warengruppen), die aber nur relativ wenige Varianten (unterschiedliche Marken) aufweisen (breites und flaches Sortiment). Im zweiten Fall werden relativ wenige Produktlinien angeboten, die aber mit einer relativ großen Variantenzahl sehr differenzierten Nachfragerwünschen entsprechen (schmales und tiefes Sortiment). Die Sortimentspolitik verfolgt eine Makro-Sichtweise innerhalb der Produktpolitik: Während Fragestellungen wie die Produktgestaltung, -differenzierung (-> Variantenbildung) oder Produktelimination einzelne Elemente (Teilmengen) innerhalb des Leistungsprogramms betreffen und damit Aufgabe von Produkt(linien-)managern sind, beschäftigt sich die Sortimentspolitik mit der marktattraktiven Zusammenstellung des Gesamtangebots. In diesem Sinn hat die Sortimentspolitik auch die preis-, kommunikations- und distributionspolitische Positionierung der einzelnen Sortimentsteile (Produktlinien; Warengruppen) festzulegen. Hierbei lässt sich eine heterogene und eine homogene Positionierung unterscheiden: Im ersten Fall sehen 699
Sortimentspolitik die Nachfrager die Sortimentsteile (Produktlinien; Artikel) eines Anbieters als relativ isoliert voneinander an, da es ihnen unbekannt ist, dass verschiedene Produkte zum Sortiment eines Anbieters gehören. In diesem Fall können die Sortimentsteile durchaus eine unterschiedliche Positionierung erhalten, wie dies bei der Mehrmarkenstrategie der Fall ist. Wird ein Sortiment aus verschiedenen Produktlinien dagegen als "Einheit" von den Nachfragern empfunden, was vor allem für den Handel gilt, erscheint nur eine einheitliche (homogene) Positionierung der Produktlinien (Warengruppen) glaubhaft. Aus wettbewerbsstrategischer Sicht ist im Rahmen der Sortimentspolitik schließlich festzulegen, ob mit dem Angebot bestimmter Produkte der Wettbewerb zu den Konkurrenten gesucht oder gemieden bzw. ein Anpassungsverhalten an den Marktführer vollzogen werden soll. Das Sortiment ist nicht als lose Anhäufung von Artikeln zu verstehen, da Marketingmaßnahmen für ein Produkt zugleich den Absatz anderer Produkte im Sortiment beeinflussen können (Sortimentsverbund). Diese Ausstrahlungswirkungen einer Marketingaktion (sog. Sekundäreffekte) sind bei sortimentsbezogener Optimierung des Marketing-Mix zu beachten: Geht mit der Marketingaktion für ein Produkt i eine Absatzminderung (Absatzsteigerung) des Produkts j im Sortiment einher, liegt ein substitutiver (komplementärer) Sortimentsverbund vor. Diese Interdependenz kann auf Artikelebene, aber auch zwischen Produktlinien (Warengruppen) auftreten. Bei einem substitutiven Sortimentsverbund geht die Absatzförderung eines Produkts bspw. durch eine Preisreduzierung oder eine Werbeaktion zu Lasten anderer Produkte: Nachfrager führen einen Markenwechsel bzw. Varianten- oder Produktlinienwechsel durch (-> Kannibalisierung). Neben einer solchen Umschichtung der Nachfrage kann eine Mar700
Sortimentspolitik ketingaktion aber auch einen Frequenzeffekt auslösen: Nachfrager (Laufkunden) erwerben das aktionierte Produkt, die ansonsten überhaupt nicht bei diesem Anbieter einen Kauf getätigt hätten. Aus Sortimentssicht liegt dann trotz substitutiven Sortimentsverbunds kein "Nullsummenspiel", sondern eine Markterweiterung vor. Die Ursachen eines komplementären Sortimentsverbunds sind differenzierter: Zum einen kann ein Verwendungsverbund zwischen Artikeln des Sortiments bestehen: Wer Produkt i konsumieren/nutzen will, braucht auch Produkt j, so dass Folgekäufe auftreten. Dieser Effekt ist zumeist warengruppen(produktlinien-) übergreifend. Hieraus folgt fiir die Sortimentspolitik die Überlegung, welche solcher komplementären Waren und Dienstleistungen zum bisherigen Basisgeschäft angeboten werden können. Im Bereich des Industriegütermarketings ist dies als -> System-Selling bekannt. Im Handel führen solche komplementären Verwendungsbeziehungen zu einer warengruppenübergreifenden Platzierung und Bewerbung von Produkten, die zusammen die Lösung eines komplexen Konsumproblems darstellen (z.B. "Alles für den Schulanfang" mit entsprechenden Produkten aus dem Bekleidungs-, Schreibwaren- und Bücherbereich). Eine Entsprechung findet diese nachfrageorientierte Sortimentsgliederung im sog. -» Category Management zwischen Hersteller und Handel. Neben dem Verwendungsverbund kann eine komplementäre Sortimentsbeziehung auch durch kommunikationspolitische Ausstrahlungseffekte ausgelöst werden: Hier rückt ein beworbener Artikel (Produktlinie) auch andere Sortimentsteile stärker in das Bewusstsein der Nachfrager (Spill Over Effekt) bzw. das Image des beworbenen Artikels überträgt sich auf andere Produkte im Sortiment. Dadurch profitieren auch diese Artikel (Produktli-
Sozialplan
Sortimentspolitik nien) von der Werbeaktion. Aufgabe der Sortimentspolitik ist es daher, solche kommunikationspolitisch auffälligen Produkte zu identifizieren, um mit einer gezielten Bewerbung dieser Zugpferde einer Verzettelung der Werbeaktivitäten im Sortiment ("Gießkannenprinzip") vorzubeugen. Hinsichtlich der -> Preispolitik gibt die sog. Niehans-Bedingung eine Aussage über die sortimentsbezogen gewinnoptimalen Preise: Demnach ist im Vergleich zum fehlenden Sortimentsverbund bei komplementärer (substitutiver) Interdependenz ein niedrigerer (höherer) Preis für das Produkt, das den Verbund auslöst, anzusetzen. Analog liegt die gewinnoptimale Werberate (Anteil des Werbebudgets am Umsatz) für Produkte mit komplementärer (substitutiver) Sortimentswirkung höher (niedriger) als im Fall der unverbundenen Nachfrage. Neben dieser Gestaltungsfunktion besitzt die Sortimentspolitik eine Controllingaufgabe: Sie liefert eine Unterstützung bei produktpolitischen Entscheidungen innerhalb einer Produktlinie (z.B. Produktelimination) durch die Berücksichtigung möglicher Sortimentsinterdependenzen, die bei einer isolierten produktlinienbezogenen Betrachtung nicht beachtet werden. Daneben beinhaltet das Sortimentscontrolling eine permanente Überprüfung der Marktattraktivität und des ökonomischen Erfolgs von Artikeln, Warengruppen (Produktlinien) mit Hilfe von produktvergleichenden Querschnittund zeitlichen Längsschnittanalysen. Beliebte Kennzahlen hierfür sind die Alters-, die Lagerumschlags-, Umsatz- bzw. Deckungsbeitragsstruktur des Sortiments (z.B. wie viel Umsatz wird mit wie viel Prozent der Produkte im Sortiment erzielt?) oder die direkte Produktrentabilität. Insbesondere bei ökonomischen Kontrollgrößen ist wiederum eine artikelübergreifende Betrachtung vorteilhaft, da viele Kosten und manche Erlöse Gemeinkosten- (Gemeinerlös-)charakter besitzen
und deshalb - verursachungsgerecht nicht einem einzelnen Artikel, sondern nur Sortimentsteilen zugeordnet werden können. "Goldene Sortimentsregeln" wie das Sortimentsgleichgewicht (jede[r] Artikel/ Produktlinie/Warengruppe soll gleich viel zum Gesamtumsatz beitragen) oder das Artikelgleichgewicht (gleicher Lagerumschlag der Artikel) erscheinen allerdings fragwürdig. Letztendlich ist ein Produkt solange im Sortiment zu belassen, wie die erzielten Deckungsbeiträge höher sind als bei einer alternativen Verwendung der Ressourcen, die dieses Produkt im Unternehmen beansprucht. Literatur: Kotler, P./Bliemel, F.: Marketing-Management, 9. Aufl., Stuttgart 1999; Diller, H. (Hrsg): Vahlens Großes Marketing Lexikon, 2. Aufl., München 2000.
Hans Pechtl Sozialplan Entstehen den von einer Betriebsänderung betroffenen Arbeitnehmern wirtschaftliche Nachteile (im Sinne von Vermögensnachteilen, z.B. durch Entlassung), so ist (zeitlich parallel) neben dem Interessenausgleich auch über einen Sozialplan zu beraten. Sozialpläne bedürfen der Schriftform, sie sind ->• Betriebsvereinbarungen besonderer Art. In zwei Ausnahmefällen muss kein Sozialplan erstellt werden: -
Das betroffene Unternehmen ist jünger als vier Jahre. Dadurch werden für Gründer Erleichterungen geschaffen.
-
Soll durch die Betriebsänderung lediglich der Personalbestand verringert werden, so ist ein Sozialplan erst aber den in § 112a Abs. 1 BetrVG genannten Größen aufzustellen.
Sozialpläne und die durch sie begründeten Individualansprüche betroffener Arbeitnehmer sind die wichtigste Konsequenz des -» Mitbestimmungsrechts in wirtschaftlichen Angelegenheiten.
701
Span of Control Span of Control Mit Span of Control oder Leitungsspanne bezeichnet man die Zahl der Mitarbeiter, die ein Vorgesetzter führen kann. Die Vorstellung einer Leitungsspanne bedingt, dass die Zahl der Geführten sich nicht beliebig erweitern lässt, weil der Führende Ziele Management by Objectives) vorgeben, Abweichungen erkennen und Maßnahmen ergreifen muss. Selbst bei weitreichender Delegation muss der Vorgesetzte zumindest den Handlungsrahmen (-> Management by Exception) des Mitarbeiters festlegen. So definiert die Span of Control den minimalen, führungsbedingten Personalbedarf höherer Hierarchie-Ebenen. Spartenorganisation Geschäftsbereichsorganisation SPC Statistische Prozesscontrolle Sperrminderheitsbeteiligungen Unternehmenszusammenschluss Spezialgeschäfte —1• Handelsformen Spieltheorie Spieltheorie beschäftigt sich mit Verhalten in strategischen Entscheidungssituationen. Strategisch sind Situationen dann, wenn mehrere Akteure (Spieler) Entscheidungen zu treffen haben und die einzelnen Spieler bei der Abschätzung der Folgen des eigenen Verhaltens die Entscheidungen der Mitspieler berücksichtigen müssen. Die Spieltheorie kennt einen kooperativen und einen nichtkooperativen Ansatz. Beide unterstellen Rationalität der Akteure. Dagegen versucht die experimentelle Spieltheorie, das tatsächliche menschliche Verhalten verstehen zu lernen. Auch wenn Experimente zeigen, dass sich Menschen in bestimmten Entscheidungssituationen typischerweise irrational verhalten, bleibt der im Folgenden skizzierte Rationalitätsansatz für jede Analyse strategi-
702
Spieltheorie scher Entscheidungssituationen zichtbar.
unver-
Die nichtkooperative Spieltheorie untersucht das individuell rationale Entscheidungsverhalten der einzelnen Spieler unter der Annahme, dass keine Mechanismen existieren, die die Einhaltung von Verträgen bindend durchsetzen können. Eine Vereinbarung wird nur dann eingehalten, wenn dies im Eigeninteresse jedes einzelnen Spielers liegt. Zur Analyse eines Spiels ist zunächst die Beschreibung der Spielsituation erforderlich. Eine Darstellungsform ist die Matrixform (vgl. Abb. 1), die die denkbaren Ergebnisse des Spiels in Abhängigkeit von den möglichen Strategiekombinationen aller Spieler angibt. Hat das Spiel eine Zeitstruktur, bietet sich eine Beschreibung in der extensiven Form anhand eines Spielbaums an. Aus ihm sind die möglichen Spielzüge der einzelnen Spieler in ihrer zeitlichen Abfolge zu erkennen (vgl. Abb.2). Ein Beispiel für ein nichtkooperatives Spiel: Lohnen sich Werbeausgaben, die geeignet sind, Nachfrage von Konkurrenten abzuziehen, die aber die Gesamtnachfrage auf dem Markt wenig berührt? Jedes der beiden Unternehmen A und B kann zwischen zwei Strategien wählen: entweder einen Werbefeldzug (W) für das eigene Produkt antreten oder darauf verzichten (NW). In Abbildung 1 sind die Gewinne beider Unternehmen (GA,GB) als Resultat der vier möglichen Strategiekombinationen eingezeichnet. Falls beide Unternehmen um ihre Produkte werben, betragen die Gewinne (5,5). Weil die Gesamtnachfrage im Markt recht starr ist, würden sich diese Gewinne ohne Werbung wegen der Kosteneinsparung auf (10,10) erhöhen. Es scheint also sinnvoll, eine Absprache abzuschließen, den Feldzug zu unterlassen. Allerdings hat jedes der beiden Unternehmen einen Anreiz, von der Absprache abzuweichen: Unabhängig davon, ob sich der Konkurrent an sie hält, sichert ihm ein Bruch der Absprache einen größeren Teil der
Spieltbeorie
Spieltheorie Marktnachfrage. Hält sich etwa B an die Absprache, erhöht sich der Gewinn von A durch absprachewidrige Wahl der Strategie W von G a = 1 0 auf G A =15. Weicht auch B ab, so erhöht er sich von 0 auf 5. Entsprechendes gilt aus Sicht von B. Unternehmen B
Unternehmen A
W NW
W (5,5) (0,15)
NW (15,0) (10,10)
Abb. 1: Matrixform zur Darstellung eines Spiels
Im betrachteten Spiel ist es eine dominante Strategie, nicht zu kooperieren: Gleichgültig, welche Strategie der Gegenspieler wählt, bringt W immer einen höheren Gewinn als N W . Nur die Kombination (W, W ) ist ein Gleichgewicht, obwohl beide Unternehmen besser gestellt wären, wenn sie kooperierten. Diese Spielsituation bezeichnet man als Gefangenendilemma. In den meisten Spielen gibt es jedoch keine dominanten Strategien: Es ist für strategische Entscheidungssituationen j a gerade typisch, dass die individuell optimale Strategie vom Verhalten der anderen Spieler abhängt. John Nash (1950) entwickelte für solche Spiele ein allgemeines Lösungskonzept, das sog. NashGleichgewicht. Ein Nash-Gleichgewicht ist dadurch charakterisiert, dass die Strategien der einzelnen Spieler wechselseitig beste Antworten darstellen: Kein Spieler darf einen Anreiz haben, von seiner eigenen Strategie abzuweichen, sofern sich alle anderen an die betrachteten Strategiekombinationen halten. Nash wies nach, dass unter relativ allgemeinen Bedingungen ein Gleichgewicht existiert. Bisweilen ist dies ein Gleichgewicht in gemischten Strategien: einzelne Spieler entscheiden dann mit Hilfe eines Zufallsmechanismus. Häufig existieren aber in einem Spiel mehrere Nash-Gleichgewichte, von denen manche unplausibel sind. Konzepte zur Verfeinerung des Nash-Gleichgewichtes
versuchen, solche Gleichgewichte auszuschließen. Ein wegweisender Beitrag hierfür ist die Arbeit von Reinhard Selten (1965) über teilspielperfekte Gleichgewichte. Zur Illustration ein einfaches Markteintrittsspiel (Abb.2): Ein etablierter Monopolist M ist mit der Gefahr des Markteintritts eines potenziellen Konkurrenten K konfrontiert. Sobald K in den Markt eingetreten ist, hat der Monopolist zwei Alternativen. Er kann entweder einen aggressiven Preiskampf (P) durchführen, der beiden Anbietern einen Verlust von -10 zufügt, oder er kann in eine friedliche Marktteilung (T) einwilligen, die beiden den Duopolgewinn 40 ermöglicht. K ' s Entscheidung, ob er in den Markt eintritt (B) oder nicht (N), hängt von seiner Erwartung über das spätere Verhalten von M ab. Bleibt er dem Markt fern (N), kann sich M den Monopolgewinn 100 sichern, während K leer ausgeht (mit einer Auszahlung in Höhe von 0). Die Entscheidungssituation lässt sich in extensiver Form durch folgenden Spielbaum darstellen:
Abb. 2: Markteintrittsspiel
A m ersten Knoten entscheidet K, ob er in den Markt eintritt; am zweiten entscheidet dann M, ob er kämpft. Im Markteintrittsspiel (Abb. 2) hat M ein starkes Interesse daran, mit einem Preiskampf zu drohen, um so K vom Markteintritt abzuhalten. Schenkt K der Drohung Glauben, dann bleibt er dem Markt fern; unter der Voraussetzung, dass K nicht eintritt, ist es wiederum für den 703
Spieltheorie Monopolisten optimal, mit dem Preiskampf zu drohen. Die Kombination (N, P) ist also ein Nash-Gleichgewicht. Dieses Gleichgewicht ist aber nicht plausibel: Sobald K in den Markt eintritt, sind die vorher angekündigten Drohungen irrelevant. Für das Teilspiel, das im Knotenpunkt M beginnt, besteht die einzig rationale Wahl von M in der Marktteilung T. Spieler K kann vorhersehen, dass M von der Strategie P abweichen wird, falls K doch in den Markt eintritt. Weil sich K dann besser stellt als bei Nichteintritt, wird er B und der Monopolist T wählen. Selten (1965) fordert, ein Gleichgewicht sollte in folgendem Sinn perfekt sein: Es darf für keinen Spieler optimal sein, an irgendeinem Teilspiel, das an einem beliebigen Knoten des Spielbaums beginnt, von der Gleichgewichtsstrategie abzuweichen. Teilspielperfektheit ist ein stärkeres Konzept als das Nash-Gleichgewicht, weil es auch optimales Verhalten für Züge außerhalb des betrachteten Gleichgewichtspfades verlangt: Im betrachteten Beispiel ist nur das Gleichgewicht (E, T) teilspielperfekt. Die Forderung nach Teilspielperfektheit führt hier also zu einem eindeutigen Gleichgewicht. Die Abschreckungsstrategie ist eine leere Drohung; sie ist nicht glaubwürdig. In komplexeren Spielsituationen, insbesondere in Spielen mit unvollständiger Information, werden weitere Verfeinerungen des Nash-Gleichgewichts (etwa das Konzept der Trembling hand oder das sequentielle Gleichgewicht) zur Eliminierung unplausibler Gleichgewichte verwendet. Gerade zur Analyse von Situationen mit unvollständiger Information liefert die Spieltheorie wegweisende Beiträge. John C. Harsanyi (1967/68) entwickelte (als Verallgemeinerung des NashGleichgewichtes) das Konzept des Bayes'schen Gleichgewichts, mit dessen Hilfe das Ausnutzen strategischer Informationsvorteile analysiert werden kann. Die kooperative Spieltheorie untersucht im Unterschied zur nichtkoopertiven 704
Spieltheorie Spieltheorie Situationen, in denen die Spieler bindende Vereinbarungen treffen können. Sie geht davon aus, dass exogene Mechanismen die Einhaltung der Verträge durchsetzbar machen, und untersucht, welche Lösungen als Ergebnis von Kooperation zu erwarten sind. Die Lösung hängt zum einen davon ab, welches Ergebnis ohne Kooperation zu Stande käme (dem Konflikt- oder Drohpunkt), zum anderen von der Verhandlungsstärke der beteiligten Spieler. Die kooperative Spieltheorie geht in der Regel axiomatisch vor: Sie formuliert bestimmte (mehr oder weniger) plausible Anforderungen, die jede Verhandlungslösung - unabhängig von konkreten institutionellen Details - erfüllen sollte, wie etwa: 1. individuelle Rationalität (jeder einzelne Spieler erhält mindestens soviel, wie er für sich allein ohne Kooperation erreichen könnte), 2. Paretoeffizienz (bei der Verhandlungslösung kann keiner sich besser stellen, ohne einen anderen Spieler schlechter zu stellen). Je nachdem, welche weiteren Axiome dem Verhandlungsspiel zu Grunde gelegt werden, erhält man unterschiedliche Lösungen (etwa die Nash-Lösung, sowie bei Verhandlungen mit mehr als zwei Spielern, die untereinander koalieren können, Kern und Shapley-Wert). Die abstrakte Sprache der Spieltheorie wurde zunächst v.a. in der Industrieökonomie verwendet (vgl. Tirole 1988). Von dort fand der spieltheoretische Denkansatz Eingang in Literatur für wirtschaftliche Entscheidungsträger (vgl. Dixit/Nalebuff 1995). Mittlerweile sind spieltheoretische Methoden in allen Teilgebieten der Wirtschaftswissenschaft verbreitet. Darüber hinaus finden sie auch in anderen Wissenschaften Anwendung: So dient die evolutorische Spieltheorie (vgl. Holler/Illing (2000), Kap. 8) in der Biologie zur Erklärung von Selektionsprozessen.
Sprecherverfassung
Spieltheorie Eine sorgfältige erste Einführung in die Spieltheorie bieten Dixit/Skeath (1999). Einen guten Überblick über die Grundlagen liefern im deutschsprachigen Raum etwa die Lehrbücher von Güth (1999) und Holler/Illing (2000). Viele ökonomische Anwendungen finden sich in Gibbons (1992) und Dutta (1999). Literatur: Dixit, A./Nalebuff B.J.: Spieltheorie für Einsteiger. Strategisches K n o w H o w für Gewinner, Stuttgart 1995; Dutta, P.: Strategies and Games, Cambridge (Mass.) 1999; Gibbons, R.: A Primer in G a m e Theory, N e w York u.a. 1992; Güth, W.: Spieltheorie und ökonomische (Bei)Spiele, Berlin u.a. 1999; Holler, M./Illing, G.: Einführung in die Spieltheorie, Berlin u.a. 2000; Kagel, J./Roth A. (Hrsg.): The Handbook of Experimental Economics, Princeton 1997; McMillan, J.: Games, Strategies, and Managers, Oxford 1996; Myerson, R.: Game Theory, Analysis of Conflict, Cambridge (Mass.) 1997; Nash, J.: Equilibrium Points in N-Person Games, in: Proceedings of the National Academy of Sciences of the USA, 36, 1950, S . 4 8 ^ t 9 ; Tirole, J.: The Theory of Industrial Organization, Cambridge (Mass.) 1988.
Gerhard Illing Spill-Over-Effekte Unter Spill-Over-Effekt versteht man im -» Marketing den Einfluss eines Produktes auf ein anderes, beispielsweise in Form eines Imagetransfers. Die Auswirkungen können sowohl negativer als auch positiver Art sein. So kann ein positives Image eines Produktes sich auf den Produzenten übertragen, und somit wird jedes weitere Produkt dieses Herstellers als positiv bewertet (-> Corporate Identity). Spin-Off -> Unternehmensspaltung Sponsoring Beim Sponsoring handelt es sich um eine finanzielle Unterstützung für Personen, Ereignisse und Medien gegen Nennung des Namens oder Produkts des Sponsors zu Werbezwecken. Ziele der Unternehmen sind vor allem die Erhöhung des Bekanntheitsgrades und ein positiver Imagetransfer. Die Einsatzmöglichkeiten liegen im
sportlichen (Sport-Sponsoring), kulturellen (Kultur-Sponsoring) und sozialen und ökologischen Bereich (Sozio-Sponsoring). Auch das Programmsponsoring im Fernsehen gewinnt immer mehr an Bedeutung. Darunter ist das Sponsoring von Fernsehübertragungen oder einzelner Sendungen und Serien zu verstehen, deren Ausstrahlung von Unternehmen mitfinanziert wird. Zum Bereich SportSponsoring zählt beispielsweise die Finanzierung von Sportereignissen, bei denen ein positiver Imagetransfer auf das sponsorende Unternehmen angestrebt wird. Durch Sozio-Sponsoring wird dem Sponsor Gelegenheit gegeben, die gesellschafts- und sozialpolitische Verantwortung des Unternehmens in der Öffentlichkeit zu demonstrieren. Sprecherverfassung Das Betriebsverfassungsgesetz gilt nicht für ->• Leitende Angestellte. Sie unterliegen der "Sprecherverfassung", kodifiziert im Sprecherausschussgesetz (SprAuG). Das SprAuG unterscheidet sich vom Betriebsverfassungsgesetz im Wesentlichen in zwei Punkten: 1) Die Organe der Sprecherverfassung (Ausschüsse) haben nur -> Mitwirkungsrechte, nicht jedoch -> Mitbestimmungsrechte. 2) Die Mitglieder von Sprecherausschüssen haben - im Vergleich zu ähnlichen Postionen im Betriebsverfassungsrecht - eine schwächere Rechtsstellung inne. So gibt es z.B. keinen Sonderkündigungsschutz. Hat ein Betrieb mehr als neun leitende Angestellte, so ist ein Sprecherausschuss wählbar. Gibt es in einem Unternehmen keinen Betrieb dieser Art, sind aber in allen Betrieben des Unternehmens zusammengenommen mehr als neun leitende Angestellte beschäftigt, ist ein Unternehmenssprecherausschuss wählbar. Im ersten Fall vertritt der Ausschuss die leitenden Angestellten des Betriebs, im
705
Stabsorganisation
Sprecherverfassung zweiten Fall alle leitenden Angestellten des Unternehmens.
und Konzernstäbe sowie die Ministerialbürokratie auf Bundes- und Landesebene.
Für die Zusammenarbeit mit dem Arbeitgeber gilt, dass diese vertrauensvoll, zum Wohl des Betriebs und der Angestellten, frei von politischer Betätigung und frei von Störungen des Betriebsablaufs zu erfolgen hat.
Gründe für die Einrichtung von Stäben sind vor allem die Gefahr der Arbeits-, Detail- und Situationsüberlastung der Linieninstanz, ergänzt um Wissens- und Fähigkeitsbegrenzungen. Auch die Notwendigkeit einer strategischen Orientierung etwa durch eine langfristige Ziel-, Eventual- und Szenarioplanung (-»Szenario-Technik) spricht für eine Stabsorganisation. Nicht nur bei der Entscheidungsvorbereitung kommen Stäbe zum Einsatz, sondern auch beim Einsatz neuer Erkenntnisse und Problemlösemethoden zur Sicherung hoher Entscheidungsqualität, bei der Umsetzung von Beschlüssen, bei der Koordination von Projekten, im Rahmen der -» Personalentwicklung, in der Öffentlichkeitsarbeit und bei Kontrollaufgaben. Insofern relativiert sich das (zu) einfache Bild von der reinen Konsultationskompetenz des Stabes.
Der Sprecherausschuss kann Vereinbarungen mit und ohne normative Wirkung für die leitenden Angestellten abschließen. Diese sind analog zur Regelungsabrede bzw. Betriebsvereinbarung auf Ebene des BetrVG konstruiert. Sprungfixe Kosten Kostenarten SPV -> Statistische Versuchsplanung Stab-Linien-Organisation Organisationsformen, tionsstruktur
-» Organisa-
Stabsorganisation Stäbe besitzen in der Geschichte systematischer Organisationsgestaltung eine lange Tradition. Erste Ansätze der Stabsorganisation reichen bis in die Antike zurück. Dort entwickelte sich im Schnittfeld von militärischer und politischer Führung die Grundidee der Leitungsassistenz. Zwischen Leitungsstellen oder Instanzen einerseits und Ausfuhrungsoder Vollzugsstellen andererseits wurden Stabsstellen und ganze Stabsstrukturen geschaffen mit der ausschließlichen Kompetenz zur Information und Beratung der Instanzen. Auffallendes Merkmal jeder Art von Stabsorganisation ist, dass ihre strukturelle Ausgestaltung und Bedeutung um so höher sind, je stärker die jeweils maßgebende Leitungsposition personell geprägt und gebunden ist. Das gilt für Herrscher und Feldherren der Geschichte, für Kirchenführer sowie für Firmenleiter und Minister der Gegenwart. Die bekanntesten Formen sind dementsprechend die militärische Stabsorganisation, die Kurie des Vatikans, Vorstands706
Die wesentlichsten Schwierigkeiten der Stabsarbeit verbinden sich mit recht grundsätzlichen Fragen wie Macht und Verantwortung, mit der Balance von Wissen und Erfahrung sowie mit den Problemen von -» Motivation und Aufstieg: Stäbe verfugen durch ihre speziellen Kenntnisse über ein hohes Maß an Einfluss. Vielfach lässt sich eine Entscheidungsvorlage durch Dritte nicht mehr überprüfen. Dies kann zu einer inhaltlichen und methodischen Abhängigkeit der Linieninstanz von ihrer Stabsstelle führen. Damit verwischen naturgemäß die Grenzen der Verantwortung zwischen den entscheidungsbeteiligten Einheiten. Ein Versuch, diese Abhängigkeit zu mindern, besteht in der Verpflichtung des Stabes, grundsätzlich alternative Vorschläge zu erarbeiten. Im Gegensatz dazu akzeptiert das Prinzip des sog. "Completed Staffwork" diese Abhängigkeit und fordert ausdrücklich die Präsentation einer einzigen Alternative, diese allerdings exzellent begründet.
Stakeholder-Ansatz
Stabsorganisation Anders als in militärischen und klerikalen Stäben unterscheiden sich die fachlichen Karrieren der Inhaber von Linien- und Stabsstellen in Unternehmen deutlich voneinander: In der Regel bestehen hier Stäbe aus jüngeren, meist akademisch ausgebildeten Experten, Linienpositionen sind demgegenüber meist mit langjährig erfahrenen Führungskräften besetzt. Dies kann zu Spannungen fuhren, die sich aus der unterschiedlichen Arbeitsgrundlage und Vorgehensweise sowie der wechselseitigen Bewertung von Wissen und Erfahrung ergeben. Da die Linienstellen nicht verpflichtet sind, sich die Stabsvorlagen zu eigen zu machen, können mangels Akzeptanz Motivationsprobleme der Stabsmitglieder entstehen. Damit in Verbindung steht das Problem des betrieblichen Aufstiegs und des Wechsels von Stabsstellen in Linienpositionen. Je strikter und unterschiedlicher die berufliche Entwicklung von Mitarbeitern in Stabs- und Linienstellen sind, um so gravierender sind derartige Schwierigkeiten. Als Lösung bietet sich hier, wie in militärischen Stäben stets üblich, ein systematisches -» Job Rotation an. Auf diese Weise wird der vermeintliche oder tatsächliche Unterschied zwischen Wissen und Erfahrung aufgehoben. Vor allem aber entsteht Verständnis und Respekt für die jeweils andere Sichtweise und Handhabung. Damit werden gleichzeitig die erwähnten Motivations- und Aufstiegsprobleme überwunden oder doch zumindest gemindert. Rolf Bronner Staketaolder-Ansatz 1. Der Stakeholder-Ansatz im Überblick Der Stakeholder-Ansatz steht in der Tradition interessenpluralistischer Unternehmenstheorien. Im Stakeholder-Ansatz sehen sich Organisationen mit einer Vielzahl von Anspruchsgruppen ("Stakeholdern") konfrontiert, die Einfluss auf das Verhalten der Organisation nehmen wollen. Organisationen gelingt der Bestandserhalt nur dann - so die These - , wenn
rechtzeitig und in geeigneter Weise auf die vorgetragenen Ansprüche reagiert wird. Der systematische Einbezug dieser Forderungen im Rahmen der Systemsteuerung und die Gestaltung der Beziehungen zu den Stakeholdern wird unter dem Stichwort -> "Stakeholder-Management" diskutiert. 2. Verhältnis von Organisation und Umwelt als Basisproblem Die Ausgangsidee ist systemtheoretisch: Ein System muss sich in einer komplexen Umwelt bewähren, sich ihr gegenüber abgrenzen und zugleich die Umweltanforderungen in geeigneter Weise bearbeiten. Im Stakeholder-Ansatz gilt speziell, dass die Voraussetzung für den Existenzerhalt und die Handlungsfähigkeit einer Organisation zunächst einmal die Schaffung und Sicherung einer Legitimitätsgrundlage ist, d.h. der Organisation muss es gelingen, die Akzeptanz der Umwelt zu gewinnen. Aufbauend auf dieser Legitimität und innerhalb des damit gesellschaftlich zugestandenen Verhaltensspielraums sind dann in einem zweiten Schritt die sich in der Interaktion mit der Umwelt bietenden Chancen und Risiken durch geeignete Maßnahmen zu nutzen (Parsons 1960, Freeman 1984). Der Stakeholder-Ansatz thematisiert die Umwelt nicht als anonyme Kraft, sondern als aus einer Vielzahl von Anspruchsgruppen bestehend, der Organisation/ Umwelt-Bezug wird als Interaktion der Organisation mit Anspruchsgruppen in der Umwelt konzeptionalisiert (Schreyögg 1999, Dyllick 1989), deren Ziel der erwähnte Legitimitätsaufbau ist. Als Legitimität kann dabei die generalisierte Wahrnehmung verstanden werden, dass die Handlungen einer Organisation erwünscht, richtig oder Eingemessen innerhalb eines sozialen Systems von Normen und Werten sind, wobei drei verschiedene Arten von Legitimität unterschieden werden können: Pragmatische, moralische und kognitive Legitimität. Pragmatische Legitimität erwirbt eine Organisation 707
Stakeholder-Ansatz
Stakeholder-Ansatz
durch die Fähigkeit und Bereitschaft, die Eigeninteressen von bestimmten Anspruchsgruppen direkt oder indirekt zu fördern; der Logik der Tauschgerechtigkeit folgend gestehen diese im Austausch für diesen unmittel- oder mittelbaren Nutzen der Organisation ein gewisses Maß an Akzeptanz zu. Eine enge Verwandtschaft dieser Argumentation zur AnreizBeitrags-Theorie von March und Simon (1958) ist unübersehbar. Moralische Legitimität bezieht sich demgegenüber auf die normative Bewertung der Handlungen einer Organisation. Nur wenn eine Organisation darlegen kann, dass ihre Aktivitäten, ihre Strukturen, ihre Technologie und ihre Mitglieder im Einklang mit gesellschaftlichen Werten und Normen stehen, wird ihr von ihrer Umwelt Legitimität zugestanden. Dabei gilt es zu beachten, dass hier von einer Bewertung der Begründungen und Verhaltensweisen ausgegangen wird (Steinmann/Löhr 1994), reine Lippenbekenntnisse können deshalb nicht zu dauerhaftem Aufbau moralischer Legitimität führen. Kognitive Legitimität schließlich betont die Notwendigkeit, dass die Handlungen einer Organisation aus Sicht des Beobachters also vor dem Hintergrund erworbener kognitiver Wahrnehmungsmuster - Sinn
Abbildung
708
I: Mögliche Anspruchsgruppen
ergeben müssen und in gewissem Ausmaß vorhersehbar sind. Mit anderen Worten, das Orientierungsmuster der Organisation muss im Markt und in der Gesellschaft anschlussfähig sein. Stakeholder sind im Rahmen des Stakeholder-Managements nicht allein als Bedrohung und unnachgiebig fordernde Macht anzusehen, sondern auch als Quelle von Chancen. So können Kundenreklamationen die Entwicklung neuer Produkte fördern, ökologisch verträgliche Fertigung kann zur Quelle von Wettbewerbsvorteilen werden, Mitwirkung an sozialen Programmen kann regulierenden Eingriffen vorbeugen usw. 3. Identifizierung von Stakeholdern Wer sind die Stakeholder einer Organisation, und welche von ihnen sind insbesondere zu beachten? Generell gesagt sollen als Stakeholder einer Organisation alle Gruppen oder Personen verstanden werden, die die Zielerreichung der Organisation beeinflussen können oder die durch deren Zielerreichung betroffen sind - wobei unter den Gruppenbegriff auch Ortsverbände, Organisationen, Institutionen und Regierungen fallen (Mitchell et al. 1997, Freeman 1984). Abbildung 1 zeigt auszugsweise die Vielfalt möglicher
der Organisation (Quelle: Freeman 1984, S. 25,
modifiziert).
Stakeholder-Ansatz
Stakeholder-Ansatz
Anspruchsgruppen, die als (potenziell) relevant fiir die Wahrnehmung von Managementaufgaben angesehen werden. Da eine solche Liste jedoch niemals als abgeschlossen betrachtet werden kann und die dort genannten Stakeholder jeweils wieder als Oberkategorien zu betrachten sind, unter die eine Vielzahl von Stakeholdem gruppiert werden können, wie z.B. Aktionärsgruppen mit konfligierenden Ansprüchen (Freeman 1984), ist ein methodisches Verfahren vonnöten, das Orientierungshilfe bei der Einschätzung leisten kann, welche Bedeutung die einzelnen Stakeholder für die Organisation besitzen und in Zukunft besitzen könnten. In jüngerer Zeit wurden speziell hierzu Methoden entwickelt (Mitchell et al. 1997). Diesen Vorschlägen nach sollte die relative Bedeutung der Stakeholder fur die Organisation auf den Dimensionen Macht, Legitimität und Dringlichkeit gemessen werden. Demnach soll gelten: Ist ein Stakeholder in der Lage, eine Organisation zu Handlungen zu bringen, die sie ohne den Einfluss des Stakeholders nicht ausgeübt hätte, hat er Macht. Werden seine Handlungen als erwünscht, richtig oder angemessen innerhalb des gesellschaftlich etablierten Normensystems angesehen, verfügt er über Legitimität. Finden die Forderungen eines Stakeholders unmittelbare Aufmerksamkeit, besteht hohe Dringlichkeit. Aus unterschiedlichen Ausprägungsgraden auf den genannten drei Dimensionen bilden Mitchell et al. (1997) sieben StakeholderTypen mit einem jeweils spezifischen Bedeutungsgrad für die Organisation (vgl. Abbildung 2). Die leitende Idee ist, dass ein Stakeholder umso eher der Aufmerksamkeit der Organisation bedarf, je ausgeprägter diese drei Dimensionen sind, und dass es für die Beziehungsgestaltung einen Unterschied macht, über welche der drei Attribute er verfügt. Am bedeutendsten ist demnach Typ 7, der echte Stakeholder.
Abbildung 2: Typen von Stakeholdern (Quelle: Mitchell et al. 1997, S. 874).
Die einzelnen Attributausprägungen sind nicht als unveränderlich zu begreifen, sondern prinzipiell variabel. Eine heute noch machtlose Anspruchsgruppe kann sich schon morgen (etwa durch geschickten Einsatz von Medien zur Beeinflussung der öffentlichen Meinung) Machtpotenziale erworben und so zu einem bedeutenden Stakeholder entwickelt haben. Ebenso ist es umgekehrt möglich, dass Anspruchsgruppen bestimmte Eigenschaften verlieren und so aus dem Zentrum zurück an den Rand des Entscheiderblickfeldes rücken. Auch hier kann eine einmal getroffene Auswahl also nie als abgeschlossen betrachtet werden. Des Weiteren ist zu beachten, dass die einzelnen Attributausprägungen keine objektive Realität darstellen, sondern Ergebnis sozialer Konstruktionen - und somit ständig revidierbar - sind. Man denke etwa an die Legitimationsgrundlage von Umweltaktivisten, deren relativ konstant gebliebenes Verhalten im Rahmen gewachsenen Umweltbewusstseins gesellschaftlich sehr viel stärker akzeptiert wird. Sieht man die Organisation als komplexes System mit vielen potenziell verselbstständigten Teilsystemen (Tochtergesellschaft, Divisionen usw.), so variiert die Stakeholder-Relevanz häufig teilsystemspezifisch und ist dementsprechend auch dort vorrangig zu bearbeiten. 709
Stakeholder-Ansatz Öffnet man die Perspektive des Stakeholder-Konzepts von der dyadischen Beziehung zwischen Organisation und Stakeholder hin zu triadischen oder zu Netzwerkbeziehungen, erweitert sich das Stakeholder-Spektrum - aber auch der Handlungsspielraum - durch Koalitionsbildungen. 4. Die Beeinflussungsstrategien von Stakeholdern Unabhängig davon, auf welche konkreten Ziele die einzelnen Stakeholder abstellen - ob auf ökonomische oder soziale, ob auf konkrete oder symbolische - und unabhängig von den einzelnen Strategien (Briefkampagnen, Boykottaufrufe usw.), lassen sich einige Gemeinsamkeiten im Vorgehen von Stakeholdern feststellen. In Abhängigkeit von der Qualität der Beziehung zwischen Stakeholder und Organisation zeigen sich einige prägnante, universelle Merkmale von Beeinflussungsstrategien (Frooman 1999). Grundsätzlich lassen sich zwei Arten der Einflussnahme unterscheiden: einerseits die Strategie der Regulierung des Ressourcenzuflusses und andererseits die Strategie der Einschränkung der Verwendungsfreiheit einer Ressource. Eine Regulierung des Ressourcenzuflusses kann dann angedroht werden, wenn man in der Lage ist, eine für die Organisation wichtige Ressource zu kontrollieren. Angestellte etwa können streiken und auf diesem Wege ihre Ressource "Arbeitskraft" zurückhalten, Kreditgeber verweigern die Erneuerung von Krediten, Kunden boykottieren ein Produkt etc. Hat der Stakeholder keine Kontrolle über eine für die Organisation wichtige Ressource oder ist er seinerseits von der Organisation abhängig, bleibt ihm als schwächere Variante nur die Strategie der Einschränkung der Verwendungsfreiheit von Ressourcen. Sie besteht darin, die Verwendung von Ressourcen an Bedingungen zu knüpfen, mit dem Ziel, durch beiderseitige Zugeständnisse auf dem Verhandlungsweg einen Kompromiss anzustreben. So kön-
710
Stakeholder-Management nen z.B. die Abnehmer in der Fischindustrie auf bestandsschonende Fangmethoden hinwirken, allerdings nicht die Abnahme verweigern, ohne sich selbst die Existenzgrundlage zu entziehen. Während bei der Strategie der Einstellung des Ressourcenflusses die Kosten der geforderten Verhaltensänderung tendenziell der Organisation angelastet werden, kommt es bei letzterer eher zu einer gleichmäßigen Verteilung der Kosten auf Stakeholder und Organisation. Bei beiden Strategien kann der Weg der Einflussnahme entweder direkt durch den Stakeholder oder indirekt über andere Stakeholder erfolgen. Während bei der direkten Strategie der Stakeholder den Ressourcenzufluss selbst manipuliert, geht er bei der indirekten Strategie in einer Allianz vor, indem er einen Verbündeten dazu gewinnt, den Ressourcenfluss gegenüber einer Organisation zu manipulieren. Literatur: Dyllick, T.: M a n a g e m e n t der U m w e l t b e z i e h u n g e n , W i e s b a d e n 1989; Freeman, R.E.: Strategie M a n a g e m e n t : A stakeholder approach, B o s t o n 1984; Frooman, J.: Stakeholder influence strategies, in: A c a d e m y o f M a n a g e m e n t R e v i e w 2 4 ( 1 9 9 9 ) , S. 1 9 1 - 2 0 5 ; Gerum, E.: Unternehmensordnung, in: B e a F.X./Dichtl, E./Schweitzer, M.: A l l g e m e i n e Betriebswirtschaftslehre, Band 1: Grundfragen, 7. A u f l . , Stuttgart 1997, S. 2 8 0 - 3 7 5 ; Kreikebaum, H.: Grundlagen der U n t e m e h m e n s ethik, Stuttgart 1996; March, J . G . / S i m o n , H.A.: Organizations, N e w Y o r k / L o n d o n 1958; Mitchell, R . K . / A g l e , B . R . A V o o d , D.J.: Toward a theory o f stakeholder identification and salience: D e f i n i n g the principle o f w h o and what really counts, in: A c a d e m y o f M a n a g e m e n t R e v i e w 2 2 ( 1 9 9 7 ) , S. 8 5 3 - 8 8 6 ; Parsons, T.: Structure and process in m o d e r n societies, G l e n c o e , IL 1960; S c h r e y ö g g , G.: Organisation. Grundlagen moderner Organisationsgestaltung, 3. A u f l . , W i e s b a d e n 1999; Steinmann, H./Löhr, A.: Grundlagen der Unternehmensethik, 2. A u f l . , Stuttgart 1994; Ulrich, P.: Integrative Wirtschaftsethik, Stuttgart/Wien 1997.
Georg Schreyögg/Tobias Braun Stakeholder-Management Zum ersten Mal wurde das Wort "Stakeholder" im Jahre 1968 in einem Memorandum des Stanford Research Institutes erwähnt (Freeman 1984). Der Durchbruch
Stakeholder-Management des Stakeholderkonzepts wurde aber erst durch das 1984 erschienene Buch Strategie management - A stakeholder approach von R. Edward Freeman erzielt. Durch den Einbezug von Stakeholdern in die unternehmerischen Entscheide sollten alle relevanten Anspruchsgruppen einer Unternehmung und nicht nur die Shareholder berücksichtigt werden. Zentrale Frage ist nun, welche Anspruchsgruppen einer Unternehmung als wirklich relevant zu bezeichnen und welche irrelevant sind. Gemäß Clarkson (1998) kann "stake" wie folgt definiert werden: "A 'stake' can be defined as something of value, some form of capital, human, physical, or financial, that is at risk, either voluntarily or involuntarily". In Clarksons Definition dominiert der Gedanke, dass das vorrangige Ziel einer Unternehmung die Sicherung des Überlebens sei. Neben den bisher genannten Begriffsmerkmalen werden in der Literatur noch weitere Charakteristika von relevanten bzw. nicht relevanten Stakeholdern erwähnt. Stakeholderbeziehungen werden gemäß der ökonomischen Theorie mitunter auch als Vertragsbeziehungen betrachtet. Neben den Legitimationsüberlegungen wird dabei auch die Machtfrage diskutiert: Der Stakeholder kann über die Unternehmung oder die Unternehmung über den Stakeholder Macht ausüben. Mark Starik (1993) diskutiert in diesem Zusammenhang das Problem der Anwaltschaft von Gruppierungen. Anwaltschaftliche Vertretungen gegenüber Unternehmungen spielen in der Stakeholderperspektive vor allem bezüglich der Natur oder bei Gruppierungen mit schwachem Artikulationsvermögen wie etwa bei Indigenen eine zentrale Rolle (vgl. dazu auch Sauter-Sachs 1992). Wenig Beachtung in der Analyse von Stakeholderbeziehungen fand bisher die Dynamik. Allerdings wird diese Perspektive in der jüngsten Zeit im Zusammenhang mit einem neuen Konzept zur Identifikation von Stakeholdern anhand der Eigenschaften "Macht", "Legitimation" und "Dringlichkeit" von Mitchell, Agle
Stakeholder-Management und Wood (1997) Beachtung geschenkt (-> Stakeholder-Ansatz). Insbesondere unter dem Gesichtspunkt der Dringlichkeit ("urgency") kann die sich verändernde Priorität von einzelnen Stakeholdergruppierungen über die Zeit aufgezeigt werden. Seit den neunziger Jahren ist nun die zentrale Debatte in der Stakeholdertheorie und vor allem im Rahmen des Stakeholder Managements die Shareholder-/ Stakeholderkontroverse (man spricht innerhalb dieser Debatte auch von einem "shareholder value capitalism", Shareholder Value), die in prominenter Weise u.a. in die "corporate governance"Diskussion Eingang gefunden hat. Als Grund für die zunehmende Beachtung der "corporate governance"-Probleme sieht Margaret M. Blair (1995a; 1995b) vor allem folgende Entwicklungen: In den USA führte in den achtziger Jahren die Übernahmewelle zu drastisch veränderten Eigentums-, Risiko-, Anspruchs- und Verschuldungssituationen für die verschiedenen Stakeholder. Zudem spielt in der "corporate gwer«a/)ce"-Diskussion auch die zunehmende weltweite Bedeutung der großen Publikumsgesellschaften eine zentrale Rolle. Als weitere Gründe für die Intensivierung der "corporate governance" -Diskussion fuhrt Blair die hohen Kompensationen der Manager bei stagnierenden oder sinkenden Löhnen der Angestellten sowie den Stellenabbau und das "downsizing" bei gleichzeitiger Ertragssteigerung an. Aus dem Gesichtswinkel des Stakeholder Managements ist in der heutigen "corporate governance"-D\skuss]on die Frage nach den effektiven Trägern des Unternehmungsrisikos zentral. D.h. es stellt sich die Frage, ob die Risiken ausschließlich von den Shareholdern oder darüber hinaus auch von den Stakeholdern getragen werden sollen und, je nach Beurteilung, wie die entsprechende Verteilung der Rechte und Pflichten bei der Führung und Aufsicht in der Unternehmung vor711
Stakeholder-Management
Stakeholder-Management zunehmen ist. Wesentlich hierbei ist, dass die Unternehmung auf der Absatz- und Beschaffungsseite dem Druck des Marktes ausgesetzt ist; neben den Erfolgschancen bestehen daher auch Risiken (Misserfolg). Beide müssen von jemandem "getragen" werden. Die Stellung der Shareholder und der übrigen Stakeholder ist nach heutigem Recht wie folgt ausgestaltet: Die Stakeholder (exklusiv Shareholder) werden prioritär gemäß den im Voraus vertraglich festgelegten Abmachungen und weitestgehend fix entschädigt (z.B. fixe Zinsen auf das Fremdkapital, fixe Löhne für die Arbeitsleistung etc.). Die Eigentümer (Shareholder) werden zuletzt entschädigt. Sie erhalten nur den erfolgsabhängigen -> Residualgewinn. Damit tragen die Shareholder im Vergleich zu den anderen Stakeholdem ein spezielles Risiko. Die Shareholder haben folglich ein erhöhtes Interesse am Erfolg der Unternehmung, weil sie, wie eben gezeigt, erst den Residualgewinn erhalten. Sie führen demzufolge das Unternehmen am konsequentesten erfolgsorientiert. Die Shareholder haben das Recht, den Residualgewinn zu beanspruchen (Residualanspruch) und wegen des hohen Risikos, das sie dadurch tragen, auch das Recht, grundlegende Entscheide zu fallen (Konstitution) und die Aufsicht über die Unternehmung auszuüben. Darauf beruht auch ihre "voting power". Wie aus der Darstellung der Shareholderrechte ersichtlich ist, liegen diesen Rechten primär ökonomische Vorstellungen zu Grunde. Der maximale Shareholder Value entspricht nun aber, wie die soziale Wirklichkeit zeigt, nicht notwendigerweise dem maximalen Wohlstand für die Gesellschaft. Die -> "corporate governance" kann demzufolge entweder auf den Shareholder Value oder aber auch auf die Wertschöpfung für die Gesellschaft als Ganzes ausgerichtet sein. Der Stakeholderansatz der "corporate governance" betrachtet die erweiterte Wertschöpfung 712
für die ganze Gesellschaft und vor allem auch die Wertschöpfungsbeiträge aller Stakeholder an die Unternehmung. Analog zu den spezifischen Risiken der Shareholder in der herkömmlichen Betrachtungsweise identifiziert die Stakeholdersicht auch spezifische Risiken für andere Stakeholder. Blair konzentriert sich dabei auf die Mitarbeiter, die ihr Wissen und Können speziell auf die jeweilige Unternehmung ausrichten, d.h. eine persönliche, firmenspezifische Investition vornehmen. Damit erlangen sie nach Blair eine Art Eigentumsanspruch und tragen vor allem auch (analog den Shareholdern) ein spezifisches Risiko ("firm specific investments create ownership"). In dieser Optik käme ihnen also die gleiche Stellung wie den Shareholdern zu. Das würde bedeuten, dass sie ebenso ein Recht auf Führung und Kontrolle der Unternehmung hätten. Gemäß Blair ist der einfachste Weg, die Mitarbeiter (bzw. irgendeinen Stakeholder) an der Führung und Kontrolle der Unternehmung teilnehmen zu lassen, sie zu Miteigentümern zu machen. Innerhalb der "business and society"-Forschung hat die Stakeholdertheorie in den letzten Jahren nicht zuletzt wegen der "corporate governance"Debatte die größte Beachtung gefunden. Ebenso ist in der betrieblichen Praxis und namentlich beim strategischen Management von Unternehmungen nicht selten eine explizite Bezugnahme auf Stakeholderansprüche in Visionen und Leitbildern von Unternehmungen zu erkennen. Für die einzelne Unternehmung resultiert aus dieser Betrachtungsweise die Notwendigkeit eines bewussten Stakeholder Managements. Neben der adäquaten Gestaltung der "corporate governance" ist das Stakeholder Management auch im Rahmen der laufenden Geschäftstätigkeit wichtig. Dieses ist konzeptionell wie folgt erfassbar: •
In einem ersten Schritt (Phase 1) werden die relevanten Anspruchsgruppen der Unternehmung erfasst.
Stakeholder-Management •
Danach werden sie hinsichtlich ihrer Haltung gegenüber der Unternehmung, ihrem Informationsstand sowie der Ziele, Strategien und Mittel, über die sie verfugen, analysiert (Phase 2). Die Marktforschung erfährt damit eine Erweiterung zur Gesellschaftsforschung.
•
In der dritten Phase werden diese Erkenntnisse für die Formulierung der eigenen Strategie verwendet. Die gesellschaftliche Funktion und die gesellschaftliche Verantwortung der Unternehmung, wie sie sich aus dem Stakeholder Management in der Realität ergibt, müssen nun auch bei der Strukturgestaltung berücksichtigt werden. Dies erfolgt in der Aufbauorganisation, wo die Träger dieser Funktionen und Verantwortlichkeiten zu bestimmen sind, sowie in der -> Ablauforganisation, wo die Interaktionen festgelegt werden müssen. Dazu bedarf es geeigneter Instrumente. Wesentlich ist zudem, dass die Gesellschaftsorientierung in der Unternehmungskultur verankert ist.
•
In der vierten Phase erfolgt dann die Umsetzung und die Kontrolle. So, wie der gesamte Erfassungsprozess und die Strategieformulierung interaktiv sind, so ist es auch die Kontrolle: Einerseits kontrolliert die Gesellschaft die Handlungen der Unternehmung durch die Stakeholder (Wirtschaftspresse, Konsumentenforum etc.); andererseits überwacht die Unternehmung die Gesellschaft auf ihre Effizienz hin (z.B. Konkurrenzierung öffentlicher Unternehmen, Lobbying etc.).
Immer mehr Unternehmungen fuhren auch ein zertifiziertes "social auditing" ein. Dieses ist ein Instrument zur Beurteilung der gesellschaftlichen Leistungsfähigkeit einer Unternehmung als Ergänzung zu den Audits, welche ihre ökonomische Effizienz bewerten. Solche Audits führen zu "rankings", die ihrerseits oft
Stammdaten nicht ohne Einfluss auf die Absatz- und Beschaffungsmöglichkeiten einer Unternehmung bleiben. So werden beispielsweise heute die Kreditgesuche von Unternehmungen durch die Banken auch auf die ökologischen und gesellschaftlichen Risiken hin überprüft. Das "pricing" für die Kredite und damit die Kreditkosten des Unternehmens hängen dann auch von diesen Risiken ab. Literatur: Blair, M . M . (1995a): Corporate "ownership", in: Brookings Review, 13/1995 (1), S. 1619; Blair, M . M . (1995b): Ownership and control, Washington D.C. 1995; Clarkson, M.B. E.: The Corporation and its stakeholders - Classic and contemporary readings, Toronto 1998; Freeman, R.E.: Strategie management - A stakeholder approach, Boston 1984; Mitchell, R.K./Agle, B.R.AVood, D.J.: Toward a theory of stakeholder identification and salience: Defining the principle of w h o and what really counts, in: A c a d e m y of Management Review, 22/1997(4), S. 8 5 3 - 8 8 6 ; Sachs, S./Böhi, D.: How the society influences the firms competitive advantage and the scope of managerial discretion, in: Nigh, D./Collins, D. (Hrsg.): Proceedings of the Sixth Annual Meeting of the International Association for Business and Society (IABS), Wien 1995, S. 4 4 8 - 4 5 3 ; SauterSachs, S.: Die unternehmerische U m w e l t , in: Die Unternehmung, 46/1992(3), S. 1 8 3 - 2 0 4 ; Starik, M.: Is the environment an organizational stakeholder? Naturally!, in: Pasquero, J./Collins, D. (Hrsg.), Proceedings of the Fourth Annual Meeting of the International Association for Business and Society (IABS), San Diego 1993, S. 466-471.
Sybille Sachs Stammaktien -* Aktie Stammdaten In Anwendungssystemen versteht man darunter Daten, die über einen längeren Zeitraum unverändert bleiben. Sie enthalten Informationen, die in gleicher Weise immer wieder benötigt werden. Ein Beispiel sind Kundenstammdaten, die u.a. Namen, Anschrift und Bankverbindung umfassen können. Stammdaten werden auch zur Definition von Organisationseinheiten in der Aufbauorganisation verwendet (z.B. Kostenstellenstammdaten).
713
Standardsoftware Standardsoftware In der Informationstechnologie wird Software in zwei Arten klassifiziert: in —• Individualsoftware und in Standardsoftware. Unter Standardsoftware versteht man ein fertiges Programmpaket, das auf Allgemeingültigkeit und mehrfache Nutzung hin ausgelegt ist. Sie wird von einem Softwarehaus entwickelt, getestet und anschließend vertrieben. Eine Standardsoftware bietet im Auslieferungszustand zahlreiche Grundfunktionalitäten, die jedoch nicht auf die speziellen Anforderungen des Kunden ausgerichtet sind. Jedes Programmpaket wird in der Grundversion meist zu einem Festpreis angeboten. Individualsoftware umfasst hingegen jene Programme, die für einen Anwendungsfall eigens erstellt worden sind und deren Eigenschaften im Allgemeinen einem bestimmten Anforderungsprofil entsprechen. Durch die individuelle Programmierung ist eine optimale Anpassung an das jeweilige betriebliche Umfeld meist schon gewährleistet. Um eine Entscheidung zwischen Individual- oder Standardsoftwarelösung (sog. Make-or-Buy-Decision) treffen zu können, bedarf es einer detaillierten Abwägung von Vor- und Nachteilen. Der Focus richtet sich hierbei auf die beiden konkurrierenden Kriterien "Kosten" und "Übereinstimmung mit den individuellen Gegebenheiten" (branchengerechte bzw. firmengerechte Lösung). Bezüglich der Kosten sollte besonders auf folgende Punkte geachtet werden: •
Das Kosten-/Nutzenverhältnis der Produkte (einmalige Kosten wie Anschaffungspreis, Implementierungskosten, Anpassungskosten der Organisation, Schulungskosten von Mitarbeitern, laufende Kosten für die Wartung, Inanspruchnahme von ITKapazitäten beim Betrieb);
714
Standardsoftware •
• •
Zeitfaktor (der Zeitraum für die Anpassung eines ausgereiften Standardprogramms ist im Allgemeinen kürzer als die Zeit für eine Neuentwicklung); Gebundenheit interner Programmierressourcen; Zukunftssicherheit (Anbieter von Standardsoftware entwickeln in der Regel ihre Produkte ständig weiter).
Hinsichtlich der Erfüllung des Anforderungsprofils richtet sich das Hauptaugenmerk auf •
• •
•
die Übereinstimmung der angebotenen Softwareprodukte mit den benötigten Systemfunktionen und -leistungen (in der Regel ermöglichen nur Modularprogramme einen individuellen Zuschnitt), die Verträglichkeit der Produkte mit vorhandener Soft- und Hardware, das Qualitätsniveau der Produkte hinsichtlich des Entwurfskonzepts, der Leistungsfähigkeit, der Sicherheit und der Dokumentation, die Betriebsreife der Produkte (Verfügbarkeit, Implementierungszeit, Lebensdauer/Zukunft).
Auf die folgenden zwei Potenziale sei besonders hingewiesen: Einerseits bietet die Entscheidung zugunsten einer Standardsoftware die Möglichkeit, bei der Einführung die bisherigen Geschäftsprozesse zu analysieren und im Sinne des -> Business Process Reengineering (BPR) zu optimieren. Andererseits besteht beim Einsatz von Standardsoftware die Gefahr eines Abhängigkeitsverhältnisses vom Hersteller. Standardsoftware soll also nicht bedeuten, dass keine Anpassungen an die Spezifika des Kunden erfolgen können. Dies ist teilweise sogar zwingend erforderlich, wie das Beispiel der ERP-Systeme (Enterprise Resource Planning) zeigt. Hierbei handelt es sich um eine integrierte, betriebswirtschaftliche Standardsoftware, die an die speziellen Bedürfnisse
Standardsoftware des Kunden angepasst werden muss. Zunächst muss der Kunde über die Konfigurierung des Systems entscheiden, d.h. welche Module (Personalwirtschaft, Materialwirtschaft, Vertrieb, Produktionsplanung etc.) er zum Einsatz bringen möchte. Anschließend werden im "Customizing" (von engl, customer - Kunde) die notwendigen Einstellungen vorgenommen, um die Aufbau- und Ablauforganisation des Unternehmens im System abzubilden. Je nach Art und Alter der parallel betriebenen externen Systeme ist ggf. auch eine Eigenprogrammierung von Schnittstellen erforderlich. Anbieter von betriebswirtschaftlicher Standardsoftware sind z.B. SAP, Baan, Oracle, Peoplesoft, J.D. Edwards und Siebel. Als weiteres Beispiel sei auf die Software-Pakete "MS Office" und "StarOffice" der Firmen Microsoft bzw. Sun verwiesen. Hierbei handelt es sich um Standardsoftware für Textverarbeitung, Tabellenkalkulation, Präsentation etc. Markus Schneckenburger Standortfaktorenkatalog Standortwahl Standortwahl 1. Gegenstand Gegenstand der Standortwahl sind Fragen der räumlichen Anordnung volkswirtschaftlicher und betrieblicher (einschließlich innerbetrieblicher) Produktions- bzw. Dienstleistungseinheiten. Sie reflektiert Einflussgrößen, Gestaltungsmöglichkeiten und Auswirkungen von Standortentscheidungen. Volkswirtschaftliche Standorttheorien werden entwickelt, um die Ansiedlung von Unternehmen bzw. Betrieben einzelner Wirtschaftssektoren im Raum erklären, prognostizieren oder auch optimieren zu können. Betriebliche Standorttheorien untersuchen Probleme der Standortwahl einzelner Unternehmen. Hierunter subsummiert man auch die Standortwahl für öffentliche Einrichtungen. Die innerbetriebliche Standortwahl befasst sich mit der räumlichen Anord-
Standortwahlnung von Betriebsmitteln innerhalb der Grenzen eines Betriebsgrundstückes. Bei der Gründung eines Unternehmens liegt aufgrund der hochgradigen Interdependenz mit anderen Managementfunktionen eines der komplexesten Probleme der Standortplanung vor. In diesem Fall können Entscheidungen über das Beschaffungsprogramm meist nicht isoliert von der Produktionsprogrammplanung und der Bestimmung des Absatzprogramms getroffen werden. Damit sind zwangsläufig auch Investitions- und Finanzierungsentscheidungen zu treffen. Standortentscheidungen werden u.a. ausgelöst durch das Vorhandensein von Kapazitätsbedarf, von Überkapazitäten sowie von unternehmensinternen (z.B. Änderung des Produktionsprogramms) oder -externen (u.a. Handelshemmnisse) Standortunzulänglichkeiten. Im Kontext der -» Globalisierung sind Standortentscheidungen in den letzten Jahren noch wichtiger und komplexer geworden. Die Konkurrenzfähigkeit einzelner Unternehmen und ganzer Wirtschaftssektoren wird entscheidend von standortabhängigen Einflüssen bestimmt. So zeichnen sich manche Standorte gegenüber anderen durch günstige Beschaffungs-, Produktions- oder Absatzbedingungen aus. Ein in diesem Sinne günstiger Standort erleichtert wirtschaftlichen Erfolg. Umgekehrt verlangen die Nachteile eines ungünstigen Standortes besondere Anstrengungen zur Kompensation standortbedingter Wettbewerbsvorteile der Konkurrenz. Die Bedeutung des Standortes für die Konkurrenzfähigkeit und die geringe kurzfristige Flexibilität im Hinblick auf Veränderungsmöglichkeiten der Standortstruktur erfordern eine in die Zukunft gerichtete Standortplanung und ihre Einbettung in die strategische Unternehmensplanung. 2. Standortfaktoren Das für Standortentscheidungen verantwortliche Management stellt einerseits 715
Standortwahl
Standortwahl gewisse Anforderungen an potenzielle Standorte und findet andererseits gewisse Bedingungen vor. Als Standortanforderungen kann man alle Ansprüche bezeichnen, die an einen Standort gestellt werden, um den Leistungsprozess durchführen zu können. Standortbedingungen sind die von Unternehmen im Zeitablauf bei der Erfüllung wirtschaftlicher Aufgaben nutzbaren örtlichen Gegebenheiten.
überschaubare Fülle unterschiedlicher Modelle und Methoden zur betrieblichen Standortplanung entwickelt. •
Standortplanung in der Ebene. Modelle zur Standortplanung in der Ebene gehen von folgenden grundlegenden Annahmen aus: Eine bestimmte Anzahl von Kundenorten ist auf einer homogenen Fläche (Ebene) verteilt. Jeder Punkt der Ebene ist potenzieller Standort. Die Entfernung zwischen je zwei Punkten wird gemäß einer bestimmten Metrik gemessen. Modelle mit rechtwinkliger Metrik sind primär zur innerbetrieblichen Standortplanung verwendbar. Modelle mit euklidischer Metrik eignen sich bevorzugt zur betrieblichen Standortplanung. Zu letzterem lässt sich ein vergleichsweise allgemeines Problem formulieren, das als Standort-Einzugsbereich- oder Location-Allocation-Problem bezeichnet wird: Auf einer unbegrenzten, homogenen Fläche (Ebene) existieren n Kunden an Orten mit den Koordinaten (uj, Vj) für j = l,...,n. Die Nachfrage des Kunden j beträgt bj Mengeneinheiten. Das Unternehmen möchte m Auslieferungslager an zu bestimmenden Punkten mit den Koordinaten fy, y¡) (i = l...,m) zur Belieferung der Kunden lokalisieren. Lager i besitzt eine Höchstkapazität von a¡ Mengeneinheiten pro Periode, cy bezeichne für jedes Lager i und jeden Kunden j die Transportkosten pro Mengen- und Entfernungseinheit.
•
Standortplanung in Netzen. Zahlreiche Probleme betrieblicher Standortplanung verfolgen als Ziel die Minimierung der durch die Errichtung von z.B. Produktionsstätten oder Auslieferungslagern verursachten fixen Kosten sowie der durch Transportaktivitäten entstehenden variablen Kosten. Nehmen wir z.B. an, ein Unternehmen beliefere j = l,...,n Kunden, die pro Periode eine konstante Gütermenge b¡ nachfragen. Zur Senkung der Ver-
Im Mittelpunkt einer Vielzahl von Untersuchungen zur Relevanz industrieller Standortfaktoren steht die Frage: Welche Faktoren determinieren die industrielle Standortwahl? Von einigen Autoren werden detaillierte, umfangreiche Standortfaktorenkataloge dargestellt. Ein Standortfaktorenkatalog enthält selbstverständlich nicht alle Standortfaktoren, die für jedes beliebige Unternehmen von Bedeutung sind. Auf der anderen Seite wird ein Katalog natürlich durchaus auch Faktoren beinhalten, die in einem konkreten Planungsfall als nicht relevant erachtet werden. Ein möglicher Katalog von Standortfaktoren kann folgendermaßen aussehen: Grund und Boden, Arbeitskräfte, Verkehr und Transport, Beschaffung und Entsorgung, Produktion, Absatz, Investition und Finanzierung, öffentliche Hand, allgemeine Infrastruktur, persönliche Präferenzen. Die Vielzahl und Heterogenität der skizzierten Standortfaktoren macht deutlich, dass Probleme der Standortwahl äußerst komplex sind. Im Folgenden werden ausgewählte Modelle skizziert, die den Prozess der Auswahl geeigneter Standorte unterstützen können. 3. Modellgestützte Standortentscheidungen Die Entwicklung normativer Ansätze begann mit den Arbeiten von Launhardt (1882) und Weber (1909). Sie beschäftigten sich mit der Standortbestimmung für Industriebetriebe. Von besonderer Bedeutung sind dabei die Standortfaktoren Transport-, Arbeits- und Materialkosten. Seither wurden eine kaum mehr 716
Stellenbeschreibung
Standortwahl triebskosten sollen Auslieferungslager errichtet werden, wobei als potenzielle Standorte für diese nur ganz bestimmte Orte i = ],...,m in Frage kommen. Jeder dieser potenziellen Standorte verursacht in der Regel unterschiedliche Fixkostenfj pro Periode und besitzt unterschiedliche Kapazitäten a,. Ferner sind im Allgemeinen die Kosten cy (in Geldeinheiten pro Mengeneinheit) der Belieferung des Kunden j je nach Standort i (z.B. entfernungsabhängig) verschieden, wenn man davon ausgeht, dass Kunden und potenzielle Standorte in einem Straßen- und Verkehrsnetz angesiedelt sind. Das Problem der Bestimmung einer kostenminimalen Standort- und Distributionsstruktur kann als gemischt-ganzzahliges Optimierungsproblem formuliert und gelöst werden. Es wird in der Literatur auch als Facility Location Problem oder als Warehouse Location Problem bezeichnet. Literatur: Behrens, K.Ch.: Allgemeine Standortbestimmungslehre, Köln 1961; Domschke, W./ Drexl, A.: Logistik: Standorte. 4. Aufl., München, Wien 1996; Francis, R.L./Mirchandani, P. (Hrsg.): Discrete Location Theory, N e w York 1990; Labbe, M./Louveaux, F.V.: Location Problems, in: Dell'Amico M./Maffioli F./Martello, S. (Hrsg.): Annotated Bibliographies in Combinatorial Optimization, N e w York 1997.
Andreas Drexl STAR -> Optionsplan Start Up Unternehmensgründung, die sich im -> Early Stage befindet. Statement of Earnings Gewinn- und Verlustrechnung Statische Investitionsrechenverfahren -»Investitionsrechnung Statistische Prozessregelung (SPC) (Engl.: Statistical Process Control (SPC)) Die statistische Prozessregelung ist eine Methode des -> Qualitätsmanagements, mit der sich fähige und beherrschte Pro-
zesse während der Fertigung mittels regelmäßig gezogener Stichproben anhand von statistischen Verfahren und Qualitätsregelkarten überwachen und bei Bedarf regeln lassen, noch bevor fehlerhafte Teile hergestellt werden. Ein Prozess gilt als fähig und beherrscht (oder unter statistischer Kontrolle), wenn er Einheiten liefern kann, die die Qualitätsanforderungen erfüllen und sich die (Parameter der) Verteilung der -> Qualitätsmerkmale praktisch nicht oder nur in bekannten Grenzen ändern. Bevor die Statistische Prozessregelung anhand von Regelkarten durchgeführt werden kann, muss sichergestellt sein, dass sich der Prozess über einen längeren Zeitraum unter statistischer Kontrolle befindet. Als Kenngrößen zur Beurteilung der Prozessfähigkeit werden der c p - und der cpic Wert herangezogen. Engelbert Westkämper/ Alexander Schloske Statistische Versuchsplanung (SVP) (Engl.: Design of Experiments (DOE)) Die statistische Versuchsplanung ist eine Methode des -»Qualitätsmanagements, die zum Ziel hat, Versuche so zu planen und durchzufuhren, dass mit geringstmöglichem Aufwand Versuchsergebnisse erzielt werden, die Grundlage für die sichere Gestaltung robuster Produkte (z.B. gegen Störeinflüsse) oder robuster Prozesse (z.B. optimale Einstellwerte zur Erreichung eines Ergebnisses) sein können. Engelbert Westkämper/ Alexander Schloske Stellenbeschreibung Stellenbeschreibungen sind eine detaillierte Ergänzung zu -> Organigrammen. Sie halten die weisungsbezogene und kommunikative Einordnung einer Stelle, die Aufgaben und Kompetenzen des Stelleninhabers sowie Anforderungen an
717
Stellenbeschreibung diesen fest. Der Konzeption der Stellenbeschreibung liegen drei Ziele zu Grunde: •
• •
Widerspruchsfreie und detaillierte Fixierung der ->Aufbauorganisation des Unternehmens, Objektivierung der Lohn- und Gehaltsstruktur und schriftliche Vorgabe von Leistungsnormen.
Inhaltlich umgesetzt wird dies, indem Stellenbeschreibungen die Stellenbezeichnung (Name, Position), den Dienstrang des Inhabers, Unterstellungsund Überstellungsverhältnisse (Wer hat das fachliche/disziplinarische Weisungsrecht gegenüber dem Stelleninhaber/Wem gegenüber besitzt er diese?), Ziel der Stelle (Welche Leistungsvorgaben sind zu erfüllen bzw. welche Ziele zu erreichen? - Dies ermöglicht dem Mitarbeiter die Selbstkontrolle), Stellvertretung (aktiv/passiv), Aufgabenbereiche (Welche sachlichen Aufgaben umfasst die Stelle?) sowie Befugnisse (z.B. Handlungsvollmachten usw.) enthalten. Oftmals werden Stellenbeschreibungen mit weiteren organisatorischen Regelungen in einem -> Organisationshandbuch zusammengefasst. Stellenbildung, flexible Die Arbeitsorganisation orientiert sich bis heute starr an der Zuordnung nach Stellen. Per Definition entspricht der Aufgabenumfang einer Stelle dem Arbeitsvermögen einer Person bei entsprechender Qualifikation und vorgegebenem Arbeitstempo. Die Schwierigkeiten, hierfür ein geeignetes Mess-System zu finden, sind bekannt und sollen hier nicht Gegenstand der weiteren Diskussion sein. Vielmehr soll darüber nachgedacht werden, ob das Prinzip der Stellenbewirtschaftung den heutigen Anforderungen unserer Arbeitswelt noch genügt. Gefordert wird eine flexible Anpassung der Mitarbeiter an sich verändernde Aufgaben, die Hinführung zu verstärktem unternehmerischen Denken und Handeln 718
Stellenbildung, flexible und damit einer größeren Eigenverantwortung der Mitarbeiter bei der Bewältigung der anfallenden Aufgaben. Die Organisation der Arbeit mit der Maßgröße "Stelle" als kleinster Einheit wirkt in erster Linie deshalb flexibilitätshemmend, weil aufgrund der direkten Verknüpfung von Stellen und Mitarbeiter-Arbeit die Aufgaben in erster Linie auf den Mengenumfang einer Stelle zurechtgeschnitten werden, unabhängig z.B. von stellenübergreifenden Verknüpfungen oder individuellen Qualifikationen. Die Maßeinheit "Stelle" ist aus rein organisatorischer Sicht eine rein willkürliche Festlegung. Aus personalwirtschaftlicher Sicht kann im Hinblick auf Mitarbeiterzuordnung und Vergütung eine derartige Aufteilung der Arbeit nach Stellen zwar durchaus als zweckmäßig angesehen werden. Die übliche Festlegung "eine Stelle = eine Person und damit einer Führungskraft zugeordnet" behindert jedoch in hohem Maße eine flexiblere Aufgabendurchfuhrung der Mitarbeiter insbesondere auch über heutige Stellengrenzen und Zuordnungen der Führungszuständigkeit hinweg. Außerdem wird auch die weitere Verbreitung der Teilzeitarbeit durch eine allzu starre Stellenbewirtschaftung erschwert. Folgerichtig wird der Vorschlag unterbreitet, es abzuschaffen, die Arbeitsorganisation formal mittels Stellen zu gliedern. Was aber ist zu tun, wenn es das Organisationsmittel Stelle/Stellenplan zukünftig nicht mehr gibt? Zukünftig könnte die Arbeit einer Person aus unterschiedlichen Aufgabenbündeln bestehen, für deren Erledigung ein Zeitfaktor und ein Geldfaktor vorgegeben wird. Die Mitarbeiter können selbst mitentscheiden, welche und wie viele Aufgabenbündel sie übernehmen möchten. Gesamt-Arbeitszeit und Gesamt-Verdienst ergeben sich aus der Addition der Einzelwerte. Die einzelnen Aufgabenbündel können aus unterschiedlichen Arbeitsgebieten und Verantwortungsbereichen
Stille Gesellschaft
Stellenbildung, flexible kommen. Beispielsweise könnten alle Arbeitsaufgaben einer größeren Organisationseinheit zu zweckmäßig abzuarbeitenden Aufgabenbündel zerlegt und bewertet werden. Die Mitarbeiter könnten sich daran anschließend um die einzelnen Aufgabenbündel bewerben und je nach persönlichem Bedürfnis die gewünschte Gesamt-Arbeitszeit anstreben.
Stellenbewirtschaftung in ihrer Entfaltungsmöglichkeit deutlich eingeschränkt sind.
Mit dieser Methode eröffnen sich Flexibilitätsspielräume, die aufgrund der heute vorliegenden starren Stellenstrukturen nicht zu realisieren sind. Als vorteilhaft kann gelten, dass Umfang und Wertigkeit der Aufgaben sich an den tatsächlichen betrieblichen Notwendigkeiten ausrichten und Mitarbeiterwünsche bei der Aufgabenübernahme wesentlich besser als bisher berücksichtigt werden können (-»Mitarbeitereinsatz nach Eignung und Neigung).
Stellengemeinkosten Kostenarten
Kritiker dieses Systems könnten z.B. anmerken, dass kollektive Arbeitszeitregelungen damit schwieriger werden und sich Mitarbeiter mehr oder weniger kontinuierlich mit dem Markt neuer Aufgabenbündel beschäftigen müssen oder aber, dass es immer wieder Aufgaben geben wird, die kein vorhandener Mitarbeiter erledigen möchte. Diese Argumente sind sicher ernst zu nehmen und weiter zu untersuchen. Aber auch heute gibt es Aufgaben, die kein Mitarbeiter übernehmen möchte und dementsprechend ist dann auch die Ausführung... Der beschriebene Vorteil der Flexibilisierung, aber auch die Übernahme größerer Selbstverantwortung durch die Mitarbeiter dürften jedoch eine weitere Beschäftigung mit diesem Thema oder pilotmäßige Erprobung gerechtfertigt erscheinen lassen. Sicherlich ist dieses Verfahren nicht für alle Aufgaben geeignet und auch nicht jeder Mitarbeiter wird sich hierfür begeistern können, vielmehr ist es zunächst gedacht als eine flexible Ergänzung für Mitarbeiter, die durch die heute starre
Werner Fröhlich Stellendatenbank Personalinformationssystem Stelleneinzelkosten -» Kostenarten
Stellenplanmethode Personalplanung Stille Gesellschaft Einlage: Der Stille Gesellschafter wird gegen eine Vermögenseinlage am Gewinn eines fremden Handelsgewerbes beteiligt, §§ 230, 231 Abs. 2 H G B . Vertretung: Still ist diese reine Innengesellschaft, weil der Inhaber des Handelsgewerbes im eigenen Namen rechtsgeschäftlich handelt. Durch diese Eigengeschäfte wird weder die Stille Gesellschaft noch der Stille Gesellschafter berechtigt oder verpflichtet. Schuldrechtliche Beziehungen bestehen nur im Verhältnis zwischen den Gesellschaftern der Stillen Gesellschaft und zwischen dem Inhaber des Handelsgewerbes und Dritten, mit denen er (auf fremde Rechnung der Stillen Gesellschaft) Rechtsgeschäfte abschließt. Gesellschaftsvermögen: Auch hat die Stille Gesellschaft kein Gesellschaftsvermögen. Der Stille Gesellschafter leistet seine Einlage an den Inhaber des Handelsgewerbes. Firma: Die Stille Gesellschaft führt keine Firma, weil der Inhaber des Handelsgewerbes nur im eigenen Namen, nicht aber als Organ oder Vertreter der Stillen Gesellschaft handelt. Anonymität: Der Stille Gesellschafter bleibt anonym, weil kein Publizitätsakt erfolgt, insbesondere werden die Stille Gesellschaft und ihre Gesellschafter nicht in das Handelsregister eingetragen. 719
Strategieplanung, wertorientierte
Stille Gesellschaft Gewinnanteil: Der Stille Gesellschafter erwirbt am Ende des Geschäftsjahres nach § 231 Abs. 2, 232 HGB zwingend einen Zahlungsanspruch gegen den Inhaber des Handelsgewerbes in Höhe des vertraglich vereinbarten Gewinnanteils. Der Stille Gesellschafter kann seinen Gewinnanteil stehen lassen, arg ex § 232 Abs. 3 HGB. Stefan Hanloser Stock Appreciation Rights -» Optionsplan Strategie Fit Strategisches Management Strategieplanung, wertorientierte Die wichtigste Aufgabe des Managements besteht darin, sich über die Zukunft des Unternehmens Gedanken zu machen, Wege in diese Zukunft mit ihren Möglichkeiten und Grenzen aufzuzeigen und die beste Alternative konsequent umzusetzen. Richtig verstandenes Wertmanagement (-> Wertmanagement, ganzheitliches) beinhaltet in diesem Zusammenhang die Suche nach einem harmonischen Mix von Vorwärtsstrategien zum Aufund Ausbau der unternehmerischen Kernkompetenzen und Restrukturierungsstrategien zur kosten- und zeitoptimalen Ausgestaltung der Unternehmensprozesse
organ
(-»Kernkompetenzmanagement; -» Restrukturierung). Dies unter Berücksichtigung der vielfältigen legitimen Interessen verschiedener Anspruchsgruppen wie der Aktionäre, der Mitarbeiter, der Kunden, der Lieferanten, des Staates und der Öffentlichkeit (-> Stakeholder-Ansatz). Diese Teile eines komplizierten Puzzles müssen so kombiniert werden, dass das Bild eines langfristig erfolgreichen Unternehmens entsteht (Bühner/Sulzbach 1999). Das in der folgenden Abbildung 1 gezeigte VIP-Konzept der wertorientierten Strategieplanung versucht, den obigen Anliegen durch ein schrittweises, integriertes Vorgehen Rechnung zu tragen. I. Vision - Ein Traum mit einem Verfalldatum Ausgangspunkt des Kreislaufes ist die Entwicklung einer Vision des Unternehmens. Am besten umschreiben lässt sich diese als ein "Traum mit einem Verfallsdatum". Ein Paradebeispiel dafür ist sicher die Vision von John F. Kennedy anfangs der 60er Jahre, dass Ende des Jahrzehnts ein Amerikaner auf dem Mond stehen werde. Eine ähnlich eindrückliche Vision findet sich im Unternehmenskontext bei den Apple-Gründern Jobs und Wozniak, die 1970 postulierten: "Einen Computer für jeden Mann, jede Frau und
S p i e I re g e i n W ettbew erbs
isatlon
G E N E R A T O R E N K e r n p r o z e s i
Kom
pelt nz« n
Strategien
Abb. I: Das VIP-Konzept:
720
Von der Vision zur wertorientierten
Prozessorganisation
Strategieplanung, wertorientierte jedes Kind". Bei der Entwicklung einer Vision ist es von entscheidender Bedeutung, dass man sich von der Vergangenheit und der Gegenwart löst und beginnt, "das Undenkbare zu denken". Sind Visionen bloß -> Trendextrapolationen des Bisherigen, so verdienen sie ihren Namen nicht. Anderseits soll auch das Verfalldatum spezifiziert werden, bis wann der "Traum" in Erfüllung gehen soll.
Strategieplanu ng, wertorientierte von der Vision anvisierten Geschäftes verändern werden. Jedes Geschäft ist ein nach bestimmten Regeln verlaufendes, kompliziertes Zusammenspiel von Wettbewerb und Kooperation in einer sich wandelnden Umwelt. Viele Unternehmen begehen den verhängnisvollen Fehler, die heutige Konstellation in die Zukunft fortzuschreiben. IBM war so auf seine Großrechner fixiert, dass es den Personal Computer und damit die geänderten Spielregeln des Wettbewerbs verschlief. Ein Unternehmen mit Selbstvertrauen wird sich in diesem Schritt sogar die Frage stellen, wie es selber die Spielregeln zu seinen Gunsten verändern kann. Ein gutes Beispiel dafür aus der Vergangenheit ist Mövenpick mit seiner Neugestaltung der Gastronomie. Ganz wesentlich wird in Zukunft die Abkehr von der reinen Wettbewerbsorientierung sein. Wer heute Konkurrent ist, wird morgen Partner sein, und umgekehrt. Der virtuose Einsatz dieses Wechselspiels wird das erfolgreiche Unternehmen der Zukunft auszeichnen.
Sei es in der Vision, sei es in einer eigens dafür konzipierten Unternehmenspolitik Ausgangspunkt der unternehmerischen Positionierung muss immer die Verpflichtung auf die Rahmenbedingungen des Wirtschaftens sein. Welches sind die Erwartungen unserer Kapitalgeber, was bedeuten uns unsere Mitarbeiter, wie stellen wir uns zur langfristigen Erhaltung unserer Umwelt, was dürfen die Kunden von uns erwarten, was leisten wir - unter anderem als Steuerzahler - zum Wohlergehen der Öffentlichkeit? Nehmen wir als Beispiel die Mitarbeiter. Wenige Unternehmen werden heute Ihren Mitarbeitern Arbeits- oder gar Arbeitsplatzsicherheit garantieren wollen. Wenn sich aber ein Unternehmen zur "Beschäftigungssicherheit" verpflichtet, so ist ihm die stete Förderung der Mitarbeiter ein Anliegen, so dass diese bei einer unausweichlichen Freistellung bald wieder eine andere gleichwertige Anstellung finden können. Und wenn die Kundenbedürfnisse nicht im Mittelpunkt des unternehmerischen Handelns stehen, werden auch die Aktionäre nicht profitieren. Die Unternehmenspolitik legt also den Spielraum fest, innerhalb dessen der -> Shareholder Value optimiert werden soll. Dies ist eine klare Absage an die Gewinnmaximierung, an die alleinige Fokussierung auf die Kapitalgeber. Es sei aber klar festgehalten, dass der Aktionärsnutzen der Primus inter pares ist.
Als nächstes sind nun die Kernkompetenzen aufzubauen, um in Zukunft der führende oder zumindest ein guter Mitspieler zu sein. Kernkompetenzen sind Fähigkeiten, die einem Unternehmen aus der Sicht der Kunden einen nachhaltigen Vorteil gegenüber der Konkurrenz verschaffen. Wenn Motorola die Zukunft der persönlichen Kommunikation darin sieht, dass jeder Mensch seine eigene Telefonnummer haben wird, so braucht das Unternehmen auf drei Gebieten eine Kemkompetenz, um das visuelle Telefon am Handgelenk zu realisieren: Digitale Verdichtung, Flachbildschirm-Wiedergabe und Batterietechnologie. Die Bestimmung der Kernkompetenzen allein reicht aber noch nicht aus. Vielmehr müssen diese in Strategien umgesetzt werden.
2. Künftige Spielregeln des Wettbewerbs
4. Strategien
In diesem Schritt muss das Unternehmen die Frage stellen, wie sich in den nächsten fünf bis zehn Jahren die "Spielregeln" des
Unter einer Strategie wird der Weg verstanden, der heute in Angriff genommen wird, um zu Beginn des nächsten Jahrtau-
3. Kompetenzen
721
Strategieplanung, wertorientierte
Strategieplanung, wertorientierte
sends über die entsprechende Kompetenz zu verfügen. Dabei sind drei Ebenen zu unterscheiden, nämlich Geschäfts-, Unternehmer- und Eignerstrategien.
werden sollten. Nach dem Durchlaufen des hier beschriebenen Kreislaufs verblieben lediglich drei Kernprozesse, die aber grundlegend neu zu gestalten waren.
Geschäftsstrategien zielen darauf ab, die einzelnen Tätigkeitsfelder (oder strategischen Geschäftseinheiten SGE) im Wettbewerb optimal zu positionieren. Es ist zu entscheiden, ob die einzelne SGE Kostenflihrer, Leistungsführer oder Nischenplayer sein soll.
6. Prozessorganisation Als letzter Schritt verbleibt nun die Umsetzung der Kernprozesse mit den größten Wertsteigerungspotenzialen in eine funktionsfähige Organisation. Stand früher die vertikale Organisation nach Funktionen wie Beschaffung, Produktion, Marketing, Finanzen und Personal im Vordergrund der meisten Strukturierungen (-+ Organisationsformen, -> Organisationsstrukturen), so werden heute Unternehmen horizontal um Prozesse herum aufgebaut (—> Prozessmanagement, -» Management des Wandels, -> Geschäftsprozessoptimierung). Als Beispiel dafür sei die Organisation der IBM genannt, wo die einzelnen -> Profit-Centers durch ein Netz von Prozessen organisatorisch zusammengehalten werden. Entscheidend ist in diesem Zusammenhang, dass Prozessverantwortliche im Unternehmen bezeichnet werden, deren oberstes Ziel es ist, zur Erfüllung der Vision des Unternehmens beizutragen - womit sich der Kreis geschlossen hat.
Unternehmensstrategien identifizieren die unternehmensweiten Potenziale und Synergien (Beschaffung, Informatik, Finanzen, Akquisitionen, Kooperationen) und nutzen diese zur Steigerung des Unternehmenswertes. Eignerstrategien halten fest, was die Unternehmenseigner zur gesunden Entwicklung des Ganzen beitragen können, dies vor allem auf den Gebieten der Restrukturierung, der Finanzierung und der Akquisition. 5. Kernprozesse Ausgehend von den Kompetenzen und den entsprechenden Strategien sind sodann die Prozesse abzugrenzen, die das Unternehmen beherrschen muss, um langfristig eine führende Rolle spielen zu können. Mit diesem Schritt wird dem Gedanken des Business Reengineering Rechnung getragen (-> Business Process Reengineering), das nicht mehr unternehmerische Funktionen wie Beschaffung, Produktion oder -» Marketing im Vordergrund sieht, sondern den gesamten wertschöpfenden Prozess vom ersten Kundenkontakt bis hin zum zufriedenen Kunden. Die Ermittlung von Kernprozessen erfordert eine völlig neue Sicht des Unternehmens basierend auf den Kernkompetenzen. Es genügt nicht, die heutigen Prozesse mit Hilfe der modernen Informationstechnologie schlanker und schneller zu machen. Als Beispiel sei das Reengineering des Firmenkundengeschäftes einer Großbank angeführt, bei dem ursprünglich zehn Prozesse optimiert 722
7. Wertsteigerungspotenziale Während des gesamten VIP-Prozesses stellt sich die Frage nach den Möglichkeiten der Steigerung des Unternehmenswertes. Alle Schritte werden auf ihr Potenzial hin beurteilt, in der Zukunft frei verfügbare -» Cash-flows zu generieren. Im Mittelpunkt steht dabei ihr Einfluss auf die sogenannten "Wertgeneratoren" Umsatzwachstum, Gewinnmarge, Investitionen ins Anlage- und Nettoumlaufvermögen, Kapitalkostensatz und Ertragssteuerrate. Mit diesem Vorgehen wird vermieden, dass eine zu starke Fokussierung auf die vermeintlich „einfachen" Maßnahmen zur Wertsteigerung erfolgt, die im Bereich des -> Kostenmanagements liegen. Nachdem bei der Entwicklung der Vision die unternehmerische Wertschätzung ge-
Strategieplanung, wertorientierte genüber Mitarbeitern, Kunden, Lieferanten, Staat und Öffentlichkeit explizit festgehalten wurde, ist nach Durchlaufen des Strategieprozesses zu überprüfen, ob die eingeschlagene Marschrichtung tatsächlich den angestrebten Wert für die einzelnen Anspruchsgruppen erbringt. Das bedeutet, dass hier nicht nur eine Shareholder Value-Berechnung nach üblichem Muster erfolgt, sondern ergänzend eine Nutzwertanalyse mit Kriterien der Anspruchsgruppeninteressen vorgenommen wird. Nur so kann das beschriebene Vorgehen dem Anspruch eines ganzheitlichen Wertmanagements gerecht werden. Literatur: Bühner, R./Sulzbach, K.: Wertorientierte Steuerungs- und Führungssysteme. Shareholder Value in der Praxis, Stuttgart 1999; Bruhn, M./ Lusti, M./Müller, W.: Wertorientierte Unternehmensführung, Wiesbaden 1998; Copeland, T./Koller, T./Murrin, J: Unternehmenswert, Frankfurt a.M. 1998; Gomez, P.: Wertmanagement, Düsseldorf 1993; Rappaport, A.: Shareholder Value Ein Handbuch für Manager und Investoren, Stuttgart 1998.
Peter Gomez Strategie-Struktur-Zusammenhang Die klassische strategische ManagementLehre geht davon aus, dass die (Organisations-)Struktur eines Unternehmens der gewählten Strategie folgt ("Structure follows strategy"). Dieses Konzept beruht unter anderem auf den Arbeiten von Chandler, der aus historischer Perspektive erkannt hat, dass die -> Geschäftsbereichsorganisation die am besten geeignete -»Organisationsstruktur ist, wenn ein Unternehmen relativ breit diversifiziert ist (-> Diversifikation).
Strategieunterstützungssysteme Umgekehrt wird auch die Ansicht vertreten, dass es - besonders kurzfristig sinnvoll sei, die Untemehmensstrategie der Struktur anzupassen ("Strategy follows structure"). Diese Vorstellung beruht vor allem auf sozialpsychologischen Verhaltensmerkmalen: Durch Widerstände gegenüber Änderungen und Umstrukturierungen im Unternehmen ("Organizational Slack") wird eine schnelle und effektive Anpassung der Unternehmensstruktur behindert. Daher ist es sinnvoller, zumindest kurzfristig die Struktur als Datum zu nehmen und die Strategie entsprechend anzupassen. Auf lange Sicht ergänzen sich die beiden Sichtweisen. Für größere Zeiträume gilt dann "Structure follows strategy", während in kleinerem Rahmen (etwa auf Geschäftsbereichsebene) und in kurzem Zeithorizont die Strategie der Struktur folgt ("Strategy follows structure"). Strategieunterstützungssysteme Unter dem Begriff Strategieunterstützungssysteme lassen sich Instrumente und Methoden subsumieren, die strategisches Denken, Planen und Lernen wirkungsvoll unterstützen können. Zwischen diesen Prozessen bestehen enge Zusammenhänge (Abb. 1). Strategisches Denken und strategisches Planen sind komplementäre Vorgänge, strategisches Lernen findet in deren Zusammenspiel statt und ergibt sich aus der Konfrontation von in der Vergangenheit gemachten Erfahrungen mit für die Zukunft erwarteten Herausforderungen.
Strategisches Denken
- > > Zukunft
Strategisches Lernen Strategisches Planen Abb. 1: Zusammenhänge
zwischen strategischem
Denken, Planen und
Lernen
723
Strategieunterstützungssysteme Während strategisches Planen von einer Annahme über die Zukunft (einer prognostizierbaren Zukunft im Sinne eines wahrscheinlichen Szenarios) ausgeht, unterstellt strategisches Denken eine Zukunft, die immer wieder neu erdacht bzw. erfunden werden muss. Letzteres basiert auf kreativer und kritischer Reflexion; ersteres setzt auf rationale Analyse und manifestiert sich in sequentieller Programmierung (Strategiefindung, beurteilung, -Umsetzung, -Überwachung). Strategisches Denken resultiert entweder in der Bestätigung und weiteren Verbesserung (Verbesserungslernen) oder in der Veränderung einer vorherrschenden Geschäftslogik (Erneuerungslernen). Eine strategische Neuausrichtung impliziert den als notwendig erkannten Bruch zwischen erlebter und gewünschter Geschäfts-/Unternehmensentwicklung. Sie erfordert strategisches Lernen, das sich in Veränderungen der gemeinsamen mentalen Modelle der Entscheidungsträger und in ihrem neuen Geschäftsverständnis manifestiert. Mentale Modelle sind konzeptionelle Abstraktionen der Realität bzw. konstruierte Wirklichkeiten in den Köpfen der Führungskräfte, deren Problem-, Geschäfts-, d.h. RealitätsVerständnis sie bestimmen. Mentale Modelle beinhalten eine Vielzahl von den Entscheidungsträgem jeweils unterschiedlich wahrgenommener Fakten, wie bspw. Name und Verhalten der Wettbewerber, Produkttypen und -preise, Mitarbeiterfähigkeiten, technische Kompetenzen, organisatorische Fähigkeiten, Budgets usw. Generell haben Entscheidungsträger Vorstellungen über •
•
•
Strategieinhalte, die aus der Marktoder/und der Ressourcenperspektive gesehen werden, Strategieprozesse, die entweder als Vorgänge rationaler Strategieformulierung oder emergenter Strategieformierung identifiziert werden sowie über Strategiekonzepte, etwa im Sinne generischer Entweder-oder-Strategien
724
Strategieunterstützungssysteme (Kostenfuhrerschaft oder Differenzierung) oder hybrider Strategien. Zur Unterstützung strategischer Entscheidungen bedienen sich die Entscheidungsträger einer Vielzahl verschiedener Methoden, wie bspw. der -> Erfahrungskurve, der Portfolioanalyse, dem Konzept der fünf Wettbewerbskräfte, der Wertkettenanalyse (-* Wertschöpfungskette), der Szenarioanalyse (-> Szenario-Technik) usw. sowie Modellierungsansätzen und informationstechnischer Werkzeuge (-> Modellierungssysteme). Mit Hilfe solcher Strategieunterstützungssysteme sollen die Entscheidungsträger in die Lage versetzt werden, in einem durch permanenten, zuweilen auch turbulenten Wandel gekennzeichneten Aufgabenumfeld auch ihre Strategien zu dynamisieren, d.h. von Zeit zu Zeit anzupassen oder neu zu erfinden. Dieser Vorgang basiert zunächst auf veränderten Vorstellungen (mentalen Modellen) über mögliche Geschäftsentwicklungen, die als Strategien interpretiert werden können. Strategien stehen somit für die Art und Weise, wie sich Unternehmen im Wettbewerb differenzieren und können als Aktionskurse in die Zukunft bezeichnet werden. Entscheidungen über Strategien bedeuten demnach eine Wahl zwischen alternativen (Geschäfts-)Modellen und dynamisierten Strategien einer Abfolge solcher Modelle. Die Kernfrage der Strategieunterstützung bezieht sich somit nicht darauf, ob Modelle verwendet werden sollen, sondern darauf, wie die verwendeten Modelle verbessert werden können. Diskussionen über Strategieänderungen werden immer vor dem Hintergrund unterschiedlicher mentaler Modelle der Entscheidungsträger gefuhrt. Solche Dialoge gestalten sich gewöhnlich schwierig, da die mentalen Modelle der Entscheidungsträger impliziter Natur sind und nicht intersubjektiv überprüft werden können. Ein Ansatz zur Lösung dieses Problems
Strategieunterstützungssysteme
Strategieunterstützungssysteme ist die Transformation mentaler in formale Modelle. Durch Explikation entstehende formale Modelle sind im Vergleich zu mentalen Modellen zwar weniger anpassungsfähig, aber aufgrund ihres höheren Strukturierungsgrades besser zur Kommunikation geeignet. Dies wird dann allerdings in der Regel mit einem gewissen Informationsverlust erkauft. Formale Modelle, die vorhandenes Managementwissen synthetisieren und explizieren, haben gegenüber mentalen Modellen eine Reihe von Vorteilen. Sie schaffen eine virtuelle Realität, in der Strategien schnell und gefahrlos getestet werden können (Abb. 2). Insbesondere Simulationsmodelle, etwa vom Typ System Dynamics, eignen sich für ein systematisches Experimentieren.
Mögliche Wirkungen strategischer Entscheidungen können so über längere Zeiträume analysiert werden. Dabei kann je nach Bedarf die Zeit gerafft oder gestreckt werden. Im Ergebnis tragen solche Experimente zu einem besseren Verstehen der jeweiligen Strategieproblematik bei. Die hier gewonnenen Erkenntnisse manifestieren sich schließlich in einem strategischen Lernen. Auf Basis des System DynamicsAnsatzes hat Lyneis ein 4-phasiges Konzept zur Strategieunterstützung entwickelt. Dieses beginnt mit einer Geschäftsstrukturanalyse, die im Ergebnis strategierelevante Aspekte in Form von Einflussdiagrammen expliziert. Anschließend wird ein konkretes Modell entwickelt, das die Zusammenhänge der betrachteten Strategie beschreibt. Nächster Schritt ist
Virtuelle Realität: Inkonsistenzen Perfekte Implementierung Implementierungsfehler Konsistente Anwendung „Gaming" von Entscheidungsregeln
Virtuelle Realität: Kompletter, akkurater und sofortiger Feedback
Strategien, Strukturen, Entscheidungsregeln
Mentale Modelle Explikation von mentalen Modellen „Group model building"
Anwendung von Simulationen, um Dynamik auf mentale Modelle zu übertragen
Abb. 2: Rückkopplungskreislauf
Realität: Verzögerungen Selektive Wahrnehmung Kein Feedback J
des
Lernprozesses
725
Strategieunterstützungssysteme die Konkretisierung und Detaillierung eines Modells zur tiefergehenden Hinterfragung und Beurteilung der Entscheidungssituationen. Abschließend werden die gewonnenen Einsichten in die Strategieimplementierung übertragen. Der Erkenntnis, dass der Konsensfindung der beteiligten Entscheidungsträger im Strategieentwicklungsprozess eine entscheidende Bedeutung zukommt, trägt das "Group Model Building" Rechnung. Danach wird das gemeinsame Modellieren als eine Methode verstanden, die es ermöglicht, Diskussionen zu strukturieren und eine Lernumgebung zu kreieren, in der Annahmen und Strategien gemeinsam getestet werden können. Modelle vom Typ System Dynamics eignen sich auch für ein "Gaming" als Entscheidungsunterstützung. Durch verbesserte Hard- und Software entsteht hier eine neue Klasse von Instrumenten, wie bspw. Lernlabors bzw. -modelle, in denen die am Entscheidungsprozess Beteiligten Erfahrungen in virtueller Realität machen können. Die Präsentation der Simulationsmodelle auf benutzerfreundlichen Bildschirmoberflächen ermöglicht es dem Entscheidungsträger, sich indirekt mit einem Simulationsmodell zu beschäftigen und daraus Erkenntnisse für seine Entscheidungssituation zu ziehen. Zur Beurteilung der Effektivität einer Strategie, insbesondere im Hinblick auf ihre finanzwirtschaftlichen Wirkungen, eignet sich die —> Balanced Scorecard. Sie berücksichtigt Maßzahlen, die über Kausalketten miteinander in Beziehung stehen, und sie entspricht damit einem Systemdenken, wie es auch fiir den System Dynamics-Ansatz typisch ist. Literatur: Liedtka, J.M.: L i n k i n g Strategie thinking with Strategie planning, in: S t r a t e g y and Leadership, 26, 1998, 4; Zahn, E.: Strategieunters t ü t z u n g s s y s t e m e , in: Milling, P. (Hrsg.): Syst e m m a n a g e m e n t u n d M a n a g e m e n t s y s t e m e , Berlin 1991, S. 4 3 - 7 9 ; Sterman, J.D.: L e a r n i n g in and about c o m p l e x systems, in: S y s t e m D y n a m i c s
726
Strategische Gruppen R e v i e w , 10, 1994, 2-3; V e n n i x , J . A . M . / A k k e r m a n n s , H . A . / R o u w e t t e , E.A.J.A.: G r o u p m o d e l b u i l d i n g to facilítate Organization c h a n g e : a n e x p l o r a t o r y study, in: S y s t e m D y n a m i c s R e v i e w , 12, 1996, 1, S. 3 9 - 5 8 .
Erich Zahn/Florian Kapmeier Strategische Allianzen Strategische Allianzen sind -> Kooperationen mehrerer rechtlich unabhängiger Unternehmen, um ein strategisches Ziel zu erreichen. Die Zusammenarbeit kann dabei von losen Absprachen (bei Beachtung des Kartellverbots) bis zur Gründung eines -» Joint Ventures oder wechselseitiger Minderheitsbeteiligung gehen. Zu Motiven und Gestaltung von Strategischen Allianzen vgl. Kooperation und -> Unternehmenszusammenschluss. Strategische Faktoren -* Strategisches Management Strategische Geschäftseinheiten Strategischen Geschäftseinheiten umfassen meist mehrere homogene Produkte oder Produktgruppen. Durch die Zusammenlegung dieser Produkte entstehen die strategischen Geschäftseinheiten. Um eine übersichtliche Handhabung sicherzustellen, sollte die Anzahl nicht zu groß sein. Oftmals ermöglicht erst die Bildung von Strategischen Geschäftseinheiten eine sinnvolle Festlegung von Marketing- oder Produktionsstrategien. Strategische Gruppen 1. Begriffliche Abgrenzung Unter einer strategischen Gruppe versteht man eine Gruppe von Unternehmen in einer Branche, die bezüglich bestimmter strategischer Merkmale dasselbe oder ein ähnliches Verhalten aufweisen. Solche Merkmale können der Grad der Spezialisierung des Produktangebots, die Art der gewählten Vertriebskanäle, das Qualitätsniveau der Produkte und ähnliches sein. Strategische Gruppen werden als analytisches Hilfswerkzeug der brancheninternen Strukturanalyse gebildet, wobei die Konkurrenten im Mittelpunkt der Analyse stehen.
Strategische Gruppen
Strategisches Management
2. Gründe für die Bildung von strategischen Gruppen Es gibt verschiedene Gründe, weshalb strategische Gruppen entstehen können. Dazu gehören unterschiedliche Ausgangssituationen, die zu unterschiedlichen Ressourcen oder Fähigkeiten der Unternehmen geführt haben, aber auch unterschiedliche Ziele und Risikoneigungen der Unternehmen. Diese können beispielsweise dazu führen, dass früh in einen Markt eintretende Unternehmen ganz andere Strategien verfolgen als später hinzukommende. Im Normalfall finden sich in einer Branche mehrere strategische Gruppen. Extremfälle liegen dann vor, wenn die gesamte Branche eine einzige strategische Gruppe ist, oder aber wegen der extremen Heterogenität der Positionen, jedes Unternehmen eine eigene strategische Gruppe bildet. 3. Strategische Gruppen und Mobilitätsbarrieren Mobilitätsbarrieren, wie zum Beispiel Betriebsgrößenersparnisse, Umstellkosten oder Zugang zu den Vertriebskanälen schützen die Mitglieder einer strategischen Gruppe vor dem Eintritt branchenfremder Unternehmen. Die Mitglieder einer strategischen Gruppe mit hohen Mobilitätsbarrieren haben deshalb grundsätzlich ein größeres Gewinnpotenzial als Unternehmen, deren strategische Gruppe geringere Mobilitätsbarrieren aufweist. Unterschiedliche strategische Gruppen bringen verschieden hohe Mobilitätsbarrieren mit sich, die bestimmten Unternehmen dauerhafte Vorteile über andere verschaffen können. Außerdem be- bzw. verhindern sie auch den Wechsel der eigenen strategischen Position von einer in eine andere strategische Gruppe. Mobilitätsbarrieren erklären, warum Unternehmen ihre jeweiligen Strategien weiterverfolgen, obwohl andere möglicherweise erfolgreicher sind. Harald Hungenberg Strategische Planung Unternehmensführung
Strategische Unternehmensführung ->• Unternehmensführung Strategisches Management Das Strategische Management umfasst sämtliche Managemententscheidungen und daraus abgeleitete Aktionen, durch die der längerfristige Erfolg der Unternehmung sichergestellt werden soll. Neben der Planung und Steuerung der längerfristigen Unternehmungsentwicklung besteht die Hauptaufgabe des Strategischen Managements in der Entwicklung und Umsetzung von Unternehmungsstrategien, durch die möglichst dauerhafte Wettbewerbsvorteile begründet werden. Dem Strategischen Management liegt als formales Hilfsmittel ein strategischer Planungsprozess zu Grunde. Obwohl dieser für gewöhnlich vom TopManagement der Unternehmung initiiert und gesteuert wird, können die Grundlagen Erfolg versprechender Untemehmungsstrategien auf allen Hierarchiestufen entstehen. Es ist daher von besonderer Wichtigkeit, alle Manager und in hervorgehobener Position beschäftigten Mitarbeiter in den strategischen Planungsprozess zu integrieren. Nur so kann das unternehmungsinterne Potenzial für innovative Strategien ausgeschöpft und die innere Verpflichtung der Mitarbeiter auf die ausgewählten Strategien sichergestellt werden. In der Praxis werden oft hierarchieebenen-übergreifende Planungsgruppen gebildet, die ein Bündel von Strategien zur Umsetzung der Unternehmungsziele entwickeln und gleichzeitig alle wichtigen Fragen zur Implementierung und Kontrolle der Pläne detaillieren. Der dem Strategischen Management zu Grunde liegende Planungsprozess ist normalerweise als ein mehrstufiges Entscheidungsprozessmodell konzipiert, das alle wichtigen Teilaufgaben des Strategischen Managements logisch miteinander verbindet. Ein solches Planungsprozessmodell kann allerdings immer nur einen Orientierungsrahmen bilden, der nicht rigide zu befolgen, sondern im Einzelfall 727
Strategisches Management
Strategisches Management
Strategien der Unternehmung? Werden die Ziele erreicht? Sind die Unternehmungsstrategien zweckmäßig? Die während dieser Bewertungsphase aufgedeckten Leistungsdefizite sind ein erster, wichtiger Anhaltspunkt für die angestrebte strategische (Re-) Orientierung der Unternehmung.
zu ergänzen und zu modifizieren ist. Der Planungsprozess sollte so flexibel gehandhabt werden, dass auch plötzlich auftretende Chancen oder Risiken in die Strategieentwicklung einfließen können. Im Folgenden werden anhand eines acht Stufen umfassenden Planungsprozessmodells die wichtigsten Teilaufgaben des Strategischen Managements dargestellt (Abb. 1).
Stufe 2: Die Beurteilung der strategischen Entscheidungsträger. Diese Stufe dient der Bewertung der Untemehmungsleitung, beispielsweise in der Aktiengesellschaft des -» Vorstands und des —> Aufsichtsrats. Zu überprüfen ist, ob die im Vorstand vollzogene Aufgabenteilung im Lichte der verfolgten Strategien sinnvoll ist und ob alle Vorstandsmitglieder hinreichend qualifiziert sind. Bezüglich des Aufsichtsrats ist ebenfalls zu überprüfen, ob das insgesamt vorhandene Fachwissen für die Aufgabenstellungen der Unternehmung ausreicht. Außerdem muss beurteilt werden, ob und inwieweit der Aufsichtsrat seiner Überwachungsfunktion nachkommt und die Geschäftsführung durch den Vorstand effektiv kontrolliert. Qualifikationsdefizite und strukturelle Mängel der Topmanagement-Gremien sind im Rahmen des zu entwickelnden strategischen Konzepts auszugleichen.
Stufe 1 : Die Bewertung des Unternehmungserfolges stellt den Beginn des Planungsprozesses dar. Eine Performancebewertung ist für die Gesamtunternehmung und alle Geschäftsbereiche von Nöten. Dabei bedient man sich relevanter Erfolgskennzahlen aus dem Rechnungswesen, z.B. dem -* Retum-on-Investment, dem Discounted Cash-flow (-> Discounted Cashflow-Methoden), der Eigenkapital- oder der Umsatzrentabilität. Da der Unternehmungserfolg im Vergleich zu vorgegebenen Standards bewertet wird, schließt die Stufe 1 auch eine Bewertung der momentanen strategischen Situation ein. Auf folgende Fragen müssen Antworten gegeben werden: Wie lauten die Mission, die langfristigen Zielsetzungen und die derzeit verfolgten
3 4
Analyse der externen Umwelt
Wertschöpfungskette). Die Wertkette klassifiziert und ordnet sämtliche Aktivitäten innerhalb der Unternehmung, und sie kann deshalb zu einer Präzisierung funktionsbezogener Analysen dienen. Stufe 5: Revision der Mission und langfristigen Zielsetzungen. Die Stufen 3 und 4 des Planungsprozesses sind als SWOTAnalyse (Akronym der englischen Begriffe Strengths, Weaknesses, Opportunities, und Threats) bekannt, und ihr Ergebnis sind die als strategische Faktoren bezeichneten wichtigsten Chancen, Risiken, Stärken und Schwächen. Die strategischen Faktoren können eine Veränderung der in Stufe 1 beurteilten Mission und der langfristigen Zielsetzungen der Unternehmung nahe legen. Aus diesem Grunde sollte eine solche Anpassung erwogen und durchgeführt werden, bevor sich der 729
Strategisches Management Planungsprozess in Stufe 6 der Strategieauswahl zuwendet. Stufe 6: Entwicklung, Bewertung und Auswahl der besten Strategiealternativen. Auf dieser Stufe werden zunächst alternative Unternehmungsstrategien für die Ebenen der Gesamtunternehmung, der Geschäftsbereiche und der Funktionsbereiche entwickelt. Als Strategien bezeichnet man generelle Aktionsprogramme zur Verwirklichung der Unternehmungsziele. Da sich der Unternehmung immer mehr strategische Optionen anbieten, als zu einem bestimmten Zeitpunkt realisierbar sind, erfolgt eine Evaluation der Alternativen mit dem Ziel, das Erfolg versprechendste Strategiebündel auszuwählen. Als Bewertungskriterien dienen neben den längerfristigen Unternehmungszielen auch die Ergebnisse der SWOT-Analyse. Optimale Strategiebündel kombinieren externe Chancen mit internen Stärken, und sie zeigen Wege auf, wie Unternehmungen sich vor Umweltrisiken schützen und ihre internen Schwächen überwinden können. Stufe 7: Implementierung der Strategien. Nach der Auswahl von Strategien muss die Unternehmungsleitung organisatorische Maßnahmen zu ihrer Implementierung ergreifen. Unter Strategieimplementierung versteht man die Summe aller Aktivitäten und organisatorischen Arrangements, die in der Unternehmung durchgeführt bzw. bereitgestellt werden, damit strategische Pläne möglichst effizient und effektiv realisiert werden können. Die wichtigsten Implementierungsaktivitäten beziehen sich auf die sachorientierte Umsetzung: Es werden operative Programme und Budgets spezifiziert, die die bereichs- und abteilungsbezogene Umsetzung der Strategien anleiten. Neben umsetzungsorientierten Aktivitäten dienen auch Maßnahmen der Organisationsgestaltung der Implementierung einer Strategie. Durch die bewusste Gestaltung von zentralen
730
Strategisches Management Organisationsmerkmalen, wie z.B. der Organisationsstruktur, versucht das Management, ein kontinuierliches, strategiegeleitetes Handeln der Unternehmungsmitglieder zu erleichtern und sicherzustellen. In der Praxis wird oft die Anpassung wichtiger Organisationsmerkmale an die Implementierungserfordernisse einer Strategie vernachlässigt. Der fehlende "Strategie Fit" der Strategien mit den organisatorischen Gegebenheiten kann das Scheitern von an sich gut begründeten Unternehmungsstrategien zur Folge haben. In der Regel ist die Herstellung eines Einklangs zwischen den Unternehmungsstrategien und insbesondere vier Organisationsmerkmalen bedeutsam: der Organisationsstruktur, den Managementqualifikationen, der Organisationskultur (-> Unternehmenskultur) und dem mikropolitischen Umfeld. Stufe 8: Strategische Kontrolle. Parallel zur Strategieimplementierung ist ein strategisches Kontrollsystem aufzubauen, mit dessen Hilfe die Unternehmung feststellen kann, ob und inwieweit sie ihre strategischen Zielsetzungen erreicht. Darüber hinaus impliziert die strategische Kontrolle die Einleitung von Korrekturmaßnahmen, falls die Resultate der Kontrolle den Erwartungen des Managements nicht entsprechen. Einen strategischen Kontrollprozess kann man als ein mehrstufiges Rückkopplungsmodell auffassen: Es geht zunächst darum festzulegen, welche Implementierungsprozesse und Resultate zu überwachen sind; hier ist also eine Auswahl zu treffen im Sinne einer Konzentration der Kontrollaktivitäten auf als wichtig erachtete Elemente. Im nächsten Schritt geht es um die Auswahl von Leistungsindikatoren oder Standards, die detaillierte und möglichst quantifizierte Ausdrücke der zu implementierenden Unternehmungsstrategien und -ziele darstellen. Sobald Stan-
Stressmanagement
Strategisches Management dards festgelegt sind, setzt sich der Kontrollprozess mit der Ist-Daten-Erfassung und dem Vergleich dieser Daten mit den vorgegebenen Standards fort. Fallen die Ergebnisse des Soll-Ist-Vergleichs aus den vorgegebenen Toleranzgrenzen heraus, wird das Management eine Abweichungskorrektur vornehmen, um die Lücke zwischen den Standards und den Ergebnissen zu verringern. Zur Abweichungskorrektur kann auf ein breites Spektrum von Maßnahmen zurückgegriffen werden, angefangen bei der Veränderung von einfachen Prozeduren bis hin zum Austausch von Strategien und strategischen Zielsetzungen. Die Rückkopplung der strategischen Kontrolle zur Bewertung des Unternehmungserfolges in Abbildung 1 verdeutlicht, dass Überwachungs- und Bewertungsmaßnahmen insbesondere am Anfang und am Ende des strategischen Planungsprozesses anfallen und die Ergebnisse der Kontrolle zum Input für die Bewertungen der Stufe 1 werden. Aufgrund der Notwendigkeit, strategische Pläne schnell an sich verändernde Umweltgegebenheiten anpassen zu können, sollte ein gut konzipiertes Kontrollsystem den gesamten strategischen Planungsprozess begleiten. Ein leistungsfähiges Kontrollsystems sollte daher flexibel genug sein, um Anpassungen an unvorhergesehene Ereignisse zuzulassen, es soll ferner akkurate Informationen vermitteln, die die wahren Leistungen der Unternehmung widerspiegeln, und schließlich soll es Informationen so schnell liefern, dass Entscheidungen nicht auf der Basis überholter Daten getroffen werden müssen. Die zirkuläre Gesamtstruktur des in Abbildung 1 dargestellten Entscheidungsprozesses macht auch klar, dass die Aufgaben des Strategischen Managements niemals abgeschlossen sind, sondern sich kontinuierlich fortsetzen. Literatur: Bresser, R: Strategische Managementtheorie, Berlin 1998; Welge, M./Al-Laham A.: Strategisches Management, 2. Aufl., Wiesbaden
1999; Wheelen, T./Hunger D.:. Strategie Management and Business Policy, Reading, 6. Aufl., 1998.
Rudi K. F. Bresser Strategisches Radar -> Frühwarnsysteme Streik -» Arbeitskampf Stressmanagement I. Das Stressphänomen: ursprünglich und heute Der Terminus Stress wurde in der Physik formuliert. Dort bezeichnet er den Druck (stress), der auf einen Körper einwirkt und bei diesem Beanspruchung (strain) und Deformation hervorruft. In biologischen Ansätzen hat sich jedoch ein Bedeutungswandel vollzogen. Hier werden auf den Menschen einwirkende Faktoren in Form von Reizen als Stressoren bezeichnet und damit einhergehende körperliche und seelisch-geistige Anpassungen als Stress bzw. Stressreaktionen. Diese Aussage ist wertneutral und schließt Reize ein, die notwendig sind, um in die Aktivität zu gehen, ohne die es kein Überleben geben könnte. Somit ist das Zusammenspiel von Stressoren und Stressreaktionen ein natürliches Prinzip. Sieht sich der Mensch einer Gefahr ausgesetzt, greift ein spezieller physiologischer Mechanismus - die sog. "Kampf-Flucht-Reaktion". Die Reaktion des Organismus auf eine solche Bedrohung vollzieht sich in vier Phasen: • • • •
Vorphase Alarmphase Handlungs-/Abwehrphase Erholungsphase
Bei der Vorphase handelt es sich um "die Ruhe vor dem Sturm". Nahezu alle Kreislauf- und Stoffwechselfunktionen werden in dieser Phase schlagartig reduziert, um die bevorstehende Aktivierung zusätzlicher Kräfte nicht durch störende Prozesse zu behindern. 731
Stressmanagement
Stressmanagement In der Alarmphase findet im Körper die Mobilisierung von Reserven statt. Kräfte werden bereitgestellt, um der Gefahr zu begegnen - durch Kampf oder Flucht. Alle Energie ist auf die bevorstehende Handlung ausgerichtet. Die Funktionen des gesamten Körpers werden vorübergehend verändert. Das Herz schlägt schneller, der Blutdruck steigt, die Lungen nehmen mehr Sauerstoff auf, die Muskeln werden angespannt, die Bronchien erweitern sich, das Immunsystem wird aktiviert usw. Gleichzeitig hören andere Prozesse wie z.B. die Verdauung sowie die sexuelle Aktivität auf, da sie in dieser Situation nicht benötigt werden. Der gesamte Organismus wird also umgestellt, um in der Gefahrensituation angemessen reagieren zu können. In der Handlungs-/Abwehrphase setzt sich der Mensch aktiv mit der bedrohlichen Situation auseinander. Die bereitgestellten Energien werden verbraucht. An die Handlungs-/Abwehrphase schließt sich die Erholungsphase an. Die Erregung klingt ab, Kreislauf- und Stoffwechselfunktionen kehren zur Normallage zurück. Die Abfolge der Stressreaktion in den beschriebenen vier Phasen garantiert einen wirtschaftlichen Gebrauch der Körperkräfte. Auf diese Weise wird die Abwehr gegen störende Umwelteinflüsse organisiert und notwendige Muskelleistungen zur Flucht oder zum Angriff ermöglicht. Werden sämtliche Phasen angemessen durchlaufen, stellt sich im Körper wieder ein ausgeglichener Zustand aller Funktionen her. Das Gleichgewicht innerhalb der vier Reaktionsphasen ist heute nachhaltig gestört. Dies liegt zum einen daran, dass sich der Körper auch in modernen Belastungssituationen auf Kampf oder Flucht umstellt, obwohl es heute kaum eine Situation gibt, in der man entweder um sein Leben rennen oder bis zum Tode kämpfen muss. Die Handlungs- bzw. Abwehrphase, in der die bereitgestellte Energie ver732
braucht wird, wird in den meisten Situationen nicht durchlaufen. So werden die gespannten Muskeln nicht genutzt, das Fett und der Zucker im Blut werden nicht verbrannt. Der Körper reagiert sich nicht ab. Hinzu kommt, dass die Häufigkeit der Belastungen im modernen Alltag stark zugenommen hat. Der Mensch sieht sich einem wahren "Trommelfeuer von Umweltreizen" (Vester) ausgesetzt, so dass die ebenfalls notwendige Phase der Erholung deutlich zu kurz kommt. Außerdem haben sich die Reize von der körperlichen hin zur seelisch-geistigen Seite verlagert. Das gestörte Gleichgewicht innerhalb der Reaktionsphasen hat tiefgreifende Wirkungen (Vester 1995): •
•
Gut 70% aller Krankheiten werden mit Stressreaktionen in Verbindung gebracht. Dazu gehören u. a. Reizmagen und Verdauungsstörungen bis hin zu Magen-/Darmkrankheiten, Kreislaufstörungen bis hin zu chronischem Bluthochdruck, chronische Schwächung des Immunsystems, Suchtkrankheiten sowie chronische psychische Leiden. Es entwickelt sich eine verstärkte Neigung zu aggressivem Verhalten. In Unternehmen führt dies im ungünstigsten Fall zu Mobbingaktivitäten (-> Mobbing).
Diese Wirkungen belasten nachhaltig das unternehmensbezogene Kosten-/Leistungsverhältnis. 2. Stresstherapie und -prophylaxe Um gegensteuern zu können, ist es wichtig, die Ursache der Stressreaktionen zu ergründen. Ergebnisse der Stress- und Meditationsforschung zeigen, dass die psychologische Einstellung zu erlebten Ereignissen eine dominante Einflussgröße darstellt. Obwohl viele Menschen die Meinung vertreten, dass ihre Gefühle von Spannung, Ärger, Wut, Enttäuschung oder Verzweiflung durch äußere Situationen,
Stressmanagement Ereignisse oder andere Menschen verursacht werden (z.B. der Ehepartner, der Vorgesetzte, der Verkehrsstau oder die Arbeitsbedingungen werden als Gründe für belastende Beeinträchtigungen angeführt), ist bei näherem Hinsehen festzustellen, dass diese Auffassung nicht haltbar ist. Das zeigen schon einfache Alltagserfahrungen: So haben zwei Menschen in der gleichen Situation häufig sehr unterschiedliche Gefühle. Oft reagiert auch ein und dieselbe Person zu verschiedenen Zeiten auf ein ähnliches Ereignis unterschiedlich. So kann es ein Manager, dem sein geplanter Tagesablauf völlig durcheinander gerät, manchmal abwechslungsreich finden. Dann fühlt er sich aufgefordert, kreativ und offen zu sein. An anderen Tagen hingegen, besonders wenn er schon vorher unausgeglichen und angespannt war, nervt ihn jede unerwartete Aufgabe. Dies kann sich in Reaktionen wie Verbissenheit, Angespanntheit oder Gereiztheit äußern. Hieraus folgt, dass Gefühle nicht von einer äußeren Situation oder von anderen Menschen geschaffen werden. Zwar sind die Situationen auch bedeutsam, aber sie führen nicht direkt, nicht zwangsläufig zu bestimmten Gefühlen, sondern: "Welche Gefühle wir in einer Situation empfinden, in welchem Ausmaß wir gespannt, ärgerlich oder verzweifelt sind, das hängt wesentlich von uns ab; das ist weitgehend unsere persönliche Art, auf das Ereignis zu reagieren." (Tausch 1996). Für diese Entwicklung ist die Funktion des menschlichen Gedächtnisses bedeutsam, Tag und Nacht wahllos alle Informationen aufzunehmen, die auf es einwirken. Somit trägt jeder Mensch die Welt seiner Vergangenheit in sich. Die Informationen werden im Gedächtnis allerdings nicht wertfrei, sondern als bewertete abgelegt. Durchlebte Empfindungen bleiben also erhalten und werden in vergleichbaren Situationen aktiviert. In
Stressmanagement diesem Sinne diktieren die Erinnerungen, was ängstigt oder ärgerlich macht. Hinzu kommen Lebenseinstellungen. Wegen der Häufigkeit ist das sog. "MussDenken" hervorzuheben. Hiermit sind Einstellungen gemeint wie z.B. "Ich muss auf jeden Fall ..." oder "Die anderen müssen unbedingt ...". Auch unrealistische Annahmen wie "Keine Schwäche zeigen" oder "Immer die/der Beste sein" oder "Keine Fehler machen" oder "Sei stark" gehören hierher. Das Imagedenken ist ein weiteres weit verbreitetes Beispiel. Dabei wird die eigene innere Identität zu Gunsten eines von außen herangetragenen Selbstbildes aufgegeben. Solche Einstellungen "müssen" in den verschiedensten Situationen immer wieder neu "bewiesen" werden. Dies ist sehr belastend, obwohl es in den meisten Fällen nicht bewusst wahrgenommen wird. Bewertungen und Einstellungen resultieren zum großen Teil aus der frühen Kindheit. Sie haben sich durch lebenslange Verstärkungen tief in die Persönlichkeit eingeprägt und wirken in das Erwachsenenalter hinein. Bewertungen und Einstellungen sind innere Stressoren, da sie das Resultat eines inneren Dialogs sind. Sie stellen Dauerbelastungen dar und gelten in der Stressforschung als wesentliche Ursache für erfahrene permanente Stressreaktionen im modernen Alltag. Obwohl die einzelnen Belastungen keine lebensbedrohenden Situationen darstellen, führen sie wegen der Häufigkeit zu vergleichbaren Reaktionen, da eine anhaltende Belastung durch kleine Reize zur gleichen Endreaktion führen kann wie eine kurze Einwirkung sehr starker Stressoren. Will man die Stressresistenz erhöhen, sind geeignete individuell angepasste Körperübungen ebenso hilfreich wie die Überprüfung von Essgewohnheiten und Tagesroutinen. Von besonderer Bedeutung ist es allerdings, Mittel zur Auflö-
733
Suchmaschine
Stressmanagement sung schädlicher Nebenwirkungen von Bewertungen und Einstellungen anzuwenden, ohne die Erinnerung selbst zu löschen; denn das Wissen sollte erhalten und damit anwendbar bleiben. Dies entspricht der wesentlichen Zielsetzung traditioneller Meditationsübungen. Das Wort Meditation bedeutet ursprünglich "zur Mitte kommen". Während der Meditation lernt der Geist, über die Ebene der Gedanken hinauszugehen, sie zu "transzendieren". Damit löst sich der Meditierende von eingefahrenen Bewertungen und Einstellungen. Während der Übung aufkommende Gedanken, Reaktionen und Gefühle werden wert- und spekulationsfrei so gesehen, wie sie sich im Augenblick gerade zeigen. Der Meditierende schlüpft in die Rolle des "Beobachtenden" und gewinnt damit Abstand zu seinen inneren Regungen, er lässt sie los, und die Erfahrung tiefer Ruhe bei gleichzeitiger geistiger Wachheit stellt sich ein. Das Angebot an Meditationsübungen ist vielfältig. Ob sie geeignet sind, die Stressresistenz zu erhöhen, ist u.a. Gegenstand der Meditationsforschung. Die sowohl therapeutische als auch prophylaktische Wirksamkeit wurde bis heute wissenschaftlich am fundiertesten für die Transzendentale Meditation (TM) belegt (Kairies 1997). Vester fasst die Ergebnisse diesbezüglicher Studien wie folgt zusammen: "Die Effekte der (Transzendentalen, d.V.) Meditation lassen sich ... fast mit denselben biochemischen und physiologischen Methoden messen wie der Stress. Die Richtung der Veränderungen ist jedoch bei der Meditation genau umgekehrt. Hier wird ein einzigartiger physiologischer Antistress-Zustand erzeugt, in welchem der Körper zutiefst ruht, während die geistige Aktivität wach bleibt." (Vester 1995). Dieser Antistress-Zustand ist eine günstige Voraussetzung, um in Zeiten rasanter und tiefgreifender Veränderungen in den einzelnen Situationen
734
angemessen agieren zu können schädliche Nebenwirkungen.
ohne
Literatur: Linneweh, K.: Bevor es mich zerreißt, Strategien für erfolgreiches Selbstmanagement, 2. Auflage, Düsseldorf u.a. 1992; Vester, F.: Phänomen Streß, 14. Auflage, München 1995; Tausch, R.: Hilfen bei Stress und Belastung, Reinbek bei H a m b u r g 1996; Orme-Johnson, D.W.: Medical care utilization and the Transcendental Meditation, in: Psychosomatic Medicine, 1987, 49, S. 4 9 3 - 5 0 7 ; Kairies, K.: Durch Streßmanagement Erfolgspotentiale für Unternehmen erschließen, in: Der Betriebswirt 1/1997, S. 2 5 - 3 2 .
Klaus Kairies Stückaktien -> Aktie Stückliste Stücklisten werden zur Darstellung der Zusammensetzung einzelner Baugruppen oder Produkte verwendet. Die zur Produktion benötigten Teile werden tabellarisch aufgeführt. In der Stückliste sind wichtige Angaben zur Herstellung enthalten, wie zum Beispiel Menge, Artikelnummer und viele mehr. Stücklisten erfüllen damit eine ähnliche Funktion wie der Gozinto-Graph, benutzen aber eine andere Darstellung. Stuttgarter Verfahren -> Untemehmenswert Substanzwert -> Unternehmenswert Suchmaschine Als Suchmaschinen werden spezielle -> Web-Server bezeichnet, deren alleinige Aufgabe in der Entgegennahme bestimmter Suchbegriffe, der anschließenden Suche nach - die Suchbegriffe treffenden - Internetpräsenzen, und der Ausgabe der Ergebnisse an den InternetNutzer besteht. Suchmaschinen erleichtern das Auffinden gewünschter Informationen und die Recherche im -> Internet erheblich. Eine wichtige Rolle erhalten Suchmaschinen im -» Online-Marketing: Für eine effizientes Online-Marketing ist es unerlässlich, die eigene Internetseite bei allen bekannten Suchmaschinen an-
Svnektik
Suchmaschine zumeiden. Nur dann können diese Maschinen bei der Suche nach entsprechenden Schlüsselworten die Seite als "Treffer" ausgeben. Bekannte internationale sind:
Suchmaschinen
www. yahoo. com www.lycos.com www.altavista.comwww.aladin.com Nationale Suchmaschinen sind: www.yahoo.dewww.apollo7.de www.altavista.dewww.fireball.de www.google.de Jeder Internetnutzer sollte sich mit den verschiedenen Suchmaschinen vertraut machen, da ihre Suchresultate teilweise erheblich voneinander abweichen. Supply Chain Management Supply Chain Management (SCM) bezeichnet einen integrativen Ansatz zum Management der gesamten Logistikkette vom Lieferanten bis hin zum Kunden. Das SCM integriert dabei das Management der physischen Produkte, von Informationen und von Finanzströmen. Der Ansatz des SCM geht über das ursprüngliche Verständnis der Logistikfunktion hinaus, welcher lange Zeit lediglich eine reine Dienstleistungsfunktion zukam (Transport- und Lagerhaltungs- und Materialbereitstellungsmanagement). SCM trägt den Interdependenzen zwischen den einzelnen Gliedern der Logistikkette durch verstärkte Kooperation Rechnung. Das Konzept fordert beispielsweise, die zumeist an mehreren Stellen in der Logistikkette bestehenden Lagerbestände in nur einer Bevorratungsstufe zusammenzufassen. Für diese ist dann der günstigste Ort in der Logistikkette zu bestimmen. Dies kann z.B. auch eine gemeinsam mit dem Abnehmer oder Lieferanten betriebenes Bevorratungslager sein. Besonderer Bedeutung kommt dem SCM in Unternehmen zu, die ihre Produktion (-> Produktionsflexibilität, -» Produktionslogistik) und Lagerhaltung ( - • Lagermanagement) nach dem Just-in-time
Konzept organisiert haben oder deren Lagerbestände in besonderem Maße von schneller Veralterung bedroht sind (z.B. Bauteile in der Computerindustrie). In diesen Fällen müssen innerhalb kürzester Zeit den Kundenspezifikationen entsprechende Bauteile bei externen Lieferanten geordert und in der richtigen Menge, zur richtigen Zeit und in der richtigen Qualität am richtigen Ort angeliefert werden. Ständige Rückmeldungen an die eigene Produktionsplanung aber auch an den Kunden bei auftretenden Verzögerungen sind erforderlich. Nach der Produktion ist der Versand zu organisieren. Nach erfolgtem Versand ist darüber der Vertrieb bzw. die Buchhaltung zu informieren, damit diese die Rechnungsstellung vornimmt und den weiteren Zahlungsverkehr abwickelt. Es wird so der integrative Ansatz des SCM deutlich. Supply Chain Planning Der Vorgang des Supply Chain Planning kennzeichnet alle Planungs- und Simulationsschritte zur Optimierung der -> Wertschöpfungskette im Rahmen des ->• Supply Chain Managements, (s.a. -> Simulationswerkzeuge) Supportprozess Business Process Reengineering, Prozessmanagement SWOT-Analyse SWOT-Analyse (Akronym der englischen Begriffe Strengths, Weaknesses, Opportunities, und Threats) .Ihr Ergebnis sind die als strategische Faktoren bezeichneten wichtigsten Chancen, Risiken, Stärken und Schwächen des strategischen Managements eines Unternehmens. Zum Aufbau und Ablauf der SWOT-Analyse Strategisches Management Synektik Die Synektik ist eine Kreativitätstechnik zur Ermittlung von Lösungsmöglichkeiten für ein vorgegebenes Problem. Man versucht, mit Hilfe von Analogien aus Biologie oder Chemie neue Lösungen zu finden (Synonym: Bionik). Im Rahmen 735
Synergiemanagement
Synektik der Produktgestaltung geschieht dies, indem man erfolgreiche Vorbilder aus der Natur heranzieht, um einem Produkt zu vergleichbaren Eigenschaften zu verhelfen: Im U-Boot-Bau etwa dienen die strömungsgünstigen Profile von Delfinen und Pinguinen den Designern als Vorbild. Derartige Konzepte können aber auch im Unternehmen als Anhaltspunkte fiir organisatorische Lösungen herangezogen werden. Synergiemanagement Synergien (Verbundeffekte) sind ein vielbeschworenes Ziel von internen Restrukturierungen wie externen Allianzen, Beteiligungen und Fusionen. Die mutmaßliche Zauberformel der Synergie ("2+2=5") entpuppt sich in der Praxis allerdings häufig als Milchmädchenrechnung ("2+2=3"). Eine kritische Analyse der möglichen Synergiepotenziale und eine realistische Einschätzung der zu überwindenden Synergiebarrieren sowie der Kosten und Risiken der Synergieerschließung sind Kernaufgaben des Synergiemanagements. 1. Begriff und Formen der Synergie Synergie bedeutet Zusammenwirken. In der Wirtschaftspraxis werden damit alle Verbundeffekte bezeichnet, die sich aus dem Zusammenfuhren bisher getrennter Einheiten bzw. Prozesse erzielen lassen, sei es untemehmungsintern oder unternehmungsübergreifend. Damit versucht man, ein Gesamtergebnis zu erreichen, das mehr ist als die bloße Addition der Einzelergebnisse ("2+2=5"-Effekt). In monetären Kategorien ausgedrückt: Synergie bedeutet eine überproportionale Kostensenkung oder Umsatzsteigerung, Renditesteigerung oder Marktwerterhöhung. In einer schlanken und auf Kernkompetenzen (-> Kernkompetenzmanagement) ausgerichteten Unternehmung sind Synergien bereits durch Bündelung von Ressourcen und Fähigkeiten weitgehend genutzt. Darüber hinausgehende Verbundeffekte werden unternehmungsübergreifend in Netzwerken (-> Unterneh736
mensnetzwerke, Management von) und Allianzen (-> Allianzen, strategische) sowie in virtuellen Kooperationen, nicht zuletzt auch in Akquisitionen (-» Unternehmenskauf) und Fusionen (-> Unternehmenszusammenschluss) gesucht. Werden die möglichen Vorteile überschätzt, die vielfaltigen Synergiebarrieren sowie die Risiken und Kosten unterschätzt, dann entpuppen sich Synergieeffekte nicht selten als Wunschdenken. Die vermeintliche Zauberformel wird zur Milchmädchenrechnung. Eine möglichst genaue und kritische Analyse ist daher im Einzelfall unbedingt geboten. Sie beginnt mit einer Bestimmung möglicher Inhalte der Synergie. •
Geschäftsfeldsynergien: Synergien lassen sich zunächst durch Verbund von unterschiedlichen Produkt-/Marktkombinationen erreichen. Sei es, dass sich Produkte und Sortimente gut ergänzen oder/und bisher getrennt bearbeitete Kundenkreise oder Regionen zusammenwirken. Die Fusion von Daimler-Benz und Chrysler liefert ein Beispiel für beides. Zielsetzung kann es sein, das Kemgeschäft im angestammten Markt abzusichern oder auf neue Märkte auszuweiten, aber auch, neue Geschäfte aufzubauen. Im Zuge der -» Globalisierung sind derartige Synergieeffekte von großer Bedeutung, um die internationale Wettbewerbsposition halten zu können.
•
Funktionale (güterwirtschaftliche) Synergien: Hinter den Geschäftsfeldern stehen die erforderlichen Wertschöpfungsketten. Synergie kann nur dann entstehen, wenn zwei oder mehr Einheiten ähnliche oder identische Wertketten oder Wertkettenglieder aufweisen (vgl. Krüger/Müller-Stewens, 1994). Insofern ist eine Analyse der Wertkette die unerlässliche Voraussetzung des Synergiemanagements. Es geht im Wesentlichen darum, die verschiedenen Teil-
Synergiemanagement
Synergiemanagement funktionell (z.B. Beschaffung, Logistik, Produktion, Montage, Vertrieb, F&E) auf Verflechtungsmöglichkeiten und daraus resultierende Synergien zu überprüfen und entsprechend umzugestalten. So können Größenvorteile (-» economies of scale) erreicht werden oder eine bessere Auslastung technischer bzw. personeller Kapazitäten. Hierzu sind allerdings Restrukturierungsmaßnahmen erforderlich, z.B. die Zusammenlegung von Standorten, die erhebliche Anstrengungen und Aufwendungen mit sich bringen können. •
•
Know-How-Synergien: In dem Maße, wie Spezialwissen zum Erzielen von Wettbewerbsvorteilen benötigt wird, werden entsprechende Kenntnisse und Fähigkeiten auch zum Gegenstand von Synergieüberlegungen. Es geht um das Bündeln von "intellektuellem Kapital", sei es im Bereich der Organisation und Steuerung oder der Leistungserbringung und -Verwertung. Technologie- und Prozessbeherrschung können dabei z.B. ebenso eine Rolle spielen wie Markterschließung und Markenaufbau. Aus der Sicht eines ressourcenorientierten Ansatzes bzw. einer Kernkompetenzstrategie wird Know-How-Synergien zukünftig steigende Bedeutung zukommen. Die entsprechenden Fragen sind auch Gegenstand des -> Wissensmanagements. Finanzielle Synergien: Synergiewirkungen ergeben sich schließlich in finanzieller Hinsicht. Hierunter fallen die Risikoreduktion bzw. der Risikoausgleich zwischen Produkten oder Geschäften, aber auch die Vorteile bei der Kapitalbeschaffung und -Verwendung, die ein größerer Verbund bietet. Sie sind Objekt des -* Risikomanagements sowie des Portfoliomanagements. Nicht zuletzt ist an die Möglichkeiten der Steueroptimierung zu denken, die man ebenfalls als Teil der finanziellen Synergie begreifen muss.
2. Synergiemanagement Das Management von Synergien als eine Querschnittsaufgabe des (Top-) Managements umfasst alle Gestaltungs-, Steuerungs- und Entwicklungsaufgaben, die der Ausschöpfung von Synergiepotenzialen dienen. Hierzu zählen insbesondere Aktivitäten wie das • • • •
• •
Bestimmen angestrebter Synergieeffekte Identifizieren und Bewerten von Synergiepotenzialen Abschätzen der Synergiebarrieren sowie der Synergierisiken Konzipieren und Bewerten von Maßnahmenprogrammen zur Realisierung von Verbundeffekten Bewerten der Maßnahmenprogramme Umsetzen und Durchsetzen synergiefördemder Programme
Das Erschließen von Synergiepotenzialen verlangt einen Durchgriff der Spitzeninstanz in den Verantwortungsbereich nachgelagerter Einheiten. Dies gilt unbeschadet der Möglichkeit partizipativen Wandels. Ein strategiegeleitetes Verbundkonzept kann letztlich nur an der Spitze entschieden werden. Die organisatorischen Teilbereiche, z.B. Werke, Geschäftseinheiten, Tochtergesellschaften, werden hier nicht als selbstständig operierende -»Profit Center gesehen, sondern als Quelle möglicher Verbundwirkungen, die es auszuschöpfen gilt. Dies kann sehr wohl mit dem gültigen Selbstverständnis und Führungskonzept der Gesamtuntemehmung in Widerspruch stehen, denn in den letzten Jahren dominierten Bewegungen in Richtung auf Dezentralisierung und das Schaffen kleinerer, selbstständiger Einheiten. Der Führungsanspruch der Spitze ist dabei entsprechend zurückgenommen worden. Besonderen Ausdruck findet diese Entwicklung in den Holdingstrukturen (-• Holding, -> Unternehmenszentrale). Die operative Führung ist dabei regelmäßig Sache der nachgelagerten Einheiten.
737
Synergiemanagement Die Holding selbst konzentriert sich entweder auf die strategische Führung (sog. Management-Holding) oder beschränkt sich sogar auf die finanzielle Führung (sog. -> Finanzholding). Dieser unterschiedlich abgestufte Führungsanspruch der Spitze würde, wenn er unverändert bliebe, auch zu Unterschieden in der Erreichbarkeit der Synergieeffekte fuhren. Mit finanzieller Führung, also einer rein renditeorientierten Steuerung, sind lediglich finanzielle Synergien erschließbar. Strategische Führung kann daneben auch Geschäftsfeldsynergien bewirken. Weiterreichende Verbundeffekte setzen einen Eingriff in die Wertketten voraus, würden also operative Führung verlangen. Nur so können funktionale und Know-How-Synergien bewirkt werden. In dem Maße, wie die Unternehmungsspitze am Erzielen eines "parenting advantage" interessiert ist, muss sie die einzelnen "Familienmitglieder" zusammenbringen und zusammenschmieden, ihnen ihre Selbstständigkeit also wieder nehmen. Allein aus dieser Tatsache wird erkennbar, dass Synergiemanagement auf vielfältige Barrieren trifft, die zu überwinden kostenintensiv und zeitaufwendig sein kann. Vollends schwierig wird die Synergienutzung bei unternehmungsübergreifenden Vorhaben, so vor allem bei strategischen Allianzen sowie bei Akquisitionen und Fusionen. 3. Schlüsselfragen für das Synergiemanagement Als Hilfe für das Durchdenken konkreter Problemstellungen sind die folgenden Checklisten gedacht. Dabei wird unterschieden zwischen der Erschließung interner Potenziale (internes Wachstum) und dem Zusammengehen bzw. Zusammenschließen mit Externen (externes Wachstum). Nutzung vorhandener interner Potenziale: • Welche Synergien werden im gegenwärtigen Kerngeschäft bereits genutzt? 738
Synergiemanagement •
• • •
•
•
Welche Synergiepotenziale werden darüber hinaus vermutet und worin bestehen die möglichen Synergieeffekte konkret? Welche monetären Kosten und Nutzen sind realistischerweise zu erwarten? Welche nicht-monetären Vor- und Nachteile sind bedeutsam? Welche Hemmnisse/Widerstände/Barrieren stehen einer Nutzung der Potenziale entgegen? Welche investiven und restrukturierenden Maßnahmen sind zur Synergienutzung erforderlich? Welche Konsequenzen für Strukturen, Prozesse, Systeme, Human Ressourcen, Führung gibt es?
Erschließung von Synergiereserven: • Gibt es Möglichkeiten der Synergienutzung durch Auflösung nicht benötigter Aktiva? • Gibt es Möglichkeiten der Synergienutzung durch Verkauf/Ausgliederung von Funktionen/Geschäften? • Was kosten und was erbringen die Maßnahmen und das erforderliche Synergiemanagement? Aufbau neuer Synergie durch externes Wachstum: • Welche konkrete Zielsetzung verfolgen wir/verfolgen wir nicht? • Welche Partner/Targets kommen in Frage und welche Interessenlage/ Potenziale haben sie? • Welche Form der Partnerschaft/Beteiligung ist generell denkbar/angemessen? • Wie verträglich sind die unterschiedlichen Kulturen, Strukturen, Prozesse und Systeme? • Welche kritischen Probleme sind zu erwarten und wie sind sie zu behandeln? • Welche Ressourcen und Potenziale müssen wir/unser Partner einbringen? • Welche Restrukturierungs- und Integrationsmaßnahmen sind zu ergreifen?
Szenario-Technik
Synergiemanagement • •
•
Welche Ergebnisse erwarten wir/unser Partner, bis wann? Wie ist sicherzustellen, dass die Ergebnisse eintreten (wer/was/wann/ womit)? Welche Konsequenzen für Strukturen und Prozesse, Systeme, Human Ressourcen, Führung gibt es?
Literatur: Ringelstetter, M.: Strategische Allianzen, in: Corsten, H./Reiß M. (Hrsg.): Handbuch Unternehmungsfuhrung, Wiesbaden 1995, S. 695 704; Müller-Stewens, G.: Strategische Partnerschaften, in: Wittmann, W . et al. (Hrsg.): H W B , Bd. 2, 5. Aufl., Stuttgart 1993, Sp. 4 0 6 3 - 4 0 7 5 ; Reißner, S.: Synergiemanagement und Akquisitionserfolg, Wiesbaden 1992; Krüger. W./MüllerStewens, G.: Matching Acquisition Policy and Integration Style, in: Krogh, G. et al. (Hrsg.): T h e Management of Corporate Acquisitions, London et al. 1994, S. 5 0 - 8 7 ; Krüger, W.: Beteiligungscontrolling, in: Schulte, C. (Hrsg.): Lexikon des Controlling, München, W i e n 1996, S. 7 4 - 7 9 .
Wilfried Krüger System Dynamics Strategieunterstützungssysteme Systemrationalisierung Rationalisierung System-Selling System-Selling ist der Verkauf von kompletten Lösungen (z.B. im Bereich Hard-/ Software: CAD-Systeme), d.h. die Leistung soll im Verbund mit anderen Technologien verwendet werden. Im Gegensatz zum traditionellen Produktverkauf werden hierbei Problemlösungssysteme verkauft, an die sich Dienstleistungen im Vorfeld und Betreuung im Nachhinein
anschließen. Die typischen Merkmale sind hohe Komplexität bei der Systemlösung und eine Kaufentscheidung die aufgrund langfristigem Bedarf getroffen wurde. Szenario-Technik Die Szenario-Technik ist ein ->• Prognoseverfahren zur Ermittlung zukünftiger Entwicklungen. Aus einer Reihe von möglichen Ereignissen wird ein Gesamtbild ermittelt, das sich aus der konsistenten Beschreibung möglicher Umweltzustände fiir einzelne Parameter zusammensetzt. Dies ermöglicht eine alternative Gesamtschau unter der Berücksichtigung verschiedener Ereignisse. In der Regel werden mindestens drei Szenarien erarbeitet: ein Szenario des schlimmsten Falles (worst-case-scenario), bei dem für alle betrachteten Parameter die schlechteste mögliche Entwicklung vorausgesetzt wird, ein best-casescenario, bei dem die günstigste Entwicklung aller Einflussfaktoren angenommen wird, und ein Szenario, das für alle Parameter die wahrscheinlichsten Ereignisse zugrunde legt. Szenarien ermöglichen aufgrund ihrer Aggregation in der Regel keine detaillierten Erkenntnisse und exakten Vorhersagen; sie liefern aber robuste Pläne, mit denen sich in der Praxis gut arbeiten lässt. Szenarien werden vor allem angewendet, um schwache Signale auf längere Zeiträume zu erkennen, besonders im politischen und sozialen Bereich.
739
Target-Costing
Target-Costing
T Target-Costing Target-Costing ist ein ManagementKonzept, das die zulässigen bzw. anzustrebenden Selbstkosten eines Erzeugnisses aus dem erzielbaren Marktpreis dieses Produktes ableitet. Danach werden in einem weiteren Schritt die so bestimmten Zielkosten auf die wesentlichen Kostenkomponenten (z.B. Baugruppen) aufgeteilt, so dass dann auch für diese abgestimmte Zielkosten vorliegen. Ausgangspunkt des Verfahrens ist somit die Bestimmung der erzielbaren Marktpreise der betrachteten Enderzeugnisse. Diese lassen sich bei Produkten des laufenden Sortimentes zunächst unmittelbar aus der Ist-Fakturierung bzw. der kurzfristig operativen Absatzplanung ableiten. Es müssen dann noch geplante langfristige Veränderungen dieses Preisniveaus infolge von Änderungen der Marktgegebenheiten oder ausgelöst durch eigene Preisstrategien berücksichtigt werden. Bei neuen Erzeugnissen muss zunächst ein marktgerechter Einfuhrungspreis mit Hilfe entsprechender Methoden der Marktforschung ermittelt werden. Weiterhin ist zu diesem Zeitpunkt eine für das betreffende Produkt geeignete Preisstrategie zu definieren. Grundsätzliche Preisstrategien sind in diesem Zusammenhang zum einen die Hochpreisstrategie (-> Skimming-Strategy), bei der ein relativ hoher Einführungspreis bei zunehmender Marktausdehnung und zunehmendem Wettbewerb sukzessive gesenkt wird und zum andern die Niedrigpreisstrategie (-»Penetration Strategy). Hier wird versucht, einen eher niedrigen Einführungspreis über längere Zeit beizubehalten. Liegen die erwarteten Verkaufspreise der Produkte fest, so besteht der nächste Schritt der Zielkostenermittlung in der Bestimmung des gewünschten Stückge740
Winnes der betrachteten Produkte. Ausgangspunkt hierfür ist die langfristige Gewinnerwartung der Unternehmensleitung, die zumeist in einer -»Kapitalrendite oder einer -> Umsatzrendite ausgedrückt wird. Aus dieser werden dann die erforderlichen Gewinnbeiträge der einzelnen Erzeugnisse nach dem Prinzip der Tragfähigkeit abgeleitet. Mit Hilfe der Zielrenditen der einzelnen Produkte oder Produktgruppen lässt sich dann der gewünschte Gewinnbeitrag pro Erzeugniseinheit ermitteln. Grundsätzlich ergeben sich dann die Zielkosten eines Erzeugnisses nach folgender Bestimmungsgleichung: =
Planverkaufspreis gewünschter Gewinnbeitrag Zielkosten
Liegen die Zielkosten des Enderzeugnisses fest, besteht die nächste Aufgabe des Zielkostenmanagements in einer zweckmäßigen Aufspaltung dieser Zielkosten nach Verantwortungsbereichen, um damit stückkostenbezogene Zielvorgaben zu erhalten. Bezüglich dieser Stückkostenaufspaltung sind zwei Ebenen zu unterscheiden: 1. Stücklistenbezogene Aufspaltung Hier erfolgt die Aufspaltung der gesamten Zielkosten auf wichtige Baugruppen und Teile. Dabei wird der Differenzierungsgrad der Aufspaltung zum einen von der Komplexität des Enderzeugnisses abhängen und zum anderen von der wertmäßigen Bedeutung der einzelnen Kostenkomponenten. 2. Aufspaltung nach Kalkulationsbereichen Für die sich nach der stücklistenbezogenen Aufspaltung ergebenden Kalkulationsobjekte wird im nächsten Schritt eine Kostenaufspaltung in Materialkosten, Fertigungslöhne, sonstige Fertigungskosten (eventuell in einer weitergehenden Differenzierung) sowie auf der Ebene des Endproduktes
Target-Investment
Target-Costing in Verwaltungs- und Vertriebskosten vorgenommen. Bei neu zu entwickelnden Produkten sind darüber hinaus noch für die disponierbaren Forschungsund Entwicklungskosten Zielvorgaben festzulegen. Ausgangspunkt sowohl der stücklistenbezogenen Kostenaufspaltung als auch der Aufspaltung nach Kalkulationsobjekten sind aktuelle Kalkulationsunterlagen der betrachteten Produkte. Bei laufenden Erzeugnissen wird man hierzu die aktuellen Plankalkulationen heranziehen, bei neuen Erzeugnissen werden auf geplanten Konstruktionsdaten basierende Kostenschätzungen zur Verfügung stehen, wobei auch hier in der Regel die Kalkulationsdaten sowohl nach Stücklistenkomponenten als auch nach Kalkulationsbereichen differenziert vorliegen. Im Allgemeinen werden die aktuellen Kalkulationsergebnisse mehr oder weniger weit über den zugehörigen Zielkosten liegen. Bei der stücklistenbezogenen Kostenaufspaltung muss nun die Differenz zwischen den periodenbezogenen Zielkosten und den aktuellen Kalkulationsdaten des Enderzeugnisses auf die in die Betrachtung eingehenden Stücklistenkomponenten verteilt werden, wobei ebenfalls nach dem Prinzip der Tragfähigkeit vorgegangen wird. Dabei werden einzelne Komponenten sehr stark zur Schließung dieser Lücke beitragen, bei anderen werden keine oder nur geringe Kostensenkungsspielräume vorliegen. Eine Besonderheit der stücklistenbezogenen Zielkostenspaltung liegt dann vor, wenn die betreffende Komponente unter mehreren eigenen Standorten und/oder externen Zulieferern ausgeschrieben wird. Hier orientieren sich die Zielkosten am günstigsten Angebot. Im nächsten Schritt werden die für die Einhaltung der Zielkosten Verantwortlichen die Zielkosten der jeweiligen Komponente in zweckmäßiger Weise auf die
einzelnen Kalkulationsbereiche aufteilen. Auch hier werden die aktuellen Kalkulationsdaten in einer entsprechenden Differenzierung Ausgangspunkt sein. Es wird untersucht, inwieweit die einzelnen Kalkulationsbereiche zur Beseitigung der Differenz zwischen aktuellen Stückkosten und Zielkosten beitragen können. Die im Rahmen der Zielkostenspaltung vorgegebene Kostensenkung muss nun von den einzelnen Verantwortungsbereichen erreicht werden. Hierzu können die verschiedenen Formen von Rationalisierungsmaßnahmen (s.a. -» Rationalisierung) eingesetzt werden. Man unterscheidet: •
•
•
Produktrationalisierung Kostengünstigere Gestaltung des Mengen- und Wertgerüstes der Produkte, z.B. durch —> Wertanalysen, -> Normung und Typung. Verfahrensrationalisierung Verbesserung der Kostenstruktur im Fertigungsbereich insbesondere durch Einsatz verbesserter Verfahrenstechnologien. Ablaufrationalisierung Effizientere Gestaltung der Unternehmensprozesse, z.B. durch Gemeinkostenwertanalysen oder Geschäftsprozessoptimierung. Lothar Hans/V olker Warschburger
Targeting Stocks Tracking Stocks Target-Investment Target-Investment basiert auf dem Konzept des Target-Costing. Der Ansatz versucht, eine Verknüpfung des Zielkostenmanagements mit der langfristigen Investitionsplanung mit dem Ziel herzustellen, die für ein Erzeugnis aufzuwendenden Investitionsbeträge mit den erlaubten Stückkosten abzustimmen. Dies ist insbesondere bei der Neueinführung von Produkten von Bedeutung. Ein wichtiger Entscheidungsparameter bei derartigen Neueinfiihrungen ist die 741
Target-Investment
Target-Investment Festlegung des erforderlichen Kapitalbedarfes. Neben dem Kapitalbedarf für Forschung und Entwicklung und Einfuhrungswerbung stellen die Auszahlungen für Maschinen und Einrichtungen sowie für Gebäude einen wesentlichen Investitionsschwerpunkt dar. In der laufenden Kostenrechnung führen diese Anschaffungsauszahlungen zu kalkulatorischen Abschreibungen und Zinsen, die im Gemeinkostenblock auf die Erzeugnisse verrechnet werden. Gelingt es, den Anteil der Abschreibungen an den Zielkosten pro Erzeugniseinheit zu bestimmen, so lässt sich hieraus eine abgestimmte Obergrenze des Investitionsbudgets für Maschinen u.Ä. ableiten. Zur praktischen Durchführung dieses Target-Investment ist somit der Gemeinkostenanteil der Zielkosten in seine primären Bestandteile zu zerlegen, d.h. die Kostensätze der einzelnen Kostenstellen sind nach den zu Grunde liegenden Kostenarten zu differenzieren. Ausgangspunkt hierfür sind die Stückgemeinkosten der aktuellen Kalkulation, im Fall eines Neuanlaufes die Kostenschätzung des neuen Produktes. Diese werden nach dem Verfahren der Primärkostenrechnung in ihre Kostenartenbestandteile, d.h. z.B. in die Personalkosten, Werkzeugkosten, Reparaturkosten, Abschreibungen usw., zerlegt. Im zweiten Schritt wird dann die Differenz zwischen den aktuellen Stückkosten und den vorgegebenen Zielkosten auf die Primärkostenbestandteile aufgeteilt; man erhält die Zielgemeinkosten in ihrer Primärstruktur. Eine der sich ergebenden primären Zielkostenarten sind die kalkulatorischen Abschreibungen pro Einheit des neuen Erzeugnisses. Zur Bestimmung des Target-Investment ist jetzt noch die Planung der Gesamtproduktionsmenge des Produktes während seines Lebenszyklusses erforderlich. Der mit der Zielkostenplanung abgestimmte Gesamt-Investitionsbetrag ergibt sich durch Multiplikation
742
der Ziel-Abschreibungen pro Stück mit der gesamten Produktionsmenge. Das so ermittelte Target-Investment ist den für die Investitionsplanung verantwortlichen technischen Bereichen vorzulegen, die den Betrag mit dem als erforderlich angesehenen Investitionsbedarf abstimmen. Ist der als notwendig angesehene Investitionsbedarf höher als das TargetInvestment, so ist zunächst zu prüfen, ob durch technisch-organisatorische Vereinfachungen der Investitionsbetrag gekürzt werden kann. Hier ist beispielsweise zu prüfen, ob der technische Perfektionsgrad der Maschinen und Einrichtungen vermindert werden kann oder durch weitere Angebote bei anderen Maschinenherstellern Preisreduzierungen möglich sind. Ist dies nicht oder nicht im erforderlichen Umfang möglich, so müssen die Zielkostenbeträge der Primärkostenart Abschreibungen entsprechend erhöht werden. Die beschriebene Vorgehensweise soll einem Zahlenbeispiel erläutert werden. In dem Beispiel betragen die Gemeinkosten der aktuellen Kalkulation 680,00 DM/Stück. Diese werden, wie in der zweiten Spalte der nachstehenden Tabelle dargestellt, in primäre Kostenartenbestandteile zerlegt. Primärkostenart Personal Werkzeuge Reparatur Energie Abschreibungen Sonstige Summe
Primärkosten [DM/Stückl Akt. Kalkulation Zielkosten 340,00 270,00 65,00 40,00 35,00 20,00 40,00 25,00 115,00 75,00 85,00 40,00 680,00 470,00
Im Beispiel ergibt sich bei den Gemeinkosten eine Ziellücke von 210,00 DM/Stück, die nach der Tragfähigkeit auf die Primärkosten aufgeteilt wird. Es soll sich die in der dritten Spalte der Tabelle angegebene Primärkostenstruktur ergeben. Hinsichtlich der Kostenart Abschrei-
Tausender-Kontaktpreis-Kriterium
Target-Investment bung bedeutet dies, dass der in der aktuellen Kalkulation enthaltene Betrag von 115,00 DM/Stück um 40,00 DM/Stück zu reduzieren ist. Beträgt die Planabsatzmenge des neuen Produktes während seiner Gesamtlaufzeit 600.000 Stück, so ergibt sich ein TargetInvestment von: 75,00 • 600.000 = 45.000.000 DM. In gleicher Weise lassen sich bei entsprechender Primärkostenauflösung abgestimmte Budgets für andere Kostenkomponenten herleiten. Lothar Hans/Volker Warschburger Tarifvertrag Der Tarifvertrag ist im engeren Sinne kein Vertrag, sondern eine Vereinbarung zwischen den Tarifpartnern. Es werden Regelungen zur Arbeitszeit, Entlohnung, sozialen Absicherung und betriebsverfassungsrechtlichen Themen festgelegt. Ein Tarifvertrag ist aufgrund seines verbindlichen Charakters der kollektiven Bestimmungen ein Gesetz im materiellen Sinne. In den Einzelverträgen können die vertraglich festgesetzten Bestimmungen nicht unterschritten werden. Tausender-Kontaktpreis-Kriterium Die Aufgabe der Werbestreuplanung besteht in der möglichst effizienten Aufteilung des Werbebudgets auf die zur Verfügung stehenden Medien. Dies ist dann realisiert, wenn möglichst viele Personen von der Werbebotschaft erreicht werden. Zur Ermittlung des optimalen Streuplans ist eine Reihe unterschiedlicher Modelltypen entwickelt worden. Ein in der Praxis häufig verwendetes Instrument ist das Tausender-KontaktpreisKriterium. Ansatzpunkt hierfür ist der durch Medienanalysen erhobene "Nutzer pro Ausgabe-Wert" (Kl-Wert) eines Mediums. Der Preis, der dafür gezahlt werden muss, dass man mit einer einmaligen Belegung 1000 Personen erreicht, wird Tausender-Kontaktpreis (TKP) genannt und beträgt:
TKP, = - ^ - 1 0 0 0 mit: cj =
Kosten je Belegung des j-ten Mediums K l j = Nutzer pro Ausgabe des j-ten Mediums
Der Tausender-Kontaktpreis kann als Maßstab für die "Wirtschaftlichkeit" der in Betracht kommenden Medien verwendet werden. Ist der TKP für alle relevanten Medien ermittelt, dann können nach dem TKP-Kriterium die Werbeträger ausgewählt werden: Zunächst wird das Medium mit dem niedrigsten TKP maximal - also in allen Ausgaben während des Planungszeitraums - belegt. Ist das Werbebudget dann noch nicht ausgeschöpft, wird das Medium mit dem zweitniedrigsten TKP-Wert so häufig wie möglich belegt usw. Ein schwerwiegender Nachteil des TKPKriteriums ist allerdings, dass Wiederholungskontakte aufgrund von internen bzw. externen Überschneidungen wie Erstkontakte behandelt werden. Interne Überschneidungen kommen vor, wenn eine Anzeige mehrfach in einem Medium geschaltet und deshalb von regelmäßigen Nutzern mehrfach registriert wird. Externe Überschneidungen entstehen, wenn eine Anzeige in mehreren Medien geschaltet und deshalb von "übergreifenden" Nutzern mehrfach wahrgenommen wird. Damit stellt das TKP-Kriterium sicher, dass die Summe der Kontakte maximiert wird, was jedoch nichts über die Anzahl der Personen aussagt, die tatsächlich erreicht wurden. Ein weiterer Kritikpunkt ist darin zu sehen, dass - falls nicht alle Ausgaben eines Mediums belegt werden - keine Aussage über die Einschaltzeitpunkte ("Timing") getroffen werden können. Der Aspekt der unterschiedlichen Kontaktqualitäten kann durch die Verwendung der Zielgruppen- bzw. Medienge743
Tausender-Kontaktpreis-Kriterium wichtung der Kl-Werte werden.
berücksichtigt
Literatur: Schmalen, H.: Kommunikationspolitik, Stuttgart 1992, S. 126-145; Schmalen, H.: Mediaselektion, in: Bemdt, R./Hermanns, A. (Hrsg.): H a n d b u c h Marketing-Kommunikation, Wiesbaden 1993, S. 463^176.
Christine Wiedemann Team Eine soziale Einheit von drei oder mehr Personen, deren Mitglieder von außen als solche erkannt werden und sich selbst als Mitglieder wahrnehmen (Identität), die eingegliedert in eine Organisation (Kontext) und durch unmittelbare Zusammenarbeit gemeinsame Aufgaben erledigen. Durch die Bildung von Teams entstehen Teamstrukturen, in denen die beteiligten Personen unter weitgehender Gleichberechtigung und Hierarchielosigkeit eng zusammenarbeiten. Gerade aufgrund der letztgenannten Merkmale besteht die Gefahr dysfunktionaler Konflikte (-» Teamkonflikte, -> Social Loafing, Groupthink, Konfliktmanagement). Hans Georg Gemünden/Martin Högl Teamkonflikte Gerade in Teamstrukturen, wo Personen eng zusammenarbeiten, weitgehende Gleichberechtigung und Hierarchielosigkeit besteht und jeder für das Erreichen des gemeinsamen Ziels aufeinander angewiesen ist, besteht im besonderen Maße die Gefahr von dysfunktionalen Konflikten. Pinto und Kharbanda schätzen, dass ein Projektmanager im Durchschnitt mindestens 20% seiner Zeit damit zubringt, Konflikte und ihre Nachwirkungen zu klären. Trotz eines sehr zeitintensiven Engagements zur Konfliktbewältigung führen persönliche Auseinandersetzungen oftmals zu reduzierter Leistung und Unzufriedenheit bei den Teammitgliedem. Mit dem Einsatz von Teamstrukturen in Unternehmen können sowohl Intra- als auch Intergruppenkonflikle auftreten. Spannungen zwischen einem -»Team und anderen Personen oder Gruppen in744
Teamstrukturen nerhalb eines Unternehmens (Intergruppenkonflikte) sind häufig auf organisationale Ursachen zurückzuführen. Pinto und Kharbanda zeigen vier Merkmale von Organisationen auf, welche das Auftreten von Intergruppenkonflikten fördern: •
•
•
•
Ein Entlohnungssystem, welches den Wettbewerb zwischen verschiedenen Gruppen einer Organisation betont; Ressourcenknappheit und das damit einhergehende Gerangel um die notwendige Unterstützung für das eigene Team; unklare Autoritäts- und Kompetenzverteilung, die zu Unsicherheiten beim Team fuhrt, welchen Zielen gegebenenfalls Priorität eingeräumt werden sollte; stark differenzierte Bereiche innerhalb der Organisation, was die Zusammenarbeit gerade in bereichs- bzw. disziplinübergreifenden Teams beeinträchtigen kann.
Literatur: Pinto, J. K./Kharbanda, O. P.: Project management and conflict resolution, in: Project Management Journal, Vol. 26, No. 4, 1995, S. 4 5 54.
Hans Georg Gemünden/Martin Högl Teamstrukturen Unter dem Begriff Teamstrukturen sind Organisationsformen zu verstehen, die auf -* Teams als prinzipiellen Arbeitseinheiten basieren. Organisationale Teamstrukturen können sowohl an einem Ort zusammengefasst (z.B. mehrere Teams arbeiten in einem Gebäude an einem gemeinsamen Projekt) als auch geographisch verstreut sein (z.B. sog. virtuelle Teamstrukturen, bei denen Teams an verschiedenen Standorten gemeinsam an Lösungen arbeiten. Dabei erfolgt ein Großteil der Kommunikation nicht mehr face-to-face, sondern über elektronische Medien). In Anlehnung an Wiendieck (1992) können grundsätzlich zwei verschiedene Motive zur Bildung von Teamstrukturen führen.
Teamstrukturen Zum einen werden Routineaufgaben (z.B. Produktion, Kundenservice), die bisher hierarchisch organisiert waren, sogenannten teilautonomen Arbeitsgruppen (Self-managing Teams) übertragen. Ausgangspunkt sind hierbei Überlegungen zum Job-Design: Ziel ist es, den Autonomiegrad und den Tätigkeitsbereich von Mitarbeitern durch kollektive Verantwortung im Team zu erweitern und somit Motivation, Zufriedenheit und Mitarbeiterproduktivität zu verbessern und zugleich Kosten durch den Wegfall von Hierarchiestufen (z.B. Gruppenleiter) zu sparen. Die zweite Betrachtungsweise führt zur Bildung von Teamstrukturen aus den Merkmalen und Anforderungen der Aufgabe heraus: Anders als beim Job-Design ist die Aufgabe nicht Werkzeug, sondern Ursprung des organisatorischen Gestaltens. Aufgaben, welche die Verarbeitung extremer Komplexität und Unsicherheit erfordern, bedingen eine möglichst direkte Zusammenarbeit verschiedener Individuen. Für solche Problemstellungen ist es günstig, diese mit verschiedenen Expertisen ausgestatteten Mitarbeiter in miteinander verzahnten Teams zusammenzufassen, damit sie in direkter Zusammenarbeit an der Lösung des gemeinsamen Problems arbeiten können. Teamstrukturen als Integrationsmechanismus: Integration ist die Qualität der Zusammenarbeit verschiedener Bereiche einer Organisation. Diese Zusammenarbeit von spezialisierten (Teil-)Bereichen der Organisation (wie z.B. F&E, Produktion, Marketing) ist notwendig, um letztendlich eine gemeinschaftliche Leistung des Unternehmens (z.B. ein Auto) zu erstellen. Dabei hängt der Bedarf an Integration von der Art der Aufgabe ab. Je höher die Komplexität, die Unsicherheit und der Konfliktgehalt einer Aufgabe, desto wichtiger ist es, dass verschiedene Bereiche (Subsysteme) der Organisation besonders eng kooperieren und sich fort-
Teamstrukturen während gegenseitig abstimmen. Ziel des organisatorischen Gestaltens muss es sein, die für die Zusammenarbeit notwendigen Informationskanäle zwischen den Bereichen der Organisation zu schaffen. Um diesen Bedarf an Integration, respektive Informationsverarbeitung, zu decken, stehen eine Reihe von organisatorischen Gestaltungsformen (Integrationsmechanismen) zur Verfügung. Teamstrukturen stellen in diesem Sinne die 'organischste' und direkteste Form der Zusammenarbeit verschiedener Organisationsbereiche bzw. Expertisen dar. Anstelle der Koordination durch etwa Hierarchie und Pläne ermöglichen Teamstrukturen die direkte und fortwährende Kooperation der für die Aufgabenerfüllung notwendigen Mitarbeiter und Bereiche. Es gilt also, eine Balance herzustellen, zwischen dem durch die Aufgabe begründeten Integrationsbedarf und dem gewählten Integrationsmechanismus. Es wäre demnach suboptimal, bei geringem Integrationsbedarf Teamstrukturen einzusetzen, da diese wesentlich komplexere und deshalb schwieriger handhabbare organisatorische Lösungen darstellen. In solchen Fällen erweisen sich bspw. die Matrixorganisation (-> Organisationsformen, Organisationsstruktur) oder die Koordination durch Hierarchie und Pläne als besser. Die Erfolgswirkungen von Teams und Teamstrukturen waren auch in jüngster Zeit Gegenstand empirischer Untersuchungen. Eine Reihe von Forschungsarbeiten beschäftigen sich dabei nicht lediglich mit dem Effekt von Teamstrukturen auf den Erfolg von Organisationen, sondern beleuchten darüber hinaus wesentliche Determinanten erfolgreich funktionierender Teamstrukturen. So zeigt eine Untersuchung von Helfert und Gemünden (2000) auf der Basis von Daten zu 233 Teams den positiven Einfluss einer teambasierten Marketingorganisation auf die Entwicklung von Kundenbeziehungen und gibt konkrete Hilfestellun745
Teamstrukturen gen zur Gestaltung erfolgreicher Relationship-Marketing-Teams. Thunig und Knauth (2000) zeigen in ihrer Feldstudie an 109 Fertigungsteams, dass die Beteiligung von Mitarbeitern an teambasierten Verbesserungsprozessen nachhaltig positive Wirkungen auf die Produktivität und die Qualität haben. Kern und Knauth (2000) betrachten 12 Fertigungsteams in einer Längsschnittstudie im Hinblick auf die Einführung eines Systems zur Steuerung teilautonomer Gruppen und dokumentieren dabei eine über die Zeit positiv verlaufende Erfolgsentwicklung. In einer empirischen Untersuchung zu den Determinanten und Wirkungen der Teamarbeit in innovativen Projekten können Högl und Gemünden (2000) auf der Basis von 430 Interviews zu 145 Teams einen deutlich positiven Erfolgseinfluss zeigen. Des Weiteren bieten die Autoren eine Reihe von Handlungsempfehlungen zur Teambesetzung und Teamführung an, mit Hilfe derer die Zusammenarbeit in Teamstrukturen und somit der Erfolg innovativer Projekte positiv beeinflusst werden kann. Diese Befunde aus Deutschland bestätigen ähnliche Ergebnisse aus den USA und anderen Ländern und dokumentieren in ihrer Gesamtheit die möglichen positiven Wirkungen von Teamstrukturen in verschiedenen Funktionsbereichen verschiedener Organisationen. Dysfunktionale Phänomene in Teamstrukturen: Das Verrichten von Aufgaben in Teamstrukturen birgt neben seinen positiven Konsequenzen (z.B. schnelle und direkte Zusammenarbeit) auch die Gefahr von leistungshemmenden Tendenzen. Wesentliche, in der Gruppenforschung viel beachtete dysfunktionale Teamphänomene sind -> Social Loafing, -> Groupthink und Konflikte in Teams (-»Teamkonflikte). Literatur: Helfert, G./Gemünden, H.G.: Relationship Marketing Teams; in: Gemünden, H.G./Högl, M. (Hrsg.): Das Management von Teams, Wiesbaden 2000; Högl, M.: Teamarbeit in innovativen
746
Teilzeitarbeit Projekten, Wiesbaden 1998; Högl, M./Gemünden, H.G.: Determinanten und Wirkungen der Teamarbeit in innovativen Projekten, in: Gemünden, H.G./Högl, M. (Hrsg.): Das Management von Teams, Wiesbaden 2000; Thunig, K./ Knauth, P.: Erfolgsfaktoren für die Mitarbeiterbeteiligung an teamorientierten Verbesserungsprozessen, in: Gemünden, H.G., Högl, M. (Hrsg.): Das Management von Teams, Wiesbaden 2000; Wiendieck, G.: Teamarbeit, in: Frese, E. (Hrsg.): Handwörterbuch der Organisation, Stuttgart, 1992.
Hans Georg Gemünden/Martin Högl Technology-push -»• Innovationsmarketing Teilautomatisierung Automatisierung Teilautonome Arbeitsgruppen -> Teamstrukturen Teilkostenrechnung -» Kosten- und Leistungsrechnung Teilzeitarbeit Die Teilzeitarbeit ist ein ->• Arbeitszeitmodell, das zur konkreten Ausgestaltung des Arbeitszeitmanagements eingesetzt wird. Teilzeitbeschäftigt sind nach § 2 BeschFG "Arbeitnehmer, deren regelmäßige Wochenarbeitszeit kürzer ist als die regelmäßige Wochenarbeitszeit vergleichbarer vollzeitbeschäftigter Arbeitnehmer des Betriebes". Durch die Reduzierung des Arbeitszeitvolumens ergeben sich verschiedene Möglichkeiten der Flexibilisierung der Lage der Arbeitszeit. Klassische Teilzeitmodelle sind vor allem die täglich verkürzte Tagesarbeitszeit (z.B. Halbtagsarbeit) und die X-TageWoche (z.B. 4-Tage-Woche). Flexibilisierungspotenziale ergeben sich durch Ausweitung des Bezugszeitraums auf ein Jahr, mehrere Jahre oder das gesamte Erwerbsleben. Beispiele: Jahresarbeitszeitmodell (bei starken saisonalen Schwankungen), Blockteilzeitmodell mit Vollzeitarbeit über mehrere Monate und Nichtarbeit während der restlichen Monate, Sabbaticals und Altersteilzeit (ge-
Telefonmarketing
Teilzeitarbeit setzliche Altersteilzeit oder Freizeitentnahme am Ende des Arbeitslebens).
Telefonmarketing 1. Definition Direktmarketing Nach einer umfassenden Definition durch die Direct Marketing Association (DMA) versteht man unter -» Direktmarketing ein "interaktives System des -* Marketing, in dem ein oder mehrere Werbemedien genutzt werden, um eine messbare Reaktion bei den Kunden und/oder Transaktion mit den Kunden zu erzielen, die man an jedem beliebigen Ort erreichen kann."
Karl-Friedrich Ackermann/ Simone Vollmer Telearbeit/Heimarbeit Einerseits bezeichnet Telearbeit eine Form der -» Telekooperation, andererseits wird damit ein -> Arbeitszeitmodell des Arbeitszeitmanagements beschrieben. Telearbeit bzw. Heimarbeit ist ein neueres Konzepte des Arbeitszeitmanagements, bei welchem die flexible Arbeitszeit mit der gleichzeitigen Flexibilisierung des Arbeitsortes verbunden wird. Zu unterscheiden sind Formen, bei denen die Mitarbeiter vollständig oder alternierend außerhalb des Unternehmens (Heimarbeit) arbeiten und teilweise zum Zwecke des Datenaustauschs elektronisch mit dem Unternehmen verbunden sind.
2. Formen des Direktmarketing Das wesentliche Kennzeichen des Direktmarketing ist die unmittelbare und individuelle Ansprache des Kunden. Dies kann sowohl durch klassische Medien erfolgen, die als Direktwerbemedien eingesetzt werden, als auch durch spezielle Direktwerbemedien, zu denen auch das Telefonmarketing - eine direkte persönliche Kommunikation mit ausgewählten Personen über das Medium Telefon gehört.
Karl-Friedrich Ackermann/ Simone Vollmer
a. Aktives Telefonmarketing Bei dem insbesondere von der Investitionsgüterbranche und dem Versandhandel genutzten aktiven Telefonmar-
Telefonbefragung -» Marktforschung
Medien des Direktmarketing
Direktwerbemedien
elektronisch
gedruckt
unadressierte Werbesendungen
adressierte Werbesendungen
Klassische Medien als Direktwerbeiyedien genutzt
Telefonmarketing
rn
passiv
aktiv
gedruckt
elektronisch
Neue Medien
Außenwerbung
Funk
Pressebeilagen
Femsehen
Anzeigen
Abb. 1: Medien des Direktmarketing (nach Holland)
747
Telefon marketing keting auch als "outboundTelemarketing" bezeichnet - geht die Aktivität vom Anbieter oder von einer durch diesen beauftragten Agentur aus. In Abhängigkeit von der angesprochenen Zielgruppe wird zwischen zwei Kommunikationsformen unterschieden: business-to-business richtet sich an gewerbliche Abnehmer, business-to-customer an Privatpersonen. An diese Unterscheidung knüpft auch die Rechtsprechung an. Als Instrument zum Nachfragen bei anderen bereits durchgeführten Direktmarketingmaßnahmen (z.B. Werbebrief, Anzeige) kann das aktive Telefonmarketing nur genutzt werden, wenn sich der Kunde bereits sein Interesse signalisiert und seine Zustimmung für die telefonische Kontaktaufnahme erteilt hat. Anwendungsmöglichkeiten des aktiven Telefonmarketing sind beispielsweise Adressenqualifizierung, Terminvereinbarung, Direktverkauf, Neukundengewinnung, Bestandskundenpflege. b. Passives Telefonmarketing Beim passiven Telefonmarketing, das im angelsächsischen auch als "inbound-Telemarketing" bezeichnet wird, ruft der Kunde selbst beim Anbieter an. Die Aktivität des Kunden folgt dabei regelmäßig dem Aufruf eines Anbieters im Rahmen einer Werbemaßnahme. Dies kann beispielsweise durch eine Anzeige in einer Zeitschrift geschehen, die den Leser aufruft, weitere Informationen telefonisch anzufordern. Auch die telefonische Bestell- oder Reklamationsannahme stellen Formen des passiven Telefonmarketings dar. Weitere Anwendungsgebiete des passiven Telefonmarketing sind Notfalldienste, Informationsdienste, Hot- und Helplinedienste oder Beratungstelefone. 3. Rechtliche Rahmenbedingungen Das deutsche Wettbewerbsrecht enthält keine speziellen Regelungen für das Telefonmarketing. Auf der Basis des § 1 748
Telefonmarketing UWG wurde von deutschen Gerichten eine sehr differenzierte Rechtsprechung entwickelt, nach der das Telefonmarketing und die Telefaxwerbung im Grundsatz für wettbewerbswidrig gehalten wird. Telefonmarketing im privaten Bereich ist grundsätzlich nur dann zulässig, wenn der Angerufene zuvor ausdrücklich oder stillschweigend sein Einverständnis erklärt hat, angerufen zu werden. Im geschäftlichen Bereich ist Telefonmarketing darüber hinaus zulässig, wenn ein zu vermutendes Einverständnis gegeben ist, da eine Geschäftsbeziehung besteht, der eigene Geschäftsbereich betroffen ist oder ein Hilfsgeschäft und konkrete Anhaltspunkte für ein Interesse vorliegen. 4. Technische und organisatorische Realisierung Technisch unterstützt wird das passive Telefonmarketing z.B. durch die Servicerufnummem "0800", "0180" und "0190" der Telekommunikationsanbieter. Diese Servicedienste unterscheiden sich im Wesentlichen in ihrer Tarifstruktur. Die Vorteile dieser Dienste liegen vornehmlich in der bundeseinheitlichen Rufnummer, der Möglichkeit der regionalen (z.B. Anrufe aus Bayern werden von der Niederlassung München angenommen) sowie der volumenabhängigen Zuordnung eingehender Anrufe (z.B. bei hohem Telefonaufkommen an einem Standort wird automatisch der Anruf an einem anderen Standort entgegengenommen). Bei der organisatorischen Realisierung kann auf eine unternehmenseigene Telefonmarketingabteilung oder auf Serviceagenturen zurückgegriffen werden. Sollen fortdauernd Bestandskunden von Mitarbeitern mit umfangreichem Produktkenntnissen aktiv angesprochen werden oder sind Rückfragen im Unternehmen regelmäßig erforderlich, ist die Einbindung in die eigene Unternehmensorganisation empfehlenswert. Das Unternehmen sollte dann auch die Strategie verfolgen,
Telekooperation
Telefonmarketing das Telefonmarketing in das eigene Marketing- und Vertriebskonzept einzubinden. Bei einmaligen Telefonaktionen oder zur Abdeckung kurzfristigen Bedarfs sollte das Telefonmarketing von einer Serviceagentur durchgeführt werden, da in diesen Fällen erst umfangreiche Investitionen in die erforderliche Informationsund Kommunikationstechnik getätigt werden müssten. Literatur: Vgl. Kotler, P./Bliemel, F.: M a r k e t i n g M a n a g e m e n t , 7., vollst, neu b e a r b e i t e t e A u f l a g e , Stuttgart 1992; H o l l a n d , H : D i r e k t m a r k e t i n g , M ü n c h e n 1992.
Uwe M. Seidel Telekooperation Telekooperative Arbeits- und Organisationsformen gelten als aussichtsreich hinsichtlich einer Verbesserung von Qualität, Flexibilität und Marktnähe der Leistungen von Unternehmen. Telekooperation verstanden als die mediengestützte arbeitsteilige Leistungserstellung zwischen verteilten Aufgabenträgern, Organisationseinheiten und Organisationen - bildet die Basis für organisatorische Virtualisierung (-> Virtualität) und Electronic Business (-» E-Commerce). Zwar sind völlig unterschiedliche Formen der Telekooperation denkbar und realisierbar, doch genießt in der öffentlichen Diskussion das Teilphänomen der Telearbeit, meist im Sinne alternierender Teleheimarbeit verstanden, heute noch immer die weitaus größte Beachtung. Ihr wird das Potenzial zugeschrieben, für Mitarbeiter, Unternehmen und Gesellschaft gleichermaßen Vorteile zu bieten. Stellt man die Frage, welche organisatorischen Möglichkeiten sich auf der Basis neuer Telemedien ergeben und welche Wettbewerbs- und Marktstrategien sich daraus für eine Zukunftssicherung von Unternehmen ableiten lassen, so ist eine isolierte Sicht auf Teleheimarbeit indes wenig förderlich. Ein derart enger Blickwinkel liefert kaum Hinweise darauf, wie die Wettbewerbsfähigkeit von Unternehmen gesteigert, Arbeitsplätze gesichert
oder neue Beschäftigungsformen geschaffen werden können. Erst ein erweiterter Fokus schafft hierfür Ansatzpunkte. Dieser Blickwinkel wird im Folgenden eingenommen. Formen der Telearbeit: Telearbeit fokussiert auf die räumliche Anordnung und Ausgestaltung einzelner Arbeitsplätze. Als primär arbeitsplatzorientierter Gestaltungsansatz zielt Telearbeit auf eine Flexibilisierung der Aufgabenbewältigung durch eine Verlagerung von Arbeitsstätten. Vier Grundrichtungen der räumlichen Arbeitsplatzverlagerung lassen sich unterscheiden (vgl. Abb. 1): •
•
•
•
Home-Based Telework umfasst alle Formen der Telearbeit vom häuslichen Arbeitsplatz aus. Center-Based Telework bezeichnet alle Formen der Bündelung von Telearbeitsplätzen in hierfür eingerichteten Telearbeits- und -Servicezentren. On-Site Telework bezeichnet Telearbeit am Standort des Kunden, des Lieferanten oder allgemein am Standort des Wertschöpfungspartners. Mobile Telework umfasst das standortunabhängige Arbeiten an einem mobilen Arbeitsplatz. Teleaifreit: Neue Forman dar Arbeitsplatzgesfaltung
HOME-BASED TELEWORK
MOBILE TELEWORK Abbildung
1 : Formen
CENTER-BASED I TELEWORK
ON-SITE TELEWORK der
1 1
Telearbeit
Will man die Möglichkeiten telekooperativer Aufgabenbewältigung ausloten, muss neben dem Arbeitsort gleichermaßen die Arbeitszeit, die Vertragsform und die Art der technischen Infrastruktur Berücksichtigung finden. Unter der Vielzahl möglicher Ausprägungsformen der Telearbeit gibt es keinen eindeutigen Favoriten. Telekooperation ergibt sich in der 749
Telekooperation
Telekooperation Praxis daher in aller Regel als Kombination der genannten unterschiedlichen Realisierungsformen. Je nach Aufgabe und Projektanforderung kann die eine oder andere räumliche, zeitliche, vertragliche oder technische Realisierungsform Vorteile bieten. Modell der Telekooperation: Während in klassischen, standortgebundenen Organisationen die beteiligten Akteure bei der arbeitsteiligen Leistungserstellung vorrangig direkt kooperieren, erlauben Telemedien heute auch entfernte Zusammenarbeit. Immer dann, wenn Zusammenarbeit derart durch neue Telemedien unterstützt wird, spricht man von Telekooperation. Telekooperation - eine Wortschöpfung aus TT|?tE (griech.) "entfernt" + cum (lat.) "zusammen" + opus (lat.) "Arbeit" - bezieht sich auf das Gesamtspektrum mediengestützter arbeitsteiliger Leistungserstellung und fokussiert so auf die Besonderheiten der Verteiltheit und Standortunabhängigkeit. Organisation ergibt sich als Wechselspiel von Aufgabenteilung und Koordination. Die Aufgabenbewältigung in arbeitsteiligen Strukturen umfasst somit neben der Bewältigung der Sachaufgabe stets auch die Bewältigung der Koordinationsaufgabe. Telemedien bieten neue Möglichkeiten sowohl für die Bewältigung der Sachaufgabe als auch der Koordinationsaufgabe (vgl. Picot/Reichwald/Wigand 2000). Damit betrifft Telekooperation den Kern des Organisationsproblems. Die drei zentralen Fragestellungen lauten: • •
•
Wie erfolgt die Aufgabenbewältigung? (Bewältigung der Sachaufgabe) Wie erfolgen Koordination und Führung? (Bewältigung der Koordinationsaufgabe) Was ist das Produkt? (Resultierende Leistung)
Folgendes Begriffssystem zur Telekooperation hat sich zur Behandlung derartiger
750
Fragestellungen als hilfreich erwiesen (vgl. Abbildung 2 sowie Reichwald et al. 2000). Es unterscheidet drei Dimensionen der Telekooperation: Telearbeit, Telemanagement und Teleleistungen. Dieses Modell bildet einen Rahmen für Ansätze zur Gestaltung und Bewertung telekooperativer Organisationsformen (vgl. Reichwald/Englberger/Möslein 1998). •
Die Telearbeit-Perspektive befasst sich mit der Gestaltung menschlicher Arbeit unter den Bedingungen der Verteilung und Mobilität. Im Zentrum stehen die folgenden Fragen: Welche Formen verteilten Arbeitens sind zu unterscheiden? Welche Realisierungen wurden bislang erprobt? Welche Erfahrungen sind zu verzeichnen? Und welche Antriebskräfte, aber auch Barrieren beeinflussen die zukünftige Entwicklung?
•
Die Telemanagement-Perspektive untersucht, wie eine solche verteilte Aufgabenerfüllung koordiniert werden kann. Dabei stehen die folgenden Problemfelder im Blickpunkt: Welche neuen Anforderungen ergeben sich für eine Koordination verteilten Arbeitens? Wie verändern sich Führungsprozesse bei telekooperativen Arbeitsformen? Welche Optionen, aber auch Restriktionen resultieren für die Mitarbeiterfuhrung in verteilten Organisationen?
•
Die Teleleistung-Perspektive fragt nach den resultierenden Leistungen, ihrem Markt und Abnehmern: Welche Leistungen sind dazu geeignet, in Telekooperation erbracht zu werden? Welche neuen Informationsprodukte werden durch telekooperative Arbeitsformen erst ermöglicht? Und welche Konsequenzen ergeben sich aus einem standortunabhängigen Leistungsangebot für den marktlichen Wettbewerb und die Konkurrenzfähigkeit?
Telekooperation
Telekooperation
Perspektive lassen sich im Bereich der Telekooperation Strategien räumlicher Flexibilisierung auf drei Ebenen unterscheiden (vgl. Abbildung 3 sowie Reichwald/Möslein 1999):
Telekooperation Telearbeit
Telemanagement
Te)eleistungen
mediengestützte verteilte Aufgabenbewältigung
mediengestützte verteilte Aufgabenkoordination
mediengestützte verteilte Dienstleistung
•
Informations- und Kommunikationstechnologie
Abb
2: Modell
der
Telekooperation
Telearbeit, Telemanagement und Teleleistungen bilden drei Blickwinkel auf die Telekooperation. Diese helfen, neue Gestaltungsoptionen für verteilte Arbeitsund Organisationsformen auszuloten in bezug auf neue Formen verteilter Aufgabenbewältigung, neue Formen der Koordination und Führung sowie neue Produkte im innovativen Bereich medienbasierter Dienstleistungen. Strategien der Telekooperation: Telemedi en schaffen neue Freiheitsgrade und eröffnen Potenziale für Innovation und Flexibilisierung in Unternehmen und Märkten. Die Realisierung dieser Potenziale und der damit verbundenen ökonomischen Nutzeneffekte jedoch hängt ab von der jeweils verfolgten Umsetzungsstrategie. Aus betriebswirtschaftlicher
Telearbeit als Arbeitsplatz-Strategie richtet den Fokus auf die räumliche Verteilung von Arbeitsplätzen. • Telekooperation als Wertschöpfungsprozess-Strategie stellt die neuen Optionen der Verteilung in den Kontext übergeordneter Wertschöpfungsprozesse in und zwischen Organisationen. • Modularisierung, Vernetzung und Virtualisierung als Organisationsstrategien machen Telekooperation zu Basiselementen organisatorischer Restrukturierung im Hinblick auf die Wettbewerbsfähigkeit von Unternehmen in globalen Märkten. Die drei Strategien unterscheiden sich und hängen doch unmittelbar zusammen. Telekooperation als Wertschöpfungsprozess-Strategie steht dabei im Zentrum. Sie setzt die alternativen Formen der Arbeitsplatzverlagerung in ihren jeweiligen organisatorischen Kontext. Die Entwicklungspotenziale und organisatorischen Konsequenzen der Entwicklung telekooperativer Arbeitsformen sind heute erst in Ansätzen absehbar (Reichwald/Mös-
Organisationsstrategie vernetzt
WertschöpfungsprozeßStrategie
; virtuell
hierarchisch
modular
ArbeitsplatzStrategie H o m i Center Based Based Tefe* Tele*; work work Mobile On-Slte TeleTelework work
Abb. 3: Strategien der
Telekooperation
751
Testkunden
Telekooperation lein/Piller 2000). Um dem Rechnung zu tragen, ist Know-how und Erfahrung erforderlich, welche nur in der praktischen Erprobung der Telekooperation gewonnen werden kann. Aus derartigen Erprobungsprojekten der Telekooperation in Wirtschaft und Verwaltung werden Anstöße für nachhaltige Innovationen in der Arbeitswelt erwartet mit Nutzeffekten für den Mitarbeiter im Bereich der individuellen Ziele, Nutzeffekten für die Unternehmung im Bereich der Flexibilität, der Produktivität sowie im Bereich weiterer wirtschaftlicher Zielgrößen (vgl. Reichwald/Möslein 2000). Darüber hinaus besteht die Erwartung, dass im Wachstumsmarkt neuer Dienstleistungen für Information und Kommunikation durch Telekooperation erhebliche Auswirkungen auf dem Arbeitsmarkt erzielt werden. Dieses Feld wirft jedoch zahlreiche offene Fragen auf, die sich auf die Beschäftigung, auf die Qualität der Arbeit, die Wettbewerbsfähigkeit der Wirtschaft, aber auch auf Fragen der rechtlichen Rahmenbedingungen, der Sicherheit oder der Auswirkungen auf die Gesellschaft beziehen. Es ist Aufgabe der empirischen Anwenderforschung, durch begleitende Evaluation in Pilotfeldern der Telekooperation schrittweise Antworten auf diese Fragen zu geben. Literatur: Picot, A./Reichwald, R./Wigand, R.: Die Grenzenlose Unternehmung, 4. Aufl., Wiesbaden 2000 (im Erscheinen); Reichwald, R./ Englberger, H./Möslein, K.: Telekooperation im Innovationstest, in: Wirtschaftsinformatik, Nr. 3, 1998, S. 205-213; Reichwald, R./Möslein, K..: Telework Strategies, in: Proceedings of the Fourth International Telework Workshop, 'Telework Strategies for the New Workforce', Tokyo, August 31 - September 3, 1999, S. 166-175; Reichwald, R./Möslein, K.: Nutzenpotentiale und Nutzenrealisierung in verteilten Organisationsstrukturen, in: ZfB-Ergänzungsheft, Nr. 2, 2000, S. 117136; Reichwald, R./Möslein, K./Piller, F.: Taking Stock of Distributed Work, Proc. of the ASACIFSAM 2000 Conference, Montreal, Quebec, Canada, July 8-11, 2000; Reichwald, R./Möslein,
752
K./Sachenbacher, H./Englberger, H.: Telekooperation, 2. Aufl., Berlin, Heidelberg u.a. 2000 (http://www.telekooperation.de/buch/).
Ralf Reichwald/Kathrin Möslein Telemanagement Telekooperation Tensor-Organisation -> Organisationsstruktur Testkunden Als Testkunden, Mystery Customer, Silent oder Secret Shopper bezeichnet man allgemein Personen, die Leistungen eines Unternehmens inkognito bewerten. Die dabei eingesetzte Erhebungsmethodik ist im Regelfall die teilnehmende und verdeckte Beobachtung. Zumeist sind Testkunden integraler Bestandteil des sogenannten Mystery Customer Managements. Dieses beschreibt die gezielte Aufstellung und Kontrolle von Qualitäts- bzw. Servicestandards. Der Testkundeneinsatz erfolgt gewöhnlich in Form des Mystery Calling oder des Mystery Shopping. Beim Mystery Calling im weitesten Sinne werden telefonisch, schriftlich oder per E-mail Leistungen eines Unternehmens anonym bewertet. Der Testkunde gibt sich als solcher nicht zu erkennen, um möglichst objektive Informationen zu erfassen. Im Fall des Mystery Shopping beurteilen die Testkunden die Leistungen eines Unternehmens vor Ort. Sie besuchen z.B. Filialen oder Geschäftsstellen eines Unternehmens und bewerten etwa Beratungsleistungen von Mitarbeitern. Die Erscheinungsformen der Testkunden in der Praxis sind vielfältig. Zunehmend bieten spezialisierte Marktforschungsinstitute diese Dienstleistungen an. Aber auch eigene Mitarbeiter eines Unternehmens sind geeignet, Testbesuche bzw. anrufe durchzufuhren. Letzteres ist z.B. dann sinnvoll, wenn Service- und Qualitätsstandards von Wettbewerbern oder Unternehmen anderer Branchen mit herausragendem Service getestet werden sollen. Gleichzeitig stärkt man damit das
Testkunden Bewusstsein von Mitarbeitern für kundenorientiertes Verhalten (-> Kundenorientierung). Voraussetzung für die Informationsbeschaffung mit Hilfe der Testkunden ist die Aufstellung und Auswahl geeigneter und damit letztlich auch prüfbarer Serviceund Qualitätsstandards. Zu den typischen Standards zählen die Erreichbarkeit und die Beratungskompetenz von Mitarbeitern. Neben diesen Voraussetzungen ist sehr frühzeitig zu klären, wie ein Unternehmen mit den vorliegenden Testkundeninformationen umgehen möchte. Nicht selten nämlich "versickern" diese Informationen nach der Präsentation der Ergebnisse. Zu den Vorteilen des Einsatzes von Testkunden im Rahmen des Mystery Customer Managements zählen: • •
• •
•
•
Die systematische Beobachtung von Qualitätsstandards. Der Erhalt von objektiven Informationen über das Verhalten von Mitarbeitern. Das Aufdecken von Schwachstellen und Verbesserungspotenzial. Vergleichbarkeit von Filialen bzw. Geschäftsstellen, je nach Anlage der Untersuchung. Eine stärkere Sensibilisierung von Mitarbeitern zu kundenorientierterem Verhalten. Einen abgestimmteren Einsatz geeigneter Instrumente zur Steigerung der Kundenorientierung.
Der Einsatz von Testkunden stößt teilweise auf Akzeptanzbarrieren bei Mitarbeitern. Die Kritik richtet sich dabei vor allem auf die anonyme Beobachtung sowie die daraus folgende -> Mitarbeiterbeurteilung. Deshalb sind vor dem Einsatz dieses Instruments auch betriebsverfassungsrechtliche Regelungen zu prüfen und ggf. zu berücksichtigen. Die im Zusammenhang mit dem Einsatz von Testkunden diskutierten methodi-
Top-down Planung sehen Probleme werden heute weitestgehend als lösbar eingestuft. Den klassischen Gütekriterien (Objektivität, Reliabilität und Validität) kann bei sorgfältiger Planung Rechnung getragen werden. Literatur: Platzek, T.: Mystery Shopping - "Verdeckte Ermittler" im Kampf um mehr Kundenorientierung, in: Wirtschaftswissenschaftliches Studium, 26. Jg., Heft 7, 1997, S. 364-366; Platzek, T.: Mystery Customer - Kundenservice messen, in: creditreform, 11/1999, S. 25-26; Deges, F.: Der Einsatz von Testkunden im Einzelhandel, in: Jahrbuch der Absatz- und Verbrauchsforschung, 38. Jg., Heft 1, 1992, S. 85-100.
Thomas Platzek Testmarkt -> Marktforschung Texas-Hedge -> Hedging TKP-Kriterium -> Tausender-Kontaktpreis-Kriterium Top-down Planung Bei der Gestaltung des Planungsprozesses geht es zunächst um die Frage, wie dieser organisatorisch in die Unternehmung eingegliedert werden soll. Grundsätzlich stehen zwei Möglichkeiten zur Verfügung, nämlich neben der Top-down Planung auch noch die Bottom-up Planung. Top-down Planung, auch als retrograde Planung bezeichnet, bedeutet eine Ableitung der Pläne von oben nach unten. Der von der Unternehmensführung fixierte globale Rahmenplan (als strategische Ausrichtung) wird von den nachgelagerten Planungsstufen in Teilpläne zerlegt, weiter präzisiert und dient der nächsten Planungsebene wiederum als Rahmenplan. Diese Planungsrichtung hat den Vorteil, dass die Zielsetzungen aller Teilpläne in hohem Maße der Zielsetzung des Gesamtunternehmens entsprechen. Allerdings besteht die Gefahr, dass die vorgelagerte Planungsebene der nachgelagerten Planungsebene Plandaten vorgibt, die diese unter Umständen nicht erfüllen 753
Total E-Quality
Top-down Planung kann. Die vorgelagerte Planungsebene verfugt vielfach nicht über alle erforderlichen detailspezifischen und sensiblen Informationen über die Situation vor Ort. Bei der nachgelagerten Planungsebene entsteht leicht der Eindruck, "verplant" zu werden und so bleiben Zweifel, ob die unteren Planungsebenen auf Anfragen hin offen und ehrlich informieren, so dass die Planungsqualität beeinträchtigt werden kann. Die Nachteile sowohl der Top-down Planung als auch der Bottom-up Planung können weitgehend durch den Einsatz des Gegenstromverfahrens ausgeschaltet werden. Beim Gegenstromverfahren stellt die Unternehmens fuhrung zunächst einen vorläufigen Rahmenplan auf, von dem die vorläufigen Teilpläne abgeleitet werden (retrograder Verlauf). Von der untersten Planungsebene bis hinauf zur Unternehmensführung erfolgt dann eine Überprüfung der Planvorgaben auf ihre Realisierbarkeit (progressiver Verlauf)- Treten nun Abweichungen zwischen den Vorgaben und den Realisierungsmöglichkeiten auf, sind Abstimmungen und Koordinierungen vorzunehmen. Nachteilig kann sich hierbei auswirken, dass das Gegenstromverfahren relativ zeitintensiv ist. Claus Dieter Witt Total E-Quality Die Bezeichnung Total E-Quality setzt sich zusammen aus Total Quality und Equality. Damit ist auch schon die Leitidee des Konzepts benannt: Für ein erfolgreiches Total Quality Management - sowie generell für eine erfolgreiche Unternehmenspolitik ist Chancengleichheit eine unabdingbare Voraussetzung. Im Unterschied zum USamerikanischen Konzept -> Managing Diversity, das alle potenziellen Gemeinsamkeiten und Unterschiede von Beschäftigten fokussiert, geht es bei dem europäischen Konzept Total E-Quality um die Chancengleichheit speziell der weiblichen Beschäftigten. 754
Weichenstellend für die Verbreitung des Konzepts in Deutschland war eine Konferenz zum Thema "Equality and Quality: New Moves for Women and Business" des Netzwerks Positive Aktionen der Europäischen Kommission 1994 in Como. Die dort von Unternehmen der EUMitgliedstaaten präsentierten Beispiele verdeutlichten, dass eine am Grundsatz der Chancengleichheit der Geschlechter orientierte Personalpolitik nicht nur den weiblichen Beschäftigten, sondern auch den Unternehmen zugute kommt, weil sie die Potenziale aller Beschäftigten für Veränderungsprozesse nutzbar macht. Angeregt durch diese Beispiele beschlossen die Mitglieder der deutschen Delegation, zunächst - unter der Trägerschaft des Wuppertaler Kreises - einen Arbeitskreis zu bilden und schließlich einen Verein zu gründen. Ziel von Total E-Quality Deutschland e. V. ist die Förderung einer auf Chancengleichheit ausgerichteten -> Unternehmenskultur und Personalpolitik. Gründungsmitglieder sind neben den Mitgliedern des "Forums Frauen in der Wirtschaft", einem Zusammenschluss der Frauen- bzw. Gleichstellungsbeauftragten namhafter deutscher Großunternehmen, Vertreter und Vertreterinnen der Tarifpartner, der Regierung und von unabhängigen wissenschaftlichen Einrichtungen. Mitglied werden können alle Personen und Institutionen, die die Ziele des Vereins unterstützen. Total E-Quality Deutschland e.V. grenzt sich ausdrücklich ab von Konzepten, die Frauenförderung als Ausgleich weiblicher Defizite verstehen, aber auch von solchen, die moralische Forderungen nach Chancengleichheit von außen an die Unternehmen herantragen. Als Initiative aus der Wirtschaft vertritt Total E-Quality vielmehr die Auffassung, dass Chancengleichheit Unternehmen (und Verwaltungen sowie anderen Organisationen) ökonomische Vorteile verschafft und deshalb integraler
Total E-Quality
Total Productive Maintenance
Bestandteil einer zukunftsweisenden Personalpolitik ist.
Initiativen in Sachen Chancengleichheit berichtet wird.
Um diese ökonomischen Vorteile zu erzielen, ist es wiederum erforderlich, Anstrengungen und Erfolge in Sachen Chancengleichheit auch sichtbar zu machen. Dem trägt die Verleihung des Total E-Quality Prädikats Rechnung. Mit ihm werden jene Unternehmen und andere Organisationen ausgezeichnet, die bereits den erforderlichen Paradigmenwechsel vorgenommen haben und ihre Personalpolitik am Grundsatz der Chancengleichheit orientieren. Bisher wurde das Prädikat an große -> Aktiengesellschaften (z.B. Commerzbank, Lufthansa, Schering, Volkswagen), an Stadtverwaltungen (z.B. Heidelberg, München, Wuppertal) sowie an mehrere kleine Betriebe aus unterschiedlichen Branchen vergeben.
Kontaktadresse: Total E-Quality Deutschland, c/o D T Bad Kissingen Technische Vertriebs GmbH, Mangelsfeld 11-15, 97708 Bad Bocklet
Bewerben können sich Betriebe mit mehr als fünf Beschäftigten. Diese müssen eine Checkliste zu den folgenden Aktionsbereichen ausfüllen: • • • • • • •
Beschäftigungssituation von Frauen, Personalbeschaffung, -einstellung, Nachwuchsförderung, -» Personalentwicklung, Weiterbildung, Vereinbarkeit von Familie und Beruf, Partnerschaftliches Verhalten am Arbeitsplatz, Institutionalisierung von Chancengleichheit und Chancengleichheit als Untemehmensphilosophie, Bekenntnisse zur Chancengleichheit, -> Öffentlichkeitsarbeit, Bewusstseinsbildung.
Diese Checkliste soll zugleich jenen Organisationen Anregungen und Impulse geben, die noch nicht ,bewerbungsreif sind, aber bereit, etwas für die Verbesserung der Chancengleichheit zu tun. Schließlich gibt Total E-Quality Deutschland regelmäßig einen Newsletter (Auflage: 10.000) heraus, in dem über die Preisträger sowie über andere vorbildliche
Literatur: Busch, C./Engelbrech, G.: Mit Chancengleichheit auf Erfolgskurs, Gertraude (Hrsg.): Chancengleichheit durch Personalpolitik, 2. Aufl., Wiesbaden 1998, S. 1 - 1 0 ; Shapiro, G./Levy, P./ Mitter, S.: E-Quality, Brighton 1996.
Gertraude Krell Total Productive Maintenance Die Total Productive Maintenance (TPM) ist ein Qualitätswerkzeug zur vorbeugenden Wartung von technischen Anlagen. Das Konzept geht auf S. Nakajima zurück. Ziel der TPM ist die Verbesserung der Gesamtanlageneffektivität; dazu werden die Mitarbeiter in eine ganzheitliche Betrachtungsweise einbezogen. Die Produktionsanlagen sollen stets verfügbar sein und hohe Leistung erbringen, damit hochwertige Produkte ohne Verschwendung hergestellt werden können. Um das zu erreichen, wird ein stetig zu verbessernder, dynamischer Prozess angestrebt. Ausgangspunkt der TPM sind sechs große Verlustquellen in der Produktion: • • • • • •
Verluste durch Anlagenausfälle Verluste beim Rüsten und Einrichten Leerlauf und kurzzeitige Stillstände zu geringe Taktgeschwindigkeit, die unter dem erreichbaren Ziel liegen Anlaufschwierigkeiten bei neuen Anlagen Qualitätsverluste durch Ausschuss
Diese Verluste werden mit Hilfe des Maßes der Gesamtanlageneffektivität (Overall Equipment Effectiveness, OEE) in Prozentzahlen ausgedrückt: OEE = Gesamtnutzungsgrad x tungsgrad x Qualitätsgrad
Leis-
Die OEE beschreibt, wie groß der Anteil der erzielten Produktion an einem theoretisch erzielbaren Optimum ohne Verluste ist. Um die OEE möglichst groß zu hal755
Total Productive Maintenance ten, werden die sechs Verlustquellen durch folgende fünf Maßnahmen ("fünf Säulen") gering gehalten: •
• •
• •
Schwerpunktprobleme werden mit Hilfe von gezielten Verbesserungsteams beseitigt. Die Mitarbeiter der Produktion halten ihre Maschinen selbst instand. Eine eigene Instandhaltungsabteilung ist für den geplanten Zustand der Maschinen verantwortlich. Die Mitarbeiter werden entsprechend trainiert und geschult. Die Instandhaltung dient der Prävention, um Ausfalle von vornherein zu verhindern.
Diese Säulen ruhen ihrerseits auf den Fundamenten der -> "Fünf S". Eine wesentliche Erfolgsvoraussetzung für TPM ist, den ProduktionsMitarbeitern nicht nur die Verantwortung für die Instandhaltungsmaßnahmen zu übertragen, sondern ihnen auch die Planung und Vorbereitung zu überlassen. Im TPM-System werden die Maschinenbediener zu selbstständigen Experten für die gesamte (präventive) Wartung, Bedienung und Instandhaltung und sind umfassend für den Zustand ihrer Arbeitsplatzumgebung verantwortlich. Literatur: Nakajima, S.: Management der Produktionseinrichtungen, Frankfurt, New York 1995.
Total Quality Management Managementkonzept, das das gesamte Unternehmen mit allen Aktivitäten und Mitarbeitern sowie die Umwelt einbezieht, um aus Kundenwünschen abgeleitete Qualitätsziele vorzugeben und zu erfüllen. Dies beinhaltet insbesondere die Aufnahme der -> Qualität als übergeordnetes Unternehmensziel, welches wiederum Eingang in die Unternehmenspolitik findet. Total Quality Management (TQM) ist ein von Joseph Juran (-»JuranTrilogie) entwickelter Ansatz des ->• Qualitätsmanagements, der mittels sechs Erfolgsfaktoren (-> Kunden756
Total Quality Management Zufriedenheit, -»Mitarbeiter- und Führungskräftezufriedenheit, Unternehmensgrundsätze und Unternehmenspolitik, Geschäftsergebnisse, Prozessstabilität und Ressourcenverfügbarkeit) ein Unternehmen in eine Spitzenposition gegenüber der Konkurrenz bringen soll. Juran setzte 1937 systematisch das Qualitätsmanagement bei General Motors in Detroit ein. Zusammen mit W. E. Deming (-> Deming-Zyklus) gilt er als der Initiator der japanischen Qualitätsphilosophie nach dem Ende des Zweiten Weltkriegs. Juran erweiterte die ursprünglich in der Qualitätssicherung beheimatete Qualitätskontrolle um die Dimension "Mensch" zu dem, was heute als TQM auch im Dienstleistungssektor eingesetzt wird. Zerlegt man den Begriff in seine einzelnen Worte, kann folgendes festgehalten werden: Total erfordert die Einbeziehung aller an der Produkterstellung beteiligter Interessengruppen (z.B. Mitarbeiter, Lieferanten, Abnehmer). Unternehmensintem erfordert dies eine bereichs- und funktionsübergreifende Betrachtung der Qualität über alle Hierarchieebenen hinweg. Bezogen auf die Umwelt bedeutet dies eine partnerschaftliche Kommunikation mit den Kunden (-• Kundenorientierung) und den Lieferanten unter Einbezug aller Unternehmensbeteiligten. Für die Dialogund Mitwirkungsorientierung bildet die Öffentlichkeitsarbeit ein wichtiges Instrument. Quality. Qualität, aus dem lateinischen "qualis" = wie beschaffen, wird vom Deutschen Institut für Normierung (DIN, s.a. -» Normung) als "die Gesamtheit aller Merkmale und Merkmalswerte eines Produktes oder einer Dienstleistung bezüglich ihrer Eignung, festgelegte und vorausgesetzte Erfordernisse zu erfüllen", definiert. Im Sinne von TQM bedeutet Qualität eine konsequente Orientierung aller betrieblichen Aktivitäten an den Qualitätsanforderungen. Qualität bezieht sich auf das Produkt (zielt auf die Ein-
Total Quality Management haltung der durch den Kunden festgelegten Produkteigenschaften wie z.B. Gebrauchsnutzen, Ausstattung, Zuverlässigkeit, Haltbarkeit), die Prozesse (durch beherrschte Prozesse kann auf Änderungen in der Unternehmensumwelt und auf Kundenanforderungen reagiert werden), die Arbeit (hierzu zählen Kriterien wie Selbstkontrolle, Null-Fehler (Zero Defects Concept) und Verbesserungsvorschläge) und das Unternehmen (positive Einstellung der Mitarbeiter zu ihrer Arbeit und ihrem Unternehmen ist ein bedeutendes Merkmal für TQM). Dieser Qualitätsbegriff erfordert eine Ausdehnung des Qualitätsdenkens auf alle der Produktion vor- und nachgelagerten Bereiche. Insofern ist Qualität nicht als Absolutum zu definieren, sondern vor allem im Hinblick auf den Grad der Erfüllung der jeweiligen Anforderungen des Kunden an das Angebot zu betrachten. Management bedeutet, dass Qualität als übergeordnetes Führungsprinzip im Unternehmen verstanden wird und Eingang in die ->• Unternehmenskultur findet. Qualität sollte Eingang in die formulierten und praktizierten Unternehmensziele und Strategien finden. Wichtig sind dabei Team- und Leistungsfähigkeit, Beharrlichkeit, Qualifizierung der Mitarbeiter, Anerkennung guter Leistungen und allgemein die Berücksichtigung von Humanität. Das zentrale Merkmal des TQM ist die Qualität. Qualität ist in alle Unternehmensbereiche einzuführen. Im Gegensatz zur -> Qualitätskontrolle in funktionsorientierten Unternehmen, bei denen die Qualitätsverantwortung speziellen Personen/Abteilungen übertragen wird, ist Qualität bei TQM Aufgabe aller Mitarbeiter. Ziel des TQM ist die Verbesserung der Kundenorientierung, sowohl extern durch ständigen Kontakt mit Kunden, aber auch intern durch KundenLieferanten-Beziehungen. Externe und interne Kunden definieren Qualitätsspezi-
Total Quality Management fikationen, die von den Lieferanten eingehalten werden müssen. TQM zeichnet sich durch die konsequente Anwendung von Methoden und Techniken aus. Bedeutende Methoden sind: SelfAssesment, -*• Quality Function Deployment (QFD), Qualitätsbewertung, -» Fehlermöglichkeitsund Einflussanalyse (FMEA), -> statistische Prozessregelung, Design of Experiments und -* Poka Yoke. Die Vorstufe und damit eine Art Voraussetzung für ein TQM bildet das -» Qualitätssicherungssystem. Es umfasst alle Maßnahmen, um den Nutzen des Produktes für Hersteller und Kunden zu erhöhen. In einem Qualitätsmanagementsystem sind alle Aufgaben, Funktionen, Abläufe, Strukturen, Organisationselemente, Methoden und Maßnahmen, die zur Bewirtschaftung der Qualität eingesetzt werden, enthalten. Der Aufbau eines Qualitätssicherungssystems kann z.B. auf der Grundlage der DIN EN ISO 9000ff erfolgen. Die Normen 9001-9003 enthalten jeweils ein Modell zur Qualitätssicherung, in dem 20 qualitätsrelevante Faktoren (Verantwortung der obersten Leistung, Qualitätsmanagementsystem, Vertragsprüfung, Designlenkung, Lenkung der Dokumente, Beschaffung, vom Auftraggeber beigestellte Produkte, Identifikation und Rückverfolgbarkeit von Produkten, Prozesslenkung, Prüfung, Prüfmittel, Prüfstatus, Lenkung fehlerhafter Produkte, Korrekturmaßnahmen, Handhabung/Lagerung/Verpackung/V ersand, Qualitätsaufzeichnungen, Interne Qualitätsaudits, Schulung, Kundendienst, Statistische Methoden) im Unternehmen systematisch zu erfassen und zu dokumentieren sind. Im Rahmen der Gestaltung eines TQM lassen sich die drei übergeordneten Parameter Organisation, Technik und Mensch identifizieren. Organisation: Die Unternehmensstrukturen werden entsprechend den Anforde757
Total Quality Management rungen des TQM (kundenorientiert) angepasst und führen in der Regel zu flachen Organisationsstrukturen. Teamarbeit (-» Team), Qualitätszirkel und Managementaudits (-» Management Audit) sind wichtige Gestaltungsformen bei der Umsetzung eines TQM. Technik: Die Qualität der Geschäftsprozesse ist eine wichtige Säule von TQM. Durch den Einsatz moderner Informations- und Kommunikationstechnologie kann die Transparenz von Prozessen und deren aktueller Prozesszustand deutlich verbessert werden. Mensch: Letztendlich obliegt es der Unternehmensfuhrung und den Mitarbeitern, ein TQM umzusetzen. Die Aufgabe der Unternehmensfuhrung besteht darin, in den Mitarbeitern ein Qualitätsbewusstsein zu wecken. Dies kann erfolgen durch Delegation von Verantwortung mittels Übergabe der benötigten Kompetenz und Verantwortungsbereiche, partizipativen -» Führungsstil, eine an den Qualitätszielen orientierte Qualifikation und Weiterbildung und eine leistungs- und arbeitsgerechte Entgeltregelung (-> Entlohnungssysteme). Schwierigkeiten des TQM resultieren insbesondere daraus, dass Inhalte nicht richtig begriffen und Prinzipien des TQM nicht erkannt werden, da eine ganzheitliche Orientierung fehlt. TQM darf nicht als ein Projekt, sondern muss als ein kontinuierlicher Prozess im Unternehmen angesehen werden. Matthias Fank TQM Total Quality Management Tracking Stocks sind börsennotierte Geschäftsbereichsaktien. Vermögensrechte des Aktionärs, so speziell die Gewinnbeteiligung, teilweise auch die Beteiligung am Liquidationserlös, sind dabei auf einen Geschäftsbereich der emittierenden Unternehmung bezogen. Die übrigen Aktionärsrechte, die 758
Tracking Stocks eine -» Aktie gewährt, bleiben dagegen am ganzen Unternehmen erhalten. Investoren können auf diese Weise an der Rendite eines Konzerngeschäftsfeldes beteiligt werden, ohne dass der Konzern rechtlich in eigenständige börsennotierte Teilunternehmungen aufgespalten wird. Tracking Stocks sind somit Aktien, die die Ertragsentwicklung eines Unternehmensbereiches (Tracked Unit) nachzeichnen bzw. verfolgen (to track). Als synonyme Begriffe werden verwendet: Alphabet Stocks, Letter Stocks (da teilweise die verschiedenen Tracking-Stock-Gattungen eines Emittenten durch Buchstaben unterschieden werden) und Targeted Stocks. Tracking Stocks sind vor allem in den USA gebräuchlich. Dort wurden Ende 1999 ungefähr 40 Stocks dieses Typs an den Börsen notiert. In Kanada und Neuseeland hat jeweils ein Emittent Geschäftsbereichsaktien aufgelegt. In Deutschland existieren zur Zeit noch keine Tracking Stocks, obwohl bei Konzernen mit sehr unterschiedlichen Geschäftsfeldern ein zunehmendes Interesse an diesem Finanzierungsinstrument zu beobachten ist. Die Zurückhaltung ist bei den potenziellen Emittenten unter anderem darauf zurückzuführen, dass bezüglich der rechtlichen Zulässigkeit dieser Aktienform in Deutschland noch eine gewisse Unsicherheit besteht, wenngleich die herrschende juristische Meinung davon ausgeht, dass ihre Emission zumindest im Rahmen einer Kapitalerhöhung möglich ist. Durch Tracking Stocks wird die Aufspaltung eines Unternehmens in rechtlich selbstständige und börsennotierte Teileinheiten vermieden. Den Gläubigern haftet weiterhin das gesamte Untemehmensvermögen und nicht nur die einzelne Tracked Unit. Auch wird die Gesellschaft durch einen einheitlichen -> Board of Directors geführt und nach außen vertreten. Funktionsbereiche die bei Zentralisierung zu Synergieeffekten führen, wie dies z.B. bei der Finanzierung der Fall ist,
Tracking Stocks bleiben zentral erhalten. Es erfolgt nur eine Aufspaltung des gesamten Unternehmensgewinns für die Aktionäre, die entsprechend dem Erfolg des Geschäftsbereiches, an dem sie beteiligt sind, am Gesamtgewinn Anteil haben. Voraussetzung hierfür ist eine segmentierte Rechnungslegung, die den operativen Erfolg für Geschäftsbereiche, für die Tracking Stocks ausgegeben sind, separat ausweist. Tracking Stocks können somit als Alternative zu Spin-Offs oder der Börseneinführung von Tochterunternehmen gesehen werden, was derzeit noch in Deutschland bevorzugt wird. Insbesondere in den USA werden in ihrem operativen Geschäftsfeld fokussierte Unternehmen durch Analysten und die Börse günstiger bewertet, während für stark diversifizierte Unternehmen ein Konglomerat-Abschlag (-* Conglomerate Discount) bei der Börsenkapitalisierung vorgenommen wird. So kann die Bewertung des Gesamtkonzerns sehr stark am schwächsten Geschäftsfeld orientiert sein. Durch die Ausgabe von Tracking Stocks soll der Konglomerat-Abschlag aufgehoben oder vermindert werden, bei gleichzeitiger Erhaltung der Synergieeffekte, die sich im Konzernverbund realisieren lassen. Verbundvorteile werden insbesondere für die Finanzierung gesehen, wo die Konzemmutter häufig ein besseres -» Rating erzielt als eine selbstständige kleinere Tochtereinheit. Durch Tracking Stocks wird somit versucht, die Vorteile fokussierter Unternehmen (-» Fokussierung) mit denjenigen zentral gesteuerter Konzerne zu verbinden und die Börsenkapitalisierung unter der Zielsetzung des -»• Shareholder Value zu steigern. Von den bisherigen Emittenten werden dementsprechend auch der Abbau von Fehlbepreisungen am Aktienmarkt bei gleichzeitig weiterer Nutzung von nur im Konzernverbund realisierbaren Synergieeffekten, wozu gegebenenfalls auch steuerliche Vorteile zählen können, als Hauptmotive für die Ausgabe von Tra-
Tracking Stocks cking Stocks genannt. Auch die Möglichkeit des Einsatzes bei Stock Option-Entlohnungsplänen für Führungskräfte (-» Optionsplan) wird als Motiv genannt. Empirische Untersuchungen deuten darauf hin, dass die Ausgabe von Tracking Stocks den Konglomerat-Abschlag tatsächlich reduzieren kann. Auch führt die Ankündigung der Ausgabe von Geschäftsbereichsaktien überwiegend zu positiven Kursreaktionen des Kapitalmarkts. Ferner bewirkt die geschäftsfeldbezogene Berichterstattung bei den Analysten ein erhöhtes Research Coverage und einen größeren Konsens bei den Gewinnschätzungen was wiederum zu einer sachgerechteren Börsenbewertung beitragen kann. Für die Rechnungslegung von Unternehmen, die Tracking Stocks begeben haben, existieren derzeit selbst in den USA keine konkreten gesetzlichen Bestimmungen, obwohl die SEC auf den Bedarf für eine gesetzliche Norm hingewiesen hat. Der Aktionär erhält derzeit neben dem Konzerngeschäftsbericht für das Gesamtunternehmen eine -» Bilanz, eine -» Gewinn- und Verlustrechnung sowie eine -> Kapitalflussrechnung (Cash-flow Statement) für die Tracked Units, an denen er beteiligt ist. Auch die geschäftsfeldbezogene Berichterstattung unterliegt der Prüfung durch Wirtschaftsprüfer. Bei der Aufstellung der Rechnungslegung ergeben sich erhebliche Probleme bei der Erfolgsermittlung der Tracked Units. Da der Konzern nicht real aufgespalten ist, muss eine Verteilung der Aufwendungen für gemeinsam genutzte Produktionsfaktoren erfolgen. Dazu ist unter anderem eine Aufteilung des Konzemvermögens und der -Verbindlichkeiten auf die Teileinheiten erforderlich. Liegt ein Leistungsaustausch zwischen den Teileinheiten untereinander oder mit den nicht aufgeteilten Zentraleinheiten vor, so tritt die Verrechnungspreisproblematik auf, die die Dividenden, die auf die einzelnen 759
Transaktionskostentheorie
Tracking Stocks Tracking Stocks ausgeschüttet werden, unmittelbar beeinflusst. Durch die Ausgabe von Geschäftsbereichsaktien entstehen Aktionärsklienteis mit unterschiedlicher Interessenlage. Die Investitionsentscheidungen werden aber weiterhin von dem gemeinsamen Konzernmanagement getroffen. Dies kann zu gewissen Corporate-Governance-Problemen ( - • Corporate Governance) fuhren, da das Management gleichzeitig unterschiedliche Shareholder-Zielsetzungen erfüllen soll. Tracking Stocks der ersten Generation waren mit einem fixierten Stimmrecht ausgestattet, was dazu führt, dass Stimmrechte zu unterschiedlichen Kursen gehandelt werden. Bei den Geschäftsbereichsaktien der zweiten Generation wird das Stimmrecht zu bestimmten Terminen an die relative Marktkapitalisierung angepasst. Damit kostet ein Stimmrecht annähernd den gleichen Börsenpreis, aber das Management verändert durch seine Investitionsentscheidungen auch den Stimmrechtszuwachs für die eine oder andere Aktionärsgruppe. Literatur: Natusch, I.: Tracking Stock als Instrument der Beteiligungsfinanzierung diversifizierter Unternehmen, Köln 1995; Natusch, I.: Neue Wege der Beteiligungsfinanzierung deutscher Unternehmen durch die Ausgabe von Tracking Stocks?, in: DB, 1997, S.l 141-1148; Perridon L./Steiner M.: Finanzwirtschaft der Unternehmung, 10. Aufl., München 1999, S. 369 ff.; Steiner M./ Natusch I.: Tracking Stocks- innovatives Instrument der Beteiligungsfinanzierung, in: Die Bank, 1996, S.580-585.
Manfred Steiner Trade Creation u. Trade Diversion -» Freihandelszone Trade Sale -> Exit Traditional Auction -> Internet-Auktionen Transaktions-Exposure -»Cash Management 760
Transaktionskostentheorie 1. Begriff Die Transaktionskostentheorie geht auf Arbeiten von Coase und Williamson zurück. Wie die Agency-Theorie und die Property-Rights-Theorie (-> PropertyRights-Ansatz) betrachtet die Transaktionskostentheorie das Unternehmen als Geflecht unvollkommener Verträge. Im Vordergrund der transaktionskostentheoretischen Analyse steht die Frage, welche Auswirkungen nutzenmaximierendes Verhalten auf die Gestaltung dieser unvollkommenen Vertragsbeziehungen zeigt. Die TransaktionskostenTheorie trägt dabei zur Erklärung institutioneller Ordnungsmuster bei und gibt Empfehlungen für die Koordination wirtschaftlicher Austauschbeziehungen auf gesamt-, branchen- oder einzelwirtschaftlicher Ebene. 2. Transaktionskosten als Vorteilhaftigkeitskriterium Transaktionskosten bezeichnen Kosten, die im Rahmen vertraglicher Austauschbeziehungen für die Festlegung, Übertragung und Durchsetzung von Verfügungsrechten entstehen. Die Kosten fallen bei jeder Austauschbeziehung an, egal ob sie über den Markt, innerhalb des Unternehmens oder über eine Zwischenform wie -»• Kooperationen oder Franchising (-> Franchise-Systeme) koordiniert wird. Allerdings sind für eine bestimmte vertragliche Austauschbeziehung je nach Wahl der Koordinationsform unterschiedlich hohe Transaktionskosten zu erwarten. Dabei gilt diejenige Koordinationsform als die vorteilhafteste, bei der die geringsten Transaktionskosten zu erwarten sind. Da eine genaue Quantifizierung dieser Kosten nur schwer möglich ist, beschränkt sich die Transaktionskostentheorie auf eine vergleichende Kostenanalyse der in Frage kommenden Koordinati ons formen. Zur Bestimmung von Transaktionskosten wird meist auf ein Konzept zurückgegriffen, das von Williamson als "Organizati-
Transaktionskostentheorie
Transaktionskostentheorie on Failure Framework" bezeichnet wird. Ausgangspunkt dieses Konzeptes bilden Verhaltensannahmen über die ökonomischen Akteure sowie eine Betrachtung der Rahmenbedingungen, unter denen sich die Transaktion vollzieht (vgl. Abb. 1). a)
Verhaltensannahmen Die zwei grundlegenden Verhaltensannahmen der Transaktionskostentheorie bestehen im begrenzt rationalen Verhalten der ökonomischen Akteure sowie in ihrem Opportunismus. Begrenzt rationales Verhalten entsteht, da die Akteure nicht über alle vertragsrelevanten Informationen verfugen, bzw. nicht die gesamte Fülle an Informationen bei der Vertragsgestaltung berücksichtigen können. Verträge bleiben daher zwangsläufig unvollkommen und eröffnen so Spielraum für opportunistisches Verhalten, d.h. für eine individuelle Vorteilsnahme, bei der eine Schädigung der Vertragspartner billigend in Kauf genommen wird. Inwieweit die Verhaltensannahmen der begrenzten Rationalität und des Opportunismus zu Transaktionskosten beitragen, hängt von den Transaktionsbedingungen ab.
Verhaltensannahmen
b)
Transaktionsbedingungen Als wesentliche Transaktionsbedingungen gelten die Komplexität sowie die Spezifität der vertraglichen Austauschbeziehung. Die Komplexität beschreibt die Vorhersehbarkeit und den Umfang des voraussichtlichen Änderungsbedarfs vertraglicher Regelungen. Einfache Transaktionen können nahezu vollkommen vertraglich geregelt werden. Mit zunehmender Komplexität einer Austauschbeziehung steigt jedoch die Gefahr, dass vertragliche Regelungen aufgrund der begrenzten Rationalität der ökonomischen Akteure unvollkommen bleiben. Dies eröffnet den Vertragspartnern einen entsprechend größeren Spielraum für opportunistisches Verhalten. Die Spezifität einer Transaktion ergibt sich aus der Investition eines Vertragspartners in Ressourcen, deren Wert in einer anderen Vertragsbeziehung nicht oder nur mit Nutzeneinbußen möglich ist. Je größer der Wertverlust der Ressourcen bei ihrer zweitbesten Verwendung ausfallt, desto spezifischer ist eine Transaktion. Beispiele für spezifische Investitionen sind die Errichtung von Gebäuden in
Transaktionsbedingungen
Begrenzte Rationalität
Komplexität
Transaktionskosten durch unvollkommene Information
Opportunismus
Abb. 1
Spezifität
Quelle: in A n l e h n u n g an Williamson 1975
761
T ran s aktion skosten th eor ie der Nähe des Vertragspartners (site specifity), der Kauf von Maschinen, die zur Vertragserfüllung notwendig sind (physical asset specifity) sowie die Weiterbildung von Mitarbeiter zur Bedienung dieser Maschinen (human asset specifity). Spezifische Investitionen begründen eine Abhängigkeit von den jeweiligen Vertragspartnern, da mit steigendem Investitionsvolumen auch der Wertverlust bei einem Abbruch der Vertragsbeziehung anwächst. Durch diese Abhängigkeit kann an die Stelle einer gemeinsamen Aufgabenbewältigung opportunistisches Verhalten der unabhängigen Vertragspartner treten. Die Transaktionskosten erhöhen sich entsprechend. 3. Gestaltungsempfehlungen der Transaktionskostentheorie Das wichtigste Entscheidungskriterium für die Wahl einer bestimmten Koordinationsform bildet die Spezifität einer Transaktion. Bei wenig spezifischen, standardisierten Produkten und Leistungen stehen sich regelmäßig mehrere Anbieter und Nachfrager gegenüber. Ein Angebot über den Markt ermöglicht in diesem Fall die Bedienung mehrerer Nachfrager und führt so zu Größen- und Produktionskostenvorteilen im Unternehmen. Bei einem Bezug standardisierter Produkte und Leistungen über den Markt kann das Unternehmen zwischen unterschiedlichen Anbietern wählen. Da das Unternehmen jederzeit und zu geringen Transaktionskosten eine alternative Vertragsbeziehung eingehen kann, sorgt der marktliche Wettbewerb wie mit "unsichtbarer Hand" für eine effiziente Koordination zwischen den Beteiligten. Bei niedriger Spezifität bietet sich daher eine Koordination der Transaktion über klassische Kaufverträge am Markt an. Mit zunehmender Spezifität weist der Abschluss klassischer Kaufverträge über den Markt steigende Transaktionskosten auf. So fehlen für spezifische Produkte und Leistungen Vergleichspreise, die 762
Transaktionskostentheorie einen Vertragsschluss erleichtern würden. Zudem begründen spezifische Investitionen ein Abhängigkeitsverhältnis zwischen den Vertragspartnern, das dem unabhängigen Partner die Möglichkeit zu opportunistischem Verhalten eröffnet. Der Vertrag müsste somit zunehmend komplexere Vorkehrungen enthalten, die bei unterschiedlichen zukünftigen Rahmenbedingungen vor Opportunismus schützen. Unter Transaktionskosten-Gesichtspunkten ist daher eine Koordination der vertraglichen Austauschbeziehung innerhalb des Unternehmens oder über Zwischenformen wie langfristige Kooperationen vorteilhafter. Die Zwischenformen erweisen sich als vorteilhaft, wenn spezifische Investitionen durch institutionelle Vorkehrungen wie Vertragsstrafen geschützt werden sollen und gleichzeitig zumindest eine marktähnliche Koordination zwischen den Vertragspartnern erwünscht ist. Den Zusammenhang zwischen der Spezifität, unterschiedlichen Koordinationsformen und den jeweiligen Transaktionskosten zeigt Abb. 2.
Markti
Zwischenform
Hierarchie
.
Hierarchie Spezifität
Neben der Spezifität beeinflussen auch die Dauer der Austauschbeziehung und die (erwartete) Veränderung zukünftiger
Transaktionskostentheorie Rahmenbedingungen die Wahl einer bestimmten Koordinationsform. Eine marktliche Koordination bietet sich für kurzfristige vertragliche Austauschbeziehungen an, da hier das Preissystem des Marktes für eine stetige Angleichung an veränderte Rahmenbedingungen sorgt. Erfordert die Austauschbeziehung jedoch eine längerfristige Zusammenarbeit der Vertragspartner, können Veränderungen der Rahmenbedingungen zu Marktversagen und damit zu entsprechend hohen Transaktionskosten fuhren. Ursache hierfür ist, dass veränderte Rahmenbedingungen während der Vertragslaufzeit oftmals gegenseitige Anpassungsmaßnahmen erfordern. Vertragliche Regelungen können diese Maßnahmen im Vorfeld jedoch nur unvollkommen erfassen und bieten daher hohen Freiraum fiir Opportunismus. Zudem ist bereits die Abschätzung zukünftiger Rahmenbedingungen und die Festlegung entsprechender Maßnahmen mit erheblichen Kosten verbunden. 4. Anwendungsbereiche Die Transaktionskostentheorie eignet sich für alle Fragestellungen, bei denen die Wahl zwischen unterschiedlichen Koordinationsformen für eine vertragliche Austauschbeziehungen besteht. Ein traditioneller Anwendungsbereich der Transaktionskostentheorie ist die Frage nach der optimalen Integrationstiefe eines Unternehmens. Hierzu gehört der Kauf bzw. Verkauf von Unternehmen(steilen) (-> Untemehmenskauf), aber auch das -> Outsourcing einzelner Aktivitäten. So lässt sich aus den Transaktionsbedingungen bspw. ableiten, in welchen Fällen eine Vorwärtsintegration zum Aufbau von Markteintrittsbarrieren genutzt werden kann oder wie die Erfolgsaussichten einer konglomeraten Diversifikation zu beurteilen sind. Ein weiteres Analysefeld stellen vertragliche Austauschbeziehungen innerhalb des Unternehmens dar. Im Mittelpunkt stehen dabei meist Gestaltungsempfehlungen zur Reduktion transaktionskostenreicher Konflikte zwischen Eigentümern und der von ihnen einge-
Trend setzten Unternehmensleitung. Daneben betrachtet die Transaktionskostentheorie auch gesamtwirtschaftliche Bereiche wie die Kosten unterschiedlich gestalteter Systeme der Untemehmensverfassung (->• Board of Directors, Aufsichtsrat) und die Frage, welchen Einfluss verschiedene Rechtssysteme auf die Vertragsgestaltung nehmen. Literatur: Williamson, O.E.: The Economic Institiutions of Capitalism, N e w York, London 1985; Williamson, O.E.: Markets and Hierarchies: Analysis and Antitrust Implications, N e w York 1975.
Anja Tuschke Trend Als Trend kann jene Komponente einer Zeitreihe bezeichnet werden, von der angenommen wird, dass sie evolutionär, längerfristig und nachhaltig wirkt. Der Trend ist folglich eine Funktion der Zeit, er drückt die Grundrichtung des Verlaufs einer Zeitreihe aus. Neben der Trendkomponente können konjunkturelle, saisonale, oszillatorische und zufällige Schwankungen eine Entwicklung kennzeichnen. Diese Definition schließt auch schwer in Zahlen auszudrückende Entwicklungen ein, wie beispielsweise gesellschaftliche Trends als Ausdruck sich ändernder Werte und Normen im kulturellen, politischen und sozialen Leben einer Gesellschaft. Eine präzise Trendaussage umfasst Informationen darüber, welcher Sachverhalt (z.B. das Konsumverhalten, -> Konsumentenforschung) sich bei einer bestimmten gesellschaftlichen Einheit (z.B. Jugendliche) entwickelt, wie lange diese Entwicklung bereits beobachtet wird, in welcher Richtung und mit welcher Intensität sie verlaufen ist und welches Entwicklungspotenzial ihr innewohnt. Entsprechend ist ein Trend durch folgende Merkmale gekennzeichnet: • •
Das Objekt der Entwicklung, den oder die Träger (Subjekt) der Entwicklung, 763
Trendforschung
Trend • • •
die zeitliche Perspektive der Entwicklung, die Richtung und Intensität der Entwicklung und die Stärke bzw. das Potenzial der Entwicklung.
Die Erkennung, Erklärung und Fortschreibung von Trends ist Gegenstand der -> Trendforschung. Lothar Müller-Hagedorn/ Marcus Schuckel Trendextrapolation -> Trendforschung Trendforschung 1. Aufgaben und Erkenntnispahasen der Trendforschung Trendforschung kann durch drei Aufgaben gekennzeichnet werden: 1. Erkennen und Beschreiben von längerfristigen und nachhaltigen Entwicklungen im Zeitablauf (deskriptive Funktion), 2. Erklärung der Ursachen und Bestimmungsfaktoren des -> Trends (explikative Funktion) und 3. Fortschreiben des Trends in die Zukunft (prognostische Funktion). Im Rahmen der deskriptiven Trendforschung können zwei Erkenntnisphasen unterschieden werden: 1. Zunächst müssen Entwicklungen in den (den Forscher) interessierenden Realitätsausschnitten aufgedeckt werden (qualitative Trendforschung). 2. Für erkannte Entwicklungen ist dann zu prüfen, ob eine Trendaussage im oben definierten Sinne formuliert und hinreichend genau spezifiziert werden kann (quantitative Trendforschung). Neben der Identifikation und Beschreibung von Trends ist es außerdem das Ziel der Trend forschung, beobachtete Entwicklungen zu erklären. Gesucht werden die Ursachen für die identifizierten Trends. Dabei ist es möglich, dass ein Trend die Ursache für einen anderen 764
Trend darstellt. Es können sich Trendhierarchien ergeben, an deren Spitze sogenannte Megatrends stehen. Megatrends können als Basisströmungen verstanden werden, die sich in mehreren einzelnen Entwicklungen (Trends) wiederfinden bzw. unter die einzelne Trends zusammengefasst werden können. Die Grundlage der Trendforschung bildet die Sammlung und Auswertung von Daten; Trendforschung ist also zunächst vergangenheitsorientiert. Trends können aber nicht nur für zurückliegende Zeiträume beschrieben werden, von besonderem Interesse ist es zumeist, Trendaussagen für die Zukunft zu formulieren, bzw. Trends für zurückliegende Perioden in die Zukunft fortzuschreiben. Dabei gibt es grundsätzlich zwei Vorgehensweisen: 1. Ein in der Vergangenheit bzw. auf der Grundlage von Vergangenheitsdaten erkannter Trend kann in die Zukunft fortgeschrieben werden, wenn davon ausgegangen werden kann, dass die für den Beobachtungszeitraum gültigen Rahmenbedingungen und Einflussfaktoren auch in der Zukunft Bestand haben werden (Zeitstabilitätshypothese). Dies ist um so eher der Fall, je kürzer der Prognosezeitraum ist. 2. Sind aus der expliziten Trendforschung die Bestimmungsfaktoren der Entwicklung bekannt, kann für die relevanten Einflussfaktoren die Gültigkeit der Zeitstabilitätshypothese geprüft bzw. für die Entwicklung dieser Faktoren eine Prognose erstellt und zur Fortschreibung des Trends herangezogen werden. 2. Vorgehensweise und Methoden der Trendforschung In Anlehnung an die Systematik der -> Marktforschung kann die Trendforschung in vier Phasen eingeteilt werden: die Definitions- und Designphase, die Datenerhebung, die Datenanalyse und die Dokumentationsphase.
Trendforschung •
Definitions- und Designphase In der Definitions- und Designphase ist der Gegenstand bzw. das Ziel der Untersuchung festzulegen und eine geeignete Untersuchungskonzeption abzuleiten. Gerade der Untersuchungsgegenstand kann aber bei Trendstudien zunächst oft nur vage und allgemein formuliert werden. Es liegen oft keine konkreten Vermutungen über Trends vor. Es müssen daher zunächst Anhaltspunkte für mögliche Trends gefunden werden. Folgende Methoden sind geeignet, erste Hinweise auf Trends zu erhalten: - Scouting: Szenemitglieder berichten periodisch über neue Entwicklungen in ihrer Szene. - Dialog mit Trendsettern oder Experten'. In Einzelgesprächen oder Workshops mit Meinungsfuhrern wird versucht, frühzeitig Trends zu erkennen. - Analyse von Sekundärquellen: Es wird geprüft, welcher Grad an Aufmerksamkeit einzelnen Themenbereichen in ausgewählten Medien zukommt. Eine zentrale Aufgabe der Definitionsund Designphase ist das Festlegen und Operationalisieren des Objektes der Trendanalyse und geeigneter Trendindikatoren. Insbesondere die Analyse von qualitativen Größen, wie z.B. von Einstellungen oder Werten, setzt eine präzise Begriffsdefinition und geeignete Indikatoren bzw. Messinstrumente voraus.
• Datenerhebung Sofern die Trendindikatoren festgelegt und operationalisiert wurden, können Daten im Zeitablauf gewonnen werden. Teilweise sind diese aus sekundärstatistischem Material verfugbar (z.B. aus der amtlichen Statistik), teilweise müssen geeignete Daten jedoch durch eigene Primärerhebungen gewonnen werden. Nur eine Längsschnittanalyse mit mehreren Erhebungszeiträumen im Zeitablauf
Trendforschung erlaubt die Identifikation von Trends. Werden im Zeitablauf wiederholt die selben Erhebungspersonen zu gleichbleibenden Themen befragt, handelt es sich um eine sogenannte Paneluntersuchung. Zur Analyse von Trends sind Panels besonders gut geeignet. Als problematisch erweisen sich jedoch Paneleffekte, d.h. durch die Teilnahme am Panel ausgelöste Verhaltensänderungen der Panelteilnehmer, und das Ausscheiden von Teilnehmern aus dem Panel (Panelsterblichkeit, Drop-out-Rate). • Datenanalyse Ziel der Datenanalyse ist es, zufällige Schwankungen, saisonale Effekte oder sonstige Einflüsse auf die gewonnenen Zeitreihenwerte herauszufiltern, um die Trendkomponente sichtbar zu machen. Es können zwei Gruppen von Analyseverfahren unterschieden werden: 1. Nichtzerlegende Verfahren: - Glättungsverfahren: Durch die Berechnung von Periodendurchschnitten oder die Gewichtung der unterschiedlichen Zeitreihenwerte werden zufallige Abweichungen eliminiert. Zu nennen sind hier das Verfahren der gleitenden Durchschnitte und die exponentielle Glättung mit ihren verschiedenen Varianten. - Trendextrapolation: Bei der Trendextrapolation wird versucht, eine Trendfunktion zu ermitteln, die möglichst nah an den Werten der Zeitreihe liegt. Gängige Trendfunktionen haben einen linearen, exponenziellen oder logistischen Verlauf. 2. Zerlegende Zeitreihenanalyseverfahren versuchen, eine Zeitreihe in ihre Komponenten aufzuspalten bzw. den Verlauf der Zeitreihe durch alle Komponenten (glatte, oszillatorische) zu erklären. Beispiele sind hier das Box-JenkinsVerfahren oder Winters Spektralanalyse. 765
Trendforschung Neben den besonderen Verfahren der Zeitreihenanalyse können im Rahmen der Trendforschung weitere Analyseverfahren von Bedeutung sein, insbesondere solche, die der Analyse von Zusammenhängen dienen (z.B. Regressionsanalyse, Multivariate Analyseverfahren). • Datendokumentation Die Dokumentation einer Trendanalyse sollte über die Untersuchungsmethode Auskunft geben (Stichprobe, Datenerhebung, Analyseverfahren), um eine Einschätzung der Güte bzw. der Zuverlässigkeit der Trendaussage zu ermöglichen. Im Idealfall werden die Gütemaße zur Reliabilität und zur -» Validität der Untersuchungsergebnisse angegeben. Ebenso wichtig ist eine konkrete Beschreibung des ermittelten Trends anhand der Merkmale Objekt, Subjekt, Zeit, Richtung und Intensität. 3. Bedeutung der Trendforschung für die Unternehmensplanung Wirtschaftliches Geschehen spielt sich in einem turbulenten Umfeld ab. Sowohl innerhalb als auch außerhalb der Unternehmen und Betriebe ändern sich fortlaufend die Rahmenbedingungen wirtschaftlichen Handelns. Dies bedeutet, dass Entscheidungen in der betriebswirtschaftlichen Praxis unter (großer) Unsicherheit getroffen werden müssen. Erkenntnisse über beständige Komponenten von Entwicklungen, d.h. Trendaussagen, die es ermöglichen, zukünftige Veränderungen zu antizipieren, sind daher für die Unternehmenspraxis von großem Wert. Die Ausrichtung von Trendformulierungen an den zentralen Institutionen der Wirtschaft ist besonders hilfreich, weil eine der Hauptaufgaben einer marktbezogenen Unternehmensführung darin besteht, das Verhalten der Marktpartner und die Kräfte, die es antreiben, richtig einzuschätzen. Es ergeben sich folgende Subjekte, für die aus Sicht der Unternehmenspraxis Trendanalysen besonders sinnvoll sind: Endverbraucher, Einzel766
Turnaround-Management handel, Großhandel, Industrie, Staat, Gewerkschaften und Öffentlichkeit. Valide Trendaussagen verringern die Ungewissheit über die zukünftige Unternehmensumwelt und erhöhen damit die Planungs- und Entscheidungsqualität der Unternehmung. Literatur: Feld, C.: Trends - Megatrends, in: Müller-Hagedorn, L. (Hrsg.): Trends im Handel, Frankfurt 1997, S. 9 - 2 5 ; Lakaschus, C.: Die Trendforschung als Hilfsmittel für Marketing und Kommunikation, in: Tietz, B. (Hrsg.): Die Werbeund Kommunikationspolitik, Landsberg/Lech 1982, S. 2 1 8 3 - 2 1 9 8 . Otto, R.: Industriedesign und qualitative Trendforschung, M ü n c h e n 1993. Weßner, K.: Prognoseverfahren als Instrumente zur Absicherung strategischer Marketingentscheidungen, in: Jahrbuch der Absatz- und Verbrauchsforschung, 34. Jg. (1988), Nr. 3, S. 2 0 8 - 2 3 4 .
Lothar Müller-Hagedorn/ Marcus Schuckel Trennbankensystem -* Bankensysteme Triage Idee —> Prozessmanagement Trojaner Computerviren Turnaround-Management Innerhalb des -» Krisenmanagements als einer Form der Führung, durch die Unternehmenskrisen vermieden oder bewältigt werden sollen, ist Turnaround-Management dem Teilbereich der Krisenbewältigung zuzuordnen. TurnaroundManagement umfasst alle Maßnahmen, um stark negative Untemehmensentwicklungen zu stoppen, existente Unternehmenskrisen zu beenden oder Phasen unternehmerischer Stagnation zu durchbrechen und in einen positiven Entwicklungstrend (Turnaround) umzukehren. Vielfach wird der Begriff -> Restrukturierung synonym verwendet, da er eine umfassende Neugestaltung der Organisation bezeichnet, wie sie häufig auch im Rahmen des Turnaround-Management erfolgt. Im engen Sinne beschreibt Turnaround-Management die Trendumkehr aber eher allgemein als konzentrierten
Turnaround-Management Einsatz umfassender Maßnahmen innerhalb eines begrenzten Zeitraums. Abgesehen von der Betonung der strategischen und strukturellen Dimension der Veränderung, bleibt der Ansatzpunkt der Maßnahmen aber prinzipiell offen. Im Gegensatz zur Restrukturierung trägt Turnaround-Management zudem Zwangscharakter, da Unterlassen den Unternehmensfortbestand kurz- oder mittelfristig gefährden kann. Durch Assoziation mit Inhalten wie "das Steuer herumreißen" wird die Signifikanz der Richtungsänderung deutlich, welche im weiteren Sinne die aufgezeigten Parallelen zur Restrukturierung erklärt. In Theorie und Praxis besteht die Tendenz, Turnaround-Management auch mit Sanierung gleichzusetzen. Der Versuch, den negativ belegten, dem Insolvenzrecht (-> Insolvenz) nahestehenden Begriff der Sanierung durch den als modern empfundenen Ausdruck des Turnaround-Management zu ersetzten, ist inhaltlich aber nicht gerechtfertigt. Ausgangssituation der Sanierung ist eine existenzgefährdende Liquiditätskrise, die als Alternativen zur Sanierung nur noch die Liquidation oder Übernahme zulässt. Zudem kann eine Sanierung im Gegensatz zu Turnaround-Management nicht mehr aus eigener Kraft erfolgen. Forderungsverzicht der Gläubiger, Änderung der Eignerstruktur oder Verkauf wesentlicher Unternehmensteile zur Finanzierung der Sanierung führen zu einer Änderung der Unternehmensidentität, die beim Tumaround-Management regelmäßig erhalten bleibt. Die Einleitung eines TurnaroundProzesses erfolgt vielfach aufgrund interner oder externer struktureller Probleme, die den Geschäftserfolg oder die unternehmerische Dynamik unter ein durch die Eigner akzeptiertes Niveau haben sinken lassen. Das Erkennen der Krise durch Manager oder Eigner und der Beschluss zur Einleitung von Gegenmaßnahmen bilden den Beginn des Turnaround-
Turnaround-Management Prozesses. Die Dimension der Krise ist häufig auf fehlende -» Frühwarnsysteme oder auf Missachtung erkennbarer Warnsignale wie dauerhaft rückläufige Marktanteile oder Erträge, Produktivitätsprobleme oder unterdurchschnittliche Renditen zurückzuführen. Je nach Stadium der Krise und Nähe zur Sanierungssituation können beim Turnaround-Management Sofortmaßnahmen notwendig sein, um den Unternehmensfortbestand über Kostensenkung (-> Kostensenkungstechniken), Umsatzsteigerung und CashGeneriening (-> Cash-flow) kurzfristig abzusichern. Wird Turnaround-Management in einem frühen Stadium der Erfolgskrise begonnen, liegt der Schwerpunkt in einer strategischen und operativen Neupositionierung. Diese kann sich auf einzelne Funktionsbereiche oder Markt- und Produktsegmente beschränken, wird aber im Hinblick auf Überwindung struktureller Defizite vielfach die Neuordnung der Gesamtorganisation umfassen und damit den Umfang einer Restrukturierung erreichen. Die zentralen Erfolgsfaktoren beim Turnaround-Management liegen in der Zusammensetzung, Konstanz und Qualifikation des Turnaround-Teams (s.a. Teamstrukturen), Konsequenz in der Maßnahmenumsetzung sowie einer einheitlichen Zielvorstellung, die auch von den Kontrollgremien geteilt wird. Turnaround-Management ist nicht durch Delegation realisierbar, vielmehr kommt dem Engagement der Geschäftsleitung hohe Bedeutung zu. Dies gilt sowohl für die Entwicklung der strategischen Neuausrichtung als auch für die Erzeugung des notwendigen Veränderungsdrucks sowie der Dokumentation von Entschlossenheit zur Realisation des Turnarounds. Für die Bildung eines Tumaround-Teams spricht, dass abgesehen von spezifischem Fachwissen sowie der Kenntnis der Unternehmenssituation zusätzliche Qualifikationen erforderlich werden, die von Einzelpersonen kaum zu erfüllen sind. 767
Turnaround-Management Dazu zählen neben Erfahrung im Turnaround-Management strategischer Weitblick, operative Durchsetzungsfähigkeit, Kommunikationsfähigkeit sowie soziale Kompetenz, Teamfähigkeit und Flexibilität im Denken. Je nach Umfang der Aufgabe variiert die Größe und Besetzung der -> Teams bis hin zu interdisziplinären Gruppen, bei denen vielfach auch mittelbar betroffene Stakeholder zumindest beratend vertreten sein sollten. Bei der Teambildung gilt der Grundsatz, dass die besten Ergebnisse erzielt werden können, wenn Betroffene zu Beteiligten werden. Dies bezieht sich insbesondere auf das mittlere Management, das bei richtiger Einbindung in das TurnaroundManagement zu dessen Träger, im gegenteiligen Falle aber auch zu dessen Verhinderer werden kann. Je ungünstiger die Ausgangssituation, desto eher besteht die Neigung, einen Turnaround durch Neubesetzungen in der Geschäftsleitung einzuleiten. Dadurch können Traditionen leichter aufgebrochen, Beziehungsgeflechte gelöst und neue Fachkompetenz gewonnen werden. Tumaround-Management vollständig aus eigener Kraft scheitert häufig an starken internen Widerständen. Wird Turnaround-Management vom bisherigen Management durchgeführt, lassen die vielfältigen Anforderungen externe Unterstützung notwendig erscheinen. Turnaround-Management lässt sich in drei Kernphasen unterteilen, die nicht streng sukzessiv aufeinander folgen müssen, sondern vielmehr ineinander verzahnt sind und Elemente eines Prozesses bilden: 1. Die Analyse-Phase kann in eine Grobund eine Detailanalyse unterteilt werden. Im Rahmen der Grobanalyse wird die Gewinnung eines Überblicks über den Gesamtumfang der notwendigen Maßnahmen und über deren Verteilung auf finanzwirtschaftliche, leistungswirtschaftliche und soziale Bereiche angestrebt. Bereits zu diesem 768
Turnaround-Management Zeitpunkt erfordert Turnaround-Management eine Zukunftsausrichtung, um allen Stakeholdern bei positiver Beurteilung der Chancen für den Turnaround eine Perspektive zur nachhaltigen Absicherung ihrer Interessen aufzuzeigen. Bei großen Veränderungsbedarfen ist eine realistische Abschätzung des Änderungspotenzials auf Basis der verfügbaren Ressourcen vorzunehmen. Dabei ist die erreichbare Veränderungsgeschwindigkeit als limitierender Faktor zu berücksichtigen. Die Detailanalyse baut auf der Grobanalyse auf und dient zur Ableitung der detaillierten TurnaroundKonzeption. 2. In der Konzept-Phase erfolgt die Erarbeitung von Lösungen für die operative und strategische Ebene. In Abhängigkeit von der Ausgangssituation sind hier Techniken der -> Strategieentwicklung gefordert, die im Sinne einer Orientierung am -»Unternehmenswert den Aufbau von Wettbewerbsvorteilen verfolgen, um die Nachhaltigkeit des Turnarounds abzusichern. Typische strategische Fragestellungen beziehen sich dabei auf die Zukunftsfähigkeit bestimmter Produkt-Markt-Kombinationen oder Organisationsmodelle, die Generierung künftiger Wettbewerbsvorteile sowie die Definition von Kernfähigkeiten. Dabei ist ein Turnaround-Erfolg vielfach nur durch radikales Verlassen bisheriger Handlungs- und Sichtweisen realisierbar. Eine Fortschreibungsmentalität bestehender Pläne ist mit dem Turnaround-Management nicht vereinbar. Über die Definition einer Unternehmensvision sowie die dazugehörige Grundstrategie sind -> funktionale (Teil-) Strategien zu entwickeln, die das unternehmerische Gesamtkonzept integrativ tragen. Besonders bei bisher fehlender oder unklarer Unternehmenspositionierung kommt der Erarbeitung einer strategi-
Turnaround-Management sehen Zielvorstellung entscheidende Bedeutung zu, um operative Maßnahmen frühzeitig in die entsprechende Richtung lenken zu können. Dabei sind Ansätze wie bspw. das -»Business Process Reengineering geeignet, um eine Koppelung zwischen strategischen Zielen und operativen Geschäftsprozessen zu erreichen. 3. In der Implementierungs- und Controlling-Phase werden die Änderungen im Unternehmen verankert. Die Durchsetzung des Turnarounds erfolgt vorzugsweise über Zerlegung der Gesamtmaßnahmen in Einzelprojekte, um diese mit Hilfe eines -» Projektmanagements kontrolliert bearbeiten zu können. Je nach Umfang erfolgt die Maßnahmenrealisation stufenweise. Der Gefahr einer Destabilisierung der
Turnaround-Management Gesamtorganisation aufgrund einer zu hohen Änderungsrate muss ggf. durch Konsolidierungsphasen begegnet werden. Nach Umsetzung erster Schritte zur Einleitung des angestrebten Kurswechsels sollte die organisatorische Entwicklung im Hinblick auf eine Übereinstimmung von Strategie und Struktur (-» Strategie-Struktur-Zusammenhang) sukzessiv im Prozess der Strategieumsetzung erfolgen. Neben der Schaffung organisatorischer Voraussetzungen für eine Institutionalisierung von operativer und strategischer Erfolgs- und Zielkontrolle ist auch die Entwicklung eines Managementverständnisses als Prozess stetiger Veränderung und Verbesserung sicherzustellen. Klaus Macharzina/Holger Dürrfeld
769
Übernahme, feindliche
Übernahme, feindliche Der Begriff der feindlichen Übernahme wird im Zusammenhang mit -» Unternehmensakquisitionen diskutiert. Als Akquisition oder synonym Übernahme eines Unternehmens bezeichnet man den Erwerb eines Mehrheitsanteils von über 50% am Eigenkapital eines bereits existierenden Zielunternehmens (= Akquisitionsobjekt) durch ein anderes Unternehmen (= Käufer/Erwerber), ohne dass ein vor dem Eigentumsübergang der Eigenkapitalanteile rechtlich selbstständiges Akquisitionsziel seine Rechtspersönlichkeit mit dem Erwerb verlieren muss (Gerpott 1993, S. 22-35). Durch eine Akquisition erhält der Käufer die Möglichkeit einer beherrschenden Einflussnahme auf die strategische und operative Steuerung des Zielunternehmens. Liegen nun in einem Unternehmen Eigentümer- und Leitungs-/Managementrechte nicht in einer Hand, dann ergibt sich die Möglichkeit, dass ein Unternehmen Eigenkapitalanteile eines anderen Unternehmens direkt von dessen Eigentümern, also seinen Aktionären bei in der Rechtsform einer -> Aktiengesellschaft (AG) firmierenden Unternehmen oder Gesellschaftern bei Unternehmen in der Rechtsform einer Gesellschaft mit beschränkter Haftung (GmbH), erwerben kann, ohne dass das oberste Leitungsorgan des Zielunternehmens (Vorstand bei AG, Geschäftsführer bei GmbH) dieser Anteilsveräußerung zugestimmt haben muss. Bei einem derartigen, zwar ohne Zustimmung und gegen den Widerstand der angestellten Mitglieder des obersten Unternehmensleitungsorgans (= Top-Management), aber im Einvernehmen mit den bisherigen Eigentümern des Zielunternehmens erfolgendem Akquisitionsfall hat es sich eingebürgert, von einer feindlichen oder unfreundlichen Übernahme (englisch: "unfriendly/hostile takeover/ 770
Übernahme, feindliche acquisition") zu sprechen. Umgekehrt liegt demnach eine freundliche Übernahme vor, wenn das Top-Management des Zielunternehmens den alten Eigentümern die Veräußerung ihrer Kapitalanteile an den neuen Erwerber empfohlen hat. Diese dichotome Differenzierung von Akquisitionstypen zeigt allerdings nur die Endpole eines Kontinuums auf, da auch eine offiziell "freundliche" Akquisition möglicherweise von starken inoffiziellen Zweifeln des übernommenen Top-Managements hinsichtlich der Richtigkeit der dem Erwerb zu Grunde liegenden ökonomischen Logik begleitet sein kann. Die Unterscheidung stellt zudem einseitig nur auf die Perspektive des Top-Managements des Zielunternehmens ab; die Beurteilung der Übernahme durch andere wichtige Interessengruppen wie etwa die Eigentümer des Erwerbers oder des Zielunternehmens oder die Mitarbeiter des erwerbenden oder erworbenen Unternehmen wird bei dem üblichen Begriffsverständnis von feindlichen versus freundlichen Übernahmen vernachlässigt. Präziser und weniger stark wertend ist daher eine Charakterisierung der beschriebenen Akquisitionsvariante als mit dem TopManagement des Zielunternehmens nicht koordinierte Übernahme (NKÜ). Als Beispiel für eine NKÜ im Jahr 1999 kann der Kauf des Telecom /ta/;a-Konzerns durch Olivetti angeführt werden. Speziell bei AG können NKÜ über den allmählichen, vom Top-Management des Zielunternehmens nicht bemerkten Aufkauf von Aktien bis zu einer Beteiligung von 25% eingeleitet werden, da erst ab dieser Anteilsgrenze gemäß § 20, Abs. 1 AktG eine unverzüglich zu erfüllende Mitteilungspflicht des Käufers gegenüber dem Zielunternehmen (nur) bezüglich der Beteiligungstatsache besteht. Darüber hinaus sind bei AG zwei weitere Wege zu einer NKÜ zu unterscheiden: 1. Abgabe eines gleichzeitig an alle Aktionäre des Zielunternehmens gerichteten öffentlichen Angebots, deren
Übernahme, feindliche
Übernahme, feindliche Anteile zu bestimmten Konditionen (Barzahlung, Aktientausch, Mischkompensation aus Barzahlung und Aktientausch) innerhalb eines spezifizierten Zeitraums zu erwerben; hier spricht man auch von einem "tender offer", für dessen Modalitäten in der 13. EU-Gesellschaftsrechtsrichtlinie über Übernahmeangebote Vorgaben gemacht werden (s. Weisser 1994; Richter 1998). 2. Werben einer Person/Institution, die an einer Kontrolle des Zielunternehmens interessiert ist, um Stimmrechtsvollmachten anderer Aktionäre, die genutzt werden (sollen), um eigene Vorschläge des Interessenten (z.B. Ersatz von Vorstandsmitgliedern) gegen das Top-Management des Zielunternehmens durchzusetzen und so die faktische Steuerungsgewalt über das Zieluntemehmen zu erlangen (= "proxy contest/ßght"). Erwerber streben eine NKÜ prinzipiell deshalb an, weil sie davon ausgehen, dass sie den Eigenkapitalwert des Zielunternehmens relativ zum gezahlten Kaufpreis durch Nutzung von positiven Verbundeffekten (= Synergien, -» Synergiemanagement) aus dem Zusammenwirken von kaufendem und gekauften Unternehmen (z.B. bessere Auslastung von Vertriebsmitarbeitern) oder durch im Vergleich zur bisherigen Unternehmensleitung besseres Management der Aktiva oder Passiva des Zielunternehmens steigern können. Die Motivation des Top-Managements des Zielunternehmens zur Ablehnung eines Übernahmeversuchs kann darin begründet sein, dass 1. das Kaufpreisangebot als nicht dem -> Unternehmenswert entsprechend zu niedrig eingestuft wird, 2. keine betriebswirtschaftlichen Wertschöpfungspotenziale bei zugleich hohen Transaktionskosten durch einen Zusammenschluss mit dem Erwerbsinteressenten erwartet werden und
3. es persönliche Nutzeneinbußen bei einem Eigentümerwechsel befürchtet. Gegenmaßnahmen des Top-Managements von Kapitalgesellschaften zur Abwehr von NKÜ-Angeboten und die rechtliche Zulässigkeit solcher Maßnahmen werden in Praxis und Wissenschaft intensiv diskutiert (Assmann/Bozenhardt 1990; Weisser 1994). Hier lassen sich prophylaktische Verteidigungsaktionen und Abwehrreaktionen für den konkreten Fall der Vorlage eines NKÜ-Angebotes differenzieren. Zu den vorbeugenden Verteidigungsaktionen gehören: •
•
•
Einschränkungen der freien Übertragbarkeit von Zieluntemehmensanteilen auf andere Eigentümer (z.B. durch Ausgabe vinkulierter (Namens-) -> Aktien). Satzungs-/Gesellschaftsvertragsanpassungen zur Beschränkung der Einflussnahme eines Anteilseigners auf das Zieluntemehmen wie etwa (a) Höchststimmrechte (d.h., dass ein einzelner Aktionär maximal einen bestimmten Anteil (5-20%) der gesamten Stimmrechte ausüben darf), (b) Mehrstimmrechte, die von "befreundeten" Unternehmen wie der eigenen Hausbank gehalten werden, (c) stimmrechtslose Vorzugsaktien, (d) die Ermächtigung des Vorstandes zu Kapitalstrukturveränderungen (z.B. durch Überkreuzbeteiligungen mit befreundeten Unternehmen) oder (e) die Einführung zeitlich gestaffelter Amtszeiten für Vorstände und Aufsichtsräte. Veränderungen der Aktiva des Zielunternehmens etwa durch Verkauf von besonders erfolgsversprechenden oder wertvernichtenden Unternehmensteilen.
Zur Abwehr eines konkret vorliegenden NKÜ-Angebotes kann das Top-Management eines Zielunternehmens (a) weitere Kaufinteressenten, die ihm "freundlich" gesinnt sind (= "white knights"), ein-
771
Übernahme, feindliche schalten, (b) politischen Druck (z.B. von Gewerkschaften) mobilisieren, (c) schnell ein anderes Unternehmen, das für den potenziellen Akquisiteur zu wettbewerbsrechtlichen Problemen führt, kaufen oder (d) das mit einer Übernahme drohende Unternehmen selbst akquirieren (= "pac man defense"). Zur Bewertung der Gefahren und Chancen von NKÜ aus betriebs- und volkswirtschaftlicher Sicht ist eine differenzierte Analyse der NKÜ-Effekte auf einzelne Interessengruppen erforderlich. Empirische Studien zeigen, dass Aktionäre von unfreundlich übernommenen Zielunternehmen im Mittel eine signifikant größere Vermögensmehrung erfahren als Aktionäre von Unternehmen, die im Zuge einer freundlichen Übernahme veräußert wurden, ohne dass zugleich bei den Eigentümern unfreundlicher Käufer eine signifikant niedrigere Vermögensmehrung oder gar Vermögensminderung zu beobachten war als bei Aktionären von freundlichen Akquisiteuren (s. Datta et al., 1992, S. 75). Für die Anteilseigner beider Transaktionsparteien fällt damit der gesamte Zuwachs ihres Vermögens bei einer NKÜ zumindest keineswegs geringer, wahrscheinlich sogar höher aus als bei einer freundlichen Akquisition. Die Beschäftigungssicherheit von TopManagern des Zielunternehmens sinkt durch eine NKÜ deutlich. Generelle Aussagen zu NKÜ-Wirkungen auf die Arbeitnehmer des erworbenen und des erwerbenden Unternehmens (z.B. Beschäftigungsvolumen und -qualität, Entgeltniveau) lassen sich kaum treffen, da derartige Effekte situativ in Abhängigkeit von (a) den Stärken und Schwächen der beteiligten Unternehmen, (b) den Chancen und Risiken ihres Markt- und Wettbewerbsumfeldes sowie (c) der Qualität des Integrationsmanagements nach dem formalen Zustandekommen einer NKÜ variieren. Auf volkswirtschaftlicher Ebene kann allein die Möglichkeit einer NKÜ durch andere Unternehmen effizienzsteigemde Effekte haben, da angestellte Top772
Umsatzkostenverfahren Manager aufgrund der Bedrohung ihrer Beschäftigungssicherheit und Reputation durch eine NKÜ (a) in der Mehrung ihres persönlichen Nutzens auf Kosten des von ihnen geleiteten Unternehmens eingeschränkt werden und (b) motiviert werden, ein Unternehmen so effizient zu fuhren, dass es zumindest seine Eigenkapitalkosten erwirtschaftet (Bästlein 1997; Flassak 1995). Literatur: Assmann, H.-D./Bozenhardt, F.: Übernahmeangebote als Regelungsproblem zwischen gesellschaftsrechtlichen N o r m e n und zivilrechtlich begründeten Verhaltensgeboten, in: Assmann, H.-D./Basaldua, N./Bozenhardt, F./Pelzer, M. (Hrsg.): Übernahmeangebote, Berlin 1990, S. 1 156; Bästlein, H.M.: Zur Feindlichkeit öffentlicher Übemahmeangebote, Frankfurt 1997; Datta, D.K./Pinches, G.E./Narayanam, V.K.: Factors influencing wealth création f r o m mergers and acquisitions: A meta-analysis, in: Strategie Management Journal 13/1992, S. 6 7 - 8 4 ; Flassak, H.: Der Markt filr Unternehmenskontrolle, Bergisch Gladbach 1995; Gerpott, T.J.: Integrationsgestaltung und Erfolg von Unternehmensakquisitionen, Stuttgart 1993; Richter, E.M.: Chancen für eine Ü b e m a h m e r e g e l u n g in Europa, Aachen 1998; Weisser, R.D.: Feindliche Ü b e m a h m e a n g e b o t e und Verhaltenspflichten der Leitungsorgane, Konstanz 1994.
Torsten J. Gerpott Umsatzkostenverfahren Anders als beim -> Gesamtkostenverfahren werden beim UKV den Umsatzerlösen der Periode die zu Herstellungskosten bewerteten veräußerten Produkte des Rechnungszeitraums auf dem GuV-Konto (->• Gewinn- und Verlustrechnung) gegenübergestellt, und zwar unabhängig davon, ob die Herstellungskosten in der/ den Vorperiode(n) oder aber in der Referenzperiode angefallen sind. Im Gegensatz zum GKV kann das UKV nicht unmittelbar aus den Kontenplänen der Finanzbuchhaltung abgeleitet werden, da die betrieblichen Aufwendungen laut § 275 Abs. 3 HGB funktional nach den Bereichen Herstellung, Vertrieb und allgemeine Verwaltung zu gliedern sind. Die Zuordnung der Aufwandsarten zu den genannten Funktionsbereichen wird erleichtert, wenn im Unternehmen eine
Umsatzkostenverfahren
Umsatzkostenverfahren
773
Umsatzkostenverfahren
Umsatzkostenverfahren ausgebaute Kostenstellen- und tenträgerrechnung vorliegt.
Kos-
Abbildung 1 zeigt die grundlegende Buchungsstruktur bei Anwendung des UKV. Die gesamten, in den Kontenklassen 6 und 7 des Industriekontenrahmens (IKR) erfassten Aufwendungen müssen zunächst in Herstellungskosten, Vertriebskosten, allgemeine Verwaltungskosten, sonstige betriebliche Aufwendungen sowie sonstige Aufwendungen aufgespalten und auf die entsprechenden Konten der Klasse 8 verbucht werden. Als Herstellungskosten sind sämtliche Aufwendungen des Geschäftsjahres zu erfassen, die im Herstellungsbereich der Unternehmung entstanden sind. Folglich kommen für eine Abbuchung auf das Ergebniskonto 83 "Allgemeine Verwaltungskosten" nur solche Aufwandsbestandteile in Betracht, die weder zu den Herstellungs- noch zu den Vertriebskosten der Periode zählen. Zu diesen nicht herstel lungsbezogenen Verwaltungskosten gehören grundsätzlich alle Materialund Personalaufwendungen sowie Abschreibungen aus dem Verwaltungsbereich. Dieses werden primär die in der Hauptkostenstelle "Verwaltung" erfassten Gemeinkostenbeträge sein (-» Kostenarten). Darüber hinaus ist darauf zu achten, dass auf dem Konto 81 "Herstellungskosten" alle planmäßigen und auch außerplanmäßigen Abschreibungen zu erfassen sind, sofern sie auf Vermögensgegenstände des Herstellungsbereichs entfallen. Mithin stimmen der Herstellungskostenbegriff der Handels- und Steuerbilanz (§ 255 Abs. 2 und 3 HGB, § 6 Abs. 1 Nr. 1 Satz 1 und Nr. 2 Satz 1 EStG, R 33 EStR) und der Herstellungskostenbegriff der Erfolgsrechnung nach dem UKV nicht überein. Das Konto 84 "Sonstige betriebliche Aufwendungen" sammelt diejenigen Aufwendungen, die nicht den Funktionsbereichen Herstellung, Verwaltung und Vertrieb zugeordnet werden können. Ähnliches gilt für die in der
774
Kontenklasse 7 angeführten Aufwandskonten.
sonstigen
Der sich auf dem Konto 81 "Herstellungskosten" ergebende Saldo, der mit dem Terminus "Herstellungskosten der zur Erzielung der Umsatzerlöse erbrachten Leistungen" (§ 275 Abs. 3 HGB) vom Gesetzgeber belegt wird, ist auf das Konto 803 "Gewinn- und Verlust" zu verbuchen. Somit umfasst dieser Posten alle Aufwendungen des Herstellungsbereichs im Geschäftsjahr, sofern sie nicht aktiviert werden (Bestandserhöhungen), zuzüglich derjenigen Aufwendungen, mit denen bisher aktivierte und im Geschäftsjahr abgesetzte fertige Erzeugnisse bzw. weiter verarbeitete unfertige Erzeugnisse in der Vorperiode bilanziert waren (Bestandsverminderungen). Die sich auf den Ergebniskonten 82, 83 und 84 ergebenden Salden sind sodann auf das Gewinn- und Verlustkonto zu verbuchen. Wie Abbildung 1 verdeutlicht, werden Aufwendungen für mengenmäßige Zugänge von aktivierten Eigenleistungen und Bestandserhöhungen vom Konto 81 "Herstellungskosten" auf die entsprechenden Bestandskonten gebucht. Etwas anderes gilt für Zuschreibungen auf Vermögensgegenstände des Herstellungsbcreichs, die, ähnlich wie beim GKV, unter Posten Nr. 6 "sonstige betriebliche Erträge" zu erfassen sind. Sofern Verwaltungsgemeinkosten der Rechnungsperiode in die bilanziellen Herstellungskosten selbsterstellter Anlagen und Erzeugnisbestände einbezogen wurden, sind die auf die Endbestände entfallenden Aufwandsbestandteile aus dem Sammelkonto 83 herauszubuchen, damit unter dem Posten Nr. 5 "allgemeine Verwaltungskosten" der Gewinn- und Verlustrechnung nach § 275 Abs. 3 HGB nur diejenigen Verwaltungsaufwendungen zum Ausweis kommen, die sich zum einen auf die während des Geschäftsjahres produzierten und abgesetzten Erzeugnisse beziehen
Umsatzkostenverfahren
Umsatzkostenverfahren einbezogen, so stimmen beide Methoden der Erfolgsrechnung noch nicht im Ergebnis der gewöhnlichen Geschäftstätigkeit, und damit auch nicht im Betriebsund Finanzergebnis, sondern nur im Jahresergebnis überein.
und die zum anderen nicht in der Jahresbilanz (-> Bilanz) erscheinen. Folglich werden die in den Herstellungskosten von verkauften Erzeugnissen aus Vorjahresbeständen ggf. enthaltenen Verwaltungsgemeinkosten im Rahmen des Postens "Herstellungskosten der zur Erzielung der Umsatzerlöse erbrachten Leistungen" erfasst. Auf die gleiche Art und Weise sind Teile der bilanziellen Herstellungskosten (z.B. Material- und Fertigungsgemeinkosten) zu behandeln, die aus handelsrechtlicher Sicht nicht in die Bilanzansätze von Eigenleistungen und Erzeugnisbeständen einbezogen werden. Der nicht aktivierte Unterschiedsbetrag zu den Vollkosten wird dann nach h.M. im Falle von Bestandsveränderungen innerhalb des Postens "Herstellungskosten der zur Erzielung der Umsatzerlöse erbrachten Leistungen" ausgewiesen. Abbildung 2 zeigt die Struktur der Gewinn- und Verlustrechnung nach dem UKV in Staffelform gemäß § 275 Abs. 3 HGB. Beim UKV setzt sich das Betriebsergebnis aus dem Umsatzergebnis (Posten Nr. 3), abzüglich Vertriebskosten (Posten Nr. 4), allgemeiner Verwaltungskosten (Posten Nr. 5) und sonstiger betrieblicher Aufwendungen (Posten Nr. 7) zuzüglich sonstiger betrieblicher Erträge (Posten Nr. 6) zusammen. Allerdings können Unterschiede zu bestimmten Posten und Zwischenergebnissen im Verhältnis zum GKV auftreten. So sind beim UKV lediglich diejenigen Aufwendungen, die nicht den genannten Funktionsbereichen Herstellung, Vertrieb und allgemeine Verwaltung zuzuordnen sind, in den übrigen, nach Aufwandsarten unterschiedenen Posten der Erfolgsrechnung auszuweisen. Hierdurch besteht die Möglichkeit, dass bei identisch bezeichneten Aufwandsarten inhaltliche Abweichungen gegenüber dem GKV auftreten können. Werden z.B. aktivierungsfahige Steuern und Zinsen in den Posten Nr. 2 des UKV
] 2
3 4 5 6 7 8 9
10 11
12
Umsatzerlöse ~~ Herstellungskosten der zur E r z i e l u n g der U m s a t z e r l ö s e erbrachten L e i s t u n gen Bruttoergebnis v o m U m s a t z Vertriebskosten allg. V e r w a l t u n g s k o s t e n s o n s t i g e betriebl. Erträge sonstige betriebl. A u f w e n d u n g e n Erträge aus Beteiligungen Erträge aus anderen Wertpapieren und A u s l e i h u n g e n d e s Finanzanlagevermögens
(Betriebsergebnis)
± (Finanzergebnis)
s o n s t i g e Z i n s e n und ähnliche Erträge A b s c h r e i b u n g e n auf F i n a n z a n l a g e n und auf W e r t p a p i e r e des U m l a u f v e r mögens Z i n s e n und ähnlichen A u f w e n d u n g e n
13
E r g e b n i s der g e w ö h n l i c h e n G e schäftstätigkeit
14 15 16
a u ß e r o r d e n t l i c h e Erträge außerordentliche A u f w e n d u n g e n
17
Steuern v o m E i n k o m m e n und v o m Ertrag
18
sonstige Steuern
19
Jahresabschluss/Jahresfehlbetrag
= E r g e b n i s der gewöhnlichen Geschäftstätigkeit
± (außerordentliches Ergebnis)
a u ß e r o r d e n t l i c h e s Ergebnis —
± (Steuerergebnis)
= Jahresergebnis
Abb. 2: Die Gewinn- und Verlustrechnung nach § 275 Abs. 3 HGB
Weiterhin werden außerplanmäßige Abschreibungen auf Vermögensgegenstände des Herstellungsbereichs (z.B. technische Anlagen und Maschinen sowie Vorräte) und Verluste beim Abgang dieser Wirtschaftsgüter beim GKV unter den Posten Nr. 7 bzw. Nr. 8 des Gliederungsschemas nach § 275 Abs. 2 HGB erfasst, während diese Aufwendungen im Rahmen des UKV in den Posten Nr. 2 "Herstellungskosten der zur Erzielung der Umsätze erbrachten Leistungen" eingehen. Da sich bei derartigen Konstellationen lediglich ein Austausch in den Posten des Betriebsergebnisses abspielt, stimmen in diesen Fällen das Betriebs- und Finanzer775
Umsatzkostenverfahren
Umsatzkostenverfahren gebnis sowie das Ergebnis der gewöhnlichen Geschäftstätigkeit überein. Die im Verhältnis zum GKV geringeren Informationen über die Höhe und Struktur der einzelnen Aufwandsarten werden durch spezifische Publizitätspflichten für Kapitalgesellschaften und ihnen gleichgestellte Unternehmen zu kompensieren versucht (§ 268 Abs. 2 Satz 3, §285 Nr. 8, § 288 Satz 1, § 326 Satz 2, § 327 Nr. 2 HGB). Allerdings ist zu beachten, dass publizitätspflichtige Personenhandelsgesellschaften und Einzelunternehmen gemäß § 5 Abs. 2 Satz 1 PublG keinen -> Anhang zu erstellen brauchen und damit die vorstehend angeführten Ausweispflichten umgehen können. Während nach dem IAS eine Wahlmöglichkeit zwischen UKV (function of expense or "cost of sales" method) und GKV besteht, gehen die ->• US-GAAP von einer grundsätzlichen Anwendung des UKV aus. Die Abbildungen 3 und 4 verdeutlichen die Strukturen des UKV nach diesen internationalen Rechnungslegungsvorschriften, die prinzipiell dem Aufbau der GuV gemäß § 275 Abs. 3 HGB ähneln. Umsatzerlöse (Revenue)
Die kalkulatorische Methode des UKV zur buchhalterischen Durchführung der kurzfristigen Erfolgsrechnung (KFE) geht, anders als das GKV, von den Verkaufserlösen einer Periode aus und stellt diese nur die den Umsätzen entsprechenden Selbstkosten der verkauften Erzeugnisse (= Herstellkosten + Verwaltungsund Vertriebskosten) gegenüber, (i)
N e t sales or r e v e n u e s
(2)
C o s t of g o o d s sold Gross profit
(3)
Operating expenses Operating income
(4)
Other income (deductions) X Income before income taxes, extraordinary items, cumulative effects of change in accounting principle, and discontinued operations (d.h. Income from continuing operations before income taxes)
(5)
I n c o m e tax e x p e n s e - X Income before extraordinary items, cumulative effects of change in accounting principle, and discontinued operations
(6)
Discontinued operations (net o f tax): a. I n c o m e (loss) f r o m o p e r a t i o n s of a discontinued segment (net of tax) X b. G a i n (loss) f r o m disposal o f discontinued s e g m e n t (net o f tax) X
(7)
E x t r a o r d i n a r y items (net o f tax)
(8)
C u m u l a t i v e e f f e c t at b e g i n n i n g of year o f c h a n g e s in a c c o u n t i n g principles (net of tax) X Net income
X
Umsatzkosten (Cost o f Sales)
-X
Bruttogewinn ( G r o s s profit)
X
Sonstige betriebliche Erträge (Other operating income)
X
X - X
- X
X
Vertriebskosten (Distribution costs)
-X
Verwaltungsaufwendungen (Administrative expenses)
-X
Abb. 4: Beispielhafte Struktur der Gewinnund Verlustrechnung nach US-GAAP
S o n s t i g e betriebliche A u f w e n d u n g e n (Other operating expenses)
-X
die daher auch als Umsatzkosten bezeichnet werden. Diese Methode der KFE erfordert zur Ermittlung der Selbstkosten der verkauften unfertigen und fertigen Erzeugnisse ebenfalls den Einsatz einer Kalkulation, setzt aber keine Bestands-
E a r n i n g s per share
E r g e b n i s der betrieblichen T ä t i g k e i t (Profit f r o m o p e r a t i n g activities)
Abb. 3: Beispielhafte Umsatzkostenverfahrens
776
Struktur des nach JAS 1.82
Umsatzkostenverfahren
U msatzkosten verfahren aufnähme voraus. Bestandsveränderungen brauchen beim UKV nicht berücksichtigt werden, da auf der Sollseite des Betriebsergebniskontos keine Gesamtkosten zum Ausweis kommen, die an die ihnen gegenüberstehenden Verkaufserlöse durch Bestandserhöhungen bzw. Bestandsminderungen anzupassen sind. Vereinfachend lässt sich das Betriebsergebniskonto wie in Abbildung 5 gezeigt darstellen. S Selbstkosten der verkauften Produkte
Betriebsergebniskonto Herstellkosten der verkauften Produkte Verwaltungs- und Vertriebskosten der Periode
H Verkaufserlöse der Periode
Kalkulatorischer Betriebsgewinn
Abb.5: Struktur des Betriebsergebniskontos bei Anwendung des Umsatzkostenverfahrens
Der buchhalterische Aufbau des UKV lässt sich im Rahmen des innerbetrieblichen Rechnungswesens so gestalten, dass auf dem Betriebsergebniskonto die Selbstkosten der abgesetzten Erzeugnisarten den entsprechenden Verkaufserlösen gegenübergestellt werden können und damit der produktspezifische Erfolg ohne die Durchführung einer zusätzlichen Rechnung schnell aus diesen Ergebnissen abzuleiten ist. Darüber hinaus kann das UKV auch in tabellarischer Form zur Anwendung kommen. Diese Gestaltungsform ist insbesondere beim Vorliegen differenzierter Fertigungsprogramme mit vielen unterschiedlichen Erzeugnisarten aus Gründen der Übersichtlichkeit zu empfehlen. Die mit dem GKV verbundenen Nachteile bezüglich der buchhalterischen Organisation der KFE werden vom UKV vermieden. Im Rahmen der Teilkostenund -»• Deckungsbeitragsrechnung wurden zum Zwecke der organisatorischen Gestaltung der KFE zwei unterschiedliche
Formen entwickelt. Sofern eine laufende Abgleichung zwischen den im System der KFE erfassten Kosten und den entsprechenden Erfolgsgrößen Berücksichtigung findet, liegt eine nach traditionellem Muster durchgeführte geschlossene Erfolgsrechnung vor. Im Falle des Verzichts auf derartige Kostenabstimmungen sowie fehlender mengen- und wertorientierter Bestandsführungen wird hingegen von einer nicht geschlossenen KFE oder auch Artikelergebnisrechnung gesprochen. Bei der zuletzt genannten Form werden die entsprechenden Kosten auf retrogradem Wege aus den Absatzmengen abgeleitet und den Erzeugnissen bzw. Erzeugnisgruppen zum Zwecke einer kurzfristigen Deckungsbeitragsanalyse zugeordnet. Allerdings setzt diese Methode voraus, dass Kalkulationsergebnisse existieren, aus denen die Teil-Selbstkosten pro Trägereinheit abzuleiten sind. Der Vorteil der Artikelergebnisrechnung liegt vor allem in der Schnelligkeit ihrer Durchfuhrung begründet. Demgegenüber ist zu berücksichtigen, dass es mangels einer laufenden Bestandsführung bei stark schwankenden Erzeugnisbeständen zu Ungenauigkeiten im Rahmen der Erfolgsermittlung kommen kann. In der Praxis wird die KFE auf Partialkostenbasis in aller Regel in tabellarischer Form durchgeführt, indem von den Erlösen über die Kosten rückschreitend die einzelnen Erfolgsgrößen ermittelt werden. Kommt aber die KFE unter Verwendung des Systems der doppelten Buchhaltung zum Einsatz, so hat das Betriebsergebniskonto zusammengefasst das in Abbildung 6 gezeigte Aussehen. Zu berücksichtigen ist aber, dass der Erfolgsausweis bei Voll- und Teilkostenrechnung unter sonst gleichen Bedingungen nur im Falle zeitkonstanter Produktions- und Absatzmengen, d.h. identischer Anfangs- und Endbestände der Erzeugnisse, zu übereinstimmenden kalkulatorischen Betriebsergebnissen fuhrt.
777
Umsatzkostenverfahren S
Umsatzkostenverfahren
Betriebsergebniskonto
Teil-SelbstI kosten der I verkauften I Produkte
Teil-Herstellkosten der verkauften Produkte
deshalb auf, weil die Veränderungen des Erzeugnisbestandes mit unterschiedlichen Wertkomponenten (gesamte Herstellkosten und Teil-Herstellkosten) angesetzt werden. So ist im Falle einer Bestandserhöhung der Erfolgsausweis bei Vollkostenrechnung stets höher als bei Teilkostenrechnung (et vice versa).
H Verkaufserlöse der Periode
Teil-Verwaltungsund Vertriebskosten der Periode Residualkosten der Periode, die nicht den Erzeugniseinheiten zugerechnet werden (z.B. fixe Gemeinkosten)
Abbildung 7 verdeutlicht beispielhaft den retrograden Aufbau einer KFE auf der Basis einer Teil- bzw. Deckungsbeitragsrechnung mit variablen Kosten für drei Kostenträger (Produkten) nach dem UKV in tabellarischer Form.
Kalkulatorischer Betriebsgewinn
Literatur: KPMG (Hrsg.): Rechnungslegung nach US-amerikanischen Grundsätzen. Grundlagen der US-GAAP und SEC-Vorschriften, 2. Aufl., Berlin 1999, S. 135.
Abb. 6: Struktur des Betriebsergebniskontos bei Anwendung des Umsatzkostenverfahrens auf Teilkostenbasis
Carl-Christian Freidank
Liegen diese Voraussetzungen jedoch nicht vor, dann treten Erfolgsdifferenzen zwischen Voll- und Teilkostenrechnung
Erfolgskomponenten in Euro Verkaufserlöse der Periode - variable Herstellkosten der verkauften Produkte (a) aus dem Lagerbestand (b) aus der Produktion der Periode - variable Verwaltungsgemeinkosten der Periode (7,5%) b - variable Vertriebsgemeinkosten der Periode (2,5%) c
Summe
Kostenträger A
B
C
280.000
120.000
384.000
784.000
64.000
25.000
36.000
125.000'
47.100
30.100
116.160
193.360'
8.332,5
4.132,5
11.412
23.877
2.777,5
1.377,5
3.804
7.959
216.624
433.804
= Produkt-Deckungsbeitrag
157.790
- fixe Gemeinkosten der Periode
357.689
= Kalkulatorischer Betriebserfolg
76.115
59.390
357.689 76.115
'
125.000 Euro + 193.360 Euro = 318.360 Euro (Herstellkosten des Umsatzes)
b
? 5 %
'
_ °
23.877 Euro 100 318.360 Euro 7 959 Eur
c '
°
°-100 318.360 Euro
Abb. 7: Beispielhafter Aufbau des Umsatzkostenverfahrens auf der Grundlage einer Teilkosten- bzw. Deckungsbeitragsrechnung
778
U msatzrentabilität Umsatzrentabilität Die Umsatzrentabilität setzt die Erfolgsgröße, also den Gewinn, ins Verhältnis zum Umsatz der Bezugsperiode. Mit dieser Kennzahl (-> Kennzahlen und Kennzahlensysteme) kann die Zielerreichung innerhalb einer Bezugsperiode ermittelt werden. Ähnliche Kennzahlen sind die -* Kapitalrentabilität oder der ROI (Return on Investment; s.a. DuPont-Kennzahlensystem) Umwandlung 1. Umwandlungsbegriff Unter Umwandlung versteht das UmwG (§ 1 Abs. 1) die Umwandlungsarten: Verschmelzung, Spaltung (Aufspaltung, Abspaltung, Ausgliederung; Unternehmensspaltung), Vermögensübertragung und -* Formwechsel. Diese gliedern sich in zwei Gruppen: Umwandlung mit Vermögensübertragung im Wege der Gesamt- oder Sonderrechtsnachfolge (Verschmelzung, Spaltung und Vermögensübertragung) und Umwandlung ohne Vermögensübertragung (Formwechsel). Durch das UmwG (vgl. § 1 Abs. 2) wurden jedoch Umwandlungen anderer Art - Vereinigung, Realteilung oder Umgründung von Rechtsträgern mittels allgemeinem Zivil- und Handelsrecht - nicht ausgeschlossen. Außerhalb des UmwG fallen somit unter den Begriff der Umwandlung auch: An- und Abwachsung bei -> Personengesellschaften incl. der Partnerschaft und der EWIV (vgl. § 738 BGB), Anteilstausch, Einbringung sowie Ausgliederung im Wege der Einzelrechtsnachfolge. Die folgenden Ausführungen beziehen sich - solange nichts anderes erwähnt ist - auf Umwandlungen i.S.d. UmwG, da außerhalb des UmwG jeweils der Einzelfall maßgeblich ist. 2. Gründe für eine Umwandlung: Zum einen kann der Wunsch nach bloßer Änderung der Organisationsform eines Unternehmens bestehen (z.B. Freistellung von persönlicher Haftung bei -»• OHG/ KG durch Formwechsel in eine GmbH
Umwandlung & Co. KG oder -» GmbH; Sicherstellung gestiegenen Kapitalbedarfs durch Formwechsel einer GmbH in eine -> AG). Zum anderen kann eine materielle Umstrukturierung des Unternehmens angestrebt werden. Gründe hierfür sind z.B. das Streben nach optimaler Unternehmensgröße (durch Verschmelzung oder Spaltung von Unternehmen) oder der Wunsch nach Änderung der gesamten -» Organisationsstruktur (-> Holding mittels Spaltung, s.a. -> Unternehmenszentrale). 3. Umwandlungsfähige Rechtsträger: I.S.d. UmwG sind grundsätzlich nahezu alle dem deutschen Recht bekannten Unternehmensformen mit Sitz im Inland (strittig, ob Verwaltungs- oder statuarischer Sitz). Nicht jeder stehen alle U.Formen offen (§§ 39ff., 125 ff., 175 ff., 190 ff. UmwG). Rechtsträger, die praktisch an allen Umwandlungsarten teilnehmen können, sind vor allem: OHG, KG, GmbH, AG, -> KGaA, Genossenschaft und e.V. 4. Ablauf eines Umwandlungsvorgangs i.S.d. UmwG (Grobrasterj: Vorbereitungsphase: Vertrag (bzw. Spaltungsplan) in notarieller Form mit gesetzl. Mindestinhalt (Verschmelzung, Spaltung, Vermögensübertragung), Entwurf des Umwandlungsbeschlusses mit gesetzl. Mindestinhalt (Formwechsel); Bericht der Vertretungsorgane der beteiligten Rechtsträger; Umwandlungsprüfung durch unabhängige Sachverständige. Beschlussfassung: durch die Anteilsinhaber der beteiligten Rechtsträger mit satzungsändernder Mehrheit. Schlussphase: Anmeldung und Eintragung der Umwandlung im zuständigen Register. 5. Grenzüberschreitende Umwandlung: Es ist zwischen Umwandlung i.S.d. UmwG und der Umwandlung außerhalb der Formen des UmwG zu unterscheiden: Die Zulässigkeit grenzüberschreitender Umwandlungen i.S.d. UmwG ist äußerst 779
Umwandlung strittig. Überwiegende Einigkeit besteht im Ergebnis nur bzgl. der Behandlung grenzüberschreitender Umwandlungen innerhalb der EU. Gestattet das Recht am Sitz des aufnehmenden bzw. übertragenden EU- ausländischen Rechtsträgers (in korrekter Auslegung und Anwendung des EG-Rechts) die grenzüberschreitende Verschmelzung/Spaltung, so kann deutsches nationales Recht diesen Vorgang nicht verhindern. Im Falle der wegziehenden Verschmelzung/Spaltung des Rechtsträgers in ein anderes EU-Mitgliedsland bleibt für den in Deutschland verbleibenden Betrieb das Individualarbeits- und Betriebsverfassungsrecht unverändert anwendbar. -* Tarifverträge gelten weiter (§ 3 Abs. 3 TVG). Der Vorgang ist steuerneutral entsprechend der Fusionsrichtlinie (RL v. 23.7.1990, ABl. EG Nr. L 225 v. 20.8.1990 S. 1 ff.). Deren insoweit nicht erfolgte Umsetzung in deutsches Recht ist wegen Ablaufs der Umsetzungsfrist unerheblich. Grenzüberschreitende Umwandlungen außerhalb der Formen des UmwG sind hingegen allgemein zulässig. Möglich ist etwa die Einbringung eines Unternehmens oder Unternehmensteiles in eine existente oder gleichzeitig errichtete ausländische Gesellschaft gegen Anteile an dieser durch Einzelübertragung der Aktiva und Passiva. Innerhalb der EU ist ein grenzüberschreitender Einbringungsvorgang fiir Kapitalgesellschaften steuerneutral (§ 23 UmwStG). Zu beachten ist dabei das Mitbestimmungs-Beibehaltungsgesetz (v. 23.8.1994, BGBl. I S. 2228): Wird Steuerneutralität in Anspruch genommen, so bleibt bei Einbringung eines Unternehmens oder Untemehmensteiles in eine EU-ausländische Kapitalgesellschaft die Mitbestimmung bei der inländischen Kapitalgesellschaft unbefristet aufrechterhalten. (Ausnahme: Die bei der inländischen Kapitalgesellschaft verbleibende Arbeitnehmerzahl sinkt auf weniger als
780
Umweltcontrolling 500 Arbeitnehmer - so z.B. wenn sie zur Holding wird). Literatur: Lutter, in Lutter; Bermel in Goutier/Knopf/Tulloch; Dehmer, Umwandlungsgesetz, 2. Aufl., 1996.
Helge-Torsten Wöhlert Umweltcontrolling Ein konsequenter, an allen Unternehmensbereichen ausgerichteter Umweltschutz hat in einem Unternehmen viele Schnittstellen. Diese verschiedenen Ansatzpunkte in einer -> Wertschöpfungskette müssen sinnvoll komprimiert und zentral aufbereitet werden. Diese Funktion nimmt zumeist das UmweltControlling wahr. Grundlegende Aufgabe eines -> Controlling ist die Unterstützung und Steuerung betrieblicher Managemententscheidungen in den Bereichen Planung, Realisation und Kontrolle. Ein Controlling im Umweltsektor beinhaltet sowohl ökologische Daten als auch die damit in Zusammenhang stehenden ökonomischen Auswirkungen. Das Umwelt-Controlling kann als Ausgangspunkt auf ein -» Öko-Audit in Form einer ökologischen Schwachstellenanalyse in einem Unternehmen aufbauen. Um diese möglichen Schwachstellen transparenter zu machen, ist es Aufgabe des Öko-Controlling, die Stoffkreisläufe zu erfassen und zu analysieren, mögliche Umweltschutzmaßnahmen zu bewerten sowie potenziellen Umweltschutzinvestitionsbedarf aufzuzeigen. Vielfach wird das Umwelt-Controlling als Schaltzentrale der umweltschutzorientierten Maßnahmen angesehen. Hierbei kann es als Teilbereich des Umweltschutzmanagements, aber auch als Subsystem des traditionellen Controlling verstanden werden. Um in einem Unternehmen mehr Bedeutung als nur die gesetzlich vorgesehene Institution zur Abdeckung von Risikopotenzial zu erlangen, muss dem UmweltControlling eine Synthese aus ökologischen und ökonomischen Instrumenten
Umweltcontrolling gelingen. Hierzu gehört zu einem funktionsfähigem Instrumentarium sowohl eher problemerkennende Tools, die ökologische Problemfelder aufspüren, als auch problemlösende Bewertungsmethoden. Da Investitionen in Technologien, Anlagen und Produktverbesserungen von entscheidender Bedeutung für aktiven Umweltschutz anzusehen sind, kommt der Bewertung von Umweltschutzinvestitionen eine zentrale Bedeutung zu. Abgeleitet werden können Investitionsbedarfe aus einem Umweltinformationssystem, in dem alle umweltrelevanten Daten gesammelt und ausgewertet werden. Eine Überprüfung und Durchführung von Umweltschutzinvestitionen liefert eine konkret messbare und damit effektive Reduzierung der Umweltbelastung und unterstützt ein effizientes Umweltschutzmanagement, da viele Bereiche von einer Investition positiv tangiert werden. Umweltschutzinvestitionen sind zur Reduzierung der Umweltbelastung als Basisinstrument eines Umweltschutzmanagements oft unerlässlich, werden jedoch von Unternehmen gescheut, da deren Wirtschaftlichkeit angeblich nicht nachweisbar ist. Oftmals liegt dies jedoch nicht an den monetären Zahlungsströmen einer Investition (-> Investitionsrechnung), sondern an dem angewandten Rechenverfahren. Die herkömmlichen Bewertungsmodelle der erweiterten Wirtschaftlichkeitsanalyse greifen bei der Beurteilung von Umweltschutzinvestitionen zumeist zu kurz und können durch die Verneinung der ökonomischen Vorteilhaftigkeit sinnvolle und wertschaffende Investitionen verhindern. Nur ein Bewertungsmodell, welches Finanzierungshilfen integriert, nicht-monetäre Aspekte wie Imagesteigerungen berücksichtigt und Kosten in vor- bzw. nachgelagerten Unternehmensbereichen, wie etwa der Entsorgung, mit in das Kalkül einbezieht, kann hier viel versprechendere Ergebnisse liefern. Dazu sind neue Instrumente wie die Fuzzy-Logik und die -> Prozesskos-
Umwelthaftung tenrechnung in ein Gesamtmodell einzubauen. Ein so verstandenes, eher ökonomisch ausgerichtetes Umwelt-Controlling bietet Ansatzpunkte für eine Vereinbarkeit von ökonomischen und ökologischen Zielen und garantiert auch wirtschaftlich vernünftigen Umweltschutz. Zudem liefert es Vorständen fundierte Entscheidungsgrundlagen, um die Erfüllung ihrer ökologischen Verantwortung auch ökonomisch bewerten und begründen zu können. Literatur: Schröder, A.: Investition und Finanzierung bei Umweltschutzinvestitionen, Frankfurt a. M. 1996.
Achim Schröder Umwelthaftung I. Die ökonomische Funktion der Umwelthaftung Umweltschäden realisieren sich nicht in erster Linie beim Verursacher, sondern zu Lasten unbeteiligter Dritter. Ohne gesetzliche oder vertragliche Regelungen besteht die Gefahr, dass das Risiko solcher Schäden für das Handeln eines Verursachers keine Rolle spielt. Ein umweltgefährdend produzierendes Unternehmen verursacht dann externe Effekte, weil die mit der Produktion verbundenen Kosten in Form von Nutzenminderungen bei Umweltschadenopfern nicht in seinen individuellen Kalkül eingehen. Das Haftungsrecht ist ein Instrument zur Internalisierung, das bei geeigneter Ausgestaltung einen potenziellen Umweltschädiger veranlasst, dieses Risiko in seine Überlegungen einzubeziehen. 2 Die Rechtsgrundlagen der Umwelthaftung In Deutschland ist das Gesetz über die Umwelthaftung (UmweltHG) seit dem 1.1.1991 in Kraft. Es regelt den Ausgleich zivilrechtlicher Ansprüche auf Ersatz von Personen- und Sachschäden sowie daraus resultierenden Vermögensschäden aufgrund von Umwelteinwirkungen gem. § 3 Abs. 1: "Ein Schaden entsteht durch eine 781
Umwelthaftung Umwelteinwirkung, wenn er durch Stoffe, Erschütterungen, Geräusche, Druck, Strahlen, Gase, Dämpfe, Wärme oder sonstige Erscheinungen verursacht wird, die sich in Boden, Luft oder Wasser ausgebreitet haben." Das Gesetz umfasst nicht alle möglichen Umweltschäden, sondern ist in mehrfacher Hinsicht beschränkt. Reine Vermögensschäden ohne vorangehende Personen- oder Sachschäden sind ebenso ausgeschlossen wie Schmerzensgeldansprüche. Auch sogenannte "Öko-Schäden", die nicht individuelle Rechtsgüter, sondern die Natur im Allgemeinen beeinträchtigen, fallen nicht unter die Haftpflicht nach dem Gesetz. Weiter sind Schäden durch höhere Gewalt (§ 4) und Nuklearschäden (§ 18) ausgeschlossen. Die wichtigste Begrenzung liegt im Bezug auf bestimmte Anlagen (§ 1); sie sind im Anhang 1 in 96 Einzelpositionen abschließend aufgelistet (Enumerationsprinzip). Einbezogen werden noch nicht in Betrieb genommene und nicht mehr betriebene Anlagen (§ 2). Haftpflichtig ist der Inhaber der Anlage, d.h. deijenige, der wie z.B. auch ein Leasingnehmer (-> Leasing) die tatsächliche Herrschaft über die Anlage hat. Voraussetzung für die Haftung sind ein Emissionsvorgang (Einwirkung von der Anlage auf die Umweltmedien) und ein Immissionsvorgang (Wirkung auf geschützte Rechtsgüter). Das Gesetz behandelt die Einwirkungen über die Medien Boden, Wasser, Luft zwar einheitlich; doch besteht weiterhin eine Anspruchskonkurrenz: Neben dem UmweltHG bleibt die Haftung für Umweltschäden aufgrund anderer Vorschriften unberührt, etwa nach dem Allgemeinen Schadenersatzrecht des BGB oder nach Spezialgesetzen wie Wasserhaushalts-, Gentechnikoder Atomgesetz. Schließlich ist der Haftungsumfang auf je 160 Mio. DM für Personen- und Sachschäden begrenzt, soweit diese aus einer 782
Umwelthaftung einheitlichen Umwelteinwirkung entstanden sind (§ 15). Von besonderem ökonomischem Interesse ist die dokumentierte Haftungsregel. Das zu Grunde liegende Haftungsregime nach dem UmweltHG ist eine sehr weitgehende Gefährdungs- oder auch "Verursachungshaftung". Voraussetzung für die Schadenersatzpflicht ist weder ein schuldhaftes Verhalten, noch erfordert die Haftung Fehlerhaftigkeit oder Rechtswidrigkeit. Ebenso wenig kommt es darauf an, ob zum Zeitpunkt der Emission ein Zusammenhang zwischen Einwirkung auf die Umwelt und eingetretenem Schaden erkennbar war, ob der Inhaber der Anlage rechtmäßig im Sinne bestimmter behördlicher Grenzwerte gehandelt hat oder ob nach dem Stand von Wissenschaft und Technik die Gefährlichkeit der Umwelteinwirkung überhaupt bekannt war. Grundsätzlich genügt der Nachweis, dass die Anlage "nach den Gegebenheiten des Einzelfalles geeignet [ist], den entstandenen Schaden zu verursachen" (§ 6 Abs. 1). Diese Ursachenvermutung der generellen Kausalität gilt nicht im Falle des sog. genehmigten Normalbetriebs (§ 6 Abs. 2), d.h. wenn die besonderen Betriebspflichten eingehalten wurden und keine Störung des Betriebes aufgetreten ist. In diesem Fall ist nachzuweisen, dass die betreffende Anlage den Schaden verursacht hat (individuelle Kausalität); ebenso, "wenn ein anderer Umstand nach den Gegebenheiten des Einzelfalles geeignet ist, den Schaden zu verursachen" (§ 7). Die sehr weitreichende Haftung, verschärft durch erhebliche Beweiserleichterungen und Auskunftsansprüche, ist als bloße "Verdachtshaftung" kritisiert worden. Umstritten ist auch die Haftung aus genehmigtem Normalbetrieb. Es wird behauptet, sie sei nicht versicherbar. Allerdings ist dieSts Argument recht fragwürdig; denn ökonomische Aktivitäten sind stets auch mit Risiken verbunden, die nicht durch Versicherung beseitigt wer-
Umwelthaftung den können. Außerdem überzeugt die Begründung der Unversicherbarkeit solcher allmählicher Schäden nicht; denn entscheidend ist nicht, ob ein Schaden plötzlich eintritt, sondern nur, ob er ex ante ungewiss und nicht manipulierbar ist. Die Haftung für Umweltschäden, die aus dem Zusammenwirken mehrerer Anlagen resultieren, ist nicht im Detail durch das UmweltHG geregelt. Sie bedarf der noch nicht abgeschlossenen Auslegung. Aufgrund der Beweislastumkehr genügt der Nachweis einer Schädigung durch eine der in Frage kommenden Anlagen für die Haftung aller Anlageninhaber. Solange der individuelle Nachweis nicht erbracht ist, ist es irrelevant, ob alternative Monokausalität - wenn nur eine, aber nicht bekannte, Anlage als Ursache in Frage kommt - oder Multikausalität vorliegt. Bloße Mitverursachung genügt für die Haftung auch, wenn sie nur als sog. "minimale Kausalität" zu bewerten ist. Es ist unerheblich, ob die mitwirkende Ursache das letzte Glied einer zeitlichen Wirkungskette war, die unmittelbar zum Schaden geführt hat, oder weit vorher für sich genommen noch unschädlich war; ebenso, ob rechtswidriges oder gar vorsätzliches Handeln Dritter das Schadenereignis letztlich erst ausgelöst hat. Sog. Summationsund Distanzschäden (z.B. Waldsterben), die durch eine Vielzahl oft synergetisch auftretender Umwelteinwirkungen bzw. über große räumliche Entfernungen hinweg entstehen, sind nach der Gesetzesbegründung angeblich nicht Gegenstand der Haftung, tatsächlich aber nicht ausgeklammert worden und werden aus der Sachlogik heraus von der Haftung erfasst. De facto sind jedoch Schäden dieser Art für einen Verursacher zumeist nicht relevant, weil sie ihm gar nicht zugeordnet werden können. Während das Wasserhaushalts- und das Gentechnikgesetz für Mitverursacher eine gesamtschuldnerische Haftung vorschreiben, sieht das UmweltHG in dieser Frage
Umwelthaftung keine Regelung vor, so dass die allgemeinen haftungsrechtlichen Vorschriften gelten. Schließlich ist festzuhalten, dass auch Langzeitschäden, bei denen zwischen erster Emission und Schadenmanifestation eine große Zeitspanne liegt, ebenso wenig von der Haftung ausgeschlossen sind wie Schädigungen durch allmähliche Kontamination. Auch in diesen Fällen kommt es zu erheblichen Problemen des Kausalitätsnachweises. 3. Aspekte der Umwelthaftpflichtversicherung In der Diskussion um das UmweltHG hat die Frage der Versicherbarkeit eine sehr große Rolle gespielt (Endres/Schwarze 1992, Karten/Richter 1998). Bedenken wurden vor allem gegen eine Ausdehnung der Haftpflicht auf Sachverhalte geäußert, die nicht versicherbare Risiken implizieren. Die Relevanz dieses Themas für den Gesetzgeber ergibt sich insbesondere im Zusammenhang mit der Versicherungspflicht für bestimmte Anlagen gemäß § 19 UmweltHG. Neben den angesprochenen Bedenken gegenüber der Versicherung von Schäden aus dem Normalbetrieb wurde u.a. argumentiert, typische große Umweltrisiken seien nicht kalkulierbar. Allerdings ist auf Versicherungsmärkten zu beobachten, dass immer wieder neue Risiken versichert werden, über die gar keine statistisch auswertbare Schadenerfahrung vorliegt. Unvollständige Information über ein Risiko fuhrt aber auf jeden Fall dann zu einem schwerwiegenden Problem für dessen Versicherbarkeit, wenn der Versicherungsnehmer über bessere Informationen verfugt als der Versicherer. Weiß beispielsweise ein Anlagenbetreiber vor dem Abschluss des Versicherungsvertrages, dass sich aus dem Umgang mit bestimmten gefährlichen Substanzen mit hoher Wahrscheinlichkeit Ansprüche gegen ihn ergeben werden, so wird er ein besonderes Interesse an der Versicherungsdeckung besitzen. Es setzt 783
Umwelthaftung dann ein Prozess der adversen Selektion zu Lasten des Versicherers ein (-»Informationsasymmetrie). Da in der Praxis Umwelthaftpflichtversicherungen auf der Basis des UmweltHG tatsächlich existieren, erscheint das Problem der Versicherbarkeit insoweit, zumindest partiell, gelöst. Unter Mitwirkung des Bundesverbandes der Deutschen Industrie und des Deutschen Versicherungsschutzverbandes entwickelte der HUK-Verband der Versicherer die unverbindlichen Besonderen Bedingungen und Risikobeschreibungen für die Versicherung der Haftpflicht wegen Schäden durch Umwelteinwirkung, das sogenannte Umwelthaftpflicht-Modell. Gedeckt werden Personen- und Sachschäden durch Umwelteinwirkungen auf Boden, Luft oder Wasser. Mitversichert sind bestimmte Vermögensschäden, für die eine Haftung nach dem Wasserhaushaltsgesetz besteht. Die Deckung ist strikt anlagenbezogen und setzt sich aus verschiedenen zu vereinbarenden sog. Risikobausteinen zusammen. Als Zeitpunkt des Versicherungsfalls gilt, abweichend vom in den USA üblichen Claims-made-Prinzip, die sog. Manifestation: Maßgeblich ist der Zeitpunkt der ersten nachprüfbaren Feststellung eines Schadens. Dennoch kann auf die zusätzliche Bestimmung des Schadeneintrittszeitpunktes nicht verzichtet werden, weil ausdrücklich nur solche Schäden versichert sind, die innerhalb der Versicherungsdauer eintreten. Offenbar erscheint den Versicherern bei Umweltschäden die Gefahr adverser Selektion (s.o.) zu groß. Nach Ende der Vertragsdauer haftet der Versicherer noch für Schäden aus dieser Zeit, die innerhalb von drei Jahren nachprüfbar festgestellt werden. Durch die Kombination dieser Versicherungszeitregelungen wird der Versichererwechsel außerordentlich erschwert, weil eine Deckungslücke für Schäden mit langer Latenzzeit auftreten kann. 784
Universalbankensystem Die höchsten derzeit am Markt erhältlichen Versicherungssummen bleiben noch weit hinter der gesetzlichen Höchsthaftung zurück. Literatur: Endres, A./Schwarze, R.: Gibt es Grenzen der Versicherbarkeit von Umweltrisiken?, in: Endres A./Rehbinder, E./Schwarze R. (Hrsg.): Haftung und Versicherung für Umweltschäden aus ökonomischer und juristischer Sicht, Berlin, Heidelberg 1992, S. 83-119; Feess, E: Haftungsregeln filr multikausale Umweltschäden, Marburg 1995; Karten, W./Richter, A.: Risiken aus Umwelthaftung - Risk Management und Versicherung, in: Hansmann, K.-W. (Hrsg.): Umweltorientierte Betriebswirtschaftslehre: Eine Einführung, Wiesbaden 1998, S. 415-455; Schimikowski, P.: Umwelthaftungsrecht und Umwelthaftpflichtversicherung, 4. Aufl., Karlsruhe 1996; Schmidt-Salzer, J.: Kommentar zum Umwelthaftungsrecht, Heidelberg 1992.
Walter Karten/Andreas Richter Unified Messaging Unified Messaging ist die Fusion von Fax-, Voice- und E-Mail-Diensten (~> EMail) zu einem einzigen Kommunikationssystem, bei dem der Empfänger im Mittelpunkt steht. Der Rezipient kann über einen der Dienste auch auf allen anderen zugreifen. Unique Selling Proposition (USP) Eine Unique Selling Proposition ist ein Alleinstellungsmerkmal, ein einzigartiger Verkaufsvorteil, den ein Produkt wegen seines konkurrenzlosen Kundennutzens für sich in Anspruch nehmen kann. Das Konzept geht auf R. Reves (1961) zurück. Die Herausstellung der Einzigartigkeit eines Produktes dient der Steigerung der Kaufwahrscheinlichkeit durch den Konsumenten. Der USP ist daher ein Versprechen an den Konsumenten, dass das Produkt ihm Vorteile bietet, die er durch den Kauf alternativer Produkte nicht erlangen könnte. Derartige Positionierung sind besonders in Käufermärkten (-> Käufermarkt) von besonderer Relevanz, da dort die Produkte kaum von einer qualitativen Norm abweichen. Universalbankensystem -> Bankensysteme
Universalmarke Universalmarke Eine Universalmarke wird von einem Unternehmen verwendet, das Produkte in verschiedenen Warengruppen unter einem gemeinsamen Markertnamen vertreibt. Hierbei soll die -»Corporate Identity gefördert werden, es sollen so positive Partizipationseffekte durch den gemeinsamen Namen hervorgerufen werden. Universalvertrieb Universalvertrieb bzw. intensiver Vertrieb liegt vor, wenn ein Hersteller bereit ist, jeden Handelsbetrieb mit seinen Produkten zu beliefern. Im Gegensatz zu -* Selektivvertrieb ist die Zahl der belieferten Handelsbetriebe nicht begrenzt. Diese Art des Vertriebs korrespondiert mit dem Ziel, einen möglichst hohen Distributionsgrad zu erreichen (-»Distributionspolitik). Das Produkt soll überall für die Konsumenten verfügbar sein. Der Hersteller kann daher mit einer hohen Nachfrage rechnen. Mittelbar wirkt sich des Weiteren günstig aus, dass die Konkurrenz auf der Handelsebene groß und die Handelsspanne demnach tendenziell gering ist. Dies hat einen geringen Abgabepreis des Handels zur Folge, was sich wiederum positiv auf den Absatz auswirken kann. Demgegenüber steht allerdings ein mit geringerer Handelsspanne sinkendes Interesse der Handelsunternehmen an der Vermarktung des Produkts. Eine Gefahr für den Hersteller besteht darin, dass bestimmte Leistungen auf der Handelsebene, die für einen langfristig erfolgreichen Vertrieb des Produkts notwendig sind, (z.B. Beratung und sachgerechte Lagerung eines Produkts) nicht oder nicht in dem gewünschten Umfang erbracht werden. Darüber hinaus muss bei Universalvertrieb damit gerechnet werden, dass Konsumenten sich bspw. in einem Fachgeschäft (-> Handelsformen) beraten lassen, dann das Produkt allerdings in einem Discounter erwerben (Free-Riding). Es entsteht eine Verzerrung der Konkurrenz
Unternehmen, modulare zwischen den Handelsbetrieben, die sich auch auf den Hersteller negativ auswirken kann. Schließlich kann die Reputation eines Herstellers und seiner Produkte durch die Ausstattung und/oder das Verhalten eines Handelsunternehmens geschädigt werden. Diese Nachteile des Universalvertriebs können zu Absatzeinbußen führen. Die Bedeutung der Leistungen des Handels und der mögliche Reputationsverlust hängen stark von der betrachteten Güterart ab. Literatur: Posselt, T.: Motive fiir Selektivvertrieb Eine institutionenökonomische Untersuchung, Z f b F , 50. Jg., 1998, S. 1098-1119; Stern, L./ElAnsary, A./Coughlan, A.: Marketing Channels, 5. Auflage, Englewood Cliffs ( N e w Jersey) 1996.
Thorsten Posselt Unternehmen, modulare Der Begriff des modularen Unternehmens wird verwandt, um bestimmte Grundideen für die -> Aufbauund -> Ablauforganisation von Unternehmen hervorzuheben. Ausgangspunkt dieser prinzipiellen Gestaltungsvorschläge für die Organisation von Unternehmen ist die Überzeugung, dass die bei der technischen Entwicklung von Produkten seit langem bekannte Idee der Modularisierung i.S. einer Zergliederung eines Gesamtsystems (z.B. Auto) in mehrere überschaubare, in sich weitgehend abgeschlossene, einbau- oder kombinationsfähige und aus weiteren Untereinheiten bestehende Teilsysteme (= Module; z.B. Karosserierahmen, Motor) auch zur Ableitung von Ansätzen zur Arbeitsteilung und Koordination innerhalb eines Unternehmens nutzbar gemacht werden kann. Im technischen Bereich bilden Module in ihrem Zusammenwirken eine funktionsfähige Einheit oder wandeln an sie übergebene Inputs in definierte Outputs um. Voraussetzung für ein Zusammenwirken der Teileinheiten sind zwar definierte Schnitt- oder Kopplungsstellen an den "Rändern" der einzelnen Module, hingegen sind detaillierte Kenntnisse der Konstruktionsparameter im "Innern" der 785
Unternehmen, modulare
Unternehmen, modulare
dulare Organisationskonzepte betonen somit eine verteilte/ dezentrale Wahrnehmung von Aufgaben und die Notwendigkeit, Aufgabenketten so zu definieren, dass es für sie immer einen klar definierten Kunden auf externen Märkten oder Abnehmer im Unternehmen (= "interne Kunden") gibt, der bereit ist, angebotene Prozessoutputs gegen Geld zu erwerben. Im Zuge einer solchen kundenorientierten Organisationsgestaltung (-> Kundenorientierung) findet allerdings nur bei externen Kunden durchweg tatsächlich ein Finanzmittelfluss, bei internen Kunden hingegen eine möglichst verursachungsgerechte Verrechnung gelieferter (Zwischen- oder Unterstützungs-) Leistungen statt.
Module für deren Integration zu einem Gesamtsystem nicht erforderlich. Ziele der Modularisierung technischer Systeme sind eine Reduzierung ihrer Komplexität und eine Erhöhung der Flexibilität sowie Geschwindigkeit bei der Bildung "neuer" Leistungsvarianten durch Kombination von Modulen nach dem Baukastenprinzip (vgl. Baldwin/Clark 1998; Göpfert 1998). Analog zur Gestaltung technischer Systeme kann man Vorschläge zur Arbeitsteilung und -koordination in Unternehmen darauf ausrichten, dass sie ebenfalls vor allem in (Groß-)Unternehmen zu einer Verringerung der Organisationskomplexität und einer daraus resultierenden verbesserten Steuerbarkeit, erhöhten Anpassungsgeschwindigkeit, erweiterten Verhaltensvielfältigkeit sowie stärkeren Orientierung an den Anforderungen der Kunden von Unternehmen(steilen) beitragen. Entsprechende Hauptmerkmale von organisatorischen Modularisierungskonzepten bzw. Ansätzen zur Bildung von modularen Unternehmensstrukturen und -prozessen sind (s. Gerpott/Böhm 1999, S. 155-160; Göpfert 1998; Picot et al. 1998, S. 201-206; Weber 1995): •
Konzentration auf Veränderungen der Arbeitsteilung und -koordination innerhalb eines auf Dauer angelegten Unternehmens. Modulare Organisationskonzepte sind damit zu unterscheiden von innovativen Ansätzen für eine oft von vorneherein befristete unternehmensübergreifende Zusammenarbeit wie sie in "virtuellen Unternehmen" oder "strategischen (Unternehmens-) Netzwerken" erfolgt.
•
Bildung von überschaubaren, sich weitgehend selbst steuernden (= teilautonomen) Einheiten, die möglichst alle "Glieder" einer zur Erstellung von bestimmten (Zwischen-) Leistungen eines Unternehmens erforderlichen Aufgabenkette (= komplette Prozesse) kontrollieren und eine eigenständige Ergebnisverantwortung tragen. Mo-
786
•
Einsatz nicht-hierarchischer Koordinationsvarianten zur Vernetzung der organisatorischen Einheiten im Unternehmen. Modulare Organisationskonzepte wollen Abstimmungen und Verbundvorteile zwischen den Teilbereichen eines Unternehmens weniger durch hierarchische Weisungen/ Fremdsteuerung und mehr durch gleichberechtigte Entwicklung von Zielpyramiden und Vereinbarung von Modulkopplungsspezifikationen durch Vertreter der einzelnen Teilbereiche sicherstellen. Solche horizontalen Selbststeuerungsvorstellungen setzen voraus, dass (a) technische Informations- und Kommunikationsplattformen (= IuK-Systeme) eine unternehmensweite Vernetzung unterstützen und (b) Personalauswahl, -entwicklungs- und -führungsinstrumente auf die im Vergleich zur "traditionellen" hierarchischen Koordination deutlich anders gelagerten sozialen und fachlichen Qualifikationsanforderungen an Führungskräfte und Mitarbeiter modularer Unternehmen ausgerichtet sind (-> Personalentwicklung).
Hintergrund für konzeptionelle Vorschläge und praktische Bemühungen zur Mo-
Unternehmen, modulare dularisierung von Unternehmen ist die in Praxis und Wissenschaft verbreitete Annahme, dass mit zunehmender Wettbewerbsintensität und -dynamik sowie Größe von Unternehmen und Unternehmensteilbereichen die Eignung hierarchisch funktionaler Organisationsformen zur Erfüllung von Kunden- und Mitarbeitererwartungen abnimmt. Konzepte zur organisatorischen Modularisierung lassen sich nach dem Umfang oder Geltungsbereich ihres Gestaltungsanspruchs idealtypisch systematisieren in (a) Makroansätze, die eine Veränderung des gesamten Unternehmens oder zumindest großer Teilbereiche i.S. der Hauptmerkmale modularer Unternehmen beinhalten, und (b) Mikroansätze, die auf der Ebene einzelner Arbeitsplätze oder von interdependenten Arbeitsplatzgruppen innerhalb einer Teileinheit Modularisierungsideen anwenden. Wichtige Makrokonzepte, die mehr oder minder konsequent die Leitideen der organisatorischen Modularisierung berücksichtigen, sind (a) die Gliederung von Unternehmen in Geschäftssegmente, die zumeist als -* Profit Center gesteuert werden, (b) der Lean Management-Ansatz (—> Lean Management), (c) das ->• Business Process Reengineering, (d) die Fertigungssegmentierung und (e) die fraktale Organisation (vgl. Gerpott/Böhm 1999, S. 157-160). Mikroansätze, die zu einer organisatorischen Modularisierung beitragen, sind (a) vollintegrierte Einzelarbeitsplätze und (b) teilautonome Arbeitsgruppen, bei denen jeweils sämtliche Sach- und Managementaufgaben eines Prozesses im Wesentlichen autark durch einen Mitarbeiter ("Case Worker") bzw. ein Team von zumeist 5-10 Mitarbeitern ("Case Team") durchgeführt werden (vgl. Picot et al.
Unternehmen, modulare 1998, S. 226-229; s.a. -> Gruppenkonzepte, -> Teamstrukturen). Bei einer organisatorischen Modularisierung des gesamten Unternehmens kann analog zu Wertkettenanalysen zwischen Primärmodulen, die direkt in den Prozess der Leistungserstellung eingebunden sind, und Sekundärmodulen, die Versorgungsund Steuerungsfunktionen für die primären Module übernehmen, unterschieden werden (s. Abb. 1). Eine Verlagerung von Leistungen aus Primärmodulen in sekundäre Module sollte grundsätzlich nur dann erfolgen, wenn die jeweiligen Aktivitäten nicht erfolgskritisch für den Leistungserstellungsprozess des Moduls sind und die Kosten einer redundanten modulinternen Leistungserbringung höher sind als die gesamten Transaktionskosten bei einem externen Leistungsbezug über ein Sekundärmodul. Grundsätzlich ist damit vor einer Reduzierung des Autonomiegrades von Organisationsmodulen durch Sekundärmodulbildung oder Aufgabenverlagerung auf Sekundärmodule eine fallspezifische Analyse unter Beachtung der eben genannten zwei Entscheidungskriterien vorzunehmen. Modulare Makrovarianten der Unternehmensorganisation setzen aufgrund des weitgehenden Verzichts auf hierarchische Koordinationsmechanismen einen kontinuierlich-prozessbegleitenden und ereignisorientierten horizontalen Informationsaustausch zur Bewältigung unvermeidbarer Modulinterdependenzen voraus. Dieser Informationsaustauschbedarf erfordert untemehmensweit vernetzte IuK-Systeme. Werden diese unternehmensinternen Systeme auf Basis von Internet-Technik realisiert (-• Internet), dann liegt ein sogenanntes (Corporate) -> Intranet vor. In solchen Intranets, aber auch bei Einsatz anderer Technikplattformen, können zwei verschiedene Typen von IuK-Systemen zur Unterstützung von modulinternen und
787
Unternehmen, modulare -übergreifenden Abstimmungsprozessen zum Einsatz kommen: (1) Workflow-Management-Systeme, die auf eine Steuerung von weitgehend konstanten und gut strukturierten Arbeitsflüssen zwischen räumlich und/oder zeitlich getrennten Akteuren ausgerichtet sind und Konzepte zur Modellierung und Ausfuhrung von Geschäftsvorgängen beinhalten. (2) Workgroup-Computing-Systeme, die durch Bereitstellung von Ressourcen (z.B. Datenbank mit Regelvorschlägen für die Dateninterpretation bei bestimmten Entscheidungsproblemen) und Kommunikationsmöglichkeiten die kooperative Bearbeitung von selten anfallenden und wenig strukturierten Aufgaben in temporären Projektteams oder unbefristet eingerichteten Arbeitsgruppen erleichtem. Literatur: B a l d w i n , C . Y . / C l a r k , K.B.: M o d u l a r i s i e r u n g : Ein K o n z e p t w i r d universell, in: H a r v a r d
Strategisches Controllingmodul
PersonalModul
S
Unternehmensakquisition B u s i n e s s M a n a g e r 2 0 , Nr. 2 / 1 9 9 8 , S. 3 9 ^ 1 8 ; G e r pott, T . J . / B ö h m , S.: M o d u l a r e U n t e r n e h m e n , in: N a g e l , K . / E r b e n , R.F./Piller, F . T . (Hrsg.), P r o d u k t i o n s w i r t s c h a f t 2 0 0 0 , W i e s b a d e n 1999, S. 1 5 2 - 1 7 4 ; G ö p f e r t , J.: M o d u l a r e P r o d u k t e n t w i c k lung, W i e s b a d e n 1998; P i c o t , A . / R e i c h w a l d , R . / W i g a n d , T.: Die g r e n z e n l o s e U n t e r n e h m u n g , 3. Aufl., W i e s b a d e n 1998; W e b e r , J.: M o d u l a r e Organisationsstrukturen internationaler Untern e h m e n s n e t z w e r k e , W i e s b a d e n 1995.
Torsten J. Gerpott Unternehmensakquisition Die Ausweitung der Unternehmenstätigkeit kann grundsätzlich durch interne Entwicklung oder eine Akquisition (von Unternehmen, Unternehmensteilen oder einer Beteiligung) erfolgen. Im Gegensatz zu internen Lösungen können sich Firmen durch Übernahmen meist schneller neu positionieren, gehen dabei aber erhebliche Risiken ein. Der Ort, an dem es zu Akquisitionen kommt, ist der Markt für Unternehmenskontrolle. Er
LogistikModul
t
t
Sekundärmodule
Informations- und Kommunikationssysteme
Primärmodule
I II
= Leistungsprozess Produkt-/Marktfeld 1. = Leistungsprozess Produkt-/Marktfeld 2. = Informationslogistische Verknüpfung der Module über IuK-Systeme
Quelle: Gerpott/Böhm ( 1999), S. 163
Abb. I: Grundslruklurierung
788
modularer Unternehmen mit Primär- und Sekundärmodulen
Unternehmensakquisition unterliegt einer zyklischen Entwicklung und erreichte 1999 sein historisches Hoch. J. Motive Akquisitionen basieren i.A. auf grundsätzlichen strategischen Überlegungen: Mit horizontalen Akquisitionen im gleichen Geschäft werden meist Synergiegewinne (Effizienztheorie) oder Machtgewinne (Monopoltheorie) angestrebt. Vertikale Akquisitionen vor- und nachgelagerter Wertschöpfungsstufen sollen das Umfeld stabilisieren oder ebenfalls Wirtschaftlichkeitsvorteile erbringen. Bei konzentrischen Übernahmen sollen bestimmte Kernfähigkeiten auf andere Geschäfte übertragen werden. Bei lateralen bzw. konglomeraten Akquisitionen in nicht verwandte Geschäfte setzt man z.B. auf finanzielle Synergien (-» Synergiemanagement) oder Risikostreuung. Ziel kann aber auch eine generelle Neuausrichtung des Untemehmensportfolios mittels neuer Tätigkeitsfelder sein. Neben den strategischen Motiven gibt es aber auch finanzielle Motive, wenn z.B. gezielt nach unterbewerteten Targets Ausschau gehalten wird und man dabei vielleicht auch Informationsvorsprünge nutzen kann (Raider- und Bewertungs-Theorie). Akquisitionen können aber auch wegen einer nicht mehr aufzuhaltenden Eigendynamik unternehmensintemer Prozesse zum Abschluss kommen oder aufgrund persönlicher Motive der Entscheidungsträger (Empire-Building-Theorie). 2. Transaktionsphasen Die Akquisition ist als ganzheitlicher Prozess zu verstehen, der in die Phasen Vorbereitung, Durchfuhrung und Integration unterteilt werden kann. Jede dieser Phasen besitzt einen entscheidende Bedeutung zur Realisierung des aus der Transaktion erhofften Wertsteigerungspotenzials. Auch müssen die Aktivitäten in den einzelnen Phasen auf den Gesamtprozess abgestimmt sein. Im Folgenden sei ein Kaufprozess näher erläutert.
Unternehmensakquisition a) Vorbereitung Ausgehend von der eigenen Unternehmensstrategie müssen auf der Basis eines Suchprofils potenzielle Targets ausfindig und nach ihrer Eignung beurteilt werden. Wichtig ist neben der gesuchten Produkt-/ Markt-/Technologiekombination auch die Integrationsmöglichkeit des Targets. Output ist eine "short list" der zu kontaktierenden und zu bewertenden Unternehmen. b) Durchführung Die ausgewählten Unternehmen werden zur Klärung ihres Verkaufsinteresses auf strategische und finanzielle Aspekte hin analysiert. Das bietende Unternehmen unterzeichnet eine Absichtserklärung und erhält im Gegenzug in einer Firmenpräsentation zusätzliche Erkenntnisse. Zuletzt folgt eine "Due Diligence"-Prüfung der möglichen Risiken und Synergieeffekte. Strategische Bewertung des Akquisitionskandidaten: Die strategische Bewertung des Übernahmekandidaten fuhrt zu weiteren Erkenntnissen und Annahmen fiir die nachfolgende finanzielle Bewertung. Zunächst wird über strukturelle Determinanten des Marktes die Branchenattraktivität bestimmt. Bei Akquisitionen im Ausland kommt zudem den rechtlichen Vorschriften und sozialen, kulturellen und politischen Faktoren erhöhte Bedeutung zu. Die Wettbewerbsposition des Targets zeigt sich in unternehmensspezifischen Dimensionen wie der Größe, den Hauptaktivitäten oder der Sicherung eines attraktiven Produktportfolios durch Forschungs- und Entwicklungsaktivitäten. Neben Merkmalen der Humanressourcen umfasst dies auch die Analyse eventueller Gefahren aus rechtlicher oder ökologischer Sicht. Die Wertschöpfungspotenziale des Zusammenschlusses müssen ermittelt und Wege ihrer Erschließung untersucht werden, was zu Fragen nach der gemeinsamen Ressourcennutzung und des Know-how-Transfers als auch der 789
Unternehmensakquisition Geschwindigkeit und Reihenfolge konkreter Umsetzungsmaßnahmen fuhrt. Folgen der Akquisition wie Know-howVerluste durch erhöhte Fluktuation des Managements und der Mitarbeiter oder Abschmelzeffekte bei den Marktanteilen müssen ebenso berücksichtigt werden wie die -> Opportunitätskosten aus der Aufgabe von Entwicklungsmöglichkeiten. Finanzielle Bewertung des Akquisitionskandidaten: Der -> Unternehmenswert kann nicht exakt prognostiziert werden, da Prognosen und strategische Bewertungen nur zu Tendenzaussagen führen. Als objektiver Bewertungsmassstab gilt der Börsenwert eines Unternehmens oder eines vergleichbaren Wettbewerbers. Eigenständige Ziele des Käufers erfordern jedoch eine subjektive Sichtweise, zudem betrifft die Mehrzahl der Unternehmenskäufe in Deutschland mittelständische Unternehmen, weshalb der Börsenkurs nur in Ausnahmefällen eine befriedigende Bewertungsgrundlage liefert. Die Substanzwertmethode ist eines von vielen Verfahren, das eine zweckabhängige, funktionale Unternehmensbewertung erlaubt. Es geht davon aus, dass die Unternehmensbestandteile am Bewertungsstichtag zu ihrem Marktwert wiederbeschafft werden und passt daher die bilanziellen Buchwerte an Marktwerte an, was häufig stille Reserven aufdeckt. Zwar ist diese Methode leicht nachzuvollziehen, jedoch fehlt ihr eine dynamische Zukunftsausrichtung. Die Ertragswertmethode ermittelt den Unternehmenswert aus Gegenwartswerten zukünftig erwarteter Nettoentnahmen bzw. -ausschüttungen, wobei sie von der Fortführung der Unternehmenstätigkeit ausgeht. Problematisch ist hier die Prognose der zukünftigen Einnahmen- oder Ertragsüberschüsse sowie die Wahl des risikoadäquaten Diskontierungszinssatzes, wobei hier an den Erkenntnissen der strategischen Unternehmensbewertung angesetzt werden kann. Die -> Discounted-Cash-ßow-Methode diskontiert die Einnahmenüber790
Unternehmensakquisition schüsse aus der operativen Tätigkeit vor Zinsen mit einem aus den für Eigen- und Fremdkapital zu zahlenden Renditen gewogenen Kapitalkostensatz (-> Kapitalkosten), wobei sich ebenfalls Probleme bei der Bestimmung des Diskontierungsfaktors und der Prognose der zukünftigen Cash-flows ergeben. Die Kombination aus Ertrags- und Substanzwertverfahren ist in praxi als Ausgangspunkt für Vertragsverhandlungen sowie in der Finanzverwaltung gebräuchlich. Auch werden branchenspezifisch berechnete Multiplikatoren eingesetzt, die den Kaufpreis als Projizierung historischer Kaufpreise ableiten. I.A. kommen mehrere Bewertungsmethoden gleichzeitig zum Einsatz, um die Unsicherheiten und Defizite der einzelnen Verfahren auszugleichen, individuelle Motive des Käufers zu berücksichtigen und den Verhandlungsspielraum zu ermitteln. Verhandlungsphase und Closing: Auf die Ausarbeitung eines Konzeptes mit Akquisitionsbedingungen folgt die konkrete Verhandlungsphase. Sie beginnt mit der Unterzeichnung eines Letters of Intent und führt bei Erfolg über einen Vorvertrag zur endgültigen Einigung im Kaufvertrag. Im Verlauf dieses Prozesses einigen sich die Parteien über den Kaufpreis und den Zeitpunk des Betriebsüberganges. Die Kaufpreiszahlung erfolgt immer häufiger durch Aktientausch, alternativ sind auch Barzahlung und seltener Schuldverschreibungen oder Kombinationsformen anzutreffen. Der Käufer kann versuchen, sich durch Garantien und Klauseln im Kaufvertrag gegen Risiken aus der asymmetrischen Informationsverteilung (-> Informationsasymmetrie) zwischen Käufer und Verkäufer zu schützen, wichtige Mitarbeiter der Zielgesellschaft zu binden, zusätzliches Know-how durch den Abschluss von Geschäftsfiihrungs- oder Beraterverträgen mit den verkaufenden Eigentümern zu sichern und die Verkäufer durch vereinbarte Wettbewerbsverbote
Unternehmensakquisition auf gewisse Zeit als Konkurrenten auszuschließen. Besondere Bedeutung kommt in der Verhandlungsphase dem menschlichen Faktor zu. Auf die Verhandlungsphase folgt der Vertragsabschluss und das Closing, d.h. die Umsetzung der wesentlichen Vertragsbedingungen sowie der Übergang der Verfügungsmacht. Abwehrstrategien bei feindlichen Ubernahmen: Es kann versucht werden, (1) die Übernahme für den potenziellen Käufer zu erschweren oder (2) das eigene Unternehmen für ihn unattraktiv zu machen. Als "Shark repellents" werden präventive Vorkehrungen bezeichnet, die meist an Satzungsänderungen gebunden sind. So können der Aufkauf eigener -» Aktien, ein Parken von Anteilen bei Dritten sowie wechselseitige Verflechtungen Übernahmen erschweren. In der Satzung kann präventiv eine angeordnete Zwangseinziehung mit niedrig festgelegter Abfindungssumme für die Aktionäre festgelegt werden. Kapitalerhöhungen mit Bezugsrechtsausschluss ("Poison pills") und vinkulierte Namensaktien, die nur mit Zustimmung der Gesellschaft übertragen werden dürfen, wirken ebenfalls abschreckend. Kurzfristig kann das Zielunternehmen gemäß der "Pac-Man-Strategie" seinerseits eine Übernahmeofferte für den Bidder abgeben. Denkbar ist auch die Akquisition eines anderen Unternehmens {Defensive merger), um die finanziellen Mittel des Bidders zu übersteigen oder kartellrechtliche Schwierigkeiten für die feindliche Übernahme zu schaffen. Durch die Veräußerung von lukrativen Vermögensgegenständen ("Crown jewels") kann das Target seine Attraktivität verlieren. Falls Aktiva weit unter ihrem Wert verkauft werden, spricht man von einer Strategie der verbrannten Erde ("Scorched earth"). Kann eine Übernahme nicht mehr verhindert werden, können
Unterneh mensakqu isition noch durch einen Verkauf des gesamten Unternehmens an ein Drittunternehmen ("White knight") bessere Konditionen realisiert werden. Abwehrmaßnahmen können sich auch gravierend negativ auswirken (z.B. in einem niedrigeren Aktienkurs) und sind daher gut abzuschätzen (s.a. -> Übernahme, feindliche). c) Integration In der Post-Akquisitionsphase soll die Realisierung der Wertsteigerungspotenziale gemäss der strategischen Vorgabe stattfinden. Die vorbereitende Anpassung von Schnittstellen und Zielvorgaben sollte durch den Aufbau von Vertrauen und Verständnis ergänzt werden. Der angestrebte Integrationsgrad kann nach Haspeslagh/Jemison (1991) vor allem durch den Bedarf an strategischer Interdependenz und dem Bedarf an organisatorischer Autonomie charakterisiert werden. •
Eine Holding-Akquisition (-> Holding) zeichnet sich durch eine geringe operative Verknüpfung aus, d.h. der Bedarf an strategischer Abhängigkeit und Autonomie ist gering. Sie basiert meist auf finanzwirtschaftlichen Überlegungen ohne intendierter Integration.
•
Bei Absorptionsakquisitionen bedarf das Akquisitionsobjekt wenig Autonomie bei gleichzeitiger hoher strategischer Interdependenz, was zu gemeinsamer Ressourcennutzung und Rationalisierungsmaßnahmen (-> Rationalisierung) in redundanten Wertkettenbereichen (-> Wertschöpfungskette) fuhrt.
•
Erhaltungsakquisitionen verlangen aufgrund der hohen Autonomie- und geringen Interdependenzbedürfnisse eine unveränderte Fortführung des Objektes. Sie erlauben Wertsteigerungseffekte durch Lernprozesse und Know-how-Transfer.
•
Besonders bei symbiotischen Akquisitionen, mit ihrem Bedürfnis nach organisatorischer Selbstständigkeit und
791
Unternehmensführung
Unternehmensakquisition starker strategischer Abhängigkeit, sind große Wertsteigerungen durch die Übertragung funktionaler Fähigkeiten zu erzielen. 3. Erfolg Die deutliche Mehrzahl der Studien zum Erfolg von Akquisitionen kommt zu dem Ergebnis, dass Akquisitionen mit einem erheblichen Risiko behaftet sind, die angestrebten Ziele nicht einmal annähernd zu erreichen. Die Gründe des Scheiterns sind häufig in einer Unterschätzung der Integration zu suchen. Als Beispiel können hier die Probleme genannt werden, die aus dem Aufeinanderstoßen unterschiedlicher Kulturen resultieren ("cultural clash", s.a. -» Untemehmenskultur). Literatur: Achleitner, A.-K..: H a n d b u c h Investment Banking, Wiesbaden 1999; Busse von Cölbe, W./Coenenberg, A.G. (Hrsg.)-. Unternehmensakquisition und Unternehmensbewertung, Stuttgart 1992; Bühner, R. (1990): Unternehmenszusammenschlüsse, Stuttgart 1990; Gerpott, Torsten: Integrationsgestaltung und Erfolg von Untemehmensakquisitionen, Stuttgart 1993; Gomez, P./Weber, B.: Akquisitionsstrategie - Wertsteigerung durch Ü b e r n a h m e von Unternehmen, Stuttgart/Zürich 1989; Haspeslagh, P.C./Jemison, D.B.: Managing Acquisitions: Creating Value through Corporate Renewal, N e w York 1991; Hölters, W.: Handbuch des Unternehmens- und Beteiligungskaufs, Köln 1992; Jung, H.: Erfolgsfaktoren von Untemehmensakquisitionen, Stuttgart 1993; Jung, W.: Praxis des Unternehmenskaufs, 2. Uberarb. und erw. Aufl., Stuttgart 1993; Milller-Stewens, G./Spickers, J./Deiss, C.: Mergers & Acquisitions. Markttendenzen und Beraterprofile, Stuttgart 1999; Picot, G. (Hrsg.): U n t e m e h m e n s k a u f und Restrukturierung, München 1998.
Günter Müller-Stewens Unternehmensführung Untemehmensfuhrung (—• Management) erfüllt die Gestaltungs- und Steuerungsfunktion, welche den Umsatzprozess eines Unternehmens koordiniert und zielgerichtet ablaufen lässt. Die Managementfunktionen lassen sich in eine prozessuale, eine strukturelle und eine personelle Dimension einteilen, was eine ganzheitliche Betrachtung des Phänomens ermöglicht. Das Strategische Management wird als Führungsphilosophie aufgefasst, 792
welche die intuitive Strategische Unternehmensführung explizit werden lässt. 1. Management als Gesamtführung des Unternehmens Das Unternehmen als offenes, soziales System ist eng mit seiner Umwelt vernetzt und in seinem Verhalten wesentlich von Menschen beeinflusst. Kern dieses produktiven Systems ist sein betrieblicher Umsatzprozess, in dessen Verlauf finanzielle Mittel und Produktionsfaktoren beschafft, zu Erzeugnissen transformiert und abgesetzt werden, um schließlich die finanziellen Mittel zurückzuzahlen und den Prozess erneut zu durchlaufen. Zur Lösung der vielfaltigen Probleme und Aufgaben im Verlauf dieses Prozesses ist eine Steuerungsfunktion zur zielgerichteten Bearbeitung und Koordination nötig, die als Untemehmensfuhrung oder Management bezeichnet wird. Management ist hier somit als Gesamtfiihrung des Unternehmens zu verstehen und grenzt sich ab von der Personalführung (-> Führung), die als integraler Bestandteil der personellen Dimension der Unternehmensführung zuzuschreiben ist. Der Begriff Unternehmensführung (Management) kann als Bezeichnung einer Institution und einer Funktion verwendet werden. Während Management als Institution alle Personen mit Entscheidungs- und Anordnungskompetenzen umfasst, beinhaltet es als Funktion alle nicht rein ausführenden Aufgaben. 2. Hauptfunktionen der Unternehmensführung Die Hauptfunktionen der Untemehmensfuhrung können durch die Aufspaltung des Begriffsinhaltes in eine prozessuale, eine strukturelle und eine personelle Managementdimension ermittelt werden. •
Prozessuale Dimension Die prozessuale Dimension interpretiert Management als Entscheidungsprozess, der in den Managementzyklus aus den Phasen Planung, Entscheidung, Aufgabenübertragung und Kon-
Unternehmensführung trolle untergliedert und von Vor- und Rückkoppelungen geprägt ist. In der Planungsphase wird in der Problemanalyse zunächst der IstZustand ermittelt, prognostiziert und mit den Zielen verglichen. Die so erkannten Probleme werden in Elemente aufgeteilt und nach Abhängigkeiten und Prioritäten strukturiert. Nach einer Altemativensuche vor dem Hintergrund der konkreten Probleme werden die zukünftigen Wirkungen dieser Alternativen prognostiziert und auf ihre Zielwirksamkeit hin bewertet (-> Planung). In der Entscheidungsphase, deren Grenzen zur Planungsphase fließend sind, erfolgt zunächst die Zielbestimmung. Da stets gleichzeitig mehrere Ziele verfolgt werden und diese einander beeinflussen, kann sie nur im Rahmen eines Zielsystems stattfinden, das möglichst vollständig, klar und widerspruchsfrei sein sollte, da es in die Planungsphase als SollInformation einfließt. Die Entscheidungsphase umfasst zudem die endgültige Auswahl einer möglichen Problemlösungsvariante sowie die Allokation der Ressourcen. In arbeitsteiligen Systemen folgt der Entscheidung die Aufgabenübertragung, durch die beschlossene Maßnahmen durchgesetzt werden sollen. Dabei werden primär Mittel herangezogen, die der strukturellen und personellen Dimension des Managements zuzuordnen sind. Zuletzt folgt die Überwachung der Problemlösung durch prozessabhängige Personen und Kontrolleinrichtungen (Kontrolle) sowie prozessunabhängige Sachverständige (Prüfung, Revision). Die Überwachung liefert neben Soll-Ist-Vergleichen auch die Abweichungsursachen, die dann als Rückkoppelung in vorgelagerte Phasen einfließen.
Unternehmensführung •
Strukturelle Dimension Die strukturelle Dimension von Management sieht dessen Funktion in der Strukturbildung (Organisationsfunktion), also der Regelung von Vorgängen mit Wiederholungscharakter. Organisation verleiht im Gegensatz zu Einzelfallregelungen Stabilität und bietet insbesondere bei vielen sich wiederholenden Aufgaben und arbeitsteiligen Unternehmensprozessen Effizienzvorteile. Da sie jedoch auch die Elastizität des Unternehmens einschränkt, besteht Organisation als Managementfunktion zum einen darin, ein zweckmäßiges Gleichgewicht zwischen organisatorischen Regelungen und fallweisen Entscheidungen zu finden. Zum anderen umfasst sie die organisatorische Gestaltung an sich. Ausgangspunkt ist hierbei die vom Unternehmen zu erfüllende Aufgabe. Diese wird in Elementaraufgaben zerlegt, welche in der anschließenden Synthese mit Menschen, Sachmitteln und Informationen zu organisatorischen Strukturen, beispielsweise Stellen und Abteilungen, verknüpft werden. Es entstehen auf diese Weise bei der Aufgabenerfiillung zwischen den Aktionseinheiten des Unternehmens Aufbaubeziehungen (Bestandsbetrachtung) und Ablaufbeziehungen (Prozessbetrachtung). Organisieren kann sowohl eine Neuorganisation als auch eine Reorganisation des Unternehmens umfassen. Unter die strukturelle Dimension fällt auch die Frage nach der Organisation der Führungsspitze. Ursprünglich sind Unternehmen in der Marktwirtschaft durch die Alleinbestimmung der Anteilseigner gekennzeichnet. Der Eigentümer-Unternehmer hat alle Verfiigungsrechte (-> Property-Rights-Ansatz) und die Unternehmensleitung inne. Manager können entweder den Eigentümer-Unternehmer im Zuge der Entscheidungsdelegation entlasten. 793
Unternehmensführung Außer bei Personengesellschaften können sie gleichberechtigt zu ihm in die oberste Leitung berufen werden. Zudem können sie die alleinige oberste Leitung übernehmen, was insbesondere der Fall ist, wenn statt Eigentümer-Unternehmern lediglich Eigenkapitalanleger beteiligt sind. Eine Trennung von Leitung und Eigentum kann zu Interessenskonflikten im Sinne der Principal/Agent-Theory Agency-Theorie) führen. Die Unternehmensfiihrung erfolgt in Entscheidungsgremien, die von einer unterschiedlichen Repräsentanz der Organisationsmitglieder gekennzeichnet sind. Die zentrale Managementkompetenz liegt bei der Unternehmensleitung, also dem Inhaber, der Gesellschafterversammlung der -> Offenen Handlsgesellschaft (OHG), den Komplementären der - » K G und -> KGaA, der GmbH-Geschäftsführung (-> GmbH) oder dem —> Vorstand einer -> AG. Bei einer paritätisch mitbestimmten großen AG oder GmbH entscheidet kraft Gesetz ein Arbeitsdirektor mit Ressortzuständigkeit für soziale und personelle Belange an Vorstandsentscheidungen gleichberechtigt mit (—> Untemehmensmitbestimmung). Die Anteilseigner überwachen die Unternehmensleitung durch die Gesellschafterversammlung oder den -> Aufsichtsrat, wobei Einzelheiten rechtsformspezifisch im Gesetz geregelt sind. Der Einfluss auf die Entscheidungen des Unternehmens ist bei der Gesellschafterversammlung der GmbH im Gegensatz zur Hauptversammlung der AG und den Kommanditisten der KG sehr groß. Im Aufsichtsrat großer mitbestimmter Kapitalgesellschaften sind zu 33% (Drittelparität) oder zu 50% (Parität) Arbeitnehmerund Gewerkschaftsreprä-
794
Unternehmensführung sentanten vertreten. Seine Kompetenzen umfassen neben der Überwachung der Unternehmensleitung die Wahl seines Vorsitzenden und der Vorstandsmitglieder sowie die Entscheidung über den -> Jahresabschluss und zustimmungsbedürftige Geschäfte. Bei Einzelunternehmen und der Einpersonen-Gesellschaft ist die Einheitlichkeit der Willensbildung und der Außenvertretung gewährleistet. Sind mehrere Personen beteiligt, kann die Organisation der Führungsspitze einem Mitglied nach dem Direktorialprinzip das alleinige Entscheidungsrecht bei Meinungsverschiedenheiten zugestehen, wie dies beim Vorstand von Aktiengesellschaften der Fall ist. Vom Kollegialprinzip wird gesprochen, falls die Betriebsfuhrung in der Hand mehrerer gleichberechtigter Personen liegt. Personelle Dimension Bei arbeitsteiligem Wirtschaften umfasst Management immer auch eine personelle Dimension, welche die bisherigen Fachfunktionen um Führung als Personalfunktion im Sinne von "Zielerreichung durch andere" ergänzt. Führung hat damit einerseits die Funktion, die Mitarbeiter zu veranlassen, die erwarteten Beiträge zur Zielerreichung zu erbringen (Produktivitätsaspekt). Andererseits muss sie Bedingungen schaffen, die den Mitarbeitern die Realisierung ihrer persönlichen Ziele ermöglicht (Zufriedenheitsaspekt, -> Mitarbeiterzufriedenheit). Je nach Ausprägung dieser beiden Führungsparameter ergibt sich ein Führungsstil, der situativ an die jeweiligen Führungsbedingungen angepasst werden sollte. Es handelt sich hier um Personalfuhrung und damit Führung im engeren Sinne, die von Unternehmensfiihrung unterschieden werden kann.
Unternehmensführung 3. Strategische
Unternehmensführung
Abgrenzung zur klassischen Unternehmensführung: Unter strategischer Unternehmensführung versteht man eine Führungskonzeption, welche langfristig auf die proaktive Steuerung und Koordination des betrieblichen Wirtschaftsprozesses abzielt. Sie berücksichtigt bei unternehmerischen Entscheidungen nicht nur sachrationalökonomische Aspekte, sondern bezieht bewusst das soziologische, soziale und ökologische Unternehmensumfeld mit ein. Strategische Unternehmensführung betrifft daher das gesamte Aufgabenspektrum des Managements und nicht nur die prozessuale Dimension der Unternehmensführung. Sie beschränkt sich nicht auf die strategische Planung, wenn diese auch einen deutlichen Schwerpunkt darstellt. Während sich die klassische, eher statische Unternehmensführung an Umweltveränderungen erst nach einem mitunter langfristigen Adaptionsprozess anpasst, antizipiert die strategische Unternehmensführung mögliche Chancen und Risiken einer veränderten Umwelt und entwickelt daraus dynamisch aggressive Strategien, die schon frühzeitig verfolgt werden können. Das Strategische Managementsystem: Wenn die Strategieplanung in früheren Jahren auch nicht explizit formuliert wurden, so waren doch grundsätzliche Vorstellungen über die langfristige Entwicklung und damit Elemente der strategischen Unternehmensführung in jedem Unternehmen vorhanden. Durch die Entwicklung des unternehmerischen Umfeldes hin zu mehr Komplexität, Dynamik, Diskontinuitäten und Turbulenzen sowie der gesellschaftlichen Sinn- und Orientierungskrisen wuchs das wissenschaftliche Interesse an strategischen Fragestellungen verbunden mit dem Ziel, die unternehmenspolitische Steuerung von Unternehmen wissenschaftlich zu unterstützen. Das Strategische Management, als Begriff in der Literatur erst ab 1976 verwendet,
Unternehmensführung soll hier als die Führungsphilosophie der rationalen strategischen Unternehmensführung verstanden werden. Es ist eine Denkweise, die in ein Managementsystem, also die Gesamtheit der Instrumente, Regeln, Prozesse und Institutionen zur Erfüllung von Managementfunktionen, umgesetzt werden soll. Das institutionalisierte Strategische Managementsystem unterstützt und rationalisiert also die bislang intuitive strategische Unternehmensführung. Strategisches Management als "Management of Evolution ": Das Strategische Management ist eng verbunden mit dem Begriff der geplanten Evolution. Charakteristisch für die geplante Evolution ist, dass die inkrementellen Änderungen des Systems nicht einfach adaptiv geschehen, sondern von der Vorstellung über die künftige Systementwicklung gesteuert werden. Mit jedem Änderungsschritt wird Erfahrung gewonnen, die zur Modifizierung der Systemvorstellung führt. Die Systemvorstellung verändert sich dabei nicht ausschließlich aufgrund der Änderungserfahrungen, sondern auch unter dem Einfluss von alternativen Systemvorstellungen und Systemvisionen. Strategisches Management hat die Qualität dieser steuernden Systemvorstellung. Es ist vergleichbar mit einer dritten Generation des Denkens über Strategien. Das strategische Denken der ersten Generation fokussierte als "Management of Allocation" auf Allokationsprobleme und nahm Ziele als gegeben hin, die Strategische Planung bestimmte lediglich die Mittel zur Zielerreichung. Der Fokus des strategischen Denkens der zweiten Generation richtete sich gemäß eines "Management of Adaptive Change" auf das Überleben der Unternehmung als System in einer sich ständig ändernden Umwelt. Damit wurden auch die Ziele in die strategische Diskussion miteinbezogen. Strategisches Management kann am besten mit dem Begriff "Management of Evolu795
Unternehmensführung tion" umschrieben werden, da es über die vorherigen Ansätze hinausgeht und das Unternehmen als fortschrittsfahige Organisation ausrichtet. Es genügt in dieser Sichtweise also nicht, Mittel angesichts eines gegebenen Umfeldes vorteilhaft einzusetzen oder das Überleben der Organisation zu sichern. Strategisches Management zielt auf einen Fortschritt in der Bedürfnisbefriedigung der von den Unternehmensaktivitäten direkt oder indirekt Betroffenen. Es ist die Steuerung und Koordination der langfristigen Evolution des Unternehmens und seiner Umwelt. Diese Steuerung und Koordination wird fortwährend kritisch überprüft und gegebenenfalls angepasst. Damit geht das Strategische Management von der Begrenztheit der Führung angesichts der sich entwickelnden Systeme aus. Die Rolle der Strategischen Planung: Die Strategische Planung steht im Mittelpunkt des Strategischen Managements. Sie ist die Vorstellung über die künftige Systementwicklung und bestimmt die durchzuführenden Evolutionsschritte. Die Unternehmenspolitik wird von ihr in strategischen Plänen festgelegt, die globale Aussagen über die Ressourcenverwendung, die Untemehmensziele, Strategien und Grundsätze treffen. Strategische Planung ist in dem Sinne auch politische Planung, als von ihr in Bereichen Entscheidungen getroffen werden, die von Konflikten zwischen divergierenden Wertprämissen gekennzeichnet sind. Sie ist meist langfristiger Natur, wobei zwischen dem Zeitraum, auf den sich die Plankategorien beziehen (Bezugszeit), der zeitlichen Reichweite der Erwartungsbildung (Planungshorizont), der Zeitperiode, für die der Plan verbindlich ist (Geltungsdauer) und der Zeitdauer bis zur nächsten Plananpassung (Anpassungs- bzw. Innovationszeit) unterschieden wird. Meist werden Strategische Planungen regelmäßig durchgeführt und zudem auf ad hoc Basis, wenn Plananpassungen 796
Unternehmensgründung wegen Veränderungen außer- oder innerhalb des Unternehmens dies nötig erscheinen lassen. Auch wenn das Strategische Management durch die Konzeption der geplanten Evolution gekennzeichnet ist, kann es dennoch den Charakter eines Krisenmanagements annehmen. Bei der Konfrontation mit drastischen Veränderungen des unternehmerischen Umfeldes wird dabei dann eventuell die bisherige Systemvorstellung einem grundlegenden Wandel unterzogen. Die Betonung der Strategischen Planung, die als Managementfunktion und nicht als Teil der Aufbauorganisation verstanden wird, darf nicht den Eindruck erwecken, dass mit ihr die Zukunft des Unternehmens beliebig gestaltet werden könnte. Sie ist vielmehr der Versuch, die Evolution des Unternehmens zumindest zeitweise zu beherrschen und Voraussetzungen zu schaffen, um aus den zwangsläufigen Irrtümern systematisch lernen zu können. Literatur: Frese, E.: Unternehmungsfilhrung, Augsburg 1987; Kieser, A./Reber, G./Wunderer, R. (Hrsg.): Handwörterbuch der Führung, Stuttgart 1987; Kirsch, W.: Untemehmenspolitik und strategische Unternehmensfuhrung, München 1990; Macharzina, K.: Unternehmensfuhrung. Das internationale Managementwissen, Wiesbaden 1993; Rühli, E.: Unternehmungsfilhrung und Untemehmungspolitik, Bern usw. 1985; Staehle, W.: Management, München 1999; Steinmann, H./Schreyögg, G.: Management, Grundlagen der Unternehmensfuhrung, Wiesbaden 1993.
Günter Müller-Stewens Unternehmensgründung Unternehmensgründung ist die Überführung der informellen Zusammenarbeit eines Start Up-Teams (-> Start Up) in die rechtsförmige Organisationsstruktur einer juristischen Person. Schwerpunkt der Unternehmensgründung ist die -> Rechtsformwahl, bei der die Gründerinteressen im Mittelpunkt stehen: Kapitalbedarf: Technologieorientierte Start Ups müssen eine besonders lange Vorgründungsphase (-• Seed-Phase) und Gründungsphase (Start Up-Phase) bis zur
Unternehmensgründung Erwirtschaftung erster Umsätze finanziell überleben. IT- und Biotech-Start Ups zeichnen sich mit ihren neuartigen Produkten durch einen hohen Innovationsgrad aus. Der Schwerpunkt der Gründertätigkeit liegt zunächst im kostenträchtigen Bereich Forschung & Entwicklung, bis aus der bloßen Produktidee ein marktfähiges Produkt geworden ist. Erheblicher finanzieller Aufwand ist sodann erforderlich, um das neuartige Produkt auf dem Markt bekannt zu machen und um Vorbehalte der Kunden zu überwinden und Innovationsbereitschaft zu wecken. Kostenintensive Marketingkonzepte müssen von den Gründern finanziert werden. Die Kapitalbeschaffung ist somit das zentrale Thema für Unternehmensgründer der IT- und Biotech-Branche. Teamstabilität: Die Gründerszene wird von Gründerteams beherrscht. Dies gilt gleichermaßen für Neugründungen beispielsweise aus universitären Arbeitskreisen und flir MBOs/—• MBIs aus der Mitte des eigenen oder eines externen Managements. Der Einzelunternehmer ist die große Ausnahme. Die Unternehmensgründung stellt die Teamfähigkeit der Gründer auf eine harte Probe: Die informelle Aufgabenverteilung und Kompetenzabgrenzung muss in die formellen Strukturen der gewählten Unternehmensform übergeleitet werden. Konfliktpotenzial bietet vor allem die Bewertung der erbrachten Opfer und der übernommenen Risiken der einzelnen Teammitglieder und die Beurteilung der künftigen Leistungsfähigkeit und -bereitschaft für das Unternehmen. Sollen alle Gründer gleiche Gesellschaftsanteile/Anteilsoptionen und gleiches Stimmrecht erhalten oder ist eine Differenzierung, wenn ja nach welchem Maßstab geboten? Die Gründer haben ein großes Interesse daran, dass ihr Team nicht durch die Unternehmensgründung zerbricht: Bei der wirtschaftlichen Beurteilung eines Start
Unternehmenskrise Ups spielen immaterielle Werte eine überragende Rolle. Mitarbeitervergütung durch —• Stock Options: Dem innovationsbedingten Bedürfnis nach qualifizierten Mitarbeitern laufen Vergütungsschwierigkeiten und die fehlende Arbeitsplatzsicherheit diametral entgegen: Die geringe Kapitalausstattung der Start Up-Unternehmen erlaubt keine angemessene zeitnahe Vergütung qualifizierter Mitarbeiter, die etablierte Wettbewerber bieten können. Dies wirkt sich um so gravierender aus, wenn eine hohe Nachfrage nach Fach- und Führungskräften aus dem IT- und Biotech-Bereich die Gehaltsspirale nach oben schraubt. Das Überleben des Start Ups ist genauso unsicher wie der Fortbestand der Arbeitsplätze. Das Unternehmen kann diese Unsicherheit auch nicht durch ein höheres Entgelt kompensieren. Alternative Vergütungsformen, insbesondere Mitarbeiterbeteiligungen durch Stock Options (-» Optionsplan) sind somit ein zentrales Thema für die Unternehmensgründung. Stefan Hanloser Unternehmenskooperation Unternehmenszusammenschluss, Kooperation Unternehmenskrise 1 Der betriebswirtschaftliche Krisenbegriff Der Begriff Unternehmenskrise kennzeichnet allgemein eine Entscheidungssituation im Wende- bzw. Höhepunkt einer gefährlichen Entwicklung, die eine Bedrohung bzw. Zerstörung des Unternehmens zur Folge haben kann. Die Existenzfrage stellt sich dabei am deutlichsten, wenn ein Unternehmen Gefahr läuft, einen der in der Insolvenzordnung verankerten Insolvenz-Auslösetatbestände, nämlich die drohende oder tatsächlich eingetretene Zahlungsunfähigkeit (§§ 18, 17 InsO) oder die Überschuldung (§19 InsO), zu erfüllen. Von Witte (1981) wird
797
Unternehmenskrise der Begriff der Unternehmenskrise als Situation charakterisiert, in der hochrangige Ziele des Unternehmens bedroht werden, wobei die Entscheidungszeiträume eingeschränkt werden, der Gefährdungsausgang aber noch unbestimmt ist. Leker (1993) bezeichnet Unternehmenskrisen als in Grenzen beeinflussbare und in ihrem Ausgang unsichere Prozesse, die eine hochrangige Bedrohung für den Fortbestand eines Unternehmens darstellen. 2. Verlauf von Unternehmenskrisen Der Verlauf von Unternehmenskrisen kann abhängig von der jeweiligen Intensität der Bedrohung sowie von den Wahrnehmungs- und Handlungsmöglichkeiten durch das Management in Phasen gegliedert werden. Dabei ist es Aufgabe der -* Unternehmensführung, mit einem Krisenmanagement Unternehmenskrisen zu vermeiden oder zu bewältigen (vgl. §91 Abs. 2 AktG). Während des normalen Geschäftsverlaufs treten ständig Krisenursachen auf, die erst ab einer bestimmten Kumulation von Krisenursachen und mangelnder Abwehr durch das Management in die Phase der latenten Krise führen. Nach Krystek (1987) ist die Phase der latenten Untemehmenskrise mit einer verdeckt bereits vorhandenen oder mit hoher Wahrscheinlichkeit künftig eintretenden Bedrohung eines Unternehmens verbunden. Die latente Unternehmenskrise ist für die Betroffenen nur mit einem geeigneten Früherkennungssystem (z.B. mit detaillierten Risikomanagementsystemen verbunden mit Markt- und Kostenanalysen) wahrnehmbar, wobei der Umfang und die Bandbreite von präventiven Handlungsmöglichkeiten noch relativ groß ist. Die Phase der akuten, aber beherrschbaren (manifesten) Unternehmenskrise ist geprägt durch eine erhöhte Intensität der Bedrohung, die in der Regel sowohl Unternehmensinternen als auch Unternehmensexternen (z. B. Gläubigern) bekannt 798
Unternehmenskrise wird. Die manifeste Krise lässt sich z.B. durch bilanzpolitik-konterkarierende Jahresabschlussanalysen erkennen. Trotz starken Zeitdrucks und Entscheidungszwangs kann der Krisentyp dieser Phase in der Regel noch bewältigt werden. Dagegen ist in der Phase der akuten, nicht beherrschbaren Unternehmenskrise die Auflösung des Unternehmens nur durch ein gerichtlich abgesichertes Insolvenzverfahren abzuwenden, wenn dem Gericht eine hohe Sanierungswürdigkeit und -Wahrscheinlichkeit durch einen entsprechenden Insolvenzplan nachgewiesen werden kann und das Gericht durch die verordnete Schutzfrist den Zeitdruck und die Entscheidungszwänge aus dem Krisenprozess nehmen kann und dadurch ein Gesundungsprozess eingeleitet wird (s.a. -* Insolvenz) 3. Ursachen und Früherkennung von Unternehmenskrisen Die Ursachen von Unternehmenskrisen sind meist sehr komplex. Die Unternehmenskrise lässt sich meist nicht auf wenige Ursachen zurückführen. Allerdings sind häufig als interne Krisenursachen vielfältige Managementfehler und unzureichende Eigenkapitalausstattung sowie als externe Krisenursachen konjunkturelle Entwicklungen und strukturelle Veränderungen im Umfeld des Unternehmens zu identifizieren. Da eine Früherkennung von Unternehmenskrisen aber eine Überwachung aller dieser vielfältigen Krisenursachen erfordern würde, ist diese Art der Krisenfrüherkennung für Unternehmensexterne nicht möglich und wenig erfolgversprechend. Lediglich für die interne Steuerung von Krisen sind ein Risikomanagementsystem mit internem Kontrollsystem, Interner Revision und einem das ganze Unternehmen durchleuchtenden Controlling-System geeignete Frühwarninstrumente. Einem Unternehmensexternen stehen diese Instrumente nicht zur Verfügung. Aus diesem Grund sollte ein externer Analytiker bei jedem Versuch, eine Un-
Unternehmenskrise ternehmenskrise frühzuerkennen, zunächst Symptome für die Abweichung vom normalen Geschäftsverlauf ermitteln und jene Symptommuster identifizieren, die die Schwere der Unternehmenskrise und ihre Beherrschbarkeit charakterisieren. Gelingt es, Krisenklassen anhand von Symptommustern zu bilden und für jedes Unternehmen die Bestandsfestigkeit als Insolvenzwahrscheinlichkeit zu messen, dann ist nach Einordnung eines Unternehmens in eine Rating-Klasse (-»Rating), für die jeweils der Grad der Bestandsgefährdung angegeben wird, eine Krisenursachenforschung anzuschließen, damit bei einer entweder zu spät erkannten oder bei einer nicht bewältigten Krise eine Krisentherapie vom Analytiker angestoßen werden kann. 4. Externe Krisendiagnose mit empirisch-statistischen Methoden und Anstoß zur Krisentherapie Ziel der empirisch-statistischen Klassifikation von Unternehmen ist es, Muster von Krisensymptomen zu identifizieren, die eine Unternehmenskrise möglichst frühzeitig (also Jahre vor der akuten, nicht beherrschbaren Krise) und mit hoher Klassifikationsgüte erkennen lassen. Zur Entwicklung eines solchen Früherkennungsklassifikators sind neben den Informationen des Jahresabschlusses andere extern beobachtbare Merkmale, wie die Branchenzugehörigkeit, die Rechtsform, die Unternehmensgröße, das Alter der Unternehmen aber auch andere qualitative Merkmale zu erfassen und auszuwerten. Mit Methoden der Mustererkennung (Künstliche Intelligenz) lassen sich dann auf der Basis einer sehr großen Stichprobe von gesunden und kranken Unternehmen mit den zugehörigen beobachteten Merkmalen jene Merkmalsmuster identifizieren, die Jahre vor der manifesten Untemehmenskrise den Grad der Gefährdung durch die Höhe statistischer Insolvenzwahrscheinlichkeiten signalisieren. So lässt sich mit Hilfe der Künstlichen Neuronalen Netzanalyse die wirtschaftliche Lage eines jeden Unter-
Unternehmenskrise nehmens aus seinen letzten drei bis fünf veröffentlichten Jahresabschlüssen klassifizieren (-> Neuronale Netze). So wurden bei dem Baetge-Bilanz-Rating® mit Hilfe der Künstlichen Neuronalen Netzanalyse auf der Basis von Tausenden Jahresabschlüssen gesunder und kranker Unternehmen 14 Kennzahlen der Vermögens-, Finanz- und Ertragslage herausgefiltert, die besonders geeignet sind, gesunde von kranken Unternehmen zu unterscheiden und zehn Güte- und Risikoklassen zu bilden (Baetge 1998). Damit die Krisentherapie aufgrund der Symptomanalyse vom Krisenanalytiker aber auch angestoßen werden kann, wird der in der Rating-Expertise angezeigte Grad der Bestandssicherheit bzw. der Bestandsgefahrdung des Unternehmens von den Bilanzkennzahlen auf jene Bilanz- und GuV-Positionen zurückgeführt, die eine betriebswirtschaftliche UrsacheWirkungs-Analyse der festgestellten noch latenten Krise ermöglichen. Ausgehend von einer Änderung des Klassifikationsurteils und der zugewiesenen Insolvenzwahrscheinlichkeit wird in der RatingExpertise angegeben, welche Änderungen in konkreten Bereichen des Jahresabschlusses diese Krisenentwicklung verursacht haben und wie hoch der Beitrag der Veränderung einer Jahresabschlussposition für die Entwicklung ist. Auf diesen Informationen aufbauend können durch eine zielgerichtete betriebswirtschaftliche Analyse die schlagenden Krisenursachen schnell identifiziert werden. Die bilanzanalytische Krisendiagnose mit Anstoß zur Krisentherapie kann somit zu einem erfolgreichen Krisenmanagement beitragen. Literatur: Witte, E.: Die Untemehmenskrise Anfang vom Ende oder Neubeginn?, in: Bratschitsch, R./Schnellinger, W . (Hrsg.): Unternehmenskrisen, 1981, S. 7 - 2 4 ; Krystek, U.: Unternehmenskrisen: Beschreibung, Vermeidung und Bewältigung Uberlebenskritischer Prozesse in Unternehmungen, 1987; Leker, J.: Fraktionierende Frühdiagnose von Unternehmenskrisen, 1993; Baetge, J.: Bilanzanalyse, 1998; Baetge, J.: Aktuelle Ergebnisse der empirischen Insolvenzfor-
799
Unternehmenskrise schung auf der Basis von Jahresabschlüssen, in: Baetge, J. (Hrsg.): Beiträge zum neuen Insolvenzrecht, 1998, S. 105-121; Baetge, J./Dossmann, C./Kruse, A.: Krisendiagnose mit Künstlichen Neuronalen Netzen, in: Hausschildt, J./Leker, J. (Hrsg.): Krisendiagnose durch Bilanzanalyse, 2. Aufl., 2000, S. 179-220; Hausschildt, J.: Unternehmenskrisen - Herausforderungen an die Bilanzanalyse, in: Hausschildt, J./Leker, J. (Hrsg.): Krisendiagnose durch Bilanzanalyse, 2. Aufl., 2000, S. 1-17.
Jörg Baetge/Marcus Plock Unternehmenskultur 1. Zum Begriff der Unternehmenskultur Die Unternehmenskultur beeinflusst in vielfacher Weise das betriebliche Handeln: sie kanalisiert Verhalten, prägt die Sichtweise von Problemen, liefert Interpretationsmuster, belegt Ereignisse mit positiven oder negativen Emotionen usw. Immer aber ist es eine unsichtbare Kraft, sind es ungeschriebene Gesetze, die hier prägend wirken. Es mag dies der Hauptgrund sein, weshalb das Phänomen der Unternehmenskultur Theorie wie auch der Praxis so lange verborgen geblieben war oder zumindest nicht zum Gegenstand einer genaueren Analyse wurde. Zwischenzeitlich hat sich das Bild dramatisch verändert. Unternehmenskultur ist zu einem festen Bestandteil der Organisationstheorie und jeden neueren Managementtrainings geworden. Das Neue und zunächst Befremdliche an dieser Sichtweise ist, dass sie Unternehmen als eine Art Kultursystem begreift. In Unternehmen - so die Idee - entwickeln sich, ähnlich wie in Volksgruppen, eigene, unverwechselbare Vorstellungs- und Orientierungsmuster, Rituale und Symbole, die für das Verhalten der Mitglieder und damit auch für den Erfolg des Systems von nachhaltiger Bedeutung sind. Der Kultur-Begriff ist der Ethnologie entliehen und bezeichnet dort die gemeinsamen Hintergrundüberzeugungen, Orientierungsmuster, Verhaltensnormen, Symbole usw., die einer Volksgruppe ihre Identität verleihen und die sie von ande-
800
Unternehmenskultur ren Volksgruppen unterscheidbar machen (Kluckhohn/Strodtbeck 1961). Die Managementforschung entleiht diesen für Volksgruppen entwickelten Kulturbegriff und überträgt ihn - ohne freilich die Unterschiede verwischen zu wollen - auf Unternehmen mit der Idee, dass jedes Unternehmen für sich eine je spezifische Kultur entwickelt, d.h. gewissermaßen eine eigenständige Kulturgemeinschaft darstellt. Unternehmenskultur wird in verschiedenen theoretischen Zusammenhängen thematisiert, am häufigsten findet sich die funktionalistische und die kognitivinterpretative Sichtweise (Schultz 1995). Die funktionalistische Sichtweise stellt den Problembezug in den Vordergrund und begreift Unternehmenskultur als geronnene Problemlösungsmuster. Unternehmenskultur - so die Idee - entwickelt sich in Auseinandersetzung mit Problemen, die sich dem System stellen; gefundene und bewährte Problemlösungen werden in den Habitus des Systems eingelassen und im täglichen Handeln aktualisiert. Die kognitiv-interpretatorische Sichtweise begreift Unternehmenskultur dagegen als das Ergebnis von grundlegenden Sinnfindungs- und Orientierungsprozessen. Untemehmenskultur wird hier mehr als ein Weltbild gesehen, das sich in dem Unternehmen ausformt, ja ausformen muss, um die Welt zu begreifen und eine Grundlage für das Handeln in einer grundsätzlich uninterpretierten Welt zu schaffen. Ausgehend von der philosophischen Einsicht, dass die Welt nicht redet, sondern schweigt, geht man davon aus, dass Systeme sich erst einen Zugriff auf die Welt schaffen müssen, bevor sie handeln können. Heute wird für diesen Prozess gerne der Begriff der Sinngebung ("sensemaking") verwendet (Weick 1995). Bei näherer Hinsicht zeigt sich, dass die beiden Ansätze nicht nur gegensätzlich, sondern auch komplementär begriffen werden können, wobei allerdings von der Reichweite des Arguments
Unternehmenskultur
Unternehmenskultur her gesehen dem kognitiv-interpretatorischen Ansatz ein gewisses Primat zukommt. Versucht man einen gemeinsamen Kern der verschiedenen Auffassungen zu identifizieren, so sind es wohl die folgenden Merkmale, die in der Regel mit dem Begriff der Unternehmenskultur verbunden werden: •
•
•
Implizit: Unternehmenskulturen sind viel weniger Programm als praktische Lebensvollzüge; ihre Orientierungsmuster, Verhaltensnormen und Überzeugungen sind implizite, selbstverständliche Annahmen, die dem täglichen Handeln zu Grunde liegen ("hidden agenda"). Ihre Basis ist nicht die Reflektion, sondern die traditionale und im gleichen Zuge auch emotionale Bindung an die spezifischen Orientierungs- und Verhaltensmuster. Unternehmenskultur wird dementsprechend nicht bewusst gelernt, sondern Systeme entwickeln zumeist eine Reihe von Praktiken und Symbolen, die dem neuen Organisationsmitglied verdeutlichen, wie im Sinne der kulturellen Tradition zu handeln ist (u.a. Trice/Beyer 1993). Kollektiv: Unternehmenskultur entsteht aus der Interaktion der Mitglieder; es entwickeln sich Überzeugungen, Orientierungen, Praktiken, über die man sich gewissermaßen stillschweigend verständigt hat. Unternehmenskultur ist also ein kollektives Phänomen; zu einer Kultur zu gehören, heißt, dass man in bestimmten Punkten genauso denkt und handelt wie die anderen Mitglieder dieser Gemeinschaft. Kultur macht infolgedessen organisatorisches Denken und Handeln einheitlich und kohärent - jedenfalls bis zu einem gewissen Grade. Historisch gewachsen: Unternehmenskultur ist das zunächst einmal ungeplante Ergebnis von historischen Lernprozessen im Umgang mit Prob-
lernen aus der Umwelt und der internen Koordination. Zug um Zug schälen sich bevorzugte und abzulehnende Wege des Denkens, Fühlens und Problemlösens heraus, bis schließlich diese Orientierungsmuster zu mehr oder weniger selbstverständlichen Voraussetzungen des organisatorischen Handelns werden. Unternehmenskultur könnte man, so gesehen, auch als einen kollektiven Wissensvorrat begreifen. Kultur meint allerdings sehr viel mehr als nur Wissen, dazu gehören konstitutiv auch Rituale, Gefühle, Bilder usw. Der Rekurs auf Lernprozesse verweist zugleich darauf, dass Unternehmenskulturen nicht völlig statisch sind, sondern - wenn auch häufig fast unmerklichen - Veränderungen unterworfen sind. 2. Anatomie der Unternehmenskultur Untemehmenskulturen sind komplexe, nur schwer fassbare Phänomene; dazu trägt nicht nur die Vielfalt der Orientierungsmuster und Praktiken bei, sondern vor allem der unsichtbare Kern der Aus-
Symbolsystem
g sichtbar, aber interpretation', b e d ü r f t ^
S p r a c h e , Rituale, K l e i d u n g , Umgangsformen
Normen und Standards teils sichtbar, teils unbewusst
M a x i m e n . Richtlinien, Verbote
i
Basis-Annahmen
_
Über: Umweltbezug Wahrheit Menschen
teils sichtbar, teils unbewusst
Menschliches Handeln Soziale Beziehungen
Abb.
I: Kulturebenen (Quelle:
und ihr Schein
Zusammenhang 1984)
801
Unternehmenskultur drucksformen, der immer interpretationsbedürftig bleibt. Ein Versuch, die verschiedenen Elemente einer Kultur zu ordnen und ihre Beziehung zueinander zu klären, ist das in Abbildung 1 gezeigte Modell, das Schein in enger Anlehnung an Kluckhohn/Strodtbeck (1961) entwickelt hat. Um eine Kultur verstehen zu können, muss man sich nach dieser (der Kulturanthropologie entliehenen) Vorstellung, ausgehend von den Oberflächenphänomenen, sukzessive die kulturelle Kernsubstanz in einem Interpretationsprozess erschließen. Wer nur die sichtbaren Ausdrucksformen einer Kultur registriert, hat von der Kultur selbst noch nichts verstanden. a) Basisannahmen Der eigentliche Kern einer Kultur, die unterste Ebene in Abb. 1, besteht nach diesem Modell aus einem Kranz grundlegender Überzeugungen und Vorstellungsmuster, die dem Denken, Fühlen und Handeln in einer Unternehmung Richtung verleihen. Es ist dies die mehr oder weniger selbstverständliche Referenzebene, auf die das organisatorische Handeln gewöhnlich ganz automatisch Bezug nimmt. Diese grundsätzlichen Orientierungspunkte werden in dem Schein'sehen Modell als Basisannahmen bezeichnet, wobei der Begriff "Annahme" eine Außensicht signalisiert, denn die Mitglieder eines Systems begreifen diese Orientierungen als feste Überzeugungen und keineswegs als (fragliche oder erst noch zu validierende Annahme). Nach Kluckhohn und Strodtbeck scheinen in Kulturen als "kulturelle Universalie" generell fünf Grundthemen auf, die im Einzelfall jedoch sehr unterschiedliche Ausprägungen erfahren, so dass dennoch jeweils höchst spezifische Identitäten entstehen: (1) Verhältnis von Unternehmung und Umwelt. Wie wird das Verhältnis von dem Unternehmen gesehen? Hält man die Umwelt für bedrohlich, herausfor802
Unternehmenskultur dernd, bezwingbar, übermächtig usw.? Sieht man die Umwelt als gewissermaßen schicksalhafte Kraft, als Widerfahmis an oder versteht man sie eher als eine beherrschbare Domäne? (2) Wahrheit und Zeit: Jede Unternehmenskultur entwickelt Vorstellungen darüber, wie in Zweifelsfällen bestimmt wird, ob ein Sachverhalt als wahr oder falsch, als real oder fiktiv zu gelten hat. Stützt man sich dabei auf Fakten, auf Autoritäten, die Wissenschaft oder nimmt man eine pragmatische Haltung ein und macht die Entscheidungen über richtig oder falsch von den Ergebnissen eines Versuchs abhängig. Zu den fraglichen Sachverhalten gehören nicht nur Sachfragen, sondern auch moralische Problemstellungen, also Vorstellungen darüber, welche Handlungen als moralisch oder unmoralisch zu qualifizieren sind. Zu diesem Komplex gehört auch die Vorstellung über die Zeit, die in dem System gelebt wird. Folgt man einem zyklischen, einem chronologischen oder erratischen Zeitkonzept? (3) Natur des Menschen: Hierzu gehören die in einem Unternehmen gültigen impliziten "Theorien" über allgemeine menschliche Wesenszüge. Hält man den typischen Mitarbeiter für tendenziell arbeitsscheu, nur durch externe Anreize zur Arbeit zu bewegen, oder sind Mitarbeiter Menschen, die gerne Verantwortung übernehmen und die im Grundsatz Freude an der Arbeit haben? (-» Menschenbilder) (4) Menschliches Handeln: Hierunter fallen insbesondere Vorstellungen über die richtige Art der Lebensbewältigung. Hat man Erfolg nur dann, wenn man aktiv ist, die Dinge selbst in die Hand nimmt oder ist es wichtiger, abzuwarten und sich dem Lauf der Dinge anzupassen? (5) Zwischenmenschliche Beziehungen: Hierzu gehören "Theorien" über die richtige Verteilung von Macht, z.B.
Unternehmenskultur nach Alter, nach Herkunft oder nach Erfolg. Des Weiteren: Welches Grundthema soll den Charakter der zwischenmenschlichen Beziehungen prägen? Wettbewerb oder Kooperation? Teamerfolg oder Einzelerfolg? usw. Diese meist unbewussten und ungeplant entstandenen Basisannahmen stehen in der Regel nicht isoliert nebeneinander; Kulturen entwickeln einen gewissen Drang nach Kohärenz und Konsistenz. Mit anderen Worten, die Basisannahmen formen sich zu einem Muster, einer mehr oder weniger stimmigen Gestalt (Wolf 2000). Wenn man eine Organisationskultur verstehen will, muss man deshalb ausgehend von diesen Basisannahmen versuchen, die Gesamtgestalt, das "Weltbild", zu erfassen. b) Normen und Standards Die Basisannahmen und das sie verbindende Muster finden zu wesentlichen Teilen in Wertvorstellungen und Verhaltensstandards ihren Niederschlag (Ebene 2 in Abb. 1). Konkret formen sie sich in Maximen, ungeschriebene Verhaltensrichtlinien, Verboten usw. aus, wie z.B. "Sei kein Miesmacher!" oder "Keine Behauptung ohne Fakten!". Solche impliziten Ge- und Verbote ("heimliche Spielregeln") wirken oft unmittelbar verhaltenssteuernd im Unterschied zu dem eher mittelbaren Einfluss der Basisannahmen. c) Symbolsystem Die mehr oder weniger unbewussten und unsichtbaren Annahmen und Normen finden schließlich in der expressiven Sphäre (vgl. Abb. 1), der Ebene der Symbole und Zeichen, ihren Niederschlag. Sie haben die Funktion, diesen schwer fassbaren, wenig bewussten Komplex von Annahmen, Interpretationsmustern und Wertvorstellungen nach innen und außen zu kommunizieren und lebendig zu erhalten. Die Symbole und Zeichen stellen den sichtbaren und daher am einfachsten zugänglichen Teil der Unternehmenskultur dar.
Unternehmenskultur Zu den Symbolsystemen gehören vor allem das Erzählen von Geschichten und Legenden (z.B. vom Firmengründer oder anderen wichtigen Ereignissen), Farben, Räume und Zeichen sowie Zeremonien und Riten. 3. Subkulturen Mit der Idee der Untemehmenskultur verknüpft sich - wie oben dargelegt - die Vorstellung einer mehr oder weniger stimmigen Ganzheit eines kohärenten Gebildes. So treffend diese Vorstellung einerseits ist, so muss doch andererseits zugleich zur Kenntnis genommen werden, dass die meisten Unternehmenskulturen "multikulturell" insofern sind, als sie zugleich eine Arena für viele Subkulturen bilden. Subkulturen haben im Grunde die gleichen Merkmale wie Kulturen, sie stehen jedoch mit der übergeordneten Kultur in engem Bezug, grenzen sich deutlich von dieser ab und sind doch Teil von dieser. Sie sind nur unter Bezugnahme auf das Referenzsystem der Hauptkultur verstehbar. Die Grenzbildung der Subkulturen folgt unterschiedlichen Themen, wie z.B. die hierarchische Stellung in der Unternehmung (Arbeiterkultur, Angestelltenkultur, Managerkultur o.ä.) oder die zu erledigende Aufgabe (z.B. Marketingkultur, F&E-Kultur, Buchhaltungskultur). Ferner lassen sich Subkulturen nach ihrer Distanz oder Nähe zur Hauptkultur unterscheiden. Die Skala ist auch hier breit, sie reicht von enthusiastischen Verstärkungskulturen bis zu oppositionellen Gegenkulturen. Gegenkulturen treten fast immer im Zuge von Akquisitionen (-> Unternehmensakquisitionen) und Fusionen (-» Untemehmenszusammenschluss) auf; die integrierte Kultur reagiert regelmäßig durch Betonung ihrer alten Werte und Muster mit dem Ziel zu zeigen, dass die neuen Orientierungsmuster den alten nicht unbedingt überlegen sind.
803
Unternehmenskultur 4. Wirkungen von Unternehmenskulturen Die Wirkungen von Unternehmenskulturen werden primär an sog. starken Kulturen studiert. Von einer starken Unternehmenskultur wird für gewöhnlich gesprochen (vgl. u.a. Schreyögg 1989), wenn die Kultur (1) prägnante Orientierungsmuster vermittelt, (2) wenn sie von vielen Organisationsmitgliedern geteilt wird und (3) wenn die Überzeugungen und Verhaltensmuster tief verankert und nicht nur oberflächlich erworben sind. In der Anfangsphase der Theorieentwicklung hatte man starke Untemehmenskulturen als den unbedingten Schlüsselfaktor flir unternehmerische Spitzenleistungen angesehen (z.B. Peters/Waterman 1984). Zwischenzeitlich ist hinlänglich bekannt, dass starke Unternehmenskulturen jedoch keineswegs nur positive, sondern z.T. auch ausgeprägt negative Wirkungen haben können. Ein eindeutiger kausaler Zusammenhang zwischen Höchstleistung und Stärke der Unternehmenskultur - wie häufig behauptet - lässt sich nicht nachweisen. Die funktionalen Bezüge sind viel differenzierter zu betrachten. Die wichtigsten Wirkungsweisen aus der Sicht des Unternehmens sind im Folgenden überblicksartig zusammengestellt: (1) Positive Effekte starker Unternehmenskulturen • Handlungsorientierung: Starke Unternehmenskulturen erbringen eine weitreichende Orientierungsleistung. Diese ist vor allem dort von großer Bedeutung, wo eine formale Regelung zu kurz greift oder gar nicht greifen kann. Die Orientierungsmuster sind verinnerlicht, es besteht wenig Notwendigkeit, fortwährend ihre Einhaltung zu überprüfen. • Effektive Kommunikation: Starke Kulturen zeichnen sich dadurch aus, dass ihre Teileinheiten, gestützt auf ein homogenes Orientierungsmuster, 804
•
•
Unternehmenskultur untereinander in hohem Maße anschlussfahig sind, gegebenenfalls auch über Landesgrenzen hinweg (Schreyögg 1998). Abstimmungsprozesse gestalten sich dadurch wesentlich einfacher und direkter. Rasche Entscheidungsfindung: Eine gemeinsame Sprache, ein konsistentes Präferenzsystem und eine breit akzeptierte Vision für das Unternehmen lassen relativ rasch zu einer Einigung bei strittigen Sachverhalten oder zumindest zu tragfähigen Kompromissen vorstoßen. Motivation und Teamgeist: Die orientierungsstiftende Kraft der kulturellen Muster lassen eine hohe Bereitschaft entstehen, sich für das Unternehmen zu engagieren und dies auch nach außen hin unmissverständlich zu dokumentieren (-» Motivation, - Management des Wandels). 5. Zur Gestaltbarkeit von Unternehmenskulturen Die erhebliche Wirkungskraft von starken Untemehmenskulturen im positiven wie im negativen Sinne wirft die Frage auf, ob und gegebenenfalls wie die Unternehmenskultur gezielt verändert werden kann. Zu dieser Frage werden in der Literatur äußerst unterschiedliche Positionen bezogen. Während die einen davon ausgehen, dass man Kulturen analog zu anderen -> Führungsinstrumenten einsetzen und planmäßig verändern kann, verweist die Gegenposition darauf, dass sich Unternehmenskultur als eine organisch gewachsene Lebenswelt, als Welt vor dem Begriff, jedem gezielten Herstellungsprozess entzieht. Eine dritte Position lässt sich mit dem Stichwort "Kurskorrektur" (Schein 1985; Schreyögg 1988) umreißen. Sie akzeptiert die Idee des geplanten Wandels im Sinne einer Intervention, als Anstoß zur Veränderung mit einem allerdings nicht genau bestimmbaren Ende. Auf der Basis einer sorgfältigen Rekonstruktion und Kritik der Ist-Kultur sollen Anstöße zu einer Kurskorrektur gegeben werden. Der erste und wichtigste Schritt einer solchen Kurskorrektur ist die Beschreibung und die Bewusstmachung der bestehenden Kultur, in deren Mittelpunkt das Sichtbarmachen der Basisannahmen steht. Nach einer kritischen Reflexion der vergegenwärtigten Kultur, z.B. im Hinblick auf eine neue Strategie oder neue Organisationsformen, können Anstöße zu eben einer "Kurskorrektur" gegeben werden. Dazu gehört vor allem der Verweis auf die problematischen Konsequenzen der traditionellen Orientierungsmuster, die
Unternehmensmitbestimmung Einführung neuer Zeichen und Rituale sowie das exemplarische Vorleben neuer Verhaltensmuster. Aus den dargelegten Gründen ist dagegen prinzipiell nicht möglich, eine vollständige neue Kultur am grünen Tisch zu konstruieren und Schritt für Schritt zu implementieren. Diese Vorstellung ist viel zu mechanistisch und verkennt den Charakter kultureller Beziehungen (Hansen 2000). Literatur: Hansen, K.P.: Kultur und Kulturwissenschaft, 2. Aufl., Tübingen/Basel 2000; Kluckhohn, F.R./Strodtbeck, F.L.: Variations in value orientations, Evanston 1961; Peters, T.J./Waterman, R.M.: Auf der Suche nach Spitzenleistungen, Landsberg/Lech 1984; Schein, E.H.: C o m i n g to a new awareness of organizational culture, in: Sloan Management Review 25, Nr. 2/1984, S. 3 - 1 6 ; Schein, E.H.: Organizational culture and leadership, San Francisco 1985; Schreyögg, G.: Kann und darf man Unternehmenskulturen ändern?, in: Dülfer E. (Hrsg.): Organisationskultur, Stuttgart 1988, S. 155-168; Schreyögg, G.: Zu den problematischen Konsequenzen starker U n t e m e h m e n s kulturen, in: Z f b F , 41. Jg., 1989, S. 9 4 - 1 1 3 ; Schreyögg, G.: Die Bedeutung der Unternehmenskultur für die Integration multinationaler Unternehmen, in: Kuttschker, M. (Hrsg.): Integration in der internationalen Unternehmung, Wiesbaden 1998, S. 2 7 - 5 0 ; Schultz, M.: On studying organizational cultures, Berlin/New York 1995; Trice, H.M./Beyer, J.: The cultures of w o r k organizations, Englewood Cliffs 1993; Weick, K : Sensemaking on organizations, T h o u s a n d Oaks 1995; Wolf, J.: Der Gestaltansatz in der Management- und Organisationslehre, Wiesbaden 2000.
Georg Schreyögg Unternehmensmitbestimmung Die Unternehmensmitbestimmung (wirtschaftliche Mitbestimmung) regelt die Arbeitnehmerbeteiligung im -> Aufsichtsrat von Großbetrieben. Ziel ist eine Kontrolle des unternehmerischen Machtmonopols und eine Demokratisierung der Unternehmen. Die Unternehmensmitbestimmung ist von der betrieblichen Mitbestimmung (-» Betriebsverfassung, Mitwirkungs- und Mitbestimmungsrechte) zu unterscheiden, die im BetriebsverfassungsG vom 23.12.1988 (BGBl. 1989, I, S.l) sowie im Gesetz über die 805
Unternehmensmitbestimmung Sprecherausschüsse der -* leitenden Angestellten vom 20.12.1988 (1988, I, S.2316) geregelt ist. 1. Montan-BestimmungsG 1951 Die (paritätische) Mitbestimmung in Unternehmen des Montanbereichs ist im Gesetz über die Mitbestimmung der -> Arbeitnehmer in den Aufsichtsräten und Vorständen der Unternehmen des Bergbaus und der Eisen und Stahl erzeugenden Industrie (Montan-BestimmungsGesetz) vom 21. Mai 1951 (BGBl. I, S.347) geregelt. Erfasst werden solche Montanunternehmen in der Rechtsform einer -> Aktiengesellschaft, einer -* G m b H oder einer bergrechtlichen Gewerkschaft mit eigener Rechtspersönlichkeit, die in der Regel mehr als 1.000 Arbeitnehmer beschäftigen. Der Aufsichtsrat besteht aus elf Mitgliedern: vier Vertretern der Anteilseigner und ein weiteres Mitglied - sowie vier Vertretern der Arbeitnehmer - und ein weiteres Mitglied - sowie einem zusätzlichen (neutralen) elften Mitglied. Die "weiteren Mitglieder" sowie die/der "neutrale Elfte" dürfen weder Repräsentanten einer Gewerkschaft noch einer Arbeitgebervereinigung oder einer Spitzenorganisation dieser Verbände sein bzw. zu diesen in einem ständigen Dienstoder Geschäftsbesorgungsverhältnis stehen. Sie dürfen auch im letzten Jahr vor der Wahl keine solche Stellung innegehabt haben, in dem Unternehmen als Arbeitnehmer oder Arbeitgeber tätig gewesen bzw. an dem Unternehmen wirtschaftlich interessiert sein. Die Wahl der Aufsichtsratsmitglieder gestaltet sich unterschiedlich. Besonderheiten gelten flir die Wahl des neutralen elften Mitglieds. Die Repräsentanten der Anteilseigner werden durch das zur Wahl von Aufsichtsratsmitgliedern berufene Organ gewählt. Zwei der vier Arbeitnehmervertreter müssen jeweils als Arbeiter und Angestellte im mitbestimmten Unter-
806
Unternehmensmitbestimmung nehmen beschäftigt sein. Ihre Wahl erfolgt durch das Wahlorgan auf Vorschlag der Betriebsräte (-»Betriebsrat) nach Beratung mit den im Betrieb vertretenen Gewerkschaften und deren Spitzenorganisationen. Zur Aufstellung der Vorschläge bilden die Arbeiter- und die Angestelltenmitglieder der Betriebsräte getrennte Wahlkörper, die in geheimer Wahl jeweils ein Mitglied wählen. Dieser Arbeiter- und Angestelltenvorschlag ist vor Weiterleitung an das Wahlorgan innerhalb von zwei Wochen den Spitzenorganisationen der im Unternehmen vertretenen Gewerkschaften zuzuleiten. Jede Spitzenorganisation kann binnen zwei Wochen Einspruch gegen den Wahlvorschlag erheben, sofern der begründete Verdacht besteht, ein Vorgeschlagener biete nicht die Gewähr dafür, zum Wohl des Unternehmens und der gesamten Volkswirtschaft verantwortlich im Aufsichtsrat mitzuarbeiten. Die beiden anderen Arbeitnehmervertreter werden von den Spitzenorganisationen nach vorheriger Beratung mit den im Betrieb vertretenen Gewerkschaften den Betriebsräten vorgeschlagen. Dieses Verfahren gilt ebenso für das "weitere Arbeitnehmermitglied". Alsdann wird nach geheimer Wahl der Betriebsräte auf der Grundlage dieser drei Arbeitnehmervertretervorschläge ein Bewerbervorschlag für das Wahlorgan vorbereitet. Bei der abschließenden Wahl aller fünf Arbeitnehmervertreter ist das Wahlorgan an die Vorschläge der Betriebsräte gebunden. Die Wahl des neutralen elften Mitglieds ("Zünglein an der Waage") erfolgt durch das Wahlorgan auf der Grundlage eines mit Stimmenmehrheit getroffenen Vorschlags der übrigen Aufsichtsratsmitglieder. Der Vorschlag bedarf der Zustimmung von mindestens j e drei Mitgliedern der Anteilseigner- und der Arbeitnehmerseite. Kommt ein solcher Vorschlag nicht zu Stande oder wird die vorgeschlagene Person nicht gewählt, ist ein Vermittlungsausschuss aus vier Mitgliedern (je
Unternehmensmitbestimmung zwei Aufsichtsratsmitgliedern der Anteilseigner- und Arbeitnehmerseite) zu bilden. Der Vermittlungsausschuss hat innerhalb eines Monats dem Wahlorgan einen Drei-Personen-Vorschlag zu unterbreiten. Scheitert eine Wahl auch nach diesem Vermittlungsvorschlag aus wichtigen Gründen, muss die Ablehnung durch förmlichen und begründeten Beschluss festgestellt werden. Auf Antrag des Vermittlungsausschusses kann das zuständige Oberlandesgericht über die "Berechtigung der Ablehnung der Wahl" entscheiden. Bestätigt das Gericht die Ablehnung, so wiederholt sich das Verfahren im Vermittlungsausschuss (zweiter Wahlvorschlag). Scheitert dabei die Aufstellung eines Wahlvorschlags, oder erklärt das Gericht die Ablehnung der Wahl zum zweiten Mal für berechtigt, hat das Wahlorgan von sich aus das weitere Mitglied zu wählen. Erklärt das Oberlandesgericht hingegen die Ablehnung der Wahl für unberechtigt, muss das Wahlorgan einen der Vorgeschlagenen wählen. Dem Vorstand einer dem MontanMitbestimmungsG unterfallenden Aktiengesellschaft bzw. der Geschäftsführung einer entsprechenden GmbH gehört ein Arbeitsdirektor an. Der Arbeitsdirektor wird vom Aufsichtsrat bestellt. Eine Bestellung gegen die Stimmen der Arbeitnehmervertreter im Aufsichtsrat ist aber nicht möglich. Der Gesetzgeber hat wegen der gravierenden Strukturänderungen im Montanbereich mit dem Montan-MitbestimmungsänderungsG vom 21.5.1981 (BGBl. I, S.441) eine Sicherung der MontanMitbestimmung für "Altbetriebe" vorgenommen. Dem Montan-MitbestimmungsG wurde eine Fortgeltungsklausel hinzugefügt: Die Mitbestimmungsvorschriften des Montan-MitbestimmungsG sind bei Wegfall der gesetzlichen Anwendungsvoraussetzungen (Montanunternehmen und Beschäftigtenzahl) nur dann nicht mehr anzuwenden, wenn in
Unternehmensmitbestimmung sechs aufeinanderfolgenden Geschäftsjahren eine der Voraussetzungen nicht mehr vorgelegen hat. Am 23.7.1987 wurde das Gesetz zur Verlängerung von Auslaufzeiten in der Montan-Mitbestimmung (BGBl. I, S.1676) verabschiedet. Damit galt das Montan-MitbestimmungsG bis zum 31.12.1988 fort. Eine dauerhafte Sicherung hat die Montan-Mitbestimmung aber erst mit dem Gesetz zur Änderung des Betriebsverfassungsgesetzes, über Sprecherausschüsse der leitenden Angestellten und zur Sicherung der Montan-Mitbestimmung vom 20.12.1988 (Montan-MitbestimmungsergänzungsG BGBl. I, S.2312) erfahren. Die MontanMitbestimmung gilt nunmehr für Konzerne mit einer Montanquote von mindestens 20% oder in der Regel mehr als 2.000 Arbeitnehmern. Für Unternehmen, die bislang noch nicht der Montan-Mitbestimmung unterlagen, wird eine (erstmalige) Unterwerfung von erheblich restriktiveren Vorgaben abhängig gemacht. Die Holding-Novelle (Gesetz zur Ergänzung des Gesetzes über die Mitbestimmung der Arbeitnehmer in den Aufsichtsräten und Vorständen der Unternehmen des Bergbaus und der Eisen und Stahl erzeugenden Industrie) vom 7.8.1956 (BGBl. I, S.707) erweitert den Anwendungsbereich der paritätischen Mitbestimmung auf Konzernobergeseilschaften, die zwar selbst keine Montanproduktion betreiben und damit nicht der MontanMitbestimmung unterfallen, aber einen Konzern beherrschen, der wesentlich durch dem Montan-MitbestimmungsG unterfallende Tochtergesellschaften geprägt ist. 2. BetrVG 1952 Das BetriebsverfassungsG (BetrVG) vom 11.10.1952 (BGBl. I, S.681), dessen §§76 bis 77a nach § 1 2 9 BetrVG 1972 fortgelten, statuiert eine Drittelbeteiligung der Arbeitnehmervertreter. Das Gesetz erfasst alle Aktiengesellschaften und -» Kommanditgesellschaften auf Aktien 807
Unternehmensmitbestimmung (mit Ausnahme von Familiengesellschaften, die weniger als 500 Arbeitnehmer beschäftigen). Es gilt auch für GmbHs, eingetragene Genossenschaften, bergrechtliche Gewerkschaften mit eigener Rechtspersönlichkeit sowie für Versicherungsvereine auf Gegenseitigkeit, sofern sie mehr als 500 Arbeitnehmer beschäftigen. Nicht erfasst werden Einzelunternehmen und Personenhandelsgesellschaften sowie Tendenzuntemehmen. Diese Gesellschaften müssen einen Aufsichtsrat bilden, der zu einem Drittel aus Arbeitnehmervertretern besteht. Letztere werden von den Arbeitnehmern des Unternehmens ohne Mitwirkung des Wahlorgans der Gesellschaft in den Aufsichtsrat gewählt. Das Prozedere bestimmt sich nach der Durchführungsverordnung 1953 zum BetrVG 1952. Die Arbeitnehmer bleiben nach dem BetrVG 1952 von einer Vertretung in der Unternehmensleitung jedoch ausgeschlossen. 3. MitbestG 1976 Das Gesetz über die Mitbestimmung der Arbeitnehmer vom 4.5.1976 (BGBl. I, S. 1153) verfolgt das Ziel, Arbeitnehmer in Großbetrieben verstärkt an Planungsund Entscheidungsprozessen zu beteiligen. Das Gesetz regelt die Mitbestimmung der Arbeitnehmer in allen Unternehmen, die in der Rechtsform einer Aktiengesellschaft, Kommanditgesellschaft auf Aktien, GmbH, bergrechtlichen Gewerkschaft mit eigener Rechtspersönlichkeit oder Erwerbs- und Wirtschaftsgenossenschaft betrieben werden, sofern sie in der Regel mehr als 2.000 Arbeitnehmer beschäftigen. Es findet keine Anwendung auf Betriebe, die dem Montan-Mitbestimmungsgesetz oder der HoldingNovelle (oben 1.) unterfallen. Auch Tendenzbetriebe werden nicht erfasst. Die Zahl der Aufsichtsratsmitglieder richtet sich nach der Beschäftigtenzahl. Bei weniger als 10.000 Arbeitnehmern besteht der Aufsichtsrat aus jeweils sechs Vertretern der Anteilseigner und der Ar-
808
Unternehmensmitbestimmung beitnehmer (zwischen 10.000 und 20.000 Arbeitnehmern: jeweils acht Vertretern; mehr als 30.000 Arbeitnehmern: jeweils zehn Vertretern). Die Aufsichtsratsmitglieder der Arbeitnehmerseite setzen sich aus Arbeitnehmern des Unternehmens und Vertretern der Gewerkschaften zusammen. Sie werden in Unternehmen mit in der Regel weniger als 8.000 Arbeitnehmern unmittelbar von der Belegschaft gewählt. In größeren Unternehmen erfolgt eine mittelbare Wahl durch Wahlmänner. Letztere werden in getrennter und geheimer Wahl nach dem Verhältniswahlrecht gewählt. Die drei Arbeitnehmergruppen Arbeiter, Angestellte und leitende Angestellte - müssen entsprechend ihrer zahlenmäßigen Repräsentanz im Unternehmen auch im Aufsichtsrat vertreten sein, mindestens aber durch jeweils einen Gruppenvertreter. Der Aufsichtsrat wählt mit Zwei-DrittelMehrheit aus seiner Mitte einen Aufsichtsratsvorsitzenden und dessen Stellvertreter. Kommt im ersten Wahlgang ein entsprechendes Quorum nicht zu Stande, wählen im zweiten Wahlgang die Vertreter der Anteilseigner den Aufsichtsratsvorsitzenden und jene der Arbeitnehmer den Stellvertreter mit der Mehrheit der abgegebenen Stimmen. Für Beschlüsse des Aufsichtsrats gilt das Mehrheitsprinzip. Bei Stimmengleichheit erfolgt eine erneute Abstimmung. Ergibt sich auch dabei Stimmengleichheit, so sind dem Aufsichtsratsvorsitzenden zwei Stimmen eingeräumt. Der Aufsichtsrat wählt die Vorstandsmitglieder mit Zwei-DrittelMehrheit. Kommt diese nicht zu Stande, hat ein Vermittlungsausschuss (aus Aufsichtsratsvorsitzendem, seinem Stellvertreter sowie jeweils einem Vertreter von Anteilseigner- und Arbeitnehmerseite) dem Aufsichtsrat einen Wahlvorschlag zu unterbreiten, der nur der einfachen Mehrheit bedarf. Dem Vorstand gehört als gleichberechtigtes Mitglied ein Arbeitsdirektor an, der durch die Arbeitnehmerseite bestellt wird.
Unternehmensmitbestimmung Das MitbestG 1976 war politisch wie verfassungsrechtlich umstritten. In seinem Urteil vom 1.3.1979 hat das Bundesverfassungsgericht (E 50, 290) entschieden, dass das Gesetz mit dem Grundgesetz vereinbar ist. Literatur: Bracher/Morsey/Schwarz (Hrsg.), Montanmitbestimmung, 1984; Fabricius u.a., Gemeinschaftskommentar zum Mitbestimmungsgesetz (Loseblatt); Fitting/WlotzkeAVissmann, Mitbestimmungsgesetz, Kommentar, 2. Aufl., 1981; Oesterle, Entwicklung und Stand der unternehmerischen Mitbestimmung in Deutschland, Wirtschaftswissenschaftliches Studium 1996, 451; Ring, Unternehmensmitbestimmung, BuW 1995, 281.
Gerhard Ring Unternehmensnetzwerke, Management von Definition von Unternehmensnetzwerken Unternehmen haben normalerweise zahlreiche Geschäftsbeziehungen. Als Geschäftsbeziehungen werden mit Gemünden (1990) "langfristig angelegte, von ökonomischen Zielen geleitete Interaktionsprozesse und Bindungen zwischen Mitgliedern verschiedener Organisationen" verstanden, "die auf eine Folge von Austauschvorgängen gerichtet sind". Geschäftsbeziehungen bestehen u.a. mit Kunden, Zulieferern, Wettbewerbern, Forschungseinrichtungen und Unternehmensberatungen. Die verschiedenen Beziehungen eines Unternehmens sind miteinander verbunden und können sich wechselseitig positiv und negativ beeinflussen. So schließt z.B. ein Exklusivvertrag eines Automobilzulieferers mit einem Pkw-Hersteller die Belieferung anderer Hersteller aus (-> Exklusivvertrieb). Durch diese Verbundenheit von Geschäftsbeziehungen entsteht ein komplexes System aus miteinander interagierenden Unternehmen. In Anlehnung an Sydow (1992) und Ritter (1998) besteht ein interorganisationales Unternehmensnetzwerk aus voneinander rechtlich selbstständigen Organisationen, die durch sich wechselseitig beeinflussende Geschäfts-
Unternehmensnetzwerke, Management v. beziehungen miteinander verbunden sind. Durch die Autonomie der einzelnen Unternehmen ist ein Unternehmensnetzwerk ein heterarchisches und polyzentrisches System (Sydow 1992). In diesem System tauschen die Organisationen Ressourcen (z.B. Produkte, Services, Ideen, Wissen) miteinander aus bzw. machen ihre Ressourcen einander zugänglich. Definition von
Netzwerkmanagement
Als Netzwerkmanagement wird der Bereich des Managements bezeichnet, der sich mit dem Aufbau, der Pflege und Nutzung sowie der Auflösung des interorganisationalen Unternehmensnetzwerks einer Unternehmung beschäftigt. Ziel des Managements von Unternehmensnetzwerken ist die Integration von Leistungsbeiträgen, die intern nicht vorhanden sind bzw. intern nicht oder nur ineffizient erbracht werden können, jedoch bei der Erstellung der Unternehmensleistung benötigt werden. Zur Erfüllung dieses Zieles sind einerseits spezielle Aufgaben des Netzwerkmanagements zu erfüllen. Andererseits müssen spezifische Qualifikationen im Unternehmen vorhanden sein. Aufgaben des Netzwerkmanagements Aus der Definition von Untemehmensnetzwerken geht hervor, dass zwei Bereiche unterschieden werden können und müssen. Einerseits gilt es, die einzelnen Geschäftsbeziehungen, welche ein Unternehmen mit den anderen Unternehmen verbindet, beziehungsspezifisch zu gestalten. Zusätzlich bedarf es aber auch eines beziehungsübergreifenden Managements, um der Verbundenheit der einzelnen Beziehungen und der Komplexität des Systems gerecht zu werden. Im Hinblick auf die Pflege und Gestaltung einzelner Geschäftsbeziehungen (beziehungsspezifische Aufgaben) wurden bereits verschiedene Aufgabenbündel vorgeschlagen und analysiert, welche zu 809
Unternehmensnetzwerke, Management v. den folgenden drei Bereichen zusammengefasst werden können: •
Anbahnung von Geschäftsbeziehungen. Geschäftsbeziehungen entstehen nicht von allein, sie sind das Ergebnis von beziehungsspezifischen Investitionen. Wechselnde Umweltbedingungen machen die Anbahnung neuer Beziehungen unvermeidbar, um das bestehende Unternehmensnetzwerk auf neue Anforderungen vorzubereiten bzw. um auf Veränderungen zu reagieren. Somit ist die Anbahnung als Daueraufgabe und nicht als einmalige Aktion zu verstehen. • Austausch in Geschäftsbeziehungen. Der Austausch von Produkten (physische Produkte sowie Dienstleistungen), Informationen, Know-how, finanziellen Mitteln, Personal etc. ist ein zentraler, ja sogar definitorischer Bestandteil einer Geschäftsbeziehung. Hierbei findet neben dem leistungsbezogenen Austausch (Anforderungen und Bedürfnisse der beteiligten Unternehmen hinsichtlich der Leistung) meist auch ein personenbezogener und unternehmensbezogener Austausch statt (Helfert 1998; Ritter 1998). Das bedeutet, dass personenspezifische Informationen über Anforderungen, Bedürfnisse, Vorlieben und Abneigungen sowie untemehmensspezifische Informationen über Strategien, Kultur und Organisationsstruktur zwischen Unternehmen ausgetauscht werden. • Koordination in Geschäftsbeziehungen. Normalerweise haben beide Organisationen unterschiedliche Voraussetzungen und Ziele, die mit der Zusammenarbeit verbunden werden. Nur durch Koordination der einzelnen Positionen können diese Unterschiede aufeinander abgestimmt werden. Hierbei geht es nicht darum, dass beide Organisationen gleich gemacht werden sollen. Die Aktivitäten müssen jedoch in Einklang gebracht werden, um eine 810
Unternehmensnetzwerke, Management v. Basis für die Zusammenarbeit zu schaffen. Bei der Unterteilung der beziehungsübergreifenden Aufgaben wird auf die Unterteilung der allgemeinen Managementliteratur aufgebaut. Die folgenden vier unternehmensinternen Aufgabenbereiche werden unterschieden: •
•
•
•
Planung im Netzwerkmanagement. Ziel der Planung ist, einen erstrebenswerten Zustand zu definieren, Handlungsoptionen zu entwickeln und unter diesen auszuwählen. Ein solcher Prozess setzt unternehmensinterne, netzwerkspezifische und umweltspezifische Analysen voraus. Organisation im Netzwerkmanagement. Die Ergebnisse der Planung bedürfen der Umsetzung. Hierfür ist ein entsprechender Handlungsrahmen zu schaffen. Außerdem ist festzulegen, in welchem Ausmaß sich das Unternehmen den Anforderungen anderer Unternehmen anpassen möchte und muss, da diese Festlegung Implikationen für die unternehmensinterne Ressourcenzuteilung sowie die Gestaltung des Unternehmensnetzwerks hat. Personaleinsatz und -führung im Netzwerkmanagement. Innerhalb des geschaffenen Handlungsrahmens sind im Regelfall Stellen zu besetzen, um den Plan in die Realität umzusetzen. Es gilt, Zuständigkeiten einzelner Mitarbeiter festzulegen. Neben dem Personaleinsatz kommt der Koordination, Steuerung und Motivation der verschiedenen Mitarbeiter große Bedeutung zu. Kontrolle im Netzwerkmanagement. Kontrolle ist als eine Axt Zwillingsfunktion zu sehen, da diese Aufgabe den Abschluss und gleichzeitig auch den Anfangspunkt der Managementaufgaben darstellt bzw. prozessbegleitend allgegenwärtig ist. Unternehmensinterne Kontrollkriterien sind z.B. das Engagement der Mitarbeiter in den Beziehungen und die Qualität
Unternehmensnetzwerke, Management v. der Kommunikation zwischen den Mitarbeitern. Bezogen auf das Netzwerk können die Entwicklungen der Beziehungen (z.B. durch Partnerbewertungen) und die Leistungsfähigkeit des gesamten Netzwerks mit den in der Planung bestimmten Zielwerten verglichen werden. Das Zusammenspiel zwischen den beziehungsübergreifenden und den beziehungsspezifischen Aufgaben des Netzwerkmanagements ist vielfaltiger Natur. Die Erfüllung der beziehungsübergreifenden Aufgaben gibt den Rahmen vor, in den sich das Management der einzelnen Beziehungen einfügen muss; das Beziehungsmanagement setzt die Vorgaben um und bringt neue Impulse in das Unternehmen hinein, die wiederum in das Netzwerkmanagement im Sinne einer Querschnittsfunktion Eingang finden. Von besonderer Bedeutung ist, dass beide nur im Verbund ihr Potenzial vollständig entfalten können. Qualifikationen für das Netzwerkmanagement Das Netzwerkmanagement stützt sich nicht nur auf die Erfüllung der Aufgaben, sondern auch auf spezifische Qualifikationen, die im Unternehmen vorhanden sein müssen. Hierbei können fachliche und soziale Qualifikationen unterschieden werden. Fachliche Qualifikationen umfassen fachtechnische Fähigkeiten (z.B. über Technologien der Produkte und Produktionsverfahren), kaufmännische Fähigkeiten (z.B. über Preise und Kosten für den Waren- und Dienstleistungstransfer) und juristische Fähigkeiten (z.B. über Vertragsrecht). Des Weiteren sind Netzwerkund Erfahrungswissen als fachliche Qualifikationen zu verstehen. Soziale Qualifikationen umschreiben "das Ausmaß, in dem ein Mensch fähig ist, im privaten, beruflichen und gesamtgesellschaftlichen Kontext selbstständig, umsichtig und nutzbringend zu handeln"
Unternehmensnetzwerke, Management v. (Faix/Laier 1996). Diese Gruppe von Qualifikationen umfasst Fähigkeiten z.B. zur Mitteilung eigener Anforderungen und Bedürfnisse, zum Verstehen von Anforderungen und Bedürfnissen anderer, zur freiwilligen und selbstständigen Kontaktaufnahme, zur Konfliktlösung. Ausmaß der Netzwerk-Kompetenz eines Unternehmens Aufgaben und Qualifikationen können als Netzwerk-Kompetenz eines Unternehmens vereinigt werden (vgl. Ritter 1998): "Als Netzwerk-Kompetenz eines Unternehmens wird das Ausmaß der Erfüllung der Aufgaben des Netzwerkmanagements und das Ausmaß der Qualifikationen der beteiligten Mitarbeiter für das Netzwerkmanagement definiert". Kompetenz wird somit definiert als die Fähigkeit eines Unternehmens zur Erreichung spezifischer Ziele und ist eine unternehmensspezifische Eigenschaft. Die Bedeutung der Zusammenfiihrung der Aufgabenerfüllung und der Qualifikationen kann anhand der folgenden beiden Punkte erläutert werden: •
•
Nur bei einem gleichzeitigen Auftreten beider Dimensionen kann von Kompetenz gesprochen werden ("die richtigen Dinge richtig tun"), da bei unqualifizierter Aufgabenerfullung bestenfalls von aktiven Personen oder Organisationen gesprochen werden kann und bei Nichterfüllung der Aufgaben niemand die Qualifikationen wahrnehmen bzw. nutzen kann. Somit sind für eine Einschätzung von Kompetenz immer beide Dimensionen zu betrachten. Beide Dimensionen beeinflussen sich wechselseitig. Aufgaben können nur dann durchgeführt werden, wenn deren Notwendigkeit erkannt wird und auch entsprechende Lösungen bekannt sind. Somit sind Qualifikationen notwendige Voraussetzungen für die Erfüllung von (Teil-) Aufgaben. In umgekehrter Richtung werden durch die 811
Unternehmensnetzwerke, Management v. Aufgabenerfüllung Qualifikationen geschaffen, weiterentwickelt bzw. verbessert ("learning by doing"). Somit kann die Erfüllung von Aufgaben auch als Voraussetzung für (Teil-) Qualifikationen angesehen werden. Realisierbarkeit und Realisierung des Netzwerkmanagements Beim Management der Unternehmensnetzwerke ist zu beachten, dass interorganisationale Zusammenarbeit immer von den Aktivitäten der anderen Unternehmen abhängig ist und sich somit der vollständigen Kontrolle eines einzigen Unternehmens entzieht. Es gilt, eine Balance zwischen Beeinflussung und Beeinflusstwerden zu halten. Der Nutzung der Potenziale von Geschäftsbeziehungen stehen oftmals erhebliche Barrieren entgegen. Diese Austauschbarrieren können nur durch aktives Management überwunden werden, wobei die Pflege und Gestaltung von Geschäftsbeziehungen eine Aufgabe darstellt, die üblicherweise in der unternehmerischen Praxis von mehreren Personen aus unterschiedlichen Abteilungen und Hierarchieebenen im Unternehmen durchgeführt wird (Gemünden, Walter & Helfert 1996; Helfert 1998). Mit Untemehmensnetzwerken sind auch Risiken verbunden. Als Risiken werden z.B. hohe Kosten der Kommunikation und Koordination, insbesondere bei internationalen Beziehungen, der mit der Zusammenarbeit verbundene Verlust von exklusivem Know-how sowie Identifikations- und Motivationsprobleme der Mitarbeiter genannt (Heydebreck 1996). Literatur: Faix, W . G . / L a i e r , A.: Soziale Kompetenz, W i e s b a d e n 1996; G e m ü n d e n , H . G . : Innovationen in G e s c h ä f t s b e z i e h u n g e n und Netzwerken. A r b e i t s p a p i e r d e s Institutes f ü r A n g e w a n d t e Betriebswirtschaftslehre und Unternehmensfiihrung der Universität Karlsruhe ( T H ) , K a r l s r u h e 1990; G e m ü n d e n , H . G . / W a l t e r , A . / H e l f e r t G.: Grenzü b e r s c h r e i t e n d e G e s c h ä f t s b e z i e h u n g e n - Erfolgsfaktoren u n d G e s t a l t u n g s e m p f e h l u n g e n f ü r kleinere und mittlere U n t e r n e h m e n , M ü n s t e r 1996; Helfert, G . : T e a m s in R e l a t i o n s h i p Marketing,
812
Unternehmensspaltung Wiesbaden 1998; Heydebreck, P.: Technologische Verflechtung: ein Instrument z u m Erreichen von Produkt- und Prozessinnovationserfolg, Frankfurt a.M. 1996; Ritter, T.: Innovationserfolg durch Netzwerk-Kompetenz: Effektives Management v o n Untemehmensnetzwerken, Wiesbaden 1998; Sydow, J.: Strategische Netzwerke: Evolution und Organisation, Wiesbaden 1992.
Hans Georg Gemünden/Thomas Ritter Unternehmensplanung (personell) ->Personalplanung Unternehmensspaltung Unternehmensspaltungen treten auf, wenn Teilbereiche eines (integrierten) Unternehmens aus dem Untemehmensverbund gelöst werden. Als Maßnahme der Desintegration bzw. Desinvestition (Divestitures) bilden Unternehmensspaltungen gemeinsam mit Käufen und Fusionen (Mergers and Acquisitions) ein wesentliches Instrument zur Neuformierung des Unternehmensaufbaus im Rahmen der -> Restrukturierung von Unternehmen. Die Spaltung von Unternehmen kann nach deutschem Recht (Umwandlungsgesetz von 1995) auf drei Arten erfolgen: •
Aufspaltung: Die alte Gesellschaft erlischt, die Teilbereiche bilden neue, unabhängige Gesellschaften. Das gesamte Vermögen wird auf die neuen Teilgesellschaften verteilt. Die Eigentümer (Aktionäre) der alten Gesellschaft werden unmittelbare Eigentümer der Teilgesellschaften.
•
Abspaltung: Teile des Vermögens gehen auf die neuen Gesellschaften über, an denen die Eigentümer unmittelbar beteiligt werden. Die alte Gesellschaft bleibt als Rumpfgesellschaft erhalten, hat aber keine Verfügungsrechte mehr an den abgespaltenen Unternehmensteilen.
•
Ausgliederung: Teile des Vermögens werden auf eine neue Gesellschaft übertragen. Die alte Gesellschaft behält die Anteile an der neuen, wird also zur Muttergesellschaft in einem
Unternehmensspaltung
Unternehmensspaltung
ihr jeweiliges Kerngeschäft zu konzentrieren, ohne auf die strategischen Bedürfnisse von Untemehmensbereichen aus anderen Branchen Rücksicht nehmen zu müssen. Der Kapitalmarkt honoriert in der Regel die -> Fokussierung eines Unternehmens auf seine -»Kemkompetenzen. So kann die Spaltung eines Unternehmens zur Wertsteigerung beitragen. Unternehmensspaltungen sind damit ein Instrument, um in einem diversifizierten Unternehmen die fokussierten Geschäftsbereiche in die Selbstständigkeit zu entlassen und damit eine Wertsteigerung für die Summe aller Geschäftsbereiche zu bewirken.
neugeschaffenen Konzern. Mit Hilfe der Ausgliederung lassen sich integrierte Unternehmen umwandeln in eine Management-Holding. Das Umwandlungsgesetz von 1995 ermöglicht die Spaltung von Unternehmen im Rahmen der Gesamtrechtsnachfolge. Bis dahin musste in Deutschland der komplizierte Weg der Einzelrechtsnachfolge gegangen werden, bei dem jedes Wirtschaftsgut einzeln auf den neuen Eigentümer übertragen wurde. Im angelsächsischen Raum wird dagegen nur unterschieden nach: • •
•
Sell-offs: Verkauf eines Unternehmensteils an einen externen Investor. Spin-off. Abspaltung eines Unternehmensteils, der unabhängig geführt wird. Die Eigentümer des alten Unternehmens werden proportional am abgespaltenen Unternehmen beteiligt. Equity Carve-out: Teile des Unternehmens werden abgespalten und im Rahmen einer Neuemission (-> Initial Public Offering, IPO) an die -> Börse gebracht.
Dies gelingt allerdings nicht, wenn das Gesamtunternehmen mehr wert ist als die Summe seiner Teile: Eine Unternehmensspaltung ist also nur dann sinnvoll, wenn keine Synergien (-> Synergiemanagement) zwischen den Geschäftsbereichen auftreten. •
Aktionäre eines breit diversifizierten, integrierten Unternehmens sind an Geschäftsbereichen aus mehreren Branchen beteiligt. Sie können sich nicht aussuchen, in welche Branche sie investieren wollen und in welche nicht. Die Spaltung eines Unternehmens gibt den Investoren die Auswahl, sich ihr Branchenportfolio je nach Einschätzung der Chancen und Risiken für jeden Bereich selbst zusammenzustellen. So gelingt es den einzelnen Teilbereichen, die "optimalen Eigner" als Aktionäre zu gewinnen, deren Rendite-Risiko-Abwägungen den Schwankungen der jeweiligen Branche entsprechen.
•
Die Transparenz gegenüber den Eignern und dem Kapitalmarkt erhöht sich. Jeder Teilbereich veröffentlicht seinen eigenen Jahresabschluss und wird unabhängig vom Kapitalmarkt bewertet. Die Zukunftsaussichten und die Ausstattung wird für jeden Bereich einzeln dargelegt und bewertet.
Unternehmen spalten sich aus mehreren möglichen Motiven: •
•
Spaltungen teilen das Unternehmen in kleinere Einheiten auf, die besser zu überschauen und leichter zu führen sind. Hierarchie-Ebenen können verringert werden, die neuen Unternehmen sind potenziell beweglicher und können schneller auf neue Marktanforderungen reagieren. Während in Großunternehmen bürokratische Regelungen nötig sind, um die Abläufe zu lenken, können kleinere Einheiten flexibler auf Kundenbedürfnisse eingehen und sich am Markt orientieren. Nach gängiger Auffassung sollten sich Unternehmen auf die Geschäfte beschränken, die sie am besten verstehen. Die Unternehmensspaltung ermöglicht es den einzelnen Teilbereichen, sich unabhängig voneinander auf
813
Linternehmensspaltung •
•
•
In Folge der Trennung der Geschäftsbereiche wird es unmöglich, mit Hilfe von Quersubventionen Geschäftsbereiche mitzuziehen, die auf sich gestellt nicht überlebensfähig sind. Für die selbstständigen Unternehmen erhöht sich die Schwankungsbreite der Ergebnisse, weil kein unternehmensinterner Ausgleich zwischen erfolgreichen und weniger erfolgreichen Bereichen vorgenommen werden kann: Das erhöht das Konkursrisiko für jeden Bereich, zugleich aber auch die Gewinnchancen. Die Gewissheit der Anleger, dass die Gewinne aus profitablen Einheiten nicht zur Unterstützung anderer, notleidender Geschäftsbereiche verwendet werden kann, stärkt das Vertrauen der Investoren und damit den Wert der gewinnträchtigen Bereiche. Die Unternehmensspaltung liefert dem Unternehmen und seinen Anlegern Klarheit darüber, welcher Bereich im Markt bestehen kann und welcher nicht. Die Transparenz gegenüber dem Management erhöht sich. Erfolge und Misserfolge des Unternehmens lassen sich klar zurechnen. Entsprechend kann man die Unternehmensleitung am Erfolg ihres Bereichs beteiligen und so gewährleisten, dass das Management nicht gegen die Interessen der Anteilseigner handelt. Für unabhängige Unternehmen lassen sich Aktienpläne für das Top-Management auflegen, denn die Leistungsfähigkeit des Bereichs spiegelt sich in seinem Aktienkurs wieder. In integrierten Unternehmen ist es dagegen schwieriger, die Bereichsleiter unmittelbar für den Erfolg oder Misserfolg des Gesamtunternehmens verantwortlich zu machen, da die Bereichsergebnisse durch interne Quersubventionen und die bilanziellen Bewertungsspielräume des Gesamtunternehmens verzerrt werden. Die ment
814
Motivation für das Managewird erhöht. Für einen Be-
Unternehmensspaltung reichsleiter ist es in der Regel verlockender, Chef eines unabhängigen, vergleichsweise kleinen Unternehmens zu sein als Bereichsleiter eines integrierten, großen Unternehmens. So lassen sich durch Unternehmensspaltungen einerseits Hierarchie-Ebenen abbauen und gleichzeitig Bereichsmanager zu Unternehmensleitern befördern. Kleinere und flexiblere Einheiten können sich in der Regel nicht nur den Marktgegebenheiten besser anpassen und sich an den Kundenwünschen orientieren, sie bieten auch einen geeigneten Rahmen, der für Innovationen (-> Innovationsmanagement) und Kreativität (-» Kreativitätstechniken) die richtige Atmosphäre liefert. Kreative Mitarbeiter suchen zum einen Freiräume, um fern von hierarchischen Regeln forschen und entwickeln zu können. Zum anderen erwarten etwa hochqualifizierte Entwicklungsingenieure, dass ihre Tätigkeit auch materiell angemessen entlohnt wird. Stark hierarchische Großunternehmen mit ihren zementierten Regelungen und strikt schematisierten Beförderungs- und Entlohnungssystemen können innovativ arbeitenden Mitarbeitern hier zu wenig Anreize bieten. Daher werden in der Praxis hochinnovative Einheiten gern auch im Rahmen eines Venture-Spin-off vom integrierten Unternehmen getrennt und als selbstständige Einheit geführt. Die Unternehmensspaltung hat sich im Rahmen der Restrukturierung von Großunternehmen als erfolgversprechendes Instrument bewährt. Als Beispiele sind zu nennen: Die Neuemission des Halbleiterbereiches Infineon und des BauelementeHerstellers Epcos durch die Siemens AG in 1999, die Abspaltung des Chemiebereichs Celanese durch die Hoechst AG in 1998 und die Aufteilung des einstigen US-Telefon-Monopolisten A T&T in 1995. Unternehmen neigen auch dann zu Spal-
Unternehmensspaltung
Unternehmenswert
tung, wenn einzelne Bereiche im Rahmen einer Fusion nicht mehr ins neue strategische Konzept passen. So hat die Schweizer Ciba-Geigy ihre Spezialchemie-Sparte abgespaltet, bevor die Fusion mit Sandoz zum neuen Unternehmen Novartis vollzogen worden ist. Der Erfolg von Unternehmensspaltungen lässt sich - ähnlich wie bei Fusionen nur grob schätzen, da das ursprüngliche Unternehmen ja in seiner alten Form nicht mehr existiert und daher als Vergleichsmaßstab ausfällt. Empirische Studien haben aber ergeben, dass Spaltungen dann im Markt erfolgreich sind, wenn Geschäftsbereiche abgetrennt werden, die mit dem Geschäft des Ursprungsunternehmens nur wenig zu tun haben (unrelated business units). Im Zuge der Orientierung an Aktionärsinteressen (-+ Shareholder Value) steht zu erwarten, dass Unternehmensspaltungen als Restrukturierungsinstrument auch in Zukunft eine bedeutende Rolle spielen werden. Jörg Digmayer Unternehmenswert 1. Grundlagen Der Unternehmenswert ist für Kauf- und Verkaufsentscheidungen, -> Verschmelzungen, Einbringungen von Unternehmen, Abfindungen von Gesellschaftern, Börsengänge u.a.m. zu berechnen. Als Bewertungsmethoden stehen Gesamtbewertungsverfahren (Ertragswert, Discounted CF-Methoden), Einzelbewertungsverfahren (Liquidationswert, Substanzwert), Mischverfahren (aus Substanz- und Ertragswert) und marktorientierte Überschlagsrechnungen (z.B. mit Gewinnmultiplikatoren) zur Verfugung (Zum Überblick: Moxter 1983). Das Bewertungsproblem resultiert daraus, dass es (1)
keinen liquiden Markt fur Unternehmen oder wesentliche Beteiligungen gibt und
(2)
selbst bei Existenz eines solchen Marktes die Marktpreise auf ihre Relevanz eingeschätzt werden müssen.
Es gibt selbst wenig Sinn, die Börsenkapitalisierung (Zahl der Aktien mal Aktienkurs) als Unternehmenswert anzusehen, weil an der -> Börse nur einzelne -> Aktien gehandelt werden, deren Kurse nicht nur auf Fundamentaldaten zurückgehen, und für Aktienpakete i.A. Paketzuschläge existieren. Empirisch bestätigte Paketzuschläge lassen sich angesichts der geringen Zahl börsennotierter Gesellschaften in Deutschland und aufgrund geringer Transaktionszahlen nicht zuverlässig erheben und wären selbst bei Vorhandensein auf ihre Eignung für zukünftige Transaktionen erst noch zu überprüfen. 2. Gesamtbewertungsverfahren Gesamtbewertungsverfahren dienen zur Bewertung sämtlicher finanzieller Vorteile aus dem Untemehmenseigentum. Bei der Ertragswertmethode werden die den Eigentümern in Zukunft erwartungsgemäß zufließenden Vorteile im Sinne von Ausschüttungen, Dividenden, Entnahmen, Körperschaftsteuergutschriften, Veräußerungserlösen prognostiziert und auf den Bewertungsstichtag abgezinst. Die Erträge sind keine GuV-Größen, sondern Mittelzuflüsse beim Eigentümer. Da sie unsicher sind, können sie nur als Wahrscheinlichkeitsverteilungen oder Bandbreiten geschätzt werden, die anschließend auf stellvertretende Größen reduziert werden müssen. Während theoretisch das Sicherheitsäquivalent der richtige Stellvertreterwert für eine Wahrscheinlichkeitsverteilung ist, reduziert man die Verteilung in praxi eher auf den Erwartungswert. Die periodenbezogenen Erwartungswerte sind mit einem risikoangepassten Zinsfuß abzuzinsen. Er ergibt sich aus dem quasisicheren landesüblichen Zinsfuß, der als Umlaufrendite von Staatsanleihen gemessen wird, und einem Risikozuschlag, der das Geschäfts- und
815
Unternehmenswert Finanzierungsrisiko des zu bewertenden Unternehmens erfasst. Zur Bemessung des Risikozuschlags lässt sich möglicherweise das -> Capital Asset Pricing Model (CAPM) verwenden, auch wenn seine Voraussetzungen in praxi nicht erfüllt sind. Sofern der Zinsfuß zugleich um einen Wachstumsabschlag reduziert wird, unterstellt man Erträge, die mit konstanter Rate in Höhe des Abschlagsatzes unendlich lange wachsen. Da die Ertragsprognose theoretisch unendlich lange vorzunehmen ist, aber die Prognosemöglichkeit ab einem bestimmten Zeitpunkt immer schwieriger wird, hilft man sich mit Phasenmodellen, bei denen in der ersten Phase die Erträge periodengenau geschätzt werden, während man für die zweite Phase von vereinfachenden Annahmen (wie unendlich lange anfallende Rente oder unendlich lange wachsende Erträge) ausgeht. Die Vorteilsströme der Eigentümer und der Kalkulationszinsfuß sind um persönliche Steuern zu mindern. Man kann nicht davon ausgehen, dass sich der Besteuerungseffekt im Zähler und Nenner der Barwertformel (-» Barwert) aufhebt. Dies wäre nur im unendlichen Rentenmodell bei Sicherheit der Fall. Diese Bedingungen sind in praxi nicht gegeben. Die Discounted Cash-ßow-Methoden sind wie die Ertragswertmethode Barwertverfahren, unterscheiden sich aber mit Ausnahme des Equity-Discounted CF in der Rechentechnik und fuhren u.U. zu anderen Werten. 3. Einzelbewertungsverfahren Einzelbewertungsverfahren knüpfen an die -> Bilanz und das Inventar statt an die Vorteilsströme der Eigentümer an. Der Unternehmenswert ergibt sich, indem die Vermögensgegenstände und Schulden einzeln bewertet und die Werte saldiert werden. Beim Liquidationswert unterstellt man die Unternehmenszerschlagung. Dementsprechend sind Vermögensgegenstände mit Einzelzerschlagungswerten 816
Unternehmenswert und Schulden mit Ablösebeträgen am Bewertungsstichtag anzusetzen. Der Liquidationswert ist dem Fortführungswert i.S.d. Ertragswerts oder Discounted CF gegenüberzustellen, weil der höhere von beiden entscheidend ist, wenn die Zerschlagung möglich ist. Beim Substanzwert geht man von der Rekonstruktion eines Unternehmens aus (Nachbau auf der grünen Wiese). Man zerlegt dessen Vermögensgegenstände in betriebsnotwendige und nicht betriebsnotwendige. Die betriebsnotwendigen werden mit Wiederbeschaffungskosten (für den gebrauchten Gegenstand), die nicht betriebsnotwendigen mit Veräußerungspreisen bewertet. Von der Summe der Werte zieht man die Schulden ab. Da man bei Unternehmenserwerb die Nachbaukosten spart, hält man diese für die Bestimmung des Unternehmenswerts für relevant. Die Überlegung ist falsch, wenn das Unternehmen in der bestehenden Struktur nicht nachgebaut werden würde und wenn es selbst geschaffenen (originären) Geschäftswert, z.B. aufgrund von Standortvorteilen, Belegschaftsqualität, Markennamen (-> Brand Equity), hat. Der originäre Geschäftswelt bestimmt ebenfalls die Vorteilsströme, die nachzubauen sind, kann aber bilanziell nicht erfasst werden. Da originärer Geschäftswert üblicherweise vorliegt, ist der Substanzwert irrelevant. 4. Mischverfahren Aus der Irrelevanz des Substanzwertes resultiert die Irrelevanz der Mischverfahren, die auf ihm aufbauen. Hierzu zählen das Mittelwertverfahren, nach dem sich der Untemehmenswert als arithmetisches Mittel aus Substanz- und Ertragswert ergibt, oder diverse Übergewinnverfahren, zu denen das steuerlich bekannte Stuttgarter Verfahren gehört. Nach ihm ergibt sich der Unternehmenswert zu rd. 2/3 aus dem Substanzwert und zu rd. 1/3 aus dem (besonders zu ermittelnden) Ertragswert.
Unternehmenswert 5. Multiplikatormethoden Bei Börsengängen, aber auch bei der Bewertung von Miethäusern, Apotheken oder Kanzleien von Dienstleistern sind Multiplikatormethoden beliebt. Danach ergibt sich der Untemehmenswert als aus vergangenen Transaktionen beobachtetes Vielfaches einer geeigneten Bezugsgröße. Die Transaktionen können sich auf das zu bewertende Unternehmen selbst oder auf dem zu bewertenden Unternehmen möglichst ähnliche Unternehmen beziehen. Die Ähnlichkeit wird anhand Branchenzugehörigkeit, Größe, Eigentumsverhältnisse, Wachstumschancen usf. geprüft. Geeignete Bezugsgrößen werden im Umsatz, Mietrohertrag (Kaltmiete pro qm x qm), Mietreinertrag (Mietrohertrag abzgl. Bewirtschaftungskosten), Gewinn, Gewinn vor Steuern (EBT), Gewinn vor Zinsen und Steuern (EBIT, EBIT und EB1TDA) oder Gewinn vor Abschreibungen, Zinsen und Steuern (EBITDA, -> EBIT und EBITDA) gesehen. Mit dem EBITDA will man eine unterschiedliche Altersstruktur von abnutzbarem Anlagevermögen, unterschiedliche Abschreibungspolitik, unterschiedliche Kapitalstruktur und aperiodische oder latente Steuern im Vergleich von Unternehmen untereinander eliminieren. Probleme der Multiplikatoren sind das Auffinden möglichst ähnlicher Unternehmen, da sich die Ähnlichkeit auf die Vorteilsströme und deren Risikogehalt beziehen muss, der Umfang, die Repräsentativität und Stabilität der Marktdaten und die Akzeptanz von Preisen als Wert. Es ist nicht erkennbar, wie man bei Unternehmen, deren Wert stark durch die Geschäftspolitik des Eigentümers geprägt wird, durch einfache Übernahme von Transaktionspreisen anderer Unternehmen zu einem geeigneten Wert kommen kann. Multiplikatoren helfen zum Argumentieren, nicht zum Bewerten. Literatur: Moxter, A., Grundsätze ordnungsmäßiger Unternehmensbewertung, 2. Aufl., Wiesbaden 1983; Mandl, G./Rabel, K., Untemehmensbewer-
Unternehmenszentrale tung, Wien/Frankfurt 1997; Drukarczyk, J. (unter Mitarbeit v. B. Schwetzler), Unternehmensbewertung, 2. Aufl., München 1998; Ballwieser, W., Methoden der Unternehmensbewertung, in: Gebhardt, G./Gerke, W./Steiner, M. (Hrsg.): Handbuch des Finanzmanagements, München 1993, S. 151-176.
Wolfgang Ballwieser Unternehmenszentrale 1. Begriffliche Abgrenzung Die Unternehmenszentrale ist das Führungsorgan eines -> Konzems, das die einheitliche wirtschaftliche Führung gewährleistet. Unternehmenszentralen können unterschiedlich gestaltet sein und unterschiedliche Aufgaben wahrnehmen. Wie sie gestaltet sind und welche Aufgaben sie wahrnehmen richtet sich zum einen nach der Führungsrolle, zum anderen nach der Organisation der Zentrale. 2. Die Führungsrolle Durch die Führungsrolle wird der Führungsanspruch der Konzemzentrale gegenüber den Geschäftsbereichen definiert. Es lassen sich drei idealtypische Führungsrollen, die Operative Holding, die Strategie Holding (s.a. Management Holding) und die Finanz Holding, unterscheiden. Eine Operative Holding ist dann sinnvoll, wenn sowohl strategische als auch operative Aufgaben auf Konzernebene gelöst werden müssen. Dies bietet sich vor allem an, wenn die Geschäftsfelder eines Konzerns relativ homogen sind. Im Falle einer Strategie Holding werden nur noch strategische Entscheidungen auf Konzernebene gefallt, operative bereits auf Geschäftsfeldebene (Management-Holding). Eine derartige Entscheidungsfindung ist zweckmäßig, wenn nur geringe Wechselwirkungen zwischen den Geschäftsfeldern vorhanden sind und sich diese verhältnismäßig unabhängig von der Konzernzentrale entwickelt haben. Sind jedoch die Märkte und Kunden in den verschiedenen Geschäftsfeldern sehr unterschiedlich und die Managementkompetenz deshalb auf der Geschäftsfeldebene 817
Unternehmenszentrale zu sehen, sollten strategische und operative Entscheidungen auf der Geschäftsfeldebene getroffen werden. In diesem Fall spricht man von einer Finanz Holding. In der Zentrale verbleibt dann nur noch die finanzielle Führung. Allerdings herrschen in der Praxis statt der Idealtypen meist Mischformen vor. 3. Organisation der Zentrale Die Wahl der Führungsrolle der Konzernzentrale beeinflusst auch wesentlich ihre Organisation. Die Gestaltung der Führungsorganisation umfasst zwei Teilaspekte, nämlich die Führungsorganisation der Konzernzentrale und die fuhrungsorganisatorische Verknüpfung von Konzernzentrale und Konzernbereichen. Die Führungsorganisation der Zentrale legt fest, wie das Führungsgremium organisiert ist (quantitative und qualitative Arbeitsteilung), die Zentralbereiche institutionalisiert sind (Art der in einem Zentralbereich gebündelten Aufgaben und Stellung des Zentralbereichs gegenüber den Konzernbereichen) und die Konzernzentrale abhängig von der Internationalisierungsstrategie gestaltet wird (mono-
Unternehmenszusammenschluss zentrisch oder polyzentrisch). Durch diese Regelungen wird der Führungsanspruch der Konzernzentrale gegenüber den Konzernbereichen konkretisiert und manifestiert. Harald Hungenberg Unternehmenszusammenschluss Unternehmenszusammenschlüsse - als Ausdruck unternehmerischer Zusammenarbeit - umfassen ein Intensitätsspektrum von losen Absprachen über vertragliche Koordinierung, die Bildung von Joint Ventures und die wirtschaftliche Unterordnung unter eine einheitliche Leitung bis zur vollständigen Aufgabe der rechtlichen Selbstständigkeit des Unternehmens. Sie können die Chancen zur Erschließung neuer Wertsteigerungspotenziale verbessern und sind in der Wirtschaftspraxis aktuell stark verbreitet. 1. Verbindung zur Zusammenarbeit Unter Unternehmenszusammenschlüssen werden die vielfaltigen Verbindungen zur unternehmerischen Zusammenarbeit verstanden. Die existierenden Zusammenschlussformen lassen sich in Koope-
Möglichkeit der Wertschaffung durch vertikale Einflussnahme Charakteristika
• • • •
Unbeständige Industriestruktur Hohe Industriedynamik Sehr risikoreiche und wichtige Entscheidungen
/ Charakteristika
Möglichkeit der Wertschaffung durch horizontale Integration
Abbildung:
818
Führungsrollen
Homogene Geschäftsfelder Ähnliche Märkte. Kunden, Konkurrenten Starke Wechselwirkungen
Unternehmenszusammenschluss rations- und Konzentrationsvorgänge mit jeweils unterschiedlicher Bindungsintensität gliedern. • Kooperationsvorgänge Die Definition des Begriffes Unternehmenskooperation ist erschwert durch die Vielzahl von in der Unternehmenspraxis beobachtbaren Kooperationsvarianten. Als konstitutiv für Unternehmenskooperationen kann zum einen die rechtliche Selbstständigkeit der Kooperationspartner gesehen werden. Die Partner treten in eine bewusste Zusammenarbeit, um die Kooperationsziele zu verwirklichen. Zudem müssen einzelne Teile der Entscheidungsautonomie der Organisation, die in die Partnerschaft eingebunden ist, an die gemeinsame Kooperationsinstanz abgetreten werden. Schließlich hat der Kooperationsverbund einen strategisch-instrumentellen Charakter, da die Beziehung in der Regel auf Zielerreichung und nicht auf Dauer angelegt ist. Falls mit der Kooperation eine strategische Dimension verbunden ist, wird auch von -> Strategischen Allianzen/Partnerschaften gesprochen. Als Kooperation soll hier die freiwillige Zusammenarbeit rechtlich und wirtschaftlich selbstständig bleibender Unternehmen bezeichnet werden. Sie bedient sich der Koordinierung von Funktionen oder gliedert Funktionen aus und überträgt sie auf gemeinschaftliche Einrichtungen. Das Ausmaß der Koordinationsanforderungen bei Unternehmenskooperationen wird durch die Verflechtungsintensität zwischen den Kooperationsparteien bestimmt. Die berüchtigtste und weitgehend verbotene Kooperationsform ist das Kartell, das auf vertraglichen Vereinbarungen basiert und durch meist horizontale Zusammenarbeit, insbesondere Preisabsprachen, wettbewerbsbeschränkend wirkt. Export-, Konditionen-, Normierungs-, Rabatt- und Spezialisierungskartelle stellen Ausnahmen zum generellen Kartellverbot dar, Strukturkrisenkartelle können vom Bun-
Unternehmenszusammenschluss deskartellamt auf Antrag erlaubt werden. Im Gegensatz zu Kartellen ist die Kooperation von Unternehmen in Arbeitsgemeinschaften (Konsortien) zeitlich begrenzt und auf die Erfüllung genau festgelegter Aufgaben zumeist bei Großprojekten beschränkt, somit also ohne wettbewerbsbeschränkende Auswirkungen. Rechtlich sind Konsortien Gelegenheitsgesellschaften in Form der Gesellschaft bürgerlichen Rechts, die nach außen in Erscheinung treten. In Unternehmensverbänden wie Kammern, Arbeitgeber- und Wirtschaftsverbänden kooperieren Unternehmen, um gemeinsame Interessen wirksam nach außen vertreten zu können sowie um Informations- und Koordinationsaufgaben gemeinschaftlich wahrzunehmen. Während die bislang genannten Zusammenschlussformen nur auf vertraglichen Regelungen aufbauen, kooperieren Unternehmen bei der Gründung oder dem Erwerb eines Gemeinschaftsunternehmens (Joint Venture) zudem durch eine gemeinschaftliche Kapitalbeteiligung am Partnerschaftsuntemehmen. Das Gemeinschaftsunternehmen ist rechtlich selbstständig und wird unter der gemeinsamen Leitung der Gesellschafteruntemehmen zur Förderung ihrer Interessen geführt. Die kooperierenden Unternehmen bewegen sich alle in einem Spannungsfeld von relativer Autonomie und gegenseitiger Abhängigkeit. Gerade diese Spannung fuhrt häufig dazu, dass der fur die Stabilität der Kooperationsbeziehung unverzichtbare Gleichgewichtszustand zwischen den Parteien einen äußerst labilen Charakter aufweist. Geringfügige Störungen können auf diese Weise zu einer Gefahr für die Kooperation werden. • Konzentrationsvorgänge Unternehmenszusammenschlüsse finden jedoch nicht nur aus Kooperations- sondern auch aus Konzentrationsgründen statt. Bei Konzentrationsvorgängen wird die wirtschaftliche Selbstständigkeit be819
Unternehmenszusammensehluss
Unternehmenszusammensehluss
stehender Unternehmen durch ihre Angliederung an eine andere Wirtschaftseinheit eingeschränkt bzw. aufgehoben. Die Unternehmen stehen unter einer einheitlichen Leitung und verlieren ihren Unternehmenscharakter. Die Fusion (s.a. Verschmelzung) von Unternehmen stellt das Konzentrationsvorgehen mit der stärksten Bindungsintensität dar, wobei sie als einzige Zusammenschlussform das Fortbestehen zumindest einer bislang rechtlich selbstständigen Einzelwirtschaft beendet. Nach der Fusion bilden die beteiligten Unternehmen eine rechtliche Einheit. In der Fusion kann das Vermögen nach der Liquidation des aufgenommenen Unternehmens übertragen werden oder bei Kapitalgesellschaften auch im Rahmen der Gesamtrechtsnachfolge übergehen, wobei die Verschmelzung durch Aufnahme und durch Neubildung unterschieden wird.
einem Konzern gesprochen. Falls die einheitliche Leitung von einem herrschenden Unternehmen ausgeübt wird, handelt es sich um einen Unterordnungskonzern. Besteht kein Abhängigkeitsverhältnis, wird der Unternehmensverbund als Gleichordnungskonzern bezeichnet. Wechselseitig beteiligte Unternehmen, die einen Anteil von über 25% bzw. im Zweifel bereits von über 20% besitzen, gelten nach dem deutschen Aktiengesetz ebenfalls als verbundene Unternehmen (§ 15 ff. AktG). Ähnlich wie bei Kooperationen sind den Wettbewerb beschränkende Konzentrationen sowie Zusammenschlüsse, die zu marktbeherrschenden Stellungen führen, verboten oder unterstehen Anzeigepflichten. Dies gilt insbesondere für horizontale Konzentrationsvorgänge, d.h. Zusammenschlüsse von Unternehmen der gleichen Produktionsoder Handelsstufe.
Konzentrationen entstehen auch durch den wirtschaftlichen Verbund rechtlich selbstständig bleibender Unternehmen. Über eine Kooperation hinaus sind die beteiligten Unternehmen kapitalmäßig oder durch Beherrschungsverträge miteinander verbunden. Die Intensität der Kapitalverflechtung wird durch den Anteil des von der angegliederten Unternehmung gehaltenen Kapitales ausgedrückt (Beteiligungsquote), wobei Minderheitsbeteiligungen (0%-25%), Sperrminderheitsbeteiligungen (25%-50%), Mehrheitsbeteiligungen (ab 50%), Dreiviertelmehrheitsbeteiligungen (75%95%) und Eingliederungsbeteiligungen (95%—100%) unterschieden werden.
2. Ziele von Unternehmenszusammenschlüssen Unternehmen erhoffen sich durch Zusammenschlüsse verbesserte Chancen zur langfristigen Wertsteigerung. Dies kann zum einen über eine erhöhte Wirtschaftlichkeit erfolgen, da die nach dem Zusammenschluss größere Wirtschaftseinheit Rationalisierungseffekte (-> Rationalisierung) und damit Kostensenkungen erzielen kann. Zum anderen lässt sich die Wettbewerbsfähigkeit durch eine bessere Marktstellung gegenüber Abnehmern, Lieferanten oder potenziellen Kreditgebern verbessern. Darüber hinaus kann durch eine Aufteilung der Risiken der betrieblichen Tätigkeit auf mehrere Partner das Risiko des einzelnen Unternehmens verringert werden. Eine eventuell erreichbare Einschränkung des Wettbewerbes führt zu wirtschaftlichen Machtpositionen. Schließlich lassen sich die gemeinsamen Interessen der Partnerunternehmen über die Bildung von Organisationen besser nach außen vertreten. Die verfolgten Ziele erstrecken sich auf alle betrieblichen Funktionsbereiche.
Laut dem deutschen Handelsgesetz (§ 271 Abs. 2 HGB) kann von einem verbundenen Unternehmen gesprochen werden, falls die Beteiligung unter einheitlicher Leitung steht oder ein beherrschender Einfluss ausgeübt bzw. eine Mehrheit der Stimmrechte oder das Recht, die Mehrheit der Organmitglieder einzusetzen, besessen wird. Stehen verbundene Unternehmen unter einheitlicher Leitung, wird von 820
Unternehmenszusammenschluss Kleine Unternehmen versuchen diese Zielsetzungen meist über verschiedene Kooperationsformen zu erreichen, während sich insbesondere Großunternehmen häufig auf Konzentration und Kartelle ausrichten. Im Rahmen der Entstehung größerer Märkte, der zunehmenden internationalen Konkurrenz und Integration der Wertschöpfungsketten sowie immer aufwendigeren Forschungs- und Entwicklungsvorhaben und der zunehmenden Unternehmenskonzentration auf vielen Märkten werden Unternehmenszusammenschlüsse zu einem immer bedeutenderen strategischen Aktionsparameter. 3. Anforderungen und Probleme in der Integrationsphase Bei Unternehmenszusammenschlüssen bildet die Integrationsphase wegen des noch labilen Charakters der Kooperation aus evolutorischer Perspektive den kritischen Zeitraum der Untemehmensverbindung. Gegliedert nach unterschiedlichen Integrationsebenen lassen sich die in der Integrationsphase anfallenden Anforderungen in prozedurale, physische und soziokulturelle Anforderungen systematisieren. Empirische Studien zeigen, dass vorwiegend in der soziokulturellen Integrationsebene die Ursachen für das Scheitern von Unternehmenskooperationen liegen. Das für die Führung zentrale Integrationsproblem liegt dabei zunächst in der Anpassung der Erwartungen der betroffenen Mitarbeiter hinsichtlich ihrer eigenen Rolle und der Zielsetzung des Zusammenschlusses. Entsteht der Eindruck, dass ein Partner die Partnerschaft dominiert, ist auf Seiten des "schwächeren" Partners mit einem Gefühl der Unsicherheit und mit Motivationsverlust bei den Mitarbeitern zu rechnen. Diese objektiv meist unbegründeten Vorbehalte bergen die Gefahr der Inneren Kündigung einzelner Leistungsträger in sich, die gerade in der Aufbauphase der neuen Zusammenarbeit von entscheidender Bedeutung sind. Die Unternehmensleitung muss hier ein richtiges Maß an institutioneller Führung zeigen, etwa durch
Unternehmungsstrategie Formulierung einer handlungsweisenden Vision. Sie muss das Ziel der Zusammenarbeit für alle Beteiligten glaubwürdig vermitteln, um eine gemeinsam akzeptierte Zweckbestimmung für das Projekt zu gewinnen. Literatur: Müller-Stewens, G.: U n t e m e h m e n s k o operation und Führung (Fusion, Allianz, Joint Ventures), in: Kieser, A./Reber, G./Wunderer, R. (Hrsg.): Handwörterbuch der Führung, Stuttgart 1995; Schierenbeck, H.: Grundzüge d e r Betriebswirtschaftslehre, 11. Aufl., Gießen 1993; Schubert, W./Küting, K.: U n t e m e h m e n s z u s a m m e n schlüsse, München 1981; Wöhe, G.: Einfuhrung in die Allgemeine Betriebswirtschaft, 18. Aufl., München 1993; Wunderer, R.: Führung und Zusammenarbeit, 2. Aufl., Stuttgart 1997.
Günter Müller-Stewens Unternehmungsstrategie Unternehmungsstrategien bilden die Grundlage des - > Strategischen Managements der Unternehmung. Sie werden in der Regel systematisch entwickelt und implementiert. Unternehmungsstrategi en lassen sich als generelle Aktionsprogramme definieren, die dazu dienen, längerfristige Wachstums- und Ertragsziele zu verwirklichen und die Unternehmung mit möglichst dauerhaften Wettbewerbsvorteilen auszustatten. Unternehmungsstrategien werden auf den Ebenen der Gesamtunternehmung, der Geschäfts- und der Funktionsbereiche entwickelt. Gesamtunternehmungsoder Konzernstrategien determinieren das Geschäftsbereichsportfolio, d.h. die Branchen oder Märkte, innerhalb derer eine Unternehmung tätig sein wird. Sie sind darauf ausgerichtet, Geschäftsbereichsstrategien zu integrieren, auf die Zielsetzungen der Gesamtunternehmung auszurichten, und sie regeln den Ressourcenfluss zwischen den Geschäftsbereichen. Darüber hinaus regeln sie die Kompetenzverteilung zwischen der Zentrale und den in- und ausländischen Töchtern der Unternehmung. Geschäftsbereichsstrategien legen fest, mit welchen Mitteln eine Unternehmung 821
Unternehmungsstrategie oder eine Division innerhalb eines bestimmten Marktes in Konkurrenz tritt. Funktionsbereichsstrategien stellen darauf ab, die interne Leistungsfähigkeit einzelner Funktionsbereiche zu erhöhen, so dass unternehmungsspezifische Kompetenzen oder Stärken entstehen, die den Wettbewerb innerhalb der bedienten Märkte erleichtern. Unternehmungen können die auf den drei Ebenen entwickelten Strategien entweder im Alleingang oder in -> Kooperation mit anderen Unternehmungen verfolgen. Im letzteren Fall entstehen —• Strategische Allianzen, die durch kooperative (kollektive) Strategien gekennzeichnet sind. Die drei Ebenen der Unternehmungsstrategien sind interdependent und für jede Unternehmung bedeutsam. Sowohl kleine und mittelständische Unternehmungen wie auch Großkonzerne müssen sich regelmäßig mit Fragestellungen auseinandersetzen, die jede der drei Ebenen betreffen. Zum Beispiel: a) Gesamtunternehmungsbereich: Sollen wir expandieren, schrumpfen oder so weitermachen wie bisher? Falls wir wachsen wollen, sollen wir das durch interne Anstrengungen erreichen oder extern, z.B. durch den Kauf existierender Produktionsstätten? Sollen wir innerhalb nur einer oder in mehreren Branchen tätig sein? b) Geschäftsbereich: Sollen wir auf der Basis geringer Kosten in Wettbewerb treten, oder wäre es besser, zu versuchen unsere Produkte/Dienstleistungen zu differenzieren? Sollen wir direkt mit allen anderen Konkurrenten in Wettbewerb treten, oder ist es sinnvoller, sich auf ein enges Marktsegment zu konzentrieren? c) Funktionsbereich'. Wie sollen wir unsere Funktionsbereichsaktivitäten ausführen, damit interne Schwächen abgebaut werden und unternehmungsspezifische Kompetenzen entstehen?
822
Unternehmungsstrategie Aus der Interdependenz der drei Strategieebenen ergibt sich die Notwendigkeit der Konsistenz von Strategien. Ganz gleich, welches Strategienbündel im Einzelfall gewählt wird, die Gesamtunternehmungs-, Geschäfts- und Funktionsbereichsstrategien müssen einen inneren Verbund aufweisen, konsistent sein, um positive Synergieeffekte (-» Synergiemanagement) und unternehmungsspezifische Kompetenzen entstehen zu lassen. Nachfolgend werden die wichtigsten Strategieformen für die drei Ebenen getrennt dargestellt: Gesamtunternehmungsstrategien können entweder intern, durch eigene Entwicklungen, realisiert werden oder extern, durch den Erwerb existierender Unternehmungen. Drei Strategieformen sind besonders hervorzuheben: die horizontale Konzentration (-» Unternehmenszusammenschluss), die vertikale Integration und die Diversifikation. Durch eine horizontale Konzentrationsstrategie versucht die Unternehmung, eine Verbesserung ihrer Wettbewerbsposition in ihrem originären Markt zu erreichen. Hierbei zielt die Unternehmung auf die Erschließung neuer Marktsegmente, z.B. durch Neuproduktentwicklungen, und/oder neuer geographischer Regionen. Die Strategie der vertikalen Integration beruht darauf, dass eine Unternehmung die Leistungstiefe des eigenen Programms erhöht, indem sie in vertikal verknüpften Branchen tätig wird. Vertikale Integration kann vorgelagert oder nachgelagert sein. Vorgelagerte vertikale Integration (Rückwärtsintegration) bedeutet die Aufnahme der Herstellung von Vorprodukten für den eigentlichen Produktionsprozess. Nachgelagerte vertikale Integration (Vorwärtsintegration) bedeutet die Aufnahme der Geschäftstätigkeit in einer nachgelagerten Produktionsstufe, z.B. die Übernahme der Distribution der eigenen Produkte. Gegenwärtig ist eine Umkehr der vertikalen Integration zu
Unternehmungsstrategie beobachten. Wettbewerbsfaktoren, wie die -> Globalisierung, Deregulierungen, rasche Fortschritte im Informationstechnologiebereich und die starke Verbreitung von Unternehmungskooperationen fuhren dazu, dass vertikal integrierte Unternehmungen in zunehmendem Maße ihre Leistungstiefe durch -» "Outsourcing" verringern und sich in strategische Netzwerke kooperierender Unternehmungen integrieren. Die Diversifikation ist die am weitesten verbreitete Gesamtunternehmungsstrategie. Unternehmungen verfolgen eine Diversifikationsstrategie, wenn sie verschiedenartige Produktprogramme und/oder Dienstleistungen in multiplen Märkten offerieren. Diversifizierte Unternehmungen unterscheiden sich in dem Ausmaß, in dem sie diese Strategie verfolgen. Es werden zwei grundlegende Formen der Diversifikation unterschieden, die als Indikatoren für das Diversifikationsausmaß herangezogen werden können: verbundene (mediale) und unverbundene (laterale) Diversifikation. Bei der verbundenen Diversifikation werden komplementäre Produkte oder Dienstleistungen in das Leistungsspektrum der Unternehmung aufgenommen. Alle Geschäftsbereiche der Unternehmung haben einen inneren Zusammenhang. Diese Komplementarität kann z.B. auf ähnlicher Technologie, ähnlichem Konsumentenverhalten, ähnlichem Vertrieb oder ähnlichem Know-how beruhen. Bei der unverbundenen Diversifikation wird das Prinzip der Komplementarität aufgegeben; die Geschäftszweige der Unternehmung befinden sich in sehr unterschiedlichen Wirtschaftssektoren und weisen keinen inneren Verbund auf. Der unverbunden diversifizierte Konzern wird als Konglomerat bezeichnet. Trotz erheblicher Anstrengungen, eine unterschiedliche Leistungsfähigkeit der beiden Diversifikationsarten zu belegen, bestehen in der Praxis keine eindeutigen Rentabilitätsunterschiede zwischen verbundener und unverbundener Diversifikation.
Unternehmungsstrategie Geschäftsbereichsstrategien haben zur Aufgabe, die Wettbewerbsfähigkeit einer Unternehmung innerhalb einer bestimmten Branche oder eines Marktsegments zu verbessern. Drei grundlegende Strategietypen werden unterschieden: Die Kostenführerschaft stellt darauf ab, Wettbewerbsvorteile dadurch herbeizuführen, dass eine Unternehmung ihre Kosten unter die Kosten der Konkurrenten absenkt. Diese Niedrigkostenposition eröffnet dem Kostenführer ein Preissenkungspotenzial, das weniger effizienten Konkurrenten verschlossen bleibt. Ziel einer Differenzierungsstrategie ist die Schaffung eines Produktes (einer Dienstleistung), das (die) in der ganzen Branche als einzigartig angesehen wird. Ansätze zur Differenzierung können auf vielen Ebenen erfolgen, z.B. bei den Produkteigenschaften, dem Design, den Verflechtungen innerhalb der Wertkette, dem Markennamen bzw. Image, der Technologie, usw. Eine erfolgreiche Differenzierung schafft -» Kundenloyalität, verringert die Preisempfindlichkeit der Abnehmer und erlaubt so die Festlegung vergleichsweise hoher Preise. Die Fokusstrategie hat eine Konzentration auf Teilmärkte zum Gegenstand. Sie wird realisiert, indem eine Unternehmung eine Kostenführerschafts- bzw. eine Differenzierungsstrategie in einem Marktsegment verfolgt. Insofern ist die Fokusstrategie eine spezielle Anwendung der beiden Grundtypen Kostenfuhrerschaft und Differenzierung. Obwohl die drei Geschäftsbereichsstrategien in der Praxis meist isoliert verfolgt werden, häufen sich die Fälle, in denen Unternehmungen sie auch für einzelne Geschäftsbereiche erfolgreich miteinander kombinieren. Funktionsbereichsstrategien. Jeder Funktionsbereich und jede einzelne Aktivität innerhalb eines Funktionsbereichs kann zu einer unternehmungsspezifischen Ressource ausgebaut werden, die Wettbewerbsvorteile begründet. Die Quellen für Funktionsbereichsstrategien sind somit fast grenzenlos. Die Entscheidung, in 823
Unternehmungsstrategie welchen Funktions- oder Aktivitätsbereichen eine Unternehmung spezifische Ressourcen und Kompetenzen aufbauen möchte, kann im Einzelfall durch eine Wertkettenanalyse vorbereitet werden. Beispiele für mögliche Funktionsbereichsstrategien seien hier nur für drei zentrale Funktionsbereiche aufgeführt: Im F&E-Bereich könnten sich Funktionsbereichsstrategien auf die Erzielung einer Technologieführerschaft hinsichtlich hochwertiger Neuprodukte oder effizienter Prozesstechnologien erstrecken. Im Produktionsbereich könnten Bereichsstrategien auf eine Flexibilisierung der Produktionsabläufe oder eine Bestandsoptimierung ausgerichtet sein. Für den Marketingbereich könnten die strategischen Aufgaben in der Herstellung eines einzigartigen Markenimages oder einer Reputation für hohe Qualität bestehen, usw. Normalerweise ist die Entwicklungsrichtung aller Untemehmungsstrategien auf Wachstum ausgerichtet. Mitunter kann das strategische Ziel aber auch Schrumpfung oder Rückzug sein (-» Fokussierung). Auf der Ebene der Gesamtunternehmung werden z.B. ganze Divisionen veräußert, wenn diese nicht (mehr) mit der Konzernstrategie kompatibel sind (-> Unternehmensspaltung). Auf Geschäftsbereichsebene kann nach einem vorangehenden Ertragsverfall das Produktprogramm konsolidiert werden, um einen Turnaround (-» Turnaround-Management) und neues Wachstum vorzubereiten. Auch die Ebene der Funktionsbereiche kann durch einen strategischen Rückzug gekennzeichnet sein, z.B. wenn eine Unternehmung sich aus Kostengründen entscheidet, die Leistungstiefe zu verringern. Literatur: Heuskel, D.: Wettbewerb jenseits von Industriegrenzen. Aufbruch zu neuen Wachstumsstrategien, Campus, Frankfurt 1999; Welge, M./Al-Laham, A.: Strategisches Management, 2. Aufl., Gabler, Wiesbaden 1999.
Rudi K. F. Bresser 824
Ursache-Wirkungs-Diagramm URL URL ist die Abkürzung von Uniform Resource Locator und stellt eine eindeutige Internet-Adresse, z.B. www.DaimlerChrysler.de dar. Eine URL besteht aus zwei Teilen: Dem Rechnernamen (hier: www) und dem Namen der Domain (hier: Daimler-Chrysler.de). Ursache-Wirkungs-Diagramm Ist ein elementares Werkzeug des -> Qualitätsmanagements zur strukturierten und übersichtlichen Problemanalyse, bei der Ursache und Wirkung voneinander getrennt werden. Zunächst wird das Problem oder unerwünschte Ereignis beschrieben. Anschließend werden die Hauptursachengruppen (z.B. die 5 M's - Mensch, Maschine, Methode, Material und Mitwelt) fischgrätartig zugeordnet. Innerhalb der Hauptursachengruppen können nun wiederum tieferliegende Ursachengruppen und Ursachen zugeordnet werden, wodurch, ähnlich wie bei der -> Fehlerbaumanalyse, Fehler-Fehlerursachenketten entstehen. Aus Gründen der Übersichtlichkeit sollten nicht mehr als zwei bis drei Ursachenebenen zugeordnet werden. Durch Punktevergabe im Team lassen sich die Ursachen beispielsweise zur Entwicklung von Abstellmaßnahmen priorisieren. Das Ursache-Wirkungs-Diagramm kann auch innerhalb der Fertigung zur Lösung von Fertigungsproblemen unter Einbeziehung des Mitarbeiter-Know-hows eingesetzt werden. Dazu wird ein mit Problem und Hauptursachengruppen versehenen Ursache-Wirkungs-Diagramm für einen definierten Zeitraum in der Fertigung aufgestellt. Die Mitarbeiter sind dann dazu aufgefordert, mit roten Karten mögliche Ursachen einzutragen und mit grünen Karten Lösungsmaßnahmen zuzuordnen. Das Ursache-Wirkungs-Diagramm eignet sich zur Analyse und Darstellung einfa-
Ursache-Wirkungs-Diagramm
Abb. 1: Ursache-Wirkungs-Diagramm
Ursache-Wirkungs-Diagramm
nach Ishikawa
Abb. 2: Die 5 M's - Die Mitwelt wird als eine der Ursachen für Qualität
angesehen
825
US-GAAP
Ursache-Wirkungs-Diagramm cherer Zusammenhänge. Bei komplexeren Kombinationen von Fehler/Fehlerursache sollten jedoch IT-gestützte Tools zur Fehlerbaumanalyse eingesetzt werden. Engelbert Westkämper/ Alexander Schloske US-GAAP (Generally Accepted Accounting Principles) 1. Geschichtlicher Hintergrund Infolge des Börsenkrachs von 1929 beauftragte die US-amerikanische Börsenaufsichtsbehörde SEC (Securities and Exchange Commission) 1938 die berufsständische Organisation AICPA (American Institute of Certified Public Accountants) mit der Erarbeitung von materiellen Rechjnungslegungsgrundsätzen den Generally Accepted Accounting Principles (GAAP). 1974 ging diese Aufgabe von dem AICPA auf das Financial Accounting Standards Board (FASB) über. Die amerikanische Rechnungslegung ist seitdem geprägt von einer hohen Regelungsdichte und einem hohen Risiko aus Verantwortlichkeitsklagen gegen Verwaltungsräte, Berater und Wirtschaftsprüfern (CPA - Certified Public Accountant). Durch das Kapitalaufnahmeerleichterungsgesetz (KapAEG) von 1998 ist es auch deutschen Unternehmen möglich, den Konzernabschluss nach internationalem Recht (-> IAS oder US-GAAP) aufzustellen. Am Neuen Markt notierte Unternehmen sind sogar zur Anwendung der US-GAAP gezwungen. 2. Zielsetzung Die Rechnungslegung in den USA hat ganz wesentlich den Aktionärsschutz zum Ziel. Man spricht in diesem Zusammenhang auch von einer investorenorientierten Rechnungslegung. Diese Ausrichtung spiegelt die große Bedeutung der Kapitalmärkte für die Unternehmensfinanzierung in den USA wider, die in den USA traditionell wesentlich größer ist als in Kontinentaleuropa, wo der Fremdkapitalgeber bzw. der Gläubigerschutz als Ziel der Rechnungslegung im Vordergrund steht. 826
3. Zentrale
Rechnungslegungsgrundsätze
a) Fair Presentation (true and fair view) Nach dem Grundsatz der "fair presentation" muss der Jahresabschluss die tatsächlichen und wahrheitgemäßen wirtschaftlichen Verhältnisse des Unternehmens darstellen. Vordergründig liegt hier eine Übereinstimmung mit dem § 264 Abs. 2 Satz 1 HGB vor, wonach der Jahresabschlussbericht ein den tatsächlichen Verhältnissen entsprechendes Bild der Vermögens-, Finanz- und Ertragslage vermittlen soll. Wegen des Grundsatzes der Maßgeblichkeit in den deutschen Rechnungslegungsregeln erfüllen diese das amerikanische Kriterium der "fair presentation" nicht. b) Substance over Form Anders als in Deutschland sollen nicht rechtliche, sondern wirtschaftliche Sachverhalte die Abbildung in der Rechnungslegung bestimmen. c) Going Concern Das "going-concern"-Prinzip besagt wie auch in der deutschen Rechnungslegung dass der Jahresabschluss unter der Annahme der Fortführung der Unternehmenstätigkeit aufzustellen ist. d)
Wesentlichkeit Der Grundsatz der Wesentlichkeit fordert, dass der Jahresabschluss nur relevante und auf das Wesentliche verdichtete Informationen enthalten solle. Es soll durch diesen Grundsatz verhindert werden, dass relevante Informationen durch eine große Menge an unwichtigen Informationen verdeckt werden.
e) Accrual Principal Das "accrual principle" verlangt eine periodengerechte Erfolgsermittlung. Die finanziellen Auswirkungen von Geschäftsvorfällen müssen demnach in der Periode erfasst werden, in der
US-GAAP sie stattgefunden haben, und nicht in der Periode, in der die Zahlungen erfolgten. 4. Bilanzgliederung Die US-GAAP legen keine verbindliche Bilanzform vor. Die Börsenaufsichtsbehörde SEC definiert allerdings Mindestanforderungen an die Bilanzen von börsennotierten Unternehmen. Demnach sind die Posten der Aktivseite der Bilanz nach abnehmender Liquiditätserwartung und die Posten der Passivseite der Bilanz nach aufsteigender Fälligkeit zu gliedern. Die Bilanzgliederung nach US-GAAP entspricht also der umgekehrten Gliederung nach HGB. 5. Bestandteile des Jahresabschlusses Das "Statement of Financial Accounting Concepts" (SFAC) 5.13 teilt den Jahresabschluss in die Bilanz, die Gewinn- und Verlustrechnung nach dem Umsatzkostenverfahren, die Darstellung der Eigenkapitalentwicklung und den Anhang ein.
US-GAAP Die Bilanz wird im Rahmen der USamerikanischen Rechnungslegung nicht als Instrument der Gewinnermittlung durch Vermögensvergleich angesehen. Die Aufgabe der Bilanz liegt vielmehr darin, die Liquidität und die Finanzierungsstruktur eines Unternehmens abzubilden. Demnach kommt der Bilanz in den USA im Vergleich zur Gewinn- und Verlustrechnung eine geringere Bedeutung zu. 6. Einzel- und Konzernabschluss In den USA übertrifft die Bedeutung des Konzernabschlusses die Bedeutung des Einzelabschlusses bei weitem. Dies ist zu einem großen Teil darauf zurückzuführen, dass die Börsenaufsichtsbehörde SEC die Aufstellung und Offenlegung von Konzernabschlüssen für die Börsennotierung verlangt. Nach US-GAAP substituiert der Konzernabschluss den Einzelabschluss.
827
Validität
Value at Risk
V Validität Der Begriff der Validität kommt aus dem Bereich der Statistik und findet seine Anwendung in der -»Marktforschung. Bei der Validität wird die Gültigkeit eines Tests oder Verfahrens geprüft. Validität kann bei Konstrukten und Stichproben vorkommen. Bei Konstrukten gibt es drei Arten der Validität. Die Inhaltsvalidität, bei der festgestellt werden soll, ob die Indikatoren inhaltlich zur Messung der Konstrukte beitragen. Bei der Kriteriumsvalidität stellt sich die Frage ob man mit einem anderen Konstrukt ähnliche Ergebnisse erzielt hätte. Schließlich teilt sich die Konstruktvalidität wiederum in drei Bereiche auf. Bei der Konvergenz, geht es um die Konvergenz hinsichtlich der Antworten für ein Konstrukt. Die Diskriminierungsfähigkeit der Konstrukte behandelt die Diskriminanzvalidität. Gegenstand der nomologischen Validität ist es festzustellen, wie die Konstrukte untereinander wirken. Die Stichproben unterscheiden nur externe und interne Validität. Ob man die Ergebnisse auf die Grundgesamtheit übertragen kann behandelt die externe Validität. Die interne Validität versucht festzustellen, ob innerhalb der Stichprobe auch wirklich das gemessen wurde, was gemessen werden sollte. Neben der Validität gibt die Reliabilität Auskunft über eine Stichprobe. Value at Risk 1. Einleitung Die immer stärker werdende und zu höheren Volatilitäten führende Verflechtung der internationalen Finanzmärkte sowie die extreme Zunahme der Handelsvolumina für Finanzderivate hat in Banken zu einer intensiven Auseinandersetzung mit den damit einhergehenden Risiken geführt. Seit Anfang der neunziger 828
Jahre sind unterschiedliche Konzepte zur Abbildung und Steuerung der Risiken entwickelt und erweitert worden. In diesem Zusammenhang sind Begriffe wie Value at Risk (VaR), Money at Risk, EVM, R O R A C , R A R O C ™ (Bankers Trust 1995) oder RiskMetrics™ (J.P. Morgan 1995) zu nennen. Gemeinsame Basis dieser Konzepte ist der Versuch, mit Hilfe finanzmathematischer Erkenntnisse und statistischer Verfahren eine möglichst exakte Messung unterschiedlicher Risiken zu erreichen. -> Risiko wird dabei grundsätzlich definiert als die in einem unzureichenden Informationsstand begründete Gefahr einer negativen Abweichung des tatsächlichen Ergebniswertes vom erwarteten Ergebniswert. 2. Varianten des Value at Risk-Konzeptes Das mit Abstand populärste Konzept zur bankinternen Risikomessung, insbesondere zur Quantifizierung der Marktrisiken, ist der Value at Risk-Ansatz (VaRAnsatz). Der VaR gibt dabei den geschätzten, maximalen erwarteten Wertverlust einer Einzelposition oder eines Portefeuilles an, der unter üblichen Marktbedingungen innerhalb eines festgelegten Zeitraumes (z. B. Halteperiode) mit einer bestimmten Wahrscheinlichkeit nicht überschritten wird (vgl. Lister 1997). Der VaR kann entweder auf der Basis von Barwerten oder auf der Basis von Periodenerfolgsgrößen quantifiziert werden. Im barwertorientierten VaR-Ansatz werden die Marktwertschwankungen des Eigenkapitals, die durch die Marktwertveränderungen der Assets und Liabilities verursacht werden, erfasst. Im erfolgsorientierte VaR-Ansatz wird durch die Messung der Schwankungen der Erträge und Aufwendungen das Ausmaß der Schwankungen des Jahresüberschusses quantifiziert. Nachfolgend soll ein VaR-Modell in Anlehnung an den von Lister (1997) konzipierten RiskMaster® vorgestellt werden. Dieses Risikomodell setzt sich
Value at Risk
Value at Risk
zusammen aus einem Grundmodell, das ein standardisiertes Verfahren zur Messung des VaR einzelner Risikokategorien beinhaltet sowie einer Risikomatrix, mit deren Hilfe die einzelnen Risikokategorien zum Gesamtbankrisiko zusammengefasst werden und aus Modellerweiterungen in Form alternativer Szenarien, die zur Verbesserung der Messergebnisse herangezogen werden können. 3. Bestimmung des Value at Risk im Grundmodell Die Risikoquantifizierung im Grundmodell des RiskMaster erfolgt nach einem standardisierten, sechsstufigen Verfahren (vgl. hierzu sowie zum folgenden Lister 1997). In der ersten Stufe sind die für die jeweiligen Risikokategorien (z.B. Aktienoder Zinspositionen) relevanten Risikoparameter (RP) und Risikovolumina (RV) zu definieren. Im Rahmen des Grundmodells werden die Risikoparameter als (annähernd) normalverteilt unterstellt. Dabei werden beispielsweise die stetigen Aktienkursrenditen oder stetigen Zinssatzänderungen als Risikoparameter definiert, um damit den für die Anwen-
• t
15,86%
Wahrscheinlichkeit, daß der Beobachtungswert innerhalb des angezeigten Intervalls liegt
Abb. I: Dichtefunktion
der Standardnormalverteilung
[mit: fN(Z) = Wert der
Dichtefunktion]
829
Value at Risk Beobachtungsdaten aufzustellen, wobei zu entscheiden ist, welcher Beobachtungszeitraum den Berechnungen zu Grunde gelegt wird. Aus statistischer Sicht sind längere Beobachtungszeiträume zu befürworten, da mit der Zahl der Beobachtungsdaten die Annäherung an eine für die weitere Vorgehensweise erforderliche Normalverteilung automatisch größer wird. In der dritten Stufe erfolgt die Fixierung einer Risikomesszahl. Diese Risikomesszahl stellt einen mathematischen Ausdruck zur Bestimmung der mit einer bestimmten Wahrscheinlichkeit eintretenden Entwicklung des Risikoparameters dar. Zum Verständnis dieser Risikomesszahl ist der Rückgriff auf einige statistische Grundlagen erforderlich. Durch eine Transformationsregel lässt sich jede normalverteilte Zufallsvariable X (z.B. Risikoparameter) in eine standardnormalverteilte Zufallsvariable Z überführen: z =
X - EW STD
(mit: EW = Erwartungswert; STD = Standardabweichung; Z = standardnormalverteilte Zufallsvariable; X = normalverteilte Zufallsvariable) Diese Transformationsregel lässt sich in einem weiteren Schritt dazu nutzen, eine Aussage über die Wahrscheinlichkeit einer bestimmten zukünftigen Entwicklung zu treffen. Beispielsweise sei angenommen, dass der Manager eines Aktienportefeuilles, der eine Long-Position eines beliebigen Aktienwertes eingegangen ist, wissen möchte, welcher maximale Verlust mit einer Wahrscheinlichkeit von 84,14% nicht überschritten bzw. mit einer Wahrscheinlichkeit von 15,86% (= 1 0 0 % - 8 4 , 1 4 % ) überschritten wird. Aus dem Verlauf der Dichtefunktion der Standardnormalverteilung (vgl. obige Abb.l) ist abzulesen, dass bei einem ZWert von ± 1 insgesamt 68,27% der Beobachtungswerte innerhalb des Intervalls von - 1 < Z < 1 liegen. Aus dem 830
Value at Risk symmetrischen Verlauf der Dichtefunktion der Standardnormalverteilung folgt, dass 15,86% der Daten unter einem ZWert von - 1 und 15,86% über einem ZWert von +1 liegen. Demzufolge stellt der Z-Wert von - 1 diejenige maximale Abweichung vom Erwartungswert dar, die mit einer Wahrscheinlichkeit von 84,14% nicht überschritten, bzw. mit einer Wahrscheinlichkeit von 15,86% überschritten wird. Ist für die Wahrscheinlichkeitsaussagen ein höheres Konfidenzniveau erforderlich, muss dementsprechend auch ein höherer Z-Wert gewählt werden. Abb. 2 zeigt einige ausgewählte Z-Werte und die dazugehörigen kumulierten Wahrscheinlichkeitswerte: Z-Wert
zugehörige Wahrscheinlichkeitsverteilung 84,14% Z= 1 Z = 2 97,72% Z = 3 99,87% Z = 4 99,9968% Abb. 2: Z-Werte mit den zugehörigen Wahrscheinlichkeitsverteilungen
Mit Hilfe dieses Z-Wertes und der oben genannten Transformationsregel lässt sich anschließend der maximale Verlust des Portefeuillemanagers quantifizieren. Aus einem Erwartungswert der Portefeuillerendite von 5% bei einer Standardabweichung von 10% folgt nach der Transformationsregel
X = STD • Z + EW = 10 % • (-1) + 5 % = -5 %
Mit einer Wahrscheinlichkeit von 84,14% wird somit das Ergebnis nicht schlechter als - 5 % , bzw. mit einer Wahrscheinlichkeit von 15,86% schlechter als - 5 % ausfallen. Üblicherweise basiert das Grundmodell des RiskMaster auf der Prämisse eines Erwartungswertes von Null (vgl. Schierenbeck 1999). Dies führt dazu, dass die negative Abweichung vom Erwartungswert mit der Risikomesszahl
Value at Risk
Value at Risk RMZ(RP)=±STD(RP)Z
(mit: R M Z = Risikomesszahl; RP = Risikoparameter) ausgedrückt werden kann, die sich aus der Multiplikation von Standardabweichung und Z-Wert ergibt. Im Beispiel beträgt die Risikomesszahl - 1 0 % . Diese Zahl entspricht der Differenz zwischen der erwarteten Rendite von 5% und der Rendite von - 5 % , die mit einer Wahrscheinlichkeit von 84,14% der maximalen negativen Entwicklung entspricht. Im Gegensatz zu der dem Beispiel zu Grunde gelegten Long-Position wäre bei einer Short-Position ein positiver Z-Wert auszuwählen, der dementsprechend zu einer positiven Risikomesszahl führt, da das Risiko hier in einer Steigerung des Marktwertes begründet ist. In der vierten Stufe wird der Risikofaktor ermittelt, in dessen Berechnung die Risikomesszahl eingeht. Zur Erklärung des Risikofaktors ist auf das oben aufgeführte Beispiel zurückzugreifen. Die in der dritten Stufe ermittelte Risikomesszahl entspricht der mit einer bestimmten Wahrscheinlichkeit zu erwartenden, maximalen negativen Entwicklung des Risikoparameters. Annahmegemäß handelt es sich bei Risikomesszahl um eine stetige Veränderungsrate des Aktienwertes. Damit lässt sich der mit einer bestimmten Wahrscheinlichkeit zu erwartende Aktienwert am Ende der geplanten Haltedauer folgendermaßen ermitteln: Aktien wert T = Aktienwert, • eRMZ(RP) (mit: e = Euler'sche Zahl = 2,718281828; T - t = geplante Haltedauer der Aktie; Aktienwertr = geschätzter Aktienwert am Ende der Haltedauer; Aktienwert, = Aktienwert am Anfang der Haltedauer;). Dabei beträgt die absolute Größe der geschätzten maximalen negativen Entwicklung des Aktienwertes: Aktienwertf - Aktienwert, = Aktienwert, • e RMZ(RP) - Aktienwert, = Aktienwerl, • ( e RMZ(RP) - 1 )
Aus der oben stehenden Gleichung lässt sich auch die prozentuale Veränderung in Form einer diskreten Größe ermitteln: A k t i e n w e r t , - - Aktienwert, _
eRMz(Rp)
j
Aktienwert,
Der letzte Term der obigen Gleichung drückt die mit einer bestimmten Wahrscheinlichkeit zu erwartende prozentuale negative Entwicklung des Aktienwertes aus. Im Rahmen des Grundmodells wird dieser Term als Risikofaktor definiert: RF(RP) = eRMZ(RP) - 1 (mit: e = Euler'sche Zahl = 2,718281828; RF = Risikofaktor). In der fünften Stufe wird schließlich der VaR einzelner Risikoparameter quantifiziert. Der VaR als das mit einer vorgegebenen Wahrscheinlichkeit schlagend werdende Risiko ergibt sich für einzelne Risikoparameter grundsätzlich aus der Multiplikation des Risikovolumens mit dem Risikofaktor: VaR RP = R V - R F .
Sofern jedoch nicht nur ein, sondern mehrere Risikoparameter bei der Risikoanalyse auftreten, sind in der sechsten und letzten Stufe des Grundmodells die zwischen diesen Risikoparametern bestehenden Risikoverbundeffekte zu berücksichtigen. Die Risikoverbundeffekte verdienen deshalb besondere Beachtung, weil sich zwei Risikoparameter üblicherweise nicht gleich entwickeln. Vielmehr ist anzunehmen, dass durch teilweise oder vollständig gegenläufige Entwicklungen risikomindernde Wirkungen eintreten. Das Ausmaß der Gleich- bzw. Gegenläufigkeit der Entwicklung zweier Risikoparameter wird mit Hilfe der Korrelationen erfasst. Insofern ist das Risikomodell nicht nur dazu geeignet, die Verlustgefahr einzelner Risikokategorien oder Geschäftsbereiche zu quantifizieren. Vielmehr lassen sich auch verschiedene Risiken über eine entsprechend formulierte Risikomatrix zusammenführen. Im Rahmen der Risi831
Value at Risk komatrix resultiert das mehrere Risikoparameter umfassende Gesamtrisiko aus der Quadratwurzel der multiplikativen Verknüpfung eines Risikovektors, der Korrelationskoeffizientenmatrix sowie der Transponenten des Risikovektors. Dabei bilden die jeweiligen VaR einzelner Risikoparameter die Elemente des Risikovektors, der zunächst als Zeilenvektor zu definieren ist. Aus den gleichen, in Spaltenschreibweise zusammengefassten Elementen wird die Transponente des Risikovektors gebildet. Die Korrelationskoeffizientenmatrix enthält die zwischen den Risikoparametem bestehenden Korrelationen. In speziellen Fällen muss dem sich aus der Vektorrechnung ergebenden Gesamtrisiko noch ein Standardrisiko hinzugerechnet werden. Diese Ergänzung wird grundsätzlich immer dann erforderlich, wenn bei der Quantifizierung von Gegenparteienrisiken deren durchschnittliches Verlustpotenzial mit dem Standardrisiko und deren Schwankungen um den Durchschnittswert mit Hilfe einer VaRKomponente zu erfassen sind, wie dies beispielsweise bei den Gegenparteienrisiken aus Finanzderivaten möglich ist. Die nachfolgende Gleichung beschreibt diese allgemeine Vorgehensweise: VaRGesm, = [VarRPI Var^ ... VarRPJ T 1 KOR(rRP,,rRP2) - KOR(rRP,,rRP„) KOR(rRP2, rRPI) 1 - KOR(rRP2,rRPn) 1 |KOR(rRP„ ) KOR(rRP„ ' rKP2 ) 1
(+ V a R s u n ^ d )
4. Die Variationen des Grundmodells Neben dem vorgestellten Grundmodell ist auch eine Reihe von Verfahren entwickelt worden, mit denen die Erkenntnisse des Grundmodells erweitert oder aber sich exaktere Risikoaussagen treffen lassen. 832
Value at Risk Abbildung 3 zeigt eine Übersicht über die verschiedenen Instrumentarien, die das Grundmodell ergänzen können. Dabei sind insbesondere Benchmark-Szenarien, Simulationen und Indikatormodelle voneinander abzugrenzen. Variationen des G r u n d m o d e l l s BenchmarkSimulationen Szenarien direkte Simulation der Fixierte Risikofakto- Portefeuillewertschwankunren gen StanCrashhistorische Monte-CarlodardSzenaSimulatiSimulationen Szenario rio onen Vorgabe der Verteilung von Durchaußeror- Vorgabe Marktpreisen schnittlidentlihistori(bzw. che che scher Renditen, Zeitreihen RisikoRisikoVeränderungsfaktoren / Abweifaktoren chungsraten)
Indikatormodelle Extraktion maßgeblicher Faktoren zur Beschreibung der Wertanderun g
Abb. 3: Übersicht über die Varianten des Grundmodells (vgl. Lister 1997)
4.1. Benchmark-Szenarien Anders als im Grundmodell bleiben im Rahmen von Benchmark-Szenarien die Risikofaktoren über einen längeren Zeitraum unverändert. Während im Grundmodell aufgrund der zu befürchtenden Veränderungen eine permanente Überprüfung und Korrektur dieser Kennziffern vorgenommen wird, führen BenchmarkSzenarien zu einer dauerhaften Fixierung. Für Benchmark-Szenarien müssen demnach größere Konfidenzintervalle und Analysezeiträume bei der Festlegung der Risikofaktoren gewählt werden, um den möglichen aktuellen Schwankungen, die bei diesem Konzept unberücksichtigt bleiben, gerecht zu werden. Es lassen sich grundsätzlich zwei Varianten von Benchmark-Szenarien unterscheiden. Den Standard-Szenarien liegen durchschnittliche Veränderungsraten zu Grunde. Die vorsichtige Auswahl der Risikomesszahlen im Standard-Szenario drückt sich dabei zum einen in einem möglichst langen Analysezeitraum und zum anderen in einem möglichst großen Konfidenzintervall aus. Gleichzeitig sind die Standard-Szenarien durch CrashSzenarien zu ergänzen. Mit Hilfe derarti-
Value at Risk ger Crash-Szenarien werden die in der Vergangenheit beobachteten Extremwerte bei der Risikomessung berücksichtigt (vgl. Groß/Knippschild 1995, S. 85 ff.). 4.2. Simulationsmodelle Dem Grundmodell liegen bekanntlich die Annahmen zu Grunde, dass • die zukünftigen Veränderungen der Risikoparameter den innerhalb des Analysezeitraumes beobachteten Veränderungen entsprechen, • die Renditen, Veränderungs- oder Abweichungsraten normal verteilt sind und dass • die Bewertungsfunktionen linear sind. Um sich von diesen Prämissen zu lösen, wurden Simulationsverfahren entwickelt, wobei sich historische Simulationen von den Monte-Carlo-Simulationen abgrenzen lassen (vgl. Lister 1997). Bei den historischen Simulationen werden aus den Daten der Vergangenheit Portefeuilleveränderung ohne Verwendung statistischer Parameter generiert. Aus der Beobachtung der Vergangenheitsdaten wird für die Gesamtmenge der festgestellten Gewinne bzw. Verluste des Portefeuilles eine Rangfolge festgelegt, die schließlich zur Risikobestimmung herangezogen werden kann. Wenn beispielsweise an 950. Stelle ein Verlust von € 100 registriert wurde, so bedeutet dies bei insgesamt 1.000 beobachteten Fällen, dass mit einer Wahrscheinlichkeit von 95% der zukünftige Verlust nicht höher, bzw. dass mit einer Wahrscheinlichkeit von 5% der Verlust größer sein wird als € 100. Das Modell historischer Simulationen berücksichtigt indirekt die zwischen den Positionen bestehenden Korrelationen, und die mathematischen Schwierigkeiten bezüglich der Risikoverknüpfung sind bei diesem Modell nicht relevant. Das Modell ist zudem besonders geeignet, nicht lineare Risiken zu erfassen. Im Gegensatz zu den historischen Simulationen wird bei der Monte-Carlo-
Value at Risk Simulation versucht, ein von den Daten der Vergangenheit weniger stark beeinflusstes Risikobild zu erzeugen. MonteCarlo-Simulationen basieren auf der Überlegung, dass die in der Vergangenheit beobachteten Risikoparameter normalverteilt sind. Der Verlauf einer Normalverteilung kann mit statistischen Formeln unter Kenntnis der Standardabweichung und des Erwartungswertes des Risikoparameters exakt beschrieben werden. Für eine progressive Risikomessung wird wiederum durch Zufallszahlen ein zukünftiges Risikobild erzeugt, indem Daten generiert werden, die zwar dem Verlauf der Normalverteilung, nicht jedoch tatsächlich in der Vergangenheit beobachteten Veränderungsraten entsprechen. 4.3. Indikatormodelle Im Rahmen der Indikatormodelle werden aus einer Grundgesamtheit wertbestimmender Faktoren diejenigen Größen extrahiert, die das Risiko wesentlich beeinflussen. Mit diesen Indikatoren soll anschließend das Risiko eines Portefeuilles erklärt werden. Insbesondere für den Bereich der Aktiengeschäfte existieren mit den Ein- und Mehrfaktor-Modellen zahlreiche Konzepte, mit denen die zukünftige Wertentwicklung prognostiziert wird. Zu den bekanntesten dieser Modelle zählt das Marktmodell von Sharpe, welches ein Ein-Faktor-Modell darstellt. Hierbei wird die Wertentwicklung eines Aktienportefeuilles aus der Schwankung des Beta-Faktors abgeleitet. Mit Hilfe der Aussagen der Capital Asset Pricing Model (CAPM)-Theorie wird die Höhe der absoluten Renditeveränderung einer Aktienrendite als Vielfaches der erwarteten Rendite des Marktportefeuilles erklärt. Somit lässt sich über den BetaFaktor aus den Bewegungen eines Index heraus auf die Bewegung einer Aktie schließen und somit auf unterstellten Indexbewegungen aufbauend das Risiko einer Aktie bestimmen. Allerdings sind die Indexveränderungen nicht mit
833
Value Development
Value at Risk dem Beta-Faktor erklärbar. Deshalb bleibt der Beta-Faktor für die Risikomessung nur ein ergänzendes, aber kein ersetzendes Instrumentarium.
Lässt sich der Shareholder Value eines Unternehmens tatsächlich ausschließlich an wenigen Kennzahlen quantitativ ablesen?
Literatur: Bankers Trust: A Comprehensive Risk Measurement Service, 1995; J.P. Morgan: RiskMetrics™ - Technical Document, 3 rd Edition, New York, 26. Mai 1995; Lister, Michael: Risikoadjustierte Ergebnismessung und Risikokapitalallokation, in: Schriftreihe des Zentrums für Ertragsorientiertes Bankmanagement, Münster, Frankfurt a. M. 1997; Groß, H./Knippschild, M.: Risikocontrolling in der Deutsche Bank AG, in: Rolfes, B./Schierenbeck, H./Schüller, S. (Hrsg.): Risikomanagement in Kreditinstituten, Frankfurt a. M. 1995; Schierenbeck, Henner: Ertragsorientiertes Bankmanagement, Band 2: RisikoControlling und Bilanzstmktur-Management, 6. Auflage, 1999.
Ein auf wenigen Maßzahlen basierendes Konzept zu finden, um den - • Unternehmenswert und seine Entwicklung zu kennzeichnen, dürfte schwerlich gelingen. Die Kritik an der alleinigen Ausrichtung am quantitativen Shareholder Value hat dazu gefuhrt, das Konzept des Value Development zu entwickeln. Value Development soll als ManagementDenkhaltung die Entwicklung des Unternehmenswertes durch Integration und Optimierung von Shareholder und Stakeholder Value fördern. Die Stakeholder als Vertreter aller UnternehmensBezugsgruppen werden häufig auf externe Kunden und Lieferanten beschränkt, interne Bezugsgruppen wie Mitarbeiter oder Betriebsräte werden in ihrer Bedeutung für die Entwicklung des Shareholder Value entweder unterschätzt oder gleich ganz vergessen.
Henner Schierenbeck Value Chain -> Wertschöpfungskette Value Development Value Development hat das Ziel als innovatives inhaltliches Konzept ein verändertes Management-Verhalten zu initiieren. Die Bewertung der Unternehmensleistung wird derzeit stark fokussiert auf die Entwicklung des -> Shareholder Value, insbesondere ausgedrückt durch die (kurzfristige?) Entwicklung der Aktienkurse. Diese Sichtweise wird zweifelsohne der Komplexität der wirtschaftlichen Zusammenhänge und Unternehmensabhängigkeiten in unserer heutigen Zeit kaum gerecht. Das Konzept des Value Development ergänzt diese einseitige Shareholder Value-Betrachtung um den Aspekt des Stakeholder Value und berücksichtigt hierbei in erster Linie die Rolle der Untemehmensmitarbeiter. Value Development geht davon aus, dass es unauflösliche Interdependenzen zwischen Shareholder und Stakeholder Value gibt. Das -»Personalmanagement erhält hierbei eine Schlüsselrolle als Katalysator zur Verbesserung des Stakeholder Value und damit in der Folge auch des Shareholder Value. 834
Value Development geht davon aus, dass der Shareholder Value zum wesentlichen Teil von den Mitarbeitern erarbeitet wird und hält deshalb eine konzeptionelle Verknüpfung von Shareholder Value und Stakeholder Value für unverzichtbar. Gerade auch weil Zielkonkurrenzen zwischen Shareholder Value und Stakeholder Value nicht auszuschließen sind (was ist wichtiger: mehr -» Personalentwicklung, die Geld kostet oder mehr Gewinnausschüttung an die Anteilseigner?), bedarf es eines abgestimmten Gesamtkonzeptes im Sinne des Value Development. Während der Shareholder Value eher quantitativen Größen zugänglich ist (Entwicklung des Unternehmenswertes), hat der Stakeholder Value auch eine deutlich qualitative Komponente (Entwicklung von Werten und Kultur). Wertschätzung und Aufmerksamkeit im Führungsalltag sind für die Mitarbeiter wichtig, finden aber heute viel zu oft noch
Variantenbildung
Value Development wenig Beachtung. Das Ausschöpfen der Mitarbeiterpotenziale zur Realisierung innovativer Produkte und kreativer Denkleistungen bedarf größerer Anstrengungen als "nur" die Zusicherung eines sicheren Arbeitsplatzes von Seiten der Unternehmen. Value Development zeigt den Führungskräften diese Zusammenhänge auf und bietet praktikable Lösungsvorschläge. Die Personalarbeit spielt hierbei eine entscheidende Rolle. Somit kann der Paradigmawechsel durch die Abkehr der Organisations-Dominanz über den Menschen mit Value Development gelingen, auch in unserer leistungsorientierten Wettbewerbswirtschaft. Dieser "neuen" Bedeutung der Mitarbeiter folgend, wird im weiteren Verlauf der Abhandlung insbesondere der -> Stakeholder Value vertieft betrachtet. Personalmanagement betrifft als Aufgabe die Führungskräfte und die Personalabteilung. Beide können auf ihre Weise zur Verbesserung des Stakeholder Value für die Mitarbeiter beitragen. An der gleichwertigen Aufgabenteilung hat sich prinzipiell seit geraumer Zeit kaum etwas verändert. Der Trend zur Dezentralisierung der Personalarbeit auf die Führungskräfte ist grundsätzlich richtig. Es sollte jedoch darauf geachtet werden, dass Führungskräfte in die Lage versetzt werden, diese eigentlich schon immer in ihrer Führungsverantwortung liegenden Aufgaben, auch tatsächlich bewältigen zu können. Der Personalabteilung fallt eine Schlüsselrolle bei der Entwicklung des Stakeholder Value für die Mitarbeiter zu. Der Personalbetreuer/Personalreferent mit operativer Verantwortung und entsprechender persönlicher Akzeptanz kennt die Nöte und Bedürfnisse der Mitarbeiter häufig besser als viele Führungskräfte. Als deren Berater und Coach besteht die berechtigte Chance, auf Führungskräfte einen verändernden Einfluss auszuüben. Im Gegensatz zu nahezu allen Benchmarking- und Best Practice-Untersuchungen, die in erster Linie organisatorische Ver-
änderungen in den Vordergrund stellten, werden jetzt die Leistungspotenziale der Mitarbeiter in den Mittelpunkt gestellt. Diese können jedoch nur dann aktiviert werden, wenn die Umfeldkultur leistungsfördernd gestaltet ist. Die Personalabteilung kann durch entsprechende Konzepte und Instrumente den Führungskräften bei Diagnose und Entwicklung von Kultur und Betriebsklima beste Dienste erweisen. In jedem Fall wird der Stakeholder Value für die Mitarbeiter positiv beeinflusst, wenn sie höhere Wertschätzung erfahren und Partizipation sich nicht nur in -» Führungsgrundsätzen wiederfindet, sondern tatsächlich auch in der täglichen Arbeitspraxis gelebt wird. Mittlerweile setzt sich jedoch die Erkenntnis durch, dass es sinnvoll ist, sich um die vernachlässigte Ressource "Mitarbeiter" stärker als in der Vergangenheit zu kümmern. Insbesondere die Einsicht, dass herausragende Mitarbeiterleistungen nur dann zu erwarten sind, wenn die Mitarbeiter für sich selbst einen erhöhten Nutzwert erkennen können, forciert die mitarbeiterbezogene Führung. Dies macht deutlich, dass auch der StakeholderAnsatz heute ernster genommen wird. Werner Fröhlich Variable Kosten -> Kostenarten Variantenbildung Die Begriffe Variantenbildung und Variantencontrolling lassen sich mit dem Begriff Variantenmanagement zusammenfassen. In der Variantenbildung ist grundsätzlich zwischen externer und interner Varietät (Maß für die Anzahl der Varianten) zu unterscheiden. Externe Varietät entspricht der Anzahl Varianten, die von Kunden gefordert werden. In der Regel handelt es sich dabei um eine Maximierung möglicher Produkt- oder Dienstleistungsvarianten. Der Markt erwartet, dass die kundenindividuellen Bedürfnisse in optimaler Weise erfüllt werden. 835
Variantenbildung -> Produktdifferenzierung und Individualisierung des Leistungsangebots kann dabei durch unterschiedlichste Methoden erzielt werden. In der Technik lassen sich Varianten durch Variation von Zahl, Material, Struktur, Maß, Gestalt, Farbe, Lage etc. generieren. Die Veränderbarkeit der Individualisierung kann stufenlos (z.B. einmalige Fertigung eines Maßanzuges mit analogen Werten fur einen speziellen Kunden, -»• Mass Customization) oder begrenzt variabel (z.B. Auswahl aus einem vorgefertigten Sortiment, Konfektionsgröße mit vordefinierten diskreten Werten, bestimmten Stoffen und Farben) erfolgen. Die interne Varietät entspricht der Zahl der Varianten, denen innerbetriebliche Prozesse und Operationen gegenüberstehen. Hier wird i.d.R. eine Minimierung möglicher Varianten angestrebt. Ziel ist es, möglichst wenige standardisierte Produkte (Baugruppen und Komponenten) und Prozesse beherrschen zu müssen, um so durch Varietät verursachte Komplexität zu vermeiden und Skalen- und Lernkurveneffekte (-> Lernkurve) in allen Prozessen zu erzielen. Variantenbildung und Variantencontrolling versuchen, den Zielkonflikt zwischen marktseitigen und innerbetrieblichen Anforderungen auf ein relatives Optimum (i.d.R. Ertrag) auszubalancieren. Bei der Variantenbildung bedient man sich dabei unterschiedlichster Methoden und Technologien. Allen gemeinsam ist, kundenindividuelle Produkte für einen großen Absatzmarkt mit innerbetrieblich hohen Wiederholeffekten durch standardisierte Produkte und Prozesse zu vereinbaren. Im Bereich der Technik lässt sich in diesem Zusammenhang der Begriff Baukasten als eine frühe Methode zur Variantenbildung mehrstufig disponierbarer Produkte bis um 1900 für den Bau von Regalen zurückverfolgen. Dieses Prinzip wurde später in weiten Teilen der Industrie angewandt. Begriffe wie Baukastenbauweise, Baukastenprinzip, Modulbau836
Variantenbildung weise, Modularisierung, Modulare Produktstrukturen, Plattformstrategien etc. gehen hierbei ineinander über und meinen aus Produktsicht nicht selten das Gleiche. Per Definition lassen sich diese Begriffe nicht von einander trennen. Im Prinzip handelt es sich um die Sammlung verschiedener, standardisierter und untereinander zumindest begrenzt kompatibler Elemente (kundenneutrale Bausteine/ Module), aus denen sich durch Auswahl und Kombination unterschiedliche Dinge und kundenindividuelle Lösungen zusammensetzen lassen. Primäres Ziel der Variantenbildung hierbei ist, aus einer begrenzten inneren Vielfalt kundenneutral vorgefertigter Bausteine eine durch die Kombination ermöglichte hohe externe Vielfalt zu erzielen. Gewünschter Nebeneffekt ist, dass die Kundenwartezeiten sich auf die Auswahl und Endmontage neutraler Bausteine reduzieren lässt. Die innere Vielfalt soll zudem durch die Verwendung von Gleichteilen weiter reduziert werden. Die Mächtigkeit dieser Methoden wurde anhand der Modularisierung und der Plattformstrategien in der Automobilindustrie deutlich, die einen Umbruch der gesamten Zulieferindustrie Vorschub geleistet haben. Mit Typisierung, Standardisierung, Baukästen, Modularisierung etc. werden die produktseitigen Voraussetzungen zur Variantenbildung umschrieben. In der Produktion werden durch Baukasten- oder Variantenstücklisten Informationen mit dem Ziel minimaler Datenhaltung und geringer Komplexität geführt. Operationalisierbar wird die Variantenbildung durch DV-technische Aufbereitung und Abbildung der Produktstruktur. Hierbei werden Produktmerkmale (Maße, Leistung, Drehzahl, Farbe etc.) und deren Ausprägungen in Form von Auswahlwissen und Beziehungslogik entweder in produktionsnahen Anwendungen von ERP-Systemen (Stücklisten- und Arbeitsplangenerierung) oder vertriebsnah einge-
Variantenbildung
Variantenbildung
837
Variantenbildung
Variantencontrolling
setzten Produktkonfiguratoren (Angebotsund Auftragsgenerierung) aufbereitet und zur Verfügung gestellt. Vertriebsseitig findet dieses Prinzip im Bereich - » E Commerce rasant an Bedeutung.
1. "Varietät vermeiden": Varietät erst gar nicht entstehen lassen, z.B. durch geeignete Vertriebsprozesse oder im Änderungswesen durch Standardisierung etc.,
Josef Wüpping Variantencontrolling Variantencontrolling hat zum Ziel, die -»• Variantenbildung von Produkten und Dienstleistungen zu beherrschen. Im Variantencontrolling wird unter Kostengesichtspunkten versucht, ein Optimum zwischen inner- und außerbetrieblicher Varietät zu erreichen und aufrecht zu halten. Dieses Optimum liegt i.d.R. nicht bei maximal erreichbarem Umsatz. Ziel ist, die innerbetriebliche Varianz unter Kostengesichtspunkten kontrolliert gering zu halten, um unter Ertragsgesichtspunkten einen maximal erzielbaren Gewinn zu erreichen. Denn bei unkontrollierter Varianzausweitung steigen die Aktivitätsund -» Komplexitätskosten überproportional stark an. Die Abhängigkeit zwischen inner- und außerbetrieblichen Varianten zeigt, dass oft ein Großteil der Teile und Baugruppen für wenig oder nur einmal nachgefragte Produkte vorgehalten werden müssen. Das bedeutet, dass ein Großteil der CKomponenten (-> ABC-Analyse) von wirtschaftlich untergeordneter Bedeutung sind und lediglich die innerbetrieblichen Komplexitätskosten erhöhen. Untersuchungen haben gezeigt, dass die Stückkostenunterschiede als Funktion der Gängigkeit weniger auf unterschiedliche Faktorkosten (Arbeit, Material, Kapital) als vielmehr auf von Varietät abhängige, überproportional ansteigende Prozesskosten zurückzuführen sind. Variantencontrolling kann nach strategischen und operativen Fragestellungen unterschieden werden. Variantencontrolling sollte der Priorität nach unbedingt in folgenden Schritten betrieben werden:
838
Auftragskonfiguration aus Standards
Deckungsbeitragsbewertung
Auftragskalkulation: Varianten/Module
Neutrale Disposition
V e r m e i d e n von Sonderwünschen
Transparente Auswahllogik
2. "Varietät reduzieren": Entstandene Varietät in Produkten und Prozessen wieder reduzieren durch Sortimentsbereinigung oder durch Zusammenfassen verschiedener Varianten mittels konstruktiver Anpassungen etc. und 3. "Varietät beherrschen": Nicht vermeidbare und nicht mehr reduzierbare Varietät durch Konfigurationstechnik oder z.B. durch Baukastensysteme beherrschbar machen etc. Josef Wüpping
Variantenmanagement Variantenmanagement Oberbegriff für Variantenbildung und -» Variantencontrolling Varianzanalyse Die Varianzanalyse (VA) ist ein multivariates statistisches Verfahren (-» multivariate Analyseverfahren), das zum Vergleich von Mittelwerten in verschiedenen Gruppen bzw. bei verschiedenen "Behandlungen" eingesetzt werden kann. Das stochastische Modell lautet X
ijr
+Tjr + eijr, (1 < i < rij; 1 < j < k; 1 < r < p)
bzw. in Vektorschreibweise Eij = ^ + i J + e i j , (l Synergiemanagement).
Die Darstellung als Würfel besagt nicht, dass es drei unabhängige Virtualisierungsrichtungen gibt und sich somit die anzustrebende Gesamtvirtualität additiv aus den drei Bewegungen zusammensetzt. Es gibt vielmehr unterschiedliche, aber gleichermaßen sinnvolle Zielpunkte. Zudem sind die Achsen Weiche Integration und Kernkompetenzfokus nicht unabhängig voneinander: Dies folgt aus der Organisationstheorie, wonach jede Differenzierung (wozu auch der Kernkompetenzfokus gehört) sinnvollerweise von Integrationstendenzen begleitet wird.
Virtueller Stellenmarkt Die besondere Herausforderung bei der virtuellen Organisation besteht darin, die strategischen Fragestellungen (zum Beispiel Bestimmung der -»Kernkompetenzen) simultan mit der Informationstechnologie und der Organisationskultur zu realisieren: Speziell letzteres ist zwingend erforderlich, um die bürokratiefreie Koordination nach innen sowie die überzeugende Identität nach außen zu realisieren. Gleichzeitig aber ist die Bildung einer derartigen Kultur erschwert, wenn sich virtuelle Organisation als temporäre und fluide Einheiten manifestieren. Virtuelle Organisationen eignen sich grundsätzlich für alle Unternehmensgrößen, wenngleich der interorganisatorische Aspekt vor allem für kleine und mittlere Unternehmen wichtig ist: Sie können durch das Schaffen derartiger Unternehmenszusammenschlüsse eine "virtuelle Größe" erreichen, mit der sie unter Beibehaltung ihrer Unabhängigkeit und Flexibilität mit ihren Kernkompetenzen auch auf größere Märkte vordringen können (-> Globalisierung). Literatur: Davidow, W.H./Malone, M.S.: Das virtuelle Unternehmen, Frankfurt/New York 1993; Scholz, C.: Strategische Organisation, Landsberg/Lech, 2. Aufl. 2000; Venkatraman, N./Henderson, J.C.: Real Strategies for Virtual Organizing, in: Sloan Management Review, vol. 40 (1/1998), S. 33-48.
Christian Scholz Virtuelle Realität (Virtual Reality) Von Virtual Reality spricht man, wenn reale Lebenssituationen im -> Internet möglichst vollständig nachgebildet werden. Dazu bedient man sich technischer Beschreibungssprachen (-> VRML) und in Ansätzen auch Methoden der künstlichen Intelligenz. Dadurch soll dem Benutzer der virtuellen Welt das Gefühl der Interaktivität mit seiner Umgebung vermittelt werden.
(Scholz 2000)
Virtueller Stellenmarkt ~> Elektronischer Stellenmarkt
857
Vorgesetztenbeurteilung/-feedback
Virtuelles Produkt Virtuelles Produkt Virtuelle Produkte werden in enger Kooperation mit dem Kunden entwickelt und sind für diesen auch bereits erlebbar, werden allerdings erst nach Ende der Interaktion produziert. (-»Virtuelle Organisation) Vollautomatisierung -> Automatisierung Vollkostenrechnung ->• Kosten- und Leistungsrechnung Vorgesellschaft Eine -> Aktiengesellschaft wird in zwei Stufen gegründet: Auf die Vorgesellschaft folgt die Aktiengesellschaft. Die Vorgesellschaft, auch Gründungsgesellschaft genannt, entsteht zunächst durch die notariell beurkundete Feststellung des Gesellschaftsvertrages (Satzung), in dem die Gründer sämtliche Aktien gegen Einlagen übernehmen, § 23 AktG. Die Aktiengesellschaft "als solche" entsteht erst mit der anschließenden Handelsregistereintragung, § 4 1 Abs. 1 AktG. Die Eintragung im Handelsregister setzt insbesondere die Wahl des ersten Aufsichtsrates durch die Gründer und die Wahl des ersten Vorstandes durch den ersten Aufsichtsrat voraus, § 30 AktG. Soll ein Investor im Vorgründungsstadium Aktien übernehmen, muss der Gesellschaftsvertrag (Satzung) unter Mitwirkung des Investors (ggf. emeut) notariell festgestellt werden. Der Investor ist dann Gründer im Sinne des § 28 AktG und unterliegt der Gründerhaftung nach § 46 AktG. Soll der Investor jedoch Aktien einer bereits eingetragenen Aktiengesellschaft zeichnen, ist eine Kapitalerhöhung gegen Einlagen nach §§ 182 ff. AktG einschlägig. Der Investor ist dann insbesondere kein Gründer der "kleinen" Aktiengesellschaft und haftet nicht nach § 46 AktG. Stefan Hanloser 858
Vorgesetztenbeurteilung/-feedback Die Beurteilung von Vorgesetzten durch deren Mitarbeiterinnen wird als Ergänzung zur klassischen Abwärtsbeurteilung eingesetzt. Neben der "reinen" Vorgesetztenbeurteilung gibt es diese auch als Element von Mitarbeiterbefragungen und Vorgesetzten-Mitarbeiter-Gesprächen. Um mit der Umkehr der gängigen Beurteilungsrichtung möglicherweise verbundene Akzeptanzprobleme zu vermeiden, wird das Instrument u.a. auch als Vorgesetztenfeedback bezeichnet. Werden noch weitere Informationsquellen genutzt (z.B. Feedback von Kunden), erhält die Führungskraft ein 360-GradFeedback. Die Vorgesetztenbeurteilung dient der Verbesserung der -» Führungsqualität als "Gemeinschaftsaufgabe" von Vorgesetzten und Mitarbeiterinnen. Eine partizipative Führungskultur ist jedoch nicht nur gewünschtes Ergebnis, sondern auch eine Voraussetzung für den erfolgversprechenden Einsatz dieses Instruments. Dort, wo "nach Gutsherrenart" geführt wird, passt es nicht. Zur Ausgestaltung: Grundsätzlich besteht die Alternative der mündlichen und der schriftlichen Befragung. Eine mündliche Befragung, die eher die Ausnahme darstellt, wird in der Regel von Externen vorgenommen, um die Anonymität zu gewährleisten. Noch seltener sind Faceto-face-Rückmeldungen in Gruppengesprächen oder Workshops. Üblicherweise werden schriftliche Befragungen durchgeführt (zunehmend auch per Computer). Hier existieren die Alternativen Eigenentwicklung oder Fremdbezug des Fragebogens. Für eine Eigenentwicklung spricht, dass unter Beteiligung verschiedener Interessengruppen ein maßgeschneidertes Instrument erstellt werden kann, das dann "unser" Fragebogen ist. Dagegen sprechen die höheren Kosten und die schlechtere Möglichkeit des Vergleichs der Ergebnisse mit denen anderer Organisationen (Stichwort:
Vorgesetztenbeurteilung/-feedback Benchmarking). O ñ wird deshalb eine Mischung aus übernommenen und selbstentwickelten Fragen gewählt. Wenn ein von einer anderen Organisation selbstentwickelter Fragebogen ganz oder teilweise übernommen wird, ist darauf zu achten, dass eine Passung (z.B. hinsichtlich der -> Führungsgrundsätze) gegeben ist. Schließlich existieren im deutschsprachigen Raum drei Standardfragebogen: •
•
•
der Fragebogen der Projektgruppe Mitarbeiterbefragungen, der auch Fragen zum Führungsverhalten enthält, eine Übersetzung des LBDQ (Leader Behavior Description Questionnaire), der Fragebogen zur VorgesetztenVerhaltens-Beschreibung (FVVB) von Fittkau und Fittkau-Garthe, der die klassischen Führungsdimensionen Aufgaben- und Mitarbeiterorientierung misst, eine Übersetzung des MLQ (Multifactor Leadership Questionnaire) von Geyer und Steyrer; hier geht es um die Messung von transaktionaler (Belohnung für Konformität) vs. transformationaler Führung (Charisma, Inspirierende Motivierung, Intellektuelle Stimulierung).
Zu entscheiden ist des Weiteren, • ob die Teilnahme freigestellt werden soll: Dafür spricht, dass damit möglicherweise bestehende Ängste der Beteiligten reduziert werden können, dagegen vor allem die Gefahr der NichtBeteiligung gerade jener Führungskräfte und Mitarbeiterinnen, deren Führungsbeziehungen besonders verbesserungsbedürftig sind, • ob die Anonymität der Mitarbeiterinnen gewahrt werden soll: Dagegen spricht, dass auch Vorgesetzte ihre (Abwärts-) Beurteilungen vertreten müssen, dafür die existierende Machtasymmetrie und die damit verbundene Schutzbedürftigkeit von Mitarbeiterinnen, • ob die Ergebnisse vertraulich behandelt werden und welche Konsequen-
VRML zen aus ihnen gezogen werden sollen: Für Vertraulichkeit spricht, dass eine Offenlegung der individuellen Beurteilungsergebnisse gegenüber den Beurteilenden und/oder den Vorgesetzten der Beurteilten Widerstände auslösen und damit dem verfolgten Entwicklungsziel entgegenstehen könnte. Für Offenlegung spricht, dass nur dann bestimmte Konsequenzen aus den Beurteilungen gezogen werden können und auch, dass sich die Beurteilten ansonsten u.U. mit der Rückmeldung allein gelassen fühlen. Eine völlig konsequenzenlose Vorgesetztenbeurteilung wäre eine Fehlinvestition. Mehr noch: sie würde Schaden anrichten, da Erwartungen geweckt, aber nicht erfüllt wurden. Allerdings herrscht weitgehend Einigkeit darüber, dass Vorgesetztenfeedbacks eher weiche Konsequenzen haben sollten, und das sind i.d.R. Führungstrainings. Literatur: Ebner, H.G./Kiell, G.: Die Vorgesetztenbeurteilung, in: Berthel, J./Groenewald, H. (Hrsg.): Personal-Management, Landsberg am Lech, 16. Nachlieferung 11/1994, S. 1-14; Brinkmann, R.D.: Vorgesetzten-Feedback, Heidelberg 1998.
Gertraude Krell Vorstand Aktiengesellschaft Vorzugsaktien Aktie VRML Abkürzung für Virtual Reality Modelling Language. V R M L ist eine Beschreibungssprache, die dreidimensionale Inhalte in komprimierter Form über das Internet überträgt. Die Kompression wird dadurch erreicht, dass lediglich Vektoren und Füllanweisungen für Ebenen bzw. Polyeder gesendet werden und die eigentliche Darstellung leistungsmäßig auf dem empfangenden Computer ausgeführt wird. Große Hoffnungen in VR-Welten insbesondere im - » E - C o m m e r c e ("virtu859
VRML elles Warenhaus") haben sich bisher noch nicht bestätigt. Dies mag auch daran liegen, dass VRML nur mittels -» Plugins dargestellt werden können. Vulture Capital "Geierkapital". Pejorative Bezeichnung für -> Venture Capital, das zur Verdrängung der Gründer aus der Geschäfitslei-
Vulture Capital tung des -» Start Ups geführt hat. Die Gesellschaftsanteile des weichenden Gründers bleiben hiervon unberührt. Diese Gefahr muss bei der -> Unternehmensgründung beachtet werden.
Währungsrisiken
WACC
w WACC Kapitalkosten Wagniskapital -> Venture Capital Wagniskosten Kostenarten Wahlarbeitszeit Die Wahlarbeitszeit ist ein -> Arbeitszeitmodell, das zur konkreten Ausgestaltung des ->• Arbeitszeitmanagements eingesetzt wird. Es findet keine strenge Unterscheidung zwischen Vollzeit- und -> Teilzeitarbeit statt. Die Wahlarbeitszeit ersetzt die Regelarbeitszeit und gibt einen Wahlarbeitszeit-Korridor (z.B. 30 bis 39 Wochenstunden) vor, innerhalb dessen jeweils zum Jahresanfang die individuelle Arbeitszeit neu vereinbart werden kann. Karl-Friedrich Ackermann/ Simone Vollmer Währungsrisiken Währungsrisiken tangieren die finanzwirtschaftliche Sphäre von international tätigen Unternehmen. Es handelt sich dabei um die Gefahr eines finanziellen Verlustes, der sich durch die Aktivität des Unternehmens in verschiedenen Währungsgebieten ergibt. Währungsrisiken im weiteren Sinn beinhalten das Konvertierungs- und das Transferrisiko. Dabei handelt es sich um die Gefahr, dass der Währungsumtausch und der zwischenstaatliche Transfer von Geldern durch staatliche Eingriffe in die Devisenmärkte behindert oder verzerrt werden. Diese Art von Risiko kann man auch unter das allgemeine Länderrisiko subsumieren. Unter Währungsrisiko im engeren Sinne versteht man das Wechselkursrisiko, das durch die Unsicherheit über Richtung und Ausmaß der zeitlichen Veränderung des Austauschverhältnisses zwischen der inländischen und der oder den ausländi-
sehen Währungen besteht. In einem System flexibler Wechselkurse kann sich der Wechselkurs frei durch Angebot und Nachfrage bilden, eine Kursänderung ist also jederzeit in beliebiger Höhe möglich. In einem System fester Wechselkurse mit Bandbreiten, wie im früheren Europäischen Währungssystem, bestimmen Angebot und Nachfrage den Wechselkurs nur in einem bestimmten Kursbereich. Droht der Wechselkurs diesen Bereich nach oben oder nach unten zu verlassen, so sind die Notenbanken der beteiligten Währungen verpflichtet, durch Interventionen an den Devisenmärkten den Kurs zu stabilisieren. Das Wechselkursrisiko ist also zumindest auf einen vorgegebenen Bereich beschränkt. Allerdings gibt es auch in diesem System die Möglichkeit, den festen Paritätskurs zu ändern, d.h. jede Währung kann durch politischen Beschluss auf- oder abgewertet werden. Eine solche Maßnahme setzt jedoch in der Regel eine deutliche und länger anhaltende Ungleichgewichtssituation auf den Devisenmärkten voraus, so dass sie mehr oder weniger vorhersehbar ist. Man kann grundsätzlich ein direktes und ein indirektes Wechselkursrisiko eines international tätigen Unternehmens unterscheiden. Ein direktes Wechselkursrisiko besteht, wenn das Unternehmen Forderungen oder Verbindlichkeiten als offene Position, d.h. ohne Absicherung, unterhält. Ein direktes Wechselkursrisiko tritt auch dann auf, wenn das Unternehmen Vermögensteile umfasst, die auf ausländische Währung lauten. Ein indirektes Wechselkursrisiko ergibt sich aus dem Tatbestand, dass eine Wechselkursänderung die allgemeine wirtschaftliche Situation eines Unternehmens negativ beeinflussen kann. Dies kann sich etwa auf die internationale Wettbewerbssituation des Unternehmens oder auf die Rentabilität in der Vergangenheit durchgeführter Auslandsinvestitionen beziehen. Direkte Währungsrisiken: Sämtliche auf fremde Währungen lautende Finanzströ861
Währungsrisiken me und Vermögensbestände eines Unternehmens, die in irgendeiner Weise Wechselkursänderungen ausgesetzt sind, werden als "exposure" bezeichnet. Besitzt ein Unternehmen solche Positionen, so werden diese durch Auf- oder Abwertungen der eigenen Währung gegenüber der Fremdwährung in ihrem Wert verändert. Wird die eigene Währung (z.B. Euro) gegenüber der ausländischen Währung (z.B. Dollar) aufgewertet, so sinkt der Euro-Wert der auf Dollar lautenden Forderungen und Verbindlichkeiten. Bei Forderungen impliziert dies einen Verlust, bei Verbindlichkeiten einen Gewinn des Unternehmens. Das betrachtete Unternehmen habe ein Warenexportgeschäft mit einem ausländischen Kunden abgeschlossen, aus dem ihm in 6 Monaten eine Million US-Dollar zufließen. Das Unternehmen hat mit dem aktuellen Kurs kalkuliert, der bei einem Euro pro US-Dollar liegen soll. Bleibt dieser Kurs konstant, so würde das Unternehmen in 6 Monaten eine Million Euro erhalten. Bei einer Aufwertung des Euro gegenüber dem USDollar sinkt der Wert eines US-Dollar, ausgedrückt in Euro, im hier unterstellten Zahlenbeispiel etwa auf 0,9 Euro. Das Unternehmen erhält in 6 Monaten zwar nach wie vor eine Million US-Dollar, diese entsprechen aber nur noch € 0,9 Millionen. Die Aufwertung des Euro gegenüber dem Dollar führt bei dem betrachteten Unternehmen zu einem "Verlust" in Höhe von € 100.000. Wird der Euro gegenüber dem Dollar abgewertet, so verhält es sich umgekehrt. Hat das Unternehmen sowohl Forderungen als auch Verbindlichkeiten mit gleichem Fälligkeitsdatum, so besteht nur in Höhe der Nettogröße ein Währungsrisiko, da sich ansonsten der Währungsgewinn und der Währungsverlust ausgleichen. Das Ausmaß des Wechselkursrisikos ist vom Ausmaß der Volatilität, d.h. von der Häufigkeit und vom Ausmaß der Wechselkursschwankungen abhängig. Diese 862
Währungsrisiken wird in Systemen prinzipiell fester Wechselkurse geringer sein als bei frei schwankenden Wechselkursen, wie es zwischen dem Euro und dem Dollar der Fall ist. Auch allgemeine wirtschaftspolitische Einflüsse und die Relation der wirtschaftlichen Entwicklung zwischen den Ländern sind relevant. Die hier dargestellte Form eines Währungsrisikos kann durch verschiedene Maßnahmen abgesichert werden. Neben dem Versuch, das Risiko durch eine Valutierung in der eigenen Währung auf die Handelspartner abzuwälzen, besteht auch die Möglichkeit der Kursabsicherung auf Terminmärkten. Es sei wieder unterstellt, ein Unternehmen habe eine auf Dollar lautende Forderung, die in 6 Monaten fällig wird. Der in 6 Monaten herrschende Dollar-Euro-Kurs ist nicht bekannt, es existieren aufgrund der extremen Vielzahl von Einflussfaktoren auf den Devisenmärkten auch keine Modelle, die eine exakte Kursvorhersage erlauben würden. Allenfalls Trendaussagen sind möglich. Der Inhaber der Dollarforderungen kann diese jedoch bereits heute zu einem festen Dollarkurs, dem Terminkurs, verkaufen. Er schließt also heute einen Verkaufsvertrag mit festen Konditionen ab, während die Erfüllung des Vertrags erst bei Fälligkeit der Dollar, also in 6 Monaten, zu erfolgen hat. Der heutige DollarTerminkurs kann vom heutigen DollarKassakurs abweichen. Neben den nationalen Zinssätzen sind es vor allem die an den Finanzmärkten bestehenden (unsicheren) Erwartungen über die Wechselkursentwicklung, die den Terminkurs bestimmen. Wird mit einer Abwertung des Dollar im Laufe der nächsten 6 Monate gerechnet, d.h. es wird erwartet, dass der Wert des Euro, ausgedrückt in Dollar, steigt, so lohnt es sich, per Termin Euro zu kaufen und sie bei Fälligkeit sofort zu einem höheren Kassakurs (falls die Erwartung richtig war) wieder zu verkaufen. Da bei diesem Geschäft heute Dollar am Terminmarkt verkauft werden, sinkt der
Währungsrisiken Terminwert des Dollar, und zwar so lange, bis der für die Zukunft erwartete Kassakurs mit dem heutigen Terminkurs übereinstimmt, da sich erst dann keine weitere Terminspekulation mehr lohnt. Der heutige Terminkurs wird also letztlich durch den für die Zukunft erwarteten Kassakurs bestimmt. Eine Alternative zu der Absicherung einer ausstehenden Forderung oder Verbindlichkeit an den Terminmärkten ist eine Absicherung durch den Kauf einer Währungsoption. Das Unternehmen, das in 6 Monaten einen bestimmten Dollarbetrag erwartet, kann sich heute das Recht kaufen, diesen Dollarbetrag bis zu einem festgelegten zukünftigen Termin zu einem ebenfalls fest vereinbarten Kurs zu verkaufen. Im Gegensatz zur Terminabsicherung hat der Optionsinhaber nicht die Verpflichtung, von der Option auch Gebrauch zu machen. Ist etwa der Wert des Dollar bis zum Fälligkeitsdatum gestiegen, so kann auf die Inanspruchnahme der Verkaufsoption verzichtet werden, da jetzt ein Kursgewinn realisiert werden kann. Dieses Recht, auf die Ausübung der Option verzichten zu können, muss jedoch auch mit einer höheren Gebühr als bei einer Terminabsicherung erkauft werden. Schließlich kann - neben zahlreichen anderen Möglichkeiten der Kursabsicherung - auch eine Wechselkursrisiko-Absicherung bei der staatlichen Exportkreditversicherung Hermes abgeschlossen werden. Dies gilt jedoch nur für Absicherungen über einen längeren Zeitraum als 24 Monate, weil eine so langfristige Absicherung üblicherweise auf privaten Finanzmärkten nicht möglich ist. Abgesichert ist dabei nur das Risiko, das nach Ablauf von 24 Monaten eintritt. Aufgrund des Subsidiaritätsprinzips sind die ersten 24 Monate durch Privatgeschäfte zu sichern. Indirekte Währungsrisiken bestehen in Form von eventuell auftretenden allge-
Währungsrisiken meinen wirtschaftlichen Folgen von Wechselkursänderungen. Eine Absicherung gegen diese Art von Währungsrisiko ist praktisch unmöglich. Wird die Währung des eigenen Landes aufgewertet, so wird es für die ausländischen Kunden teurer, einen bestimmten Betrag an inländischer Währung zu "kaufen", d.h. die Absatzchancen an den Weltmärkten würden abnehmen. Die inländischen Unternehmen haben nun zwei Möglichkeiten, auf diese Wechselkursänderung zu reagieren: Zum einen können sie die Wechselkursänderung auf ihre ausländischen Verkaufspreise abwälzen (exchange rate pass-through). Diese werden steigen, so dass die Auslandsnachfrage nach den Produkten des inländischen Unternehmens sinkt. Alternativ hierzu kann das Unternehmen zur Vermeidung von Marktanteils Verlusten die ausländischen Angebotspreise konstant halten (pricing-to-market). Dies bedeutet aber letztlich nichts anderes als einen Rückgang der in Inlandswährung ausgedrückten ausländischen Verkaufspreise und damit ein Sinken der Auslandsumsätze. Ist die Wechselkursänderung von Dauer, so wird das Unternehmen zumindest zu einer Teilüberwälzung der Paritätsänderung gezwungen sein. Bei einer als dauerhaft angesehenen Aufwertung der Inlandswährung kann das Unternehmen auch in Erwägung ziehen, die für den Auslandsmarkt vorgesehenen Produkte vor Ort zu produzieren. Hierbei spricht man von einer -> Direktinvestition. Wird die eigene Währung nach Realisierung der Direktinvestition doch wieder abgewertet, so kann sich der Aufbau der ausländischen Produktionsstätte nachträglich als ökonomisch falsch erweisen, wenn sich durch die Abwertung der Inlandswährung die Produktion im Inland und der anschließende Export der Güter als kostengünstiger erweisen als die Produktion im Ausland. Das Risiko einer Direktinvestition, ebenso wie das, eine Direktinvestition zu unterlassen, resultiert 863
Währungsrisiken
Web-Design
aus der Tatsache, dass bei einem Produktionskostenvergleich zwischen zwei Ländern immer der Wechselkurs als Umrechnungsfaktor berücksichtigt werden muss, so dass dessen Änderung auch die Kostenrelation zwischen In- und Ausland beeinflusst. Literatur: Altmann, J.: Außenwirtschaft fllr Unternehmen, Stuttgart 1993; Eilenberger, G.: Währungsrisiken, Währungsmanagement und Devisenkurssicherung von Unternehmen, 3. Aufl., Frankfurt/M 1990; Gamper, P.: WährungsExposure Management: Bewirtschaftung von Währungsrisiken in international tätigen Unternehmen, Bern u.a. 1995; Mayrhofer, H.: Methodenorientiertes Währungsrisikomanagement, Bern u.a. 1992; Moser, R.: Währungs- und Wechselkursproblematik in der betrieblichen Finanzpolitik, in: Rühli, E./Thommen, J.-P., Untemehmensfiihrung aus finanz- und betriebswirtschaftlicher Sicht, Stuttgart 1981.
Gerhard Rübel WAN Wide Area Network. Der Begriff beschreibt ein Computernetzwerk, das aus räumlich entfernten Rechnern oder Rechnemetzen (-> LAN) besteht. Warehouse Location Problem -» Standortwahl Warenhäuser Handelsformen Weak Signal engl.: "Schwaches Signal". Mit Weak Signals bezeichnet man aufkommende Entwicklungen oder Trends, die als Indikatoren der -» Frühwamsysteme dienen. Wear-in Effekt Im Rahmen der Werbewirkungsforschung (-> Werbewirkung und Werbeumfeld; -> Werbewirkungskontrolle) benutzter Begriff, der auf den beim Rezipienten einer Werbung erzielten Lernerfolg abstellt. Der Wear-in Effekt unterstellt bei steigender Kontakthäufigkeit eine (unterproportionale) Zunahme der Werbewirkung. Das Gegenteil des Wear-in Effekt ist der Wear-out-Effekt. Der Wear-outEffekt unterstellt, dass bei einer großen Zahl von Wiederholungskontakten beim 864
Rezipienten der Werbung Ermüdungserscheinungen auftreten oder es zu Negativreaktionen kommt. Bei Auftreten eines Wear-out-Effektes verringert sich die Werbewirkung mit weiteren Wiederholungskontakten. Der Wear-out-Effekt konnte bisher empirisch nicht nachgewiesen werden. Wear-out Effekt -> Wear-in Effekt Webbing -> E-Commerce Web-Application Web-Applications sind Anwendungen, deren Programmcode im -»Internet steht. Im Gegensatz zu -> Web-Objects haben sie aber einen eher anwendungsorientierten Charakter. Ein Beispiel für Web-Applications liefern die Banner-Generatoren im Internet: Werbebanner können einerseits zu Hause auf dem eigenen PC mit einem Grafikprogramm erstellt werden. Ebenso ist eine automatisierte Erzeugung eines Banners im WWW möglich - das Resultat bekommt der Anwender im Anhang einer -»E-Mail zugesendet. Web-Design Das Web-Design befasst sich mit der Gestaltung von Intemetseiten. Dabei werden in neuerer Zeit verstärkt aufwendige grafische Elemente (teilweise mit Animation, z.B. Flash, -> Plug-in) eingebunden. Es sollte jedoch immer berücksichtigt werden, dass die funktionalen und inhaltlichen Aspekte im Vordergrund stehen: Der Surfer will Informationen, keine aufwendigen Präsentationen mit langen Ladezeiten. Bei der Gestaltung von Internetseiten sollten folgende Regeln beachtet werden: •
•
Aktuelle Meldungen und Inhalte sollen für den Surfer sofort auffindbar sein und dürfen auf keinen Fall veraltet sein ->• Content Management. Klare Pfade durch die Internetpräsenz. Surfer verlieren schnell die Lust, wenn
Web-Design
•
•
•
sie nach der gewünschten Information lange suchen müssen - der nächste Anbieter ist nur einen "Mausklick" entfernt. Verwendung gängiger Plug-ins. Es muss nicht immer die neueste Version sein! Dadurch wird gewährleistet, dass auch Surfer mit älterer Software das Internetangebot besuchen können. Umfassende Produktinformationen anbieten. Nicht jeder ist Fachmann, daher sollten Informationen auf verschiedenen Detailliertheitsstufen angeboten werden. Hinweise zur Zahlungssicherheit bieten. Die meisten Verkäufe scheitern wegen des Misstrauens in die Sicherheit der Zahlungsabwicklung.
Web-EDI -»Intranet Web-Objects Web-Objects sind Teile einer Internetpräsenz, die dem Nutzer einen Mehrwert stiften. In der Regel sind Web-Objects dynamisch, d.h. sie interagieren mit dem Nutzer. Beispiele für Web-Objects sind ein Terminkalender mit Suchfunktion oder Diskussionsforen. Webserver Ein permanent mit dem -»Internet verbundener Computer mit eigener -> IPAdresse, der auf Anfrage eines Internetnutzers Inhalte (z.B. eine in -> HTML erstellte Homepage) an diesen sendet. Wecbselkursrisiko -> Währungsrisiken Weighted Average Cost of Capital -»• Kapitalkosten Weißer Ritter ->• Übernahme (feindliche), -»• Untemehmensakquisition Weiterbildungsmanagement l. Basisentscheidungen des Weiterbildungsmanagements Im Rahmen des Weiterbildungsmanagements sind verschiedene grundlegende
Weiterbildungsmanagement Entscheidungen zu treffen, die eng zusammenhängen: 1. Soll ein Unternehmen seinen Mitarbeitern überhaupt Weiterbildungsmaßnahmen anbieten? 2. Wenn ja, sollen diese Weiterbildungsmaßnahmen selbst erstellt werden (Eigenfertigung) oder von externen Anbietern ganz oder teilweise eingekauft werden (Fremdbezug)? 3. Welchen Anteil der Kosten sollen die Mitarbeiter, welchen das Unternehmen übernehmen? Von welchen Bedingungen hängt die Kostenteilung ab? 2. Weiterbildungsangebot Soll ein Unternehmen seinen Mitarbeitern überhaupt Weiterbildungsmaßnahmen anbieten? Weiterbildungsmaßnahmen stellen Humankapitalinvestitionen dar, die zunächst wie alle Investitionen zu Auszahlungsüberschüssen führen, jedoch in der Erwartung langfristiger Einzahlungsüberschüsse getätigt werden. Daher ist die Frage zu bejahen, wenn die erwarteten Einzahlungen oder Erträge aus der Weiterbildungsmaßnahme die erwarteten Auszahlungen oder Kosten der Maßnahme übersteigen. Weiterbildungserträge sind extrem schwer zu kalkulieren. Jedoch führt eine Ertragsorientierung bei der Angebotsentscheidung in aller Regel (Ggf. können auch Erträge entstehen, wenn die Fluktuation gesenkt oder die Rekrutierung von Mitarbeitern verbessert werden kann. Dies setzt jedoch u.a. eine spezielle Präferenzstruktur von Mitarbeitern voraus) dazu, Weiterbildungsmaßnahmen gezielt und bedarfsorientiert anzubieten: Nur bei einem bestehenden Weiterbildungsbedarf werden auch Erträge aus der Maßnahme entstehen können. Daraus folgt, dass solche Personen, die den Weiterbildungsbedarf eines Mitarbeiters aus der genauen Kenntnis der derzeitigen Tätigkeiten und Leistungen (und auch der in naher Zukunft geplanten Tätigkeiten) einschätzen können, an der Ermittlung des Weiterbildungsbedarfs zu
865
Weiterbildungsmanagement beteiligen sind. Dazu gehören der Mitarbeiter selbst, der direkte Vorgesetzte und ggf. zukünftige Vorgesetzte sowie die für -> Personalplanung und -> Personalentwicklung zuständigen Mitarbeiter der Personalabteilung. Aus dem auslösenden Bedarf ergibt sich teilweise auch die Axt der Inhalte, und damit auch die Spezifität oder die Generalität der zu vermittelnden Qualifikationen. Spezifische Kenntnisse sind im Wesentlichen innerhalb des jeweiligen Unternehmens, generelle Kenntnisse dagegen in vielen Unternehmen produktiv einsetzbar. Die Art der vermittelten Kenntnisse und Fertigkeiten hat Einfluss auf die optimale Bereitstellung der Maßnahme (zweite Basisentscheidung) und auf die optimale Kostenteilung zwischen Mitarbeiter und Unternehmen (dritte Basisentscheidung). 3. Eigenfertigung oder Fremdbezug Wenn Weiterbildungsmaßnahmen angeboten werden, ist zu entscheiden, ob das Unternehmen die Weiterbildung selbst erstellen (Eigenfertigung) oder diese von externen Anbietern ganz oder teilweise einkaufen soll (Fremdbezug). Je spezifischer die Inhalte, und je umfangreicher und je häufiger der Bedarf nach der jeweiligen Weiterbildungsmaßnahme, desto eher sollte das Unternehmen zur Eigenfertigung der Maßnahme greifen. Je genereller die Inhalte, je geringer und je seltener der Bedarf, desto eher bietet sich der komplette Fremdbezug der Maßnahmen an, Picot (1991). Eine Mischform zwischen Eigenfertigung und Fremdbezug, z.B. interne Weiterbildung im eigenen Hause durch externe Trainer, mit denen man eine längerfristige Kooperationsbeziehung eingeht, empfiehlt sich bei hochspezifischen Inhalten und häufigem sowie umfangreichem Vermittlungsbedarf, der sich nicht mit eigenen Ressourcen decken lässt.
866
Weiterbildungsmanagement 4. Finanzierung der Weiterbildung Welchen Anteil der Kosten sollen die Mitarbeiter, welchen das Unternehmen übernehmen? Von welchen Bedingungen hängt die Kostenteilung ab? Spezifische, nur in dem jeweiligen Unternehmen einsetzbare Kenntnisse sollten von Unternehmen und Mitarbeitern gemeinsam finanziert werden, damit beide Parteien einen Anreiz haben, das Arbeitsverhältnis mindestens solange fortzusetzen, bis sich die getätigten Humankapitalinvestitionen amortisiert haben. Würde eine Partei die Investition in das Humankapital des Mitarbeiters alleine finanzieren, so wäre diese Partei potenziell durch eine Abwanderungs- oder Kündigungsdrohung "ausbeutbar", da sich der Ertrag der spezifischen Investition nur in einem fortbestehenden Arbeitsverhältnis realisieren kann. Aus empirischen Studien zu den Kosten der Weiterbildung ist bekannt, dass ca. die Hälfte der durch die Unternehmen getragenen Kosten durch die während der Weiterbildungsmaßnahme weiterlaufenden Löhne der Teilnehmerentsteht (Schmidt 1995, S. 875). Daher ist die Anrechnung von Arbeitszeit bzw. der Einsatz von Freizeit für die Weiterbildungsteilnahme eine wichtige Determinante der dem Unternehmen entstehenden Kosten. Ein Finanzierungsanteil des Mitarbeiters kann damit auch im Einsatz von Freizeit bestehen. Alternative Instrumente sind einerseits direkte monetäre Beteiligungen der Mitarbeiter oder eine indirekte monetäre Beteiligung über einen Lohn, der während bestimmter Phasen, z.B. der Einarbeitungs-, Probe- oder Weiterbildungsphase unter dem sonst zu zahlenden Lohn liegt. Generelle, auch in anderen Unternehmen produktiv einsetzbare Qualifikationen unterliegen potenziell dem Wettbewerb durch andere Arbeitgeber. Besteht um das durch die Weiterbildung neu entstehende Humankapital ein solcher Wettbewerb, so kann dieser zu verbesserten Fluktuati-
Werbebudgetierung
Weiterbildungsmanagement onsmöglichkeiten des Mitarbeiters mit den Konsequenzen einer Abwanderung oder der Aushandlung von Gehaltszuschlägen führen. In beiden Fällen eignet sich der Mitarbeiter die Erträge aus der Weiterbildungsmaßnahme ganz oder teilweise an, so dass durch den Arbeitgeber vor einer Finanzierungszusage sehr genau zu prüfen ist, welchen Anteil der Erträge aus diesen Investitionen er sich wird aneignen können. Hierzu sind Fluktuationsstatistiken ebenso heranzuziehen wie Aussagen zur aktuellen oder zukünftigen Arbeitsmarktlage und ggf. weitere sachdienliche Aussagen zur erwarteten Fluktuation in den betroffenen Mitarbeitergruppen. Kann sich der Arbeitgeber die Erträge aus der generellen Weiterbildungsmaßnahme vermutlich nicht aneignen, so bestehen zwei Möglichkeiten: Entweder, der Mitarbeiter finanziert die Maßnahme ganz oder teilweise selber. Hier kommen neben direkten monetären Beteiligungen wiederum der Einsatz von Freizeit oder die Vereinbarung eines für bestimmte Zeiträume abgesenkten Einarbeitungs- oder Probezeitlohns in Betracht. Oder der Arbeitgeber übernimmt zwar zunächst die Kosten, sichert jedoch die Erträge aus der Investition vertraglich durch eine Rückzahlungsklausel. Eine solche Klausel besagt, dass zunächst vom Arbeitgeber getragene Fort- oder Weiterbildungskosten vom Arbeitnehmer an den Arbeitgeber zurückgezahlt werden müssen, wenn der Arbeitnehmer auf eigenen Wunsch hin das Arbeitsverhältnis verlässt. Rückzahlungsklauseln ordnen also die Kosten einer Humankapitalinvestition immer genau dem Arbeitsverhältnis zu, in welchem auch die Erträge der generellen Qualifikationen anfallen können. Rückzahlungsklauseln sind nach der derzeitigen Rechtsprechung nur unter bestimmten Bedingungen zulässig, vgl. beispielhaft Hanau/Stoffels (1992) und Sander (1996): u.a. dann, wenn es sich erstens bei den Weiterbildungsinhalten um generelle, allgemein verwendbare Qualifikationen
handelt, aus deren Erwerb die Arbeitnehmer einen wesentlichen beruflichen Vorteil ziehen können, wenn zweitens die Länge der Maßnahme in einem vertretbaren Verhältnis zur Länge der Bindungsfrist steht, drittens die Bindungsfrist in der Regel drei Jahre nicht übersteigt und viertens der Rückzahlungsbetrag einerseits maximal auf die tatsächlich angefallenen Kosten begrenzt ist und andererseits über den Bindungszeitraum linear abgeschrieben wird. 5. Nachgelagerte operative Entscheidungen Aufbauend auf den Basisentscheidungen des Weiterbildungsmanagements können die nachgelagerten operativen Entscheidungen zur Durchfuhrung und Evaluation von Weiterbildungsmaßnahmen getroffen werden. Literatur: Ale well, D.: Die Finanzierung betrieblicher Weiterbildung. Juristische und ökonomische Aspekte. Wiesbaden 1997; Hanau, P./Stoffels, M.: Beteiligung von Arbeitnehmern an den Kosten der beruflichen Fortbildung. Zulässigkeit und Grenzen, dargestellt am Beispiel der Flugkapitäne. Stuttgart 1992; Küpper, W./Pawlik, T.: RUckzahlungsklauseln bei Personalentwicklungsmaßnahmen - Ergebnisse einer Unternehmensbefragung; in: Personalfiihrung, Heft 6/1996, S. 5 2 4 - 5 2 8 ; Pawlik, T.: Rückzahlungsklauseln bei Personalentwicklungsmaßnahmen, Dissertation, Hamburg 1995; Picot, A.: Ein neuer Ansatz zur Gestaltung der Leistungstiefe; in: Zeitschrift für betriebswirtschaftliche Forschung, Jg. 43, H e f t 4/1991, S. 3 3 6 - 3 5 7 ; Sander, P.: Rückzahlung von Fortbildungskosten im Tarifvertrag und Fortbildungsvertrag; in: Betrieb und Wirtschaft, Heft 16/1996, S. 6 0 1 - 6 0 2 ; Schmidt, B.: Erhebung zur beruflichen Weiterbildung in Unternehmen im Rahmen des EG-Aktionsprogramms F O R C E - Ergebnisse der Haupterhebung; in: Wirtschaft und Statistik, Heft 12/1995, S. 8 6 7 - 8 7 9 .
Dorothea Alewell Werbebudgetierung Das Werbebudget bezeichnet die im Rahmen der Werbeplanung festzulegende Höhe der Werbeausgaben eines Unternehmens für eine Planperiode. Dies umfasst drei interdependente Teilentscheidungen: •
Bestimmung der Budgethöhe; 867
Werbebudgetierung •
•
sachliche Verteilung des Budgets auf die Werbeträger (Kommunikationsinstrumente, Mediaselektion), die zu bewerbenden Objekte (Produkte, Produktlinien) und die anzusprechenden Kundensegmente (Regionen, Zielgruppen); zeitliche Verteilung des Werbebudgets.
Werbebudgetierung dieser Methode ist, dass das Werbebudget an den tatsächlichen Erfordernissen "vorbei" geplant wird und möglicherweise werbeintensive Produkte (Innovationen) aufgrund ihrer noch geringen Kostentragfähigkeit einen zu geringen Werbeetat erhalten. •
Bei der Methode der Konkurrenzorientierung wird das eigene Werbebudgets an den Werbeumfang einzelner Konkurrenten bzw. der Gesamtbranche angepasst. Eine Kenngröße hierfür ist der sog. Share-of-voice, der den eigenen Anteil der Werbeausgaben an den gesamten Werbeausgaben (Mediaausgaben) der Branche misst. Diese Methode besitzt zwar den Vorteil, dass ein Unternehmen im Umfang der Werbung nicht hinter die Konkurrenz zurückfällt (passive Werbestrategie), auf Branchenebene kann dies aber zu einem gegenseitigen Aufschaukeln der Werbeausgaben führen (Gefangenendilemma): Die Unternehmen weisen dann (überhöhte) Werbebudgets auf, die hinsichtlich ihrer Werbewirkung nur noch wenig effizient sind.
•
Der marginalanalytische Ansatz beruht auf dem Gedankengang, dass das Werbebudget so lange zu erhöhen ist, wie sich dadurch ein Gewinnzuwachs erzielen lässt. Das optimale Werbebudget ist erreicht, wenn die Grenzausgaben der Werbung und der dadurch erzielte Grenzerlös gleich groß sind. Die konkrete Bestimmung des optimalen Werbebudgets setzt allerdings die Kenntnis der Werberesponse-Funktion, die den Zusammenhang von Werbebudget und Absatz abbildet, voraus. Hierbei zeigen empirische Studien, dass im Werbeaufwand zumeist ein bestimmtes Mindestniveau erreicht werden muss, um am Markt überhaupt "Gehör zu finden" (-» weari'n-Effekt). Ferner wächst - ab einem bestimmten Punkt - mit einer Steigerung des Werbebudgets der Absatz nur noch degressiv an (-» wear-out-Effekt)
Eine simultane Optimierung dieser Teilentscheidungen ist aufgrund ihres komplexen Charakters nicht möglich; vielfach wird deshalb zunächst das gesamte Werbebudget bestimmt und daraus dann bspw. mit Hilfe von heuristischen Evaluierungsmethoden (-> Kontaktmaßzahlen) eine sachliche und zeitliche -» Werbestreuplanung abgeleitet. Bei der Bestimmung der Budgethöhe lassen sich mehrere Ansätze unterscheiden: •
•
Umsatz- bzw. Marktanteilsmethode: Aus Erfahrungswerten ist annähernd bekannt, welches Werbebudget - unter Annahme bestimmter Konkurrenzreaktionen - notwendig ist, um einen bestimmten Umsatz oder Marktanteil in einer Branche zu erzielen. Ausgehend vom geplanten Umsatz (Marktanteil) ergibt sich dann das notwendige Werbebudget. Nachteilig an dieser Methode ist, dass das Planungsproblem lediglich auf eine höhere Hierarchiestufe (Bestimmung des optimalen Marktanteils) verlagert wird und die Prämisse der zeitlichen Konstanz von Werbewirkung und Konkurrenzreaktion gelten muss. "All you can afford"-Methode: Das Werbebudget orientiert sich als Residualgröße an den noch vorhandenen finanziellen Ressourcen des Unternehmens. In diesem Sinn kann man auch nach dem Tragfähigkeitsprinzip einen bestimmten Betrag jeder Produkteinheit für Werbezwecke zuweisen, woraus sich dann durch Aggregation das Werbebudget ergibt. Nachteil
868
Werbestreuplanung
Werbebudgetierung oder ist sogar rückläufig (Reaktanz der Nachfrager). Dies impliziert, dass das maximal mögliche Werbebudget keinesfalls das optimale Werbebudget sein muss. Wenngleich aufgrund von Datenbeschaffungsproblemen die praktische Anwendung marginalanalytischer Methoden oft scheitert, geben Simulationsanalysen zumindest Tendenzaussagen über die budgetmäßige Ausgestaltung einer Werbestrategie. •
Der aufgabenorientierte Ansatz geht von der Fragestellung aus, welche Werbeziele erreicht werden sollen und wie hoch hierfür der Werbeaufwand sein muss: So erfordert das Halten einer Wettbewerbsposition in einem Markt mit Stammkunden ein niedrigeres Werbebudget als eine Ausweitung des Marktanteils in einem heftigen Konkurrenzumfeld mit "werbegesättigten" Nachfragern; ebenso liegt der Werbebedarf für eine Innovation höher als für ein eingeführtes Produkt. Im Sinne eines -> Gegenstromverfahrens kann der Budgetbedarf der einzelnen Produktlinien gesammelt und unter Gewichtung der sortimentsspezifischen Bedeutung der Produkte und der vorhandenen Ressourcen ein tragfähiges Werbebudget bestimmt werden.
Die Planung des Werbebudgets sollte mit einem Controlling der Effizienz der eingesetzten Werbeausgaben verbunden sein. Hierbei ist aber eine oft zeitverzögerte Werbewirkung zu beachten (carry over Effekte). Dies gilt vor allem dann, wenn Werbung ein Markenimage (-> Goodwill) aufbauen soll. Aus Marketingsicht besitzen Werbeausgaben damit einen Investitionscharakter. Literatur: Schmalen, H.: Kommunikationspolitik, 2. Aufl., Stuttgart 1995; Schweiger, G./Schrattenecker, G.: Werbung, 4. Aufl., Stuttgart 1995.
Hans Pechtl
Werbestreuplanung umfasst Entscheidungen, die ein vorgegebenes Werbebudget •
sachlich auf Werbeträger, Werbeobjekte (Produkte) und anzusprechende Kundensegmente (Zielgruppen), • zeitlich innerhalb der Planungsperiode verteilen. Die sachliche Verteilung des Werbebudgets auf die Werbeträger bezieht sich häufig nur auf die Mediaplanung, da das Werbebudget vorab bereits "Einzelbudgets" für die Kommunikationsinstrumente (z.B. -> Mediawerbung, —> Direktwerbung, -> Verkaufsförderung, -» Sponsoring, etc.) aufgestellt sind. Ansatzpunkt für die Mediaplanung sind -* Kontaktmaßzahlen, die den Berührungserfolg (Anzahl Kontakte) bei einer bestimmten Anzahl von Belegungen in einem Medium angeben. Diese Kontakte lassen sich ferner danach gewichten, welche Zielgruppen des Unternehmens in diesem Medium erreicht werden bzw. wie geeignet dieses Medium für die Übermittlung der Werbebotschaften ist. Hieraus lässt sich ein Mediaselektionsmodell aufstellen, das unter einer gegebenen Anzahl von Medien einen Werbestreuplan aufstellt, der die Kontaktsumme maximiert. Optimierungskriterium ist der sog. -> Tausender-Kontaktpreis (TKP), der angibt, wie viel es in einem Medium kostet, 1.000 (zielgruppen- und mediengewichtete) Kontakte zu erzielen. Dasjenige Medium mit dem niedrigsten TKP wird in allen Ausgaben (Sendungen) belegt. Sollte dann noch Werbebudget vorhanden sein, wird dasjenige Medium mit dem zweitniedrigsten TKP möglichst umfangreich belegt, usw. Die Daten zur Anzahl an Lesern/Sehern, aufgeschlüsselt nach Zielgruppen, werden von Verlagen und Fernsehsendern regelmäßig in MediaAnalysen erhoben und den Werbetreibenden als Informationsmaterial zur Verfügung gestellt.
869
Werbestreuplanung In computergestützten Simulationsmodellen lassen sich komplexere Streupläne erstellen, die bspw. auch eine Kontaktmengengewichtung einbeziehen. Hierbei wird berücksichtigt, ob es für das Unternehmen - ausgehend von den Werbezielen - vorteilhaft ist, mit einem Rezipienten möglichst viele Wiederholungskontakte zu erzielen, oder möglichst viele Nachfrager zumindest einmal mit der Werbebotschaft zu erreichen (ErstKontakte). Ein alternativer Ansatz (heuristische Werbestreuplanung) besteht darin, vorgegebene und mit dem Werbebudget finanzierbare Streupläne anhand von Leistungskriterien im Sinne von Scoringmodellen (sog. Scoring-Verfahren) zu bewerten: Als Kenngrößen dienen häufig neben der Kontaktsumme oder dem TKP weitere Kontaktmaßzahlen wie der OTCWert (durchschnittliche Anzahl der Werbekontakte einer Person, wenn sie erreicht wurde) oder die Gross Rating Points (GRP), die den Werbedruck, den eine Zielgruppe ausgesetzt ist, messen. Hinsichtlich der zeitlichen Verteilung des Werbebudgets (Timing) lassen sich drei Strategien unterscheiden: In der "Strategie des Klotzens" werden die Werbeanstrengungen auf bestimmte Zeitfenster in der Planungsperiode konzentriert, bei der "Strategie des Kleckerns" über den Planungszeitraum kontinuierlich verteilt. Die Pulsationsstrategie erhöht und senkt systematisch den Werbeaufwand im Zeitablauf. Hintergrund dieser Strategie ist, dass eine Erhöhung der Werbung zu Spontanbzw. Probierkäufen führt und einen -> "Goodwill" aufbaut {carry over Effekte): Deshalb treten auch nach Ende der Werbeaktion noch dadurch induzierte Verkäufe auf. Folglich wird in bestimmten Abständen die Werbung "gepusht", um sich danach einige Zeit auf dem geschaffenen Goodwill "ausruhen" zu können. Für eine praktische Umsetzung ist allerdings die Kenntnis der Werberesponse-Funktion notwendig, um die Zeitdauer 870
Werbestreuplanung der Pulsations- und Nichtpulsationsphasen zu bestimmen. Offen ist femer, ob sich die Nachfrager nicht an die Pulsation gewöhnen, so dass in der "Pushphase" dann ein immer größerer Werbeaufwand notwendig wird, um die gleiche Absatzwirkung zu erzielen. Welche Timingstrategie vorteilhaft ist, wird vor allem durch die Ziele der Werbung bestimmt. Soll Werbung MarketingEvents (-> Eventmarketing) oder zeitlich befristete Maßnahmen in der Absatzforderung (z.B. Sonderangebote, Neuprodukteinfiihrung) unterstützen, empfiehlt sich eine gebündelte Werbung zu diesen Zeitpunkten. Beim Aufbau eines Markenimages ist dagegen eine kontinuierliche oder pulsierende Werbestrategie geeigneter. In vielen Branchen nimmt ferner eine Jahresablauf schwankende Rezipientenzahl Einfluss auf das Timing: In den Monaten Juli/August "fahren" viele Unternehmen ihre Werbung "zurück" (Sommerloch), da viele Leser/Seher aufgrund ihres Urlaubs eine geringere Kontaktwahrscheinlichkeit mit der Werbung besitzen. Im Oktober bis Dezember wird die Werbung als Vorbereitung des Weihnachtsgeschäfts erhöht. Sachliche Aufteilung des Werbebudgets auf die Produkte und Produktlinien des Unternehmens bestimmt sich nach einem Kosten/Nutzen-Kalkül: Das Werbebudget ist optimal aufgeteilt, wenn für jedes Produkt der werbeinduzierte Grenzgewinn (Differenzen aus Grenzumsatz und Grenzkosten) gleich groß ist. Pragmatisch orientiert sich diese Überlegung am "Werbebedarf 1 der einzelnen Produkte, der sich wiederum aus den Werbezielen ableitet (aufgabenorientierter Ansatz der Werbebudgetierung). Aufgrund der Komplexität wird die zeitliche und medienbezogene Werbestreuplanung meist - zusammen mit der kreativen Werbegestaltung - an Werbeagenturen
Werbestreuplanung
Werbewirkung und Werbeumfeld
ausgelagert. Hier besteht auch ein Erfahrungswissen, welche Mediapläne effizient sind bzw. welche Medien ein "Muss" darstellen, wenn bestimmte Werbebotschaften an spezifische Zielgruppen kommuniziert werden sollen. Literatur: Schmalen, H.: Kommunikationspolitik, 2. Aufl., Stuttgart 1995; Schweiger, G./Schrattenecker, G.: Werbung, 4. Aufl., Stuttgart 1995.
Hans Pechtl Werbewirkung und Werbeumfeld Die Intensivierung des Wettbewerbs um die Gunst von Zuschauern und Lesern führte seit Mitte der 90er Jahre dazu, dass die Mediaplanung nicht mehr nur unter Effizienzaspekien, sondern zunehmend auch unter Effektivitätsaspekten erfolgte. D.h. neben die Betrachtung des PreisLeistungsverhältnisses trat als weiteres Kriterium der Werbewirkungsaspekt. Achtete man anfangs so gut wie gar nicht auf die Umfelder, in denen Werbung platziert wurde, setzte seit 1989/90 ein allmählicher Lernprozess ein und die Werbetreibenden besannen sich auf einen wesentlichen Vorteil, den Fernsehwerbung mit dem Aufkommen privater Sender im Gegensatz zum Zuteilungsmechanismus des öffentlich-rechtlichen Monopols bot: Die Möglichkeit, die Umfelder der Fernsehwerbung selbst zu bestimmen. Neben die quantitativen und objektiv messbaren Kriterien Reichweite und -> Tausender-Kontaktpreis (TKP) tritt somit als qualitatives Kriterium die Einschätzung des Programmumfeldes durch den Werbetreibenden. Für Werbetreibende ist es von besonderer Bedeutung zu wissen, ob und ggf. wie Werbeumfelder die Werbewirkung behindern oder fördern: Kann ein und derselbe Werbespot in unterschiedlichen Umfeldern unterschiedliche Wirkungen erzielen? Lässt sich die Effektivität der Werbung durch bestimmte Werbeumfelder steigern und falls ja, was müssten das für Umfelder sein? Gibt es Umfelder, die besonders wirksam sind und Umfelder,
die besonders unwirksam oder gar kontraproduktiv sind? (Kloss, 1998). Zu Werbeumfeldeffekten gibt es eine Vielzahl von Untersuchungen (Übersicht bei: Brosius, 1995). Alle kommen sie zu dem Ergebnis, dass die Werbewirkung durch das Umfeld der Werbung beeinflusst wird. Allerdings sind die Ergebnisse über die Wirkungsrichtung gegensätzlich. Die eine Forschungsrichtung findet Übertragungseffekte\ Programmumfelder mit positiver Stimmung fördern das Behalten und Erinnern und führen zu einer positiven Bewertung der Werbespots, negative Umfelder behindern die Werbung. Andere Untersuchungen finden Kontrasteffekte'. Positive Programmumfelder behindern das Behalten und Erinnern und führen zu einer negativen Bewertung der Werbespots, negative Umfelder sind dagegen förderlich. Für Werbetreibende, die unter Effektivitätsaspekten eine "Werbeumfeldoptimierung" anstreben, ergeben die Erkenntnisse aus der Werbewirkungsforschung keine konkreten Umsetzungshinweise. Die Forschung zeigt auf, dass sich die Effektivität eines Werbespots durch gezielte Auswahl der Umfelder steigern lässt, aber sie zeigt nicht auf, in welches Umfeld ein bestimmter Werbespot platziert werden sollte, um eine "optimale" Wirkung zu erzielen. Die Forschungsbefunde bedeuten für die Werbetreibenden ein Dilemma: Ein und dasselbe Werbeumfeld kann gegensätzliche Wirkungen hervorrufen, es kann die Werbewirkung verstärken, aber auch konterkarieren. Beide Befundstränge erweisen sich als plausibel: Es ist nachzuvollziehen, dass sich die Aufmerksamkeit, die ein interessantes Programmumfeld evoziert auf die nachfolgende bzw. eingebettete Werbung überträgt. Es ist jedoch ebenso nachvollziehbar, dass in einem interessanten Pro871
Werbewirkung und Werbeumfeld grammumfeld die Werbung als störende Unterbrechung und Belästigung empfunden wird und Verärgerung hervorruft und nur eine geringe Aufmerksamkeit erzielt. Es erscheint plausibel, dass Produkte in einem positivem Umfeld auch positiver bewertet werden, ebenso wie es plausibel erscheint, dass Aufmerksamkeit und Erinnerung in einem kontrastierenden Umfeld größer sind. Die Plausibilität von sowohl Übertragungs- als auch Kontrasteffekten impliziert folgende Schlussfolgerung: Es erscheint sinnvoll, Übertragungs- und Kontrasteffekte nicht als sich gegenseitig ausschließendes Gegensatzpaar zu verstehen in dem Sinne, dass eine bestimmte Sendung grundsätzlich die Werbung entweder fordert oder behindert. Es erscheint vielmehr naheliegend, die Befundstränge als parallel wirkend zu interpretieren in dem Sinne, dass bei einem Teil der Zuschauer Programm und Werbung in die gleiche Richtung wirken, bei einem anderen Teil der Zuschauer kontrastieren und bei einem dritten Teil möglicherweise keinerlei Wirkungen festzustellen sind. Diese Interpretation der Forschungsergebnisse bedeutet jedoch, dass jedes Programm in der anvisierten Zielgruppe immer sowohl Übertragungsals auch Kontrasteffekte in Bezug auf die Werbung erzielt. Auch als "unpassend" eingestufte Programme würden demzufolge positive Effekte generieren. Unter dem Aspekt der Kontrasthypothese erscheint beispielsweise die Platzierung eines Unox-Suppenspots in unmittelbarer Folge einer Erbrechensszene in dem Film "Der Exorzist" unter einem anderen Licht. Im Verlauf einer Werbekampagne wird ein Werbespot über einen längeren Zeitraum in "guten" wie in vermeintlich "schlechten" Umfeldern platziert. Es erscheint als ausgesprochen unwahrscheinlich, dass sich ein Zuschauer über den gesamten Kampagnenzeitraum hinweg erinnern kann, in welchem Umfeld er wann, welchen Werbespot gesehen hat. 872
Werbewirkung und Werbeumfeld Aufgrund der kognitiven Dissonanz erzielte der Unox-Spot sicherlich eine erhöhte Aufmerksamkeit, die zu einer kognitiven Verarbeitung der Platzierung gefuhrt haben dürfte und damit zu einer bewussten gedanklichen Auseinandersetzung mit der Marke, was von den Involvementvoraussetzungen (-> Involvement) her mehr ist, als die meisten Werbespots erreichen können. Negative Überstrahlungen auf die Marke erscheinen nur bei konsequenter Platzierung in vergleichbaren Umfeldern als wahrscheinlich. Werbung in Massenmedien trifft niemals auf eine homogene Zielgruppe, sondern auf eine Vielzahl von Einzelindividuen, mit jeweils spezifischen individuellen und situativen Gegebenheiten: Wenn zwei Personen die gleiche Werbung im gleichen Umfeld sehen, wird sie nur zufälligerweise die gleiche Wirkung verursachen. Unabhängig von den unbefriedigenden Forschungsergebnissen, steht die deutsche Werbewirtschaft vor einem rein praktischen und derzeit nicht lösbaren Problem. Die Werbeblockregelung im deutschen Fernsehen bedingt, dass ein Werbespot nicht nur von einem programmlichen Umfeld, sondern immer auch von einem Werbeumfeld umgeben ist. Das Programmumfeld können die Werbetreibenden frei wählen, wobei lediglich der Zeitpunkt der Werbeunterbrechung ein unkontrollierbares Moment darstellt. Hingegen ist das Werbeumfeld dem Einfluss der Werbetreibenden entzogen. Ein Werbeblock umfasst die unterschiedlichsten Werbespots. Die von der Position und den umgebenden Werbespots ausgehenden Effekte sind nicht kontrollierbar. Abgesehen davon, hat auch hier die Werbewirkungsforschung keine eindeutigen Ergebnisse aufzeigen können. Ein Werbespot wird in seiner Wirkung sowohl vom Programm- als auch vom Werbeumfeld beeinflusst. Die Effekte können sich gegenseitig verstärken oder konterkarieren. Da
Werbewirkung und Werbeumfeld es sich jedoch um das Zusammenspiel einer kontrollierbaren und einer unkontrollierbaren Variable handelt, ist das Ergebnis notwendigerweise offen. Selbst wenn die Forschung zu eindeutigen Empfehlungen hinsichtlich einer effektiven Platzierung eines Werbespots in ein Programmumfeld gekommen wäre, bliebe die Werbeumfeldkomponente der unkontrollierbare Faktor. Literatur: Kloss, I.: Der Einfluß des Werbeumfeldes auf die Werbewirkung, in: Der Betriebswirt Nr. 2, 1998, S. 17-21; Brosius, H.B.: Ausstrahlungseffekte des U m f e l d e s (umliegendes Programm und umliegende Werbung) auf die Verarbeitung von Fernsehwerbung, Mainz 1995.
Ingomar Kloss Werbcwirkungskontrolle Als Werbewirkung kann jede Reaktion eines Konsumenten auf Werbung interpretiert werden (—• Pretest, -» Posttest). Dabei hat sich die Werbeforschung vor allem mit Konsumgüterwerbung beschäftigt. Da die Werbung normalerweise darauf abzielt, Absatzerfolge zu erzielen, müsste man die Werbewirkung anhand der Absatzzahlen bewerten. Es ist jedoch bekannt, dass der Absatz von einer Vielzahl von Faktoren abhängt und diese teilweise sehr kurzfristig, andere Maßnahmen dagegen nur langfristig Wirkung entfalten. Diese Faktoren umfassen alle Instrumente des -> Marketing-Mix, die Konkurrenzaktivitäten und die volkswirtschaftlichen Rahmenbedingungen. Dadurch entsteht das Problem der Zurechenbarkeit - ein Absatzerfolg in einer Periode kann nicht alleine einer aktuellen Werbekampagne zugerechnet werden. Man greift deshalb bei der Werbewirkungskontrolle auf psychologische und gelegentlich auch soziologische Teilwirkungen zurück. Diese Tests - und dies konnte in den letzten Jahren auch durch wissenschaftlich angelegte Validierungsuntersuchungen (-»Validität) untermauert werden - können mit hoher Wahrscheinlichkeit aus einer Reihe von Werbealter-
Werbewirkungskontrolle nativen die besten, verhaltenswirksamsten Entwürfe herausfiltern. Man unterscheidet zwischen evaluativen und diagnostischen Wirkungsmaßen (bzw. Indikatoren). Als evaluative Indikatoren bezeichnet man jene Variablen, die unmittelbar das Kaufverhalten prognostizieren. Diagnostische Größen helfen bei der Erklärung des "Warum" und tragen zur Ursachenanalyse bei, wobei die Stärken und Schwächen der Werbung aufgedeckt werden. Diese Unterscheidung stellt bereits eine erste, theoretisch fundierte Gliederung der Wirkungskriterien dar. Im nächsten Schritt können gerade die evaluativen Kriterien in lernorientierte und einstellungs- bzw. profilierungsorientierte Werbeziele unterschieden werden. Lernorientierte Wirkungen verfolgen das Ziel, die Markenbekanntheit (man spricht auch von Aktualität der Marke oder von Awareness) zu steigern. Als Ergebnis muss die Marke (oder das Produkt) im Gedächtnis des Konsumenten so präsent sein, dass sie bei Kaufentscheidungen als bekannte und erwägenswerte Alternative berücksichtigt wird und zu den 1-5 Alternativen gehört, die in die weitere Auswahl kommen (das sog. "Evoked Set" oder auch "Top-of-Mind Awareness"). Es wird deshalb geprüft, inwieweit die Werbung und ihre Inhalte im Gedächtnis des Konsumenten gespeichert und verankert wurde. Für die Messung verwendet man häufig Maße der aktiven Erinnerung also sog. Recall-Verfahren wie z.B. "DayAfter-Recall". Aber auch passive Erinnerungsmaße wie die RecognitionMethoden sind möglich, wie etwa das Starch-Verfahren. Während RecognitionVerfahren auf dem Wiedererkennen aufbauen und deshalb zur Erzielung trennscharfer Werte gezielte Nachfragen zu Detailwirkungen notwendig sind, bauen Recall-Tests auf der aktiven Erinnerung auf, müssen jedoch häufig durch die Vorgabe von Erinnerungshilfen "gestützt" werden. Eine lernorientierte Wirkung ist eine wichtige, notwendige Bedingung, die 873
Werbewirkungskontrolle aber noch nicht hinreichend für den Absatzerfolg ist. Einstellungs- oder Profilierungswirkungen haben zum Ziel, eine Einstellung (ein Image) gegenüber der beworbenen Marke aufzubauen bzw. so zu verändern, dass eine angestrebte Positionierung im Vergleich zur Konkurrenz erreicht wird. Durch eine herausgehobene Positionierung entstehen beim Konsumenten Präferenzen für das eigene Angebot. Es wird dadurch attraktiver und anders als die Konkurrenz wahrgenommen. Man spricht bei unmittelbaren Einstellungsverschiebungen auch von "Persuasion". Dieses Ziel erreicht man u.a. durch die Vermittlung von Produkteigenschaften, die in der Zielgruppe einen aktiven Beitrag zur Bedürfnisbefriedigung leisten. In gesättigten Märkten und abhängig vom Produkt sind auch emotionale Erlebnisse Gegenstand einer -> Markenpositionierung. Die Messung erfolgt durch Ratingskalen oder als Verbundmessung über Conjoint-Analysen (-> Conjoint-Measurement). Die direkte Messung der Kaufabsicht (Kaufintention) hat sich insbesondere bei Vorher-Nachher-Messungen bewährt. Der Übergang von den evaluativen zu den diagnostischen Maßen ist fließend. An der Nahtstelle ist die Akzeptanz anzusiedeln. Darunter versteht man das Gefallen an der Art und Weise wie das Werbemittel z.B. der TV-Spot - gestaltet wurde. Man spricht in der Praxis auch von "Likeability" in der Wissenschaft von "Attitüde Toward the Ad". Dringt man noch weiter in den diagnostischen Bereich vor, sieht man sich einer Vielzahl von Gestaltungselementen gegenüber. Ohne ein theoretisch begründetes, auf den zahlreichen empirischen Ergebnissen aufbauendes Werbewirkungsmodell kann man diese Flut von Einzelbausteinen nicht zu einem für realwissenschaftliche Fragestellungen handhabbaren Werkzeug verdichten und konsistent ord874
Werbewirkungskontrolle nen. Dabei sollte das Femziel die Integration aller relevanten Teilwirkungen sein. Einfache Modelle gingen von hierarchisch aufgebauten Stufenschemata aus, wie die bekannte AIDA-Formel. Man ging davon aus, dass eine Person diese Wirkungsstufen in einer streng hierarchischen und somit linearen Abfolge durchläuft. Integrative Modelle versuchen heute die Simultanität der unterschiedlichen, intervenierenden Wirkungsfaktoren ("Mediating Variables"), von rein diagnostischen bis hin zu den evaluativen Werbewirkungskriterien unter Berücksichtigung moderierender Variablen ("Moderator Variables"), die wie ein Katalysator bestimmte Verarbeitungsprozesse auslösen oder bremsen, nach aktuellem Erkenntnisstand parallel zu analysieren und zu interpretieren. So berücksichtigt das vom Autor entwickelte "Simultanmodell der Werbewirkung" die Aktivierung bzw. Aufmerksamkeit als stark diagnostische Wirkung. Danach gilt es die verarbeitungsbezogenen emotionalen und kognitiven (Lern-) Prozesse zu unterscheiden. Diese werden durch gestaltungsbezogene Varianten wie Text- oder Bildkommunikation unterschiedlich beeinflusst. Schließlich wirkt das Involvement als Moderatorvariable und zwingt zu ganz unterschiedlichen Werbekreationen. Als ökonomisches Ziel wird im Modell das (Kauf-) Verhalten berücksichtigt, wobei die evaluativen Ziele: Aktualisierung (und Branding), Positionierung und ergänzend Impulskäufe zu beachten sind. Offen bleibt, inwieweit die unterschiedlichen Prozessverläufe, die bei wiederholten Kontakten auftreten, besser als moderierende oder als intervenierende Größe zu betrachten sind. Diese Subkomponenten müssen gleichzeitig und mit ihren vielschichtigen Wechselwirkungen optimiert werden. Auf diesem hohen Abstraktionsniveau bildet das Modell den Ausgangspunkt für eine systematische Implementierung eines
Wertanalyse
Werbewirkungskontrolle
se-Objekts wird meist eine -» ABCAnalyse verwendet. Die Vorbereitung umfasst femer die Zusammenstellung des Wertanalyse-Teams (-»Teamstrukturen) und die Aufstellung eines Terminplans.
großen Teils des verfugbaren Werbewirkungswissens in einem Expertensystem, so dass ein operationales Modell als Netzwerk von Wirkungsbeziehungen entsteht und genutzt werden kann. Literatur: Haley, R.I./Baldinger, A.L.: The A R F C o p y Research Validity Project, in: Journal of Advertising Research 31, April/May 1991, 11-32.
•
Ermitteln des Ist-Zustandes: Um zu erkennen, bei welchen Funktionen besonders hohe Kosten entstehen, muss das Wertanalyse-Objekt zunächst genau beschrieben werden. Dazu sind alle Haupt- und Nebenfunktionen, Gebrauchs- und Geltungsfunktionen des Produktes oder der Dienstleistung zu ermitteln. Den einzelnen Funktionen werden dann die Herstellkosten zugeordnet.
•
Prüfen des Ist-Zustands: Nachdem Soll-Funktionen (sog. notwendige Funktionen) festgelegt wurden, sind diese mit den vorher ermittelten IstFunktionen abzugleichen. Abweichungen sind der Ausgangspunkt der kreativen Phase der Wertanalyse.
•
Ermitteln von Lösungen: U m notwendige Funktionen kostengünstiger erstellt zu können, oder neue wertschaffende Funktionen hinzuzufügen, lassen sich die Techniken der Ideenfindung (bspw. Brainstorming, -> Morphologischer Kasten, -> Methode 6-3-5, -» Synektik) verwenden.
•
Bei der Durchführung der Wertanalyse lassen sich fünf Hauptschritte unterscheiden:
Prüfen der Lösung: Zunächst geht es bei der Auswahl von Lösungen um die Frage, ob die notwendigen SollFunktionen erfüllt werden. Daran schließt sich eine Wirtschaftlichkeitsprüfung an. Ziel ist es, diejenige Lösung zu ermitteln, bei der die vorgegebenen Funktionen mit den geringsten Kosten realisiert werden können.
Vorbereitung: Für den Erfolg der Wertanalyse ist die Auswahl des Wertanalyse-Objekts sehr wichtig. Vor allem Produkte und Dienstleistungen mit einer hohen Wertschöpfung bieten große Einsparmöglichkeiten. Zur Bestimmung des Wertanaly-
Die Wertanalyse fordert die ständige Anpassung des Unternehmens, bzw. der Organisation an die Erfordernisse des Marktes unter gleichzeitiger Berücksichtigung der unternehmensinternen Ressourcen. Je nach Zeitpunkt des Einsatzes
Bruno Neibecker Werkstattfertigung Unter Werkstattfertigung versteht man eine Organisationsform der Teilefertigung, bei der Betriebsmittel und Einsatz von Arbeitskräften so angeordnet werden, dass Maschinen und Arbeitsplätze mit gleichartiger Verrichtungen zusammengefasst werden (s.a. Fließfertigung, —1• Produktionslogistik, > Produktionsorganisation). Wertanalyse Die Wertanalyse ist eine praxiserprobte Methode zur Steigerung des Wertes von Produkten, Leistungen und Abläufen. Das Verfahren der Wertanalyse wurde Ende der 40er Jahre in den USA von Larry D. Miles bei General Electric entwickelt. Ziel der Wertanalyse ist es, Produkte oder Dienstleistungen mit gleichem Funktionswert kostengünstiger zu erstellen, wertlose Funktionen auszuschalten oder neue, wertschaffende Funktionen hinzuzufügen. Unter dem Funktionswert versteht man dabei die Nutzenstiftung, ein bestimmtes Bedürfnis zu befriedigen. Die Wertanalyse und ihre Phase sind sehr gut definiert in den Normen V D I 2 8 0 1 , DIN 69910, Ö N O R M A 6750, bzw. EN 12973.
•
875
Wertanalyse der Wertanalyse kann sie wertgestaltend (bei Neuprojekten) oder wertverbessemd (bei Überarbeitung bestehender Produkte/ Prozesse) wirken. Die Wertanalyse ist damit ein wichtiger Baustein zur Gestaltung von Produkten, Dienstleistungen und Prozessen, um die Anforderungen und Erwartungen des Marktes und der Kunden "so gut wie gefordert" und nicht "so gut wie möglich" zu erfüllen. Stand in der Vergangenheit häufig einseitig die Kostensenkung im Vordergrund, so wird die Wertanalyse heute mehr und mehr auch für die Mehrung des Kundennutzen verwendet. Literatur: Kern, W./Schröder, H.H.: Konzept, Methode und Probleme der Wertanalyse, in: WISU 8/1978, S. 375-381 und S. 427^130; Hartrampf, V.: Wertanalyse in der unternehmensübergreifenden Logistikkette, Verl. Praxiswissen, Dortmund 1998.
Wertmanagement, ganzheitliches beispielsweise der Endwert der frei verfügbaren -» Cash-flows zu berechnen oder wie die Kapitalkosten zu bestimmen seien. Aus der Sicht der Gestaltung eines Unternehmens wird damit aber nur ein kleiner Ausschnitt abgedeckt, vielleicht die letzten 5% der gesamten Arbeit. Natürlich ist es wichtig, einen geeigneten Maßstab der Wertsteigerung zu haben. Viel entscheidender ist aber die Beantwortung der Frage, wo und wie im Unternehmen eine Wertsteigerung überhaupt erzielt werden kann. Und alle intellektuellen Turnübungen nützen nichts, wenn nicht dem Umsetzungsprozess die notwendige Beachtung geschenkt wird. Somit stellen sich für ein ganzheitliches Wertmanagement folgende Fragen: •
Was bewirken? Maßnahmen zur Wertsteigerung müssen für die Mitarbeiterinnen und Mitarbeiter des Unternehmens nicht nur logisch nachvollziehbar sein, sondern sie auch zur Eigeninitiative anregen. Geschickte Kommunikation ist dabei genau so wichtig, wie die Gestaltung der Anreizsysteme. Nur wenn Wertsteigerung des Unternehmens auch Wertsteigerung für die Beteiligten sei es finanziell oder ideell - bedeutet, wird sich im Unternehmen etwas verändern.
•
Wie messen? Die Grundaussage des ShareholderValue-Konzeptes lautet: Übersteigen die künftigen frei verfügbaren Mittel eines Unternehmens seine Kapitalkosten, so wird Wert für die Aktionäre geschaffen. Andernfalls wird Wert vernichtet. Das Shareholder-ValueDenken hat zwei große Vorteile: Man muss sich nur auf eine Anspruchsgruppe konzentrieren, und der Erfolg lässt sich in Geldeinheiten bestimmen. Dies ist bei den anderen Anspruchsgruppen wesentlich schwieriger. Wie lässt sich beispielsweise feststellen, ob Wert für den Mitarbeiter geschaffen
Deniz Akitürk Wertmanagement, ganzheitliches Wertmanagement steht für die Gesamtheit aller Führungstätigkeiten zur Steigerung des -» Untemehmenswertes. Es ist ein zukunfts- und prozessorientiertes Konzept im Geiste des Stakeholder Value-Denkens (-> Stakeholder-Ansatz). Der Shareholder Value kommt dabei nicht zu kurz die wirtschaftlichen Realitäten sichern ihm einen festen Platz in diesem Konzept. Die gesellschaftlichen Realitäten anderseits rufen nach einem konsequenten Einbezug der Interessen aller am unternehmerischen Geschehen beteiligten Anspruchsgruppen. Was dies unternehmenspraktisch - also nicht nur als plakative Forderung - heißt, ist im Folgenden zu illustrieren. Bei der Entwicklung eines ganzheitlichen Wertmanagements stellt sich zuerst die Frage nach dem "Warum" und anschließend nach dem "Wie". Beginnen wir zuerst mit dem "Warum". Die gängige Literatur zum Shareholder-Value-Denken (vgl. Copeland et al. oder Rappaport) befasst sich vor allem mit der Logik des Ansatzes und technischen Fragen, wie 876
Wertmanagement, ganzheitliches
Wertmanagement, ganzheitliches
Janisch 1993) besteht auch auf diesem Gebiet noch großer Forschungsbedarf.
wurde? Der Erste versteht unter Wertsteigerung ein höheres Salär, die Zweite eine herausfordernde Arbeit und ein besseres Betriebsklima, der Dritte eine Beförderung und einen zusätzlichen Titel. Weiter sind die Interessen der einzelnen Anspruchsgruppen oft diametral entgegengesetzt. Die Schwierigkeit der Messung darf aber nicht zum Schluss fuhren, dass man diese Stakeholders einfach ausblenden sollte. Vielmehr ist es eine der wichtigsten Aufgaben der Forschung wie auch der Unternehmenspraxis, hier neue Ansätze zu entwickeln. •
Wo ansetzen? Im Rahmen des Shareholder-ValueKonzeptes gibt es fünf sogenannte Wertgeneratoren, wo bezüglich Wertsteigerung Hebelwirkung erzielt werden kann: Umsatzwachstum, Gewinnmarge, Investitionen ins Anlageund Nettoumlaufvermögen, Kapitalkosten und Ertragssteuern. PCModelle ermöglichen auch die Bestimmung der Sensitivität, mit der der Unternehmenswert auf Veränderung einzelner Wertgeneratoren reagiert. Damit lässt sich die Hebelwirkung buchstäblich "errechnen". Aber auch hier stellt sich wieder die Frage, welches denn die Wertgeneratoren für die anderen Stakeholders sind. Trotz einiger viel versprechender Ansätze (z.B.
•
Wie gestalten? Um die Wertgeneratoren gezielt beeinflussen zu können, müssen einerseits Strategien entwickelt und diese anderseits in unternehmerische Prozesse umgesetzt werden. Hier kann auf das ausgebaute Instrumentarium der strategischen Führung (vgl. Gomez, 1993) sowie des -» Business Process Reengineering zurückgegriffen werden. Entscheidend ist dabei aber wieder eine ganzheitliche Perspektive. Strategien und Prozesse sind nicht nur auf der Ebene der einzelnen Geschäfte zu gestalten, sondern es sind auch die Synergien (-> Synergiemanagement) des Unternehmens als Ganzes sowie die Optionen der Untemehmenseigner gezielt mit einzubeziehen.
•
Warum "mitspielen"? Ausgangspunkt jeder Unternehmensgestaltung sind eigene Absichten und Fähigkeiten. Die Vision hält den "Traum" fest, den ein Unternehmen sich in den nächsten fünf bis zehn Jahren erfüllen möchte. Dabei muss es als Rahmenbedingungen die Spielregeln des Wettbewerbs beachten, die einem steten Wandel unterworfen sind. Und es muss jene Fähigkeiten besitzen oder aufbauen, die es zu einem führenden "Mitspieler" macht.
Begründung
Unterneh-
Steigerung
merischer
d e s Unterneh-
Wandel
menswertes
Was
bewirken?
Wie
messen?
Wertgeneratoren
Wo
ansetzen?
Strategien
|
Viston,
und
I
Spielregeln,
Prozesse
|
Kompetenzen
Wie
gestalten?
Warum "mitspielen"?
Vorgehen
Abb. 1: Logik des
Wertmanagements
877
Wertmanagement, ganzheitliches Diese Logik des Wertmanagements ist in der folgenden Abb. 1 nochmals zusammenfassend festgehalten. Ist bei der Begründung des Wertmanagements die unternehmerische Vision der Endpunkt, so steht sie bei der Entwicklung des Vorgehens der entsprechenden strategischen Positionierung ganz am Anfang. Diese wertorientierte Strategieplanung (-> Strategieplanung, wertorientiert) ist Gegenstand eines eigenen Stichwortes. Literatur: Copeland, T./Koller, T./Murrin, J.: Unternehmenswert, Frankfurt a/Main 1998; Rappaport, A.: Shareholder Value - Ein Handbuch für Manager und Investoren, Stuttgart 1998; Janisch, M.: Das strategische Anspruchsgruppenmanagement, Bern 1993; Gomez, P.: Wertmanagement, Düsseldorf 1993, S. 5 6 - 8 6 ; Bühner, R./Sulzbach, K.: Wertorientierte Steuerungs- und Führungssysteme. Shareholder Value in der Praxis, Stuttgart 1999; Bruhn, M./Lusti, M./Müller, W.: Wertorientierte Unternehmensfiihrung, Wiesbaden 1998.
Peter Gomez Wertorientierte Strategieplanung Strategieplanung, wertorientiert Wertpapiermarktlinie Mit dem Begriff "Wertpapiermarktlinie" (Security Market Line) bezeichnet man folgenden Rendite-Risiko-Zusammenhang des CAPM:
Gemäß obiger Gleichung ist die Risikoprämie (Differenz zwischen Erwartungswert und sicherer Verzinsung) eines jeden Papiers i eine lineare Funktion seines Risikos
{Beta-Faktor l var(*J J (-> Beta-Risiko). Damit ermittelt die Wertpapiermarktlinie auf das MarktPortfolio, also die Gesamtheit des riskant investierten Vermögens im Marktgleichgewicht, bezogene und daher objektiv faire Risikoprämien. Folglich darf die Wertpapiermarktlinie nicht mit der Kapitalmarktgerade (capital market litte) ver878
ß,
Wertpapiermarktlinie wechselt werden, die - basierend auf dem individuell optimalen Portfolio eines einzelnen Investors - lediglich subjektiv faire Risikoprämien bestimmt. Stellen wir die Wertpapiermarktlinie grafisch dar, müssen alle Risikoprämien/Beta-Kombinationen auf einer Geraden liegen, die durch den Ursprung verläuft und die Risikoprämie des MarktPortfolios als Steigung aufweist:
Das Hauptanwendungsgebiet der Wertpapiermarktlinie in der Praxis besteht im Entwickeln von Anlageempfehlungen für einzelne Wertpapiere (Stock Picking): Weil der zentrale Beurteilungsmaßstab "Markt-Portfolio" an den Wertpapiermärkten prinzipiell beobachtbar ist, werden auch Abweichungen von der Wertpapiermarktlinie identifizierbar. Allerdings können diese Abweichungen bei Gültigkeit des CAPM nur vorübergehend sein und die Papiere müssen zwingend auf die Wertpapiermarktlinie zurückkehren. Diese soeben geschilderten Zusammenhänge fuhren zu folgenden konkreten Anlageempfehlungen: Wertpapier 1 liefert für sein Risiko ßi zu wenig Rendite. Das bedeutet, dass sein Preis zu hoch ist und laut CAPM kurzfristig fallen muss. Aufgrund des sich abzeichnenden sicheren Kursverlustes sollte dieses Papier verkauft werden. Analog lassen sich die Einstufungen "Halten" für Papier 2 und "Kaufen" für Papier 3 begründen. Eine derartige Vorgehensweise beinhaltet aber ein konzeptionelles Problem. Einerseits geschieht die Identifikation fehl bewerteter Wertpapiere anhand der Wertpa-
Wertpapiermarktlinie
Wertschöpfungskette
piermarktlinie und damit des CAPM, andererseits dürfte es bei Gültigkeit des CAPM niemals zu Fehlbewertungen kommen. Von daher werden mit einem nicht immer geltenden Modell Fehlbewertungen bestimmt und man muss sich fragen, wie verlässlich deren Identifikation wirklich ist. Bernhard Nietert Wertschöpfungskette Die Wertschöpfungskette (engl. Value Chain) ist ein Analyseinstrument im strategischen Management, das auf ein Konzept von Michael Porter zurückgeht. Die Wertschöpfungskette untersucht die Aktivität eines Unternehmens in einer Branche. Ein breit diversifiziertes Unternehmen (-> Diversifikation), das in vielen Geschäftsfeldern tätig ist, kann für jede Branche eine andere Wertschöpfungskette analysieren. Da das Konzept der Wertschöpfungskette Wettbewerbsvorteile durch übergreifende Prozesse untersucht, würde eine Betrachtung jedes einzelnen -> Geschäftsprozesses den Blickwinkel zu sehr verengen. Man unterscheidet zwischen den primären Tätigkeiten, die sich am physischen Produktionsprozess orientieren und den unterstützenden Tätigkeiten, die den erforderlichen Rahmen bereitstellen, damit
das Unternehmen seine primären Tätigkeiten erfolgversprechend ausführen kann. Zu den primären Tätigkeiten zählen: • • • • •
Eingangslogistik, Produktion, Ausgangslogistik, Vertrieb und Marketing sowie die Dienstleistungen wie Kundendienst, Wartung usw.
Die Kette dieser primären Tätigkeiten definiert das eigentliche Geschäft, hier muss das Unternehmen dauerhafte Wettbewerbsvorteile gegenüber seinen Konkurrenten im Markt suchen, sei es durch herausragende qualitative Merkmale, sei es durch Kostenvorteile oder durch die Vernetzung der einzelnen Prozesse innerhalb der Wertschöpfungskette. Die unterstützenden Tätigkeiten bestehen aus dem • • •
Bereitstellen der Infrastruktur, der Personalbereitstellung und -entwicklung sowie dem Vorhalten und Weiterentwickeln der Informations- und Kommunikationstechnik des Unternehmens.
Dazu zählt auch die permanente Arbeit an der Verbesserung interner Prozesse.
879
Wertschöpfungskette Wenngleich die unterstützenden Tätigkeiten in der Regel nur Hilfsfunktionen umfassen, die den Rahmen für erfolgreiches unternehmerisches Handeln an anderer Stelle setzen, so können auch die unterstützenden Tätigkeiten selbst zu Wettbewerbsvorteilen führen: Für eine Telefongesellschaft etwa ist die Infrastruktur des Netzes ein wesentlicher Wettbewerbsfaktor. Der Abstand zwischen den Kosten, welche die Prozesse im Unternehmen verursachen und der Zahlungsbereitschaft des Kunden für das Ergebnis der Prozesse in der Wertschöpfungskette, bildet die Gewinnmarge des Unternehmens. Die Wertschöpfungskette bietet der Unternehmensfuhrung damit zwei Ansatzpunkte zur Erweiterung der Gewinnmarge und damit zur Erfolgsmaximierung des Unternehmens: Entweder die Prozesse schaffen bei gleichen Kosten mehr Wert für den Kunden und erhöhen so dessen Zahlungsbereitschaft (Verlängerung der Wertschöpfungskette), oder das Unternehmen schafft es, bei gleichbleibendem Wert für den Kunden, die Prozesskosten entsprechend zu senken, so dass bei gleich langer Wertschöpfungskette mehr Platz für die Gewinnmarge bleibt. Literatur: Porter, M . E.: Competitive Advantage. Creating and Sustaining Superior Performance, N e w York (NY) 1985.
Wertschöpfungsmanagement Unternehmen, profit wie non-profit (->• Nonprofit Organisationen), befinden sich heute im Umbruch: einzelne Unternehmen können die Infrastrukturkosten alleine nicht mehr tragen. Und dies führt unweigerlich zu einem vermehrten Druck, in der Leistungserstellung Kooperationen mit anderen Unternehmen einzugehen. Dabei wird die Gestaltung der -» Wertschöpfungskette und ihrer Leistungsstruktur zum zentralen Wettbewerbsfaktor. Eine Folge davon ist, dass das einzelne Unternehmen nicht mehr ohne weiteres in seinen Grenzen erkannt werden kann. Auch die Branchengrenzen verschwimmen zunehmend im Zuge des 880
Wertschöpfungsmanagement Aufbrechens von Wertschöpfungsgrenzen. So wird das Managen von Wertschöpfungsstrukturen zu einem klaren Wettbewerbsfaktor und die Informationstechnik zum zentralen Enabler. Das rein produktorientierte Marketing wird in Zukunft durch ein Management der Wertschöpfungskette ergänzt werden müssen. Das beinhaltet beispielsweise Fragen, wo die eigene Position in der Wertschöpfungskette zu suchen ist; mit welchen Kemkompetenzen Mehrwert erzielt werden soll; welche Aktivitäten durch Partner besser und billiger erbracht werden können und mit welchen Partnern Wachstumsfelder und -märkte erschlossen werden sollen. Erfolgreiche Unternehmen werden in der Leistungserstellung als schnelle und flexible Systemköpfe ihr Produkt- und Leistungsangebot definieren und dabei ein angestrebtes Niveau der Wertschöpfung immer mit dem jeweils günstigsten Partner zu erreichen suchen, der auf aktuellstem Wissens- und Technologiestand ist. Der Gedanke, Leistungen mit einem Partner zu erbringen, ist dabei keineswegs neu. Schon Stigler wies im Zusammenhang um die Diskussion der Ausgliederung von Funktionen auf eine logische Gesetzmäßigkeit hin. Danach ist es für einen Partner nur dann sinnvoll, Funktionen mit steigenden Skalenerträgen zu übernehmen, wenn sie - entsprechende Volumina unterstellt - zu sinkenden Durchschnittskosten fuhren (Stigler 1945; Griebel 1982). Ein anderer Erklärungsansatz, der auf das Managen der Wertschöpfung abzielt, beinhaltet die Konzentration auf -» Kernkompetenzen (Hamel/Prahalad 1990), also auf die gewachsenen oder auch integrierbaren Kernfähigkeiten eines Unternehmens. Dieser Ansatz bedingt geradezu die Überprüfung der Wertschöpfungsstruktur nach ausgliederungsfähigen oder auch von Dritten zu übernehmenden Leistungselementen oder auch ganzen Geschäftsfeldern.
Wertschöpfungsmanagement Schließlich sind die beiden Ansätze noch durch einen stärker kundenorientierten Ansatz zu ergänzen (-» Kundenorientierung). Kunden fragen keine "Monoprodukte" mehr nach, sondern ganze Leistungsbündel für komplexe Problemstrukturen. Dies setzt aber im Hinblick auf die beiden vorher dargestellten Ansätze die Gestaltung einer wettbewerbsfähigen Leistungsarchitektur voraus. Die Arbeitsteiligkeit in der Wertschöpfungskette wird immer mehr aufgebrochen und vertikal ineinander verzahnt. Dabei werden Schnittstellen innerhalb der Wertschöpfungsstruktur abgebaut und durch Verschiebung ganze Systeme neu gestaltet. Die Struktur der Kernkompetenzen verändert sich dann von der Beherrschung einzelner Module der Wertschöpfungskette bis hin zur Fähigkeit, verschiedenste Module zu integrieren, die von Spezialisten mit Skaleneffekten erbracht werden. Der Vorteil des Gestaltens der Leistungselemente einer Wertschöpfungskette und des sich daran anschließenden Managen der Geschäftspartner liegt darin, dass mit vergleichsweise geringen Infrastrukturkosten und auf der Basis vertraglich abgesicherter Variabilität der Kosten flexibel auf Marktveränderungen reagiert werden kann. Dies ist nicht nur in der fertigenden Industrie, sondern in verstärktem Maße auch in Dienstleistungsbereichen, wie etwa im Medienbereich zu beobachten. Hier wird beispielsweise die Trennung und Arbeitsteilung von "Handel mit Rechten an Filmen oder Büchern", von der "Produktion in Verlagen, Filmstudios oder Theatern", oder dem "Schnüren von Programmpaketen" durch Zeitungen, Fernsehsender oder Internet, sowie von der "Verteilung" über Kabelnetze oder Satelliten zunehmend aufgebrochen. So reicht etwa das Spektrum des Medienportfolios von "News Corporation" (NC) von TV-/Kabel-/und Radiosendem, Ta-
Wertschöpfungsmanagement geszeitungen (The Times, The Sun etc.), Magazinen oder Buchverlagen (z.B. Harper Collins) bis hin zu dem Betreiben von Satelliten, wie beispielsweise Star TV oder British Sky Broadcasting. Darüber hinaus zählen zu dem NC-Imperium Sportvereine - stellvertretend seien hier die Los Angeles Dodgers (Baseball), die L.A. Lakers (Basketball) oder die New York Rangers aufgeführt. Im Schulterschluss mit dem Besitz der Vereine und dem Eigentum von 20th Century Fox und Fox Searchlight hat NC maßgeblichen Einfluss auf die unmittelbare Ausgestaltung der Inhalte, die über seine Medien vertrieben werden. Und durch die Verbindung von Fernsehen und Internettechnik ist das Unternehmen in der Lage, am elektronischen Handel teilzunehmen. Ein zentraler Enabler für die Gestaltung der Wertschöpfungskette ist die Informationstechnologie. Besonders im Hinblick auf das Internet und die Möglichkeiten des elektronischen Handels zeichnen sich flexibelste Formen der Zusammenarbeit in der Wertschöpfungskette ab. Dies gilt sowohl auf der strategischen als auch auf der operativen Ebene. Taktisch werden sich Veränderungen in der Auftragsabwicklung ergeben: Internetgestütztes Austauschen von Auftrags- bzw. Bestelldaten, das gemeinsame Pflegen von Forecast-Systemen und die Steuerung von Logistikpartnern auf der Basis kostengünstiger Inter- oder Intranet-Technologie (-» Intranet) werden die Flexibilität in der Logistik erhöhen. Eine Konsequenz ist, dass sich Unternehmen verstärkt vertikal integrieren und in der Folge existierende Zwischenstufen wie die des Großhandels zunehmend umgehen werden. Auch die Kommunikationselemente des Marketing werden durch das Internet geprägt. Die Direktansprache und unmittelbare Feedbackmöglichkeiten der Konsumenten sind genauso möglich wie der Direktverkauf oder die Vermittlung an Distributeure. Die virtuelle Kundenmarkt-
881
Wertschöpfungsmanagement forschung durch das laufende Einholen von Feedback, virtuelles Herstellen, die Koordination der verschiedensten Leistungserbringer oder das virtuelle Forschen und Entwickeln durch virtuelles Einbeziehen von Teammitgliedern verschiedenster Zeitzonen, Lieferanten oder Kunden sind schon real werdende Geschäftsaktivitäten auf der Basis der InternetTechnologien (-> Virtualität). Unter dem Schlagwort -> Efficient Consumer Response (ECR) wird das Wertschöpfungsmanagement zwischen Handel und Industrie als Ansatz der vertikalen Integration gelebt. ECR soll dem Kunden und Konsumenten über die Wertschöpfungsstufen von Handel und Industrie hinweg mehr Wert (z.B. Vermeidung von Fehlmengen durch weitgehenden Verzicht auf Zwischenlager, Reduzierung von time to market, Erhöhung der Innovationsrate etc.) zu insgesamt weniger Kosten bieten. Es zielt primär auf das Vermeiden unnötiger Systemkosten ab, und der Informationsfluss wird zum kritischen Erfolgsfaktor dieser Art vertikaler Integration. Darüber hinaus soll durch besseres Verstehen und Befriedigen der Konsumentenwünsche die Nachfrageseite optimiert werden. Im Marketing spricht man hier von den Kooperationsfeldem "Efficient Promotion", "Efficient Store Assortment" und "Efficient Product Development". "Efficient Replenishment" steht für völlig neue logistische Konzepte in der Branche. Bei hohem Servicegrad sind die logistischen Geschäftsprozesse auf hohem Leistungsniveau aufeinander abzustimmen. Der Prognosequalität der Absatzplanung kommt hierbei eine herausragende Rolle zu: Je unschärfer und gröber sie ist, umso größer sind die Reibungen zwischen Produktions- und Beschaffungslogistik auf der einen und der Distributionslogistik auf der anderen Seite. An der Schnittstelle dieses Konfliktes beginnt das Management der Geschäftsprozesse, denn vermeintlich gegensätzli882
Wertschöpfungsmanagement che Ziele der logistischen Kette - wie z.B. hohe Lose, niedrige Herstellkosten, hoher Servicegrad und niedrige Bestände oder Bestandskosten - sind gleichzeitig miteinander in Einklang zu bringen. Eine intelligente Organisation und das Beherrschen der Planungs- und Steuerungsprozesse sind das Vehikel dazu. Die Prognosedaten der Absatzplanung werden direkt an die Planungsprozesse der Beschaffung und Produktion weitergeleitet, und die Materialbereitstellung kann dann über Planungsverfahren, wie dem -> MaterialRequirement Planning (MRP1) beziehungsweise -» Manufacturing Resource Planning (MRP2) abgesichert werden (siehe zu Planungssystemen auch Kansky, Weingarten 1999). Durch das Bereitstellen der outletbezogenen Bewegungsdaten kann schließlich der Übergang zu pullorientierten Nachschubsystemen vollzogen werden. Der ECR-Ansatz "Continuous Replenishment (CRS)" setzt dabei an den mit KANBAN-Systemen (-> Kanban) vergleichbaren Versorgungsprinzipien von Quellen (Hersteller) und Senken (Abverkäufe im Outlet oder Regal) in logistischen Systemen an - der Weg dorthin ist allerdings noch weit. Die zentrale Voraussetzung für die Realisierung von CRS ist ein geschlossener Informationskreis, im Idealfall zwischen dem Hersteller und seinen Lieferanten sowie dem Key Account in dessen logistischer Struktur (Zentrale-Region-Outlet). Zusammengefasst ist das Ziel von CRS die Verlagerung von Abläufen, und zwar dorthin, wo sie am günstigsten durchgeführt werden können. Doppelarbeiten werden konsequent vermieden, um alles, was nicht wertbringend ist, aus dem Geschäftsprozess zu eliminieren. Dieses CRS-Szenario setzt allerdings funktionierende Geschäftsprozesse und ihre Unterstützung mit den notwendigen Informationssystemen voraus. Der Datenaustausch zwischen den Geschäftspartnern basiert
Wertschöpfungsmanagement dann notwendigerweise auf -» Electronic Data Interchange (EDI). Der sich hier vermutlich durchsetzende EDI Standard ist EDIFACT beziehungsweise EANCOM. Sind die Informationssysteme nicht geschlossen - und das ist zur Zeit noch bei vielen Unternehmen der Fall - , setzen sich in der Praxis eine Reihe von pragmatischen, teilweise auch auf Machtkonstellationen rückführbare Ansätze durch. So wird beispielsweise in der Lieferkette von Markenartikelindustrie und Handel dem Lieferant Lagerkapazität "zugewiesen". Der Lieferant oder die Lieferanten einer Warengruppe übernehmen dann auf Basis der Informationen der Point of sa/e-Systeme die Nachschubversorgung der diesem Lager zugeordneten Märkte. Die Bestands-/Warenkosten trägt der Lieferant auf der jeweiligen Lagerstufe. Die Rechnungserstellung an den Kunden erfolgt erst dann, wenn die Ware das Lager der Verkaufsstätte erreicht hat. Der weitreichendste Ansatz im Wertschöpfungskettenmanagement vollzieht sich dort, wo völlig unterschiedliche Wertschöpfungssysteme, traditionell in verschiedenen Branchen angesiedelt, "zerschlagen" und neu gestaltet werden, um dem Kunden einen neuen Mehrwert zu bieten. Beispiele für eine erfolgreiche Umsetzung finden sich insbesondere in Dienstleistungsmärkten (z.B. Wellness) und im Handel (z.B. die Warenhausidee) aber auch in industrialisierten Strukturen (z.B. die Kombination von Hardware und Software) sowie in der Konsumgüterindustrie (z.B. das Überraschungsei von Ferrero). Ein weiteres Beispiel sind etwa Mineralölkonzerne, deren Verkaufs- und Distributionssysteme sich von Tankstellen zu Nahversorgern mit Frischeanspruch entwickelt haben. Gerade mit der beschleunigten Durchdringung der Internettechnologie ist mit der Zerschlagung von gewachsenen Wertschöpfungsstrukturen und völlig neuen Geschäftssystemen zu rechnen. Die "In-
Wertschöpfungsmanagement ternet-Bank", das "integrierte Mobilitätspaket" des Autovermieters oder Amazon.com mit der Aufnahme von Baumarktartikeln sind schon reale Beispiele. In diesen neuen, durch die Informationstechnologie selbst getragenen Systemen, können die einzelnen Marktpartner völlig neue Rollen einnehmen. Diejenigen Partner, die in der Wertschöpfungskette in der Rolle des Zulieferers waren, können neben ihrer historischen Funktion des Suppliers nun die systemgestaltende Rolle einnehmen, dort Partner werden oder das System als solches gestalten oder sogar beherrschen. Ein Szenario, in welchem eine Firma wie etwa Microsoft oder Cisco selbst Transaktionen abwickelt oder mindestens gestaltender Partner wird und damit in die Geschäftsfelder anderer Branchen (z.B. Finanzdienstleistungen, Reisevermittlung, Warenhandel) migrieren kann, ist vom Aspekt des technologischen Potenzials leicht vorstellbar. Fazit: Das Wertschöpfungsmanagement ist ein geradezu systemimmanenter Bestandteil einer Informationsgesellschaft, in der die Komponente der industriellen Fertigung immer stärker an Bedeutung verliert. Die Fähigkeit, Informationen so zu kombinieren, dass sie immer einen einzigartigen Beitrag in der Leistungsarchitektur von Bedürfnisgruppen darstellen, ist die eigentliche Herausforderung für das beginnende Jahrtausend. Literatur: Hamel, G./Prahald, C.K..: The Core Competencies of the Corporation, in: Harvard Business Review, May/June, Vol. 68 1990, S. 7 9 91; Griebel, H.-D.: Zur Theorie des Handelsbetriebes. Ein spieltheoretischer Beitrag zu einer Theorie des Binnenhandels, Frankfurt 1982; Kansky, D./Weingarten, U.: Supply Chain: Fertigen, was der K u n d e verlangt, in: Harvard Business Mananger, 4/1999, S. 8 7 - 9 5 ; Miinzberg, H.: Den Kundennutzen managen: so beschleiten Sie den W e g zur Wertschöpfungskette, Wiesbaden 1995; Pauls, S.: Business-Migration: eine strategische Option, Wiesbaden 1998.
Harald Münzberg
883
Werttreiber Werttreiber Der Begriff der Werttreiber ist ein zentraler Baustein bei der Umsetzung des Wertmanagement-Gedankengutes. Grundlage aller Wertmanagementüberlegungen in Unternehmen ist, das Kapital der Aktionäre als knappes Gut zu betrachten, um welches die Unternehmen der eigenen und anderer Branchen konkurrieren. Hierbei fordert ein Aktionär eine möglichst hohe und risikoadäquate Verzinsung seines eingesetzten Kapitals in Form von laufenden Dividenden und/ oder steigendem Wert seiner Anteile. Das Instrumentarium des Wertmanagements soll helfen, Dividenden und Börsenkurse zu steigern und somit die Erwartungen der Anteilseigner zu erfüllen. Die Einführung eines Wertmanagementkonzeptes besteht hierbei in einem ersten Schritt aus dem Aufbau eines Kennzahlensystem (-> Kennzahlen und Kennzahlensysteme) und von hieraus abgeleiteten Steuerungsgrößen. Diese Steuerungskennzahlen messen, wie viel Ergebnis ein Geschäft mehr generiert, als mindestens zur Bedienung der Eigen- und Fremdkapitalgeber erforderlich ist. Hierbei wird die entsprechende Wertkennzahl, z.B. die Cash-flow-Rendite, den Kapitalkosten gegenübergestellt. Die Aggregation und Entwicklung dieser Kennzahlen erfolgt zumeist auf höchster Managementebene und damit oft auch auf hohem Abstraktionsgrad. Um das theoretisch entwickelte System mit Leben zu füllen, ist das Herunterbrechen der Spitzenkennzahlen auf operationalisierbare Größen zwingend erforderlich. Letztlich entsteht der Erfolg des Wertmanagement-Konzeptes nicht aus seiner theoretischen Exaktheit, sondern vielmehr aus seiner konkreten Umsetzbarkeit in den operativen Einheiten. Ziel dieser Umsetzungsphase ist die Generierung von operativen Werttreibern, die für operative Einheiten handhabbar sind und zur positiven Beeinflussung der Spitzenkennzahl führen. Werttreiber sind dem884
Werttreiber nach Steuerungsgrößen, die zur Erreichung des Unternehmenszieles Wertschaffung beitragen. Als Endergebnis eines solchen Analyseschrittes findet sich oft ein Werttreiberbaum, der die Zusammenhänge zwischen den einzelnen Einflussfaktoren verdeutlicht. Als letztliche Werttreiber bezeichnet man hierbei die nicht mehr weiter zu differenzierenden Einflussfaktoren. Während Steuerungsgrößen eher mit den Begriffen Unternehmenswert, -> Marktkapitalisierung und Rendite verbunden sind, orientieren sich operative Werttreiber eher an Größen wie Liefertreue, Fertigungskosten und Verfügbarkeit. Die auszuwählenden Werttreiber müssen messbar, steuerbar, nachvollziehbar und nicht manipulierbar sein. Ziel einer Werttreiberanalyse ist zum einen die originäre Identifizierung der Werttreiber und zum anderen deren Beurteilung bezüglich der Wirksamkeit auf die Spitzenkennzahl. Werttreiber sind in vielen Unternehmen weitgehend bekannt, werden aber selten aktiv gesteuert, in ihrer Bedeutung priorisiert und zu einem einheitlichen Unternehmensziel zusammengeführt. Der Aufbau eines Werttreiberbaumes erfolgt in Abstimmung zwischen den jeweiligen operativen Einheiten mit dem entsprechenden Fachwissen und den Experten aus dem Wertmanagementteam. Idealerweise werden vier Phasen durchlaufen. Nach der Systematisierung der Zusammenhänge sichert die Quantifizierung der Zusammenhänge bzw. die Definition von Szenarien das Erfassen der Ausgangssituation. Anschließend erfolgt die Simulation verschiedener Szenarien und die Priorisierung mit entsprechenden Zielvereinbarungen und einem systematischen Verbesserungsprozess. Sinnvollerweise wird eine Werttreiberanalyse mit Tabellenkalkulationsmodellen hinterlegt, um die Auswirkungen auf die Spitzenkennzahl durch entsprechende Variationen an Ausgangsgrößen simulativ schnell verfolgen zu können.
Windfall Profit
Werttreiber Zur Auswahl operativer Werttreiber, die entsprechend verbessert werden sollen, dient die folgende Portfolio-Darstellung. Das folgende Bild ordnet Werttreiber entsprechend ihrer Sensitivität für die Spitzenkennzahl und ihrer Beeinflussbarkeit ein. Die Sensitivität trifft eine Aussage über den Grad der Veränderung der Spitzenkennzahl durch den jeweiligen Werttreiber. Der Grad der Beeinflussbarkeit misst, inwieweit die jeweilige Größe vom Management tatsächlich zu beeinflussen ist und dementsprechend verändert werden kann. Die Werttreiber im schraffierten Bereich zeichnen sich durch gute Beeinflussbarkeit bei gleichzeitig hoher Bedeutung für die Wertschaffung aus. Die Konzentration knapper Ressourcen auf diese Wertreiber verspricht eine größtmögliche Wertsteigerung. Je weiter rechts oben sich ein Werttreiber befindet, desto intensiver sollte dieser analysiert und gemanagt werden. Diese Schlussfolgerung bedeutet jedoch nicht, dass die Werttreiber im nicht schraffierten Bereich vernachlässigt werden sollten, sondern sie
Kapitalumschlag und Wachstum. Zur Verbesserung der Cash-flow Marge sind insbesondere Preis- und Erlösstrategien sowie ein konsequentes Kostenmanagement aufzubauen, die Erhöhung des Kapitalumschlages kann durch einen effizienten Kapitaleinsatz, durch ein straffes Asset Management und durch ein Cashund Vorratsmanagement erfolgen ( - • Cash Management). Der Wachstumspfad bedingt Geschäfte mit entsprechender Rendite. Die Umsetzung zumindest der ersten beiden Werthebel wird durch Steuerung über bestimmte Werttreiber ermöglicht. Die Werttreiber sind demnach ein Instrument, um die Werthebel zu operationalisieren und gangbar zu machen. Die Werttreiberanalyse leistet wertvolle Hinweise bei der effektiven Umsetzung von Wertmanagementkonzepten und garantiert, dass auch operative Einheiten das Wertmanagementgedankengut leben können. Nur eine Kenntnis und Steuerung über Werttreiber auf operativer Ebene garantiert den Erfolg des Gesamtsystems. Achim Schröder Wiederbeschaffungskosten des Humanvermögens -* Humanvermögensrechnung Wiederholproduktion Einzelfertigung
Abb.:
Werttreiber-Portfolio
vermittelt lediglich eine Priorisierung der Ressourcen. Das Instrument der Werttreiber steht in enger Verbindung zu den Werthebeln einer Unternehmung. Zur nachhaltigen Verbesserung der Wertkennzahlen ergeben sich im Wesentlichen die drei Ansatzmöglichkeiten bei Cash-flow Marge,
Windfall Profit Der Windfall Profit ist eine besondere Form des Untemehmensgewinnes. Der Begriff lässt sich mit Zufalls- oder Überraschungsgewinn übersetzen. Im Gegensatz zu dem normalen oder regelmäßigen Unternehmensgewinn, steht ein Windfall Profit nicht in direktem Zusammenhang mit einer betrieblichen Mehrleistung. In diesem Punkt zeigt sich eine Wesensgleichheit mit den außerordentlichen Erträgen im Rahmen der ->• Gewinn und Verlustrechnung von Unternehmen. W. können nicht vom Unternehmen selbst beeinflusst werden, sondern basieren auf 885
Windfall Profit
Wissensmanagement
exogenen Faktoren. Von besonderer Relevanz sind dabei Zins- und Währungseinflüsse. So können Windfall Profits z.B. durch überraschende Wechselkurssteigerungen im Exportgeschäft entstehen. Da ein entgegengesetzter Wechselkurseinfluss zu einem Windfall Loss fuhren würde, werden solche Geschäfte zumeist über ein Devisentermingeschäft abgesichert (-> Währungsrisiken). Ein Windfall Profit oder Windfall Loss wäre dann nicht möglich. Wichtig ist die verrechnungstechnische Behandlung von Windfall Profits. Werden sie bestimmten Leistungsbereichen oder -> Profit Centem zugerechnet, widerspricht dies dem Verursachungsprinzip. Einerseits können bei Windfall Profits unzureichende Vertriebsleistungen verdeckt oder andererseits im Falle von Windfall Losses den jeweiligen Verantwortlichen ungerechtfertigt unbefriedigende Ergebnisse angelastet werden. Um dies zu verhindern, werden z.B. in der Kosten- und Erlösrechnung Preisabweichungen abgespalten. Im Banken- und Finanzsektor sind Zinsverschiebungen auf den Kapitalmärkten ein ständiges Phänomen. Dort werden Ergebnisbeiträge dynamisch anhand von zinsanpassungskongruenten Kalkulationen bewertet. Diese trennen die Ergebnisse in einen zinsänderungsabhängigen (Strukturbeitrag) und einen zinsänderungsunabhängigen Teil (Konditionsbeitrag). Nur der Konditionsbeitrag wird dem Bereichsergebnis zugerechnet. Dieser gesonderte Ausweis verhindert Fehlinterpretationen. Literatur: Rolfes, B.: Windfall Profits in der Ergebnisrechnung, in: Die B a n k 12/1995, S. 763ff.
Bernd Rolfes Wissensmanagement 1. Definition von Wissensmanagement Wissensmanagement ist der Oberbegriff für all jene Maßnahmen, "die ein Unternehmen betreibt, um Wissenspotenziale einschließlich seiner Daten- und Informa886
tionsbestandteile - für den Unternehmenserfolg zu mobilisieren und nutzbar zu machen" (v. Feibert). 2. Abgrenzung der Begriffe Daten - Information - Wissen Daten bilden die Ausgangsbasis für Wissen. Daten sind nicht zielbezogen und dementsprechend nicht strukturiert, sie liegen in unüberschaubar großen Mengen vor. Daten können in Form von Statistiken, Texten, Bildern o.ä. vorliegen. Werden die Daten in bezug auf ein konkretes Entscheidungsproblem gemessen, geordnet und strukturiert spricht man von Informationen. Informationen werden zu Wissen, wenn die Informationen durch subjektive Einstellungen, Annahmen, Theorien und Schlussfolgerungen ergänzt werden. Wissen entsteht somit in einem Prozess, in dem Daten und Informationen mittels Lernen und Intelligenz weiterverarbeitet werden. 3. Probleme bei der Transformation von Informationen in Wissen Probleme bei der Transformation von Informationen in Wissen ergeben sich aus deren unterschiedlichen Eigenschaften. Informationen sind - wie Daten auch expliziter Natur und lassen sich daher leicht erfassen, speichern und verwalten. Wissen dagegen ist i.d.R. impliziter Natur. Es ist schwer artikulierbar, da es auf individuellen Emotionen, Einstellungen und Werten basiert. 4. Aufgaben des Wissensmanagements Die Aufgabe des Wissensmanagements besteht in der Umwandlung von implizitem Wissen in explizites Organisationswissen sowie im Management der Bereitstellung sowie Abrufbarkeit des Wissens. Dieser Prozess wird ermöglicht durch die Schaffung eines Klimas des lebenslangen Lernens, der Kreativität, des Ideenreichtums und des Teilens von Wissens. Das Wissensmanagement zielt dabei weniger auf die Schließung einer konkreten Be-
Wissensmanagement
Wissensmanagement
onen, die Einbeziehung von Stakeholdern, die temporäre Einbindung von Spezialisten und den Einkauf von Wissensprodukten (Software, Patente) erworben werden.
darfslücke als vielmehr auf die Verbesserung der generellen Lernfähigkeit der gesamten Organisation ab. 5. Modell des Wissensmanagements nach Probst Probst definiert in seinem Modell des Wissensmanagements acht interdependente Bausteine. Diese Bausteine bilden die Ausgangsbasis für konkrete Maßnahmen zum Aufbau eines systematischen Wissensmanagements im Unternehmen: •
•
•
Wissensziele Festlegung der Ziele, die mit einem Wissensmanagement im Unternehmen erreicht werden sollen. Man unterscheidet in normative Ziele, die auf die Schaffung einer wissensbewussten Untemehmenskultur abstellen, in strategische Ziele, die die Erhaltung der Wettbewerbsfähigkeit und unternehmerischen Kernkompetenzen zum Ziel haben, und in operative Ziele, die sich mit der Implementierung der oben genannten Ziele befassen. Wissensidentifikation Im Rahmen der Wissensidentifikation ist intern und extern vorhandenes Wissen zu identifizieren und zu systematisieren. Mittels geeigneter Instrumente muß jeder potenzielle Wissensnutzer genauso wie jeder Wissensanbieter Kenntnis darüber besitzen, wo er benötigte Informationen abrufen kann bzw. wo er sein Wissen bereitstellen muss, damit andere Nutzer problemlos darauf zugreifen können. Als Instrumente bieten sich sogenannte Wissenslandkarten, Wissenbranchenbücher und nicht zuletzt die Einbindung von Informations- und Kommunikationstechnologien an. Wissenserwerb Ist es nicht möglich, das zum Erfolg notwendige Wissen selbst (rechtzeitig) zu entwickeln, so ist ein externer Wissenserwerb erforderlich. Wissen kann extern durch Übernahmen, Kooperati-
•
Wissensentwicklung Die Wissensentwicklung betrifft die Möglichkeit des internen Wissenserwerbs, d.h. die Entwicklung bisher im Unternehmen noch nicht bestehender neuer Fähigkeiten und Ideen. Wissen wird intern in der Forschungs- und Entwicklungsabteilung oder quasi als Nebenprodukt der täglichen Arbeit entwickelt. Besonders die letzte Methode der internen Wissenentwicklung macht sich die Kreativität und die Problemlösungskompetenz der Mitarbeiter zu Nutze.
•
Wissensdistribution Das erworbene und selbstentwickelte Wissen ist an einem Ort zusammen zu fuhren und an die richtigen Stellen zu verteilen. Das Wissen ist dann richtig verteilt, wenn es an mehreren Stellen des Unternehmens zugleich nutzbar ist und es das Unternehmen in die Lage versetzt, schnell auf veränderte Umweltbedingungen zu reagieren.
•
Wissensnutzung Nach der Verteilung des Wissens ist sicherzustellen, dass das Wissen auch von den Mitarbeitern angewandt wird. Dazu sind interne Barrieren etwa in Gestalt von Routinen oder negativen Einstellungen gegenüber nicht selbst entwickelten Lösungen abzubauen.
•
Wissenbewahrung Um eine Überlastung mit zu vielen Informationen zu vermeiden, muss eine Selektion des Wissens in bewahrungswürdiges Wissen, Wissen das sich wahrscheinlich in Zukunft als hilfreich erweisen wird, und nicht bewahrungswürdiges Wissen vorzunehmen. Diese Aufgabe ist ein permanenter Prozess - quasi die Pflege des gespeicherten Wissens.
887
WWW-Server
Wissensmanagement •
Wissensbewertung Diese Aufgabe steht in engem Zusammenhang mit der Aufgabe der Wissensbewahrung und stellt eine der schwierigsten Aufgaben des Wissensmanagements dar, da erprobte Meßverfahren zur Ermittlung der Erfolge, die durch bestimmtes Wissen erzielt werden konnten, fehlt.
Literatur: Feibert, D.v.: Wissensmanagement in der unternehmerischen Praxis, in: Pawlowsky, P. (Hrsg.): Wissensmanagement, Wiesbaden 1998, S. 119-141; Probst, G.J. B./Raub, S./Romhardt, K.: Wissen managen, 3. Aufl., Wiesbaden 1999; Probst, G.J./Romhardt, K: Bausteine des Wissensmanagements, in: Wieselhuber & Partner (Hrsg.): Handbuch Lernende Organisation, Wiesbaden 1997, S. 129-143.
Workflow-Management Der Workflow (auch: Geschäftsprozess, Vorgang) ist ein arbeitsteiliger Prozess, der betriebliche Leistungen erstellt oder verwendet. Das Workflow-Management ist ein Konzept zur Planung und Steuerung dieser Prozesse. Dabei verfolgt das Workflow-Management das Ziel, einen dynamischen, fließenden Prozessablauf vom Prozessbeginn bis zum Prozessende zu gewährleisten. Bei der Erreichung dieses Zieles kommt der Verwendung elektronischer Datenverarbeitungsmethoden, elektronischer Kommunikationsmethoden und elektronischer -» Dokumentenmanagementsysteme große Bedeutung zu. Folgende Erwartungen sind i.d.R. mit der Einführung eines Workflow-Management verbunden: 1. Verringerung der Durchlaufzeiten aufgrund der Beseitigung von zuvor bestehenden Brüchen in den Prozessen. D.h. es werden Informationsmonopole und Inseln hoher Produktivität vermieden. 2. Automatisierung und Systematisierung von Routinetätigkeiten. Durch computergestützte Anwendungen ist es möglich, viele Routinetätigkeiten weitestgehend zu automatisieren. 888
Durch die Automatisierung verringert sich nicht nur der Arbeitsanfall (mögliche Rationalisierungspotenziale), sondern es erhöht sich i.d.R. auch die Qualität der Routinearbeiten, da Zufallsfehler oder Fehler aus Unachtsamkeit vermieden werden. Würmer Computerviren WWW Abkürzung für World Wide Web. Das WWW stellt den populärsten - da graphisch orientierten - Dienst des -> Internet dar. WWW-Adresse Umgangssprachlich für die Kennzeichnung eines -* Webservers. Korrekterweise benennt man zur Angabe eines Webservers - oder einer darauf hinterlegten HTML-Seite (-> HTML) dessen URL oder —• IP-Adresse. WWW-Browser Als WWW-Browser werden Computerprogramme bezeichnet, die Inhalte des WWW darstellen können. Gab es anfangs nur textbasierte Browser, gehören inzwischen Darstellungsmöglichkeiten von Grafik, Klängen und Videos zum Standard. Die Standardbrowser sind der Internet Explorer von Microsoft und der Netscape Navigator. WWW-Server Webserver
XETRA
XETRA
XYZ XETRA Der weltweite Trend zu einer Computerisierung des Handels an Wertpapierbörsen manifestiert sich in Deutschland in der Einführung des Börsenhandelssystems XETRA (Exchange Electronic Trading) durch die Deutsche Börse AG im November 1997. Damit besteht auch für den Kassamarkt ein reiner elektronischer Handel (Computerhandel), wie er für Produkte an der damaligen Deutschen Terminbörse DTB, heute EUREX, seit 1990 realisiert ist. Der Parketthandel wird parallel fortgeführt. Eine Computerbörse wird durch die Abgabe der Orders via Terminal/PC, deren automatische Zusammenführung (Matching) und Abwicklung/V errechnung charakterisiert. Marktteilnehmer erhalten darüber hinaus in der Regel einen Realtime-Zugriff auf eine Vielzahl von Marktinformationen, insbesondere das Orderbuch. Die Systementwicklung von XETRA orientierte sich an den Vorgaben, •
• •
•
•
Liquidität durch die Einrichtung eines zentralen Orderbuches für jedes Handelsobjekt zu konzentrieren, allen Marktakteuren dieselbe Transparenz über die Orderlage zu gewähren, einen dezentralen Marktzugang weltweit und gleichberechtigt sicherzustellen, zusätzliche Liquidität in jedem Titel durch die Beteiligung von Finanzintermediären als sog. Betreuer mit der Funktion eines Market Maker bereitzustellen und einen friktionslosen Handel mit den Kennzeichen Schnelligkeit und geringe Fehleranfälligkeit darzustellen (operative Effizienz).
Die Deutsche Börse AG als Finanzdienstleister verfolgte das Ziel, ein Liqui-
ditätsnetzwerk zu schaffen, für dessen Erfolg Sicherheit, Schnelligkeit, Stabilität und Faimess (insbes. im Preisregime) entscheidend sind. Grundlage ist ein segmentspezifischer Ansatz, d.h. je nach Umsatz und weiteren Kriterien eines Marktsegments werden die im Folgenden erläuterten Handelsregeln (Marktform, Preisfeststellungsverfahren, Orderbuchtransparenz, Handelsüberwachung) in einer spezifischen Kombination festgelegt, um eine höchstmögliche Ausprägung der genannten Erfolgskriterien, vor allem der Liquidität, zu gewährleisten. Als Alternativen der Marktform unterscheidet man grundsätzlich das Auktionsprinzip, bei dem jeder Marktakteur Aufträge in das Orderbuch einstellen kann, und das Market-Maker-Prinzip, bei dem nur einer oder wenige Händler gleichzeitig Kauf- und Verkaufsangebote in Form sogenannter Spannen oder Quotes stellen, die von den übrigen Marktteilnehmern dann zur Realisierung ihrer Transaktionswünsche genutzt werden können. XETRA realisierte in seiner ursprünglichen Form zunächst das Auktionsprinzip in der konkreten Form der Preisfeststellung des fortlaufenden Handels, welcher durch sog. Betreuer mit Market-MakerFunktion ergänzt wird (-> Neuer Markt). Seit Release 3 (Oktober 1998) wird die aus dem Parketthandel bekannte Preisermittlungsform des Handels zu Gesamtkursen nach dem Meistausfiihrungsprinzip zusätzlich möglich. Dies soll nicht nur die Marktliquidität begünstigen, sondern auch Odd Lots einbeziehen helfen. Als Stufe der Orderbuchtransparenz ist in XETRA eine sehr weitreichende Einsicht - zum Teil auch über das -»Internet - in das Orderbuch gewählt worden, indem alle Kauf- und Verkaufsorders in grundsätzlich anonymisierter Form und für gleiche Limits kumuliert veröffentlicht werden. Für die Handelsüberwachung enthält XETRA mehrere Mechanismen. U.a. 889
XYZ-Analyse
XETRA sorgen Volatilitätsunterbrechungen bei überdurchschnittlichen Kursänderungen in Verbindung mit einer sich anschließenden Einheitskursermittlung für eine Verstetigung der Preisentwicklung.
Periode. Hier kann beispielsweise folgende Klassifizierung vorgenommen werden:
Der Erfolg von XETRA scheint sich dadurch zu manifestieren, dass nicht nur der Umsatzanteil der Dax-30- und vieler weiterer Dax-100-Werte regelmäßig über 80% liegt und relevante Marktindizes wie der Dax-30, der MDax und der SMax seit Juni 1999 nur noch im Computerhandel ermittelt werden.
•
Grundsätzlich geklärt ist damit allerdings noch nicht der geschäftspolitisch motivierte und forcierte Ausbauerfolg von XETRA im Hinblick auf übergeordnete Kriterien der operativen Effizienz sowie der Informations- und der Bewertungseffizienz im Vergleich zu parallel (noch) bestehenden älteren Systemen. Eine kriteriengeleitete ökonomische Analyse wird insbesondere dadurch erschwert, dass in XETRA ein ganzes Portefeuille von grundständigen Handelsregeln zu einer Marktmikrostruktur verkoppelt werden, ohne dass über deren Zusammenwirken gesicherte Erkenntnisse vorliegen. Andreas Oehler XML XML (Extensible Markup Language) ist eine Obermenge von HTML. Wie dieses dient es der Beschreibung von Dokumenten, ist aber wesentlich flexibler, da die zur Beschreibung eines Dokuments benutzten Sprachelemente frei definierbar sind.
•
•
Artikel mit regelmäßigen Verbrauchen und geringer Schwankung (horizontaler Verlauf), Artikel mit schwankenden Verbrauchen (saisonal schwankend oder trendmäßig steigend bzw. fallend), Artikel mit völlig unregelmäßigem Verbrauch (nicht determinierbar).
Werden ABC-Analyse und Verbrauchskonstanz-Analyse miteinander in einer Matrix kombiniert, so entstehen 9 Felder zur Klassifizierung. Durch die Abgrenzung der Felder lassen sich Bereitstellungsmaßnahmen und die Einstellung von Dispositionsparametem weiter differenzieren. Verbrauchswert
X
A Hoch
B Mittel
C Gering
123
187
325
374
498
1043
156
563
4890
Hoch
Y Mittel
Z Gering
Es lassen sich so eigene Klassen von strukturierten Dokumenten erzeugen. Der gleichartige Aufbau macht die Dokumente einer maschinellen Bearbeitung zugänglich.
Je nach Verbrauchskonstanz- und nach ABC-Klasse können dabei unterschiedliche Dispositionsstrategien genutzt werden: Bspw. eine synchrone Anlieferung bei regelmäßigen Verbrauchen, Vorratshaltung bei schwankenden Verbrauchen oder die bedarfsgesteuerte Beschaffung geringgängiger und hochwertiger Teile bei unregelmäßigem Verbrauch.
XYZ-Analyse Eine weitere Verfeinerung der -> ABCAnalyse geschieht durch die XYZAnalyse. Die XYZ-Analyse bewertet die Verbrauchskonstanz über eine bestimmte
Vor dem Hintergrund der Kostenproblematik nimmt in der betrieblichen Praxis die Bedeutung von XYZ-Analysen in den letzten Jahren deutlich zu.
890
Zero-Base-Budgeting
XYZ-Analyse Neben diesen Zusammenhängen spielen in der Praxis noch die Werthaltigkeit der Teile, die Lager- und Bereitstellkosten sowie die Beschaffungs- bzw. Produktionskosten und die Gängigkeit eine Rolle. Die Gängigkeit berücksichtigt den Zusammenhang eines bspw. verbrauchsgesteuerten Artikels, der in einer Periode den Verbrauchswert 500 aufweist. Dieser Wert kann durch 2 mal 250, allerdings auch durch 250 mal 2 Stück entstanden sein. Im letzteren Fall kann der Mindestbestand deutlich geringer ausfallen. Josef Wüpping Zahlungsunfähigkeit -> Insolvenz Zeitkonto Zeitsparmodelle, gement
Arbeitszeitmana-
Zeitmanagement -> Mass Customization Zeitsparmodelle und Lebensarbeitszeitmodelle Zeitsparmodelle sind -»Arbeitszeitmodelle, die zur konkreten Ausgestaltung des -> Arbeitszeitmanagements eingesetzt werden. Beim Zeitsparmodell kommt es zu einer Ausdehnung der Flexibilitätsparameter der Gleitzeitarbeit. Es besteht die Notwendigkeit der Einrichtung eines Langzeitkontos, deshalb werden diese Modelle oft auch "Zeitkonten-Modelle" genannt. Ihr Vorteil liegt in der Möglichkeit der unregelmäßigen Verteilung der Arbeitszeit im Zeitablauf, gekoppelt mit einer starken Ausweitung des Ausgleichszeitraumes und der entfallenden Begrenzungen der Höhe der Zeitguthaben. Auch die "Zeit-Entnahmemöglichkeiten" (Regelungen des Ausgleichs von Zeitguthaben) sind gegenüber der traditionellen Gleitzeit erweitert wie z.B. Langzeiturlaube, gleitender bzw. vorzeitiger Übergang in den Ruhestand. Die Zeitspar- bzw. Lebensarbeitszeitmodelle stellen aufgrund dieser
Charakteristik eine Variante der Gleitzeit dar. Die Verbuchung von Zeitguthaben bzw. Zeitschulden auf einem Zeitkonto kann mittels eines Ampelkontos geschehen (-> Arbeitszeitmanagement). Karl-Friedrich Ackermann/ Simone Vollmer Zeitstabilitätshypothese Die Zeitstabilitätshypothese ist die grundlegende Prämisse der meisten Prognoseverfahren: Ihr zu Folge wird angenommen, dass sich die Unternehmensumwelt stetig verhält, ohne dass revolutionäre Umwälzungen diskrete Sprünge ("Diskontinuitäten") verursachen. Beispiel: Jede Prognose über die Entwicklung von Röhrencomputern wurde mit Entwicklung des Transistors schlagartig hinfällig. Zentralbereich -> Unternehmenszentrale Zentrenproduktion -> Produktionslogistik, -» Produktionsorganisation Zero-Base-Budgeting Zero-Base-Budgeting bezeichnet eine Analyse- und Planungsmethode, die die Senkung von Gemeinkosten im administrativen Bereich eines Unternehmens zum Ziel hat. Das Zero-Base-Budgeting geht bei der Kostenplanung von einer GemeinkostenBasis in Höhe von Null aus - man spricht in diesem Zusammenhang auch von der Fiktion eines auf der grünen Wiese neu gegründeten Unternehmens, bei dem eine Kostenfortschreibung aus dem Voijahr nicht möglich ist. Das Zero-BaseBudgeting findet i.d.R. keine Anwendung in den Fertigungs- und Vertriebsbereichen eines Unternehmens. Im Rahmen des Zero-Base-Budgeting werden für die Arbeitsergebnisse der zu untersuchenden Teilbereiche eines Unternehmens (z.B. verschiedene Abteilungen) drei alternative Leistungsniveaus definiert. Das nied-
891
Zero-Base-Budgeting rigste Leistungsniveau kennzeichnet das absolute Minimum, bei dem es gerade noch möglich ist, einen geregelten Betriebsablauf aufrecht zu erhalten. Die mittleren und hohen Leistungsniveaus beinhalten zusätzliche Leistungen, die jedoch auch zusätzliche Kosten verursachen. Nach dem Grad ihrer Wichtigkeit für den Erfolg des Unternehmens werden nach der Definition aller drei Leistungsniveaus die Leistungsniveaus für alle untersuchten Teilbereiche des Unternehmens in eine Rangfolge gebracht. Dieser Kostenaufstellung wird das Budget gegenüber gestellt, das für die untersuchten Teilbereiche eingeplant worden ist. I.d.R. übersteigen die Kosten für alle Leistungsniveaus das eingeplante Budget. Es folgt ein Budgetschnitt, der die NichtUmsetzung der jenseits des Budgetrahmens liegenden Leistungsniveaus zur Folge hat. Das Zero-Base-Budgeting führt zu einer systematischen Analyse der Aufgabeninhalte in den untersuchten Teilbereichen und zu Einsparungen von Leistungen, die für den Unternehmenserfolg nicht erforderlich sind. Zertifizierung Die Wirksamkeit von -» Qualitätsmanagement-Systemen kann durch ein von einer akkredierten Zertifizierungsgesellschaft festgestellt und mittels eines Zertifikates bestätigt werden. Zertifizierungen können entweder auf Basis der branchenneutralen Darlegungsformen der DIN EN ISO 9001-9003 (-• DIN EN ISO 9000ff.) oder auf Basis der Branchenstandards, wie der -> VDA 6 oder der ->• QS-9000 erfolgen. Zielgruppenbildung Unter Zielgruppe versteht man Gruppierungen von Kunden, Lieferanten etc., die eine Aufteilung des Marktes repräsentieren. Ein Hersteller von Käse bspw. kann durch entsprechende Gestaltung des -> Marketing-Mix verschiedene Zielgruppen ansprechen, um Differenzierungsvorteile zu erlangen, von der höheren 892
Zielgruppenbildung Preisbereitschaft bestimmter Verbrauchersegmente zu profitieren etc. Mit dem Standardprodukt würde er sich an den Normalverwender wenden und mit einer fettarmen Variante (= Light-Produkt) an jüngere Konsumenten mit ausgeprägtem Körperbewusstsein. Um das Segment der Senioren zu erschließen, böte es sich wiederum an, die Marketing-Konzeption in bestimmten Bereichen zu modifizieren: • •
•
•
Produktpolitik (kleinere Packungsgrößen, größere Schrift), Preispolitik (Orientierung an dem erhöhten Preisbewusstsein vieler älterer Menschen), Kommunikationspolitik (Werbung in von älteren Menschen bevorzugten Medien), Distributionspolitik (Vertrieb auch über Altersheime).
Neben den klassischen soziodemographischen Ansätzen der Zielgruppenbildung setzen sich zunehmend auch modernere, z.B. nutzenorientierte Segmentierungstechniken durch (Benefit-Segmentierung). Angesichts der verstärkten Internationalisierung des Wirtschaftsgeschehens wird es immer wichtiger, länderübergreifende Zielgruppen zu erschließen, welche man mit einem weitgehend standardisierten Instrumentarium erreichen kann. Deshalb betrachten wir im folgenden Zielgruppenbildung aus der internationalen Perspektive. Dabei steht die Strategie der "Standardisierten Differenzierung" im Mittelpunkt der Betrachtung; denn auch im Zuge der ->• Globalisierung müssen die meisten Unternehmen einerseits den Bedürfnissen von Zielgruppen Rechnung tragen und andererseits unter dem Zwang der Kostensenkung die (Skalen-)Vorteile einer standardisierten Marktbearbeitung weltweit nutzen. Standardisierungspotenzial entfaltet sich dann, wenn ein Unternehmen mehrere Länder mit vergleichbaren Nachfrageund Angebotsbedingungen mit demselben
Zielgruppenbildung
Zielgruppenbildung Clusters Erfolg verspricht. Da objektive Indikatoren häufig nur einen schwachen Bezug zum realen Kaufverhalten aufweisen und bspw. eine standardisierte Kommunikationsstrategie im gewählten Beispiel aufgrund des kulturspezifischen Umgangs der Rezipienten mit dem Gefühl "Scham" wenig Erfolg verspräche, muss die Zielgruppenbildung weiter verfeinert werden.
Marketing-Mix (oder Teilen davon) bearbeiten kann. (1) Objektive Merkmale der Verbraucher ermöglichen bei der Abgrenzung länderübergreifender Verbrauchersegmente einen "ersten robusten Schritt". Ein Papierverarbeiter bspw., der Windeln und saugfahige Bettunterlagen produziert, hat i.W. zwei Zielgruppen: Kleinkinder und an Inkontinenz leidende (ältere) Menschen. Um diese identifizieren zu können, wurden die Länder, die nach Maßgabe makroökonomischer Muss-Kriterien (z.B. BIP pro Kopf/Länderrisiko) als prinzipiell geeignet gelten können, clusteranalytisch (-> Clusteranalyse) anhand der Kriterien "Anteil der Haushalte mit Kind(em) unter 5 Jahren" sowie "Bevölkerungsanteil über 65 Jahre" gruppiert (vgl. Abb. 1).
(2)Yavas u.a. (1992) haben hierzu subjektive Merkmale der Verbraucher herangezogen: "wahrgenommenes Risiko" und "Markenloyalität" beim Kauf von Seife und Zahncreme von Konsumenten aus den USA, Mexiko, den Niederlanden, der Türkei, Thailand und Saudi-Arabien. Die clusteranalytische Vier-GruppenLösung ermöglicht eine Ad hocSegmentierung (= 2.1) und lässt sich als Portfolio darstellen, wobei die
Auf dieser Analyseebene lässt sich jedoch noch nicht beurteilen, ob eine Bearbeitung aller Märkte eines
Rescaled Distanae Cluster Cbrrtrire CAS E 0 Label Nun + Spanien Därerrerk Niederlande Belgiai Schweiz Finnland Portugal Griechenland Schweden Österreich Italien Luxerrtxjrg Deutschland GrcßDritanniai Frankreich Narvjegen Irlard
5 +
10 +
15 +
20 +
25 +
5 10 6 7 15 16 8 9 13 14 2 12 1 3 4 17 11
Abb. 1: Länder-Zielgruppen
mit vergleichbaren Anteilen an Kleinkindern und Senioren Quelle: Müller/Kornmeier (2000).
893
Zielgruppenbildung
Zielgruppenbildung
Allerdings lassen sich damit allein keine Zielgruppen aufdecken, die standardisiert angesprochen (Kommunikationspolitik) und erreicht (Distributionspolitik) werden können.
Zielgruppe der "Unberechenbaren" das geringste wahrgenommene Kaufrisiko, aber auch die geringste Markenloyalität (hinsichtlich beider Produkte) aufweist (vgl. Abb. 2; Beispiel Zahncreme).
Ein Teil der Konsumenten verhält sich nicht immer so, wie man dies bspw. aufgrund ihres gesellschaftlichen Status erwarten könnte: Im Rahmen der psychographischen Segmentierung (= 2.3) eröffnet das Lifestyle-Konzept den bislang besten Ausweg aus dem durch dieses hybride Kaufverhalten erwachsene Prognosedilemma. Der Lifestyle einer Person, der durch Demographika und Persönlichkeit ebenso beeinflusst wird wie durch die jeweilige Kultur, ist der (sichtbare) Ausdruck von wirtschaftlichen Veränderungen und sozialem Wertewandel. Er spiegelt sich in charakteristischen Interessen und konkreten Verhaltensweisen (z.B. Kauf-, Verbrauchs-, Freizeit- und Mediaverhalten) wider.
Durch länderspezifische Zuordnung der Auskunftspersonen zu den vier Segmenten lassen sich zwei Zielgruppen für die differenzierte Standardisierungsstrategie identifizieren: die "Treuen", die in den Niederlanden, Mexiko und Saudi-Arabien am weitesten verbreitet sind (=38^-8%), und die "Zweifler", die vorzugsweise in der Türkei, den USA und Thailand leben (= 3 5 ^ 6 % ) . Als subjektive Trennkriterien kommen weiterhin alle klassischen Konstrukte der Verhaltensforschung in Betracht (z.B. Einstellung, Akzeptanz oder Verhaltensabsicht). Dazu kann man die gewünschten Produkteigenschaften und den daraus erhofften Nutzen heranziehen. Die Benefit-Segmentierung (= 2.2) verspricht dann Vorteile, wenn das Produkt im Zentrum der Standardisierungsbemühungen steht. , sehr gering 2 sehr gering
treue
Wahrgenommenes " . . Risiko
, sehr hoch
i r
"Die Marken-
Im Zentrum der nach dem Prinzip der psychographischen Segmentierung entwickelten Lifestyle-Ansätze steht die
Unberechenbaren" „
1 "Die
v
Die
... „ Zweifler
Treuen" "Die
Ängstlichen"
sehr hoch ^
Abb. 2: Risikowahrnehmung
und Markenloyalität Quelle:
894
als Kriterien der
Müller/Kommeier (2000).
Zielgruppenbildung
Zurechnungsprinzipien
Zielgruppenbildung Suche nach länderübergreifenden Zielgruppen, die sich vor allem hinsichtlich ihrer Werte, Einstellungen, Interessen und konsumbezogenen Verhaltensweisen ähneln. Europaweit sind zwei Lebensstilanalysen von Bedeutung: Die vom Centre de Communication Avancée (CCA) entwickelten "Euro-Styles" und die ACEStudie des Research Institute on Social Change (RISC).
Zielkostenmanagement -> Target-Costing, -»Target-Investment Zurechnungsprinzipien Kosten werden im Rahmen der Kostenund Leistungsrechnung bestimmten Objekten zugerechnet (-> Kostenträgerrechnung, -> Kostenstellenrechnung). Dazu werden folgende Prinzipien verwendet: •
Mit dem AlO- und dem AA-Ansatz stehen zwei erprobte Messkonzepte zur Verfügung. Den höheren Bekanntheits- und Verbreitungsgrad hat der Activities/Interests/Opinions-Ansatz erlangt. Aktivität bezeichnet dabei eine manifeste Handlung (z.B. des Freizeit- oder Konsumverhaltens), Interesse spiegelt den Grad der Aufmerksamkeit gegenüber einem Objekt oder Ereignis wider (z.B. aus Beruf oder Familie), und Meinung bringt Interpretationen, Erwartungen oder Bewertungen zum Ausdruck (z.B. Überzeugungen bezüglich der Einstellungen anderer Menschen, Prognose zukünftiger Ereignisse in Wirtschaft oder Politik). Die wichtigsten Anwendungsgebiete sind die Konzeption von Werbekampagnen, Produktentwicklung und -positionierung sowie Markenpolitik (z.B. Schaffung von Welt- bzw. Euromarken). Zwar kommen dort auch die klassischen demographischen Segmentierungskriterien nach wie vor zum Einsatz (z.B. für Mediaselektion). Für die nutzergerechte Gestaltung einer Kommunikationsstrategie aber beschaffen nur Li fe-Style-Analysen die benötigten "tiefergehenden" Informationen über die Zielgruppe. Literatur: Lingenfelder, M.: Lebensstile, in: Tietz, B./Köhler, R./Zentes, J. (Hrsg.): Handwörterbuch des Marketing, 2. Aufl., Stuttgart 1995, Sp. 1 3 7 7 1392; Müller, S./Kornmeier, M.: Interkulturelles Marketing, München 2000.
Stefan Müller Zielkosten -> Target Costing
Kostenverursachungsprinzip (allg. Verursachungsprinzip): Der Güterverzehr wurde durch das Zurechnungsobjekt ursächlich hervorgerufen und wird daher diesem Objekt angelastet. Bsp.: Ein Produkt benötigt zu seiner Herstellung einen bestimmten Rohstoff in einer bestimmten Quantität. Der durch die Herstellung des Produktes verursachte Rohstoffverbrauch (= Güterverzehr) kann bewertet werden und dann dem Produkt als "Kostenträger" zugerechnet werden, wenn der Güterverzehr sonst nicht stattgefunden hätte. Das Kostenverursachungsprinzip ist eine sehr gute Rechtfertigung für die Zurechnung von Kosten.
•
Einwirkungsprinzip: Nach diesem Prinzip werden einem Objekt Kosten zugeordnet, wenn die Kostenursache auf das Objekt eingewirkt hat. Die Kosten wären zwar in jedem Fall entstanden - das Objekt aber nicht ohne die Kosten. Verdeutlichen mag dies das Beispiel eines festangestellten Mitarbeiters: Sein Zeitlohn ist das Entgelt für seine Leistung. Ohne den Mitarbeiter würde ein Produkt nicht entstehen, sein Lohn müsste aber auch ohne dieses Produkt gezahlt werden. Das Einwirkungsprinzip stellt eine gute Rechtfertigung für die Kostenzurechnung dar.
•
Durchschnittsprinzip: Hier werden Kosten anhand einer sog. Schlüsselgröße, die nicht von den Absatzpreisen der Produkte abhängig ist, den Zurechnungsobjekten proportional zuge-
895
Zurechnungsprinzipien schlagen. Die Schlüsselgröße kann z.B. aus den Nutzungszeiten einer Maschine oder aus den Lohnsummen bestehen. Für die Kostenzurechnung ist das Durschnittsprinzip nur eine schwache Rechtfertigung. •
Tragfähigkeitsprinzip: Kosten werden den Objekten proportional zu einer vom Absatzpreis abhängigen Schlüsselgröße zugeteilt. Das Tragfahigkeitsprinzip wird z.B. angewendet, wenn im Rahmen einer Kuppelproduktion (aus Rohstoffen entstehen in einem Arbeitsgang mehrere Produkte) die Anwendung anderer Zurechnungsprinzipien ausscheidet Das Tragfahigkeitsprinzip stellt die schwächste Rechtfertigung fiir die Kostenzurechnung dar.
Literatur: Kloock, J./Sieben, G./Schildbach, T.: Kosten- und Leistungsrechnung, 6., ilberarb. und erw. Aufl., Düsseldorf 1991.
896
Zweistufige Werbung Zweistufige Werbung Begriff des Direktmarketings. Zweistufige Werbung wird eingesetzt, wenn (1) das beworbene Produkt zu teuer oder zu komplex ist, um es mittels -» einstufiger Werbung zu verkaufen oder (2) die eigentlichen Werbematerialien (z.B. aufwendig gestaltete und produzierte Kataloge) sehr teuer sind. Nach einem ersten Kontakt mit dem Kunden erhält dieser in der zweiten Stufe weitere Informationen bzw. Werbematerialien. Sind weitere Stufen bis zum Kaufabschluß geplant, spricht man von Nachfasswerbung.