116 94 4MB
German Pages 430 [434] Year 2015
Jürgen Werner (Hrsg.) 40 Jahre Duales Studium – Festschrift
Jürgen Werner (Hrsg.)
40 Jahre Duales Studium Festschrift Band 1: Beiträge aus der Fakultät Wirtschaft
ISBN 978-3-11-041605-3 e-ISBN (PDF) 978-3-11-041620-6 e-ISBN (EPUB) 978-3-11-041628-2 Library of Congress Cataloging-in-Publication Data A CIP catalog record for this book has been applied for at the Library of Congress. Bibliografische Information der Deutschen Nationalbibliothek Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http://dnb.dnb.de abrufbar. © 2015 Walter de Gruyter GmbH, Berlin/Boston Satz: PTP-Berlin, Protago-TEX-Production GmbH, Berlin Coverabbildung: DHBW VS Druck und Bindung: CPI books GmbH, Leck ♾ Gedruckt auf säurefreiem Papier Printed in Germany www.degruyter.com
Inhaltsübersicht Vorwort | XIX Markus Amendt und Marcus Vögtle 1 Green Bonds – Grundlagen und Weiterentwicklung auf Basis konzeptioneller Schwächen | 1 Christina Bark, Norbert Kratz und Clemens Wangler 2 Unternehmensbewertung unter Berücksichtigung der Besonderheiten von KMU | 17 Annika Benkert, Gert Heinrich, Claus Jungblut, Jessica Kathage und Robert Mäckle 3 Das Interne Kontrollsystem beim Standard- und Notfallbetrieb eines Rechenzentrums | 41 Torsten Bleich 4 Duale Studiengänge im CHE Hochschulranking: Kritische Anmerkungen zu den verwendeten Indikatoren und Ansatzpunkte für ein passgenaueres Ranking | 75 Michael D. Bungert 5 The young Man(ager)s Guide to Competition: Wettbewerbs-Theorie, -Analyse und -Strategie | 97 Vera Döring 6 Die Rolle der betrieblichen Altersversorgung im Rahmen der Mitarbeiterbindung als wichtigster Erfolgsfaktor für den deutschen Mittelstand – mit dem Beispiel der Steuerberaterkanzleien | 121 Alexander Götz und Matthias Stockburger 7 Erklärungsansätze für Underpricing am deutschen Kapitalmarkt | 141 Jürgen Grass und Martin Kimmig 8 Blended-Learning-Konzept für einen Kurs in Informationsmanagement zur Integration einheitlich strukturierter Module mit mehreren Lehrenden | 171 Gunter Heeb 9 Haftung des Wirtschaftsprüfers gegenüber Dritten | 183
VI
Inhaltsübersicht
Gert Heinrich 10 Schätzverfahren für punktuelle Zukunftsprognosen | 197 Wolfgang Hirschberger 11 Auswirkungen handelsrechtlicher Wahlrechte auf die Kapitalflussrechnung nach DRS 21 | 209 Hendrik Jacobsen 12 Der Studiengangsleiter als zentrale Figur der Dualen Hochschulorganisation | 219 Erich Klaus 13 Vertrauen als Erfolgsfaktor für Hochschulen | 243 Hanns-Peter Knaebel 14 Gestörtes Gleichgewicht zwischen Bildungs- und Beschäftigungssystem | 287 Martin Plag 15 Controlling – die dunkle Seite der Macht | 303 Ulrich Sommer und Ala Schönberger 16 Der Nürnberger Trichter ist out! | 315 Petra Stellmach 17 Potenziale der Monte Carlo Simulation bei der Ergebnisplanung | 333 Viola Strobel und Christopher Paul 18 Framing und Agenda-Setting in der Lokalberichterstattung | 351 Jürgen Werner 19 Hat die steuerliche Selbstanzeige noch eine Zukunft? | 369 Lothar Wildmann 20 BIG statt BIP – Die Welt auf der Suche nach den Glücksfaktoren | 389 Verzeichnis der Autorinnen und Autoren | 407 Redaktion | 413
Inhaltsverzeichnis Vorwort | XIX Markus Amendt und Marcus Vögtle 1 Green Bonds – Grundlagen und Weiterentwicklung auf Basis konzeptioneller Schwächen | 1 1 Einleitung | 1 2 Spezifika von Green Bonds | 1 2.1 Definition und Einordnung des Begriffs Green Bond | 1 2.2 Besonderheiten im Emissionsprozess | 3 2.3 Gründe für den Markteintritt aus Emittenten- und Investorensicht | 5 2.4 Marktentwicklung und -ausblick | 6 3 Weiterentwicklung von Green Bonds auf Basis konzeptioneller Schwächen | 7 3.1 Alternative zur Definition von Green | 7 3.2 Zusammenfassende Beurteilung von Emittent und Emission | 8 3.3 Systematische Bezeichnung von Green Debt | 10 3.4 Etablierung der Trademark Green Bond | 11 3.5 Vermeidung einer Marktbeeinflussung durch Politik und Regulierung | 12 4 Schlussbetrachtung | 13 Christina Bark, Norbert Kratz und Clemens Wangler 2 Unternehmensbewertung unter Berücksichtigung der Besonderheiten von KMU | 17 1 Einleitung | 17 2 Abgrenzung der verschiedenen Bewertungskonzeptionen | 19 3 KMU-Bewertung nach aktuellen berufsständischen Verlautbarungen in Deutschland und Österreich | 23 4 Unter welchen Voraussetzungen „passt“ die vorgeschlagene Vorgehensweise einer CAPM-basierten KMU-bewertung? | 27 4.1 KMU-spezifische Widersprüchlichkeiten bei der Anwendung des CAPM bei gegebener Duplizierbarkeit der künftigen Zahlungen | 27 4.2 Objektivierte Bewertung von KMU auf der Grundlage des CAPM bei fehlender Duplizierbarkeit? | 30 5 Zusammenfassung und Formulierung offener Fragen zur Unternehmensbewertung, insbesondere zur Bewertung von KMU | 36
VIII
Inhaltsverzeichnis
Annika Benkert, Gert Heinrich, Claus Jungblut, Jessica Kathage und Robert Mäckle 3 Das Interne Kontrollsystem beim Standard- und Notfallbetrieb eines Rechenzentrums | 41 1 Einleitung | 41 1.1 Interne Kontrollsysteme | 41 1.2 Zielsetzung und Vorgehensweise | 42 2 Risiken des Rechenzentrumbetriebs | 42 2.1 Höhere Gewalt | 43 2.2 Organisatorische Mängel | 46 2.3 Technisches Versagen | 47 2.4 Vorsätzliche Handlungen | 48 3 Interne Kontrollen beim Rechenzentrumbetrieb | 50 3.1 Kontrollen für den Standardbetrieb | 51 3.2 Kontrollen für den Notfallbetrieb | 69 3.3 Kreuzreferenztabelle Risiken und Kontrollen | 70 4 Zusammenfassung und Ausblick | 72 Torsten Bleich 4 Duale Studiengänge im CHE Hochschulranking: Kritische Anmerkungen zu den verwendeten Indikatoren und Ansatzpunkte für ein passgenaueres Ranking | 75 1 Einleitung | 75 2 Duale Programme als besondere Form des Hochschulstudiums | 76 2.1 Systematisierung dualer Studiengänge | 77 2.2 Besonderheiten dualer Studiengänge | 79 3 Internationale Hochschulrankings und das CHE Hochschulranking | 80 3.1 Hochschulrankings: ein Überblick im globalen Kontext | 80 3.2 Das Hochschulranking des CHE | 82 4 Duale Studiengänge im CHE Hochschulranking | 84 4.1 Status quo: Indikatoren des CHE Hochschulrankings für duale Studiengänge | 85 4.2 Kritik am derzeitigen Ranking dualer Studiengänge | 89 4.3 Ansatzpunkte für ein passgenaueres Ranking dualer Studiengänge | 91 5 Resümee | 94 Michael D. Bungert 5 The young Man(ager)s Guide to Competition: Wettbewerbs-Theorie, -Analyse und -Strategie | 97 1 Strategie als Anpassung und die Relevanz der ökonomischen Theorie für strategische Analysen | 97 2 Theoretische Grundlagen zum Monopol und zum Wettbewerb in Oligopolen | 98
Inhaltsverzeichnis
IX
Monopol und seine Konsequenzen | 98 Wettbewerb im Oligopol: Nullsummenspiel und Nash-Gleichgewicht | 99 Branchenstrukturanalyse zur Bestimmung der (horizontalen) Wettbewerbsintensität, und strategische Implikation | 101 3.1 Strukturen im Kern des Modells der Wettbewerbskräfte | 101 3.2 Branchenstrukturen, die die Möglichkeiten zur Koordination von Wettbewerbern beeinflussen | 102 3.2.1 Kartellstrategien und einfaches Prisoners Dilemma | 102 3.2.2 Preissetzung als Prisoner‘s Dilemma und Strategien zur Lösung | 104 3.2.2.1 Prisoner’s Dilemma des Pricing und Lösungs-Voraussetzungen | 104 3.2.2.2 Preisführerschaft als Strategie zur Lösung des Prisoner’s Dilemma | 106 3.2.2.3 Tit-for-Tat als Strategie zur Lösung des Prisoner’s Dilemma | 106 3.3 Branchenstrukturen, die die Preiselastizität beeinflussen | 107 3.3.1 Markttransparenz und Preissensibilität der Kunden | 108 3.3.2 Homogenität der Produkte und generische Wettbewerbsstrategien | 108 3.3.3 Wechselkosten der Kunden und Effekte der Kundenbindung | 109 3.4 Branchenstrukturen, die Preissenkungen provozieren | 112 3.4.1 Hoher Fixkostenanteil | 112 3.4.2 Wachstum der Märkte/Branche und Überkapazitäten | 112 3.5 Markteintritte als wettbewerbsverschärfender Faktor | 112 3.5.1 Eintritt neuer Wettbewerber: Effekte auf die Wettbewerbsintensität | 112 3.5.2 Abschätzung der Wahrscheinlichkeit von Markteintritten | 113 3.5.3 Strategien zur Abwehr von Markteintritten | 114 4 Kritische Beurteilung der Wettbewerbs-/Branchenstrukturanalyse | 116 4.1 Nutzen der Wettbewerbs-/Branchenstrukturanalyse | 116 4.2 Probleme und Defizite der Branchenstrukturanalyse | 117 5 Zusammenfassung | 118
2.1 2.2 3
Vera Döring 6 Die Rolle der betrieblichen Altersversorgung im Rahmen der Mitarbeiterbindung als wichtigster Erfolgsfaktor für den deutschen Mittelstand – mit dem Beispiel der Steuerberaterkanzleien | 121 1 Erfolgsfaktoren allgemein und für den deutschen Mittelstand | 122 1.1 Erfolgsfaktoren allgemein | 122 1.2 Erfolgsfaktoren für den deutschen Mittelstand | 122 1.2.1 Herausforderungen für den deutschen Mittelstand gemäß der Initiative „Offensive Mittelstand – Gut für Deutschland“ | 122 1.2.2 Ableitung des wichtigsten Erfolgsfaktors für den deutschen Mittelstand | 124 1.2.3 Bindung qualifizierter Mitarbeiter als wichtigster Erfolgsfaktor | 125 2 Rolle der betrieblichen Altersversorgung im Rahmen der Mitarbeiterbindung als wichtigster Erfolgsfaktor | 127
X
2.1 2.2 2.3 2.4 3 3.1 3.2 3.3 4
Inhaltsverzeichnis
Begriff „Betriebliche Altersversorgung“ | 127 Bedeutung der betrieblichen Altersversorgung | 128 Betriebliche Altersversorgung und Mitarbeiterbindung | 129 Handlungsempfehlungen für KMU | 131 Beispiel kleine und mittelgroße Steuerberaterkanzleien | 134 Erfolgsfaktoren für Steuerberaterkanzleien | 134 Rolle der betrieblichen Altersversorgung für Steuerberaterkanzleien | 135 Handlungsempfehlungen für Steuerberaterkanzleien | 136 Zusammenfassung und Fazit | 138
Alexander Götz und Matthias Stockburger 7 Erklärungsansätze für Underpricing am deutschen Kapitalmarkt | 141 1 Einleitung | 141 2 Erklärungsansätze zum kurzfristigen Underpricing | 142 2.1 Informationsasymmetrien zwischen Kapitalanlegern | 142 2.2 Einfluss der emissionsbegleitenden Bank | 143 2.3 Bewusstes Underpricing durch den Emittenten | 144 2.4 Weitere Ansätze und Zusammenfassung | 145 3 Empirische Untersuchung am deutschen Kapitalmarkt | 145 3.1 Datenbasis und Methodik | 145 3.2 Zeichnungsrenditen am deutschen Aktienmarkt | 149 3.3 Multivariate Analyse zur Bestimmung der Einflussfaktoren | 153 3.3.1 Vorgehensweise | 153 3.3.2 Definition der exogenen Variablen | 153 3.3.3 Modellaufbau | 157 3.4 Ergebnisse | 157 4 Fazit | 163 5 Anhang | 165 Jürgen Grass und Martin Kimmig 8 Blended-Learning-Konzept für einen Kurs in Informationsmanagement zur Integration einheitlich strukturierter Module mit mehreren Lehrenden | 171 1 Einführung | 171 2 Das Modul Informationsmanagement | 172 2.1 Konzept | 172 2.2 Modularisierung | 173 2.3 Modulstruktur | 173 2.4 Individuelle Auswahl | 175 3 Evaluation | 177 4 Ausblick | 180 5 Anhang | 180
Inhaltsverzeichnis
Gunter Heeb 9 Haftung des Wirtschaftsprüfers gegenüber Dritten | 183 1 Einleitung | 183 2 Anspruchsgrundlagen | 183 2.1 § 323 HGB | 183 2.2 Deliktische Haftung nach §§ 823 ff. BGB | 184 2.3 Schuldrechtliche Ansprüche | 187 2.3.1 Vertrag mit Schutzwirkung zugunsten Dritter | 187 2.3.2 Auskunftsvertrag | 191 2.3.3 Ansprüche aus Schuldverhältnissen nach § 311 BGB | 192 2.3.4 Prospekthaftung | 194 3 Zusammenfassung und Ausblick | 195 Gert Heinrich 10 Schätzverfahren für punktuelle Zukunftsprognosen | 197 1 Einleitung | 197 1.1 Problemstellung und Zielsetzung | 197 1.2 Vorgehensweise | 198 2 Prognosen mit mathematischen Funktionen | 198 2.1 Exakte Funktionen | 199 2.2 Näherungsfunktionen | 199 2.2.1 Geraden | 199 2.2.2 Parabeln 2. Ordnung | 200 2.2.3 Linearkombinationen aus linearen und periodischen Funktionen | 201 3 Prognosen mit Zeitreihen | 202 3.1 Zeitreihenzerlegung | 202 3.2 Einfaches exponentielles Glätten | 204 3.3 Verallgemeinertes Verfahren nach Holt und Winters | 205 4 Zusammenfassung und Ausblick | 207 Wolfgang Hirschberger 11 Auswirkungen handelsrechtlicher Wahlrechte auf die Kapitalflussrechnung nach DRS 21 | 209 1 Einleitung | 209 2 Ansatzwahlrechte | 210 2.1 Selbst geschaffene immaterielle Vermögensgegenstände des Anlagevermögens | 210 2.2 Disagio | 211 2.3 Überhang an Aktiven Latenten Steuern | 212 3 Bewertungswahlrechte | 212 3.1 Außerplanmäßige Abschreibungen bei Finanzanlagen | 212 3.2 Bewertungseinheiten | 213
XI
XII
Inhaltsverzeichnis
3.3 3.4 3.5 4
Umfang eigener Herstellungskosten | 214 Verbrauchsfolgeverfahren | 215 Erhaltene Zuschüsse | 216 Zusammenfassung | 217
Hendrik Jacobsen 12 Der Studiengangsleiter als zentrale Figur der Dualen Hochschulorganisation | 219 1 Überblick | 219 2 Der Studiengangsleiter als Professor | 219 2.1 Begründung des Amtes | 219 2.1.1 Berufungsvoraussetzungen | 220 2.1.2 Auswahlentscheidung | 221 2.1.3 Berufung | 222 2.2 Laufende Ausübung des Amtes | 223 2.2.1 Allgemeines | 223 2.2.2 Verhältnis zu Studenten | 224 2.2.3 Verhältnis zu Studienbereichsleiter, Rektor und Präsident | 226 2.3 Beendigung des Amtes | 227 2.3.1 Ordentliche Beendigung | 227 2.3.2 Außerordentliche Beendigung | 228 2.3.2.1 Beendigung in der Probezeit | 228 2.3.2.2 Beendigung nach der Probezeit | 230 3 Die Funktion des Studiengangsleiters | 230 3.1 Begründung der Funktion | 230 3.1.1 Bestellungsvoraussetzungen | 231 3.1.2 Auswahlentscheidung | 231 3.1.3 Bestellung | 232 3.2 Laufende Ausübung der Funktion | 232 3.2.1 Allgemeines | 233 3.2.2 Verhältnis zu Studenten | 233 3.2.3 Verhältnis zu Ausbildungsbetrieben | 233 3.2.4 Verhältnis zu Lehrbeauftragten | 234 3.2.5 Verhältnis zum Prüfungsamt | 237 3.2.6 Verhältnis zu Studienbereichsleiter, Rektor und Präsident | 237 3.3 Beendigung der Funktion | 238 3.3.1 Ordentliche Beendigung | 238 3.3.2 Außerordentliche Beendigung | 239 4 Zusammenfassung | 241
Inhaltsverzeichnis
XIII
Erich Klaus 13 Vertrauen als Erfolgsfaktor für Hochschulen | 243 1 Theoretische Grundlagen des Vertrauens | 243 1.1 Einführung | 243 1.2 Vertrauen aus psychologischer Perspektive | 245 1.2.1 Der Ansatz von Deutsch | 245 1.2.2 Der Ansatz von Erikson | 247 1.2.3 Der Ansatz von Rotter | 250 1.3 Vertrauen aus soziologischer Perspektive | 253 1.3.1 Der Ansatz von Luhmann | 253 1.3.2 Der Ansatz von Coleman | 256 1.3.3 Der Ansatz von Giddens | 259 2 Ansatzpunkte für ein vertrauensbewusstes Management in Hochschulen | 267 2.1 Einführung | 267 2.2 Individuelle Ansatzpunkte für ein vertrauensbewusstes Management in Hochschulen | 268 2.2.1 Schaffung motivationaler Voraussetzungen | 268 2.2.2 Sicherstellung der Vertrauensbereitschaft | 268 2.2.3 Unterstützung kognitiver und emotionaler Fähigkeiten | 269 2.2.4 Förderung prosozialen Verhaltens | 270 2.2.5 Stärkung der sozialen Kompetenz | 271 2.3 Institutionelle Ansatzpunkte für ein vertrauensbewusstes Management in Hochschulen | 271 2.3.1 Sicherstellung von Information und Kommunikation | 271 2.3.2 Herstellung von Vertrautheit | 272 2.3.3 Nutzung von Vertrauensintermediären | 272 2.3.4 Unterstützung der Reziprozitätsnorm | 273 2.3.5 Schaffung und Sicherung sozialen Kapitals | 273 2.3.6 Aufbau und Verbreitung einer Vertrauenskultur | 274 2.3.7 Stärkung schwacher Verbindungen | 275 2.3.8 Nutzung der Reputation | 275 2.3.9 Sicherstellung der Sozialisation | 276 3 Zusammenfassung und Ausblick | 276 Hanns-Peter Knaebel 14 Gestörtes Gleichgewicht zwischen Bildungs- und Beschäftigungssystem | 287 1 Die formative Kraft der Ersten Welt | 287 2 Lernen als Entfaltung von Urteils- und Berufsfähigkeit | 288 3 Persönlichkeitsbildung als Erziehungsziel | 289 4 Bildung von Kopf, Herz und Hand | 291
XIV
5 6 7 8 9 10
Inhaltsverzeichnis
Deutschland – ein Land der Akademiker? | 293 Eine Gesellschaft ohne Zukunft? | 294 Hohes Qualifikationsniveau im Sog der Industrialisierung und Digitalisierung | 295 Akademisierungswahn – fragwürdige Bologna-Reform | 297 Profilschwächen im tertiären Bereich | 298 Notwendige Besinnung auf bewährte Leistungsstrukturen | 299
Martin Plag 15 Controlling – die dunkle Seite der Macht | 303 1 Problemfeld, Zielsetzung und Methodik | 303 2 Konzeptionelle Basis | 303 2.1 Controlling und Controller-Rollenbilder | 303 2.2 Macht | 305 2.2.1 Definition | 305 2.2.2 Quellen der Macht im Überblick | 305 3 Controller-Rollenbilder und Nutzung der Machtquellen | 308 3.1 Macht durch Legitimation | 308 3.2 Macht durch Persönlichkeitswirkung | 308 3.3 Macht durch Expertenstatus | 309 3.4 Macht durch Information | 310 3.5 Macht durch Belohnung und Bestrafung | 311 3.6 Synopsis und Schlussfolgerung | 312 4 Fazit und Ausblick | 313 Ulrich Sommer und Ala Schönberger 16 Der Nürnberger Trichter ist out! | 315 1 Aus Informationen Wissen generieren | 315 2 Fortbildungsformen für ein lebenslanges Lernen in der Steuerberatung | 316 3 Der Nürnberger Trichter als Auslaufmodell | 319 4 Die konstruktivistische Wende im Bildungsbereich | 321 4.1 Von der Informationsaufnahme zum entdeckenden Lernen | 321 4.2 Prozessmerkmale des Lernens aus konstruktivistischer Sicht | 321 4.2.1 Die Vielfalt der Lernwege | 321 4.2.2 Die einzelnen Prozessmerkmale | 322 5 Verändertes Rollenverständnis von Lehrenden und Lernenden | 323 6 Innovative Formen der Aus- und Fortbildung in den steuerberatenden und wirtschaftsprüfenden Berufen | 325 6.1 Entwicklung unterschiedlicher Lernformen | 325
Inhaltsverzeichnis
6.2 6.2.1 6.2.2 6.2.3 7 8
XV
eLearning als alternative Lehr- und Lernform | 325 Begriff des eLearning | 325 Blended-Learning | 326 Vorteile des Einsatzes von eLearning | 327 Angebote computergestützter Fortbildung in der Steuerberatung und Wirtschaftsprüfung | 328 Fazit | 329
Petra Stellmach 17 Potenziale der Monte Carlo Simulation bei der Ergebnisplanung | 333 1 Einleitung | 333 2 Funktionsweise der Monte Carlo Simulation | 334 3 Betriebswirtschaftlicher Modellbau und deterministische Ergebnisprognose | 335 3.1 Ergebnisprognose unter Unsicherheit | 335 3.2 Modellaufbau und Zusammenhänge | 335 3.3 Deterministische Ergebnisprognose | 336 4 Monte Carlo Simulation und Ergebnisinterpretation | 338 4.1 Erzeugung von Zufallszahlen in Excel | 338 4.2 Umsetzung der Monte Carlo Simulation | 340 4.3 Auswertung der Ergebnisse | 342 5 Schlussfolgerungen für die Unternehmensplanung | 347 6 Zusammenfassung der Ergebnisse | 348 Viola Strobel und Christopher Paul 18 Framing und Agenda-Setting in der Lokalberichterstattung | 351 1 Einleitung | 351 2 Agenda-Setting und Framing als konzeptioneller Rahmen | 352 3 Das „Zentrale Rathaus“-Projekt der Stadt Villingen-Schwenningen | 353 3.1 Hintergrund | 353 3.2 Chronologie | 354 4 Inhaltsanalyse | 355 4.1 Methodisches Vorgehen | 355 4.2 Formalanalyse | 357 4.3 Strukturanalyse | 359 4.4 Diskursanalyse | 360 4.5 Tendenzanalyse | 363 4.6 Framing Analyse | 364 5 Fazit und Ausblick | 365
XVI
Inhaltsverzeichnis
Jürgen Werner 19 Hat die steuerliche Selbstanzeige noch eine Zukunft? | 369 1 Einleitung | 369 2 Voraussetzungen der Selbstanzeige | 370 3 Probleme und bisher ungelöste Fragen zu den Neuregelungen | 372 3.1 Das Vollständigkeitsgebot | 372 3.2 Die Ausschlussgründe | 375 3.2.1 Allgemeines | 375 3.2.2 Bekanntgabe einer Prüfungsanordnung (§ 371 Abs. 2 Nr. 1a AO) | 375 3.2.3 Bekanntgabe der Einleitung eines Straf- oder Bußgeldverfahrens (§ 371 Abs. 2 Nr. 1b AO) | 377 3.2.4 Erscheinen eines Amtsträgers zur steuerlichen Prüfung (§ 371 Abs. 2 Nr. 1c AO) | 379 3.2.5 Erscheinen eines Amtsträgers zur Ermittlung einer Steuerstraftat oder Steuerordnungswidrigkeit (§ 371 Abs. 2 Nr. 1d AO) | 379 3.2.6 Erscheinen eines Amtsträgers zu einer Nachschau (§ 371 Abs. 2 Nr. 1e AO) | 379 3.2.7 Entdeckung der Tat (§ 371 Abs. 2 Nr. 2 AO) | 380 3.2.8 Steuervorteil über 25.000 € (§ 371 Abs. 2 Nr. 3 AO) | 381 3.2.9 Vorliegen eines besonders schweren Falles (§ 371 Abs. 2 Nr. 4 AO) | 382 3.2.10 Absehen von Verfolgung in besonderen Fällen (§ 398a AO) | 382 3.3 Die Nachzahlung der verkürzten Steuer (§ 371 Abs. 3 AO) | 385 4 Der politische Wille zur Beibehaltung der Selbstanzeige | 386 5 Fazit | 387 Lothar Wildmann 20 BIG statt BIP – Die Welt auf der Suche nach den Glücksfaktoren | 389 1 Prolog – Paradies, Schlaraffenland und Himmel | 389 2 Lebensqualität und Wohlfahrtsindikatoren | 390 2.1 Frankreich und die Stiglitz-Sen-Fitoussi-Kommission | 391 2.2 Deutschland und die Enquetekommission „Wachstum, Wohlstand, Lebensqualität“ | 392 2.3 Die OECD und der Better Life Index | 393 2.4 Die Vereinten Nationen und der Human Development Index | 395 2.5 Der World Happiness Report | 395 2.6 Der Happy Planet Index | 396 3 Das Bruttoinlandsprodukt in der Kritik | 396 3.1 Das Bruttoinlandsprodukt im weltweiten Vergleich | 397 3.2 Aussagekraft des Bruttoinlandsproduktes | 399
Inhaltsverzeichnis
4 4.1 4.2 4.3 5
Einkommen und Lebenszufriedenheit | 399 Das Easterlin-Paradoxon | 399 Reiche und glückliche Länder | 401 Glück in Deutschland | 403 Epilog | 404
Verzeichnis der Autorinnen und Autoren | 407 Redaktion | 413
XVII
Vorwort Die Duale Hochschule Baden Württemberg (DHBW) Villingen-Schwenningen feiert in diesem Jahr „40 Jahre Duales Studium“ und blickt damit auf einen erstaunlichen und von Erfolg geprägten Weg zurück. Am 1. Oktober 1975 als Berufsakademie mit 14 BWL-Studierenden gestartet, zählt die DHBW Villingen-Schwenningen heute in den Fakultäten Sozialwesen und Wirtschaft insgesamt 2.450 Studierende. 17 Bachelorstudiengänge werden in Villingen-Schwenningen angeboten und am Center for Advanced Studies ist die DHBW Villingen-Schwenningen an zahlreichen Masterstudiengängen beteiligt. Als erste damalige Berufsakademie im ländlichen Raum gegründet, war man in Villingen-Schwenningen stets bestrebt, durch hervorragende Qualität und stetige Innovationen nicht nur regional, sondern auch überregional als kompetenter Partner für die Ausbildung junger Menschen wahrgenommen zu werden. Zahlreiche innovative Studiengänge wie BWL-Controlling & Consulting, BWL-Mittelständische Wirtschaft, BWL-Technical Management, RSW-Wirtschaftsprüfung sowie Sozialwirtschaft und Netzwerk- und Sozialraumarbeit wurden in Villingen-Schwenningen entwickelt und sind teilweise bis heute einzigartig in der Vielzahl der Studienangebote der Dualen Hochschule Baden-Württemberg. Der Erfolg dieser Innovationen beruht nicht zuletzt auch auf der Tatsache, dass die Zusammenarbeit mit den Dualen Partnern in Villingen-Schwenningen einen hohen Stellenwert einnimmt und alle neuen Studiengänge in Kooperation und Abstimmung mit den Dualen Partnern entwickelt wurden und so ideal auf deren Bedürfnisse in der Praxis zugeschnitten werden konnten. Die Zahl der Dualen Partner ist in den vergangenen 40 Jahren konstant auf mittlerweile 950 gestiegen. Sowohl klein- und mittelständische Unternehmen als auch weltweit agierende Großkonzerne bilden mit der DHBW Villingen-Schwenningen aus. Auch in der Fakultät Sozialwesen reicht die Spanne von der kleinen sozialen Einrichtung bis zu großen Stiftungen und Krankenkassen. Unser Anspruch als Hochschule ist es hierbei, unseren Unternehmen und sozialen Einrichtungen als exzellenter und kompetenter Partner in der Ausbildung ihrer künftigen Fach- und Führungskräfte zur Seite zu stehen. Die Erfolgsgeschichten unserer Absolventinnen und Absolventen zeigen, dass wir diesem Anspruch in den letzten 40 Jahren gerecht geworden sind. Mit dem Zusammenschluss der Berufsakademien in Baden-Württemberg im Jahre 2009 zur Dualen Hochschule Baden-Württemberg ist der im Landeshochschulgesetz verankerte Auftrag zur Forschung noch weiter in den Fokus gerückt. Entsprechend unseres dualen Modells ist auch der Forschungsansatz, den die Duale Hochschule Baden-Württemberg verfolgt, kooperativ ausgestaltet. So stehen wir als DHBW Villingen-Schwenningen unseren Dualen Partnern nicht nur im Rahmen der Ausbildung, sondern auch mit Blick auf die wissenschaftliche Bearbeitung praxisrelevanter Fragen und Problemstellungen als kompetenter Partner zur Seite. Die vorliegende Festschrift zu unserem 40jährigen Jubiläum ist entsprechend unserer beiden Fakultäten Sozialwesen und Wirtschaft in zwei Einzelbände unter-
XX
Vorwort
teilt. An jedem davon haben eine Vielzahl von Professorinnen und Professoren, Mitarbeitende und Studierende durch Beiträge zu den unterschiedlichsten Themen mitgewirkt. Wenn man die jeweiligen Inhaltsverzeichnisse überfliegt, wird man bereits die Bandbreite der Themen, die an unserer Hochschule in Lehre und Forschung bearbeitet werden, erahnen können. An dieser Stelle möchte ich mich ganz herzlich bei allen Autorinnen und Autoren für ihre Beiträge und ihr Engagement bei der Erstellung der Festschrift bedanken¹. Ein besonderer Dank gilt dem Verlag für die großzügige Unterstützung, den Mitgliedern der Arbeitsgruppe Festschrift Prof. Dr. Bleich, Prof. Dr. Gögercin, Prof. Dr. Heinrich, Prof. Dr. Paul und Prof. Dr. Wildmann sowie insbesondere Frau Diplom-Betriebswirtin (DH), MBA, Anita Peter, die die Festschrift von Anfang an engagiert begleitet hat. Villingen-Schwenningen im Juni 2015 Prof. Jürgen Werner Rektor
1 In den nachfolgenden Beiträgen wird durchgehend die männliche Form der Berufs- oder Statusbezeichnungen verwendet. Dies impliziert keinesfalls eine geschlechterdiskriminierende Aussage, sondern ist lediglich der flüssigeren Lesbarkeit und besseren Verständlichkeit geschuldet.
Markus Amendt und Marcus Vögtle
1 Green Bonds – Grundlagen und Weiterentwicklung auf Basis konzeptioneller Schwächen 1 Einleitung Im Jahr 2011 veröffentlichte die Internationale Energiebehörde eine Studie zur Entwicklung des umweltfreundlichen Energiemarktes. Innerhalb dieser Studie wird festgestellt, dass zur Finanzierung einer Halbierung der globalen Treibhausgasemissionen bis zum Jahr 2050 ein Gesamtbetrag von USD 46 Bio. notwendig sein wird (Girouard et al. 2011, S. 3). Häufig wird nach solchen Feststellungen der Ruf nach staatlicher Unterstützung und neuen Maßnahmenpaketen laut. Neben diesen Forderungen hat sich allerdings innerhalb der letzten Jahre ein neues Konzept zur Finanzierung von Klimaförderung am Kapitalmarkt etabliert, die Green Bonds. Insbesondere im ersten Halbjahr 2014 wuchs der Markt für diese neue Anlageklasse stark (Vgl. Abschnitt 2.4). Der Boom folgt auf die zu Beginn des Jahres 2014 von einer Reihe von Banken veröffentlichten Green Bond Principles (GBP – freiwillige Richtlinien zur Emission von Green Bonds), in denen der Markt eine erste Standardisierung erfahren hat. Abgesehen von diesen GBP ist die wissenschaftliche Literatur zum Thema Green Bonds Stückwerk und befasst sich nur mit Teilaspekten des Konzepts. Ziel der Untersuchung ist daher zunächst, eine wissenschaftliche Einordnung vorzunehmen, sowie die Grundlagen und die Marktentwicklung des noch jungen Konzepts aufzuarbeiten. Anschließend sollen auf Basis konzeptioneller Schwächen des Green Bonds Weiterentwicklungspotentiale aufgedeckt und Empfehlungen an die beteiligten Akteure ausgesprochen werden.
2 Spezifika von Green Bonds 2.1 Definition und Einordnung des Begriffs Green Bond Green Bonds sind bislang nicht wissenschaftlich definiert. In Kurzform werden sie häufig als Anleihe beschrieben, deren Emissionserlöse für umweltfreundliche Zwecke eingesetzt werden (o. V. 2014a; o. V. 2014c; Schäfer 2014). Diese Definition greift allerdings zu kurz. Der Begriff Green Bond bezieht sich weder nur auf Anleihen, noch ist die Mittelverwendung mit der Umschreibung umweltfreundlich ausreichend einge-
2
Markus Amendt und Marcus Vögtle
schränkt. Nachfolgend wird der Begriff Green Bond zunächst in seinem Bestandteil Green, anschließend in seinem Bestandteil Bond erläutert. Die im Januar 2014 von einem Bankenkonsortium verabschiedeten GBP sind freiwillige Prozessrichtlinien für die Emission von Green Bonds (o. V. 2014d, S. 1). Sie stellen die erste Form von Standardisierung im noch jungen Green Bond Markt dar. Dennoch befassen sie sich ausdrücklich nicht mit der Definition von Green, sondern geben lediglich Beispiele und umreißen es als Aktivitäten oder Projekte, die Zwecken der Klima- oder Umweltnachhaltigkeit dienen (o. V. 2014d, S. 2–3). Die GBP stellen explizit heraus, dass eine sehr breite Streuung der Meinungen vorherrscht, welche die korrekte Abgrenzung von Green ist. Daher sollen die Emittenten von Green Bonds innerhalb der Emissionsdokumente genau beschreiben, für welche Zwecke die eingesammelten Mittel verwendet werden können. Investorn sollen so in die Lage versetzt werden, eine eigenständige Prüfung der Dokumente hinsichtlich ihrer Anlagebedingungen vornehmen zu können (o. V. 2014d, S. 1). Andere Quellen ermöglichen ebenfalls keine eindeutige Abgrenzung. Inderst, Kaminker und Stewart ziehen zur Definition von Green andere wissenschaftliche Disziplinen und deren Definitionen heran. Auch aus diesem Ansatz können sie allerdings keine umfassende und gleichzeitig trennscharfe Definition ableiten (Inderst/Kaminker/Stewart 2012, S. 10–11). An anderer Stelle wird etwas zynisch darauf hingewiesen, dass ein Green Bond aktuell dadurch begründet wird, dass jemand sagt, dass er grün sei (o. V. 2014a). HSBC hat Anfang des Jahres 2014 die seit dem Jahr 2007 emittierten Green Bonds untersucht und ihre Definition von Green in drei Segmente eingeteilt: Kohlenstoffarme Energien, Energieeffizienz und -management sowie Umwelt- und Landnutzungsmanagement (Robins et al. 2014, S. 6).
Green Bonds Low Carbon Energy Wind
Renewable Energy
Environmental & Land Use Management
Buildings Efficiency
Agriculture
Industrial Efficiency
Biosphere conservation
Transport Efficiency
Forestry
Solar Other Carbon Capture
Other low carbon
Energy Efficiency & Management
Fuel Switching Waste to energy
Energy Storage
Other
Land use management
Smart Grid Fuel cells
Waste Water
Abb. 1: Die Green Bond Familie nach Klassifizierung der HSBC Quelle: Eigene Darstellung in enger Anlehnung an Robins et al. 2014, S. 6.
Green Bonds – Grundlagen und Weiterentwicklung auf Basis konzeptioneller Schwächen
3
Insgesamt geht aus den bisherigen Veröffentlichungen zum Thema allerdings eindeutig hervor, dass Green Bonds als Subkategorie von Socially Responsible Investments bzw. nachhaltigen Investitionen zu sehen sind (Inderst/Kaminker/Stewart 2012, S. 14). Nachhaltigkeit ist nach der Definition der Brundtland-Kommission „[...] development that meets the needs of the present without compromising the ability of future generations to meet their own needs.“ (Harlem Brundtland 1987, S. 41). Unter die zugehörigen Anlageformen fallen alle Kapitalanlagen, die neben den klassischen Anlagekriterien (Rendite, Risiko und Liquidität) auch ethische Werte und moralische Prinzipien berücksichtigen (Schäfer 2009, S. 64). Die GBP definieren aktuell vier Typen von Green Bonds. Dabei wird ausdrücklich darauf hingewiesen, dass diese Definition nicht abschließend ist, da sich künftig neue Typen herausbilden könnten (o. V. 2014d, S. 2): 1. Green Use of Proceeds Bonds sind Standard-Anleihen, bei denen Emittent und Gläubiger ein nicht nachrangiges Schuldverhältnis eingehen. 2. Green Use of Proceeds Revenue Bonds sind vom Emittenten begebene Anleihen, bei denen der Gläubiger anteiligen Zugriff auf die Cashflows aus den Green Investments erhält (Erträge, Steuern, Gebühren etc., bspw. aus Windparks). Bei Ausfall der Investition erfolgt kein Rückgriff auf den Emittenten. 3. Green Project Bonds sind Projektfinanzierungen, bei denen der Investor direkt in ein Projekt investiert (z. B. über eine eingeschaltete Zweckgesellschaft). 4. Green Securitized Bonds sind besicherte Fremdkapitalpapiere (z. B. besicherte Anleihen oder ABS-Strukturen). Wie aus dieser Übersicht zu erkennen ist, grenzt diese Green Bond Definition keine Fremdkapitalinstrumente aus, die nicht im Bond-, also Anleiheformat begeben werden. Die aktuell nicht hinreichend trennscharfe Definition des Green Bonds wird in Abschnitt drei der vorliegenden Arbeit erneut aufgegriffen. Nachfolgend sollen Green Bonds als am Kapitalmarkt handelbare Fremdkapitalinstrumente verstanden werden, deren Mittelverwendung an vom Emittenten festgelegte, umweltfördernde Projekte und Aktivitäten gebunden ist.
2.2 Besonderheiten im Emissionsprozess Die GBP wurden im Januar 2014 veröffentlicht. Viele in diesem Markt tätige Banken waren in die Entwicklung der GBP eingebunden oder haben im Nachhinein ihre Unterstützung der Prinzipien erklärt (Robins et al. 2014, S. 4). Daher werden nachfolgend die in den GBP empfohlenen Richtlinien skizziert. Insbesondere Emissionen vor
4
Markus Amendt und Marcus Vögtle
Januar 2014 folgen nicht notwendigerweise diesem Ansatz. Insofern ist die nachfolgende Darstellung nicht abschließend.¹ 1. Mittelverwendung: Innerhalb der Wertpapierdokumentation weist der Emittent förderungsfähige Projektkategorien aus. Die GBP empfehlen, dass alle Projektkategorien einen klaren und nachvollziehbaren Umweltnutzen zeigen (o. V. 2014d, S. 3). 2. Prozess zur Projektbewertung und -auswahl: Der Emittent sollte einen formalen Bewertungsprozess einrichten, der z. B. anhand von Zielvorgaben (CO2-Reduktion o. ä.) die Eignung eines Projekts für Mittel aus einem Green Bond festlegt (o. V. 2014d, S. 4). Dieser Prozess ist zu veröffentlichen. Dabei soll insbesondere darauf eingegangen werden, wie die Zuordnung zu den in der Wertpapierdokumentation ausgewiesenen, förderungsfähigen Projektkategorien erfolgt. 3. Mittelverwaltung: Die Nettomittelzuflüsse aus dem Green Bond werden einem separaten Konto zugeführt oder auf eine andere Weise von den übrigen Mittelzuflüssen des Emittenten abgegrenzt (sog. Ringfencing). Während der Laufzeit des Green Bonds können Projekte des Emittenten aus diesen abgegrenzten Mitteln finanziert werden. Emittenten sollten außerdem offenlegen, in welche Anlagekategorien die (noch) nicht verwendeten Mittel aus einem Green Bond investiert werden können (o. V. 2014d, S. 4). 4. Berichterstattung: Der Emittent sollte mindestens jährlich über Newsletter, seine Website o. ä. über die konkreten Projekte informieren, die aus seinen Green Bonds finanziert worden sind. Dabei soll durch qualitative und quantitative Leistungsindikatoren der umweltfördernde Einfluss der Projekte dargestellt werden z. B. die Reduktion von CO2-Ausstoß, die Anzahl von mit Trinkwasser versorgten Menschen etc. (o. V. 2014d, S. 5). 5. Validierung der Angaben: Die Richtigkeit der Angaben zu Green Bond Programmen kann durch den Emittenten auf verschiedene Arten validiert werden. Erstens kann ein externer Experte bei der Erstellung und Integration der notwendigen Prozesse eingesetzt werden. Zweitens kann eine vom Emittenten unabhängige Prüfung angesetzt werden, deren Ergebnisse veröffentlicht werden. Die dritte und strengste Möglichkeit der Validierung ist eine vom Emittenten unabhängige Zertifizierung gegen vollständig entwickelte und geprüfte Standards (o. V. 2014d, S. 5–6). Eine externe Prüfung wird bereits von einer Reihe von Dienstleistern angeboten. Dazu zählen CICERO, Vigeo und DNV GL (Boulle 2014b, S. 6).
1 Ein geeignetes Praxisbeispiel ist das Green Bond Programm der Weltbank (Überblick verfügbar unter Weltbank (2014)). Sie hat aufgrund langjähriger Erfahrung in diesem Marktsegment eine große Expertise gesammelt und nimmt eine Vorreiterrolle hinsichtlich der Ausgestaltung interner Prozesse ein. Nicht umsonst lehnen sich die GBP sehr stark an die etablierten Prozesse der Weltbank an.
Green Bonds – Grundlagen und Weiterentwicklung auf Basis konzeptioneller Schwächen
5
2.3 Gründe für den Markteintritt aus Emittenten- und Investorensicht Die ersten Emittenten, die regelmäßige Aktivität am Green Bond Markt zeigten, waren Sovereigns, Supranationals und Agencies (SSA). In den meisten Fällen haben diese eine formale Verpflichtung zur Unterstützung nachhaltiger und/oder umweltfördernder Aktivitäten sowie eine politische Motivation (Robins et al. 2014, S. 3). Somit ist die Vorreiterrolle von SSA-Emittenten im Green Bond Markt logisch. Beispielsweise heißt es im Auftrag der deutschen Kreditanstalt für Wiederaufbau (KfW), die erst im Juli 2014 ihren bis dahin größten Green Bond emittierte (KfW 2014a): Ganz besonders fördert die KfW Häuser, die besonders energieeffizient sind […] Ganz besonders unterstützt sie Unternehmen bei Investitionen in die energetische Sanierung von Gebäuden oder zur Steigerung von Energieeffizienz in der Produktion. (KfW 2014b).
Dieser Auftrag wird durch das Green Bond Konzept zur Mittelaufnahme in hohem Maße unterstützt. Seit dem Jahr 2013 emittieren auch private Unternehmen Green Bonds (vgl. Abschnitt 2.4). In erster Linie stellen Green Bonds für Unternehmen ein Mittel zur Refinanzierung dar. Darüber hinaus können Unternehmen über Green Bonds Investoren ansprechen, die sich umweltfördernden Investitionen verschrieben haben und somit ihre Investorenbasis erweitern (Robins et al. 2014, S. 3). Allein die Gesamtgröße dieses Marktes spricht dafür, dass ein Emittent auf Nachhaltigkeit spezialisierte Investoren nicht außer Acht lassen sollte. Drittens ist der Marketingeffekt eines Green Bonds zu beachten. Die Emission eines Green Bonds wirbt öffentlich für die Nachhaltigkeitsanstrengungen eines Unternehmens. Dass Green Bonds auch bei Investoren auf starkes Interesse stoßen, zeigt eine Ankündigung der Zurich Insurance Group im Frühjahr 2014, welche USD 1 Mrd. in diese neue Anlageklasse investieren will (Schäfer 2014). Green Bonds erzielen neben finanziellen Erträgen auch Umwelt- und Nachhaltigkeitserträge (Gustke 2014). Diese werden von auf Nachhaltigkeit spezialisierten Fonds eingefordert. Zweitens gehen Analysten vermehrt davon aus, dass nachhaltige Unternehmen in Zukunft erfolgreicher wirtschaften werden. Das verleiht dem Aspekt der Nachhaltigkeit auch ökonomische Relevanz (Schäfer 2009, S. 66). Drittens verpflichtet sich eine immer größere Anzahl an institutionellen Investoren Prinzipien nachhaltigen Investierens wie z. B. in den UN Principles for Responsible Investment (Robins et al. 2014, S. 3). Insbesondere diese Investoren können mit Green Bonds zielgerichtet adressiert werden. Zuletzt können Investoren rein aus finanziellen Beweggründen als Alternative zu StandardAnleihen in Green Bonds investieren. Die Herangehensweisen institutioneller Investoren an nachhaltige Investitionen sind unterschiedlich. Während einige Investoren auf Basis von Ausschlusskriterien nicht geeignete Investitionen identifizieren, verfolgen andere Investoren einen Best-
6
Markus Amendt und Marcus Vögtle
in-Class Ansatz, bei dem das beste Investment innerhalb vorgegebener Kriterien ausgewählt wird. Wieder andere Investoren richten nachhaltige Themenfonds ein oder entwickeln ein normenbasiertes Screening, bei dem Investitionen hinsichtlich ihrer Konformität mit den Anlagevorgaben des Investors geprüft werden (Dittrich et al. 2014, S. 8). Weitere Ansätze existieren.² Unabhängig vor der Vorgehensweise des Investors beim Thema nachhaltige Geldanlage stellen Green Bonds häufig eine geeignete Anlageklasse dar. Sie bedienen das Feld der spezialisierten Fonds, sind aufgrund ihrer Ausgestaltung aber auch in einem Best-in-Class Ansatz gegenüber herkömmlichen Anleihen überlegen.
2.4 Marktentwicklung und -ausblick Das Green Bond Konzept wurde mit dem sog. Climate Awareness Bond der Europäischen Investitionsbank (EIB) im Jahr 2007 erstmals an den Kapitalmarkt gebracht (Reichelt 2010, S. 3; Robins et al. 2014, S. 2). Während der Markt im Jahr 2007 lediglich USD 800 Mio. umfasste, hat sich das Neuemissionsvolumen im Jahr 2013 auf USD 11,4 Mrd. gesteigert. Die starke Dynamik im Markt wird insbesondere offensichtlich, wenn man die Entwicklung seit Jahresbeginn 2014 betrachtet. Das Emissionsvolumen des Gesamtjahres 2013 war mit ca. USD 12 Mrd. bereits im April 2014 übertroffen (Climate Bonds Initiative 2015). Zu Beginn wurde der Green Bond Markt durch SSA-Emittenten dominiert (Robins et al. 2014, S. 3; o. V. 2014e, S. 7). Seit dem Jahr 2013 kommen auch Unternehmensemittenten hinzu. In erster Linie sind hier die Green Bond Emissionen von Électricité de France (EDF – EUR 1,4 Mrd. im Jahr 2013) und GDF Suez (EUR 2,5 Mrd. im Jahr 2014) nennenswert (Robins et al. 2014, S. 3; Boulle 2014b, S. 6; EDF 2013). Abb. 2 fasst die Entwicklung des Marktes für Green Bonds zusammen.
USD Mrd. 40 35 30 25 20 15 10 5 0
36,6
11,4 0,8
0,4
0,9
2007
2008
2009
4,0 2010
1,2 2011
3,1 2012
2013
2014
Abb. 2: Entwicklung des Neuemissionsvolumens am Green Bond Markt Quelle: Eigene Darstellung; Daten aus Climate Bonds Initiative 2015.
2 Für eine zusammenfassende Übersicht vgl. Dittrich et al. 2014, S. 8 und Riedel 2009, S. 134–135.
Green Bonds – Grundlagen und Weiterentwicklung auf Basis konzeptioneller Schwächen
7
Bewahrheitet sich die Schätzung für das Jahr 2014 entspricht dies einem durchschnittlichen jährlichen Wachstum der Neuemissionstätigkeit um 75 % seit dem Jahr 2007. Für das Jahr 2015 wird ein Neuemissionsvolumen von ca. USD 100 Mrd. erwartet (Boulle 2014b, S. 11). Diese Entwicklung ist durch verschiedene Faktoren begünstigt. Der Name Green Bond hilft der besseren Erkennbarkeit umweltfördernder Investitionen. Mit der Bekanntheit des Instruments ist auch von einem Lerneffekt bei Emittenten und Investoren auszugehen, die bislang aufgrund der Neuheit des Konzepts eine Abneigung gezeigt haben (Boulle 2014b, S. 10). Ferner wird das höhere Marktvolumen und die steigende Liquidität des Green Bond Marktes Investoren anziehen, für die das Exit-Risiko bislang eine Hürde darstellte. Zuletzt wird eine weiterführende Standardisierung in Form der GBP stattfinden. Hierzu wurde bereits von den an den GBP beteiligten Banken ein Governance Framework ausgearbeitet (ICMA 2014). Hinsichtich der Bepreisung von Green-Bonds kann beobachtet werden, dass sie bei ähnlichen Credit Spreads handeln wie die übrigen ausstehenden Anleihen der Emittenten (Boulle 2014b, S. 6; Robins et al. 2014, S. 15–16). Grundsätzlich wird also der umweltfördernde Aspekt der Green Bonds noch nicht durch eine vergünstigte Mittelaufnahme für die Emittenten belohnt (Boulle 2014a; Gustke 2014). Unterstützt wird diese Preissetzung auch dadurch, dass Emittenten Green Bonds teilweise auf Basis der gleichen Emissionsprogramme an den Markt bringen wie ihre übrigen Anleihen, ergänzt um Informationen speziell für Green Bonds z. B. die Mittelverwendung (NRW.Bank 2013). Neben den o. g. Punkten wird für die zukünftige Marktentwicklung relevant sein, in wie weit Schwächen des Konzepts zeitnah ausgeräumt werden.
3 Weiterentwicklung von Green Bonds auf Basis konzeptioneller Schwächen 3.1 Alternative zur Definition von Green Wie in Abschnitt 2.1 gezeigt wurde, ist aktuell die Auslegung von Green sehr heterogen. Stellenweise wird daher für die weitere Entwicklung des Green Bond Marktes die Erarbeitung einer eindeutigen, wissenschaftlichen Definition für Green gefordert (Boulle 2014b, S. 11; Wood/Grace 2011, S. 2). Allerdings bergen Definitionen ein zweiseitiges Risiko. Entweder ist die Definition zu breit und umfasst damit im Fall von Green Bonds nahezu jegliche Mittelverwendung. Oder sie ist zu eng, wird von Emittenten als starke Hürde angesehen und wird dadurch die Marktentwicklung unnötig erschweren (Inderst/Kaminker/Stewart 2012, S. 7). Ein strittiges Thema wird bspw. regelmäßig Atomstrom sein. Dieser verursacht in der Erzeugung wenige Treibhaus-
8
Markus Amendt und Marcus Vögtle
gasemissionen. Die Umweltfreundlichkeit dieser Methode zur Stromerzeugung kann allerdings kritisch gesehen werden. Vor diesem Hintergrund wird ein Ansatz ohne abschließende Definition als Abgrenzungskriterium für Green empfohlen. Als thematische Eingrenzung reicht die hier gewählte Beschreibung von Green Bonds aus (vgl. Abschnitt 2.1). Eine Standardisierung kann über öffentlich zugängliche Checklisten stattfinden. Mit z. B. CICERO und Vigeo haben sich bereits Institute herausgebildet, deren externe Einschätzung von Investoren bei der Beurteilung von Green Bonds wertgeschätzt wird. Diesen Instituten wird empfohlen, für Green Bonds Checklisten mit Kategorien zu entwickeln, die potenziell als grün beurteilt werden können (wie z. B. die von HSBC identifizierten Segmente, vgl. Abb. 1). Ferner ist aufzunehmen, ob der Emittent die Mittelverwendung des Green Bonds innerhalb dieser Kategorien an geprüfte interne Prozesse bindet oder lediglich auf Best-Efforts-Basis vorgeht und ob der Emittent die GBP einhält. Weitere Kriterien sind möglich. Diese Checkliste ist von den o. g. Instituten bei der externen Validierung eines Green Bonds auszufüllen. Auf der Gegenseite können Investoren die Checkliste mit ihrem Anforderungsprofil an ein grünes Investment ausfüllen. So wäre bei einer Anlageentscheidung sehr kurzfristig prüfbar, in wie weit ein Green Bond den Anforderungen eines Investors gerecht wird. Darüber hinaus könnten auf diese Weise auf Investorenseite thematisch abgegrenzte Fonds (Wind, Solar etc.) aufgesetzt und mit geeigneten Green Bonds gefüllt werden. Dieser Ansatz ermöglicht eine individuelle Abgrenzung grüner Investments und ist damit wesentlich flexibler als andere Ansätze wie z. B. ein Green Bond Rating (o. V. 2014a). Gleichzeitig erfolgt auf diese Weise eine effizienzsteigernde Standardisierung, ohne dem o. g. Konflikt einer Definition zum Opfer zu fallen.
3.2 Zusammenfassende Beurteilung von Emittent und Emission Die meisten Emissionen im Markt für Green Bonds waren bislang Green Use of Proceeds Bonds (Robins et al. 2014, S. 11) und unterliegen damit dem Kreditrisiko des Emittenten. Ein Beispiel soll das hierbei entstehende Problem illustrieren. Das Unternehmen Energieerzeuger AG habe eine Bilanzsumme von fünf Mrd. Geldeinheiten und betreibe Kraftwerke. Die Hälfte der Bilanzsumme stamme aus Wind- und Solarparks, die andere Hälfte aus alten, wenig umweltfreundlichen Kohlekraftwerken. Von weiteren Aktiva sei in diesem Beispiel abstrahiert. Bislang seien nur die Kohlekraftwerke produktiv. Die Wind- und Solarparks befänden sich im Bau und würden erst in fünf Jahren Energie erzeugen (Bilanzierung nach IFRS: Percentage of CompletionMethode). Abb. 3 vergleicht aus der Perspektive des Emittenten zwei Finanzierungsszenarien, eines (1) mit Green Bond zur Finanzierung der Wind- und Solarparks, ein anderes (2) ausschließlich mit Standard-Anleihen. Preisunterschiede ergeben sich zwischen Green Bond und Standard-Anleihe wie aktuell am Markt üblich nicht.
Green Bonds – Grundlagen und Weiterentwicklung auf Basis konzeptioneller Schwächen
Szenario (1): Green Bond Aktiva
Kohlekraftwerke: 2,5 Mrd.
9
Szenario (2): Anleihe Passiva Eigenkapital: 1,0 Mrd. Fremdkapital: davon Anleihe: 1,5 Mrd.
Aktiva
Kohlekraftwerke: 2,5 Mrd.
Wind- und Solarparks: 2,5 Mrd.
davon Green Bond: 2,5 Mrd.
Wind- und Solarparks: 2,5 Mrd.
∑ 5,0 Mrd.
∑ 5,0 Mrd.
∑ 5,0 Mrd.
Passiva Eigenkapital: 1,0 Mrd.
Fremdkapital: davon Anleihe: 4,0 Mrd.
∑ 5,0 Mrd.
Abb. 3: Vergleich von zwei Finanzierungsszenarien für erneuerbare Energien Projekte der fiktiven Energieerzeuger AG Quelle: Eigene Darstellung.
Aus der Abbildung wird ersichtlich, dass es für die Energieerzeuger AG finanziell und bilanziell keinen Unterschied macht, ob die Wind- und Solarparks durch einen Green Bond finanziert werden oder nicht. Daran ändert auch ein Ringfencing der Emissionserlöse nichts. Wirtschaftlich würde es nicht einmal einen Unterschied machen, wenn mit Mitteln aus dem Green Bond das umweltschädliche Kohlekraftwerk finanziert würde. Ob dieser Green Bond der Idee einer Umweltförderung ausreichend gerecht wird, kann kritisch hinterfragt werden. Noch deutlicher wird das Problem bei einer Betrachtung des Green Bonds über seine Laufzeit. Sofern der Green Bond nicht als Zero-Bond begeben wird, können die Kuponzahlungen aufgrund der langen Bauphase der Wind- und Solarparks zumindest während der ersten fünf Jahre nur aus den Cashflows gezahlt werden, die aus dem Kohlekraftwerk erwirtschaftet werden. Ein analoges Problem ergibt sich bei der Rückzahlung des Nominals des Green Bonds nach Laufzeitende. Zins und Tilgung können demnach trotz Ringfencing gegen die Anforderungen des Investors an das grüne Investment verstoßen. Die Auswege aus diesem Problem sind begrenzt. Über Green Project Bonds und zwischengeschaltete Zweckgesellschaften kann sichergestellt werden, dass auch die Rückflüsse an den Investor ausschließlich aus der grünen Investition erfolgen. Einen anderen Ansatz wählte die D. C. Water Authority. Sie setzte einen Green Bond mit 100-jähriger Laufzeit auf und passte damit die Laufzeit des Green Bonds an die geplante Laufzeit des finanzierten Projekts an (Cherney 2014). Dadurch ist die Rückzahlung aus den Cashflows des finanzierten Projekts möglich. Dieser Ansatz kann eine geeignete Lösung zur Finanzierung von Großprojekten sein, insbesondere wenn
10
Markus Amendt und Marcus Vögtle
der Green Bond als Zero-Bond begeben wird. Er versagt dann, wenn aus den Emissionserlösen nicht ein großes, sondern viele kleine Projekte mit unterschiedlichen Laufzeiten finanziert werden sollen. Ohne das Green Bond Konzept zu deflexibilisieren ist dieses Problem nicht grundsätzlich lösbar. Strukturierung (wie z. B. Green Project Bonds) kann in Einzelfällen sinnvoll sein, ist aber vor dem Hintergrund des gewünschten standardisierten und schnell wachsenden Marktes nicht generell zielführend. Die Empfehlung kann also nur an die Investoren gerichtet sein. Sofern aus einem Interesse der Nachhaltigkeit und Umweltförderung und nicht rein aus finanziellen Beweggründen in einen Green Bond investiert wird, muss der Investor den Emittenten als Ganzes hinsichtlich dessen Nachhaltigkeit prüfen, nicht nur die einzelne Emission. Ansonsten leidet die Glaubwürdigkeit des Investors hinsichtlich seiner Anlagepolitik. Beispielsweise kann die Anlageentscheidung neben den Eigenschaften des Green Bonds an ein Nachhaltigkeitsrating des Emittenten gebunden sein.³
3.3 Systematische Bezeichnung von Green Debt Die Green Bond Principles unterscheiden aktuell vier Arten von Green Bonds (vgl. Abschnitt 2.1). Obwohl einige dieser Arten keine Anleihen, sondern z. B. ABS-Strukturen sind, werden sie unter dem Sammelbegriff Green Bond geführt. Inhaltlich ist dies nicht korrekt. Darüber hinaus ist die Differenzierung zwischen den verschiedenen Green Bond Typen nur über eine Einsicht in die Emissionsdokumente möglich. Um hier begriffliche Klarheit und Transparenz im Markt zu schaffen, sollten die GBP so überarbeitet werden, dass sich eine Anlehnung an die marktüblichen Bezeichnungen ergibt. So könnten die verschiedenen Fremdkapitaltypen unter dem Sammelbegriff Green Debt subsummiert werden. Die einzelnen Typen heißen dann getreu ihrer marktüblichen Bezeichnung Green Bond, Green Project Bond, Green ABS etc. Weiterhin sollte eine thematische Abgrenzung vorgenommen werden, so dass die Mittelverwendung des Green Bonds bereits aus dem Namen hervor geht. Dieses Vorgehen unterstützt die in Abschnitt 3.1 geforderten Investment-Checklisten für Green Bonds. Basierend auf den von HSBC identifizierten Green Bond Segmenten wären die Bezeichnungen Green Climate (kohlenstoffarme Energien), Green Efficiency (Energieeffizienz und -management) und Green Environment (Umwelt- und Landnutzungsmanagement) möglich. Angefügt wird jeweils die Bezeichnung des Fremdkapitaltyps, so dass sich ein Gesamtkonzept aus thematischer und struktureller Abgrenzung ergibt. Eine im Anleiheformat an den Markt gebrachte Emission zur Finanzierung von Windund Solarparks wäre demnach als Green Climate Bond zu bezeichnen. Abb. 4 gibt einen Überblick.
3 Eine Einführung in das Thema Nachhaltigkeits-Ratings gibt bspw. Riedel 2009, S. 133–147.
Green Bonds – Grundlagen und Weiterentwicklung auf Basis konzeptioneller Schwächen
Thematische Abgrenzung
Strukturelle Abgrenzung
Climate
Bond
Efficiency
Project Bond
Environment
ABS
…
…
11
Green
Abb. 4: Systematische Bezeichnung von Green Debt Quelle: Eigene Darstellung.
Hierbei ist darauf zu achten, dass die thematische Abgrenzung granular genug ist, um eine tatsächliche Abgrenzung darzustellen. Gleichzeitig sollte die Abgrenzung nicht zu eng ausfallen, um die Mittelverwendung nicht zu stark einzuschränken. Sollen die Emissionserlöse in sehr verschiedene Projekte investiert werden, wäre dies über eine Tranchierung der Emission möglich (Tranche A: Green Climate, Tranche B: Green Efficiency etc.).
3.4 Etablierung der Trademark Green Bond Zu Zeiten des Ursprungs von Green Bonds benötigten Investoren noch keine externe Verifikation der Güte eines Green Bond Programms. Der Markt war übersichtlich und die Anzahl der Emittenten gering. Daher reichten die Reputation und die Kenntnis der Investoren von eingerichteten Prozessen auf Emittentenseite aus, um glaubwürdig das Green Bond Konzept zu verkaufen (Wood/Grace 2011, S. 4). Der heutige Markt sieht anders aus. Viele Investoren haben nicht die internen Kapazitäten, um Green Bonds aus Umwelt- und Nachhaltigkeitsgesichtspunkten zu bewerten und befürworten daher eine externe Verifikation. Insbesondere soll damit dem sog. Greenwashing entgegen gewirkt werden. Unter Greenwashing versteht man die Kennzeichnung einer Emission mit dem Schlagwort Green, ohne dass sich dahinter nachhaltige und umweltfördernde Projekte verbergen.⁴ Durch Greenwashing würde die Idee der Green Bonds an Glaubwürdigkeit verlieren und das weitere Wachstum des Marktes wäre gefährdet. Dazu sollten zwei wesentliche Schritte vorgenommen werden. Erstens muss die Anwendung der GBP verpflichtend statt freiwillig werden. Um das Marktwachstum zu Beginn nicht unnötig zu gefährden, sollte die Strenge der zu befolgenden Richtlinien und Prozessvorgaben schrittweise in Richtung einer vollständigen Umsetzung der GBP gesteigert werden. Zweitens sollte die externe Validierung der Umsetzung der
4 Eine Übersicht über die verschiedenen Formen des Greenwashing gibt van der Zee 2010, S. 44–45.
12
Markus Amendt und Marcus Vögtle
Vorgaben aus den GBP schrittweise verpflichtend werden.⁵ Die Eignung von externen Instituten zur Durchführung einer solchen Validierung hat sich bereits und wird sich weiterhin aufgrund der Marktakzeptanz ergeben. Nur wenn diese Vorgaben eingehalten werden, sollte der Begriff Green Bond für eine Emission verwendet werden dürfen. Zur exklusiven Nutzung ist die Einrichtung einer Trademark empfehlenswert. Die schrittweise Umsetzung dieser Empfehlung kann nach dem bereits definierten Governance Framework durch das höchste Entscheidungsgremium über die GBP, das Executive Committee, erfolgen (ICMA 2014).
3.5 Vermeidung einer Marktbeeinflussung durch Politik und Regulierung Einige Stimmen fordern bereits von Politik und Regulierung eine konkrete Förderung des Green Bond Konzepts. Die Vorschläge reichen von Garantien für die Käufer von Green Bonds, dem Kauf von insbesondere Green Bonds mit schwachen Ratings über Steuervorteile und maßgeschneiderte Regulierung (Boulle 2014b, S. 11; Sustainable Prosperity 2012, S. 10). Von diesen Forderungen sollte allerdings Abstand genommen werden. Eingriffe dieser Art sorgen unwillkürlich für Verzerrungen am Markt. Beispielsweise würden Steuervorteile für Green Bonds dafür sorgen, dass diese Anlageklasse an relativer Attraktivität gegenüber anderen Anlagen gewinnt. Investoren würden nicht mehr aufgrund des umweltfördernden, nachhaltigen Konzepts investieren, sondern zunehmend allein aufgrund der Steuervorteile. Das setzt Anreize für Emittenten so viele Emissionen wie nur irgendwie vertretbar als Green Bond zu kennzeichnen und würde unweigerlich zu Greenwashing führen. Außerdem könnten sich durch derartigen staatlichen Eingriff weitere makroökonomische Verzerrungen ergeben, wie z. B. fehlende Finanzierung an anderer Stelle. Diese Auswirkungen sind im Vorfeld kaum zu ermessen. Durch die Vergabe von Garantien und den Kauf von Emissionen mit schwachen Ratings ergeben sich ähnliche Effekte. Emissionen, die ohne staatliche Unterstützung nicht am Markt überleben würden, bergen eine hohe Gefahr wieder vom Markt zu verschwinden, sobald die staatliche Unterstützung zurückgenommen wird. Wäre der Markt noch im Anfangsstadium und die künftige Nachfrage nur schwer abschätzbar, könnte ein solcher Eingriff wachstumsfördernd sein. Bei einem erwarteten Neuemissionsvolumen von USD 100 Mrd. im Jahr 2015 kann allerdings nicht mehr von einem Anfangsstadium gesprochen werden. Einen Mehrwert für die Entwicklung des Green Bond Marktes hätten Politik und Regulierung durch die Vorgabe von Marktstandards liefern können. Da dies allerdings
5 Eine ähnliche Forderung erhebt Boulle 2014b, S. 11.
Green Bonds – Grundlagen und Weiterentwicklung auf Basis konzeptioneller Schwächen
13
durch die Eigeninitiative der Marktteilnehmer in Form der GBP und des zugehörigen Governance Frameworks bereits erfolgt ist, besteht kein Handlungsbedarf mehr. Die von den Marktteilnehmern eingerichtete Stelle ist näher am Marktgeschehen und kann wesentlich flexibler auf veränderte Bedürfnisse reagieren als eine staatliche Stelle (ICMA 2014). Wie bereits festgestellt wurde, haben staatliche Fördereinrichtungen eine natürliche Vorreiterrolle im Green Bond Markt. Eine weiterhin aktive Teilnahme am Markt als Emittenten in Form der staatlichen Förderbanken (wie z. B. KfW, EIB) und eine strikte Beachtung der sich entwickelnden Standards wird die Entwicklung des Green Bond Marktes auch künftig fördern.
4 Schlussbetrachtung Ziel der vorliegenden Untersuchung war es, aufgrund fehlender einschlägiger Literatur die Grundlagen des Green Bond Konzepts aufzuarbeiten und eine wissenschaftliche Einordnung vorzunehmen. Darauf aufbauend sollten konzeptionelle Schwächen aufgedeckt und Empfehlungen zur Hebung von Weiterentwicklungspotentialen ausgesprochen werden. Zunächst wurde gezeigt, dass unter Green Bonds am Kapitalmarkt handelbare Fremdkapitalinstrumente zu verstehen sind, deren Mittelverwendung an vom Emittenten festgelegte, umweltfördernde Projekte und Aktivitäten gebunden ist. Sie sind damit eine Subkategorie nachhaltiger Investitionen (Socially Responsible Investments). Der Markt für Green Bonds existiert seit dem Jahr 2007, seit dem Jahr 2013 findet ein starkes Wachstum statt, getrieben insbesondere durch ein vermehrtes Auftreten von privaten Unternehmen als Emittenten. Unterstützt wird das Marktwachstum ebenfalls durch die im Januar 2014 von einem Bankenkonsortium verabschiedeten, freiwilligen Vorgaben zur Emission von Green Bonds (Green Bond Principles). Diese stellen eine erste Standardisierung des Green Bond Marktes dar. Sie machen Vorgaben zur Mittelverwendung, Mittelverwaltung, internen Prozessen zur Projektbewertung und -auswahl und Berichterstattung, sowie zur externen Validierung des zuvor genannten. Aufbauend auf den konzeptionellen Schwächen des Green Bonds wurden anschließend fünf Empfehlungen ausgearbeitet, um die künftige Marktentwicklung zu fördern. Erstens sollte als Alternative zu einer konkreten Definition von Green durch Institute, die eine externe Validierung von Green Bonds vornehmen, eine standardisierte Checkliste mit Kategorien erarbeitet werden, die potenziell als grün beurteilt werden können. Investoren sollen so die Mittelverwendung konkreter Green Bonds mit ihrem Verständnis von nachhaltigen, umweltfördernden Projekten abgleichen können. Zweitens sollten Investoren eine Anlage nie nur auf Basis der Mittelverwendung eines Green Bonds vornehmen, sondern auch den Emittenten betrachten (z. B.
14
Markus Amendt und Marcus Vögtle
in Form eines Nachhaltigkeits-Ratings). Nur so kann aufgrund bilanzieller Gegebenheiten beim Emittenten und der Zins- und Tilgungsmodalitäten glaubwürdig eine umweltfördernde Anlage vorgenommen werden. Drittens wird eine systematische Bezeichnung von Green Bonds innerhalb der GBP vorgeschlagen, die sich aus einer thematischen und einer strukturellen Abgrenzung ergibt. Viertens sollte der Begriff Green Bond als Trademark etabliert werden, um dem sog. Greenwashing entgegen zu wirken und die Marktentwicklung nicht durch Missbrauch zu gefährden. Zuletzt wird empfohlen, dass Politik und Regulierung außer durch die Emissionstätigkeit der Förderinstitute wie z. B. KfW und EIB nicht in den Markt eingreifen. Marktstandards sind effektiver durch das bereits eingerichteten Governance Framework für die GBP voranzutreiben. Außerdem werden Marktverzerrungen und die Bildung von Fehlanreizen unterbunden.
Literaturverzeichnis Bolger, A. (2014): Green bond growth of $40bn forecast for this year, in: Financial Times Online vom 17.07.2014; online im Internet: http://www.ft.com/intl/cms/s/0/1a4b33ba-0da0-11e4-815f00144feabdc0.html#axzz3AsZHCHW2, Zugriff: 20.08.2014. Boulle, B. (2014a): The green bonds market may be soaring but there is a long way to go, online im Internet: http://www.businessgreen.com/bg/opinion/2356433/the-green-bonds-market-maybe-soaring-but-there-is-a-long-way-to-go, Zugriff: 20.08.2014. Boulle, B. (2014b): Bonds and Climate Change: The state of the market in 2014, o.O. 2014. Cherney, M. (2014): D.C. Water Authority to Issue 100-Year ‚Green Bond‘: Debt Issuance Is First ‚Green Bond‘ to Carry 100-Year Maturity, in: The Wall Street Journal Online vom 02.07.2014; online im Internet: http://online.wsj.com/articles/d-c-water-authority-to-issue-100-year-greenbond-1404326402, Zugriff: 20.08.2014. Climate Bonds Initiative (2015): History, online im Internet:http://www.climatebonds. net/market/ history, Zugriff: 28.02.2015. Dittrich, S. et al. (2014): Marktbericht Nachhaltige Geldanlagen 2014: Deutschland, Österreich und die Schweiz, Forum Nachhaltige Geldanlagen, Berlin 2014. EDF (2013): Successful launch of EDF’s first Green Bond, Pressemitteilung vom 20.11.2013, online im Internet: http://press.edf.com/press-releases/all-press-releases/2013/successful-launchof-edfys-first-green-bond-285194.html&return=2594, Zugriff: 20.08.2014. Girouard, N. et al. (2011): OECD Green Growth Studies: Energy, o.O. 2011. GSIA (2013): 2012 Global Sustainable Investment Review, o.O. 2013. Gustke, C. (2014): A scarce global resource fighting climate change, online im Internet: http://www.cnbc.com/id/101796340, Zugriff: 20.08.2014. Harlem B., Gro (1987): Report of the World Commission on Environment and Development: Our Common Future, Oslo 1987. ICMA (2014): Governance Framework: Green Bond Principles Governance, online im Internet: http://www.icmagroup.org/Regulatory-Policy-and-Market-Practice/green-bonds/governanceframework/, Zugriff: 20.08.2014. Inderst, G./Kaminker, C./Stewart, F. (2012): Defining and Measuring Green Investments: Implications for Institutional Investors’ Asset Allocation, OECD Working Papers on Finance, Insurance and Private Pensions, No. 24, OECD Publishing, 2012.
Green Bonds – Grundlagen und Weiterentwicklung auf Basis konzeptioneller Schwächen
15
KfW (2014a): ‚Green Bonds – Made by KfW‘ überzeugen Investoren, Pressemitteilung vom 15.07.2014, online im Internet: https://www.kfw.de/KfW-Konzern/Newsroom/Aktuelles/Pressemitteilungen/Pressemit teilungen-Details_214336.html, Zugriff: 20.08.2014. KfW (2014b): Mit der Inlandsförderung der KfW kommt Deutschland voran, Auftrag der KfW zur Inlandsförderung, online im Internet: https://www.kfw.de/KfW-Konzern/%C3%9Cber-die-KfW/ Auftrag/Inl%C3%A4ndische-F%C3%B6rderung/, Zugriff: 20.08.2014. Mackenzie, C./Ascui, F. (2009): Investor leadership on climate change: An analysis of the investment community’s role on climate change, and snapshot of recent investor activity, Caring for Climate Series, o.O. 2009. NRW.Bank (2013): Endgültige Bedingungen EUR 250.000.000 0,75 % Schuldverschreibungen fällig am 28. November 2017, Tag der Begebung: 28.11.2013, Serien-Nr.: 550, Tranchen-Nr.: 1, o.O. 2013. o.V. (2014a): Green grow the markets, O – The market for green bonds is booming. But what makes a bond green?, in: The Economist Online vom 05.07.2014, online im Internet: http://www.economist.com/news/finance-and-economics/21606326-market-green-bondsbooming-what-makes-bond-green-green-grow, Zugriff: 20.08.2014. o.V. (2014b): Viel Bewegung im Markt für Green Bonds, in: Neue Zürcher Zeitung Online vom 18.07.2014, online im Internet: http://www.nzz.ch/finanzen/viel-bewegung-im-markt-fuergreen-bonds-1.18345788, Zugriff: 20.08.2014. o.V. (2014c): KfW liefert solides Debüt mit Green Bonds ab, Anleihevolumen größer als geplant – Spaniens Geldmarktsätze auf Rekordtiefs, in: Börsen-Zeitung vom 16.07.2014, Nummer 133, S. 18. o.V. (2014d): Green Bond Principles, 2014 – Voluntary Process Guidelines for Issuing Green Bonds, online im Internet: http://www.ceres.org/resources/reports/green-bond-principles-2014voluntary-process-guidelines-for-issuing-green-bonds/view, Zugriff: 20.08.2014. o.V. (2014e): Bonds and Climate Change: The State of the Market in 2014, Präsentation zum Eröffnungs-Event in London am 17.07.2014, online im Internet: http://www.climatebonds.net/ files/files/HSBC%20report%202014%20London%20launch%20v2.pdf, Zugriff: 20.08.2014. Reichelt, H. (2010): Green bonds: a model to mobilise private capital to fund climate change mitigation and adaptation projects, in: Euromoney (Hrsg.); The Euromoney Environmental Finance Handbook 2010, o.O. 2010, S. 1–7. Riedel, S. (2009): Die Integration von Nachhaltigkeitsratings in konventionelle Ratings: Wie gelingt das Mainstreaming?, in: Ulshöfer, Gotlind/Bonnet, Gesine (Hrsg.); Corporate Social Responsibility auf dem Finanzmarkt: Nachhaltiges Investment – politische Strategien – ethische Grundlagen, Wiesbaden 2009, S. 133–147. Robins, N. et al (2014): The HSBC Guide to Green Bonds: The why, what, how and what next for environmental fixed income issuance, HSBC Research, London 2014. Schäfer, H. (2009): Verantwortliches Investieren: Zur wachsenden ökonomischen Relevanz von Corporate Social Responsibility auf den internationalen Finanzmärkten, in: Ulshöfer, Gotlind/ Bonnet, Gesine (Hrsg.); Corporate Social Responsibility auf dem Finanzmarkt: Nachhaltiges Investment – politische Strategien – ethische Grundlagen, Wiesbaden 2009, S. 64–80. Schäfer, M. (2014): Steigender Appetit auf Green Bonds, in: Neue Zürcher Zeitung Online vom 19.03.2014, online im Internet: http://www.nzz.ch/finanzen/uebersicht/finanzportal/ steigender-appetit-auf-green-bonds-1.18264290, Zugriff: 20.08.2014. Sustainable Prosperity (2012): Economy-wide and Emerging Issues: Green Bonds, Policy Brief – June 2012, Ottawa 2012. Van der Zee, B. (2010): Green Business, o.O., 2008, Übersetzung aus dem Englischen von Reiss, M., o.O. 2010.
16
Markus Amendt und Marcus Vögtle
Weltbank (2014): World Bank Green Bonds, online im Internet: http://treasury.worldbank.org/cmd/ htm/WorldBankGreenBonds.html, Zugriff: 20.08.2014. Wood, D./Grace, K. (2011): A Brief Note on the Global Green Bond Market, IRI Working Paper, Harvard University, o.O. 2011.
Christina Bark, Norbert Kratz und Clemens Wangler
2 Unternehmensbewertung unter Berücksichtigung der Besonderheiten von KMU Aktuelle Entwicklungen und offene Fragen
1 Einleitung Die Unternehmensbewertung ist seit langem ein kontrovers diskutiertes Thema der Betriebswirtschaftslehre, wie auch der jüngst veröffentlichte Praxishinweis des IDW (IDW 2014) verdeutlicht. Spannungsfelder sind zum einen unterschiedliche Positionen in der Theorie und zum anderen die Anwendung der theoretischen Erkenntnisse in der Praxis. Die Durchführung von Unternehmensbewertungen ist in erster Linie ein Instrument, welches es einem rational agierenden Entscheidungsträger in einer konkret vorliegenden Entscheidungssituation unter situationsspezifischen Bedingungen ermöglichen soll, einem Bewertungsobjekt „Unternehmen“ bzw. einem Anteil an einem Unternehmen einen monetären Wert beizumessen. Die jeweils vorliegende Entscheidungssituation kann grundsätzlich den beiden Grundtypen einer Veränderung bestehender Verfügungsrechte am Unternehmen, nämlich Kauf oder Verkauf des Unternehmens bzw. von Unternehmensanteilen, zugeordnet werden. Im Fall eines Kaufs geht es um die Ermittlung einer subjektiven Preisobergrenze, während es im Fall eines Verkaufs um die Ermittlung einer subjektiven Preisuntergrenze geht. Eine Unternehmensbewertung ist aber nicht ausschließlich dann erforderlich, wenn ein potenzieller Erwerber oder Veräußerer einen subjektiven Grenzpreis ermitteln möchte. Sie kann auch erforderlich sein, obwohl keine tatsächliche Entscheidungssituation gegeben ist, z. B. aufgrund von steuer- oder bilanzrechtlichen Bestimmungen. Immer aber ist eine Differenzierung dahingehend erforderlich, ob ein subjektiver Grenzpreis, ein objektiver Marktwert oder aber ein sogenannter objektivierter Wert ermittelt werden soll. Besondere Bedeutung kommt der Bewertung von sogenannten kleinen und mittleren Unternehmen (KMU) zu. Dies resultiert zum einen daraus, dass die Durchführung von Unternehmensbewertungen bei KMU allein aufgrund der großen Zahl solcher Unternehmen sehr viel häufiger erforderlich ist als bei börsennotierten Gesellschaften (Knoll 2010, S. 365). Zum anderen ergibt sich diese besondere Bedeutung aus den spezifischen Eigenschaften von KMU: So wird im vorliegenden Beitrag in Übereinstimmung mit Neus jedes Unternehmen als KMU bezeichnet, das nicht börsennotiert ist (Neus 1995, S. 2 f.). Hervorstechendes Merkmal nicht börsennotierter Unternehmen ist, dass es i. d. R. nicht zur Separation von Residualansprüchen einerseits und
18
Christina Bark, Norbert Kratz und Clemens Wangler
Entscheidungskompetenz andererseits kommt (Neus 1995, S. 3). Dadurch verliert der Investor die Möglichkeit, sein Portefeuille beliebig zu diversifizieren. Diese Annahme ist aber für das bei der praktischen Durchführung von Unternehmensbewertungen regelmäßig verwendete Capital Asset Pricing Model (CAPM) grundlegend. Des Weiteren kommt es in KMU regelmäßig zum kombinierten Einsatz von Finanzvermögen (Finanzkapital) und Humanvermögen (Humankapital) der Investoren in ein und demselben Unternehmen (Wangler 2003, S. 121 und 134). Teile der Praxis wehren sich im Zusammenhang mit der Bewertung von nicht börsennotierten Unternehmen gegen die Anwendung der Discounted Cashflow-Verfahren (DCF-Verfahren) (Helbling 2015, S. 1005 f.). Dies gilt in besonderer Weise für die Ableitung des Kalkulationszinsfußes (Kapitalisierungszinssatzes) aus dem CAPM. Praktiker machen offensichtlich vielfach die Erfahrung, dass Unternehmenswerte, die „seriös“ durch Abzinsung realistisch geschätzter Erwartungswerte künftiger Cashflows mit aus dem CAPM abgeleiteten Kapitalkosten ermittelt wurden, auch im Mittelstand nicht bezahlt werden. Damit einher geht häufig die Überzeugung, dass Ertragswert- bzw. DCF-Verfahren ungeeignet sein müssen. In der Literatur wird in diesem Zusammenhang der Versuch unternommen, den Nachweis zu erbringen, dass nicht die DCF-Verfahren an sich, sondern allein die unkritische Übertragung von durch Beobachtung von Aktienkursen abgeleiteten Kapitalkosten auf nicht börsennotierte Unternehmen problembehaftet sei (Balz/Bordemann 2007, S. 737–743; Kratz/ Wangler 2005, S. 169–176). Am organisierten Kapitalmarkt werden nämlich nur die systematischen Risiken entlohnt, nicht aber die unsystematischen. Der vollständige Erwerb eines KMU bzw. die Investition in einen qualifizierten Anteil an einem KMU ist jedoch nicht ohne die Übernahme von unsystematischen Risiken möglich. Der rationale Investor wird bei Risikoaversion daher auch eine entsprechende Risikoprämie kalkulieren. Im Übrigen bestehen Inkonsistenzen bei der Ermittlung der Komponenten des Zinsfußes (Bark 2011), die in Theorie und Praxis weitgehend unbeachtet geblieben sind. Die Orientierung der Bestimmung von KMU-Werten an Kapitalmarktdaten im Allgemeinen und die Verwendung des formalen Rahmens des CAPM im Besonderen entspringen dem Wunsch, die Bewertung von individuellen und damit subjektiven Einflüssen zu befreien. Dies gilt im Hinblick auf die Bewertung von KMU nicht zuletzt, weil für erbschaft- und ertragsteuerliche Zwecke immer häufiger Unternehmensbewertungen erforderlich werden (IDW 2014, Rz. 3). Ob und inwieweit durch die Verwendung des CAPM und dabei insbesondere daraus abgeleiteter Kapitalkosten gegebenenfalls Widersprüchlichkeiten entstehen und ob diese Widersprüchlichkeiten, sofern sie entstehen, unter bestimmten Voraussetzungen beseitigt werden können, ist Gegenstand dieses Beitrags. Die skizzierte Problemstellung ist insbesondere deshalb von besonderer Aktualität, weil unlängst IDW (IDW 2014) und Bundessteuerberaterkammer (BStBK 2014) eine gemeinsam erarbei-
Unternehmensbewertung unter Berücksichtigung der Besonderheiten von KMU
19
tete (und jeweils gleichlautende¹) Verlautbarung zu den Besonderheiten der Bewertung kleiner und mittelgroßer Unternehmen veröffentlicht haben, in der die besondere Bedeutung des CAPM als methodischer Basis für die Bewertung auch von KMU hervorgehoben wird (IDW 2014). Auch in Österreich hat sich der zuständige Fachsenat für Betriebswirtschaft und Organisation der Kammer der Wirtschaftstreuhänder jüngst zur Unternehmensbewertung mit dem Fachgutachten KFS/BW 1 v. 26.3.2014 geäußert (KFS/BW 2014). Dieser Beitrag setzt sich zum Ziel, einige zentrale Probleme im Kontext einer objektivierten Bewertung von KMU zu thematisieren und einige wichtige noch offene Fragen zu formulieren. Im Folgenden werden daher im Abschnitt 2 zunächst grundlegende Bewertungskonzeptionen einander gegenübergestellt, um zu einer konzeptionellen Einordnung der Ermittlung sogenannter objektivierter Unternehmenswerte zu gelangen. Von einer solchen objektivierten Unternehmensbewertung wird unter anderem in den zentralen berufsständischen Verlautbarungen im deutschsprachigen Raum zur Unternehmensbewertung im Allgemeinen sowie zur Bewertung von KMU im Besonderen ausgegangen. Eine Skizzierung der in diesen Verlautbarungen enthaltenen Vorgehensweisen zur Bewertung von KMU erfolgt im Abschnitt 3. Entsprechend der besonderen Bedeutung, die diese Verlautbarungen kapitalmarkttheoretischen Modellen hinsichtlich der Bestimmung adäquater risikoangepasster Diskontierungssätze zukommen lassen, geht es im Abschnitt 4 um eine kritische Analyse der Anwendungsvoraussetzungen dieser Modelle für die Bewertung von KMU. Im abschließenden Abschnitt 5 werden die Überlegungen zusammengefasst und offene Fragen für die weitere Auseinandersetzung mit der Thematik formuliert.
2 Abgrenzung der verschiedenen Bewertungskonzeptionen Eine Unternehmensbewertung bezieht sich grundsätzlich auf ein konkretes, explizit oder implizit gegebenes Entscheidungsproblem, z. B. eine – ggf. fiktive – Transaktion. Beispiele für Transaktionen im Zusammenhang mit KMU sind der Kauf bzw. Verkauf eines KMU im Ganzen oder eines Unternehmensanteils, z. B. im Rahmen der Unternehmensnachfolge, die Gesellschafteraufnahme oder auch das Ausscheiden eines Gesellschafters. Zur Lösung des Bewertungsproblems finden sich in Literatur und Praxis die drei folgenden Bewertungskonzeptionen.
1 Dabei sind einige wenige Begriffe in der Fassung der Bundessteuerberaterkammer im Vergleich zu der Fassung des IDW ausgetauscht (z. B. Wirtschaftsprüfer durch Steuerberater (in Rz. 1); Bewerter durch Steuerberater (in der Überschrift 2); beschränkt durch eingeschränkt (in Rz. 6).
20
Christina Bark, Norbert Kratz und Clemens Wangler
Subjektive Grenzpreise² sind das Ergebnis einer Bewertung auf der Grundlage individueller Nutzenvorstellungen bezüglich der Zeit- sowie Risikocharakteristika der künftigen Cashflows des zu bewertenden Unternehmens sowie diesbezüglicher individueller Zukunftserwartungen (IDW 2008, Rz. 13) und im Hinblick auf eine definierte Entscheidungssituation. Hinter der Ermittlung subjektiver Preisober- bzw. Preisuntergrenzen verbergen sich spezifische Fragestellungen: – Im Fall einer Preisobergrenze für den Erwerb des Unternehmens wird danach gefragt, welchen Preis der potenzielle Erwerber maximal bereit ist, für ein Unternehmen zu zahlen, ohne eine Nutzeneinbuße im Vergleich zu einer vorgegebenen Ausgangssituation zu erleiden. Diese Ausgangssituation kann z. B. darin bestehen, dass der potenzielle Erwerber ein diversifiziertes Wertpapierportfolio hält. – Im Fall einer Preisuntergrenze für die Veräußerung des Unternehmens wird danach gefragt, welchen Preis der potenzielle Veräußerer mindestens erhalten muss, ohne eine Nutzeneinbuße im Vergleich zu einer vorgegebenen Ausgangssituation zu erleiden. Werden objektive Marktwerte³ als Unternehmenswerte verwendet, so steht dahinter eine andere Fragestellung: Zu welchem Preis würde das zu bewertende Unternehmen auf dem Markt gehandelt (Matschke/Brösel 2006, S. 25–48; Djukanov/Keuper 2013, S. 317–318)? Potenzielle Erwerber sind die vielen Anleger am Kapitalmarkt, die im Rahmen ihrer Anlageentscheidungen bestehende Diversifizierungspotenziale ausnutzen, so dass ein Marktpreis sich auf einen marginal kleinen Anteil an dem zu bewertenden KMU beziehen würde, der dann auf 100 % der Anteile hochzurechnen wäre, um zum Wert des Unternehmens insgesamt zu gelangen. Objektive Marktwerte sind in erster Linie beobachtbare Marktpreise⁴. Sie informieren darüber, zu welchem Preis ein Bewertungsobjekt in der Vergangenheit zu einem bestimmten Zeitpunkt gehandelt wurde. Beobachtbare Preise wiederum sind Werte, die aus dem realen Preisbildungsprozess am Markt resultieren, in den auch alle Einflussfaktoren jenseits der Bedingungen vollkommener Märkte (z. B. asymmetrische Informationsverteilung, beschränkte Rationalität usw.) mit einfließen. Das Zustandekommen solcher Preise ist somit stark von den in der Realität vorzufindenden Marktbedingungen abhängig. Objektive Marktwerte können andererseits auch auf der Grundlage von Kapitalmarktmodellen ermittelte Werte sein. Hierbei wird in der Regel die Existenz idealtypischer Marktbedingungen unterstellt. So geht beispielsweise das CAPM von einem vollkommenen Kapitalmarkt aus. Einflussfaktoren wie beispielsweise eine asymmetrische Informationsverteilung sowie beschränkte Rationalität
2 Diese Bewertungskonzeption dominiert in der betriebswirtschaftlichen Unternehmensbewertungsliteratur (Wagner 2005, S. 463–469). 3 Diese Bewertungskonzeption darf nicht verwechselt werden mit der Konzeption der objektiven Unternehmensbewertung, die als überwunden gilt (Matschke/Brösel 2006, S. 14–17). 4 Vgl. die Hierarchie zur Bestimmung von Fair Values gem. IFRS 13.
Unternehmensbewertung unter Berücksichtigung der Besonderheiten von KMU
21
sind somit definitionsgemäß ausgeschlossen. In der Praxis spielen solche Einflussfaktoren aber sehr wohl eine Rolle. Ob beobachtbare Marktpreise dann, sofern vorhanden, modelltheoretisch ermittelten Werten konzeptionell vorzuziehen sind oder umgekehrt, kann nicht pauschal gesagt werden, sondern hängt insbesondere vom Bewertungsanlass und vom Bewertungszweck ab (Hachmeister 2014, S. 1689–1695). Im Hinblick auf KMU kann es beobachtbare Preise als Resultat von Preisbildungsprozessen auf einem organisierten Markt definitionsgemäß nicht geben. Sofern stattdessen Vorerwerbspreise bekannt sind, ist davon auszugehen, dass solche Preise in sehr viel stärkerem Ausmaß von individuellen und situationsspezifischen Einflussfaktoren (z. B. Verhandlungsmacht) geprägt sind als dies bei beobachtbaren Preisen auf einem organisierten Kapitalmarkt der Fall wäre. Ein beobachteter Vorerwerbspreis für ein KMU, sofern überhaupt vorhanden, wird daher kaum für nachfolgende Bewertungen dieses KMU relevant sein können⁵. Stattdessen bedarf es der Anwendung eines Bewertungsmodells. Für die Ermittlung subjektiver Grenzpreise erscheint dabei die Verwendung präferenzabhängiger Bewertungsmodelle sinnvoll⁶, während eine Bewertung für bilanz- oder steuerrechtliche Zwecke einerseits ohne den Bezug zu einer fiktiven Entscheidungssituation nicht auskommt, andererseits aber zu einem Ergebnis führen soll, welches intersubjektiv überprüfbar und präferenzunabhängig ist. Hieraus resultiert das Bestreben, einen Wert zu ermitteln, der einerseits einen Entscheidungsbezug und daher eine prinzipielle Nähe zu einem subjektiven Grenzpreis aufweist, andererseits aber möglichst weitgehend von individuell geprägten wertbestimmenden Einflussfaktoren befreit ist. Dies führt zum Begriff eines objektivierten Unternehmenswerts. Es sind zwei Eigenschaften⁷, die den Kern der Objektivierung der Unternehmensbewertung ausmachen: – Durch den Rückgriff auf Kapitalmarktparameter wird die Bewertung von der Notwendigkeit befreit, individuelle Zeit- und Risikopräferenzen berücksichtigen zu müssen.
5 Vgl. zur Bedeutung von Vorerwerbspreisen im Steuerecht § 11 Abs. 2 Satz 2, 1. Hs. BewG. 6 Vgl. zu den konzeptionellen Problemen, die sich im Kontext der Sicherheitsäquivalentmethode ergeben, beispielsweise Schosser/Grottke 2013. 7 Das IDW definiert den Begriff der Objektivierung ohne Bezug zu individuellen Zeit- und Risikopräferenzen (IDW 2008, Rz. 29).
22
–
Christina Bark, Norbert Kratz und Clemens Wangler
Bezüglich weiterer, individuell unterschiedlicher Parameter⁸, die für den Wert eines Unternehmens relevant sind, werden standardisierte Annahmen getroffen und somit diesbezüglich sogenannte Typisierungen vorgenommen⁹.
Ob und inwieweit die damit einhergehende unausweichliche Vermengung unterschiedlicher Bewertungskonzeptionen, nämlich subjektiver Grenzpreis einerseits und objektiver Marktwert andererseits, zu Problemen und Widersprüchlichkeiten führt, ist zu untersuchen. Es stellt sich konkret die Frage, unter welchen Voraussetzungen die Ermittlung eines objektivierten Unternehmenswerts angebracht ist und welche Objektivierungsmaßnahmen unter welchen Voraussetzungen als sinnvoll erachtet werden können. Sofern es um die originäre Ermittlung eines individuellen Entscheidungswerts geht, kann die alternative Ermittlung eines objektivierten Werts als „Ersatzlösung“ für den subjektiven Grenzpreis nur dann adäquat sein, wenn objektivierter Wert und subjektiver Grenzpreis übereinstimmen¹⁰. Dies wird bei Vorliegen entsprechender Kapitalmarktbedingungen lediglich im Hinblick auf die Bedingungen für eine präferenzfreie Bewertung gegebenenfalls möglich sein, nicht (oder aber bestenfalls zufällig) jedoch hinsichtlich definierter Typisierungen von individuell unterschiedlichen Parametern wie beispielsweise Informationsstand, Zukunftserwartungen, Handlungsmöglichkeiten (einschließlich Diversifikationsgrad) sowie persönliche Merkmale der Besteuerung. Lediglich dann, wenn nicht Käufer oder Verkäufer die Bewertung für sich selbst im Rahmen einer individuellen Entscheidungssituation durchführen, sondern ein externer Dritter (neutraler Gutachter¹¹) die Bewertung durchführt und dieser Dritte nicht lediglich eine Hilfsperson (Berater) für die Ermittlung eines subjektiven Grenzpreises ist, oder aber die Bewertung für bilanzielle bzw. steuerliche Zwecke durchzuführen ist, kann ein Negieren von Parametern des individuellen Entscheidungsfelds gerechtfertigt sein. Im Rahmen der folgenden Überlegungen wird die Notwendigkeit, in diesen Fällen objektivierte Unternehmensbewertungen vorzunehmen, grundsätzlich akzeptiert. Der Fokus wird darauf gerichtet, zu untersuchen, welche Voraussetzungen bezüglich des Entscheidungsfelds als erfüllt betrachtet werden müssen,
8 Das IDW nennt die zum Stichtag bereits eingeleiteten Maßnahmen, die Synergieeffekte, die Ausschüttungsannahme, die Managementfaktoren und die Ertragsteuern (IDW 2008, Rz. 32–47). In IDW S 1 i. d. F. vom 18.10.2005 war als sechste Typisierung die Maßgeblichkeit des Sitzlandes des zu bewertenden Unternehmens erwähnt gewesen (IDW 2005, Rz. 55). 9 Zum Typisierungsprinzip sowie auch zu dessen Abgrenzung gegenüber der Objektivierung bereits Moxter 1983, S. 25–26; auf die gelegentlich zu findende Unterscheidung zwischen mittelbarer und unmittelbarer Typisierung wird hier nicht eingegangen (IDW 2008, Rz. 29–31). 10 Zumindest müsste die etwaig befürchtete Abweichung durch die Aufwandsreduktion bei der Bewertung gerechtfertigt sein. 11 Zur Definition des neutralen Gutachters, der einen von den individuellen Wertvorstellungen der betroffenen Parteien unabhängigen (=objektivierten) Wert ermittelt, vgl. IDW 2008, Rz. 12.
Unternehmensbewertung unter Berücksichtigung der Besonderheiten von KMU
23
damit die vom IDW sowie der Bundessteuerberaterkammer vorgeschlagene Methodik der objektivierten Bewertung von KMU widerspruchsfrei ist. Hierzu ist im folgenden Abschnitt zunächst diese Methodik überblickartig zu beschreiben.
3 KMU-Bewertung nach aktuellen berufsständischen Verlautbarungen in Deutschland und Österreich In der Literatur hat sich die Überzeugung durchgesetzt, der Kalkulationszinssatz sei aus kapitalmarkttheoretischen Modellen, vorzugsweise aus dem CAPM, abzuleiten (Peemöller 2009, S. 41). Dabei wird vertreten, dies gelte nicht nur für kapitalmarktorientierte Unternehmen, sondern auch für mittelständische Unternehmen, für die ein vergleichbares börsennotiertes Unternehmen gefunden werden müsse (Mandl/ Rabel 1997, S. 309) bzw. ein entsprechendes Branchenbeta am Kapitalmarkt zu ermitteln sei (Ballwieser 1998, S. 83). Die eher praktisch ausgerichtete Literatur hatte noch zu Beginn des letzten Jahrzehnts intuitiv Zweifel an der unveränderten Verwendung von durch die Beobachtung von börsennotierten Unternehmen ermittelten Diskontierungszinssätzen. Ernst, Schneider und Thielen schlugen einen Zuschlag zum Zinssatz für das unsystematische Risiko vor (Ernst et al. 2003, S. 70 f.); Keller und Hohmann für die fehlende Fungibilität der Anteile einen Aufschlag auf den Betafaktor zwischen 0,1 und 0,5 (Keller/Hohmann 2004, S. 52). In den Beiträgen von Balz und Bordemann (Balz/Bordemann 2007, S. 737–743) einerseits sowie Kratz und Wangler (Kratz/ Wangler 2005, S. 169–176) andererseits wurde für Bewertungszwecke unter Berücksichtigung des Diversifizierungsnachteils bei KMU der Übergang vom Modell der Wertpapiermarktlinie (CAPM) zum Modell der Kapitalmarktlinie erwogen. In Deutschland fühlt sich seit Jahrzehnten in besonderer Weise das Institut der Wirtschaftsprüfer für das Gebiet der Unternehmensbewertung zuständig. Der aktuell geltende Standard IDW S 1 i. d. F. 2008 legt vor dem Hintergrund der in Theorie, Praxis und Rechtsprechung entwickelten Standpunkte die Grundsätze dar, nach denen Wirtschaftsprüfer Unternehmen bewerten sollen. In der Funktion als neutraler Gutachter ist danach ein mit nachvollziehbarer Methodik – von individuellen Wertvorstellungen losgelöster – sog. objektivierter Unternehmenswert zu bestimmen (IDW 2008, Rz. 12). Auch das IDW greift für Zwecke der Ermittlung der Kapitalkosten auf das CAPM bzw. Tax-CAPM zurück (IDW 2008, Rz. 92 und 113–123). Der IDW-Standard S 1 (IDW 2008) widmet sich nicht primär der Bewertung von KMU. In Deutschland kommt aber den KMU in der Praxis große Bedeutung zu. Zwangsläufig haben die unterschiedlichen betriebswirtschaftlichen Disziplinen daher in den vergangenen Jahren auch den Mittelstand als Forschungsobjekt entdeckt. Entsprechende Studiengänge und Lehrstühle wurden eingerichtet. Dies spiegelt sich in der Unternehmensbewertung jedoch nicht angemessen wider. Besonderheiten von mittelständischen Unternehmen werden regelmäßig mit wenigen Sätzen abgehandelt
24
Christina Bark, Norbert Kratz und Clemens Wangler
oder erst gar nicht angesprochen. Im Praxishandbuch der Unternehmensbewertung sind den Besonderheiten von KMU 12 von knapp 1500 Seiten gewidmet. Immerhin aber werden sie dort im Gegensatz zu anderen Veröffentlichungen aufgeführt. Als Charakteristika von KMU gelten (Helbling 2015, S. 997): – begrenzter Eigentümerkreis, – eingeschränkte Finanzierungsmöglichkeiten, – fließender Übergang zwischen Betriebsvermögen und Privatvermögen, – fehlendes unabhängiges Kontrollorgan, – geringe Organisationstiefe, – geringe Diversifikation, – beschränkt aussagefähiges Rechnungswesen, – fehlende oder nicht dokumentierte Unternehmensplanung und – Mitarbeit von Familienangehörigen der Eigentümer. Besonderheiten bei der Bewertung von KMU werden im IDW-Praxishinweis in einem sehr kurzen Abschnitt 2 angesprochen. Dort wird besonders auf die Tatsachen abgestellt, dass KMU oftmals nicht über ein von den Unternehmenseignern unabhängiges Management verfügen, häufig keine uneingeschränkt aussagefähige Rechnungslegung haben und es zu Überschneidungen zwischen betrieblicher und privater Sphäre kommen kann. „Somit ist bei der Ermittlung eines objektivierten Unternehmenswerts für KMU besonderes Augenmerk auf die Abgrenzung des Bewertungsobjekts, die Zuverlässigkeit der vorhandenen Daten sowie die Bestimmung der übertragbaren Ertragskraft zu legen“ (IDW 2014, Rz. 6). Bei der Ermittlung des Unternehmenswerts von KMU treten regelmäßig Fragen bei der praktischen Umsetzung auf. Daher kam es jüngst zu einem fachlichen Austausch zwischen den beiden Arbeitsgruppen des IDW und der Bundessteuerberaterkammer zur Bewertung von KMU (o. V. 2014, S. 282). Ergebnis dieses Austausches ist der IDW Praxishinweis 1/2014 (IDW 2014). Eine gleichlautende Vereinbarung findet sich auf der Homepage der Bundessteuerberaterkammer (BStBK 2014). Diese Hinweise sollen auf Basis des IDW S 1 i. d. F. 2008 Besonderheiten, die bei der Bewertung von KMU auftreten können, konkretisieren und Hilfestellung geben, wie mit diesen Besonderheiten im Bewertungsverfahren umzugehen ist. Sie sind weder zusätzliche Anforderungen noch Ausnahmen von der Anwendung des IDW S 1 i. d. F. 2008 (IDW 2014, Rz. 4). Die dabei dargelegten Besonderheiten gelten prinzipiell für die Bestimmung eines objektivierten Unternehmenswerts. Sie sollen bei der Ermittlung eines subjektiven Werts eines KMU aber grundsätzlich entsprechende Anwendung finden (IDW 2014, Rz. 5). Bei ausschließlich finanzieller Zielsetzung ermittelt man den Unternehmenswert als Barwert der mit dem Eigentum an dem Unternehmen verbundenen Nettozuflüsse an die Unternehmenseigentümer mit Hilfe des Ertragswert- oder des DCF-Verfahrens (IDW 2014, Rz. 12). Auf den Liquidationswert als Wertuntergrenze des Unternehmenswerts soll hier nicht eingegangen werden (Wangler 2003, S. 38; IDW 2014, Rz. 12).
Unternehmensbewertung unter Berücksichtigung der Besonderheiten von KMU
25
Da bei KMU oftmals keine eindeutige Trennung zwischen der Unternehmenssphäre und der Sphäre der Unternehmenseigner besteht, ist die dem Bewertungsobjekt innewohnende übertragbare Ertragskraft zu identifizieren.¹² Bewertungsprobleme entstehen beispielsweise, wenn Vermögensgegenstände sowohl betrieblich als auch privat genutzt werden oder Schulden des Unternehmens wirtschaftlich betrachtet Eigenkapital darstellen (Gesellschafterdarlehen) (IDW 2014, Rz. 13). Auch muss die prägende Tätigkeit eines oder mehrerer Eigentümer bei der Bewertung von KMU berücksichtigt werden. Der Eigentümer ist häufig hauptsächlicher Leistungserbringer und wichtige Vertrauensperson gegenüber der Belegschaft (IDW 2014, Rz. 25). Die bisherige Ertragskraft ist somit allenfalls temporär auf einen neuen Eigentümer übertragbar (IDW 2014, Rz. 26). Eigentümer eines KMU gehen teilweise Risiken ein, die über den Verlust Ihres investierten Kapitals hinausgehen. Ausprägungen können unbeschränkt haftende Anteile, die Stellung von dinglichen Sicherheiten aus dem Privatvermögen, die Gewährung persönlicher Sicherheiten (z. B. Bürgschaft) sowie noch nicht geleistete Einlagen und Nachschusspflichten sein. Das IDW vertritt die Auffassung, dass solche Risiken bei der Prognose der finanziellen Überschüsse und nicht bei der Ableitung des Kapitalisierungszinssatzes zu berücksichtigen seien (IDW 2014, Rz. 40 und 41). Zur Ermittlung eines objektivierten Unternehmenswerts ist nach Auffassung des IDW auch bei der Bewertung von KMU zur Ermittlung des Kapitalisierungszinssatzes auf Renditen eines Bündels von am Kapitalmarkt notierten Unternehmensanteilen (Aktienportfolio) als Ausgangsgröße abzustellen. Eine marktgestützte Ermittlung des Risikozuschlags kann auch bei der Bewertung von KMU insb. auf Grundlage des CAPM oder des Tax-CAPM vorgenommen werden. Die Berücksichtigung kapitalmarkttheoretisch nicht nachvollziehbarer Risikozuschläge ist für die Ermittlung objektivierter Unternehmenswerte nicht sachgerecht (IDW 2014, Rz. 45 und 47). Auch in Österreich hat sich der zuständige Fachsenat für Betriebswirtschaft und Organisation der Kammer der Wirtschaftstreuhänder jüngst zur Unternehmensbewertung geäußert und mit dem Fachgutachten KFS/BW 1 v. 26.3.2014 das Fachgutachten vom 27.2.2006 ersetzt (KFS/BW 2014). Hierin werden die folgenden Bewertungszwecke unterschieden (KFS/BW 2014, Rz. 15 und 19): – Ermittlung eines objektivierten Unternehmenswerts, – Ermittlung eines subjektiven Unternehmenswerts (Entscheidungswert), – Ermittlung eines Schiedswerts. DCF-Verfahren und Ertragswertverfahren werden dort als Diskontierungsverfahren bezeichnet (KFS/BW 2014, Rz. 11). Eine Besonderheit des österreichischen Standards ist, dass die Plausibilität des auf Basis eines Diskontierungsverfahrens ermittelten 12 Daraus ergibt sich implizit, dass das IDW auch im Hinblick auf die Ermittlung objektivierter Werte konzeptionell von Entscheidungswerten ausgeht, da der Bewertung die Übertragung von Ertragskraft und damit ein Übergang von Verfügungsrechten an einem KMU zugrunde liegt.
26
Christina Bark, Norbert Kratz und Clemens Wangler
Ergebnisses zu beurteilen ist. Für diese Plausibilitätsbeurteilungen wird insbesondere der Rückgriff auf ein Multiplikatorverfahren vorgeschlagen (KFS/BW 2014, Rz. 17 und 12)¹³. Eine weitere Besonderheit ist, dass explizit betont wird, dass bei der Ermittlung eines objektivierten Unternehmenswerts Transaktionskosten und transaktionsbedingte Ertragsteuerwirkungen grundsätzlich nicht berücksichtigt werden dürfen. Im Einklang mit IDW S 1 steht die Vorgabe, dass objektivierte Unternehmenswerte unter typisierenden Annahmen ermittelt werden. Im weiteren Verlauf des Fachgutachtens werden dazu das Unternehmenskonzept, die Finanzierungs- und Ausschüttungsannahmen, die Managementfaktoren, die Berücksichtigung von Ertragsteuern und Synergieeffekte angesprochen (KFS/BW 2014, Rz. 17). Im Übrigen betont das österreichische Fachgutachten, dass anders als bei den DCF-Verfahren, bei denen die Renditeforderung der Eigenkapitalgeber stets kapitalmarktorientiert abgeleitet werden müsse, der Diskontierungssatz beim Ertragswertverfahren auch auf Basis individueller Vorgaben des Bewertungssubjekts festgelegt werden könne. Letzteres führe jedoch dann stets zu einem subjektiven Unternehmenswert (KFS/BW 2014, Rz. 50). Sehr ausführlich werden kleine und mittlere Unternehmen im österreichischen Fachgutachten definiert. Wichtige Kennzeichen sind dabei ein begrenzter Kreis von Unternehmenseignern, Unternehmenseigner mit geschäftsführender Funktion, Mitarbeit von Familienmitgliedern der Eigner im Unternehmen, keine eindeutige Abgrenzung von Betriebs- und Privatvermögen, wenige Geschäftsbereiche, einfaches Rechnungswesen und einfache interne Kontrollen (KFS/BW 2014, Rz. 143). Aufgrund der spezifischen Risikofaktoren habe der Bewerter besonderes Augenmerk auf die Abgrenzung des Bewertungsobjekts, die Bestimmung des Unternehmerlohns und die Zuverlässigkeit der vorhandenen Informationsquellen zu richten (KFS/BW 2014, Rz. 143)¹⁴. Diese drei Aspekte werden im Gutachten sodann ausführlich in eigenen Abschnitten behandelt. Auch das österreichische Fachgutachten stellt für Zwecke der Bestimmung der Kapitalkosten auf das CAPM bzw. Tax-CAPM ab (KFS/BW 2014, Rz. 103–112). Bei der Bewertung nicht börsennotierter Unternehmen soll dabei auf Beta-Faktoren für vergleichbare Unternehmen zurückgegriffen werden (KFS/BW 2014, Rz. 106)¹⁵.
13 Der deutsche Standard ist hier weniger streng (IDW 2008, Rz. 143). 14 Praktisch wortgleich IDW 2008, Rz. 156. 15 Bemerkenswert ist es, dass im Fachgutachten KFS/BW für Zwecke der Bewertung börsennotierter Unternehmen der Fall behandelt wird, dass der vom Börsenkurs abgeleitete Beta-Faktor nicht aussagekräftig ist. Unklar bleibt in diesem Zusammenhang, welche Bedeutung dieser Aspekt für die Bewertung eines KMU für den Fall haben kann, dass ein Beta-Faktor eines (mehr oder weniger) vergleichbaren börsennotierten Unternehmens nicht aussagekräftig ist.
Unternehmensbewertung unter Berücksichtigung der Besonderheiten von KMU
27
4 Unter welchen Voraussetzungen „passt“ die vorgeschlagene Vorgehensweise einer CAPMbasierten KMU-bewertung? 4.1 KMU-spezifische Widersprüchlichkeiten bei der Anwendung des CAPM bei gegebener Duplizierbarkeit der künftigen Zahlungen Mit der Verwendung des Modells der Wertpapiermarktlinie des CAPM für die Bewertung unsicherer künftiger Cashflows geht die Notwendigkeit einher, eine Reihe von realitätsfernen Prämissen zu akzeptieren. Ein CAPM-basierter Wert ist das Resultat der Anwendung eines Rechenmodells, dessen ökonomische Interpretierbarkeit an die Gültigkeit der Modellprämissen geknüpft ist (Schmidt/Terberger 1997, S. 345 f.). – Alle Anleger verhalten sich so, wie es die Portfoliotheorie empfiehlt. – Es gibt eine risikolose Anlage- und Verschuldungsmöglichkeit, die den vorgegebenen Zinssatz rf erbringt bzw. kostet. – Es gibt m risikobehaftete Anlagemöglichkeiten (Arten von „Aktien“). Die Zahl der umlaufenden Aktien jeder Art i (i = 1,..., m) ist vorgegeben. – Alle Anlagemöglichkeiten werden auf vollkommenen Märkten gehandelt: Es gibt keine Transaktionskosten, und kein einzelner Investor kann durch seine Entscheidungen die Marktpreise (Aktienkurse bzw. Zinssätze) beeinflussen. Alle Marktteilnehmer haben den gleichen ungehinderten Marktzugang. – Alle Anlagemöglichkeiten sind beliebig teilbar. – Alle Investoren sind risikoscheu und beurteilen Portefeuilles anhand der Parameter Erwartungswert und Standardabweichung der Rendite. – Alle Anleger haben einen Planungshorizont von einer Periode. – Alle Anleger haben übereinstimmende („homogene“) Erwartungen, d. h. sie schätzen die Erwartungswerte, die Standardabweichungen und die Kovarianzen der Aktienrenditen gleich ein. Da diese restriktiven Modellprämissen in der realen Welt nicht uneingeschränkt gültig sind, ist die Anwendung des CAPM für die Unternehmensbewertung grundsätzlich fundamental angreifbar (Rapp 2013, S. 359–362). Wird von diesem Grundsatzproblem aus Praktikabilitätsgründen abstrahiert, so ergeben sich dennoch im Hinblick auf die Bewertung von KMU spezifische Probleme. Eine Unternehmensbewertung auf der Grundlage des CAPM liefert eine Antwort auf folgende Frage: Welchen Betrag wäre ein diversifizierter Anleger im Sinne des CAPM bereit, für einen marginal kleinen Anteil an dem zu bewertenden Unternehmen zu zahlen? Dabei wird implizit davon ausgegangen, dass das zu bewertende
28
Christina Bark, Norbert Kratz und Clemens Wangler
Unternehmen Bestandteil des risikoeffizienten Marktportefeuilles ist¹⁶. Der Finanzierungstitel „KMU“ selbst kann aber nicht Gegenstand des Handels auf dem im Rahmen des CAPM unterstellten Kapitalmarkt sein. Er kann daher auch nicht Bestandteil des risikoeffizienten Marktportfolios sein (Rapp 2013, S. 361). Damit scheint eine Bewertung eines KMU auf der Grundlage des CAPM von vornherein ausgeschlossen. Jedoch ist es denkbar, Bedingungen zu definieren, unter denen die Methodik des CAPM für die Bewertung eines KMU widerspruchsfrei möglich ist. Hierzu bedarf es der Vorstellung von einem Nebeneinander von organisiertem Kapitalmarkt im Sinne des CAPM einerseits und der Existenz eines KMU, welches eine exklusive Investition bzw. Investitionsmöglichkeit für einen Akteur darstellt, andererseits. Dieser Akteur hat uneingeschränkten Zugang zu dem vom KMU separierten Kapitalmarkt: Er kann dort sowohl als Käufer als auch als Verkäufer von künftigen, mit Unsicherheit behafteten Zahlungen auftreten. Wird von einem solchen Nebeneinander ausgegangen, so ist zu untersuchen, unter welchen Voraussetzungen ein KMU durch eine Bewertungsfunktion, die für den vom KMU losgelöst funktionierenden Kapitalmarkt gilt, bewertet werden kann. Im Rahmen eines statischen Gleichgewichtsmodells, wie es das CAPM darstellt, führt jeglicher Versuch, Entscheidungen von Akteuren zu berücksichtigen, potenziell zu logischen Widersprüchen, da der ursprüngliche Gleichgewichtszustand aufgehoben wird. Jede Art von Anwendung des CAPM für Entscheidungszwecke, z. B. im Rahmen der Kapitalwertmethode, kann nur unter sehr speziellen Annahmen widerspruchsfrei sein, sofern es um die Bewertung eines neuen, (noch) nicht im Marktportfolio enthaltenen Investitionsprojekts bzw. Unternehmens geht. Wenn „subjektive Nutzenmaximierung und Marktwertmaximierung äquivalente Ziele sind, ist der subjektive Grenzpreis gleich dem Marktwert“ (Laux/Schabel 2009, S. 2). Sofern ein vollkommener und vollständiger Kapitalmarkt gegeben ist, entspricht die individuelle Nutzenmaximierung der Marktwertmaximierung (Wilhelm 1983, S. 616–534; Breuer 1997, S. 222–226). Sind diese Bedingungen erfüllt, ist somit auch die Möglichkeit zur Duplizierung beliebiger mit Unsicherheit behafteter Zahlungen durch einzelne Wertpapiere oder Portfolios aus mehreren Wertpapieren möglich. Duplikation bedeutet hierbei, dass es gelingt, am Kapitalmarkt ein Portfolio zu finden, welches in jedem für möglich gehaltenen künftigen Zustand exakt die gleiche Zahlung generiert, die sich bei Eintreten des jeweiligen Zustands auch bei dem zu bewertenden Objekt ergibt (Kruschwitz/Löffler 2014, S. 265). Unter diesen Voraussetzungen kann das Management einer börsennotierten Aktiengesellschaft Entscheidungen über neue Investitionen treffen, ohne die Präferenzen der Anteilseigner zu kennen, da aufgrund der Vollständigkeit des Kapitalmarkts durch eine neue Investition keine Zahlungscharakteristik entsteht, die nicht bereits aus am Kapitalmarkt handelbaren Finanzierungstiteln nachgebildet werden kann. 16 Es wird im Rahmen des CAPM von der Existenz eines risikoeffizienten Marktportfolios ausgegangen, wobei jeder existierende Finanzierungstitel Bestandteil des risikoeffizienten Marktportfolios ist.
Unternehmensbewertung unter Berücksichtigung der Besonderheiten von KMU
29
Im Hinblick auf die Bewertung eines KMU resultieren daraus folgende Konsequenzen: Aus der Perspektive eines potenziellen Käufers eines KMU entspricht der Wert des KMU bei vollständiger Duplizierungsmöglichkeit der mit dem KMU verknüpften Cashflows sowie existierender Leerverkaufsmöglichkeit dem Marktwert des Duplikationsportfolios. Der Erwerber kann, völlig unabhängig von seinem Anfangsvermögen, die unsicheren Cashflows des KMU am Kapitalmarkt leer verkaufen und mit dem Veräußerungserlös den Erwerb des KMU finanzieren. Entspricht der Kaufpreis für das KMU gerade dem Marktwert des Duplizierungsportfolios, ist der Erwerb nutzenneutral. Liegt der Kaufpreis unter dem Marktwert des Duplizierungsportfolios, erzielt der Käufer einen Arbitragegewinn (Laux/Schabel 2009, S. 35 und 37 ff.). Sind Leerverkaufsmöglichkeiten nicht gegeben, so kann die Finanzierung des Kaufpreises des KMU durch Herauslösen (Veräußern) des Duplikationsportfolios aus dem optimalen Ausgangsportfolio des potenziellen Erwerbers finanziert werden. Voraussetzung hierfür ist, dass ein optimales individuelles Ausgangsportfolio gegeben ist und dieses Ausgangsportfolio oder eine Teilmenge des Ausgangsportfolios durch das KMU substituiert werden kann, ohne Auswirkungen auf die gesamten Rückflüsse des Erwerbers zu haben. Wird die Ausgangssituation dahingehend modifiziert, dass der Investor alleiniger Eigentümer des KMU ist und das KMU gegebenenfalls in einem Portfoliokontext hält, so ergibt sich eine potenzielle Verkäuferposition. Um im Fall einer Veräußerung eine Nutzeneinbuße zu vermeiden, muss der potenzielle Veräußerer mindestens den Marktpreis des Duplikationsportfolios als Verkaufspreis verlangen (Preisuntergrenze). Durch eine Veräußerung zu eben diesem Marktpreis wäre sichergestellt, dass er mit dem aus dem KMU-Verkauf resultierenden Erlös einen hinsichtlich Zeit- und Risikostruktur mit dem KMU übereinstimmenden Zahlungsstrom erwerben könnte. Unter der Voraussetzung existierender Duplizierbarkeit und bestehender Leerverkaufsmöglichkeit ist eine Bewertung ohne Rückgriff auf individuelle Präferenzen uneingeschränkt möglich. Es ist das Duplikationsportfolio zu bestimmen und dann beispielsweise auf der Grundlage der Bewertungsfunktion des CAPM der Marktwert dieses Duplikationsportfolios (Summe der Marktwerte der im Portfolio enthaltenen Wertpapiere) zu ermitteln. Die Verwendung des Kapitalmarktmodells CAPM wäre dann, so wie von den Berufsorganisationen vorgesehen, einerseits schlüssig. Unter diesen Voraussetzungen wäre aber andererseits die Verwendung des CAPM überflüssig, da die (objektiven) Marktwerte der das KMU duplizierenden Wertpapiere unmittelbar beobachtbar wären (Bark 2011, S. 89). Die Verwendung des CAPM zur Bestimmung objektivierter Werte wird erst dann erforderlich, wenn Duplizierbarkeit nicht gegeben ist bzw. der Informationsstand eines Bewerters unzureichend ist. Auf die sich dann ergebenden Folgen für die Ermittlung eines objektivierten Werts eines KMU wird im folgenden Abschnitt eingegangen.
30
Christina Bark, Norbert Kratz und Clemens Wangler
4.2 Objektivierte Bewertung von KMU auf der Grundlage des CAPM bei fehlender Duplizierbarkeit? Charakteristisch für eine Bewertung auf der Grundlage des formalen Rahmens des CAPM ist, dass die Akteure auf der Grundlage von Erwartungswert und Streuung der Rendite des Portfolios planen (Modell der Kapitalmarktlinie). Informationen über einzelne zukünftige Umweltzustände sowie diesen zuzuordnende Zahlungen sind nicht vorhanden. Die Möglichkeit zur Duplikation in dem oben definierten Sinn ist daher im CAPM-Kontext nicht gegeben. Die Frage, ob der Kapitalmarkt die Eigenschaft der Vollständigkeit aufweist, ist dementsprechend nicht beantwortbar (Laux/Schabel 2009, S. 41). Es ist zu klären, ob und inwieweit eine objektivierte Bewertung eines KMU auf der Grundlage der Kapitalmarkttheorie unter diesen Bedingungen durchgeführt werden könnte. Dabei sollen implizite Typisierungen hinsichtlich der jeweiligen Entscheidungssituation sichtbar gemacht werden¹⁷. Ausgehend von einer Käuferperspektive ist in Anlehnung an Laux und Schabel diesbezüglich zu unterscheiden, ob es sich bei dem potenziellen Erwerber um eine Institution handelt, die stellvertretend für die Vielzahl der diversifizierten Anleger am Kapitalmarkt agiert, oder ob es sich um einen individuellen Investor handelt (Laux/ Schabel 2009, S. 3 und 9 f.). Erfolgt der Erwerb stellvertretend für die Vielzahl der diversifizierten Anleger am Kapitalmarkt, indem diese ihre Entscheidungskompetenz an ein Management übertragen haben, so kann unter den Bedingungen des CAPM und unter der Annahme, dass sich durch diese Realisierung des neuen Investitionsprojekts „KMU“, welches zuvor nicht Bestandteil des risikoeffizienten Marktportfolios war, die Bewertungsparameter innerhalb der Bewertungsformel des CAPM nicht verändern¹⁸, die Bewertung des KMU bzw. eines Anteils hieran auf der Grundlage des CAPM erfolgen. Dies entspricht der Vorstellung, dass ein „Absorbieren“ des KMU durch den vollkommenen Kapitalmarkt und dessen Integration in das risikoeffiziente Marktportfolio ohne Einfluss auf den Markt an sich möglich ist. Subjektive Nutzenmaximierung und Marktwertmaximierung durch das Management sind dann äquivalente Ziele. Unter diesen Voraussetzungen bringt der Marktwert die Bewertung des Finanztitels durch sämtliche Marktteilnehmer zum Ausdruck. Der potenzielle Erwerber fungiert somit als Repräsentant der Vielzahl von Anlegern, die durchweg das risikoeffiziente Marktportfolio halten. Die eigentlichen Investoren sind dann selbst „Marginalin-
17 Dabei wird hier über den üblichen und von Moxter sowie dem IDW verwendeten Begriff der Typisierung hinausgegangen. 18 Diese Annahme ist durchaus nicht unproblematisch (Rudolph 1983, S. 276 ff.). Gemäß Franke und Hax kann von der Gültigkeit dieser Annahme unter folgender Bedingung ausgegangen werden (Franke/Hax 1995, S. 350): „Voraussetzung ist hierbei, dass sich die Bewertungsfunktion durch das zusätzliche Investitionsprojekt nicht ändert. Dies kann angenommen werden, wenn das einzelne Investitionsprojekt im Verhältnis zum Investitionsvolumen des gesamten Marktes nur geringen Umfang hat.“
Unternehmensbewertung unter Berücksichtigung der Besonderheiten von KMU
31
vestoren“ innerhalb des Modellrahmens des CAPM (Laux/Schabel 2009, S. 36) und ein Entscheidungsträger, der ein neues Projekt „KMU“ zu realisieren gedenkt, kann die Bewertungsfunktion des CAPM verwenden, um den Wert zu ermitteln, der dem Projekt aus der Perspektive der Gesamtheit der auf dem organisierten Kapitalmarkt agierenden Investoren zukommt. Ob ein solcher Wert auch aus der Sicht eines einzelnen Investors, der beispielsweise jenseits des organisierten Kapitalmarkts den Erwerb des Alleineigentums an einem KMU erwägt, relevant sein kann, ist zu hinterfragen. Es wird daher nun entgegen der obigen Konstellation von einem individuellen Investor ausgegangen, der gemäß dem Modell der Kapitalmarktlinie¹⁹, also einer Vorstufe des Modells der Wertpapiermarktlinie (CAPM), in der Ausgangssituation eine Mischung aus risikoeffizientem Marktportfolio und risikoloser Anlage bzw. Verschuldung hält und der jetzt die exklusive Möglichkeit hat, das KMU als Alleineigentümer zu erwerben²⁰. Damit rückt neben dem Modell der Wertpapiermarktlinie (CAPM) nunmehr das Modell der Kapitalmarktlinie in den Fokus: Dieses Modell könnte insbesondere deshalb für die Bewertung von KMU relevant sein, da es das Planungsmodell des Investors ist.
risikoeffizientes Marktportfolio
Mischungen aus risikoloser Anlage bzw. Verschuldung und risikoeffizientem Marktportfolio
Kurve von effizienten Mischungen risikobehafteter Anlagen
Abb. 1: Modell der Kapitalmarktlinie in der „Renditeversion“ Quelle: Eigene Darstellung.
19 Siehe Abb. 1. Der gepunktete Teil der Kurve stellt ineffiziente Wertpapiermischungen dar. 20 Kruschwitz und Löffler sehen in einer solchen Betrachtungsweise von vornherein einen logischen Widerspruch, da gemäß den Prämissen des CAPM definitionsgemäß sämtliche Investoren das risikoeffiziente Marktportfolio halten (Kruschwitz/Löffler 2014, S. 266). Um die beschriebene Konstellation dennoch rechtfertigen zu können, muss unterstellt werden, dass die Investitionsentscheidung des individuellen Investors keinen Einfluss auf die Marktbewertungsfunktion hat.
32
Christina Bark, Norbert Kratz und Clemens Wangler
Im Gegensatz zum Modell der Wertpapiermarktlinie wird im Modell der Kapitalmarktlinie die erwartete Rendite eines Wertpapierportfolios μr̃ in Abhängigkeit von der Standardabweichung der Rendite des Portfolios σr̃ dargestellt, wobei rf den risikolosen Zinssatz, μM̃ die erwartete Rendite des risikoeffizienten Marktportfolios und σM̃ die Standardabweichung der Rendite des risikoeffizienten Marktportfolios verkörpern (Gleichung 1): μ r̃ = r f +
μ M̃ − r f ⋅ σ r̃ . σ M̃
(1)
Zwischen der Standardabweichung der Rendite und der Standardabweichung des Cashflows des Portfolios besteht der folgende Zusammenhang: σ r̃ =
1 ⋅σ ̃ . Marktwert CF
(2)
Entsprechend gilt für die Erwartungswerte der in Gleichung 3 dargestellte Zusammenhang: μ r̃ =
1 ⋅μ ̃ . Marktwert CF
(3)
Somit kann das Modell der Kapitalmarktlinie umgerechnet werden in ein Modell auf der Grundlage von Erwartungswert und Streuung der Cashflows, normiert auf eine gegebene Höhe des Anfangsvermögens (W0) des Investors (Knoll 2010, S. 369). Abb. 2 zeigt dies. Eine Erhöhung oder Verminderung des individuell vorhandenen Anfangsvermögens führt dann zu einer entsprechenden Parallelverschiebung der Kapitalmarktlinie.
Abb. 2: „Endvermögensversion“ des Modells der Kapitalmarktlinie Quelle: Eigene Darstellung.
Unternehmensbewertung unter Berücksichtigung der Besonderheiten von KMU
33
Wenn nun angenommen wird, dass der Investor genau über einen Anlagebetrag in Höhe des Kaufpreises für das KMU (PVKMU) verfügt, und wenn darüber hinaus die Erwartungswert-Streuungs-Kombination, durch die das KMU charakterisiert ist, effizient im Sinne des Modells der Kapitalmarktlinie ist, dann wird die Kapitalmarktlinie bei (1 + rf) ∗ PVKMU beginnen und Erwartungswert und Streuung der Cashflows des KMU bilden einen Punkt auf der Kapitalmarktlinie. Die Geradengleichung hat dann folgendes Aussehen: μ CF̃ = PV KMU ⋅ (1 + r f ) +
σ CF̃ ⋅ (μ M̃ − r f ) σ M̃
(4)
Dieser Zusammenhang wird in der folgenden Abb. 3 dargestellt.
Indifferenzkurve
Abb. 3: Einordnung des KMU in den Kontext des Modells der Kapitalmarktlinie Quelle: Eigene Darstellung.
Eine präferenzunabhängige Bewertung auf der Grundlage des Modells der Kapitalmarktlinie könnte nach Umformung der Gleichung 4 nun folgendermaßen aussehen: PV KMU =
μ CF̃ −
σ CF̃ σ M̃
⋅ (μ M̃ − r f )
1 + rf
(5)
Ein so errechneter Wert des KMU repräsentiert denjenigen Wert, den eine Mischung aus risikoloser Anlage bzw. Verschuldung und risikoeffizientem Marktportfolio mit identischem Erwartungswert und identischer Streuung des künftigen, mit Unsicherheit behafteten Cashflow aufweist. Die Bewertung liefert somit eine Antwort auf die Frage, welcher Wert des KMU sicherstellt, dass das KMU einen Punkt auf der Kapitalmarktlinie repräsentiert und
34
Christina Bark, Norbert Kratz und Clemens Wangler
damit die Eigenschaft aufweist, effizient im Sinne des Modells der Kapitalmarktlinie zu sein. Eine solche, marktbasierte Bewertung hat folgende Eigenschaften: – Es wird implizit eine sehr weitgehende Typisierung hinsichtlich der Entscheidungssituation vorgenommen. Es wird so getan, als ob der Investor lediglich vor der Wahl stünde, sein Anfangsvermögen in das KMU oder aber in eine Mischung aus risikoloser Anlage bzw. Verschuldung und risikoeffizientem Marktportfolio mit identischem Erwartungswert und identischer Streuung des künftigen Cashflow zu investieren. Ein Bezug zu einer konkreten Ausgangssituation mit einem konkreten Ausgangsportfolio wird nicht hergestellt. – Entsprechend kann auch kein subjektiver Grenzpreis bestimmt werden, der die Höhe des Preises angibt, den der Investor bereit ist für den Erwerb des KMU zu zahlen, ohne gegenüber der Ausgangssituation eine Verschlechterung zu erleiden. So kann der Fall eintreten, dass der Investor von einem gemäß seiner Indifferenzkurve optimalen Portfolio ausgeht (vgl. Abb. 3) und ein Wechsel zum KMU nicht nutzenäquivalent wäre. – Die Annahme, dass der Investor genau über den Betrag PVKMU als Anfangsvermögen verfügt, ist willkürlich. Sie bewirkt, dass die Finanzierung des Erwerbs des KMU ohne den Einsatz von Fremdkapital möglich ist. Ein von dem Betrag abweichendes Anfangsvermögen kreiert jedoch eine gegenüber Abb. 3 andere individuelle Kapitalmarktlinie in der Endvermögensversion. – Da die Erwartungswert-Streuungs-Kombination, durch die das KMU in Abb. 3 dargestellt wird, oberhalb des risikoeffizienten Marktportfolios liegt, wird automatisch unterstellt, dass das dem KMU hinsichtlich Erwartungswert und Streuung des Cashflows äquivalente Portfolio eine Mischung aus risikoeffizientem Marktportfolio und negativer Anlage zum risikolosen Zinssatz (Aufnahme von risikolosem Fremdkapital) darstellt. Eine auf dieser Äquivalenz basierende Bewertung ist daher durchaus problematisch, da das Portfolio möglicherweise überhaupt keine realisierbare Anlagealternative darstellt (Knoll 2010, S. 369). Ein auf dem Modell der Kapitalmarktlinie basierendes Bewertungsmodell berücksichtigt die Portfolioplanung des Investors und damit die beim Erwerb des KMU nicht vorhandene Diversifikation, erfordert aber konzeptionell eine extrem restriktive Festlegung (Typisierung) hinsichtlich der vorliegenden Entscheidungssituation. Ein objektivierter Ersatz für eine subjektive Preisobergrenze resultiert hieraus nicht. Andererseits ist aber die Konsequenz, die von IDW und BStBK hinsichtlich der Risikoberücksichtigung gezogen wird, nämlich eine Risikoberücksichtigung entsprechend dem Modell der Wertpapiermarktlinie (CAPM), ebenfalls fragwürdig. Die uneingeschränkte Verwendung des Modells der Wertpapiermarktlinie (CAPM) mit dem Ziel einer als objektiviert anzusehenden Form der Bewertung beinhaltet ebenfalls eine, wenngleich andere Art von „Typisierung“ hinsichtlich der Entscheidungssituation: Es ist die Annahme erforderlich, dass ein Erwerb des KMU durch einen Manager stellvertretend für die Vielzahl diversifizierter Investoren am Kapitalmarkt vorgenommen
Unternehmensbewertung unter Berücksichtigung der Besonderheiten von KMU
35
wird. Eine aus Objektivierungsgründen gegebene Präferenz der einen gegenüber der anderen Art von Typisierung ist nicht erkennbar. Aus der Perspektive eines potentiellen Verkäufers eines KMU, welches nicht Bestandteil des risikoeffizienten Marktportfolios ist, ist prinzipiell nach dem Wert zu suchen, der im Fall der Veräußerung des KMU sicherstellt, dass keine Nutzeneinbuße eintritt. Ein solcher Nutzenäquivalenz gewährleistender Mindestpreis ist ein subjektiver Fortführungswert und kann außer in dem in Abschnitt 4.1 skizzierten Fall mit gegebener vollständiger Duplizierbarkeit ohne Rückgriff auf individuelle Präferenzen nicht ermittelt werden. Soll hingegen unter den eingangs dieses Abschnitts beschriebenen Informationsannahmen ein objektivierter Wert bestimmt werden, so setzt eine Bewertung auf der Basis des Modells der Kapitalmarktlinie wie im Fall der Betrachtung aus der Käuferperspektive eine restriktive Typisierung hinsichtlich der zugrunde gelegten Entscheidungssituation voraus: Es wird nach demjenigen Verkaufserlös gefragt, der als Anfangsvermögen zu einer individuellen Kapitalmarktlinie (in der Endvermögensversion des Modells der Kapitalmarktlinie) führt, die durch die Erwartungswert-Streuungskombination des KMU geht. Es wird nicht danach gefragt, welcher Wert mindestens erzielt werden muss, um eine Nutzeneinbuße zu vermeiden, sondern nach dem Verkaufserlös, der es dem Veräußerer ermöglicht, nach der Veräußerung ein Portfolio zu erwerben, welches im Sinne des Modells der Kapitalmarktlinie die Eigenschaft der Effizienz aufweist. Abb. 4 illustriert dies.
ö Abb. 4: Modell der Kapitalmarktlinie zur Bestimmung eines effizienten Verkaufserlöses Quelle: Eigene Darstellung.
Wird statt des Modells der Kapitalmarktlinie das Modell der Wertpapiermarktlinie (CAPM) für die Bewertung verwendet, so ist wiederum eine andere Art von Typisierung hinsichtlich des Entscheidungsfelds des Veräußerers erforderlich. Es ist zu
36
Christina Bark, Norbert Kratz und Clemens Wangler
unterstellen, dass die am Markt aktiven und wohl diversifizierten Investoren jeweils kleine Anteile an dem zum bisherigen Marktportfolio neu hinzukommenden KMU erwerben. Dies entspricht der Vorstellung von einem Börsengang unter den idealtypischen Bedingungen des CAPM: Der vollkommene Kapitalmarkt „absorbiert“ das KMU zu einem Wert, der sich aus der ursprünglichen, für das bisherige Marktgleichgewicht geltenden Bewertungsfunktion ergibt. Auch im Fall einer Verkäuferperspektive ist die Frage nach der zu bevorzugenden Art von Typisierung nicht beantwortbar. Es zeigt sich, dass die universelle Verwendung kapitalmarkttheoretischer Modelle, auch des von den Vertretern der Berufsstände der Wirtschaftsprüfer und Steuerberater grundsätzlich propagierten Modells der Wertpapiermarktlinie (CAPM), für die Bewertung von KMU fragwürdig erscheint, wenn die idealen Voraussetzungen der Duplizierbarkeit und der Möglichkeit, Wertpapiere leer zu verkaufen, nicht gegeben sind.
5 Zusammenfassung und Formulierung offener Fragen zur Unternehmensbewertung, insbesondere zur Bewertung von KMU Unternehmensbewertung im Allgemeinen bewegt sich in dem Spannungsfeld von Präferenzabhängigkeit und Kapitalmarktorientierung. Im Fall der Bewertung von KMU ergibt sich insofern eine Besonderheit, als der „Finanzierungstitel KMU“ nicht auf dem organisierten Kapitalmarkt gehandelt wird. Soll eine präferenzabhängige Bewertung vermieden werden und ein objektivierter Wert auf der Grundlage von Kapitalmarktmodellen bestimmt werden, so bedarf es, anders als bei börsengehandelten Unternehmen, sehr weitreichender Typisierungen, die über die pauschale Festlegung von individuellen Merkmalen des Investors hinausgehen. Objektivierung soll die widerspruchsfreie Anwendung eines Kapitalmarktmodells im Rahmen der Unternehmensbewertung ermöglichen. Dies setzt zunächst voraus, dass von der Existenz eines Kapitalmarkts ausgegangen werden kann, der den Prämissen dieses Kapitalmarktmodells genügt und der dem potenziellen Investor, der ein KMU als Alleineigentümer führt bzw. ein solches zu erwerben gedenkt, als Anlagevehikel uneingeschränkt zur Verfügung steht. Objektivierung heißt weiterhin, dass die Unternehmensbewertung die Eigenschaft der Präferenzfreiheit haben soll. In diesem Zusammenhang sind, neben den Typisierungen bezüglich individueller Merkmale, die in der Person des Entscheidungsträgers begründet sind (z. B. der Grenzsteuersatz), wesentliche Typisierungen hinsichtlich der jeweils vorliegenden Entscheidungssituation erforderlich. Die Vornahme von Typisierungen hinsichtlich der Entscheidungssituation ist im Hinblick auf die Gewährleistung der Präferenzfrei-
Unternehmensbewertung unter Berücksichtigung der Besonderheiten von KMU
37
heit der Bewertung unabdingbar²¹. Sie ist sehr kritisch zu beurteilen, da es sich um sehr restriktive und im Zweifel realitätsferne Pauschalannahmen handelt. Eine Rechtfertigung dahingehend, dass die Typisierung wie beispielsweise bei der Verwendung eines typisierten Grenzsteuersatzes Eigenschaften des „durchschnittlichen Investors“ widerspiegelt, gibt es nicht. Es hat sich gezeigt, dass sowohl die Wertermittlung auf der Grundlage des Modells der Kapitalmarktlinie als auch die Bewertung auf der Grundlage des Modells der Wertpapiermarktlinie (CAPM) Antworten auf Fragen liefert, die hinsichtlich der Bewertung von KMU nicht uneingeschränkt und verallgemeinerbar als relevant angesehen werden können. Eine Bewertung von KMU auf der Grundlage von Kapitalmarktmodellen liefert dann weitgehend Antworten auf nicht relevante Fragen, wenn eine objektivierte Unternehmensbewertung eine Ermittlung eines individuellen Grenzpreises imitieren oder annähern soll. Insofern besteht weiterhin Forschungsbedarf auf den verschiedensten Teilgebieten der Unternehmensbewertung, deren hohe Bedeutung für die Betriebswirtschaftslehre und das Steuerrecht erhalten bleiben wird. Dies soll durch die folgenden, nach wie vor ungeklärten Fragestellungen illustriert werden: 1. Wie müsste eine allgemein gültige konzeptionelle Grundlage für die Ermittlung von KMU aussehen? 2. Wie stehen Objektivierung und Typisierung zueinander und welche Arten der Typisierung sind in welchen Bewertungsszenarien adäquat? 3. Gibt es konkrete Bewertungsanlässe, in denen eine Bewertung auf der Grundlage des CAPM „passt“, weil z. B. von einer gegebenenfalls implizit unterstellten Veräußererkonstellation (Börsengang) ausgegangen wird? Eine solche Konstellation könnte auch gesetzlich fingiert werden, etwa durch das Bewertungs- oder Erbschaftsteuergesetz. 4. Wie gelingt dem IDW der Spagat zwischen dem Interesse an der möglichst uneingeschränkten Kapitalmarktorientierung für Zwecke der Ermittlung des Kapitalisierungszinssatzes und der offensichtlichen Konfrontation mit Überbewertungssituationen (insbesondere im Angesicht der durch das Bundesverfassungsgericht angestoßenen Reduktion der Verschonungsregelungen nach §§ 13a, 13b ErbStG)²². Wie kann die erbschaftsteuerliche Unternehmensbewertung bzw. die vom Gesetzgeber angestrebte Verschonung von betrieblichem Vermögen verfassungskonform ausgestaltet werden?
21 Bei gegebenen Duplikationsmöglichkeiten sowie Leerverkaufsmöglichkeiten ist dies nicht erforderlich. 22 Mit Urteil vom 17.12.2014 (BVerfG 2014) hat der Erste Senat des Bundesverfassungsgerichts nämlich §§ 13a, 13b und 19 Abs. 1 ErbStG für verfassungswidrig erklärt. Insbesondere für die Übertragung großer Unternehmensvermögen fordert das Gericht vom Gesetzgeber Korrekturen.
38
5.
6.
Christina Bark, Norbert Kratz und Clemens Wangler
Welche Kapitalmarktannahmen bei einer kapitalmarktorientierten Bewertung sind von der Praxis im Hinblick auf die unvermeidliche Komplexitätsreduktion als vertretbar zu akzeptieren? Kann es zu Widersprüchlichkeiten im Rahmen der Bewertung von KMU kommen, wenn bestimmte KMU-spezifische Risiken im Rahmen der Ermittlung von Erwartungswerten künftiger Cashflows (Zähler der Barwertformel) berücksichtigt werden, bei der Bestimmung des Risikozuschlags zum risikolosen Zinssatz (Nenner der Barwertformel) aber unberücksichtigt bleiben und damit der verwendete Diskontierungssatz nicht mehr das systematische Risiko des Bewertungsobjekts widerspiegelt?²³
Literaturverzeichnis Ballwieser, W. (1998): Unternehmensbewertung mit Discounted Cash Flow-Verfahren, in: WPg, 51. Jg., 1998, S. 81–92. Balz, U./Bordemann, H.-G. (2007): Ermittlung von Eigenkapitalkosten zur Unternehmensbewertung mittelständischer Unternehmen mithilfe des CAPM, in: Finanz Betrieb, 12/2007, S. 737–743. Bark, Ch. (2011): Der Kapitalisierungszinssatz in der Unternehmensbewertung, Wiesbaden 2011. Breuer, W. (1997): Die Marktwertmaximierung als finanzwirtschaftliche Entscheidungsregel, in: Wirtschaftswissenschaftliches Studium (WiSt), 26. Jg., 5/1997, S. 222–226. BStBK (2014): Hinweise der Bundessteuerberaterkammer zu den Besonderheiten bei der Ermittlung eines objektivierten Unternehmenswerts kleiner und mittelgroßer Unternehmen (Beschlossen vom Präsidium der Bundessteuerberaterkammer am 13.03.2014), URL: http://www.bstbk.de/ export/sites/standard/de/ressourcen/Dokumente/04_presse/publikationen/02_steuerrecht_ rechnungslegung/20_Hinweise_BStBK_zur_Bewertung_von_KMU.pdf, Zugriff: 26.01.2015. BVerfG (2014): Privilegierung des Betriebsvermögens bei der Erbschaftsteuer ist in ihrer derzeitigen Ausgestaltung nicht in jeder Hinsicht mit der Verfassung vereinbar. Pressemitteilung Nr. 116/2014 vom 17. Dezember 2014. Urteil vom 17. Dezember 2014. 1 BvL 21/12, http://www.bundesverfassungsgericht.de/SharedDocs/Pressemitteilungen/DE/2014/ bvg14-116.html, Zugriff: 26.01.2015. Djukanov, V./Keuper, F. (2013): Die prozessuale Zweckorientierung im Rahmen der funktionalen Unternehmensbewertungslehre, in: Betriebswirtschaftliche Forschung und Praxis (BFuP), 65. Jg, 2013, S. 304–333. Ernst, D./Schneider, S./Thielen, B. (2003): Unternehmensbewertungen erstellen und erstehen. Ein Praxisleitfaden, München 2003. Franke, G./Hax, H (1995): Finanzwirtschaft des Unternehmens und Kapitalmarkt, 3. Auflage, Berlin u. a. 1995. Hachmeister, D/Ruthardt, F. (2014): Die Bedeutung von Börsenkursen und Vorerwerbspreisen im Rahmen von Unternehmensbewertungen, in: Der Betrieb, 67.Jg., 31/2014, S. 1689–1695.
23 So widmet das IDW in seinem Praxishinweis 1/2014 der Ermittlung der dem Bewertungsobjekt KMU innewohnenden übertragbaren Ertragskraft im Rahmen der Prognose der künftigen Zahlungsüberschüsse breiten Raum (IDW 2014, Rz. 22–35), bei der Bestimmung des relevanten Diskontierungssatzes bleibt dieser Aspekt allerdings unberücksichtigt.
Unternehmensbewertung unter Berücksichtigung der Besonderheiten von KMU
39
Helbling, C. (2015): Besonderheiten der Bewertung von kleinen und mittleren Unternehmen, in: Peemöller V. H. (Hrsg.), Praxishandbuch der Unternehmensbewertung, 6. Auflage, Berlin, S. 995–1006. IDW (2005): IDW Standard: Grundsätze zur Durchführung von Unternehmensbewertungen (IDW S 1) i.d.F. vom 18.10.2005, in: WPg, 58. Jg. (2005), S. 1303–1321. IDW (2008): IDW Standard: Grundsätze zur Durchführung von Unternehmensbewertungen (IDW S1) i.d.F. vom 02.04.2008, in: FN-IDW 7/2008, S. 271–292. IDW (2014): IDW Praxishinweis 1/2014: Besonderheiten bei der Ermittlung eines objektivierten Unternehmenswerts von KMU, in: FN-IDW 4/2014, S. 282–292. Keller, M./Hohmann, B. (2004): Die Discounted-Cashflow-Methode zur Bewertung von kleinen und mittleren Unternehmen, UM 2/2004, S. 52–57. KFS/BW (2014): Fachgutachten KFS/BW 1 v. 26.3.2014 des Fachsenats für Betriebswirtschaft und Organisation der Kammer der Wirtschaftstreuhänder zur Unternehmensbewertung, http://www.kwt.or.at/de/PortalData/2/Resources/downloads/downloadcenter/ KFSBW1_15052014_RF.pdf, Zugriff: 26.01.2015. Knoll, L. (2010): KMU-Bewertung: Kapitalmarktorientierte Risikoberücksichtigung ohne Börsennotiz und Diversifikation?, in: RWZ – Recht & Rechnungswesen, 12/2010, S. 365–371. Kratz, N./Wangler, C. (2005): Unternehmensbewertung bei nicht kapitalmarktorientierten Unternehmen: Das Problem der Ermittlung entscheidungsrelevanter Kapitalkosten, FinanzBetrieb 2005, S. 169–176. Kruschwitz, L./Löffler, A. (2014): Warum Total Beta totaler Unsinn ist, in: Corporate Finance, 6/2014, S. 263–267. Laux, H./Schabel, M. M. (2009): Subjektive Investitionsbewertung, Marktbewertung und Risikoteilung, Berlin/Heidelberg 2009. Mandl, G./Rabel, K. (1997):Unternehmensbewertung. Eine praxisorientierte Einführung, Wien/ Frankfurt am Main 1997. Matschke, M.J./Brösel, G. (2006): Unternehmensbewertung. Funktionen – Methoden – Grundsätze, 2. Auflage, Wiesbaden 2006. Moxter, A. (1983): Grundsätze ordnungsmäßiger Unternehmensbewertung, 2. Auflage, Wiesbaden 1983. Neus, W. (1995): Zur Theorie der Finanzierung kleinerer Unternehmungen, Wiesbaden 1995. o. V. (2014): Besonderheiten bei der Ermittlung eines objektivierten Unternehmenswerts von KMU, Einleitende Bemerkungen des IDW zum Praxishinweis 1/2014, IDW-FN, 2014, S. 282. Peemöller, V.H. (2009): Grundsätze ordnungsmäßiger Unternehmensbewertung, in: Peemöller, V.H. (Hrsg.), Praxishandbuch der Unternehmensbewertung, 4. Auflage, Berlin, S. 29–48. Rapp, D. (2013): „Eigenkapitalkosten“ in der (Sinn-)Krise – ein grundsätzlicher Beitrag zur gegenwärtigen Diskussion, in: Der Betrieb (DB), 66. Jg., 2013, S. 359–362. Rudolph, B. (1983): Zur Bedeutung der kapitaltheoretischen Separationstheoreme für die Investitionsplanung, in: ZfB, Jg. 53, Heft 3/1983, S. 261–287. Schmidt, R. H./Terberger, E. (1997): Grundzüge der Investitions- und Finanzierungstheorie, 4., aktualis. Auflage Nachdr. 2006, Wiesbaden 2006. Schosser, J./Grottke, K. (2013): Nutzengestützte Unternehmensbewertung: Ein Abriss der jüngeren Literatur, in: ZfbF, 65. Jg., 2013, S. 306–341. Wagner, F. W. (2005): Besteuerung, in: Bitz, M. et al. (Hrsg.): Vahlens Kompendium der Betriebswirtschaftslehre, Band 2, 5. Auflage, München, S. 407–477. Wangler, C. (2003): Abfindungsregelungen in Gesellschaftsverträgen: Rechtsgrundlagen – ökonomische Analyse – Steuerliche Einflüsse, 2. Auflage, Bielefeld 2003. Wilhelm, J. (1983): Marktwertmaximierung – ein didaktisch einfacher Zugang zu einem Grundlagenproblem der Investitions- und Finanzierungstheorie, in: ZfB, 53. Jg., 1983, S. 616–534.
Annika Benkert, Gert Heinrich, Claus Jungblut, Jessica Kathage und Robert Mäckle
3 Das Interne Kontrollsystem beim Standardund Notfallbetrieb eines Rechenzentrums 1 Einleitung Themen wie mangelhaftes Risikomanagement, Wirtschaftskriminalität und Korruption werden in der Öffentlichkeit verstärkt diskutiert und scheinen allgegenwärtig zu sein. Aus der deutschen Gesetzgebung lässt sich allerdings bereits seit langer Zeit die Verpflichtung zur Einrichtung und Dokumentation eines Internen Kontrollsystems (IKS) ableiten (Bungartz 2014). Dazu gehören u. a. Anforderungen aus dem HGB, AktG, KontraG, BilMoG, TransPuG und MaRisk von denen im Wesentlichen Aktiengesellschaften, Unternehmen von öffentlichem Interesse sowie mittelgroße und große Kapitalgesellschaften unter bestimmten Voraussetzungen betroffen sind (Paschke 2011). Die Einführung eines wirksamen Internen Kontrollsystems kann in diesem Fall dazu beitragen, die Anerkennung des Vorsteuerabzugs sicher zu stellen und so hohe Kosten als Folge der Abschluss- oder Betriebsprüfung zu verhindern.
1.1 Interne Kontrollsysteme Unter einem IKS werden nach (IDW 2012) die vom Management im Unternehmen eingeführten Grundsätze, Verfahren und Maßnahmen (Regelungen) verstanden, die gerichtet sind auf organisatorische Umsetzung der Entscheidungen des Managements – zur Sicherung der Wirksamkeit und Wirtschaftlichkeit der Geschäftstätigkeit (hierzu gehört auch der Schutz des Vermögens, einschließlich der Verhinderung und Aufdeckung von Vermögensschädigungen), – zur Ordnungsmäßigkeit und Verlässlichkeit der internen und externen Rechnungslegung sowie – zur Einhaltung der für das Unternehmen maßgeblichen rechtlichen Vorschriften. Das IKS besteht aus Regelungen zur Steuerung der Unternehmensaktivitäten und Regelungen zur Überwachung der Einhaltung dieser Regelungen. Diese Regelungen beinhalten sowohl prozessorientierte als auch prozessunabhängige Überwachungsmaßnahmen. Explizit sollte ein IKS aus den in wechselseitiger Beziehung zueinander stehenden Komponenten – Kontrollumfeld – Risikobeurteilungen – Kontrollaktivitäten
42
– –
Annika Benkert, Gert Heinrich, Claus Jungblut, Jessica Kathage und Robert Mäckle
Information und Kommunikation Überwachung des Internen Kontrollsystems
bestehen. Das Kontrollumfeld stellt den Rahmen dar, innerhalb dessen die Grundsätze, Verfahren und Maßnahmen eingeführt und angewendet werden. Durch Risikobeurteilungen werden Risiken erkannt und analysiert. Häufig werden solche Risiken in finanzielle, rechtliche, leistungswirtschaftliche und strategische Risiken eingeteilt. Kontrollaktivitäten sind Grundsätze und Verfahren, die sicherstellen sollen, dass Entscheidungen des Managements beachtet werden. Information und Kommunikation dienen dazu, dass die für die unternehmerischen Entscheidungen des Managements erforderlichen Informationen in geeigneter und zeitgerechter Form eingeholt, aufbereitet und an die zuständigen Stellen im Unternehmen weitergeleitet werden. Unter Überwachung des Internen Kontrollsystems ist die Beurteilung der Wirksamkeit des Internen Kontrollsystems durch Mitarbeiter des Unternehmens zu verstehen. Dabei ist zu beurteilen, ob das Interne Kontrollsystem sowohl angemessen ist als auch kontinuierlich funktioniert.
1.2 Zielsetzung und Vorgehensweise Die Notwendigkeit der Einführung eines wirksamen Internen Kontrollsystems besteht insbesondere beim Betrieb einer eigenen IT-Infrastruktur. Ziel der Arbeit ist es, geeignete Kontrollen zu den Risiken des Rechenzentrumbetriebs für den Standard- sowie Notfallbetrieb zu definieren. Im Rahmen dieser Arbeit werden die wesentlichen Risiken, die aus dem Betrieb eines eigenen Rechenzentrums entstehen, identifiziert, Maßnahmenempfehlungen abgeleitet und im Nachgang Kontrollen definiert. Die Zuordnung der Kontrollen zu den Risiken erfolgt über eine Kreuzreferenztabelle.
2 Risiken des Rechenzentrumbetriebs Die Gefährdungen des Rechenzentrumbetriebs werden vom Bundesamt für Sicherheit in der Informationstechnik (BSI) in vier Kategorien unterteilt (BSI 2014, Baustein B 2.9). Diese vier Kategorien sind – höhere Gewalt (11 Unterpunkte) – organisatorische Mängel (6 Unterpunkte) – technisches Versagen (3 Unterpunkte) und – vorsätzliche Handlungen (7 Unterpunkte). Im Folgenden werden die vier Kategorien samt ihren Unterpunkten detailliert vorgestellt.
Das Interne Kontrollsystem beim Standard- und Notfallbetrieb eines Rechenzentrums
43
2.1 Höhere Gewalt Es folgt eine Beschreibung der 11 Unterpunkte der Kategorie Höhere Gewalt.
Ausfall von IT-Systemen Der Ausfall einer Komponente eines IT-Systems kann zum Ausfall des gesamten ITBetriebs und damit dem Ausfall wichtiger Geschäftsprozesse führen. Insbesondere zentrale Komponenten eines IT-Systems sind Hauptgründe derartiger Ausfälle, z. B. LAN-Server oder Netzkoppelelemente. Auch der Ausfall von einzelnen Komponenten der technischen Infrastruktur, beispielsweise Klima- oder Stromversorgungseinrichtungen, kann zu einem Ausfall des gesamten Informationsverbunds IT-System führen. Werden auf einem IT-System zeitkritische Anwendungen betrieben, sind die Folgeschäden nach einem Systemausfall entsprechend hoch, wenn es keine Ausweichmöglichkeiten gibt (BSI 2014, Gefährdungskatalog G 1.2).
Blitz Während eines möglichen Gewitters stellen Blitze eine Gefährdung für Gebäude und die darin befindliche Informationstechnik dar. Es können Spannungen von mehreren 100 000 Volt mit bis 200 000 Ampère Stärke auftreten. Selbst in Abständen von ca. 2 km zum Einschlagsort können noch Spannungsspitzen zu Schäden bei empfindlichen elektronischen Geräten führen. Schlägt der Blitz direkt in ein Gebäude ein, werden durch die dynamische Energie des Blitzes Schäden hervorgerufen. Dies können Beschädigungen des Baukörpers (Dach und Fassade), Schäden durch auftretende Brände oder Überspannungsschäden an elektrischen Geräten sein (BSI 2014, Gefährdungskatalog G 1.3).
Feuer Feuer kann entweder durch fahrlässigen Umgang (z. B. durch unbeaufsichtigte offene Flammen, Schweiß- und Lötarbeiten) entstehen oder durch unsachgemäße Benutzung elektrischer Geräte. Außerdem können durch einen technischen Defekt an elektrischen Geräten Brände entstehen. Brände können einerseits Gebäude und technische Einrichtungen zerstören. Andererseits können Folgeschäden durch Löschtätigkeiten oder das Zusammenspiel verschiedener Stoffe, die durch einen Brand entstehen, zu einer erheblichen Beschädigung der technischen Einrichtungen führen. Als Folge kann der Rechenzentrumsbetrieb gar nicht oder nur teilweise fortgeführt werden (BSI 2014, Gefährdungskatalog G 1.4).
44
Annika Benkert, Gert Heinrich, Claus Jungblut, Jessica Kathage und Robert Mäckle
Wasser Durch defekte technische Anlagen, bei denen Wasser im Einsatz ist, kann es zu einem unkontrollierten Eintritt von Wasser in Gebäude führen. Ebenso kann es durch externe Faktoren wie z. B. Unwetter, Überschwemmungen usw. zu einem solchen Wassereintritt kommen. Es besteht die Gefahr der Beschädigung oder Zerstörung wichtiger elektrischer Geräte. Dies kann zu einer Einschränkung oder zum kompletten Ausfall des Rechenzentrumbetriebs führen (BSI 2014, Gefährdungskatalog G 1.5).
Kabelbrand Kabel können durch Beflammung oder Selbstentzündung in Brand geraten. Solche Brände können sich auf andere technische Geräte ausbreiten. Es besteht außerdem die Gefahr, dass sich giftige Gase bilden. Durch einen Kabelbrand kann es zu Ausfällen einzelner oder kompletter technischer Einrichtungen kommen (BSI 2014, Gefährdungskatalog G 1.6).
Unzulässige Temperatur und Luftfeuchte Jedes Gerät hat einen Temperaturbereich, innerhalb dessen seine ordnungsgemäße Funktion gewährleistet ist. Überschreitet die Raumtemperatur die Grenzen dieses Bereiches nach oben oder unten, kann es zu Betriebsstörungen und zu Geräteausfällen kommen. Zu Lüftungszwecken werden oft die Fenster des Serverraumes geöffnet. In der Übergangszeit (Frühjahr, Herbst) kann das bei großen Temperaturschwankungen dazu führen, dass durch starke Abkühlung die zulässige Luftfeuchte überschritten wird. Bei der Lagerung von digitalen Langzeitspeichermedien können zu große Temperaturschwankungen oder zu große Luftfeuchtigkeit zu Datenfehlern und reduzierter Speicherdauer führen (BSI 2014, Gefährdungskatalog G 1.7).
Staub, Verschmutzung Durch Arbeiten in Räumen oder Umrüstarbeiten an Hardware kann es zur Staubbildung kommen. Dringt Staub in elektrische Geräte ein, die mechanisch arbeitende Komponenten besitzen, besteht die Gefahr eines Ausfalls der Geräte. Sie stehen dann bis zur Reinigung nicht mehr zur Verfügung (BSI 2014, Gefährdungskatalog G 1.8)
Technische Katastrophen im Umfeld Probleme im Umfeld einer Behörde bzw. eines Unternehmens können zu Schwierigkeiten im Betrieb bis hin zu Arbeitsausfällen führen. Dies können technische Unglücksfälle, Havarien, aber auch gesellschaftliche oder politische Unruhen wie Demonstrationen oder Krawalle sein. Die Liegenschaften einer Organisation können verschiedenen Gefährdungen aus dem Umfeld durch Verkehr (Straßen, Schiene, Luft,
Das Interne Kontrollsystem beim Standard- und Notfallbetrieb eines Rechenzentrums
45
Wasser), Nachbarbetrieben oder Wohngebieten ausgesetzt sein. Diese können beispielsweise durch Brände, Explosionen, Stäube, Gase, Sperrungen, Strahlung, Emissionen (chemische Industrie) verursacht sein (BSI 2014, Gefährdungskatalog G 1.11).
Beeinträchtigung durch Großveranstaltungen Großveranstaltungen aller Art können zu Behinderungen des ordnungsgemäßen Betriebs einer Behörde bzw. eines Unternehmens führen. Hierzu gehören u. a. Straßenfeste, Konzerte, Sportveranstaltungen, Arbeitskämpfe oder Demonstrationen. Ausschreitungen im Umfeld solcher Veranstaltungen können zusätzlich Auswirkungen von Einschüchterung bis hin zur Gewaltanwendung gegen das Personal oder das Gebäude nach sich ziehen (BSI 2014, Gefährdungskatalog G 1.12).
Sturm Die Auswirkungen eines Sturms oder Orkans auf Außeneinrichtungen, die zum Betrieb eines Rechenzentrums mittelbar benötigt werden, werden häufig unterschätzt. Außeneinrichtungen können hierdurch beschädigt oder abgerissen werden. Abgerissene und vom Sturm fortgeschleuderte Gegenstände können weitere Folgeschäden verursachen. Weiterhin können dadurch technische Komponenten in ihrer Funktion beeinträchtigt werden (BSI 2014, Gefährdungskatalog G 1.13).
Ausfall von Patchfeldern durch Brand Patchfelder und Leitungsverteiler, auf die die internen Leitungen des Hausnetzes und die externen des öffentlichen Netzes auflaufen, können durch einen Brand so stark beschädigt werden, dass eine reibungslose Datenübertragung darüber nicht mehr möglich ist. Der Schaden wird nicht ausschließlich durch die Hitze des Feuers verursacht, allein schon der Brandrauch kann die empfindliche Anschlusstechnik massiv beschädigen. Der Einsatz von Löschmitteln (Wasser, Pulver, Schaum) führt zu weiteren Schäden. Nach einem solchen Schadensereignis ist es dann in der Regel nicht mehr möglich, bereitstehende Ersatz-Hardware einfach an derart beschädigte Patchfelder bzw. Leitungsverteiler anzuschließen, um so zumindest einen Notbetrieb rasch wieder aufnehmen zu können. Im Allgemeinen sind sehr umfangreiche, kosten- und zeitintensive Reparaturarbeiten erforderlich, die mit einem längeren Ausfall der IT einhergehen werden (BSI 2014, Gefährdungskatalog G 1.16).
46
Annika Benkert, Gert Heinrich, Claus Jungblut, Jessica Kathage und Robert Mäckle
2.2 Organisatorische Mängel Es folgt eine Beschreibung der 6 Unterpunkte der Kategorie Organisatorische Mängel.
Fehlende oder unzureichende Regelungen Übergreifende Regelungen und Vorgaben werden für die Informationssicherheit immer wichtiger. Hierbei geht es um Regelungen über Verantwortlichkeiten bis hin zu Kontrollinstanzen. Sind die Regelungen und Vorgaben nicht genau formuliert oder nicht auf dem aktuellen Stand, kann dies zur Einschränkung des Rechenzentrumbetriebs führen. Es kann beispielsweise zu Wartezeiten in Prozessen kommen oder Sicherheitsmechanismen funktionieren nicht, da keine Wartung durchgeführt wurde (BSI 2014, Gefährdungskatalog G 2.1).
Unzureichende Kenntnis über Regelungen Die Festlegung von Regelungen allein sichert noch nicht deren Beachtung und einen störungsfreien Betrieb. Allen Mitarbeiter müssen die geltenden Regelungen auch bekannt sein, vor allem den Funktionsträgern. Ein Schaden darf nicht dadurch entstehen, dass bestehende Regelungen unbekannt sind (BSI 2014, Gefährdungskatalog G 2.2).
Unzureichende Kontrolle der Sicherheitsmaßnahmen Nach der Einführung von Maßnahmen, die der Sicherheit der Informationsverarbeitung dienen (z. B. Klassifizierung von Informationen, Datensicherung, Zutrittskontrolle, Vorgaben für Verhalten bei Notfällen), müssen diese auch konsequent umgesetzt werden. Finden keine oder nur unzureichende Kontrollen der Sicherheitsmaßnahmen statt, wird weder deren Missachtung noch ihre effektive Wirksamkeit festgestellt. Eine rechtzeitige und der jeweiligen Situation angemessene Reaktion wird dadurch verhindert. Darüber hinaus gibt es Sicherheitsmaßnahmen, die nur mit der Durchführung entsprechender Kontrollen ihre Wirkung entfalten. Hierzu zählen beispielsweise Protokollierungsfunktionen, deren Sicherheitseigenschaften erst mit der Auswertung der Protokolldaten zum Tragen kommen (BSI 2014, Gefährdungskatalog G 2.4).
Unbefugter Zutritt zu schutzbedürftigen Räumen In schutzbedürftigen Räumen kann durch Zutritt von unbefugten Personen vorsätzlich aber auch unbeabsichtigt Schaden entstehen. Eindringlinge könnten durch vorsätzliche Handlungen (z. B. Vandalismus oder Manipulationen) oder durch unbeabsichtigtes Fehlverhalten (z. B. auf Grund fehlender Fachkenntnisse) Schäden verursachen. Selbst wenn keine unmittelbaren Schäden erkennbar sind, kann der Betriebsablauf
Das Interne Kontrollsystem beim Standard- und Notfallbetrieb eines Rechenzentrums
47
schon dadurch gestört werden, falls untersucht werden muss, wie ein solcher Vorfall möglich war oder ob Schäden aufgetreten sind oder Manipulationen vorgenommen wurden. Nicht nur Räume auf dem Betriebsgelände müssen vor unbefugtem Zutritt geschützt werden, sondern auch dienstlich genutzte Räume im häuslichen Umfeld (BSI 2014, Gefährdungskatalog G 2.6).
Unzureichende Trassendimensionierung Kapazitive, funktionale oder sicherheitstechnische Auslegungen können nur nach dem aktuellen Bedarf ausgerichtet sein und berücksichtigen keine zukünftigen Anforderungen. Es besteht also das Risiko, dass die Auslegung nicht ausreichend ist und das gesamte IT System teilweise oder komplett kollabiert, da es den Anforderungen nicht mehr gewachsen ist (BSI 2014, Gefährdungskatalog G 2.11).
Unzureichende Dokumentation der Verkabelung Ist die Verkabelung in einem Gebäude nicht ausreichend dokumentiert, kann es bei anfallenden Bauarbeiten zu Beschädigungen von Leitungen kommen. Hierbei kann es zu längeren Ausfallzeiten oder unter Umständen zu lebensbedrohenden Gefahren wie z. B. Stromschlag kommen (BSI 2014, Gefährdungskatalog G 2.12).
2.3 Technisches Versagen Es folgt eine Beschreibung der 3 Unterpunkte der Kategorie Technisches Versagen.
Ausfall der Stromversorgung Trotz hoher Versorgungssicherheit kann es immer wieder zu Ausfällen der Stromversorgung kommen. Diese können den IT-Betrieb stören. Darüber hinaus sind heutzutage alle Infrastruktureinrichtungen indirekt vom Strom abhängig. Die Liberalisierung des Strommarktes führte in einigen Industrieländern zu einer Verschlechterung des Versorgungsniveaus. Auch in Deutschland könnte daher die Gefahr wachsen, dass Probleme durch Ausfälle der Stromversorgung oder durch Schaltvorgänge an nationalen Versorgungsübergängen entstehen (BSI 2014, Gefährdungskatalog G 4.1).
Ausfall interner Versorgungsnetze Der Ausfall von internen Versorgungsnetzen wie Strom, Telefon und Kühlung kann eine Vielzahl von Aufgaben beeinträchtigen. Ein solcher Ausfall kann aber auch zu einer sofortigen Störung des IT-Betriebs führen. Demgegenüber kann es bei Ausfall in den Bereichen Heizung, Lüftung, Wasser, Löschwasserspeisungen, Abwasser, Rohr-
48
Annika Benkert, Gert Heinrich, Claus Jungblut, Jessica Kathage und Robert Mäckle
post, Gas, Melde- und Steueranlagen (Einbruch, Brand, Hausleittechnik) und Sprechanlagen unter Umständen zu zeitverzögerten Störungen kommen. Die Netze sind in unterschiedlich starker Weise voneinander abhängig, so dass sich Betriebsstörungen in jedem einzelnen Netz auch auf andere auswirken können (BSI 2014, Gefährdungskatalog G 4.2).
Ausfall vorhandener Sicherungseinrichtungen Durch technische Defekte oder äußere Einflüsse wie z. B. Alterung, Fehlbedienung, mangelhafter Wartung, Manipulation, Stromausfall kann es zum Ausfall von Sicherungseinrichtungen kommen. Dies kann ihre Schutzwirkung erheblich herabsetzen oder komplett aufheben (BSI 2014, Gefährdungskatalog G 4.3).
2.4 Vorsätzliche Handlungen Es folgt eine Beschreibung der 7 Unterpunkte der Kategorie Vorsätzliche Handlungen.
Unbefugtes Eindringen in ein Gebäude Wenn Unbefugte in ein Gebäude oder einzelne Räumlichkeiten eindringen, kann dies verschiedene Sicherheitsgefährdungen nach sich ziehen. Dazu gehören beispielsweise Diebstahl oder Manipulation von Informationen oder IT-Systemen. Maßnahmen, die dagegen gerichtet sind, wirken dadurch auch gegen die entsprechenden Folgegefährdungen. Bei qualifizierten Angriffen versierter Täter ist die Zeitdauer entscheidend, in der die Täter ungestört ihr Ziel verfolgen können. Ziel eines Einbruchs kann der Diebstahl von IT-Komponenten oder anderer leicht veräußerbarer Ware sein, aber auch das Kopieren oder die Manipulation von Daten oder IT-Systemen. Dabei können nicht offensichtliche Manipulationen weit höhere Schäden verursachen als direkte Zerstörungsakte. Schon durch das unbefugte Eindringen können Sachschäden entstehen. Fenster und Türen werden gewaltsam geöffnet und dabei beschädigt, sie müssen repariert oder ersetzt werden (BSI 2014, Gefährdungskatalog G 5.3).
Diebstahl Durch den Diebstahl von Datenträgern, IT-Systemen, Zubehör, Software oder Daten entstehen einerseits Kosten für die Wiederbeschaffung sowie für die Wiederherstellung eines arbeitsfähigen Zustandes, andererseits Verluste aufgrund mangelnder Verfügbarkeit. Darüber hinaus können Schäden durch einen Vertraulichkeitsverlust und daraus resultierenden Konsequenzen entstehen. Von Diebstählen sind neben teuren IT-Systemen wie Servern auch mobile IT-Systeme, die unauffällig und leicht zu transportieren sind, häufig betroffen (BSI 2014, Gefährdungskatalog G 5.4).
Das Interne Kontrollsystem beim Standard- und Notfallbetrieb eines Rechenzentrums
49
Vandalismus Da dem Vandalismus im Gegensatz zu einem Anschlag keine zielgerichtete Motivation zugrunde liegt, ist die Gefährdung durch Vandalismus schwer abschätzbar. Vandalismus ist meistens ein Ausdruck spontaner und blinder Zerstörungswut sowohl durch Außentäter wie bspw. Einbrecher als auch durch Innentäter wie bspw. frustrierte Mitarbeiter. Auslöser für Vandalismus können Meinungsverschiedenheiten, persönliche Probleme, Mobbing oder ein schlechtes Betriebsklima sein (BSI 2014, Gefährdungskatalog G 5.5).
Anschlag Die technischen Möglichkeiten, einen Anschlag zu verüben, sind vielfältig: geworfene Ziegelsteine, Explosion durch Sprengstoff, Schusswaffengebrauch, Brandstiftung. Ob und in welchem Umfang eine Institution der Gefahr eines Anschlages ausgesetzt ist, hängt neben der Lage und dem Umfeld des Gebäudes stark von ihren Aufgaben und vom politisch-sozialen Klima ab. Unternehmen und Behörden, die in politisch kontrovers diskutierten Bereichen agieren, sind stärker bedroht als andere. Institutionen in der Nähe üblicher Demonstrationsaufmarschgebiete sind stärker gefährdet als solche in abgelegenen Orten. Für die Einschätzung der Gefährdung oder bei Verdacht auf Bedrohungen durch politisch motivierte Anschläge können in Deutschland die Landeskriminalämter oder das Bundeskriminalamt beratend hinzugezogen werden. Für Archive ist bei dieser Einschätzung als besonderer Umstand zu berücksichtigen, dass darin eine große Anzahl von Dokumenten und Daten auf vergleichsweise kleinem Raum gespeichert wird. Deren Vernichtung kann weitreichende Auswirkungen haben, nicht nur auf die speichernde Stelle, sondern auch auf andere Benutzer. Beispielsweise kann es in einem solchen Fall notwendig werden, die vernichteten Informationen mit großem Aufwand neu zu ermitteln und zu erfassen. Unter Umständen sind bestimmte Informationen sogar unwiederbringlich verloren. Anschläge auf papiergebundene und elektronische Archive können daher erhebliche Schäden verursachen (BSI 2014, Gefährdungskatalog G 5.6).
Gefährdung bei Wartungs- und Administrierungsarbeiten IT-Systeme können bei einer Wartung manipuliert werden, ohne dass es dem Eigentümer sofort auffällt. Da meistens auch der Zugriff auf die Daten auf dem System möglich ist, könnten diese bei der Wartung gestohlen oder manipuliert werden, bspw. durch externe Wartungstechniker. Aber auch internes Personal kann Schäden verursachen, wenn bspw. durch unerlaubte Berechtigungsänderungen oder durch die Aktivierung weiterer Leistungsmerkmale Systemabstürze verursacht werden. Sind Regel- und Alarmtechniken oder Gefahrenmeldeanlagen zeitweise deaktiviert, bspw. für die Wartung, existiert in dieser Zeit ein erhöhtes Gefährdungspotential (BSI 2014, Gefährdungskatalog G 5.16).
50
Annika Benkert, Gert Heinrich, Claus Jungblut, Jessica Kathage und Robert Mäckle
Unberechtigter Zugang zu aktiven Netzkomponenten Aktive Netzkomponenten haben üblicherweise eine serielle Schnittstelle, an die von außen ein Terminal oder ein tragbarer PC angeschlossen werden kann. Dadurch ist es möglich, aktive Netzkomponenten auch lokal zu administrieren. Bei unzureichend gesicherten Schnittstellen ist es denkbar, dass Angreifer einen unberechtigten Zugang zur Netzkomponente erlangen. Sie können somit nach Überwindung der lokalen Sicherheitsmechanismen (z. B. des Passwortes) ggf. alle Administrationstätigkeiten ausüben. Dabei können durch das Auslesen der Konfiguration aktiver Netzkomponenten ggf. schutzbedürftige Informationen über die Topologie, die Sicherheitsmechanismen und die Nutzung eines Netzes in Erfahrung gebracht werden (BSI 2014, Gefährdungskatalog G 5.68).
Sabotage Sabotage bezeichnet die mutwillige Manipulation und Beschädigung mit dem Ziel, Schaden zu verursachen. Rechenzentren und Kommunikationsanbindungen stellen dafür attraktive Ziele dar, weil mit geringen Mitteln ein hoher Schaden erzeugt werden kann. So kann durch die Beeinflussung einzelner wichtiger Komponenten eine Störung des Betriebs erzielt werden. Besonders bedroht sind neben nicht ausreichend geschützter Infrastruktur auch zentrale Versorgungspunkte (BSI 2014, Gefährdungskatalog G 5.102).
3 Interne Kontrollen beim Rechenzentrumbetrieb Im folgenden Abschnitt wird auf die in Kapitel 2 identifizierten Risiken eingegangen. Es werden Handlungsempfehlungen gegeben, die in Form von Maßnahmen die jeweiligen Risiken mindern sollen. Um im Zuge eines Internen Kontrollsystems die Einhaltung dieser Maßnahmen zu überprüfen, werden darüber hinaus Kontrollen definiert. Die Darstellung der Kontrollen erfolgt in tabellarischer Form: Tab.1: Darstellung der internen Kontrollen Kontroll-ID Kontrollziel
Maßnahme
Kontrollaktivität
Typ
Nr.
Maßnahmenempfehlung
Aktivität zur Überprüfung der Einhaltung der Maßnahme
p, d, m, a
Ziel der Kontrolle
Quelle: Eigene Darstellung.
Der Typ der Kontrolle wird unterschieden nach präventiven (p), detektiven (d), aufdeckenden sowie manuellen (m) und automatischen (a) Kontrollen.
Das Interne Kontrollsystem beim Standard- und Notfallbetrieb eines Rechenzentrums
51
Nutzt ein Unternehmen eine IT-gestützte Rechnungslegung innerhalb seines Rechnungszentrums, so sind in diesem Zusammenhang auch die Sicherheits- und Ordnungsmäßigkeitsanforderungen des IDW RS FAIT 1 zu beachten (IDW 2002). Die Sicherheitsanforderungen umfassen: Vertraulichkeit, Integrität, Verfügbarkeit, Autorisierung, Authentizität und Verbindlichkeit. Darüber hinaus müssen die Grundsätze ordnungsgemäßer Buchführung bei ITgestützter Rechnungslegung erfüllt werden, indem die Einhaltung der Ordnungsmäßigkeitskriterien bei der Erfassung, Verarbeitung, Ausgabe und Aufbewahrung der rechnungslegungsrelevanten Daten sichergestellt wird.
3.1 Kontrollen für den Standardbetrieb Kontrolle 01: Angepasste Aufteilung der Stromkreise Bei Änderungen in der Raumnutzung oder der technischen Ausrüstung ist es notwendig, die Elektroinstallation zu prüfen und bei Bedarf anzupassen (BSI 2014, Maßnahmenkatalog M 1.3). Tab.2: Kontroll-ID 01: Angepasste Aufteilung der Stromkreise Kontroll-ID Kontrollziel 01
Maßnahme
Kontrollaktivität
Typ
Es liegt eine Regelmäßige Prüfung und Überprüfung, ob regelmäßig d, m angepasste Anpassung der Elektroins- ein Review der ElektroinstalAufteilung der tallation. lation durchgeführt wird. Stromkreise vor.
Quelle: Eigene Darstellung.
Kontrolle 02: Handfeuerlöscher Handfeuerlöscher dienen der Sofortbekämpfung von Bränden. Sie entstehen oftmals aus kleinen, zu Beginn noch gut beherrschbaren Brandherden, können sich jedoch schnell ausbreiten. Sie müssen in ausreichender Zahl und Größe zur Verfügung stehen. Darüber hinaus müssen eine regelmäßige Inspektion, Wartung und Einweisung der Mitarbeiter sichergestellt werden (BSI 2014, Maßnahmenkatalog M 1.7).
52
Annika Benkert, Gert Heinrich, Claus Jungblut, Jessica Kathage und Robert Mäckle
Tab.3: Kontroll-ID 02: Handfeuerlöscher Kontroll-ID Kontrollziele
Maßnahmen
Kontrollaktivitäten
Typ
02
Handfeuerlöscher sind in ausreichender Zahl und Größe vorhanden und im Brandfall leicht erreichbar.
In Abstimmung mit der örtlichen Feuerwehr werden Handfeuerlöscher im Gebäude platziert.
Regelmäßige Überprüfung, ob die Zahl, Größe und Erreichbarkeit der Handfeuerlöscher den aktuellen Anforderungen entspricht.
d, m
Die Funktion der Handfeuerlöscher wird sichergestellt.
Es werden regelmäßige Inspektionen und Wartungen der Handfeuerlöscher durchgeführt.
Regelmäßige Überprüfung der d, m Instandhaltungsnachweise im Hinblick auf die regelmäßige Durchführung von Inspektionen und Wartungen an Handfeuerlöschern.
Alle Mitarbeiter sind im Umgang mit Handfeuerlöschern geschult.
Durchführung von Schulungen zum Umgang mit Handfeuerlöschern.
Sicherstellung von Einweip, m sungen der Mitarbeiter in die Nutzung von Handfeuerlöschern z. B. in Form einer Richtlinie. Überprüfung, ob Mitarbeiter in d, m die Benutzung von Handfeuerlöschern eingewiesen werden.
Quelle: Eigene Darstellung.
Kontrolle 03: Sichere Türen und Fenster Stellen Türen und Fenster einen Übergang zwischen Sicherheitszonen dar, so müssen diese geschützt werden. Dies dient zum einem dem Schutz vor unbefugtem Eindringen z. B. durch Einbrüche und zum anderen der Begrenzung von Brandabschnitten (BSI 2014, Maßnahmenkatalog M 1.10). Tab.4: Kontroll-ID 03: Sichere Türen und Fenster Kontroll-ID Kontrollziel
Maßnahmen
Kontrollaktivitäten
03
Sicherung schutzbedürftiger Zonen durch angemessene Türen und Fenster.
Sicherstellung, dass schutzbedürfd, m tige Zonen angemessen geschützt p, m sind z. B. in Form einer Richtlinie oder Angaben in Gebäudeplänen sowie durch Überprüfung der Einhaltung.
Die Sicherungsmaßnahmen durch Fenster und Türen sind angemessen.
Typ
Es werden regelmä- Sichtung der Nachweise zur Überprü- d, m ßige Überprüfungen fung der Funktionstüchtigkeit. der Funktionstüchtigkeit durchgeführt. Quelle: Eigene Darstellung.
Das Interne Kontrollsystem beim Standard- und Notfallbetrieb eines Rechenzentrums
53
Kontrolle 04: Vermeidung von Lagehinweisen auf schützenswerte Gebäudeteile Schützenswerte Gebäudeteile, wie z. B. Serverraum und Rechenzentrum sollten keinen Hinweis auf ihre Nutzung tragen, da dies potentiellen Angreifen zu Gunsten kommen kann. Ist dies unvermeidbar, so sollte sichergestellt sein, dass diese Informationen von Fremden von außen nicht leicht einsehbar sind (BSI 2014, Maßnahmenkatalog M 1.12). Tab.5: Kontroll-ID 04: Vermeidung von Lagehinweisen auf schützenswerte Gebäudeteile Kontroll-ID Kontrollziel
Maßnahme
Kontrollaktivität
04
Lagehinweise auf schützenswerte Bereiche werden vermieden oder sichergestellt, so dass diese nicht von außen einsehbar sind.
Sicherstellung, dass keine d, m Lagehinweise auf schützens- p, m werte Bereiche verwendet werden oder diese zumindest nicht von außen einsehbar sind.
Potentielle Angreifer haben keine Kenntnis über die Lage schützenswerter Bereiche.
Typ
Quelle: Eigene Darstellung.
Kontrolle 05: Anordnung schützenswerter Gebäudeteile Es sollte sichergestellt sein, dass schützenswerte Gebäudeteile nicht exponiert oder in besonders gefährdeten Bereichen untergebracht sein. Generell ist es ratsam, diese eher im Zentrum eines Gebäudes unterzubringen, als in dessen Außenbereich. Ist dies nicht möglich, so muss es explizit in einem Sicherheitskonzept dokumentiert und Maßnahmen ergriffen werden, um der Gefährdung entgegen zu wirken. Deshalb richtet sich die folgende Kontrolle an schützenswerte Räume in exponierter Lage (BSI 2014, Maßnahmenkatalog M 1.13). Tab.6: Kontroll-ID 05: Anordnung schützenswerter Gebäudeteile Kontroll-ID Kontrollziel
Maßnahmen
Kontrollaktivitäten
Typ
05
Schützenswerte Räume in exponierter Lage sind in einem Sicherheitskonzept dokumentiert.
Sichtung des Sicherheitskonzeptes im Hinblick auf Aktualität und Vollständigkeit.
p, m
Es werden Maßnahmen Überprüfung der Maßergriffen, um schützenswerte nahmen. Räume in exponierter Lage zu sichern.
d, m
Schützenswerte Räume in exponierter Lage sind ausreichend geschützt.
Quelle: Eigene Darstellung.
54
Annika Benkert, Gert Heinrich, Claus Jungblut, Jessica Kathage und Robert Mäckle
Kontrolle 06: Gefahrenmeldeanlage Zumindest die Kernbereiche der IT sollten in die Überwachung durch eine Gefahrenmeldeanlage eingebunden werden. Dies umfasst z. B. Gefahrenmeldungen für Einbruch, Brand, Wasser oder auch Gas. Es sollte ein Konzept für die Gefahrenerkennung, Weiterleitung und Alarmierung für die verschiedenen Gebäudebereiche erstellt und regelmäßig bei Veränderungen angepasst werden. Darüber hinaus sollten regelmäßige Wartungen und Funktionsprüfungen durchgeführt werden (BSI 2014, Maßnahmenkatalog M 1.18). Tab.7: Kontroll-ID 06: Gefahrenmeldeanlage Kontroll-ID Kontrollziele
Maßnahmen
Kontrollaktivitäten
06
Einbindung des Rechenzentrums in die Überwachung durch eine Gefahrenmeldeanlage, Erstellung eines Konzeptes zur Gefahrenerkennung.
Überprüfung des Kon- p, m zeptes zur Gefahrenerkennung im Hinblick auf Aktualität und Vollständigkeit.
Regelmäßige Wartung und Funktionsprüfung der Gefahrenmeldeanlage.
Sichtung der Nachd, m weise zur Wartung und Funktionsprüfung.
Regelmäßige Prüfung der Dokumentationen von Gefahrenmeldungen und den Reaktionen.
Prüfung der Dokumen- d, m tationen einschließlich einer Funktionsprüfung.
Das Rechenzentrum wird von einer Gefahrenmeldeanlage überwacht.
Die Empfänger von Gefahrenmeldungen sind in der Lage, auf Alarmmeldungen angemessen zu reagieren.
Typ
Quelle: Eigene Darstellung.
Kontrolle 07: Vermeidung von wasserführenden Leitungen Wasserführende Leitungen aller Art sollten in einem Rechenzentrum vermieden werden. Wenn unbedingt erforderlich, sollte es sich lediglich um Kühlwasserleitungen, Löschwasserleitungen und Heizungsrohre handeln. Heizkörper sollten darüber hinaus mit Absperrventilen versehen sein, die außerhalb der Heizperiode zu schließen sind. Ist es nicht möglich, wasserführende Leitungen in einem Rechenzentrum zu vermeiden, so sind Vorkehrungen zur Überwachung oder Vorkehrungen, um negative Auswirkungen zu minimieren, zu treffen (BSI 2014, Maßnahmenkatalog M 1.24).
Das Interne Kontrollsystem beim Standard- und Notfallbetrieb eines Rechenzentrums
55
Tab.8: Kontroll-ID 07: Vermeidung von wasserführenden Leitungen Kontroll-ID Kontrollziel
Maßnahmen
Kontrollaktivitäten
07
Wasserführende Leitungen werden im Rechenzentrum vermieden oder es handelt sich lediglich um Kühl- oder Löschwasserleitungen oder Heizungsrohre.
Überprüfung der d, m Leitungspläne auf ihre Aktualität und Vollständigkeit sowie Einhaltung der Maßnahme.
Treffen von Maßnahmen, um im Notfall einen Wasseraustritt frühzeitig erkennen und lokalisieren zu können.
Überprüfung der Maßnahmen auf ihre Funktionstüchtigkeit.
Durchführung regelmäßiger Kontrollen zur Dichtigkeit.
Regelmäßige Sichtkont- d, m rollen der Wasserleitun- p, m gen in Bezug auf ihre Dichtigkeit.
Erstellung von Reaktionsplänen, die zielgerichtete Handlungen bei Meldungen von Wasserleckagen vorgeben.
Sichtung der Reaktionspläne im Hinblick auf ihre Aktualität und Vollständigkeit.
Gefahren durch wasserführende Leitungen im Rechenzentrum werden minimiert.
Typ
d, m p, m
d, m p, m
Quelle: Eigene Darstellung.
Kontrolle 08: Überspannungsschutz In elektrisch leitenden Netzen kann es jederzeit zu Überspannungen kommen. Diese werden meist durch andere Stromverbraucher im gleichen Versorgungsnetz verursacht, aber auch durch Blitzeinschlag. Deshalb sollte ein Überspannungsschutzkonzept erstellt werden. Des Weiteren sollte ein Blitzschutzsystem und eine Überspannungsschutzeinrichtung aufgebaut werden. Neben dem Überspannungsschutz auf allen elektrisch leitenden Systemen müssen in Serverräumen und den Kerneinheiten eines Rechenzentrums Maßnahmen gegen elektrostatische Aufladung getroffen werden. Die energetische Koordination sollte berücksichtigt werden (BSI 2014, Maßnahmenkatalog M 1.25).
56
Annika Benkert, Gert Heinrich, Claus Jungblut, Jessica Kathage und Robert Mäckle
Tab.9: Kontroll-ID 08: Überspannungsschutz Kontroll-ID Kontrollziele
Maßnahmen
Kontrollaktivitäten
Typ
08
Energetische Koordination der Überspannungsschutzeinrichtungen ist nachgewiesen.
Einzelfallprüfung durch einen Überprüfung der Fachprüfer oder Computersi- Dokumentation. mulation mittels Nährungsverfahren.
Die Blitz- und Überspannungsschutzeinrichtungen sind funktionstüchtig.
Regelmäßige Überprüfung Sichtung der Nachd, m der Blitz- und Überspanweise zur Überprüfung nungsschutzeinrichtungen und ggf. der Wartung. nach bekannten Ereignissen.
p, m
Quelle: Eigene Darstellung.
Kontrolle 09: Not-Aus-Schalter Mit Betätigung des Not-Aus-Schalters wird einem Brand eine wesentliche Energiequelle genommen, was bei kleinen oder beginnenden Bränden zum Verlöschen führen kann. Zumindest ist aber die Gefahr durch elektrische Spannungen beim Löschen des Feuers beseitigt. Zu beachten ist, dass unterbrechungsfreie Stromversorgungen (USV) nach Ausschalten der externen Stromversorgung die Stromversorgung selbsttätig übernehmen und die angeschlossenen Geräte unter Spannung bleiben. Daher ist bei der Installation eines Not-Aus-Schalters zu beachten, dass auch die USV ausgeschaltet wird (BSI 2014, Maßnahmenkatalog M 1.26). Tab.10: Kontroll-ID 09: Not-Aus-Schalter Kontroll-ID Kontrollziele 09
Maßnahmen
Alle Technik- und IT-Räume, für Technik- und IT-Räume die ein Not-Aus-Schalter sinnwerden regelmäßig auf voll ist, sind damit ausgestattet. den Nutzen eines NotAus-Schalters überprüft.
Kontrollaktivitäten Typ Sichtung der Nachweise zur Überprüfung und Installation.
d, m
Bei der Installation eines NotAus-Schalters wird berücksichtigt, dass bei seiner Betätigung nicht nur die externe Energieversorgung, sondern auch die USV ausgeschaltet wird.
Überprüfung des Schalt- Funktionsüberprü- p, m plans. fung.
Alle Not-Aus-Schalter sind gegen unbeabsichtigte Betätigung geschützt.
Überprüfung des Funktionsüberprü- p, m Berechtigungskonzepts. fung.
Quelle: Eigene Darstellung.
Das Interne Kontrollsystem beim Standard- und Notfallbetrieb eines Rechenzentrums
57
Kontrolle 10: Klimatisierung Um IT-Geräte dauerhaft zuverlässig betreiben zu können ist eine Klimatisierung notwendig, welche die Lufttemperatur, die Luftfeuchtigkeit, den Frischluftanteil und die Schwebstoffbelastung, regelt. Die ausgewählte Technik zur Klimatisierung ist auf eine mögliche Stromunterbrechung zu prüfen (BSI 2014, Maßnahmenkatalog M 1.27). Tab.11: Kontroll-ID 10: Klimatisierung Kontroll-ID Kontrollziele 10
Maßnahmen
Die Funktion der Klimage- Es werden regelmäräte ist sichergestellt. ßige Inspektionen und Wartungen der Klimageräte durchgeführt.
Die zulässigen Höchstund Tiefstwerte werden eingehalten.
Kontrollaktivitäten
Typ
Regelmäßige Überprüfung d, m der Instandhaltungsnachweise im Hinblick auf die regelmäßige Durchführung von Inspektionen und Wartungen an den Klimageräten.
Die Höchst- und Regelmäßige Überprüfung Tiefstwerte werden der Dokumentation. regelmäßig überprüft und aktualisiert.
p, m
Die Werte von Lufttempe- Überprüfung, ob die Regelmäßige Überprüfung ratur und -feuchte können geforderte Funktiona- der Dokumentation und bei Bedarf für einen lität gegeben ist. Aufzeichnungen. definierten Zeitraum in vorgegeben Schritten aufgezeichnet und dokumentiert werden.
p, m
Quelle: Eigene Darstellung.
Kontrolle 11: Fernanzeige von Störungen IT- und Supportgeräte, die keine oder nur seltene Bedienung durch Personen erfordern, sollten mit einer Fernanzeige ausgestattet sein, um Störungen rechtzeitig erkennen zu können (BSI 2014, Maßnahmenkatalog M 1.31). Tab.12: Kontroll-ID 11: Fernanzeige von Störungen Kontroll-ID Kontrollziel
Maßnahme
Kontrollaktivität
Typ
11
Es wird regelmäßig überprüft, welche Geräte eine Fernanzeige von Störungen benötigen.
Regelmäßige Überprüfung der Dokumentation.
p, m
Es existiert eine Fernanzeige von Störungen für schutzbedürftige IT -Geräte und Supportsysteme ohne unmittelbare Überwachung durch Personen.
Quelle: Eigene Darstellung.
58
Annika Benkert, Gert Heinrich, Claus Jungblut, Jessica Kathage und Robert Mäckle
Kontrolle 12: Eigener Brandabschnitt Für Rechenzentren sollte eine Einteilung in Brandabschnitte erfolgen. Für die Brandabschnitte sollten geeignete Brandwände, -Türen und -Decken eingebaut werden. Schutzziel sollte nicht nur der Personen- und Gebäudeschutz sein, sondern auch der Schutz des Inventars und dessen Verfügbarkeit (BSI 2014, Maßnahmenkatalog M 1.47). Tab.13: Kontroll-ID 12: Eigener Brandabschnitt Kontroll-ID Kontrollziel
Maßnahme
Kontrollaktivität
12
In Abstimmung mit der örtlichen Feuerwehr werden die Räumlichkeiten in sinnvolle Brandabschnitte eingeteilt.
Regelmäßige Überprüfung, d, m ob die Räumlichkeiten erweitert wurden und in sinnvolle Brandabschnitte eingeteilt worden sind.
Die Räumlichkeiten sind in sinnvolle Brandabschnitte unterteilt.
Typ
Quelle: Eigene Darstellung.
Kontrolle 13: Brandmeldeanlage im Rechenzentrum In einem Rechenzentrum ist, neben der Aufstellung einer speziell auf den IT-Bereich zugeschnittenen Brandschutzordnung sowie von Alarm- und Einsatzplänen, die Installation einer Brandmeldeanlage von größter Wichtigkeit. Für die Überwachung der IT-Bereiche ist mindestens dann, wenn ein sehr hoher Schutzbedarf in Bezug auf Verfügbarkeit festgestellt wird zusätzlich zu den Meldern an Decke und gegebenenfalls im Doppelboden eine Anlage zur Brandfrühesterkennung empfehlenswert. Die Identifikation des auslösenden Melders muss möglich sein. Zur Lokalisierung des Brandherdes und der Brandausbreitung ist diese Identifikation der Brandmelder ein besonders wichtiges Hilfsmittel. Alle Meldungen der Brandmeldeanlage und auch Störmeldungen sollten auf einer ständig besetzten Stelle, z. B. der Pförtnerloge, auflaufen. Nach Tab.14: Kontroll-ID 13: Brandmeldeanlage im Rechenzentrum Kontroll-ID Kontrollziel
Maßnahmen
Kontrollaktivitäten
Typ
13
In Abstimmung mit der örtlichen Feuerwehr wird eine Brandmeldeanlage inklusive einer Brandfrühesterkennungsanlage installiert und ein entsprechendes Konzept erstellt.
Überprüfung des Konzeptes zur Brandmeldeanlage im Hinblick auf Aktualität und Vollständigkeit.
p, m
Regelmäßige Wartung und Funktionsprüfung der Brandmeldeanlage.
Sichtung der Nachd, m weise zur Wartung und p, m Funktionsprüfung.
Das Rechenzentrum wird von einer Brandmeldeanlage überwacht.
Quelle: Eigene Darstellung.
Das Interne Kontrollsystem beim Standard- und Notfallbetrieb eines Rechenzentrums
59
Möglichkeit sollte eine direkte Aufschaltung zur Berufsfeuerwehr erfolgen. Durch die Aufschaltebedingungen der Berufsfeuerwehr werden die weiteren Rahmenbedingungen zum Betrieb der BMA vorgegeben (BSI 2014, Maßnahmenkatalog M 1.48).
Kontrolle 14: Rauchschutz Rauch stellt bei Bränden die größte Personengefährdung dar. Daher ist auf einen umfassenden Rauchschutz Wert zu legen. Deshalb sollten Brandschutztüren Rauchschutzqualität aufweisen. Die Lüftungsanlage bzw. die Klimaanlage sollte eine Entrauchung von IT-Räumen gestatten. In der Frischluftansaugung sollten Melder installiert sein, die diese automatisch sperren, wenn Störgrößen (Rauch) erkannt werden. Die Mitarbeiter müssen darüber unterrichtet werden, welche Warnsignale die Rauchschutz-Komponenten haben und wie sie darauf zu reagieren haben. Die Funktionsfähigkeit aller Rauchschutz-Komponenten muss regelmäßig überprüft werden (BSI 2014, Maßnahmenkatalog M 1.50). Tab.15: Kontroll-ID 14: Rauchschutz Kontroll-ID Kontrollziele
Maßnahmen
Kontrollaktivitäten
Typ
14
Brandschutztüren haben eine ausreichende Qualität und besitzen ggf. einen Rauchschutzschalter.
Rauchschutz-Komponenten sind in einem Sicherheitskonzept dokumentiert.
Überprüfung des Konzep- p, m tes zu den RauchschutzKomponenten im Hinblick auf Aktualität und Vollständigkeit.
Funktion der RauchschutzKomponenten wird sichergestellt.
Es werden regelmäßig die Funktionen der Rauchschutz-Komponenten überprüft.
Regelmäßige Überprüfung d, m der Dokumentation im Hinblick auf die regelmäßige Überprüfung der Rauchschutz-Komponenten.
Alle Mitarbeiter müssen unterrichtet werden, welche Warnsignale die Rauchschutz-Komponenten haben und wie sie darauf zu reagieren haben.
Durchführung von Schulungen zu den Warnsignalen der Rauchschutz-Komponenten.
Überprüfung, ob Mitarbei- d, m ter Warnsignale beachten p, m und auf diese richtig reagieren z. B. durch Rauchalarm-Übungen.
Quelle: Eigene Darstellung.
Kontrolle 15: Redundanz, Modularität und Skalierbarkeit der technischen Infrastruktur Die Sicherstellung der Verfügbarkeit technischer Einrichtungen sollte sichergestellt sein. Dies wird durch Redundanz, Modularität und Skalierbarkeit der technischen Inf-
60
Annika Benkert, Gert Heinrich, Claus Jungblut, Jessica Kathage und Robert Mäckle
rastruktur gewährleistet. Im Bereich der IT bedeutet Redundanz das Vorhandensein funktional gleicher oder vergleichbarer Ressourcen eines technischen Systems. Als Modularität beschreibt, ob eine technische Leistung durch eine große oder mehrere kleine Einheiten zur Verfügung steht. Je einfacher ein System durch simples Hinzufügen zusätzlicher Einheiten erweiterbar ist, desto besser ist es skalierbar (BSI 2014, Maßnahmenkatalog M 1.52). Tab.16: Kontroll-ID 15: Redundanz, Modularität und Skalierbarkeit der technischen Infrastruktur Kontroll-ID Kontrollziel
Maßnahmen
Kontrollaktivitäten
15
Einrichtung eines zumindest ausreichenden redundanten Systems.
Regelmäßige Überprü- d, m fung der Funktionsfähigkeit des redundanten Systems.
Kapazitäten müssen ausreichend berechnet und für die Zukunft erweiterbar sein
Regelmäßiges p, m Überprüfung, ob das System an Kapazitätsgrenzen gelangt.
Die ausreichende Verfügbarkeit eines Systems ist auch bei einem Ausfall eines oder mehrerer Systeme durch redundante Systeme gewährleistet.
Typ
Quelle: Eigene Darstellung.
Kontrolle 16: Videoüberwachung Maßnahmen zur Außenhautsicherung und Zutrittskontrolle können durch den Einsatz von Videotechnik ergänzt werden. Die Ziele bei der Videoüberwachung sind: Abschreckung, Fassadenüberwachung, Identifizierung, Überwachung, Alarmierung, Erkennung und Lokalisierung von Gefahren, Schadenverhütung und Dokumentation und Auswertung von Regelabweichungen (BSI 2014, Maßnahmenkatalog M 1.53). Tab.17: Kontroll-ID 16: Videoüberwachung Kontroll-ID Kontrollziele
Maßnahmen
16
Die Aufnahmen der VideoEin Überwachungskameras werden überwacht protokoll wird regelund ausgewertet. Die mäßig überprüft. Überwachung wird in einem Protokoll festgehalten.
Es ist eine Videoüberwachung installiert. Die Videoüberwachung dient der Abschreckung und Überwachung.
Kontrollaktivitäten
Die Funktionsfähigkeit Überprüfung der Funktions- Überprüfung der der Videoüberwachungs- fähigkeit. Protokolle. anlage wird regelmäßig überprüft. Quelle: Eigene Darstellung.
Typ d, m
d, m
Das Interne Kontrollsystem beim Standard- und Notfallbetrieb eines Rechenzentrums
61
Kontrolle 17: Brandfrüherkennung/Löschtechnik Um Brände in IT-Anlagen bereits in einem sehr frühen Stadium erkennen und löschen zu können, ist der Einsatz einer Anlage zur Brandfrüherkennung zu empfehlen. Solche Anlagen detektieren typischerweise in Form eines Rauchansaug- und Analysesystems im Umluftstrom der Klimatisierung bereits wenige und feinste Rauchpartikel. Bestehen besondere Anforderungen an die Verfügbarkeit eines Rechenzentrums bzw. Serverraums oder beinhalten diese besonders hochwertige oder schwer nachzubeschaffende IT-Komponenten, ist der Einsatz einer automatischen Löschanlage mit Inertgasen zu erwägen. Hierbei ist jedoch die Erstickungsgefahr für Menschen zu berücksichtigen (BSI 2014, Maßnahmenkatalog M 1.54). Tab.18: Kontroll-ID 17: Brandfrüherkennung/Löschtechnik Kontroll-ID Kontrollziele 17
Maßnahmen
Kontrollaktivitäten
Typ
Eine Anlage zur Brandfrüh- Die Funktionsfähigkeit der Das Protokoll wird d, m erkennung ist installiert Anlage wird regelmäßig regelmäßig überprüft. und stets funktionstüchtig. überprüft und protokolliert. Eine Löschanlage ist installiert.
Die Funktionsfähigkeit muss regelmäßig durch einen Fachmann durchgeführt werden.
Das Personal ist im Umgang Schulungen sollten mit den Löschanlagen regelmäßig durchgeführt geschult und kennt die werden. entstehenden Gefahren.
Der Nachweis der Funktionsfähigkeit muss regelmäßig überprüft werden.
p, m
Bestätigungen über p, m den Schulungserfolg sind regelmäßig zu überprüfen.
Quelle: Eigene Darstellung.
Kontrolle 18: Perimeterschutz Falls das Gebäude oder Rechenzentrum innerhalb eines Grundstücks liegt, auf dem zusätzliche Sicherheitseinrichtungen installiert werden können, sollten Maßnahmen ergriffen werden, um von außen wirkende Gefährdungen vom Gebäude oder Rechenzentrum abzuhalten. Dies betrifft auch das unbefugte Betreten des Geländes, auf dem sich das Rechenzentrum befindet (BSI 2014, Maßnahmenkatalog M 1.55).
62
Annika Benkert, Gert Heinrich, Claus Jungblut, Jessica Kathage und Robert Mäckle
Tab.19: Kontroll-ID 18: Perimeterschutz Kontroll-ID Kontrollziel
Maßnahme
Kontrollaktivität
18
Durch ausreichende bauliche Maßnahmen wird unbefugtes Eindringen in das Rechenzentrum verhindert.
Die bauliche Absicherung wird d, m regelmäßig auf Zustand und abschreckende Wirkung hin überprüft und gegebenenfalls angepasst.
Ein Perimeterschutz ist in ausreichendem Maße gewährleistet.
Typ
Quelle: Eigene Darstellung.
Kontrolle 19: Netzersatzanlage Bei erhöhten Anforderungen an die Verfügbarkeit eines Rechenzentrums sollte die primäre Energieversorgung aus dem Netz eines Energieversorgungs-Unternehmens (EVU) um eigene Maßnahmen zur Versorgung des Rechenzentrums erweitert werden (BSI 2014, Maßnahmenkatalog M 1.56). Tab.20: Kontroll-ID 19: Netzersatzanlage Kontroll-ID Kontrollziel
Maßnahmen
Kontrollaktivitäten
Typ
19
Einrichten einer USV für kurzzeitige Störungen, zweite Einspeisung aus dem Netz eines zweiten Energieversorgungs-Unternehmens für längerfristige Störungen.
Die Funktionsfähigkeit des redundanten Anschlusses wird regelmäßig überprüft und anschließend dokumentiert.
p, m
Bei den Wartungen werden Belastungs- und Funktionstests durchgeführt.
Das Protokoll wird regelmäßig überprüft.
d, m
Es wird mindestens einmal in 2 Jahren ein Testlauf der NEA unter Echtbedingung durchgeführt.
Die Dokumentation der d, m Tests wird regelmäßig überprüft.
Im Falle einer Störung in der Zuleitung zum Netz des EVU ist die Stromversorgung dennoch gesichert.
Quelle: Eigene Darstellung.
Kontrolle 20: Brandschutz von Patchfeldern Sowohl die internen Leitungen des Hausnetzes als auch die externen des öffentlichen Netzes laufen auf Leitungsverteilern oder Patchfeldern auf, von denen aus sie über Anschlussleitungen mit Servern, Routern etc. verbunden sind. Es ist darauf zu achten, dass die Durchführung der Anschlussleitungen von den Leitungsverteilern und Patchfeldern zu den IT-Geräten durch die Brandschutzkonstruktion zu jeder Zeit
Das Interne Kontrollsystem beim Standard- und Notfallbetrieb eines Rechenzentrums
63
mit geeigneten Brandschutzmitteln verschlossen ist (BSI 2014, Maßnahmenkatalog M 1.62). Tab.21: Kontroll-ID 20: Brandschutz von Patchfeldern Kontroll-ID Kontrollziel
Maßnahme
Kontrollaktivität
20
Patchfelder müssen so konstruiert sein, dass ein Übergreifen eines potentiellen Brandes auf andere Teile verhindert wird.
Regelmäßige Überprüfung d, m der Brandschutzkonstruktion; besonders bei Erweiterungsmaßnahmen muss überprüft werden, ob Patchfelder brandsicher abgeschirmt bleiben.
Patchfelder sind so installiert, dass im Brandfall der Brand nicht auf andere Teile des IT Systems übergreift.
Typ
Quelle: Eigene Darstellung.
Kontrolle 21: Zentrale unterbrechungsfreie Stromversorgung Eine unterbrechungsfreie Stromversorgung (USV) kann einen kurzzeitigen Stromausfall überbrücken oder die Stromversorgung solange gewährleisten, dass ein geordnetes Herunterfahren angeschlossener Rechner möglich ist, um hier Schäden oder Datenverluste zu vermeiden. Im Falle eines Stromausfalls kann dadurch in Millisekunden auf die Stromversorgung des USV gewechselt werden (BSI 2014, Maßnahmenkatalog M 1.70). Tab.22: Kontroll-ID 21: Zentrale unterbrechungsfreie Stromversorgung Kontroll-ID Kontrollziele 21
Maßnahmen
Kontrollaktivitäten
Typ
Im Falle eines Stromausfalles ist Installation einer Regelmäßiges Testen d, m eine unterbrechungsfreie Strom- ausreichend dimen- der USV. Hierzu sollten versorgung gewährleistet, bis der sionierten USV. die Testaktivitäten in Stromausfall behoben ist, oder ausreichendem Maße ein geordnetes Herunterfahren dokumentiert werden. angeschlossener Rechner erfolgen kann. Die Wartungsintervalle der USV werden eingehalten.
Die USV wird Die Protokolle der d, m regelmäßig gewartet Wartungen werden regelmäßig überprüft.
Die tatsächliche Kapazität der Bat- Testen der Kapaterie und damit die Stützzeit der zitäten und der USV werden regelmäßig getestet. Stützzeit. Quelle: Eigene Darstellung.
Die Protokolle der d, m Tests werden regelmäßig überprüft.
64
Annika Benkert, Gert Heinrich, Claus Jungblut, Jessica Kathage und Robert Mäckle
Kontrolle 22: Aktuelle Infrastruktur- und Baupläne Nach Umbaumaßnahmen oder Erweiterungen der Infrastruktur und Sicherheitstechnik ist es wichtig, Baupläne, Fluchtwegpläne, Feuerwehrlaufkarten etc. zu aktualisieren (BSI 2014, Maßnahmenkatalog M 1.57). Tab.23: Kontroll-ID 22: Aktuelle Infrastruktur- und Baupläne Kontroll-ID Kontrollziel
Maßnahme
Kontrollaktivität
Typ
22
Die Pläne werden nach Umbaumaßnahmen oder Erweiterungen auf den aktuellen Stand gebracht.
Überprüfen, ob die Pläne auf dem aktuellen Stand sind.
d, m
Baupläne, Fluchtwegpläne, Feuerwehrlaufkarten etc. sind auf dem aktuellsten Stand.
Quelle: Eigene Darstellung.
Kontrolle 23: Rauchverbot In den meisten Räumlichkeiten von Unternehmen und Behörden ist Rauchen generell verboten, meistens sogar aufgrund gesetzlicher Vorgaben. So verpflichtet in Deutschland die Arbeitsstättenverordnung die meisten Institutionen, den Nichtraucherschutz am Arbeitsplatz zu gewährleisten. Auch in Gebäuden, in denen kein umfassendes Rauchverbot herrscht, muss sichergestellt werden, dass in Räumen mit IT oder Datenträgern (Serverraum, Datenträgerarchiv, aber auch Belegarchiv), in denen Brände oder Verschmutzungen zu hohen Schäden führen können, ein Rauchverbot erlassen wurde. Dieses Rauchverbot dient gleicherweise dem vorbeugenden Brandschutz wie der Betriebssicherheit von IT mit mechanischen Funktionseinheiten. Dabei muss sichergestellt werden, dass nicht als Folge eines Rauchverbots im Gebäude der Zutrittsschutz geschwächt wird. Es ist häufig zu beobachten, dass Außentüren in
Tab.24: Kontroll-ID 23: Rauchverbot Kontroll-ID Kontrollziel 23
Maßnahme
Kontrollaktivität
Typ
In schutzbedürftiIn schutzbedürftigen Überprüfen, ob das Rauch- d, m gen Räumen sind der Räumen muss ein Rauch- verbot in schutzbedürftigen Brandschutz und die verbot erlassen werden. Räumen eingehalten wird. Betriebssicherheit der IT sichergestellt. Der Zutrittsschutz ist trotz Raucherzonen gewährleistet.
Quelle: Eigene Darstellung.
Zutrittsschutz muss auch Überprüfen, ob der Zutritts- d, m bei Raucherzonen sicher- schutz bei Einrichtung oder gestellt sein. Duldung von Raucherbereichen erhalten bleibt.
Das Interne Kontrollsystem beim Standard- und Notfallbetrieb eines Rechenzentrums
65
schwer einsehbaren Bereichen ständig offen stehen, weil der Nahbereich der Tür die Raucherzone bildet und die Tür aus Bequemlichkeit während der Arbeitszeiten nie geschlossen wird (BSI 2014, Maßnahmenkatalog M 2.21).
Kontrolle 24: Organisatorische Vorgaben für die Gebäudereinigung Da das Reinigungspersonal, das meist durch einen externen Dienstleister gestellt ist, alle Bereiche des Unternehmens betreten muss, ist darauf zu achten, dass auch das externe Reinigungspersonal nur über die vorhandenen Zutrittskontrollen Zutritt erhält. Des Weiteren muss darauf geachtet werden, dass keine Schäden entstehen, bspw. bei der Reinigung von IT-Systemen, und dass das Reinigungspersonal in sensitiven Bereichen beaufsichtigt wird (BSI 2014, Maßnahmenkatalog M 2.212). Tab.25: Kontroll-ID 24: Organisatorische Vorgaben für die Gebäudereinigung Kontroll-ID Kontrollziele
Maßnahmen
Kontrollaktivitäten
24
Das Reinigungspersonal bekommt Schlüssel oder Ausweise, um Zutritt zu den zu reinigenden Räumen zu erhalten.
Überprüfen, ob die Mitd, m arbeiter der beauftragten Reinigungsfirma die ausgegebenen Schlüssel und Ausweise vertragsmäßig verwenden.
IT-Systeme werden durch Die Reinigungskräfte die Reinigung nicht sind einzuweisen worauf beschädigt. bei der Reinigung von IT-Systemen geachtet werden muss.
Überprüfen, ob die Reip, m nigungskräfte über den Umgang mit der IT ausreichend informiert sind.
Bei der Reinigung sensitiver Bereiche sind die schützenswerten Daten ausreichend geschützt.
Überprüfen, ob die Reinigungskräfte in sensitiven Bereichen beaufsichtigt werden.
Auch bei externem Reinigungspersonal wird der Zutrittsschutz gewährleistet.
Reinigungskräfte sind durch Mitarbeiter des Auftraggebers zu beaufsichtigen.
Typ
p, m
Quelle: Eigene Darstellung.
Kontrolle 25: Inspektion und Wartung der technischen Infrastruktur Um die Verfügbarkeit sowie den wirtschaftlichen Betrieb technischer Anlagen sicherzustellen, sind regelmäßige Inspektionen und Wartungen der Komponenten durch geschultes Personal durchzuführen. Dabei sollten die Empfehlungen von Herstellern und Normen beachtet werden. Die durchgeführten Inspektionen und Wartungen sollten dokumentiert werden und bei ungewöhnlichem Verschleiß sollte die Ursache ermittelt werden (BSI 2014, Maßnahmenkatalog M 2.213).
66
Annika Benkert, Gert Heinrich, Claus Jungblut, Jessica Kathage und Robert Mäckle
Tab.26: Kontroll-ID 25: Inspektion und Wartung der technischen Infrastruktur Kontroll-ID Kontrollziele 25
Maßnahmen
Kontrollaktivitäten
Typ
Dem Ausfall technischer Empfohlene Wartungs- und Überprüfen, ob d, m d, a Komponenten aufgrund Inspektionsvorschriften Wartungsvorschriften von Verschleiß wird sind einzuhalten. eingehalten werden. vorgebeugt. Wartungsintervalle entsprechen der Beanspruchung der Komponenten.
Bei besonderer Beanspruchung von Komponenten sind die Wartungsintervalle entsprechend anzupassen.
Überprüfen, ob d, m Wartungsintervalle bei besonderer Beanspruchung angepasst werden.
Es gibt eine Übersicht über bevorstehende und durchgeführte Inspektionen und Wartungen.
Es ist eine Übersicht über bevorstehende Inspektionen und Wartungen zu erstellen, sowie eine Dokumentation über bereits durchgeführte Inspektionen und Wartungen.
Überprüfen, ob d, m durchgeführte und bevorstehende Inspektionen und Wartungen dokumentiert werden.
Bei ungewöhnlichem Verschleiß ist die Ursache bekannt.
Bei ungewöhnlichem Verschleiß von Komponenten ist die Ursache zu ermitteln.
Überprüfen, ob bei d, m ungewöhnlichem Verschleiß die Ursache ermittelt wird.
Quelle: Eigene Darstellung.
Kontrolle 26: Geschlossene Fenster und Türen Um Einstiegsmöglichkeiten über Fenster und Außentüren zu verwehren und um den Brandschutz sicherzustellen, sollten Fenster und Außentüren von verlassenen Räumen verschlossen sowie Brand- und Rauchschutztüren geschlossen sein. Bei Abwesenheit der Mitarbeiter sollte das Büro verschlossen oder die Unterlagen weggeschlossen sein, um zu verhindern, dass unberechtigte Dritte an diese Unterlagen gelangen (BSI 2014, Maßnahmenkatalog M 1.15 und M 1.23).
Kontrolle 27: Funktionstests der technischen Infrastruktur Um die ordnungsgemäße Funktion von Reaktionsketten im Notfall sicherzustellen, vor allem im Bereich der technischen Infrastruktur, sollten regelmäßige Funktionstests durchgeführt werden (BSI 2014, Maßnahmenkatalog M 1.71).
Das Interne Kontrollsystem beim Standard- und Notfallbetrieb eines Rechenzentrums
67
Tab.27: Kontroll-ID 26: Geschlossene Fenster und Türen Kontroll-ID Kontrollziele
Maßnahmen
Kontrollaktivitäten
Typ
26
Außentüren und Fenster sind verschlossen.
Mitarbeiter anweisen Fenster und Außentüren zu verschließen.
Überprüfen, ob eine Anwei- p, m sung zum Verschließen von Fenster und Außentüren vorhanden ist.
Fenster und Türen verlassener Räume sind verschlossen.
Verlassene Räume werden regelmäßig überprüft, ob Fenster und Türen verschlossen sind.
Überprüfen, ob regelmäßig geprüft wird, ob in verlassenen Räumen Fenster und Türen verschlossen sind.
Rauch- und Brandschutztüren sind geschlossen.
Regelmäßige Kontrollen, Überprüfen, ob Rauch- und d, m ob Rauch- und BrandBrandschutztüren geschlosschutztüren geschlossen sen sind. sind.
Bei Abwesenheit ist das Büro verschlossen oder Unterlagen sind weggeschlossen.
Kontrollen, ob Büros in Abwesenheit verschlossen sind oder die Unterlagen weggeschlossen sind.
d, m
Überprüfen, ob Mitarbeiter p, m angewiesen werden, bei Abwesenheit ihr Büro zu verschließen oder Arbeitsunterlagen wegzuschließen.
Quelle: Eigene Darstellung. Tab.28: Kontroll-ID 27: Funktionstests der technischen Infrastruktur Kontroll-ID Kontrollziel
Maßnahme
Kontrollaktivität
Typ
27
Für alle wesentlichen Reaktionsketten sind echte Funktionstests in regelmäßigen Abständen durchzuführen.
Überprüfen, ob für alle wesentlichen Reaktionsketten echte Funktionstests in regelmäßigen Abständen durchgeführt werden.
d, m
Die ordnungsgemäße Funktion aller Reaktionsketten ist sichergestellt.
Quelle: Eigene Darstellung.
Kontrolle 28: Baumaßnahmen während des laufenden Betriebs Anstatt dem Bau eines neuen Rechenzentrums werden oftmals die schon vorhandenen Flächen erweitert. Diese Erweiterungen haben oftmals erhebliche Einflüsse auf die Baustruktur, da z. B. Wände verändert, entfernt oder neu gebaut werden müssen. Die bestehende IT-Infrastruktur muss jedoch zur Sicherung der Geschäftstätigkeit eines Unternehmens weiter betrieben werden. Die bestehende IT muss daher während der Umbauarbeiten vor Beeinträchtigungen und Ausfällen bewahrt werden. Dabei ist es auch notwendig, Verunreinigungen zu verhindern sowie den Zutritt zu kontrollieren (BSI 2014, Maßnahmenkatalog M 1.72).
68
Annika Benkert, Gert Heinrich, Claus Jungblut, Jessica Kathage und Robert Mäckle
Tab.29: Kontroll-ID 28: Baumaßnahmen während des laufenden Betriebs Kontroll-ID Kontrollziele
Maßnahmen
28
Auflagen zur Durchführung Sichtung der Auflagen zur von StaubschutzmaßDurchführung von Staubnahmen und detaillierte schutzmaßnahmen. Dokumentation in Ausschreibungen.
Die bestehende IT ist vor Verunreinigungen geschützt.
Kontrollaktivitäten
Typ p, m
Sicherstellung des Schutzes der IT gegen Verunreinigungen im Rahmen der Umbaumaßnahmen.
Überprüfung der getrofd, m fenen Maßnahmen zum Schutz der IT gegen Verunreinigungen.
Unbefugte Personen Beaufsichtigung des haben keinen Zugriff Fremdpersonals während auf die IT-Infrastruktur. der Umbauarbeiten.
Sicherstellung, dass das d, m Fremdpersonal während der Umbauarbeiten durchgehend überwacht wird.
Quelle: Eigene Darstellung.
Kontrolle 29: Schutz eines Rechenzentrums gegen unbefugten Zutritt Ein Rechenzentrum stellt eine Funktionseinheit mit besonderen Anforderungen an den Schutz gegen unbefugten Zutritt dar. Es bedarf Regelungen zur Vergabe von Zutrittsberechtigungen sowie der Zutrittsregelung und -kontrolle. Die Einhaltung dieser Regelungen muss durch zusätzliche Maßnahmen unterstützt werden. Da ein ReTab.30: Kontroll-ID 29: Schutz eines Rechenzentrums gegen unbefugten Zutritt Kontroll-ID Kontrollziel
Maßnahmen
Kontrollaktivitäten
29
Einrichtung einer angemessenen Zutrittskontrolle mit mindestens zwei Authentifikationsmerkmalen.
Sichtung der Richtlinie p, m zur Zutrittskontrolle im Hinblick auf notwendige Authentifikationsmerkmale und Angemessenheit.
Einrichtung, dass beim Zutritt jeder Besucher individuell erfasst wird.
Überprüfung der Protokol- d, m d, a lierung des Zutritts.
Zuordnung von Besuchern zu einer verantwortlichen Person und durchgehende Beaufsichtigung der Besucher.
Sichtung der Richtlinie zur Zutrittskontrolle im Hinblick auf den Umgang mit Besuchern.
Das Rechenzentrum ist vor unberechtigtem Zutritt geschützt.
Quelle: Eigene Darstellung.
Typ
p,m
Das Interne Kontrollsystem beim Standard- und Notfallbetrieb eines Rechenzentrums
69
chenzentrum einen hohen Schutzbedarf aufweist, müssen stärkere Mechanismen zur Zutrittskontrolle eingesetzt werden. So sollte eine kombinierte Abfrage von mindestens zwei der Kriterien Besitz (z. B. Chip-Karte), Wissen (z. B. PIN) und biometrische Merkmale genutzt werden. Jeder Zutritt zu einem Rechenzentrum muss protokolliert werden. Dies gilt auch für externe Besucher. Bei diesen sollte zusätzlich eine verantwortliche Person zugewiesen werden, die sicherstellt, dass der externe Besucher durchgehend überwacht wird (BSI 2014, Maßnahmenkatalog M 1.73).
3.2 Kontrollen für den Notfallbetrieb Kontrolle 30: Alarmierungsplan und Brandschutzübungen Es ist notwendig, Pläne zu erstellen, die im Notfall zu ergreifende Maßnahmen beinhalten. Diese enthalten die Maßnahmen, die zu ergreifen sind, Angaben darüber, ob eventuell das Gebäude oder Gebäudeteile zu räumen sind, wer zu informieren ist und welche hilfeleistenden Kräfte zu informieren sind (BSI 2014, Maßnahmenkatalog M 6.17). Tab.31: Kontroll-ID 30: Alarmierungsplan und Brandschutzübungen Kontroll-ID Kontrollziel
Maßnahmen
Kontrollaktivitäten
30
Erstellung eines dokumentierten Alarmierungsplans.
Sichtung des Alarmierungsp, m plans im Hinblick auf Aktualität und Vollständigkeit.
Es existieren Regelungen zum Vorgehen im Falle eines Notfalls.
Typ
Regelmäßige Durchfüh- Überprüfung, ob regelmäßige d, m rung von Brandschutz- Brandschutzübungen durchgeübungen. führt werden. Quelle: Eigene Darstellung.
Kontrolle 31: Notfallarchiv Ein Notfallarchiv enthält eine Sicherung aller Daten, die notwendig sind, um das Gesamtsystem beim Eintritt eines Notfalls konsistent wiederherstellen zu können. Diese müssen auch im Katastrophen-Fall verfügbar und zugänglich sein (BSI 2014, Maßnahmenkatalog M 6.74).
70
Annika Benkert, Gert Heinrich, Claus Jungblut, Jessica Kathage und Robert Mäckle
Tab.32: Kontroll-ID 31: Notfallarchiv Kontroll-ID Kontrollziel
Maßnahmen
31
Einrichtung eines Überprüfung, ob Backups angemessenen regelmäßig und vollständig Notfallarchivs. durchgeführt werden.
Das Gesamtsystem kann beim Eintritt eines Notfalls konsistent wiederhergestellt werden.
Kontrollaktivitäten
Typ d, m
Durchführung von Regelmäßige Durchführung d, m d, a Recovery Tests. von Recovery Tests und Überprüfung der Ergebnisse. Quelle: Eigene Darstellung.
3.3 Kreuzreferenztabelle Risiken und Kontrollen Im Folgenden wird eine tabellarische Übersicht über die Zugehörigkeiten der Kontrollen zu den einzelnen identifizierten Risiken gegeben. Risiko
Kontroll-ID 01 02 03 04 05 06 07 08 09 10 11 12 13 14 15 16
Ausfall von IT-Systemen
x x x x x x x x x x x x x x x x
Blitz Feuer
x x
Wasser Kabelbrand
x x
x x
x x
x x x
x x x x
x x
x
x
x x x x
x
x
x
x x x
Unzulässige Temperatur und Luftfeuchte
x x
Staub, Verschmutzung
x
x x
Technische Katastrophen im Umfeld
x
x x
Beeinträchtigung durch Großveranstaltungen
x
x
Sturm
x x
x
Ausfall von Patchfeldern durch Brand
x
Fehlende oder unzureichende Regelungen
x
Unzureichende Kenntnis über Regelungen
x
Unzureichende Kontrolle der Sicherheitsmaßnahmen
x x
x
x
x x x x x x x x x
x x
x x
x
x x x x x x
x
71
Das Interne Kontrollsystem beim Standard- und Notfallbetrieb eines Rechenzentrums
Risiko
Kontroll-ID 01 02 03 04 05 06 07 08 09 10 11 12 13 14 15 16
Unbefugter Zutritt zu schutzbedürftigen Räumen Unzureichende Trassendimensionierung
x x x
x
x
Unzureichende Dokumentation der Verkabelung Ausfall der Stromversorgung
x
x
x
Ausfall interner Versorgungsnetze
x
x
x
Ausfall vorhandener Sicherungseinrichtungen
x
Unbefugtes Eindringen in ein Gebäude
x x x x
x
Diebstahl
x x x x
x
Vandalismus
x x x x
x
Anschlag
x x x x
x
Gefährdung bei Wartungs-/ Administrierungsarbeiten
x
Unberechtigter Zugang zu aktiven Netzkomponenten
x x x x
x
Sabotage
x x x x
x
Risiko
Kontroll-ID 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31
Ausfall von IT-Systemen
x
x
Blitz
x
x
Feuer
x
x
Wasser Kabelbrand
x
x x
x
x
x
x
x
x
x
x
x
x
x x
x x x x
x
x
x
Technische Katastrophen im Umfeld
x
x
x
Staub, Verschmutzung
Sturm
x
x
Unzulässige Temperatur und Luftfeuchte
Beeinträchtigung durch Großveranstaltungen
x
x x
x x
x x x
x
x
x
72
Annika Benkert, Gert Heinrich, Claus Jungblut, Jessica Kathage und Robert Mäckle
Risiko
Kontroll-ID 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31
Ausfall von Patchfeldern durch Brand
x
Fehlende oder unzureichende Regelungen
x
x
x
x
x
Unzureichende Kenntnis über Regelungen
x
x
x
x
Unzureichende Kontrolle der Sicherheitsmaßnahmen
x
x
x
x
Unbefugter Zutritt zu schutzbedürftigen Räumen
x
x
x
x
x
Unzureichende Trassendimensionierung
x
x
x
x
x
x
x
x
x
x
x
x
x
x
x
x
x
x
x
x
x
x
x
x
x
x
Unzureichende Dokumentation der Verkabelung Ausfall der Stromversorgung
x
x
x
x
x
Ausfall interner Versorgungsnetze
x
x
x
x
x
x
x
x
x
x
x
Ausfall vorhandener Sicherungseinrichtungen x
x
x
x
x
x
x
x
x
x
x
Unbefugtes Eindringen in ein Gebäude
x
x
x
x
Diebstahl
x
x
x
x
x
Vandalismus
x
x
x
x
x
Anschlag
x
x
x
x
x
Gefährdung bei Wartungs-/ Administrierungsarbeiten
x
x
x
Unberechtigter Zugang zu aktiven Netzkomponenten
x
x
x
x
x
Sabotage
x
x
x
x
x
4 Zusammenfassung und Ausblick In der vorliegenden Abhandlung wurde ein wirksames Internes Kontrollsystem beim Standard- und Notfallbetrieb eines Rechenzentrums entwickelt. Ausgehend von den zahlreichen Risiken wurden insgesamt 31 verschiedene Kontrollen beschrieben und diese abschließend den unterschiedlichen Risiken zugeordnet. Interne Kontrollsysteme sollten umfassend für alle relevanten Bestandteile der IT-Systemprüfung beschrieben werden. Der Bereich der elektronischen Archivierung ist ausführlich in (Heinrich und Horstschäfer 2013) dargestellt.
Das Interne Kontrollsystem beim Standard- und Notfallbetrieb eines Rechenzentrums
73
Literaturverzeichnis BSI, Bundesamt für Sicherheit in der Informationstechnik (2014): IT-Grundschutzkataloge, Stand 14, Inhalt -> Bausteine -> Infrastruktur -> Rechenzentrum, online in: https://www.bsi.bund.de/DE/ Themen/ITGrundschutz/ITGrundschutzKataoge/Inhalt/inhalt_node.html, Zugriff 09.02.2015 oder Bundesanzeiger-Verlag, Lose Blattsammlung, Köln. Bungartz, O. (2014): Handbuch Interne Kontrollsysteme (IKS). Steuerung und Überwachung von Unternehmen, 4. Aufl., Berlin 2014. Heinrich, G./Horstschäfer, A. (2013): Das interne Kontrollsystem beim Einsatz elektronischer Archivierungsverfahren, in: HMD Praxis der Wirtschaftsinformatik, Heidelberg, Heft 289, Seite 70 – 78, 2013. IDW (2002): IDW Stellungnahme zur Rechnungslegung: Grundsätze ordnungsmäßiger Buchführung bei Einsatz von Informationstechnologie (RS FAIT 1), WPg 21/2002. IDW (2012): IDW Prüfungsstandard: Feststellung und Beurteilung von Fehlerrisiken und Reaktionen des Abschlussprüfers auf die beurteilten Fehlerrisiken (PS 261 n.F.), WPg Supplement 2/2012. Paschke, K. (2011): Internes Kontrollsystem. Umsetzung, Dokumentation und Prüfung. Praxisleitfaden für eine softwaregestützte Organisation der internen Kontrollen, Norderstedt 2011.
Torsten Bleich
4 Duale Studiengänge im CHE Hochschulranking: Kritische Anmerkungen zu den verwendeten Indikatoren und Ansatzpunkte für ein passgenaueres Ranking¹ 1 Einleitung Seit einigen Jahren haben Rankings im Hochschulbereich massiv an Bedeutung und Popularität gewonnen. Mit dem Instrument des Hochschulrankings sollen Leistungsunterschiede zwischen Hochschulen transparent werden. Auch wenn es nur wenige Ansätze gibt, die global eine hohe Beachtung finden, wie beispielsweise das Academic Ranking of World Universities der Shanghai Jiao Tong University, so existiert doch eine große Vielfalt von Hochschulrankings, die spezielle Zielsetzungen haben und sich in Bezug auf ihre Ausgestaltungsmerkmale ganz erheblich voneinander differenzieren. In Deutschland konnte sich das CHE Hochschulranking etablieren, das vom Centrum für Hochschulentwicklung (CHE) seit 1998 durchgeführt wird. Das Ranking richtet sich primär an Studierwillige und Studierende, die mit diesem Instrument für zahlreiche Fächer eine Vielzahl vergleichender Informationen über Studiermöglichkeiten an unterschiedlichen Hochschulen abrufen können. Die Zielgruppe nutzt das CHE Hochschulranking intensiv zur Vorbereitung ihrer Studienfach- und Hochschulwahl. Damit trägt das CHE Hochschulranking auf einem immer komplexer und differenzierter werdenden tertiären Bildungsmarkt maßgeblich zur Transparenz bei. Um ein aussagekräftiges Ergebnis erreichen zu können, ist es notwendig, dass verschiedene Statusgruppen der am CHE Hochschulranking teilnehmenden Hochschulen bzw. Fachbereiche eine Vielzahl von Informationen bereitstellen. Die Teilnahmebereitschaft der Hochschulen ist hoch, wobei es Ausnahmen gibt. Beispielsweise nahm das Fach Soziologie zuletzt nicht mehr am CHE Hochschulranking teil, weil die einflussreiche soziologische Fachgesellschaft DSG zum Boykott aufgerufen hatte. Auch bei dualen Studiengängen kommt, unabhängig vom Fach, momentan kein aussagekräftiges Ranking zustande. So zeigt die Online-Abfrage des CHE Hochschulrankings 2014/15 für duale Bachelorstudiengänge im Fach Betriebswirtschaftslehre, 1 Der Autor dankt dem CHE, insbesondere Frank Ziegele und Petra Giebisch, für die Bereitstellung vielfältiger Informationen, wertvolle Hinweise und die bereitwillige und geduldige Beantwortung zahlreicher Fragen; ohne diese Unterstützung hätte der Beitrag nicht verfasst werden können.
76
Torsten Bleich
dass lediglich für 24 von insgesamt 64 Hochschulen Rankingergebnisse veröffentlicht sind (Zeit Online 2014). Nach Informationen des CHE lehnen viele Hochschulen (bzw. Berufsakademien) eine Teilnahme ihrer dualen Studiengänge am Ranking ab, weil die Rankingindikatoren aus Sicht dieser Hochschulen den Besonderheiten des dualen Studienformats nicht in ausreichendem Maße Rechnung tragen. Aus diesem Anlass soll der Frage nachgegangen werden, ob die vom CHE verwendeten Indikatoren für das Ranking dualer Studienmodelle passend sind und welche Ansatzpunkte zur Optimierung bestehen. In Kapitel 2 werden die besonderen Eigenschaften dualer Studienprogramme herausgearbeitet, bevor sich das Kapitel 3 den Rankings im Hochschulbereich, insbesondere der Grundidee und der Methodik des CHE Hochschulrankings widmet. Kapitel 4 zeigt auf, welche Indikatoren im CHE Hochschulranking momentan für duale Studiengänge verwendet werden; abschließend wird geprüft, inwieweit das gegenwärtige CHE Hochschulranking den Besonderheiten des dualen Studienmodells ausreichend Rechnung trägt und wo Ansatzpunkte für ein passgenaueres Ranking gesehen werden. Die Analyse stützt sich exemplarisch auf das Ranking dualer Bachelorstudiengänge im Fach Betriebswirtschaftslehre, ist auf andere Fächer aber weitgehend übertragbar.
2 Duale Programme als besondere Form des Hochschulstudiums Auf dem deutschen Hochschulmarkt hat sich in den vergangenen 40 Jahren aus einer Nische heraus das gleichermaßen von Studierenden als auch von Unternehmen stark nachgefragte duale Studium durchgesetzt. Das entscheidendste Merkmal solcher dualer Studiengänge ist, dass das Studium – im Unterschied zu konventionellen Studiengängen – an (mindestens) zwei Lernorten stattfindet. Dies ist zum einen die Hochschule (oder eine vergleichbare Einrichtung wie eine Berufsakademie), die für die Vermittlung theoretischen Wissens zuständig ist. Der zweite Lernort ist ein Praxispartner, oftmals ein Unternehmen, in dem Praxiswissen vermittelt wird. Das duale Studienmodell entstand vor etwa 40 Jahren mit der Gründung der baden-württembergischen Berufsakademien. Hintergrund waren die Bildungsreformen der 1960er Jahre, durch die die Hochschulen für breitere Schichten geöffnet wurden; in der Wirtschaft wurden dadurch Befürchtungen laut, dass für die etablierte duale Berufsausbildung zukünftig nicht mehr genügend qualifizierte und motivierte Schulabgänger gefunden werden könnten (Minks/Netz/Völk 2011, S. 10; DHBW 2014). Maßgeblich getrieben durch baden-württembergische Unternehmen wurde deshalb zu Beginn der 1970er Jahre ein neues Modell entwickelt, bei dem – in Analogie zum dualen Ausbildungssystem – ein hochschulähnliches Studium mit einer praktischen Ausbildung verknüpft wurde (Minks/Netz/Völk 2011, S. 10). Diese drei Jahre dauernden Ausbildungsgänge für Abiturienten gliederten sich in sechs Theorie-
Duale Studiengänge im CHE Hochschulranking
77
phasen an der 1974 gegründeten und aus öffentlichen Mitteln finanzierten Berufsakademie und sechs darauf abgestimmte Praxisphasen im Ausbildungsunternehmen. Das duale Studienmodell konnte sich zunächst im Stammland Baden-Württemberg, in der Folge auch in vielen anderen Bundesländern etablieren. Insbesondere mit der Einführung des zweigestuften Studiensystems im Rahmen des Bologna-Prozesses breitete sich das duale Studienmodell von den Berufsakademien sehr schnell auch auf andere Hochschulformen aus. Nach einer Erhebung des HIS waren schon im Jahr 2009 bundesweit 414 duale Studiengänge mit Bachelorabschluss an Fachhochschulen, 337 an Berufsakademien und der Dualen Hochschule Baden-Württemberg (DHBW)² und 46 an Universitäten eingerichtet (Minks/Netz/Völk 2011, S. 33). Weil es sich bei dualen Studiengängen im Normalfall um eine akademische Erstausbildung handelt, ist der Bachelor der Regelabschluss. Duale Studiengänge mit Masterabschluss sind bislang nur in sehr kleiner Zahl vorzufinden; diese sind deshalb auch nicht Gegenstand der weiteren Betrachtung.
2.1 Systematisierung dualer Studiengänge Seit dem Entstehen des dualen Studienmodells haben sich verschiedene Varianten entwickelt, die zumindest in einer weiten Auslegung als dual bezeichnet werden können (hier und im Folgenden: Wissenschaftsrat 2013, S. 7 ff.). Unterschieden werden kann zunächst danach, ob es sich um Studiengänge der Erstausbildung oder der Weiterbildung handelt. Weiter kann differenziert werden, ob im zeitlichen Zusammenhang mit dem Studium an der Hochschule eine duale Berufsausbildung (inkl. der hierfür notwendigen Praxisanteile im Unternehmen und ggf. auch dem Besuch einer Berufsschule) durchlaufen wird oder Praxisphasen in einem Unternehmen absolviert werden oder eine Berufstätigkeit erfolgt. Schließlich ist zu unterscheiden, ob das Studium an den beiden Lernorten (Hochschule bzw. Berufsakademie sowie Unternehmen) inhaltlich, organisatorisch-institutionell und zeitlich miteinander verzahnt ist oder ob Studium und Praxis nur zeitlich parallel absolviert werden. Unter Zugrundelegung dieser Unterscheidungsmerkmale lassen sich insgesamt die folgenden sechs Ausprägungsformen dualer Studiengänge (im weiteren Sinne) identifizieren: – Ausbildungsintegrierendes Studium: Eine duale Berufsausbildung (inkl. sowohl der hierfür erforderlichen Praxisanteile als auch – sofern neben dem Besuch der Hochschule erforderlich – der Besuch einer Berufsschule) ist systematisch in den Studiengang integriert; es besteht eine enge Verzahnung inhaltlicher, organisatorisch-institutioneller und zeitlicher Art der Lernorte. Ein Teil der für den
2 Die baden-württembergischen Berufsakademien gingen im Jahr 2009 in der nach dem State University-Modell organisierten Dualen Hochschule Baden-Württemberg (DHBW) auf.
78
–
–
–
–
–
Torsten Bleich
Studienabschluss zu erbringenden Leistungspunkte wird in Form der Berufsausbildung erworben. Es handelt sich um einen Studiengang der Erstausbildung. Ausbildungsbegleitendes Studium: Zeitlich parallel zu einem Hochschulstudium wird eine duale Berufsausbildung durchlaufen. Eine enge inhaltliche und organisatorisch-institutionelle Verzahnung der Lernorte ist nicht existent. Die für den Studienabschluss zu erbringenden Leistungspunkte werden vollständig an der Hochschule erworben. Es handelt sich um einen Studiengang der Erstausbildung. Praxisintegrierendes Studium: Mehrere mehrwöchige Praxisphasen im Unternehmen werden systematisch in den Studiengang integriert; es besteht eine enge inhaltliche, organisatorisch-institutionelle und zeitliche Verzahnung der beiden Lernorte Hochschule und Unternehmen. Ein Teil der für den Studienabschluss zu erbringenden Leistungspunkte wird im „Praxisstudium“ bei der Partnereinrichtung (z. B. Unternehmen) erbracht. Gewöhnlich handelt es sich um einen Studiengang der Erstausbildung; auch ein Weiterbildungsstudiengang ist im Rahmen dieses Modells denkbar. Praxisbegleitendes Studium: Während des Studiums werden Praktika durchlaufen, die allerdings nicht systematisch in den Studiengang integriert sind; es erfolgt keine inhaltliche und organisatorisch-institutionelle Verzahnung der beiden Lernorte. Die für den Studienabschluss zu erbringenden Leistungspunkte werden vollständig an der Hochschule erworben. Es kann sich um einen Studiengang der Erstausbildung und der Weiterbildung handeln. Berufsintegrierendes Studium: Eine inhaltlich zum Studiengang passende Berufstätigkeit ist Teil des Studiengangs; der Wissenserwerb an der Hochschule und die Berufstätigkeit sind inhaltlich, organisatorisch-institutionell und zeitlich eng miteinander verbunden. Ein Teil der für den Studienabschluss zu erbringenden Leistungspunkte wird in Form der Berufstätigkeit erbracht. Es handelt sich regelmäßig um einen Weiterbildungsstudiengang. Berufsbegleitendes Studium: Neben der Berufstätigkeit wird ein Studiengang durchlaufen. Eine inhaltliche und organisatorisch-institutionelle Verzahnung von Theorie und Berufspraxis erfolgt dabei nicht. Die für den Studienabschluss zu erbringenden Leistungspunkte werden vollständig an der Hochschule erworben; eine Anrechnung von Leistungspunkten aus der Berufspraxis ist zwar denkbar, allerdings nicht von vornherein vorgesehen. Es handelt sich um ein Weiterbildungsmodell.
Nach Ansicht des Wissenschaftsrats sollen nur solche Studienformate als dual bezeichnet werden, die die Charakteristika ausbildungsintegrierender, praxisintegrierender oder berufsintegrierender Studiengänge aufweisen. Als Begründung wird angeführt, dass „die Dualität als Verbindung und Abstimmung von mindestens zwei Lernorten sowie die Verfasstheit als wissenschaftliches bzw. wissenschaftsbezogenes Studium die konstituierenden Wesensmerkmale dieses Ausbildungsformats“
Duale Studiengänge im CHE Hochschulranking
79
(Wissenschaftsrat 2013, S. 22) sind. Auch der Akkreditierungsrat stellt die „bewusste inhaltliche, zeitliche und organisatorische Integration“ als wesentliche Elemente dualer Studiengänge heraus (Akkreditierungsrat 2010, S. 3). Dieser Sichtweise soll gefolgt werden; deshalb werden im Weiteren nur die integrierenden Formate als duale Studiengänge angesehen.
2.2 Besonderheiten dualer Studiengänge³ Das Curriculum dualer Studiengänge ist auf (mindestens) zwei Lernorte verteilt; es erfolgt ein regelmäßiger Wechsel zwischen Theoriephasen an der Hochschule bzw. Berufsakademie und Praxisphasen bei der Partnereinrichtung (z. B. Unternehmen). Leistungspunkte (ECTS) werden somit in Theoriephasen und in Praxisphasen erworben. Das duale Studium weist mithin eine hohe Praxisnähe auf, ohne dass der wissenschaftliche Anspruch verloren geht. Die Studierenden werden an beiden Lernorten angemessen betreut. Grundelement eines dualen Studiengangs ist die enge zeitliche, inhaltliche und organisatorisch-institutionelle Verzahnung zwischen Theorie und Praxis. Damit unterscheiden sich duale Studiengänge maßgeblich von anderen Studiengängen, bei denen Praxiselemente entweder keine Rolle spielen oder zwischen Theorie und Praxis keine bzw. nur eine lose Verbindung vorhanden ist, wie es z. B. oft bei während des Studiums absolvierten Praktika der Fall ist. Die Verantwortung für die innercurricularen Praxisanteile trägt dabei die Hochschule bzw. die Berufsakademie. Im dualen Studium wählt sich der Praxispartner den Studierenden selbstständig aus. Zwischen dem Praxispartner und dem Studierenden wird eine vertragliche Vereinbarung über das duale Studium – vergleichbar einem Ausbildungsvertrag – getroffen, die in der Regel Voraussetzung für die Immatrikulation an der Hochschule bzw. Berufsakademie ist. Insofern muss der Studierende die Auswahlkriterien des Praxispartners und die Zulassungsvoraussetzungen der Hochschule bzw. Berufsakademie erfüllen. Das Zulassungsverfahren ist entsprechend komplex. Außerdem erhalten Studierende in der Regel von ihrem Praxispartner eine Ausbildungsvergütung während des Studiums wie bei einer dualen Berufsausbildung. Die Praxispartner wirken oftmals in den Gremien der Hochschule bzw. Berufsakademie mit oder sind – wie im Fall der DHBW – sogar Mitglieder der Hochschule, damit die für das duale Studium prägende Verzahnung zwischen Theorie und Praxis sichergestellt werden kann. Die Theoriephasen im dualen Studium sind normalerweise in hohem Maße verschult. So erfolgt der Unterricht meistens in kleineren und festen Gruppen, die
3 Die nachfolgend erläuterten Charakteristika ergeben sich im Wesentlichen aus Akkreditierungsrat (2010) sowie Wissenschaftsrat (2013); teilweise basieren sie auch auf Erfahrungen des Verfassers im Rahmen seiner Tätigkeit als Hochschullehrer an der DHBW sowie als Gutachter bei der Akkreditierung dualer Studiengänge an anderen Hochschulen.
80
Torsten Bleich
das Studium gemeinsam innerhalb der vorgesehenen (Regel-)Studienzeit durchlaufen; das Spektrum an Wahlfächern und interdisziplinären Elementen ist aus diesem Grund oftmals begrenzt. Die Dauer der Theoriephasen ist im Vergleich zu den Semesterzeiten an Fachhochschulen und Universitäten kürzer. Die zeitliche Belastung der Studierenden ist wegen der Doppelqualifizierung höher als in konventionellen Studiengängen. Die Realisierung eines theoriebezogenen Auslandssemesters ist in dualen Studiengängen durch den hohen Verschulungsgrad sowie durch die zeitliche Diskrepanz zwischen Theoriephasen und üblichen Semesterzeiten oftmals etwas erschwert bzw. nur begrenzt möglich. Ein Auslandsaufenthalt erfolgt deshalb nicht selten in einer Praxisphase (z. B. in einer Auslandsniederlassung des Praxispartners). In vielen dualen Studiengängen ist der Anteil der hauptamtlich Lehrenden mit professoraler Qualifikation geringer und der Anteil der Lehrbeauftragten aus der Praxis höher als in konventionellen Studiengängen.⁴
3 Internationale Hochschulrankings und das CHE Hochschulranking Seit den 1970er Jahren hat sich eine große Vielzahl von Hochschulrankings entwickelt, die sich hinsichtlich ihrer Ausgestaltung zum Teil deutlich voneinander unterscheiden. Die Differenzierungsmerkmale liegen vor allem im Bereich der Zielsetzung solcher Rankings, im Adressatenkreis, der Methodik und den Rankingindikatoren (Federkeil 2013, S. 1).⁵
3.1 Hochschulrankings: ein Überblick im globalen Kontext Die Geschichte des Hochschulrankings reicht zurück in das Jahr 1973, in dem die Carnegie Foundation for the Advancement of Teaching erstmals die Carnegie Classification of Institutions of Higher Education veröffentlichte. Die Carnegie Classification, die sich nur auf Hochschulen in den USA bezieht und zuletzt in regelmäßigen Abständen von fünf Jahren erschien, ist allerdings kein Hochschulranking im eigentlichen
4 Der Akkreditierungsrat (2010, S. 10) hält einen Mindestanteil der durch hauptamtlich Lehrende mit professoraler Qualifikation erbrachten Lehre von 40 % für erforderlich. Die punktgenaue Erfüllung dieser Mindestanforderung kritisierte der Wissenschaftsrat (2014, S. 77 f.) im Rahmen seiner Empfehlungen für die Weiterentwicklung der Berufsakademie Sachsen als „am unteren Rand des Vertretbaren“ und empfiehlt eine mindestens 50 %-ige Abdeckung der Lehre durch hauptamtliches Personal. 5 Am Ende des Beitrags finden sich die Links zu den Internetseiten für die in diesem Kapitel erläuterten Hochschulrankings.
Duale Studiengänge im CHE Hochschulranking
81
Sinne, denn es wird keine Rangordnung der Hochschulen aufgestellt. Es handelt sich vielmehr um eine Klassifikation, die Unterschiede in der Profilbildung der Hochschulen verdeutlicht.⁶ In der viel beachteten Basic Classification der Carnegie Foundation werden Hochschulen einer der Kategorien Associate‘s College, Doctorate-granting Universities, Masters’s Colleges and Universities, Baccalaureate Colleges, Special Focus Institutions oder Tribal Colleges zuordnet. Eine solche Klassifikation kann praktisch als Ranking gelesen werden, weil eine als Doctoral/Research University kategorisierte Hochschule gemeinhin als wesentlich prestigeträchtiger gilt als etwa eine Einrichtung auf Associate’s Level (Federkeil/van Vught/Westerheijden 2012, S. 26). Als Rankings mit globaler Reichweite haben sich in den letzten Jahren insbesondere das Academic Ranking of World Universities (ARWU) der Shanghai Jiao Tong University, das THE World University Rankings des Times Higher Education Supplement sowie das QS World’s Best Universities Ranking des Unternehmens Quacquarelli Symonds in Zusammenarbeit mit dem Nachrichtenmagazin US News & World Report etabliert. Im Ergebnis liefern diese drei Hochschulrankings sogenannte League Tables auf institutioneller Ebene⁷. Bei allen drei Ansätzen ist der Composite Indicator, der sich aus der Summe gewichteter Einzelindikatoren berechnet, entscheidend für den Rangplatz einer Hochschule. Kritisch anzumerken ist bei einer solchen Vorgehensweise, dass die jeweiligen Gewichte der Einzelindikatoren – zumindest in einem gewissen Ausmaß – willkürlich festgelegt sind, andererseits aber erheblichen Einfluss auf einen Rangplatz haben (Rohn/Weihe 2013, S. 740 f.). In den drei Ansätzen ist desweiteren festzustellen, dass forschungsbezogene Indikatoren stark dominieren und ein deutlich stärkeres Gewicht haben als etwa lehrbezogene Aspekte, sofern letztere überhaupt Eingang finden. Problematisch daran ist, dass gewisse Nutzergruppen solcher Rankings, vor allem angehende Studierende, wegen der starken öffentlichen Sichtbarkeit von ARWU, THE World University Rankings und QS World’s Best Universities Ranking ihre Hochschule nach der Position auf der Rangliste auswählen. Dabei verkennen sie womöglich, dass sich dieser Rangplatz im Wesentlichen aus Indikatoren ergibt, die für sie wenig relevant sind. Zu beachten ist außerdem, dass die genannten Rankings keine Vollerhebungen sind, die alle weltweit ca. 17.000 Hochschulen (Rauhvargas 2011, S. 24) einbeziehen; es handelt sich jeweils nur um eine Auswahl von 500 bis 600 Hochschulen mit internationaler Ausrichtung und starkem Forschungsbezug (Federkeil 2013, S. 43 f.). Ein mittlerer oder hinterer Rangplatz einer Hochschule darf vor diesem Hintergrund nicht falsch interpretiert werden.
6 Zur Unterscheidung von Klassifikation und Ranking siehe genauer: Ziegele/van Vught 2013, S. 52 ff. 7 Bei ARWU und QS World’s Best Universities Ranking werden auch Vergleiche von Fächergruppen bzw. einzelnen Fächern durchgeführt; das Ranking auf institutioneller Ebene findet allerdings weit stärkere Beachtung und wird deshalb hier in den Fokus genommen.
82
Torsten Bleich
Neben den Rankings auf institutioneller Ebene gibt es eine Vielzahl spezialisierter Ansätze mit globaler Reichweite, wie beispielsweise die auf Business Schools oder BWL-Studiengänge ausgerichteten Rankings von Financial Times, Business Week oder The Economist. Die Ergebnisse zeigen sich auch hier in League Tables; insofern kommen die für die institutionellen Rankings dargestellten Probleme ebenfalls zum Tragen. Einen neuen Ansatz stellt U-Multirank dar, das von der Europäischen Kommission initiiert und im Jahr 2014 erstmals veröffentlicht wurde. U-Multirank ist ein multidimensionales, global ausgerichtetes Ranking, das die Dimensionen Lehre, Forschung, Wissenstransfer, internationale Orientierung und regionales Engagement mit jeweils einer Vielzahl von Indikatoren abdeckt. Die Dimensionen bzw. Indikatoren werden bei diesem Konzept nicht zu einem Composite Indicator aufsummiert, und es gibt im Ergebnis auch keine League Table wie bei den zuvor erläuterten Rankings. Stattdessen bleiben die Dimensionen bzw. Indikatoren unverbunden und können, je nach Informationsbedarf des Nutzers, isoliert voneinander abgefragt werden. Gewichtungsfaktoren für die einzelnen Indikatoren, die zu einem gewissen Ausmaß subjektiv sind, sind folglich nicht erforderlich. Ein gewisser Vorteil ist überdies, dass das Konzept eine gleichzeitige Abbildung sowohl der institutionellen Ebene als auch der Fächerebene grundsätzlich erlaubt (Ziegele/van Vught 2013, S. 56). Im Unterschied zu den bislang etablierten Rankings, die sich stets auf einen bestimmten Profiltypus von Hochschule konzentrieren, kann U-Multirank die bestehende Vielfalt in der Hochschulwelt differenzierter erfassen. Für den Nutzer liegt der Mehrwert insbesondere darin, dass U-Multirank ihm die Leistungsunterschiede der für ihn relevanten Dimensionen bzw. Indikatoren gemäß seiner individuellen Auswahl präsentiert. Eine vermeintlich einfach zu interpretierende Rangliste der Hochschulen über alle Dimensionen bzw. Indikatoren hinweg liefert dieser Ansatz hingegen nicht.
3.2 Das Hochschulranking des CHE Neben den internationalen Rankings gibt es in Deutschland eine Vielzahl von Hochschulrankings mit nationaler Reichweite.⁸ Hierzu zählt als prominenter Ansatz auch das CHE Hochschulranking, das regelmäßig seit 1998 in Zusammenarbeit mit verschiedenen Medienpartnern, seit 2005 mit der Wochenzeitung Die Zeit, veröffentlicht wird. Für die primäre Zielgruppe der Studierwilligen und der Studierenden, die einen Hochschulwechsel beabsichtigen, dient das CHE Hochschulranking als „Orientierungstool“ für die Wahl von Studienprogrammen und Hochschulen (Friedrich 2013, S. 2). Desweiteren richtet sich das Ranking auch an die Hochschulen selbst (mit den dort tätigen Leitungsorganen, Hochschullehrern und -mitarbeitern), damit diese
8 Einen Überblick über deutschlandweite Rankings liefert z. B. Roessler 2013.
Duale Studiengänge im CHE Hochschulranking
83
detaillierte Informationen zur Positionierung der eigenen Einrichtung erhalten. Die Ergebnisse des CHE Hochschulrankings werden daher auch von den Hochschulen für eine Vielzahl von Zwecken wie Öffentlichkeitsarbeit, Hochschulmarketing und -controlling, Qualitätsmanagement sowie die Studienberatung verwendet.⁹ Das CHE Hochschulranking erfolgt auf Fächerebene für derzeit rund 40 Fächer (hier und im Folgenden: Centrum für Hochschulentwicklung 2014). Für jedes der in das CHE Hochschulranking einbezogenen Fächer erfolgt die Analyse in einem zeitlichen Abstand von drei Jahren, wobei von Jahr zu Jahr jeweils andere Fächer untersucht werden. Damit fachspezifischen Besonderheiten genügend Rechnung getragen werden kann, wird das CHE Hochschulranking in jedem Fach von einem Fachbeirat begleitet, dem sachverständige Vertreter des jeweiligen Faches angehören. Die Indikatoren im CHE Hochschulranking basieren auf zwei Säulen: einerseits werden objektive Fakten aus unterschiedlichen Quellen ermittelt, andererseits werden unterschiedliche Statusgruppen nach ihren Einschätzungen befragt. Es handelt sich wie bei U-Multirank um einen multidimensionalen Ansatz; auf Ebene der einzelnen gerankten Indikatoren erfolgt in der Regel jeweils die Einordnung in eine von drei Ranggruppen (Spitzen-, Mittel- oder Schlussgruppe). Neben den gerankten Indikatoren sind zusätzlich auch einige deskriptive, nicht-gerankte Indikatoren im CHE Hochschulranking enthalten, die für die Zielgruppe relevante Informationen über die Hochschule, den Fachbereich bzw. den Studiengang liefern. Die Erhebung der objektiven Fakten erfolgt durch eine Befragung der Hochschulen sowie der Fachbereiche, durch eine bibliometrische Auswertung, durch die Analyse verschiedener Statistiken (z. B. des Statistischen Bundesamtes) und durch Internetrecherchen des CHE. Die Bildung der Ranggruppen bei den Fakten erfolgt in der Regel nach Quartilen. Hochschulen, die bei dem jeweiligen Indikator zu den besten 25 Prozent (1. Quartil) gehören, werden der Spitzengruppe zugerechnet. In der Schlussgruppe befinden sich Hochschulen, die zu den schwächsten 25 Prozent (4. Quartil) gehören. Die mittleren 50 Prozent (2. Quartil und 3. Quartil) der Hochschulen bilden die Mittelgruppe. Eine Besonderheit bei den objektiven Fakten stellen die sogenannten Rating-Indikatoren dar. Rating-Indikatoren setzen sich aus verschiedenen Einzelaspekten zusammen und werden über eine fächerspezifische Punktvergabe bewertet, die schließlich darüber entscheidet, welcher Ranggruppe der Fachbereich einer Hochschule zugeordnet wird.¹⁰
9 Zur Verwendung der Ergebnisse des CHE Hochschulrankings durch die Hochschulen selbst siehe genauer: Friedrich 2013. 10 Bei dem Indikator Internationale Ausrichtung in der Lehre handelt es sich beispielsweise um einen aus den vier Teilaspekten Integration von Auslandsaufenthalten, Internationalität der Studierenden, Internationalität des Lehrkörpers am Fachbereich und fremdsprachige Lehre zusammengesetzten Rating-Indikator.
84
Torsten Bleich
Zahlreiche Indikatoren im CHE Hochschulranking beruhen auf der Befragung von Studierenden und ggf. Absolventen¹¹. Die Urteile dieser Gruppen sind subjektive Einschätzungen und unterliegen daher einer größeren Unsicherheit als die objektiven Fakten. Um Ranggruppen zu bilden, wird bei den einzelnen Indikatoren in der Regel der Fachbereichs-Mittelwert und das zugehörige 95 %-Konfidenzintervall ermittelt und mit dem bundesweiten Mittelwert verglichen. Die Einordnung in die Spitzengruppe erfolgt, wenn das 95 %-Konfidenzintervall des Fachbereichs komplett über dem bundesweiten Mittelwert liegt. Diejenigen Fachbereiche, die bei dem jeweiligen Indikator mit dem 95 %-Konfidenzintervall komplett unterhalb des bundesweiten Mittelwerts liegen, werden in die Schlussgruppe eingeordnet. Die Mittelgruppe besteht aus den Fachbereichen, die sich mit ihrem 95 %-Konfidenzintervall innerhalb eines oberen und eines unteren Schwellenwertes¹² befinden. Sofern auf dieser Basis die Zuordnung zu zwei Gruppen möglich ist, erfolgt die Einordnung in die bessere Gruppe. Insbesondere bei geringer Fallzahl kann es vorkommen, dass das 95 %-Konfidenzintervall den bundesweiten Mittelwert sowie den oberen oder den unteren Schwellenwert einschließt; diese Fachbereiche werden bei dem jeweiligen Indikator nicht in das Ranking aufgenommen. Die Befragung von Hochschullehrern dient vor allem dazu, fachbezogen die Forschungsreputation von Universitäten und die Reputation in Studium und Lehre von Fachhochschulen zu ermitteln. In der jeweiligen Spitzengruppe werden diejenigen Hochschulen gerankt, die von mehr als 25 Prozent der Universitätsprofessoren bzw. 15 Prozent der Professoren an Fachhochschulen genannt wurden. Alle anderen Hochschulen werden in die Mittelgruppe eingeordnet.
4 Duale Studiengänge im CHE Hochschulranking Zahlreiche Hochschulen (bzw. Berufsakademien) nehmen mit ihren dualen Studiengängen derzeit nicht am CHE Hochschulranking teil. Ursächlich hierfür ist nach Informationen des CHE, dass die zurzeit verwendeten Rankingindikatoren aus Sicht vieler Hochschulen den Besonderheiten dualer Studiengänge nicht ausreichend Rechnung tragen. Im Folgenden soll deshalb – am Beispiel betriebswirtschaftlicher Studiengänge – der Frage nachgegangen werden, ob die vom CHE verwendeten Rankingindikatoren für das duale Studienmodell passend sind und welche Ansatzpunkte zur Optimierung bestehen.
11 Nach Auskunft beim CHE werden derzeit keine Befragungen von Absolventen durchgeführt, weil diese in der Vergangenheit oftmals nicht zu einer belastbaren Datenbasis führten. 12 Der obere und der untere Schwellenwert sind relative Grenzen um den jeweiligen bundesweiten Mittelwert.
Duale Studiengänge im CHE Hochschulranking
85
4.1 Status quo: Indikatoren des CHE Hochschulrankings für duale Studiengänge Studiengangs- und fachbereichsbezogen werden im CHE Hochschulranking verschiedene Indikatoren erhoben, die jeweils einem der Bausteine Studierende (A), Studienergebnis (B), internationale Ausrichtung (C), Forschung (D), Studium und Lehre (E), Ausstattung (F) sowie Berufsbezug und Arbeitsmarkt (G) zugeordnet sind.¹³ Die Tab. 1 liefert, geordnet nach den Bausteinen, einen Überblick über die gegenwärtig für duale betriebswirtschaftliche Studiengänge mit Bachelorabschluss verwendeten Indikatoren mit Angaben zur Erhebungsebene, zur Datenherkunft, zur Datenqualität (objektive Fakten vs. subjektive Einschätzungen) und zur Auswertungsmethode. Tab. 1: Rankingindikatoren für duale Studiengänge im CHE Hochschulranking (BWL) Indikator
Erhebungsebene
Datenherkunft
Datenqualität Auswertungsmethode (objektiv vs. subjektiv)
Studiengang
Befragung Fachbereich
Objektiv
Deskriptiv, nicht gerankt
Bewerber/Studien- Studiengang platz-Quote (A.2)
Befragung Fachbereich
Objektiv
Deskriptiv, nicht gerankt
Studienanfänger pro Jahr (A.3)
Studiengang
Befragung Fachbereich
Objektiv
Deskriptiv, nicht gerankt
Geschlechterverhältnis (A.4)
Studiengang
Befragung Fachbereich
Objektiv
Deskriptiv, nicht gerankt
Hauptfach-Studierende insgesamt (A.5)
Fachbereich
Befragung Fachbereich
Objektiv
Deskriptiv, nicht gerankt
Befragung Fachbereich
Objektiv
Deskriptiv, nicht gerankt
Baustein A: Studierende Anzahl der Studierenden (A.1)
Baustein B: Studienergebnis Absolventen pro Jahr (B.1)
Studiengang
13 Im CHE Ranking Methodenwiki (Centrum für Hochschulentwicklung 2014) werden insgesamt neun Bausteine aufgeführt; dies sind zusätzlich zu den genannten noch die Bausteine Gesamturteile sowie Studienort und Hochschule. Der Baustein Gesamturteile besteht aus Indikatoren, die in anderen Bausteinen bereits enthalten sind. In dem Baustein Studienort und Hochschule finden sich Indikatoren, die nicht studiengangs-, sondern hochschul- bzw. hochschulortsbezogen sind; diese sind hier aufgrund der studiengangsbezogenen Fragestellung nicht Gegenstand der Betrachtung.
86
Torsten Bleich
Indikator
Erhebungsebene
Datenherkunft
Datenqualität Auswertungsmethode (objektiv vs. subjektiv)
Credits insgesamt und getrennt nach Lernorten (B.2)
Studiengang
Befragung Fachbereich
Objektiv
Deskriptiv, nicht gerankt
Regelstudienzeit (B.3)
Studiengang
Befragung Fachbereich
Objektiv
Deskriptiv, nicht gerankt
Baustein C: Internationale Ausrichtung Anteil ausländiStudiengang scher Studierender (C.1)
Befragung Fachbereich
Objektiv
Deskriptiv und Bestandteil des Rating-Indikators
Anteil fremdsprachiger Lehrveranstaltungen (C.2)
Studiengang
Befragung Fachbereich
Objektiv
Deskriptiv und Bestandteil des Rating-Indikators
Gemeinsames Studienprogramm mit ausländischer Hochschule (C.3)
Studiengang
Befragung Fachbereich
Objektiv
Deskriptiv und Bestandteil des Rating-Indikators
Häufigste Austauschhochschulen (C.4)
Studiengang
Befragung Fachbereich
Objektiv
Deskriptiv, nicht gerankt
Obligatorischer Auslandsaufenthalt (C.5)
Studiengang
Befragung Fachbereich
Objektiv
Deskriptiv und Bestandteil des Rating-Indikators
Unterstützung für Auslandsstudium (C.6)
Fachbereich
Befragung Studierende
Subjektiv
Gerankt, Mittelwert und Konfidenzintervall
Internationale Ausrichtung in der Lehre (C.7)
Studiengang/ Befragung Objektiv Fachbereich Fachbereich, ggf. Modul-handbücher, Studien- und Prüfungsord-nungen, Anga-ben des Stat. Bundesamts
Gerankt, Rating-Indikator (Ermittlung des RatingIndikators erfolgt auf Studiengangsebene; auf Ebene der Fachbereiche wird der Wert ausgewiesen, den der am besten bewertete Studiengang erzielt hat)
Baustein D: Forschung (nur Universitäten) Forschungsgelder pro Wissenschaftler (D.1)
Fachbereich
Befragung Fachbereich
Objektiv
Gerankt, Quartile
Duale Studiengänge im CHE Hochschulranking
Indikator
Erhebungsebene
87
Datenherkunft
Datenqualität Auswertungsmethode (objektiv vs. subjektiv)
Forschungsreputa- Fachbereich tion (D.2)
Befragung Professoren
Subjektiv
Gerankt, Professorenurteil
International sichtbare Veröffentlichungen pro Wissenschaftler (D.3)
Fachbereich
Bibliometrische Analyse
Objektiv
Gerankt, Quartile
Promotionen pro Professor (D.4)
Fachbereich
Befragung Fachbereich
Objektiv
Gerankt, Quartile
Bibliometrische Analyse
Objektiv
Gerankt, Quartile
Veröffentlichungen Fachbereich pro Professor (D.5) Baustein E: Studium und Lehre Absolventen in der Fachbereich Regelstudienzeit (Bachelor) (E.1)
Befragung Fachbe- Objektiv reich, ggf. Angaben des Stat. Bundesamts
Gerankt, Spitzengruppe: ≥80 %, Mittelgruppe: ≥50 % und < 80 %, Schlussgruppe: n gilt dann
x̂t = a + bt + st(p) . Dabei ist t(p) = min (t − lp | t − lp > 0, l ∈ N0). Für die in Kapitel 2 gegebene Punktfolge wird wiederum eine Prognose für das Jahr 2015 berechnet. Für die Berechnung der Trendkomponente wird die in Abschnitt 2.2.1 ermittelte Regressionsgerade f(t) = 359,833 + 26,7t verwendet. Die fünf Saisonkomponenten sind 1 ⋅ ((365 − 386,53) + (502 − 520,03)) = −19,78 2 1 = ⋅ ((450 − 413,23) + (626 − 546,73)) = 58,02 2 1 = ⋅ ((482 − 439,93) + (627 − 573,43)) = 47,82 2 1 = ⋅ ((431 − 466,63) + (543 − 600,13)) = −46,38 2 = 414 − 493,33 = −79,33 .
s1 = s2 s3 s4 s5
Die gesamte Zerlegung der Zeitreihe ist in folgender Tabelle dargestellt. Für die Prognose für das Jahr 2015 gilt x̂10 = 359,833 + 26,7 ⋅ 10 + s5 = 626,83 − 79,33 = 547,45 ≈ 548 .
204
Gert Heinrich
Tab.2: Zeitreihenzerlegung in Komponenten t
xt
359,833 + 26,7t
st
rt
1 2 3 4 5 6 7 8 9
365 450 482 431 414 502 626 627 543
386,53 413,23 439,93 466,63 493,33 520,03 546,73 573,43 600,13
–19,78 58,02 47,82 –46,38 –79,33 –19,78 58,02 47,82 –46,38
–1,75 –21,25 –5,75 10,75 0,00 1,75 21,25 5,75 –10,75
Quelle: Eigene Darstellung.
3.2 Einfaches exponentielles Glätten Das einfache exponentielle Glätten ist ein Prognoseverfahren, das von Holt entwickelt wurde (Holt, 1958). Eine notwendige Voraussetzung für die Anwendung des Verfahrens ist, dass die Zeitreihe keinen erkennbaren Trend und keine saisonalen Effekte aufweist, was für die gegebene Zeitreihe natürlich nicht erfüllt ist. Trotzdem wird dieses Verfahren hier vorgestellt, da es zum Verständnis eines allgemeineren Verfahrens im nächsten Abschnitt hilfreich ist. Betrachtet wird hier die einfachste Zerlegung einer Zeitreihe xt = a + rt. Dabei stellen a das Niveau der Zeitreihe und rt zufällige Schwankungen dar. Um das Niveau zu schätzen, werden Beobachtungwerte gewichtet. Sie bekommen umso weniger Gewicht, je länger diese in der Vergangenheit liegen. Der Schätzer ât für den Parameter a wird im Bereich 2 ≤ t ≤ n berechnet durch ât = λ ⋅ xt + (1 − λ) ⋅ ât−1 mit einer Glättungskonstante 0 < λ < 1. Je größer diese Glättungskonstante ist, umso mehr Gewicht wird der aktuellen Beobachtung eingeräumt. Zudem ist für das Verfahren ein Startwert â1 notwendig. Häufig wird der erste Beobachtungswert verwendet. Alternativen sind aber auch Mittelwerte aus Teilmengen der ersten n Beobachtungen. Für die Prognosen x̂t für die Zeitpunkte t, t > n gilt dann x̂t = ân.
Schätzverfahren für punktuelle Zukunftsprognosen
205
Für die in Kapitel 2 gegebene Punktfolge wird wiederum eine Prognose für das Jahr 2015 berechnet. Abhängig von der Glättungskonstante λ ergeben sich folgende Schätzungen. Tab.3: Schätzung durch einfaches exponentielles Glätten λ
x̂10
0,1 0,2 0,3 0,4 0,5 0,9
455 508 539 556 564 551
Quelle: Eigene Darstellung.
Diese Schätzungen sehen zwar brauchbar aus, sollten aber aufgrund der nicht gegebenen Voraussetzungen besser nicht verwendet werden.
3.3 Verallgemeinertes Verfahren nach Holt und Winters Das Prognoseverfahren des einfachen exponentiellen Glättens wurde von Holt und Winters (Holt, 1958) für Zeitreihen mit erkennbarem Trend und saisonalen Effekten verallgemeinert. Dazu wird die Zeitreihe wie in Abschnitt 3.1 durch xt = a + bt + st + rt dargestellt. Die rekursiven Schätzer ât, b̂t und ŝt für die Parameter a und b und die Saisonkomponenten st werden im Bereich 2 ≤ t ≤ n bei gegebener Periode p ∈ ℕ berechnet durch â t = λ1 ⋅ (x t − ŝ t−p ) + (1 − λ1 ) ⋅ (â t−1 + b̂ t−1 ) b̂ t = λ2 ⋅ (â t − â t−1 ) + (1 − λ2 ) ⋅ b̂ t−1 ŝ t = λ3 ⋅ (x t − â t ) + (1 − λ3 ) ⋅ ŝ t−p
mit drei Glättungskonstanten 0 < λ1, λ2, λ3 < 1. Die Glättungskonstanten λ1 und λ2 dienen zur Glättung des Niveaus bzw. des linearen Trends, λ3 dient zur Glättung der Saisonalität. Startwerte für die Rekursionen können aus der ersten Periode berechnet werden. Sind zwei und mehr Perioden vorhanden, werden häufig die ersten beiden Perioden für die Berechnung von Startwerten verwendet.
206
Gert Heinrich
Für die Prognosen x̂t für die Zeitpunkte t, t > n gilt dann {â n + b̂ n ⋅ (t − n) + ŝ t−p x̂ t = { â + b̂ n ⋅ (t − n) + ŝ t−2p { n
für 1 ≤ t − n ≤ p für p + 1 ≤ t − n ≤ 2p .
In der folgenden Tabelle sind die rekursiven Schätzer bis t = 9 für die Parameterkonstellation λ1 = λ2 = λ3 = 0,1 angegeben. Als Startwerte für die erste Periode wurden für â5 und b̂5 die Werte aus der Regressionsgeraden aus Abschnitt 2.2.1 verwendet, die Startwerte ŝt, 1 ≤ t ≤ 5 sind die Differenzen der Werte xt und den Funktionswerten auf der Regressionsgeraden. Tab. 4: Schätzung durch das Verfahren von Holt und Winters für λ1 = λ2 = λ3 = 0,1 t
xt
ât
1 2 3 4 5 6 7 8 9
365 450 482 431 414 502 626 627 543
493,33 520,38 551,33 579,13 603,58
b̂t
ŝt
26,70 26,74 27,16 27,22 26,94
–21,53 36,77 42,07 –35,63 –79,33 –21,22 40,56 42,65 –38,13
Quelle: Eigene Darstellung.
Für die Prognose für das Jahr 2015 gilt x̂10 = â9 + b̂9 ⋅ (10 − 9) + ŝ10–5 = 603,58 + 26,94 − 79,33 = 551,19 ≈ 551. Tab.5: Schätzung durch das Verfahren von Holt und Winters für andere Parameterkonstellationen λ1 = λ2 = λ3
x̂10
x̂10 gerundet
0,2 0,3 0,4 0,5 0,6 0,7 0,8 0,9
553,98 554,35 551,13 543,70 532,28 518,18 503,96 493,69
554 554 551 544 532 518 504 494
Quelle: Eigene Darstellung.
Schätzverfahren für punktuelle Zukunftsprognosen
207
Betrachtet man weitere Parameterkonstellationen der drei Parameter, so ergeben sich die in der folgenden Tabelle angegebenen Schätzwerte. Erfahrungsgemäß liefern für das gegebene Ausgangsproblem Parameterkonstellationen im Bereich 0,7 < λ1, λ2, λ3 < 0,9 die besten Schätzwerte, da dann die jüngsten Beobachtungswerte ein relativ hohes Gewicht erhalten.
4 Zusammenfassung und Ausblick In der vorliegenden Abhandlung wurden ausschließlich Verfahren betrachtet, bei denen die Prognose bzw. die Schätzung nur von den gegebenen Daten abhängt. Die Schätzwerte sind in folgender Tabelle zusammengestellt. Tab.6: Bewertung der Prognosen Schätzverfahren
Schätzwert
Bewertung
Polynom 8. Grades Regressionsgerade Regressionsgerade, reduziert auf 4 Werte Regressionsgerade, reduziert auf 3 Werte Näherungspolynom 2. Grades Näherungspolynom 2. Grades, reduziert Kombination aus linearen und periodischen Funktionen Zeitreihenzerlegung Verfahren nach Holt/Winters, Parameter klein Verfahren nach Holt/Winters, Parameter mittel Verfahren nach Holt/Winters, Parameter groß
1274 627 606 516 626 346 552
unrealistisch unrealistisch unrealistisch sehr guter Schätzwert unrealistisch unrealistisch möglich
548 551 bzw. 554 532 bzw. 544 494, 504 bzw. 518
möglich möglich guter Schätzwert sehr guter Schätzwert
Quelle: Eigene Darstellung.
Die Bewertung der Schätzwerte erfolgt nach den Kriterien sehr gut, gut, möglich und unrealistisch. Folglich wird die Anzahl der Studienanfänger im Oktober 2015 der Fakultät Wirtschaft der Dualen Hochschule Baden-Württemberg am Standort Villingen-Schwenningen mit großer Wahrscheinlichkeit zwischen 494 und 554 sein, wobei es wahrscheinlicher ist, das die Anzahl in der unteren Hälfte dieses Intervalls sein wird, da die auf die letzten drei Werte reduzierte Regressionsgerade und das Verfahren nach Holt und Winters (0,7 < λ1, λ2, λ3 < 0,9) ähnliche Werte liefern. Komplexere Modelle verwenden zusätzliche, über die expliziten Daten hinausgehende Einflussgrößen. Beispiele dafür sind Expertenmeinungen, konjunkturelle oder zyklische Eigenschaften. Bei der gegebenen Problemstellung könnten diese Einflussgrößen Änderungen im Portfolio der Studiengänge oder Abhängigkeiten zur aktuellen Abiturientenanzahl sein. Solche Modelle werden mit zunehmender Komplexität
208
Gert Heinrich
mathematisch anspruchsvoller. Vorschläge bzw. Darstellungen solcher Modelle sind zu finden in Neusser (Neusser 2011), Schlittgen (Schlittgen 2012) und Stier (Stier 2013).
Literaturverzeichnis Hackl, P./Katzenbeisser, W. (2000): Statistik für Sozial- und Wirtschaftswissenschaften, 11. Auflage, München 2000. Heiler, S./Michels. P. (1994): Deskriptive und Explorative Datenanalyse, München 1994. Heinrich, G. (2013): Basiswissen Mathematik, Statistik und Operations Research für Wirtschaftswissenschaftler, 5. Auflage, München 2013. Holt, C. C. (1957): Forecasting seasonals and trends by exponentially weighted moving averages, Carnegie Inst. Tech. Res. Mem. No. 52. Neusser, K. (2011): Zeitreihenanalyse in den Wirtschaftswissenschaften, 3. Auflage, Wiesbaden 2011. Schlittgen, R. (2012): Angewandte Zeitreihenanalyse mit R, München 2012. Stier, W. (2013): Methoden der Zeitreihenanalyse, Berlin 2013.
Wolfgang Hirschberger
11 Auswirkungen handelsrechtlicher
Wahlrechte auf die Kapitalflussrechnung nach DRS 21 1 Einleitung Mit der Bekanntmachung im Bundesanzeiger am 08. April 2014 durch das Bundesministerium der Justiz genießt der „Deutsche Rechnungslegung Standard Nr. 21 Kapitalflussrechnung (DRS 21)“ gem. § 342 Abs. 2 Satz 1 HGB den Charakter eines Grundsatzes ordnungsmäßiger Buchführung für die Erstellung der Kapitalflussrechnung als Bestandteil des Konzernabschlusses (DRS 21.2). Für eine Kapitalflussrechnung als freiwilligem Bestandteil des Jahresabschlusses wird durch DRS 21.7 die Beachtung dieses Standards empfohlen. Mit DRS 21 wurden insbesondere einige der im Vorgänger DRS 2 bestehenden Wahlrechte bei der Erstellung einer Kapitalflussrechnung beseitigt, wie z. B. die Zusammensetzung des Finanzmittelfonds (DRS 21.34), die Zuordnung Erhaltener Zinsen und Dividenden (DRS 21.44) sowie Gezahlter Zinsen und Dividenden (DRS 21.48). Mit der Beseitigung der Wahlrechte wird zielgerichtet die Vergleichbarkeit der Kapitalflussrechnungen zwischen den Unternehmen gestärkt, weshalb dieser Schritt in DRS 21 zu begrüßen ist. Die Verminderung von Wahlrechten war auch ein Ziel des Bilanzrechtsmodernisierungsgesetzes (BilMoG) vom 25. Mai 2009, mit dem u. a. „die Informationsfunktion des handelsrechtlichen Jahres- und Konzernabschlusses im Wege der Modernisierung der Rechnungslegungsvorschriften des HGB gestärkt“ werden sollte (Deutscher Bundestag 2008, S. 45). Gleichwohl bestehen im HGB auch nach den Änderungen durch BilMoG immer noch einige Ansatz- und Bewertungswahlrechte. Aufgabe einer Kapitalflussrechnung sowohl gem. DRS 21 als auch nach IAS 7 ist die Analyse der Veränderung des Bestandes an Liquiden Mitteln zwischen zwei Abschlussstichtagen. Alle zahlungswirksamen Veränderungen werden einer der drei Kategorien „Laufende Geschäftstätigkeit“, „Investitionstätigkeit“ oder „Finanzierungstätigkeit“ zugeordnet. Daneben können noch wechselkurs-, konsolidierungskreis- oder sonstige bewertungsbedingte Änderungen des Finanzmittelfonds Ursache für Erhöhungen oder Verminderungen desselben sein (DRS 21.15). Mit Ausnahme der bewertungsbedingten Änderungen ist die Veränderung des Finanzmittelfonds zwischen zwei Abschlussstichtagen fest und kann auch nicht mehr nachträglich im Sinne einer „Bilanzpolitik“ verändert werden. Die den Finanzmittelfonds gem. DRS 21.9 bestimmenden Zahlungsmittel und Zahlungsmitteläquivalente sind auf den (Bank-) Konten bzw. in der Kasse feststehend und können nicht nach Ablauf des Geschäftsjahres nachträglich noch erhöht oder vermindert werden.
210
Wolfgang Hirschberger
Im Folgenden soll anhand einer mindestens mittelgroßen Kapitalgesellschaft i. S. d. § 267 Abs. 2 HGB untersucht werden, in wieweit sich handelsrechtliche Ansatzund Bewertungs-Wahlrechte auch auf die Kapitalflussrechnung auswirken und diese dann doch nicht gänzlich frei von bilanzpolitischen Maßnahmen ist. Die Untersuchung erfolgt anhand der in der Praxis dominierenden Indirekten Methode zur Ermittlung des Cashflows aus der laufenden Geschäftstätigkeit (DRS 21.38).
2 Ansatzwahlrechte 2.1 Selbst geschaffene immaterielle Vermögensgegenstände des Anlagevermögens Durch das BilMoG 2009 wurde in § 248 Abs. 2 Satz 1 HGB ein Ansatzwahlrecht für „Selbst geschaffene immaterielle Vermögensgegenstände des Anlagevermögens“ anstelle des vorher bestehenden Ansatzverbotes ins HGB aufgenommen. Hauptanwendungsfall sind die Entwicklungskosten für die künftigen Produkte eines Unternehmens. Die Entwicklungskosten werden zunächst unterjährig als Personal-, Materialoder Sonstiger betrieblicher Aufwand in der GuV erfasst. Sie schmälern dadurch das Periodenergebnis und c. p. den Cashflow aus der laufenden Geschäftstätigkeit, z. B. um 100 GE. Wird das Aktivierungswahlrecht nicht ausgeübt (Alternative 1), so bleibt es dabei. Wird hingegen das Aktivierungswahlrecht positiv ausgeübt (Alternative 2), so kommt es unter Beachtung der besonderen Bewertungsvorschriften gem. § 255 Abs. 2a HGB zur Buchung „Vermögensgegenstand“ 100 GE an „Andere aktivierte Eigenleistungen“ 100 GE. Das Periodenergebnis erhöht sich entsprechend und im Anlagengitter gem. § 268 Abs. 2 HGB wird ein Zugang ausgewiesen. Mittelbare Folge sind Passive Latente Steuern, auf die in Kapitel 2.3 noch gesondert eingegangen wird. Dieser Zugang an Anlagevermögen wird in der Kapitalflussrechnung als Abfluss der Kategorie „Investitionstätigkeit“ zugeordnet. Die Kategorie „Laufende Geschäftstätigkeit“ wird durch die Erhöhung des Periodenergebnisses als dessen Ausgangsgröße entsprechend entlastet. Ergebnis: Die positive Ausübung des Aktivierungswahlrechts für „Selbst geschaffene immaterielle Vermögensgegenstände des Anlagevermögens“ führt zu einer Verbesserung des „Cashflows aus der laufenden Geschäftstätigkeit“, hier um +100 GE, während der Abfluss aus „Investitionstätigkeit“ um eben diesen Betrag ansteigt. Dies ist bilanzpolitisch wünschenswert, zumal dieser Effekt in den Folgejahren nicht konterkariert wird.
Auswirkungen handelsrechtlicher Wahlrechte auf die Kapitalflussrechnung nach DRS 21
211
2.2 Disagio § 250 Abs. 3 Satz 1 HGB gewährt ein Wahlrecht für den Ansatz eines Disagios, das bei der Auszahlung eines Darlehens einbehalten wird, als Aktiven Rechnungsabgrenzungsposten. Alternativ wird der einbehaltene Betrag als Zinsaufwand ergebnismindernd erfasst. Bei korrekter Ermittlung der Kapitalflussrechnung spielt dieses handelsrechtliche Wahlrecht keine Rolle, wie folgendes Beispiel zeigt: Bei einem Darlehensbetrag in Höhe von 1.000 GE wird ein Disagio in Höhe von 100 GE einbehalten. Der Zufluss an das Unternehmen beträgt mithin 900 GE. Richtig wäre nun gem. DRS 21.29 nur den Zufluss in Höhe von 900 GE der „Finanzierungstätigkeit“ zuzuordnen und der Vorgang wäre damit abgeschlossen. Das handelsrechtliche Wahlrecht gem. § 250 Abs. 3 Satz 1 HGB spielte dabei überhaupt keine Rolle. Durch die derivative Ermittlung der Kapitalflussrechnung auf Basis des Jahresabschlusses kommt es jedoch zu folgenden Auswirkungen: Alternative 1: Ansatz eines Aktiven Rechnungsabgrenzungspostens Die Zunahme eines „Sonstigen Aktivpostens“ um 100 GE schmälert in Zeile 5 des KFRMindestgliederungsschemas der Indirekten Methode (DRS 21, Anlage 1, Tab. 6) den Cashflow aus der laufenden Geschäftstätigkeit, während in Zeile 35 die Darlehenszunahme in voller Höhe (hier 1.000 GE) zu einer Einzahlung in der Kategorie „Finanzierungstätigkeit“ führt. Alternative 2: Verbuchung des Disagios als Zinsaufwand Der Zinsaufwand schmälert zunächst das Periodenergebnis und damit den „Cashflow aus der laufenden Geschäftstätigkeit“. Die Zinsaufwendungen werden jedoch in Zeile 8 des KFR-Mindestgliederungsschemas wieder hinzuaddiert, so dass sich per Saldo keine Auswirkung auf den Cashflow aus der laufenden Geschäftstätigkeit ergibt. Der Cashflow aus der Finanzierungstätigkeit wird bei dieser Alternative in jedem Fall um 900 GE erhöht und zwar unabhängig davon, ob in Zeile 35 des KFR-Mindestgliederungsschemas nur der Nettozufluss in Höhe von 900 GE gezeigt wird oder aber, in Zeile 35 wird ein Zufluss in Höhe von 1.000 GE gezeigt, während in Zeile 40 „Gezahlte Zinsen“ ein Abfluss in Höhe von 100 GE aufgeführt wird. Ergebnis: In der Praxis dürfte Alternative 1 „Ansatz eines Aktiven Rechnungsabgrenzungsposten“ dominieren, zumal dies die einkommensteuerlich einzig zulässige Möglichkeit ist (§ 5 Abs. 5 Satz 1 Nr. 1 EStG). Damit besteht aber die Gefahr, dass bei unreflektierter derivativer Ermittlung der Kapitalflussrechnung diese ein für die Außendarstellung des Unternehmens schlechteres Bild abgibt.
212
Wolfgang Hirschberger
2.3 Überhang an Aktiven Latenten Steuern Gem. § 274 Abs. 1 Satz 2 HGB besteht bei einem Überhang an Aktiven Latenten Steuern im Vergleich zu den Passiven Latenten Steuern ein Ansatzwahlrecht. Bei Latenten Steuern handelt es sich stets um künftige Steuerein- und auszahlungen. Erst in späteren Perioden werden aus Latenten Steuern tatsächliche Steuerzahlungen. Gem. DRS 21.29 dürfen Latente Steuern daher die Kapitalflussrechnung nicht beeinflussen, unabhängig davon, wie das Wahlrecht ausgeübt wird. Das soll nachfolgend anhand eines Beispiels untersucht werden. Alternative 1: Ansatz des Überhangs an Aktiven Latenten Steuern Die Buchungssätze lauten exemplarisch: Aktive Latente Steuern 100 GE an Latenter Steuerertrag 100 GE Latenter Steueraufwand 80 GE an Passive Latente Steuern 80 GE Durch diese Buchungen wird das Periodenergebnis per Saldo um 20 GE erhöht und damit auch die Ausgangsgröße für den Cashflow aus der laufenden Geschäftstätigkeit. In Zeile 5 des KFR-Mindestgliederungsschemas (DRS 21.40) wird die Zunahme von Aktiva, die nicht der Investitions- oder Finanzierungstätigkeit zuzuordnen sind, wieder subtrahiert (hier: –100 GE) und in Zeile 6 eine entsprechende Zunahme an Passiva addiert (hier: +80 GE). Insgesamt ist damit auch das Ergebnis des Cashflows aus der laufenden Geschäftstätigkeit richtigerweise 0 GE. Alternative 2: Kein Ansatz bei Überhang an Aktiven Latenten Steuern Keine der Größen im KFR-Mindestgliederungsschema gem. DRS 21.40 wird angesprochen und damit auch korrekt keine Zahlung dargestellt. Ergebnis: Unabhängig von der Ausübung des Ansatzwahlrechts gem. § 274 Abs. 1 Satz 2 HGB zeigt die Kapitalflussrechnung richtigerweise keinen Zu- oder Abfluss.
3 Bewertungswahlrechte 3.1 Außerplanmäßige Abschreibungen bei Finanzanlagen Bei Finanzanlagen können gem. § 253 Abs. 3 Satz 4 HGB auch bei voraussichtlich nicht dauernder Wertminderung außerplanmäßige Abschreibungen vorgenommen werden. Die Ausübung dieses Wahlrechts hat im Ergebnis keine Auswirkung auf die Kapitalflussrechnung. Der Aufwand aus der Abschreibung würde zwar das Periodenergebnis vermindern, gleichzeitig jedoch in Zeile 2 des KFR-Mindestgliederungsschemas oder, wenn es sich um einen außerordentlich hohen Betrag handelt, in Zeile 10 wieder in derselben Kategorie hinzuaddiert.
Auswirkungen handelsrechtlicher Wahlrechte auf die Kapitalflussrechnung nach DRS 21
213
Ergebnis: Keine der drei Zwischensummen „Cashflow aus der laufenden Geschäftstätigkeit“, „Cashflow aus der Investitionstätigkeit“ oder „Cashflow aus der Finanzierungstätigkeit“ wird durch die Ausübung dieses Wahlrechts beeinflusst. Lediglich innerhalb der Kategorie „Cashflow aus der laufenden Geschäftstätigkeit“ ergibt sich ein Unterschied, der sich aber zu 0 saldiert.
3.2 Bewertungseinheiten Durch das Wort „Werden“ eingangs des § 254 Satz 1 HGB leitet die herrschende Meinung (IDW 2011, Tz. 4; Beck’scher Bilanz-Kommentar 2014, § 254 Anm. 5) ein Wahlrecht für die Bildung von sog. „Bewertungseinheiten“ ab. Beispiel 1: Das Unternehmen hat Verbindlichkeiten aus Lieferungen und Leistungen in Höhe von 130.000 $. Bei Zugang wurden diese mit 100.000 € eingebucht (Kurs: 1 € = 1,30 $). Um gegen Währungsschwankungen abgesichert zu sein, schloss es eine Kaufoption für $ ab. Der Kurs des Euros fiel zum Bilanzstichtag auf 1,20 $ (=1 €).
Alternative 1: Bildung einer Bewertungseinheit Die Bildung einer Bewertungseinheit verhindert, dass unter Anwendung des Imparitätsprinzips die Verbindlichkeit mit 108.000 € zu bewerten ist. Es erfolgt stattdessen keine Buchung und damit auch keine Auswirkung auf die Kapitalflussrechnung. Alternative 2: Keine Bildung einer Bewertungseinheit Buchungssatz: Sonst. betr. Aufwand 8.000 € an Verbindlichkeiten aus L/L 8.000 € Durch den Aufwand vermindert sich das Periodenergebnis und damit auch die Ausgangsgröße für den Cashflow aus der laufenden Geschäftstätigkeit um –8.000 €. Allerdings erfolgt durch Zeile 6 des KFR-Mindestgliederungsschemas, bezeichnet mit „Zunahme der Verbindlichkeiten aus Lieferungen und Leistungen“, eine gegenläufige Korrektur, so dass die Gesamtauswirkung richtigerweise 0 ist. Beispiel 2: Wie oben in Beispiel 1, nur jetzt handelt es sich nun um eine Darlehensverbindlichkeit.
Alternative 1: Bildung einer Bewertungseinheit Wie im Beispiel 1 ergibt sich mangels Zahlung keine Auswirkung auf die Kapitalflussrechnung. Alternative 2: Keine Bildung einer Bewertungseinheit Buchungssatz: Sonst. betr. Aufwand 8.000 € an Darlehensverbindlichkeit 8.000 € Durch den Aufwand vermindert sich das Periodenergebnis und damit auch die Ausgangsgröße für den Cashflow aus der laufenden Geschäftstätigkeit um –8.000 €. Bei unreflektierter derivativer Ableitung der Kapitalflussrechnung aus dem Jahresab-
214
Wolfgang Hirschberger
schluss bleibt es auch dabei und der Cashflow aus der laufenden Geschäftstätigkeit vermindert sich um -8.000 €. Der gegenteilige Effekt zeigt sich in diesem Fall in Zeile 35 „Einzahlungen aus der Aufnahme von Finanzkrediten“. Der Anstieg um 8.000 € wird unreflektiert als Zufluss in der Kategorie „Cashflow aus der Finanzierungstätigkeit“ ausgewiesen. Diese falsche Abbildung des Vorgangs in der Kapitalflussrechnung ließe sich vermeiden, wenn die Korrektur des Periodenergebnisses richtigerweise bereits in Zeile 4 des KFR-Mindestgliederungsschemas „Sonstige zahlungsunwirksame Aufwendungen“ erfolgen würde und die Zeile 35 gar nicht erst angesprochen würde. Dazu bedarf es aber beim Unternehmen eines guten Verständnisses für den Aufbau der Kapitalflussrechnung und eines Mehraufwands bei der derivativen Ermittlung der Kapitalflussrechnung. Ergebnis: Unabhängig von der Ausübung des Wahlrechts ergeben sich bei korrekter Erfassung keine Auswirkungen auf die Kapitalflussrechnung.
3.3 Umfang eigener Herstellungskosten § 255 Abs. 2 Satz 3 HGB gewährt für die Ermittlung der Herstellungskosten ein Wahlrecht, z. B. für die Einbeziehung allgemeiner Verwaltungskosten. Es gilt nun zu unterscheiden, ob das Unternehmen Teile seines Anlagevermögens selbst herstellt oder, was häufiger der Fall sein dürfte, (Un-)fertige Erzeugnisse. Fall 1: Sachanlagevermögen Der Wert des selbsterstellten Sachanlagevermögens, z. B. einer Maschine, beträgt mit Einbeziehung allgemeiner Verwaltungskosten 100 GE, ohne nur 90 GE. Alternative 1: Bewertung ohne Einbeziehung allgemeiner Verwaltungskosten Die allgemeinen Verwaltungskosten schmälern das Periodenergebnis und damit den Cashflow aus der laufenden Geschäftstätigkeit um 10 GE. Der Cashflow aus der Investitionstätigkeit wird in Zeile 19 „Auszahlungen für Investitionen in das Sachanlagevermögen“ um 90 GE geschmälert. Alternative 2: Bewertung mit Einbeziehung der allgemeinen Verwaltungskosten Die allgemeinen Verwaltungskosten schmälern zunächst auch hier das Periodenergebnis, jedoch wird es durch die handelsrechtliche Mehraktivierung in Zeile 3 der GuV nach dem Gesamtkostenverfahren „Andere aktivierte Eigenleistungen“ wieder ausgeglichen. Der Saldo ist 0. Der Cashflow aus der Investitionstätigkeit wird jetzt um 100 GE in Zeile 19 „Auszahlungen für Investitionen in das Sachanlagevermögen“ geschmälert.
Auswirkungen handelsrechtlicher Wahlrechte auf die Kapitalflussrechnung nach DRS 21
215
Zwischenergebnis: Alternative 1 teilt die Gesamtauszahlung in Höhe von –100 GE auf 10 GE für den Cashflow aus der laufenden Geschäftstätigkeit und –90 GE für den Cashflow aus der Investitionstätigkeit. Alternative 2 weist den Gesamtbetrag in Höhe von –100 GE der Auszahlung für Investitionstätigkeit zu. Alternative 2 dürfte regelmäßig zu bevorzugen sein. Fall 2: (Un-)fertige Erzeugnisse Der Wert der selbsterstellten Erzeugnisse beträgt mit Einbeziehung allgemeiner Verwaltungskosten 50 GE, ohne nur 45 GE. Alternative 1: Bewertung ohne allgemeine Verwaltungskosten Die allgemeinen Verwaltungskosten schmälern das Periodenergebnis und damit den Cashflow aus der laufenden Geschäftstätigkeit um 5 GE. Die Zunahme der Vorräte um 45 GE wird in Zeile 5 des KFR-Mindestgliederungsschemas als Abfluss erfasst, so dass insgesamt der Cashflow aus der laufenden Geschäftstätigkeit um 50 GE vermindert wird. Alternative 2: Bewertung mit Einbeziehung der allgemeinen Verwaltungskosten Die allgemeinen Verwaltungskosten schmälern zunächst auch hier wieder das Periodenergebnis, jedoch wird es durch die handelsrechtliche Korrektur an Materialaufwand in Zeile 5 der GuV nach dem Gesamtkostenverfahren wieder ausgeglichen. Der Saldo ist zunächst 0. Die Zunahme der Vorräte um jetzt 50 GE wird in Zeile 5 des KFRMindestgliederungsschemas als Abfluss erfasst, so dass insgesamt der Cashflow aus der laufenden Geschäftstätigkeit um 50 GE vermindert wird. Zwischenergebnis: Da alle Beträge innerhalb der Kategorie Cashflow aus der laufenden Geschäftstätigkeit abgebildet werden, ist deren Zusammensetzung zwar unterschiedlich, im Endergebnis haben die beiden Alternativen aber keine Auswirkungen auf die Kapitalflussrechnung. Ergebnis: Nur bei der Bewertung des selbsterstellten Anlagevermögens ergibt sich eine Auswirkung auf die Kapitalflussrechnung, wobei hier die Einbeziehung allgemeiner Verwaltungskosten zu bevorzugen sein dürfte. Allerdings stehen dem i. d. R. ertragsteuerliche Barwert-Nachteile gegenüber, so dass diese Alternative kaum in der Praxis gewählt werden dürfte.
3.4 Verbrauchsfolgeverfahren Für den Wertansatz gleichartiger Vermögensgegenstände des Vorratsvermögens gewährt § 256 Satz 1 HGB ein Wahlrecht, neben den allgemeinen Bewertungsregeln
216
Wolfgang Hirschberger
(§§ 240 Abs. 4, 252 Abs. 1) – unter Beachtung von § 253 Abs. 4 HGB – auch die beiden unterstellten Verbrauchsfolgen „First in, First out (Fifo)“ oder „Last in, First out (Lifo)“ anzuwenden. Ergebnis: Es kann auf das Ergebnis von Kapitel 3.3, dort „(Un-)fertige Erzeugnisse“, verwiesen werden: Die Ausübung des Wahlrechts hat zwar Auswirkungen auf das handelsrechtliche Periodenergebnis und damit auf die Ausgangsgröße des Cashflows aus der laufenden Geschäftstätigkeit, jedoch erfolgt durch Zeile 5 „Zu-/Abnahme der Vorräte“ innerhalb derselben Kategorie eine entsprechende Korrektur, so dass sich letztendlich keine Auswirkung auf eine der drei Kategorien der Kapitalflussrechnung ergibt.
3.5 Erhaltene Zuschüsse Bei erhaltenen Zuschüssen zu einer Investition, ohne dass das Unternehmen eine Verpflichtung zur Gegenleistung besteht, geht die herrschende Meinung (Beck’scher Bilanz-Kommentar 2014, § 255 Anm. 116) von einem Wahlrecht aus: Alternative 1: Erfolgswirksame Vereinnahmung Alternative 2: Kürzung der Anschaffungs- bzw. Herstellungskosten um den Zuschuss Ein entsprechendes Wahlrecht sieht auch das Einkommensteuerrecht in R 6.5 „Zuschüsse für Anlagegüter“ EStR vor. Anhand eines Beispiels mit Anschaffungskosten (AK) für eine Maschine in Höhe von 100 GE und einem Zuschuss in Höhe von 10 GE sollen die grundsätzlich möglichen Auswirkungen auf die Kapitalflussrechnung bei einer derivativen Ableitung aus dem Jahresabschluss dargestellt werden: Bei Alternative 1 (Erfolgswirksame Vereinnahmung) würde sich das Periodenergebnis um 10 GE und damit der Cashflow aus der laufenden Geschäftstätigkeit auch diesen Betrag erhöhen. Beim Cashflow aus der Investitionstätigkeit würde ein Abfluss in Höhe von –100 GE zu verzeichnen sein. Bei Alternative 2 (Kürzung der AK) würde sich nur der Cashflow aus der Investitionstätigkeit um den Netto-Abfluss in Höhe von –90 GE vermindern. Dieses offensichtlich erkennend, hat der DRSC in DRS 21.49 eine einheitliche Lösung vorgegeben, die weder Alternative 1 noch 2 entspricht: Einzahlungen aus erhaltenen Zuschüssen sind dem Cashflow aus der Finanzierungstätigkeit zuzuordnen. Im vorgenannten Beispiel würde es damit zu einem Abfluss beim Cashflow aus der Investitionstätigkeit in Höhe von –100 GE und zu einem Zufluss beim Cashflow aus der Finanzierungstätigkeit in Höhe 10 GE kommen. Ergebnis: Unabhängig von der Ausübung des handelsrechtlichen Wahlrechts schreibt DRS 21.49 eine eindeutige Erfassung in der Kapitalflussrechnung vor. Dieses
Auswirkungen handelsrechtlicher Wahlrechte auf die Kapitalflussrechnung nach DRS 21
217
ist zu begrüßen und wäre auch für die übrigen Fälle wünschenswert. Es bleibt zu hoffen, dass die Vorgabe in DRS 21.49 in der Praxis auch umgesetzt wird, besonders in den Fällen, bei denen sich das Unternehmen nicht auf den Grundsatz der Wesentlichkeit berufen kann, auf den eingangs zum DRS 21 ausdrücklich verwiesen wird.
4 Zusammenfassung In den meisten Fällen (Disagio, Überhang an Aktiven Latenten Steuern, Finanzanlagen, Verbrauchsfolgeverfahren, Bewertungseinheiten, Erhaltene Zuschüsse) wirkt sich die Ausübung des Ansatz- oder Bewertungswahlrechts bei korrekter Erstellung nicht auf die Kapitalflussrechnung nach DRS 21 aus. Die jeweilige Ausübung dieser Wahlrechte wirkt sich zwar regelmäßig auf das Periodenergebnis aus, jedoch erfolgt die entsprechende Korrektur noch in der gleichen Kategorie „Cashflow aus der laufenden Geschäftstätigkeit“. In den anderen beiden Fällen (Selbst geschaffene immaterielle Vermögensgegenstände des Anlagevermögens, Umfang eigener Herstellungskosten) ergeben sich jedoch Auswirkungen auf die Kapitalflussrechnung. Hierbei führt dann jeweils Alternative 2, die im Erstjahr auch zu einem handelsrechtlich höheren Periodenergebnis führt, zu einer günstigeren Darstellung in der Kapitalflussrechnung, die sich mit den Werten aus den Kapiteln 2. und 3. wie folgt ergibt: Tab. 1: Auswirkungen der Wahlrechte auf die Kapitalflussrechnung
Cashflow aus Laufender Geschäftstätigkeit Cashflow aus Investitionstätigkeit
Selbsterstellte Immat. VG des AV
Herstellungskosten Sachanlagevermögen
Alt. 1
Alt. 2
Alt. 1
–100
0
–10
0
0
–100
–90
–100
Alt. 2
Quelle: Eigene Darstellung.
Anders als in der Gewinn- und Verlustrechnung wird die positive Auswirkung der Alternative 2 auf die Kapitalflussrechnung im Erstjahr in den Folgejahren nicht konterkariert. Nachteilig sind jedoch im Falle der Herstellungskosten beim Sachanlagevermögen Barwertnachteile bei der Ertragsbesteuerung.
218
Wolfgang Hirschberger
Literaturverzeichnis Beck’scher Bilanzkommentar (2014): Handels- und Steuerbilanz, hrsg. von Förschle, G./Grottel, B./ Schmidt, S./Schubert, W. J./Winkeljohann, N., 9. Auflage, München 2014. IDW (2011): IDW Stellungnahme zur Rechnungslegung: Handelsrechtliche Bilanzierung von Bewertungseinheiten (IDW RS HFA 35), Stand: 10.06.2011. Deutscher Bundestag (2008): Gesetzentwurf der Bundesregierung: Entwurf eines Gesetzes zur Modernisierung des Bilanzrechts (Bilanzrechtsmodernisierungsgesetz – BilMoG), Drucksache 16/10067 vom 30.07.2008.
Hendrik Jacobsen
12 Der Studiengangsleiter als zentrale Figur der Dualen Hochschulorganisation 1 Überblick Die klassische Hochschulorganisation kennt außer dem Professor als zentraler Person des Hochschulbetriebs im Wesentlichen nur noch den Dekan als Vorstand der Fakultät und den Rektor als Leitungsorgan der Hochschule. Davon abweichend hat der Gesetzgeber bei Dualen Hochschulen angesichts deren enger Zusammenarbeit mit Ausbildungsbetrieben und ihres hohen Anspruchs an die individuelle Betreuung der Studenten mit dem Studiengangsleiter eine weitere Organisationsebene implementiert. Letzterer ist nach dem Wortlaut des Gesetzes insbesondere für „die inhaltliche und didaktische Ausgestaltung des Studienangebots sowie die Organisation des Studienbetriebs und des Prüfungswesens des zugeordneten Studiengangs“ verantwortlich (§ 27d Abs. 2 S. 1 LHG BW). Diese umfassende Kompetenzzuweisung lässt ihn zur zentralen Figur der Dualen Hochschulorganisation werden, wirft aber auch rechtliche Fragen auf, die insbesondere sein Verhältnis zu Studenten, zu Ausbildungsbetrieben, zu Lehrbeauftragten und zur übrigen Hochschulverwaltung betreffen. Unstreitig ist lediglich, dass der Studiengangsleiter Professor sein muss (§ 27d Abs. 2 S. 1 LHG BW). Deshalb werden im Folgenden zunächst die allgemeinen Prinzipien für die Begründung (Kap. 2.1), die laufende Ausübung (Kap. 2.2) und die Beendigung des Amtes als Professor (Kap. 2.3) dargestellt. Darauf aufbauend erfahren die Grundsätze für die Begründung (Kap. 3.1), die laufende Ausübung (Kap. 3.2) und die Beendigung der Funktion als Studiengangsleiter (Kap. 3.3) eine Erläuterung.
2 Der Studiengangsleiter als Professor 2.1 Begründung des Amtes Studiengangsleiter kann nur ein ordentlicher Professor sein (§ 27d Abs. 2 S. 1 LHG BW). Dieses Amt erwirbt ein Bewerber, wenn er die Berufungsvoraussetzungen erfüllt (Kap. 2.1.1), von der Berufungskommission ausgewählt (Kap. 2.1.2) und vom Präsidenten der Hochschule berufen wird (Kap. 2.1.3).
220
Hendrik Jacobsen
2.1.1 Berufungsvoraussetzungen Dabei setzen sich die Berufungsvoraussetzungen aus den allgemeinen dienstrechtlichen Voraussetzungen für Beamte und den besonderen Einstellungsvoraussetzungen für Professoren zusammen. Allgemeine dienstrechtliche Voraussetzungen für Beamte sind die Staatsangehörigkeit eines EU/EWR- bzw. eines privilegierten Drittstaates und die Gewähr des jederzeitigen Eintritts für die freiheitliche demokratische Grundordnung i. S. d. GG (§ 7 BeamtStG). Zur Erfüllung der besonderen Einstellungsvoraussetzungen für Professoren muss ein Bewerber zunächst über ein für die ausgeschriebene Stelle einschlägiges (Detmer 2011, 44) abgeschlossenes Hochschulstudium verfügen. Dabei genügt ein entsprechender Abschluss an einer Fach- oder Gesamthochschule (Detmer 2011, 44). Darüber hinaus hat der Bewerber seine pädagogische Eignung nachzuweisen. Letzteres gelingt durch Erfahrung in der Lehre bzw. Ausbildung oder durch Teilnahme an Fort- und Weiterbildungen in Hochschuldidaktik (§ 47 Abs. 1 Nr. 2 LHG BW). Maßgeblich ist insoweit der Zeitpunkt der Berufungsentscheidung. D. h., Bewerber können nicht unter der Auflage berufen werden, Lehr- oder Ausbildungserfahrung nachträglich zu erwerben. Erfüllen sie das Kriterium nicht, qualifizieren sie als nicht berufungsfähig. Außerdem bedarf es der besonderen Befähigung zum wissenschaftlichen Arbeiten. Die Verwirklichung dieses Kriteriums weist der Bewerber i. d. R. durch die Qualität einer Promotion nach (§ 47 Abs. 1 Nr. 3 LHG BW). Dabei ist grundsätzlich eine Bewertung mit dem Prädikat „magna cum laude“ erforderlich (Thieme 2004, S. 667; Reich 2007, S. 5). Erreicht der Bewerber diese Bewertung nicht, kann er seine besondere Befähigung ausnahmsweise neben der Promotion durch weitere wissenschaftliche Veröffentlichungen und eine Habilitation nachweisen (Detmer 2011, S. 46; Reich 2007, S. 5). Verfügt der Bewerber über gar keine Promotion, ist er prinzipiell nicht berufungsfähig. Etwas anderes gilt nur in zwei Konstellationen. Zum einen kann er seine besondere wissenschaftliche Befähigung mit der Publikation einer in Umfang und Qualität vergleichbaren Monographie nachweisen, die der Öffentlichkeit zugänglich gemacht worden ist. Zum anderen kann er den Nachweis durch eine Mehrzahl veröffentlichter Aufsätze erbringen. In beiden Fällen ist aber qualitative Voraussetzung, dass ein promotionsberechtigter Hochschullehrer die Äquivalenz mit einer „magna cum laude“-Dissertation in Umfang und Qualität bestätigt. Schließlich muss der Bewerber besondere Leistungen bei der Anwendung oder Entwicklung wissenschaftlicher Erkenntnisse und Methoden in einer mindestens fünfjährigen beruflichen Praxis nachweisen, von der mindestens drei Jahre außerhalb des Hochschulbereichs ausgeübt worden sein müssen (§ 47 Abs. 1 Nr. 4 c) LHG BW). In diesem Zusammenhang ist zu beachten, dass ein Bewerber nur dann berufungsfähig ist, wenn er „besondere Leistungen“ erbracht hat (Detmer 2011, S. 57). Mit dieser Formulierung macht der Gesetzgeber deutlich, dass nicht irgendwelche berufspraktischen Aktivitäten ausreichen. Zwingend erforderlich ist vielmehr, dass die berufli-
Der Studiengangsleiter als zentrale Figur der Dualen Hochschulorganisation
221
che Praxis des Bewerbers wissenschaftliches Niveau erreicht und auch noch als weit überdurchschnittlich qualifiziert.
2.1.2 Auswahlentscheidung Erfüllt der Bewerber diese Berufungsvoraussetzungen, muss eine Berufungskommission ihn auswählen (§ 48 Abs. 3 S. 9 LHG BW). Um dabei sachfremde Einflüsse zu vermeiden, ist diese Kommission mehrheitlich mit Professoren zu besetzen, die zur Statusgruppe der Hochschullehrer, d. h. nicht zur Hochschulleitung bzw. Verwaltung, gehören (§ 10 Abs. 3 i. V. m. Abs. 1 S. 2 Nr. 1 LHG BW; BVerfG v. 29.5.1973, 1 BvR 424/71, NJW 1973, 1176). Ihr haben außerdem zwei fachkundige Frauen, die Gleichstellungsbeauftragte, ein Student sowie mindestens eine hochschulexterne sachverständige Person anzugehören (§ 48 Abs. 3 S. 1–2 LHG BW). Dabei ist zu beachten, dass Inhaber, Angestellte und andere Vertreter von Ausbildungsbetrieben nicht als hochschulextern qualifizieren, da Letztere Mitglieder der Hochschule sind (§ 65c Abs. 2 LHG BW). Diese Kommission hat die Stelle öffentlich auszuschreiben (§ 48 Abs. 1 LHG BW). In diesem Zusammenhang muss sie die zu besetzende Professur sowie die sich daraus ergebenden Auswahlkriterien so genau wie möglich beschreiben, um sich selbst eine nach dem persönlichen Kennenlernen der Bewerber von persönlichen Affinitäten geleitete Entscheidung zu erschweren. Nach Sichtung der Bewerbungsunterlagen, Probelehrveranstaltungen und Vorstellungsgesprächen ist es Aufgabe der Kommission, die Bewerber zu beurteilen. Dabei sind ihre Mitglieder nicht frei in ihrer Entscheidung, sondern gemäß dem Grundsatz der Bestenauslese verpflichtet, den am besten geeigneten Bewerber nach Eignung, Befähigung und fachlicher Leistung zu ermitteln (BVerwG v. 4.11.2010, 2 C 16/09, NJW 2011, 695; BVerfG v. 24.9.2002, 2 BvR 857/02, NVwZ 2003, 200; BVerwG v. 11.2.2009, 2 A 7/06, NVwZ 2009, 787; Jarass 2012b, S. 14). Hierzu haben sie im ersten Schritt den gesamten der Auswahlentscheidung zugrunde liegenden Sachverhalt vollständig zur Kenntnis zu nehmen (Schenke 2014, S. 28; Ramsauer 2014, S. 118). Insoweit sind regelmäßig die Forschungs-, Lehr- sowie berufspraktischen Leistungen der Bewerber von zentraler Bedeutung. Die Mitglieder müssen daher alle im Hinblick auf diese Parameter ersichtlichen relevanten Aspekte berücksichtigen. Sie dürfen weder zu Gunsten noch zu Ungunsten einzelner Kandidaten Teile der Bewerbungsunterlagen bewusst oder unbewusst außer Acht lassen. Im zweiten Schritt haben die Mitglieder diesen Sachverhalt zu bewerten. D. h., sie müssen jeweils im Hinblick auf Forschungs-, Lehr- sowie berufspraktische Leistungen identifizieren, welcher Bewerber am besten geeignet ist. Dabei verfügen sie über einen Beurteilungsspielraum. Letzterer entbindet sie aber nicht von der Pflicht, keine sachfremden Erwägungen zu berücksichtigen (Schenke 2014, S. 41; Ramsauer 2014, S. 118). Als sachfremd qualifiziert dabei, ob ein Bewerber sympathisch oder unsympathisch ist und ob er sich gut oder weniger gut in das Kollegium einfügen würde. Sach-
222
Hendrik Jacobsen
fremd sind ebenfalls das Alter und das Geschlecht der Bewerber. Dies gilt sogar, wenn die Professur aus einem entsprechenden Sonderprogramm finanziert wird (Detmer 2011, S. 79). Im Übrigen darf der Probelehrveranstaltung nur eine ergänzende, nachrangige Bedeutung beigemessen werden, da sie bloß punktuellen Aufschluss über die Qualifikation der Bewerber gibt (VGH Mannheim v. 7.6.2005, 4 S 838/05, NVwZ-RR 2006, 185). Im dritten Schritt muss die Kommission ihre Entscheidung substanziell, in sich schlüssig und nachvollziehbar sowie ohne Verstoß gegen das Erfordernis rationaler Abwägung begründen (Schenke 2014, S. 28). Aus der Begründung muss also für einen objektiven Dritten verständlich hervorgehen, dass der ausgewählte Bewerber aus vernünftigen, einleuchtenden Gründen als am besten geeignet ausgewählt worden ist. „Inhaltsleere Floskeln“ (Detmer 2011, S. 79) und Phantasiebegründungen reichen insoweit nicht aus. D. h., will die Kommission einzelnen Leistungen der Bewerber ein besonders hohes Gewicht oder eine nur sehr begrenzte Bedeutung beimessen, muss sie diese Gewichtung rational vertretbar erläutern können. Möchte sie die Qualität erbrachter Leistungen als gut oder weniger gut beurteilen, muss dies logisch und konsistent für eine neutrale Person begründbar sein. Eine nach diesen Grundsätzen inakkurate Auswahlentscheidung oder -begründung führt zur Rechtswidrigkeit und Anfechtbarkeit des Berufungsvorschlags.
2.1.3 Berufung Nachdem der Örtliche Senat der Auswahlentscheidung zugestimmt hat (§ 48 Abs. 3 S. 7 LHG BW), beruft der Präsident den ausgewählten Bewerber im Einvernehmen mit dem Wissenschaftsministerium (§ 48 Abs. 2 S. 1 LHG BW). Dabei verfügen Präsident und Ministerium grundsätzlich über keinen eigenen Entscheidungsspielraum. Sie sind prinzipiell an den Berufungsvorschlag der Kommission und an die dort formulierte Reihung gebunden, weil anderenfalls die verfassungsrechtlich gebotene Sicherung der Wissenschaftsfreiheit durch die Berufungskommission (BVerfG v. 29.5.1973, 1 BvR 424/71, NJW 1973, 1176) jederzeit unterlaufen werden könnte. Nur in begründeten Ausnahmefällen dürfen sie abweichen (§ 48 Abs. 2 S. 1 LHG BW), bspw. wenn die Kommission offensichtlich willkürlich entschieden hat, ein Verfahrensfehler vorliegt, kein nach Maßgabe der formalen Kriterien geeigneter Kandidat gefunden wurde oder die Professur aus planerischen Gründen eine Streichung oder Umwidmung erfährt (Epping 199, S. 183; Detmer 1997, S. 212; Detmer 2011, S. 72).
Der Studiengangsleiter als zentrale Figur der Dualen Hochschulorganisation
223
2.2 Laufende Ausübung des Amtes Ein so berufener und ernannter Professor übt sein Amt selbständig aus (Kap. 2.2.1). Dabei ist sein Verhältnis zu Studenten (Kap. 2.2.2) sowie zu Studienbereichsleiter, Rektor und Präsident von zentraler Bedeutung (Kap. 2.2.3).
2.2.1 Allgemeines Professoren nehmen die ihrer Hochschule obliegenden Aufgaben in Forschung und Lehre selbständig wahr (§ 46 Abs. 1 S. 1 LHG BW). Insoweit qualifizieren sie als vom Staat auf dem Gebiet der Wissenschaft eingesetzte „freie Unternehmer“ und verfügen über einen (verfassungsrechtlich geschützten) Anspruch auf finanzielle Mindestbzw. Grundausstattung. Über diese Basisfinanzierung hinaus können sie mit der Hochschule zusätzlich auf freiwilliger Basis Zielvereinbarungen abschließen (Detmer 2011, S. 163). Daneben verfügen Professoren über ein Recht am Amt. Sie können also nur mit ihrer Zustimmung versetzt oder abgeordnet werden (§§ 61 S. 1 BeamtStG, 45 Abs. 4 LHG BW). Außerdem darf das ihnen zur Vertretung übertragene Forschungs- und Lehrgebiet nur konsensual eine Modifikation erfahren (Detmer 2011: 161). Professoren unterliegen nicht den allgemeinen beamtenrechtlichen Arbeitszeitregeln, sondern können Zeit und Ort ihrer Tätigkeit (mit Ausnahme ihrer Vorlesungsverpflichtungen) prinzipiell frei wählen (§ 45 Abs. 2 S. 2 LHG BW). Sie müssen aber erreichbar sein (§ 45 Abs. 8 S. 3 LHG BW). Lassen sie Vorlesungen ohne sachlichen Grund ausfallen, qualifiziert dieses Fehlverhalten als disziplinarrechtlich sanktionierbar. Dabei kommen als sachlicher Grund Erkrankungen, nicht aber Forschungsreisen, Tagungen oder Nebentätigkeiten in Betracht. Auf Professoren sind (zumindest in Baden-Württemberg) auch die Regeln über Erholungsurlaub anwendbar (§ 45 Abs. 2 LHG BW). D. h., Hochschullehrer müssen dessen Genehmigung beantragen (§ 25 Abs. 2 AzUVO). § 45 Abs. 3 LHG BW enthält insoweit keinen Dispens, sondern schränkt lediglich den Zeitraum ein, für den der Urlaub beantragt werden kann. Zuständig für die Urlaubsgenehmigung ist die Wissenschaftsministerin als Dienstvorgesetzte (§ 11 Abs. 5 S. 1 LHG BW), bei Delegation der Präsident der Hochschule (§ 11 Abs. 5 S. 2 LHG BW). Eine Übertragung der Zuständigkeit auf die Rektoren der Studienakademien ist unzulässig. Im Übrigen sind Hochschullehrer verpflichtet, an der Selbstverwaltung ihrer Hochschule mitzuwirken (§ 46 Abs. 1 Nr. 4 LHG BW). Insoweit können ihnen auch Aufgaben gegen ihren Willen übertragen werden, wenn dies zur gerechten Verteilung der Arbeitsbelastung erforderlich ist. Hiergegen können sie sich nur mit der Kapazitätseinrede, nicht hingegen mit dem Hinweis auf partielle, psychisch begründete Dienstunfähigkeit wehren (Detmer 2011, S. 188).
224
Hendrik Jacobsen
2.2.2 Verhältnis zu Studenten Im Verhältnis zu Studenten besitzen Professoren insbesondere die Aufgabe, Vorlesungen zu halten, Prüfungen abzunehmen und sie auch außerhalb der Lehrveranstaltungen angemessen fachlich zu betreuen (§ 46 Abs. 1 S. 2 LHG BW). Was dabei die Abnahme von Prüfungen betrifft, ist zu beachten, dass Professoren auch insoweit ihre Aufgaben selbstbestimmt und weisungsfrei wahrnehmen (§ 46 Abs. 1 S. 1 LHG BW). Das bedeutet aber nicht, dass sie in ihrer Bewertung vollständig frei sind. Sie müssen vielmehr sämtliche Prüfungsleistungen nach einem vorgegebenen strengen Muster bewerten. Dabei haben sie im ersten Schritt den gesamten Sachverhalt der Prüfungsleistung vollständig zur Kenntnis zu nehmen. Sie dürfen weder zu Gunsten noch zu Ungunsten einzelner Studenten Teile der Prüfungsleistung bewusst oder unbewusst außer Acht lassen (BVerwG v. 20.9.1984, 7 C 57/83, NVwZ 1985, 187; BVerwG v. 3.1.1985, 7 B 231 u. 232/84, DVBl 1985, 1082; VGH Kassel v. 14.12.2006, 8 UE 1188/06, juris). D. h., bei der ungünstigen Bewertung einer studentischen Arbeit sind auch qualitativ vorteilhafte Ausführungen zu berücksichtigen. Die günstige Beurteilung einer studentischen Prüfungsleistung muss ebenso alle defizitären Prüfungsteile erfassen. Im zweiten Schritt haben Professoren die Prüfungsleistungen zu bewerten. Dabei sind sie angesichts der besonderen Bedeutung von Prüfungen für die berufliche Karriere der Studenten dem Prinzip der Chancengleichheit als prüfungsbezogene Ausprägung der Art. 3 Abs. 1, 12 Abs. 1 GG verpflichtet. Auf alle Prüfungsleistungen sind also dieselben Bewertungskriterien und -maßstäbe anzuwenden (Schnellenbach 2012, S. 604). Einzelnen Studenten darf weder das Privileg einer (zweiten) Sonderbewertung zur Vermeidung des Prädikats „Nicht bestanden“ noch die Gelegenheit zu einem nachträglichen Rücktritt von der Prüfung mit dem Ziel der Exmatrikulationsverhinderung eingeräumt werden. Im Rahmen dieser Bewertung nach gleichen Maßstäben verfügen Professoren über einen Beurteilungsspielraum im Hinblick auf prüfungsspezifische Wertungen (Ramsauer 2012, S. 74). Dieser ist aber in zweifacher Hinsicht begrenzt. Zum einen sind willkürliche Bewertungen stets unzulässig (BVerfG v. 17.4.1991, 1 BvR 419/81, NJW 1991, 2005; Schenke 2013, S. 31). Professoren dürfen also weder zu Gunsten noch zu Ungunsten einzelner Studenten Bewertungen ohne konkreten Bezug zur individuellen Prüfungsleistung formulieren. Zum anderen darf die Beurteilung nicht gegen allgemeingültige Bewertungsmaßstäbe verstoßen (Schenke 2014, S. 31). Sofern Professoren also einzelnen Prüfungsteilen ein besonders hohes Gewicht oder eine nur sehr begrenzte Bedeutung beimessen wollen, müssen sie dies mit vernünftigen, einem objektiven Dritten einleuchtenden Gründen erläutern können. Das gleiche gilt für die Qualität erbrachter Prüfungsleistungen. Sofern Hochschullehrer Letztere als weit über oder unter dem Durchschnitt liegend beurteilen möchten, muss dies logisch und konsistent für eine neutrale Person begründbar sein. Phantasiebegründungen sind unzulässig.
Der Studiengangsleiter als zentrale Figur der Dualen Hochschulorganisation
225
Im dritten Schritt ist die so getroffene Beurteilung der Prüfungsleistung umfassend und nachvollziehbar zu begründen. Bei Beurteilungsentscheidungen ist allein das Fehlen einer ausreichenden substanziellen Begründung oder die Vagheit einer Begründung bereits ein Mangel, der die Bewertung materiell rechtswidrig werden lässt (BVerwG v. 9.12.1992, 6 C 3/92, NVwZ 1993, 677). Angesichts der Lehrfreiheit des Professors (§ 46 Abs. 1 S. 1 LHG BW) dürfen andere Personen in die so getroffene Bewertung prinzipiell nicht eingreifen. Von diesem Grundsatz bestehen allerdings zwei Ausnahmen. Zum einen hat der Student das Recht, sich gegen rechtswidrige Prüfungsentscheidungen zur Wehr zu setzen. Dabei ist zunächst ein Überdenkungsverfahren durchzuführen. D. h., die Beanstandungen des Studenten sind dem Professor zuzuleiten. Letzterer hat sich mit ihnen auseinanderzusetzen und zu ihnen Stellung zu nehmen (BVerwG v. 24.2.1993, 6 C 35/92, NVwZ 1993, S. 681). Hilft er dem Widerspruch des Studenten nicht ab und hält dieser seinen Widerspruch aufrecht, hat die Widerspruchsbehörde über den Rechtsbehelf zu entscheiden. Widerspruchsbehörde ist dabei ausschließlich der Vizepräsident der Hochschule (§ 8 Abs. 2 S. 3 LHG BW). Weder der Rektor einer Studienakademie noch ein Justitiar noch das Prüfungsamt besitzen insoweit eine Zuständigkeit. Angesichts des Beurteilungsspielraums des Professors im Hinblick auf prüfungsspezifische Wertungen darf der Vizepräsident im Rahmen des Widerspruchsverfahrens keine inhaltliche Entscheidung treffen. Er hat lediglich zu überprüfen, ob dem Professor bei seiner Bewertung Beurteilungsfehler unterlaufen sind. D. h., er darf insbesondere untersuchen, ob der Prüfer von einem zutreffenden Sachverhalt ausgegangen ist sowie alle Verfahrensvorschriften beachtet, keine allgemeingültigen Bewertungsgrundsätze verletzt und keine sachfremden Erwägungen berücksichtigt hat (BVerwG v. 29.3.1997, 6 C 7/96, NJW 1997, 3104; BVerwG v. 13.5.2004, 6 B 25/04, NVwZ 2004, 1375). Identifiziert der Vizepräsident Beurteilungsfehler, so hat er diese in der Widerspruchsentscheidung konkret zu benennen und nachvollziehbar zu begründen. Gleichzeitig hat er den betroffenen Professor zu verpflichten, unter Beachtung seiner Rechtsauffassung eine neue Bewertung der Prüfungsleistung vorzunehmen. D. h., der Professor muss ein zweites Votum verfassen, das die adressierten Beurteilungsfehler vermeidet (BVerfG v. 17.4.1991, 1 BvR 419/81, NJW 1991, 2005; BVerwG v. 9.12.1992, 6 C 3/92, NVwZ 1993, 677; BVerwG v. 11.4.1996, 6 B 13/96, NVwZ 1997, 502). Zum anderen sind Studiengangsleiter berechtigt, Prüfungsentscheidungen auf Beurteilungsfehler zu untersuchen. Ihnen obliegt die Organisation des Prüfungswesens (§ 27d Abs. 2 S. 1 LHG BW). Außerdem sind sie verpflichtet, geeignete Maßnahmen zur Qualitätssicherung und -verbesserung zu ergreifen (§ 27d Abs. 2 S. 2 Nr. 5 LHG BW). Allerdings dürfen sie wie der Vizepräsident lediglich den jeweiligen Professor oder Lehrbeauftragten auffordern, ein neues Votum unter Vermeidung der identifizierten Beurteilungsfehler zu erstellen. Sie sind hingegen nicht befugt, die Prüfungsbewertung eigenmächtig abzuändern. Tun sie es doch, qualifiziert das nicht nur als Verletzung des verfassungsrechtlich geschützten Prüfungsrechts des betroffenen Professors, sondern auch als strafbare Falschbeurkundung im Amt (vgl. § 348 StGB und
226
Hendrik Jacobsen
die Presseberichte zum Rektor des Casimirianums Coburg, der die Abiturnoten seiner Schüler veränderte und hierfür zu einer Geldstrafe von 9.000 € verurteilt wurde).
2.2.3 Verhältnis zu Studienbereichsleiter, Rektor und Präsident Im Verhältnis des Professors zu Studienbereichsleiter, Rektor und Präsident ist zwischen der Fachaufsicht und der Rechtsaufsicht zu unterscheiden. Hochschullehrer unterliegen keiner Fachaufsicht. Sie nehmen die ihrer Hochschule obliegenden Aufgaben in Forschung und Lehre selbständig wahr (§ 46 Abs. 1 S. 1 LHG BW). Daher besitzen Studienbereichsleiter, Rektor und Präsident grundsätzlich kein fachliches Weisungsrecht. Etwas Anderes gilt nur, sofern das Gesetz explizite Ausnahmen von diesem Grundsatz vorsieht. Als solche Ausnahmen qualifizieren zum einen das Recht des Präsidenten die ordnungsgemäße (d. h. quantitativ akkurate) Erfüllung der Lehrund Prüfungsverpflichtung zu überprüfen (§ 17 Abs. 6 S. 4 LHG BW) und zum anderen das Recht des Präsidiums nach Anhörung des Örtlichen Senats zur Bestimmung der Lehraufgaben, soweit Letzteres zur Gewährleistung eines ordnungsgemäßen Lehrangebots erforderlich ist (§ 17 Abs. 6 S. 3 LHG BW). Beide Aufgaben können auf den Rektor der Studienakademie delegiert werden (§ 17 Abs. 6 S. 6 LHG BW). Professoren unterliegen daher im Wesentlichen nur der Rechtsaufsicht. Zuständig hierfür ist grundsätzlich deren Dienstvorgesetzte, die Wissenschaftsministerin (§ 11 Abs. 5 S. 1 LHG BW). Dabei darf Letztere bestimmte Befugnisse auf den Präsidenten übertragen (§ 11 Abs. 5 S. 2 LHG BW). Eine Weiterübertragung vom Präsidenten auf den Rektor einer Studienakademie oder einen Studienbereichsleiter ist hingegen mangels Rechtsgrundlage unzulässig. Im Rahmen ihrer Rechtsaufsicht stellt die Wissenschaftsministerin sicher, dass der Professor seine Dienstpflichten unter Beachtung der Gesetze erfüllt. Dabei obliegt ihr insbesondere die Verfolgung und Sanktionierung dienstlichem Fehlverhaltens (§ 25 Abs. 1 LDG BW). Insoweit geht es bspw. um Verfehlungen wie die sexuelle Belästigung von Kolleginnen, ausländerfeindliche oder antisemitische Äußerungen (OVG Lüneburg v. 7.4.2009, 5 ME 25/09, BeckRS 2009, 33084) oder den Besitz von Kinderpornographie (VGH Mannheim v. 20.6.2012, DL 13 S 155/12, BeckRS 2012, 53532). Nicht als dienstliches Fehlverhalten qualifizieren hingegen (auch fortwährende und ggf. unbegründete) Eingaben und Beschwerden des Professors sowie die Inanspruchnahme gerichtlichen Rechtsschutzes. Insoweit liegt lediglich die reguläre Wahrnehmung von Rechten des Hochschullehrers vor, die nebenbei auch noch das dienstliche Verhalten der Hochschulorgane kontrolliert und transparent macht (BVerwG v. 26.11.1987, 2 C 41/87, ZBR 1988, 222; BVerwG v. 15.12.2005, 2 A 4/04, NVwZ-RR 2006, 485; BVerwG v. 28.2.2013, 2 C 62/11, NVwZ-RR 2013, 693; BVerwG v. 20.11.2012, 2 B 56/12, NVwZ 2013, 1093; BVerwG v. 9.3.1994, 2 WD 30/93, NVwZ 1996, 68; BVerwG v. 24.9.1992, 2 WD 13/91, NVwZ 1993, 1108; BVerwG v. 27.3.1979, 1 WB 58/78, jurion.de; BVerwG v. 9.12.1987, 2 WD 21/87, BeckRS 1987, 31241951; BDH v. 26.1.1966, III D 50/65,
Der Studiengangsleiter als zentrale Figur der Dualen Hochschulorganisation
227
ZBR 1966, 228; BDG v. 19.3.1979, 1 BK 14/78, DöD 1979, 202). In diesem Zusammenhang wäre es sogar zulässig, sich mit (nicht nachvollziehbaren) Vorwürfen an die Bundeskanzlerin zu wenden (BVerwG v. 15.12.2005, 2 A 4/04, NVwZ-RR 2006, 485). Auch dienstrechtlich einwandfrei ist es, wenn der Professor seine Rechte und Interessen mit Nachdruck verfolgt und dabei mit freimütiger und offener Kritik sowie auch mit harten Worten für seine Sache eintritt. Kritische Wertungen gegenüber Vorgesetzten und Kollegen sind zulässig, wenn diese eine sachliche Grundlage haben und auch für die Gegenseite erkennbar dem sachlichen Ziel der Rechtswahrung dienen. Der Professor darf seine Meinung zu tatsächlichen Umständen auch ohne Rücksicht auf deren Erweisbarkeit vorbringen, wenn er von ihrer Richtigkeit ausgeht und dafür tatsächliche Anhaltspunkte hat. Die Grenze des Zulässigen wird erst dann überschritten, wenn er wider besseres Wissen oder unter Verletzung der ihm zuzumutenden Sorgfalt unwahre Behauptungen aufstellt, Vorgesetzte oder Kollegen diffamiert oder vorsätzlich gegen Strafbestimmungen verstößt (BVerwG v. 15.12.2005, 2 A 4/04, NVwZ-RR 2006, 485; BVerwG v. 28.2.2013, 2 C 62/11, NVwZ-RR 2013, 693; BVerwG v. 20.11.2012, 2 B 56/12, NVwZ 2013, 1093; BVerwG v. 9.3.1994, 2 WD 30/93, NVwZ 1996, 68; BVerwG v. 24.9.1992, 2 WD 13/91, NVwZ 1993, 1108; BVerwG v. 27.3.1979, 1 WB 58/78, jurion.de; BVerwG v. 9.12.1987, 2 WD 21/87, BeckRS 1987, 31241951; BDH v. 26.1.1966, III D 50/65, ZBR 1966, 228; BDG v. 19.3.1979, 1 BK 14/78, DöD 1979, 202). Dabei geht der Schutz der freien Meinungsäußerung (verbunden mit der Kontrolle der Hochschulorgane) so weit, dass der Professor sogar vortragen dürfte, ein gegen ihn eröffnetes Verfahren stehe „in bester Tradition der altvorderen Unrechtsjustiz“ (BVerwG v. 9.3.1994, 2 WD 30/93, NVwZ 1996, 68).
2.3 Beendigung des Amtes Das Amt eines Professors kann ordentlich (Kap. 2.3.1) oder außerordentlich (Kap. 2.3.2) eine Beendigung erfahren.
2.3.1 Ordentliche Beendigung Ordentlich wird das Amt eines Professors mit dessen Eintritt in den Ruhestand beendet (§ 21 Nr. 4 BeamtStG), also mit Erreichen der Altersgrenze (§ 25 BeamtStG). Dabei qualifiziert als Altersgrenze grundsätzlich das Ende des Semesters, in dem er das 67. Lebensjahr vollendet (§ 36 Abs. 1 LBG BW i. V. m. § 49 Abs. 5 S. 1 LHG BW). Dieser Zeitpunkt kann auf Antrag bis zum Ablauf des Semesters, in dem der Professor das 70. Lebensjahr vollendet, hinaus geschoben werden, sofern dies im dienstlichen Interesse liegt (§ 39 S. 1 LBG BW i. V. m. § 45 Abs. 2 S. 3–4 LHG BW). Ungeachtet des Eintritts in den Ruhestand können Hochschullehrer weiterhin Lehrveranstaltungen abhalten und an Prüfungsverfahren mitwirken (§ 49 Abs. 5 S. 4 LHG BW).
228
Hendrik Jacobsen
2.3.2 Außerordentliche Beendigung 2.3.2.1 Beendigung in der Probezeit Daneben kann das Amt auch außerordentlich beendet werden. Dies gilt sowohl für Professoren auf Lebenszeit als auch für solche auf Probe. Letztere sind eigentlich nach den allgemeinen Regeln für Beamte von ihrem Dienstherrn zu entlassen, wenn sie sich während ihrer dreijährigen Probezeit fachlich, gesundheitlich oder charakterlich nicht bewährt haben (§ 23 Abs. 3 Nr. 2 i. V. m. § 9 BeamtStG). Da Professoren aber angesichts der Freiheit von Forschung und Lehre einen besonderen verfassungsrechtlichen Schutz vor Eingriffen des Staates erfahren (Art. 5 Abs. 3 GG), finden diese Vorschriften lediglich modifiziert Anwendung. Dies gilt zunächst für die Entlassungszuständigkeit. Zwar wird die Entlassungsverfügung (wie auch die Berufungsverfügung) formal vom Präsidenten der Hochschule ausgefertigt (§ 48 Abs. 2 S. 1 LHG BW i. V. m. § 4 Abs. 1 LBG BW), die materiale Entscheidung darf aber nicht von ihm, sondern nur von einer Entlassungskommission getroffen werden, in der die Professoren über die Mehrheit der Stimmen verfügen (§ 48 Abs. 3 S. 9 u. S. 2 LHG BW). Grund hierfür ist, dass Entlassungen als wissenschaftsrelevante Personalentscheidungen qualifizieren, bei denen der Gesetzgeber nach der Rechtsprechung des Bundesverfassungsgerichts der Gruppe der Hochschullehrer einen ausschlaggebenden Einfluss einzuräumen hat, um sachfremde Einflüsse bei der Auswahl der Grundrechtsträger auszuschließen (BVerfG v. 29.5.1973, 1 BvR 424/71, NJW 1973, 1176). Daneben findet bei Professoren, abweichend von den allgemeinen Grundsätzen keine fachliche Eignungsprüfung statt. Grund hierfür ist die verfassungsrechtlich geschützte Autonomie von Hochschullehrern. Letztere nehmen die ihnen gemäß § 2 Abs. 1 LHG BW obliegenden Aufgaben in Wissenschaft und Forschung selbständig wahr (§ 46 Abs. 1 S. 1 LHG BW). Selbständig bedeutet in diesem Zusammenhang, dass sie ihre Aufgabenerfüllung selbstbestimmt und weisungsfrei realisieren (BVerwG v. 4.3.1993, 6 B 48/92, NVwZ-RR 1994, 93; Sandberger 2009, S. 1386; Detmer 2011, S. 158; Bethge 2009, S. 207; Jarass 2012a, S. 136; Burghart 2014, S. 1167). Der badenwürttembergische Gesetzgeber hat dieser Notwendigkeit entsprochen, indem er die Beurteilungsverordnung für unanwendbar auf Professoren erklärt hat (§ 6 Abs. 1 Nr. 3 BeurtVO). Außerdem erfolgt lediglich eine substanziell eingeschränkte charakterliche Eignungsprüfung. Wie oben erläutert, nehmen Professoren ihre Aufgaben selbständig, d. h. selbstbestimmt und weisungsfrei, wahr. Angesichts dieser Selbständigkeit besteht für Hochschullehrer keine Pflicht zur Kooperation. Sie dürfen auch nicht auf Dialog- und Kompromissfähigkeit überprüft werden. Im Gegenteil, ein Hochschullehrer, der Weisungen eines Dekans oder Rektors konsequent sucht und befolgt, muss angesichts defizitärer Selbständigkeit als charakterlich ungeeignet eingeordnet werden.
Der Studiengangsleiter als zentrale Figur der Dualen Hochschulorganisation
229
Daher ist die Annahme charakterlicher Ungeeignetheit bei Professoren nur in Ausnahmefällen denkbar. Voraussetzung hierfür ist, dass eine schwere Verfehlung vorliegt, bspw. eine (mehrmalige) rechtskräftige Bestrafung (VGH Mannheim v. 27.11.2008, 4 S 2332/08, BeckRS 2009, 30687), sexuelle Belästigung von Kolleginnen, ausländerfeindliche oder antisemitische Äußerungen (OVG Lüneburg v. 7.4.2009, 5 ME 25/09, BeckRS 2009, 33084), Gewaltanwendung im Amt (VG Minden v. 8.11.2010, 4 K 994/09/4 K 995/09), strafbare Trunkenheitsfahrten (VG Koblenz v. 6.12.2012, 6 L 1071/12.KO, BeckRS 2012, 60890), eine Identifikation mit der Rockerszene (VG Berlin v. 17.03.2011, VG 36 L 62/11, BeckRS 2011, 49040) oder der Besitz von Kinderpornographie (VGH Mannheim v. 3.9.2012, DL 13 S155/12, BeckRS 2012, 53532). Lediglich für die gesundheitliche Eignungsprüfung gelten die allgemeinen Regeln. Danach setzt die Annahme gesundheitlicher Nichtbewährung weder dauernde Dienstunfähigkeit noch eine aktuelle Erkrankung im Zeitpunkt der Lebenszeitverbeamtungsentscheidung voraus (VG Braunschweig v. 25.08.1992, 7 A 7095/91, NVwZ 1993, 260). Erforderlich ist lediglich die Feststellung eines gesundheitlichen Status quo während der Probedienstzeit, der geeignet ist, den Beamten für die Übernahme in das Beamtenverhältnis auf Lebenszeit untauglich erscheinen zu lassen. Hierfür reicht bereits eine physische oder psychische Veranlagung aus, angesichts derer die Möglichkeit wiederholter Erkrankungen vor Eintritt in den Ruhestand nicht mit hoher Wahrscheinlichkeit ausgeschlossen werden kann (BVerwG v. 17.5.1962, II C 87.59, ZBR 1963, 215). Ein (zusätzliches) Engagement des Professors als Studiengangsleiter besitzt keine Relevanz für seine Lebenszeitverbeamtung. (VGH Mannheim v. 24.4.2009, 9 S 603/09, BeckRS 2009, 33373; VG Freiburg v. 6.7.2006, 3 K 1362/04, BeckRS 2006, 24698). Studiengangsleiter stehen „in einem doppelten Dienstverhältnis“ (VGH Mannheim v. 2.8.2012, 9 S 2752/11, BeckRS 2012, 56026). Als Professoren sind sie Beamte des Landes, als Studiengangsleiter gehen sie ein (davon separates) zeitlich begrenztes Dauerschuldverhältnis zu ihrer Hochschule ein (VGH Mannheim v. 2.8.2012, 9 S 2752/11, BeckRS 2012, 56026; VG Freiburg v. 6.7.2006, 3 K 1362/04, BeckRS 2006, 24698; VGH Mannheim v. 24.4.2009, 9 S 603/09, BeckRS 2009, 33373; VG Freiburg v. 24.2.2010, 3 K 2749/08, BeckRS 2010, 47777; OVG Münster v. 27.11.1996, 25 A 3079/93, NVwZ-RR 1997, 475). Im Übrigen setzt eine Entlassung zum Ende der Probezeit verfahrensrechtlich voraus, dass der Professor von seiner Dienstvorgesetzten (§ 11 Abs. 5 S. 1 LHG BW) formal abgemahnt worden ist. Dabei muss er ausdrücklich zur Unterlassung konkretisierter Pflichtverletzungen aufgefordert worden sein (BVerfG v. 15.12.1976, 2 BvR 841/73, NJW 1977, 1189; VG München v. 29.11.2006, M 9 K 05/3308, NVwZ-RR 2007, 786; VG Freiburg v. 16.6.2011, 5 K 1051/11, BeckRS 2011, 51687). Gleichzeitig muss die Dienstvorgesetzte den Professor im Hinblick auf dessen Defizite betreut und beraten haben (BVerwG v. 19.3.1998, 2 C 5/97, NVwZ 1999, 75).
230
Hendrik Jacobsen
2.3.2.2 Beendigung nach der Probezeit Nach der Probezeit erfährt das Amt des Professors im Wesentlichen nur dann noch eine Beendigung, sofern er dauernd dienstunfähig oder wegen einer schweren Straftat verurteilt wird. Dabei ist dauernde Dienstunfähigkeit gegeben, wenn er wegen seines körperlichen Zustands oder aus gesundheitlichen Gründen zur Erfüllung der ihm in seinem funktionellen Amt obliegenden Dienstpflichten (BVerwG v. 27.2.1992, 2 C 45/89, NVwZ 1992, 1096; BVerwG v. 23.9.2004, 2 C 27/03, NVwZ 2005, 458) dauerhaft nicht in der Lage ist (§ 26 Abs. 1 S. 1 BeamtStG). Ursache hierfür müssen nicht notwendig akute Erkrankungen, sondern können bspw. auch Altersabbau (VGH Mannheim v. 2.9.1969, IV 443/67, ZBR 1971, 96) oder Alkoholabhängigkeit (BVerwG v. 21.2.1984, 1 D 58/83, BVerwGE 76, 135), nicht hingegen allgemeine Arbeitsunlust sein (Summer 2002: 145). Qualifiziert der Professor als dauernd berufsunfähig, hängen die Rechtsfolgen davon ab, ob er bereits die versorgungsrechtliche Wartezeit von fünf Jahren erfüllt (§ 32 BeamtStG i. V. m. § 18 Abs. 1 LBVersG BW). Ist dies der Fall, erfährt er eine Versetzung in den Ruhestand, die ihm prinzipiell die gleichen Rechte wie im Ruhestand nach Erreichen der Altersgrenze vermittelt. Insbesondere erhält er Ruhegehalt und Beihilfe (Seeck 2012b, S. 5). Ist dies nicht der Fall, wird er aus dem Dienst entlassen (§ 23 Abs. 1 S. 1 Nr. 3 BeamtStG). Damit verliert er grundsätzlich auch sämtliche Leistungsansprüche gegen seinen Dienstherrn (§ 32 Abs. 1 LBG BW). Dies gilt insbesondere für die Beihilfeberechtigung und die Versorgungsanwartschaft. Insoweit hat sein Dienstherr ihn in der gesetzlichen Rentenversicherung nachzuversichern (Seeck 2012a, S. 5). Daneben endet das Beamtenverhältnis des Professors wegen einer schweren Straftat automatisch mit Rechtskraft des entsprechenden Urteils, sofern er wegen einer vorsätzlichen Tat zu einer Freiheitsstrafe von mindestens einem Jahr oder wegen Bestechlichkeit zu einer solchen von mindestens sechs Monaten verurteilt wird (§ 24 Abs. 1 LHG BW). Rechtsfolge ist auch in diesem Fall der Verlust aller Leistungsansprüche gegen den Dienstherrn (§ 33 LBG BW).
3 Die Funktion des Studiengangsleiters 3.1 Begründung der Funktion Die Funktion eines Studiengangsleiters erwirbt ein Bewerber, wenn er die Bestellungsvoraussetzungen erfüllt (Kap. 3.1.1), vom Örtlichen Senat ausgewählt (Kap. 3.1.2) und vom Rektor der jeweiligen Studienakademie bestellt wird (Kap. 3.1.3).
Der Studiengangsleiter als zentrale Figur der Dualen Hochschulorganisation
231
3.1.1 Bestellungsvoraussetzungen Die Funktion des Studiengangsleiters qualifiziert als ein von der Professur unabhängiges Dauerschuldverhältnis zwischen Hochschullehrer und Hochschule (VG Freiburg v. 6.7.2006, 3 K 1362/04, BeckRS 2006, 24698; VGH Mannheim v. 24.4.2009, 9 S 603/09, BeckRS 2009, 33373; VGH Mannheim v. 2.8.2012, 9 S 2752/11, BeckRS 2012, 56026; OVG Münster v. 27.11.1996, 25 A 3079/93, NVwZ-RR 1997, 475). Sie setzt nicht die Erfüllung spezifischer Bestellungskriterien voraus (§ 27d Abs. 2 S. 4 LHG BW). Angesichts der Erwähnung des § 46 LHG BW in § 27d Abs. 2 S. 1 LHG BW ergibt sich als einzige Voraussetzung, dass allein Professoren bestellt werden können. Wissenschaftliche Mitarbeiter oder Verwaltungsangestellte kommen nicht in Betracht. Die Funktion ist kein Beförderungsdienstposten, sondern wie die des Studienbereichsleiters, Rektors oder Präsidenten auf Zeit verliehen.
3.1.2 Auswahlentscheidung Die Auswahl des Studiengangsleiters trifft zur Gewährleistung der Wissenschaftsfreiheit (BVerfG v. 29.5.1973, 1 BvR 424/71, NJW 1973, 1176) nicht der Dienstherr, sondern der Örtliche Senat (§ 27d Abs. 2 S. 4 LHG BW). Um in diesem Zusammenhang sachfremde Einflüsse zu eliminieren, muss die Statusgruppe der Professoren (ohne Mitglieder der Hochschulleitung und Verwaltung) dort über die Mehrheit der Stimmrechte verfügen (§ 10 Abs. 3 i. V. m. Abs. 1 S. 2 Nr. 1 LHG BW; BVerfG v. 29.5.1973, 1 BvR 424/71, NJW 1973, 1176). Dabei ist die Funktion hochschulintern auszuschreiben. In diesem Zusammenhang muss der Örtliche Senat die zu besetzende Studiengangsleitung sowie die sich daraus ergebenden Auswahlkriterien so akkurat wie möglich beschreiben, um sich selbst eine nach dem persönlichen Kennenlernen der Bewerber willkürliche und von persönlichen Affinitäten geleitete Entscheidung zu erschweren. Anschließend ist es Aufgabe des Örtlichen Senats, die Bewerber zu beurteilen. Dabei ist das Gremium nicht frei in seiner Entscheidung. Die Studiengangsleitung ist kein politisches Amt. Daher muss die Bewerberauswahl nach dem Grundsatz der Bestenauslese, also nach Eignung, Befähigung und fachlicher Leistung erfolgen (Jarass 2012b: 14). Die Funktion darf nur demjenigen Bewerber verliehen werden, der aufgrund eines den Vorgaben des Art. 33 Abs. 2 GG entsprechenden Leistungsvergleichs am besten geeignet ist (BVerwG v. 4.11.2010, 2 C 16/09, NJW 2011, 695; BVerfG v. 24.9.2002, 2 BvR 857/02, NVwZ 2003, 200; BVerwG v. 28.10.2004, 2 C 23/03, NVwZ 2005, 457; BVerwG v. 25.11.2004, 2 C 17/03, NVwZ 2005, 702; BVerwG v. 11.2.2009, 2 A 7/06, NVwZ 2009, 787). Dabei verfügt der Örtliche Senat über einen Beurteilungsspielraum. Letzterer entbindet ihn aber nicht von der Pflicht, seiner Entscheidung einen zutreffend und vollständig ermittelten Sachverhalt zugrunde zu legen, keine sachfremden Erwägungen zu berücksichtigen und seine Beurteilung substanziell, in sich schlüssig und
232
Hendrik Jacobsen
nachvollziehbar sowie ohne Verstoß gegen das Erfordernis rationaler Abwägung zu begründen (Schenke 2014, S. 28, 41; Ramsauer 2014, S. 118). Regelmäßig ist insoweit Führungs- bzw. Verwaltungserfahrung, insbesondere in der Funktion eines Studiengangsleiters, zentraler Parameter für die Auswahl, hilfsweise kommt es auf die Forschungs-. Lehr- und berufspraktischen Leistungen der Bewerber an. D. h., die Mitglieder des Örtlichen Senats sind verpflichtet, im Hinblick auf diese Kriterien alle relevanten Aspekte in ihre Auswahlentscheidung aufzunehmen und auf der Basis eines solchen vollständigen Sachverhalts die Leistungen der Bewerber objektiv zu gewichten. Dabei dürfen sie nicht irgendeine Entscheidung mit irgendeiner (Phantasie-) Begründung treffen. Sie sind vielmehr verpflichtet den am besten geeigneten Kandidaten zu identifizieren und seine Auswahl rational und nachvollziehbar zu begründen.
3.1.3 Bestellung Nach Abschluss des Auswahlverfahrens unterbreitet der Örtliche Senat dem Rektor einen Bestellungsvorschlag mit nur einem Namen (§ 27d Abs. 2 S. 4 LHG BW). Im Anschluss bestellt der Rektor den ausgewählten Professor für den Zeitraum, den der Örtliche Senat (nicht das Präsidium) beschlossen hat. Das Präsidium hat insoweit kein Mitsprache- oder sogar Weisungsrecht. Es darf auch kein Einvernehmen mit dem Wissenschaftsministerium hergestellt werden (§ 27d Abs. 2 S. 4 LHG BW). Was den Entscheidungsspielraum des Rektors bei der Bestellung betrifft, gelten die Erläuterungen zur Berufung von Professoren entsprechend (Kap. 2.1.3). Er ist an den Vorschlag des Örtlichen Senats gebunden, weil anderenfalls die verfassungsrechtlich gebotene Sicherung der Wissenschaftsfreiheit durch die Vertreter der Professoren im Örtlichen Senat (BVerfG v. 29.5.1973, 1 BvR 424/71, NJW 1973, 1176) jederzeit unterlaufen werden könnte. Nur in begründeten Ausnahmefällen darf der Rektor die Bestellung verweigern, bspw. wenn der Örtliche Senat offensichtlich willkürlich entschieden hat, ein Verfahrensfehler vorliegt, kein nach Maßgabe der formalen Kriterien geeigneter Kandidat gefunden wurde oder die Studiengangsleitungsstelle aus planerischen Gründen eine Streichung oder Umwidmung erfährt (Epping 1992, S. 183; Detmer 1997, S. 212; Detmer 2011, S. 72).
3.2 Laufende Ausübung der Funktion Ein so bestellter Studiengangsleiter übt sein Amt selbständig aus (Kap. 3.2.1). Dabei ist sein Verhältnis zu Studenten (Kap. 3.2.2), zu Ausbildungsbetrieben (Kap. 3.2.3), zu Lehrbeauftragten (Kap. 3.2.4), zum Prüfungsamt (Kap. 3.2.5) sowie zu Studienbereichsleiter, Rektor und Präsident von zentraler Bedeutung (Kap. 3.2.6).
Der Studiengangsleiter als zentrale Figur der Dualen Hochschulorganisation
233
3.2.1 Allgemeines Studiengangsleiter sind (allein) für die inhaltliche und didaktische Ausgestaltung des Studienangebots sowie die Organisation des Studienbetriebs und des Prüfungswesens ihres Studiengangs zuständig (§ 27d Abs. 2 S. 1 LHG BW). Weder das Dekanat noch das Rektorat noch das Präsidium verfügen insoweit über Mitsprache- oder Einflussrechte. Daneben sind auch (allein) die Studiengangsleiter für die Durchführung der Evaluation und die Ergreifung geeigneter Maßnahmen zur Qualitätssicherung und -verbesserung zuständig (§ 27d Abs. 2 S. 2 Nr. 5 LHG BW). Insbesondere das Rektorat und das Präsidium verfügen daher bezüglich des Qualitätsmanagements und der Evaluation an den Studienakademien über keinerlei Funktion oder Befugnis. (Allein) die Studiengangsleiter verantworten die Qualität in Studium und Lehre (a. A. Kap. III.3 Abs. 3 des Geschäftsverteilungsplans zwischen Präsidium und Studienakademien der DHBW v. 4.11.2014).
3.2.2 Verhältnis zu Studenten Im Verhältnis zu Studenten hat der Studiengangsleiter Aufsichts- und Betreuungspflichten. Was dabei die Aufsichtspflichten betrifft, muss er vor allem sicherstellen, dass die Studenten ihrer Anwesenheitspflicht (§ 29 Abs. 5 S. 3 LHG BW) entsprechen. Verletzen Studenten Letztere wiederholt oder schwer, hat der Studiengangsleiter sie von Amts wegen zu exmatrikulieren (§ 62 Abs. 2 Nr. 7 LHG BW). Daneben betreut und berät der Studiengangsleiter die Studenten (§ 27d Abs. 2 S. 2 Nr. 4 LHG BW) über die von allen Hochschullehrern verantwortete fachliche Beratung (§ 46 Abs. 1 Nr. 3 LHG BW) hinaus. Insoweit kommt ihm insbesondere die Aufgabe zu, die Studenten in der Zusammenarbeit mit ihrem Ausbildungsbetrieb zu begleiten. Wird ein Student dort zu ausbildungsfremden Tätigkeiten herangezogen (bspw. Tätigkeiten in der Telefonzentrale oder im Empfang, Reinigungsdienste, Ablage für Kollegen) oder anders unangemessen behandelt (bspw. herabgewürdigt oder unzureichend instruiert), hat der Studiengangsleiter einzugreifen.
3.2.3 Verhältnis zu Ausbildungsbetrieben Im Verhältnis zu Ausbildungsbetrieben gehört es zur Aufgabe der Studiengangsleiter, Ausbildungsstätten zu gewinnen, deren Ausbildungseignung zu prüfen und sie zu beraten und zu betreuen (§ 27d Abs. 2 S. 2 Nr. 1–2 LHG BW). Was dabei die Gewinnung von Ausbildungsstätten betrifft, hat der Studiengangsleiter interessierten Unternehmen Auskunft über die Zulassung als Ausbildungsbetrieb und das Duale Studium zu erteilen. Angesichts der Aufgabe der jeweiligen Studienakademie, ein Studienangebot für die Nachfrage nach Studienplätzen in der jeweiligen Region zu schaffen (Präam-
234
Hendrik Jacobsen
bel Grundordnung DHBW), hat er sich zu bemühen, für die studentische Nachfrage in seinem Studiengang ausreichend regionale Ausbildungsbetriebe vorzuhalten. Er ist aber nicht gehalten, außerhalb seiner Region nach Ausbildungsstätten zu suchen. Ihm dürfen angesichts seiner von Art. 5 Abs. 3 GG geschützten Funktion auch keinerlei Wachstumsziele vorgegeben werden. Der Studiengangsleiter ist Wissenschaftler und kein Handelsvertreter. Darüber hinaus hat der Studiengangsleiter die Ausbildungseignung der Ausbildungsstätte zu überprüfen. Dies geschieht zunächst im Rahmen der erstmaligen Zulassung des Betriebes als Ausbildungsstätte und anschließend in angemessenen Zeitabständen. Beurteilt er das jeweilige Unternehmen (nach dessen Anhörung) als ungeeignet, empfiehlt er dem Hochschulrat dessen Nicht-Zulassung bzw. den Widerruf der Zulassung (§ 8 Abs. 4 der Richtlinie für die Eignungsvoraussetzungen und das Zulassungsverfahren von Praxispartnern der DHBW für ein Bachelor-Studium vom 22.9.2011).
3.2.4 Verhältnis zu Lehrbeauftragten Im Verhältnis zu Lehrbeauftragten haben Studiengangsleiter deren Recht auf selbständige Wahrnehmung der ihnen übertragenen Lehraufgaben zu beachten (§ 56 Abs. 1 S. 3 LHG BW). Sie dürfen ihnen also keine fachlichen Weisungen erteilen. Ungeachtet dessen sind sie aber auch insoweit berechtigt und verpflichtet, den Studienbetrieb und das Prüfungswesen zu organisieren, geeignete Maßnahmen zur Qualitätssicherung und -verbesserung zu ergreifen sowie die Lehrbeauftragten zu betreuen und zu beraten ( § 27d Abs. 2 S. 1–2 LHG BW). Dabei obliegt ihnen zunächst die akkurate Auswahl der Lehrbeauftragten (§ 27d Abs. 2 S. 2 Nr. 3 LHG BW). Insoweit dürfen sie nur Bewerber in Betracht ziehen, die die Voraussetzungen des § 56 Abs. 2 S. 1 LHG BW erfüllen. Dabei haben die Studiengangsleiter vor allem die wissenschaftliche Befähigung der Lehrbeauftragten sicherzustellen (Wissenschaftsrat 2013, S. 29). Bewerber, die diese Voraussetzung nicht erfüllen, können nicht als Lehrbeauftragte bestellt werden. Weiter haben Studiengangsleiter die Lehrbeauftragten im Studienbetrieb akkurat einzusetzen. Dabei schreibt § 56 Abs. 1 S. 1 LHG BW vor, dass Lehraufträge nur „zur Ergänzung des Lehrangebots“ erteilt werden dürfen. Studiengangsleiter haben also dafür Sorge zu tragen, dass der ganz überwiegende Teil des Lehrangebots von hauptamtlichen Hochschullehrern erbracht wird. Dem Engagement von Lehrbeauftragten darf lediglich eine untergeordnete Bedeutung zukommen. Der Wissenschaftsrat fordert sogar, den Lehranteil externer Berufspraktiker angesichts des hohen Praxisanteils im Dualen Studium noch geringer als bei regulären Fachhochschulstudiengängen anzusetzen (Wissenschaftsrat 2013, S. 30). Insofern qualifiziert das gegenwärtige Lehrkonzept der DHBW als unvereinbar mit dem LHG BW.
Der Studiengangsleiter als zentrale Figur der Dualen Hochschulorganisation
235
Was daneben die Abnahme von Prüfungen betrifft, dürfen Lehrbeauftragte uneingeschränkt Klausuren bewerten (§ 12 Abs. 1 StPrO DHBW Wirtschaft) und an mündlichen Bachelorprüfungen teilnehmen (§ 13 Abs. 3 StPrO DHBW Wirtschaft). Projektund Bachelorarbeiten dürfen sie hingegen nur betreuen und beurteilen, sofern sie nicht nur fachlich, sondern auch wissenschaftlich ausgewiesen sind (§ 13 Abs. 2 StPrO DHBW Wirtschaft). Notwendige Voraussetzung ist daher der Nachweis über eine mit dem beabsichtigten Lehrauftrag fachlich zusammenhängende Promotion oder über eine ausreichende Anzahl entsprechender Monographien oder Aufsätze auf wissenschaftlichem Niveau. Weiter sind die Studiengangsleiter nicht nur berechtigt, sondern sogar verpflichtet, die Lehrbeauftragten zu betreuen und zu beraten (§ 27d Abs. 2 S. 2 Nr. 3 LHG BW). Diese Betreuungs- und Beratungspflicht bezieht sich in Abgrenzung zur Qualitätssicherungspflicht auf die Zeit vor und während der Tätigkeit der Lehrbeauftragten. Sie gilt zum einen für dessen Lehre. Studiengangsleiter haben insoweit sicherzustellen, dass die Lehrbeauftragten über die Vorgaben des Rahmenstudienplans und den wissenschaftlichen Anspruch der theoretischen Ausbildung im Dualen Studium informiert sind. Sie müssen den Lehrbeauftragten also die für sie relevante Modulbeschreibung zukommen lassen und ihnen detailliert erläutern, was von ihrer Lehrveranstaltung inhaltlich erwartet wird. Gleichzeitig haben sie ihnen zu erklären, dass in den Theoriephasen die Gewährleistung des Wissenschaftsbezugs oberste Priorität hat, um die Dualen Studenten mit Innovations-, Anpassungs- und Weiterbildungsfähigkeit auszustatten (Wissenschaftsrat 2013, S. 29). Dabei sind „breite wissenschaftliche Methoden- und Grundlagenkenntnisse zu vermitteln, die über die unmittelbaren Kompetenzbedarfe der Unternehmen hinausgehen“ (Wissenschaftsrat 2013, S. 32). Zum anderen gilt die Betreuungs- und Beratungspflicht auch für die Prüfungstätigkeit der Lehrbeauftragten. Studiengangsleiter haben die Lehrbeauftragten insoweit vor deren Einsatz zunächst abstrakt ohne Ansehung von Einzelfällen zu instruieren. Dabei sind sie in inhaltlicher Hinsicht über den qualitativen Anspruch und das erforderliche wissenschaftliche Niveau der jeweiligen Prüfung aufzuklären (Wissenschaftsrat 2013, S. 29). Daneben sind ihnen die formalen Rahmenbedingungen von Prüfungsbewertungen, vor allem die vollständige Sachverhaltserfassung, die Vermeidung von Beurteilungsfehlern und die Notwendigkeit einer erschöpfenden Begründung zu erläutern (Kap. 2.2.2). Darüber hinaus dürfen und müssen Studiengangsleiter die Lehrbeauftragten auch in konkreten Prüfungsfragen betreuen und beraten. Wendet sich ein Lehrbeauftragter im Hinblick auf von ihm zu korrigierende Klausuren oder Projekt- bzw. Bachelorarbeiten an den Studiengangsleiter mit der Bitte um Rat, ist Letzterer verpflichtet, ihm konkrete Hinweise zu geben. Eine solche Beratung verstößt weder gegen das Selbständigkeitsgebot des § 56 Abs. 1 S. 3 LHG BW noch gegen § 12 Abs. 1 StPrO DHBW Wirtschaft. Ein Verstoß gegen das Selbständigkeitsgebot liegt nicht vor, weil der Lehrbeauftragte trotz der Inanspruchnahme von Betreuung und Beratung die finale Prüfungsentscheidung stets eigenständig und unabhängig trifft. Zu beach-
236
Hendrik Jacobsen
ten ist insoweit, dass es sich bei Lehrbeauftragten um Personen handelt, die über ein abgeschlossenes Hochschulstudium verfügen (§ 47 Abs. 1 Nr. 1 LHG BW) und nach Vorbildung, Fähigkeit und fachlicher Leistung dem für sie vorgesehenen Aufgabengebiet entsprechen (§ 56 Abs. 2 S. S. 1 LHG BW). D. h., sie qualifizieren als gestandene und in der Arbeitswelt erprobte Persönlichkeiten, von denen zu erwarten ist, dass sie letztlich stets eigene Entscheidungen treffen und sich nicht unkritisch der Einschätzung anderer unterordnen. Die Grenze von der Beratung zum Eingriff in das Selbständigkeitsrecht überschreitet der Studiengangsleiter erst, wenn er den Lehrbeauftragten zu einer bestimmten Bewertung anweist und der Lehrbeauftragte dieser Anweisung folgt. Im Übrigen qualifiziert § 27d Abs. 2 S. 2 Nr. 3 LHG BW insoweit als lex specialis zu § 56 Abs. 1 S. 3 LHG BW. D. h., die gesetzliche Anordnung der besonderen Betreuungs- und Beratungspflicht für Lehrbeauftragte an Dualen Hochschulen geht ohnehin dem allgemeinen Selbständigkeitsgebot für Lehrbeauftragte vor. An einem Verstoß gegen § 12 Abs. 1 StPrO DHBW Wirtschaft fehlt es, weil der Studiengangsleiter insoweit nicht an der Prüfung mitwirkt. Eine solche Mitwirkung setzt voraus, dass er am Ende die Prüfungsbeurteilung auch als eigene Bewertung gelten lassen will, mithin sie unterzeichnet, wie es bspw. bei mündlichen Prüfungen der Fall ist. Daran fehlt es in dieser Konstellation. Allein die Beratung des Lehrbeauftragten lässt die Bewertung der Prüfungsleistung nicht zu der des Studiengangleiters werden, unabhängig davon, ob der Lehrbeauftragte dessen Rat befolgt. Eine andere Beurteilung (VG Karlsruhe v. 24.2.2010, 7 K 3801/07, n. v.), würde zu erheblichen Widersprüchen führen. Zum einen müsste das Prinzip dann auch für hauptamtliche Professoren gelten. D. h., Letztere dürften sich nicht mehr über die Beurteilung einzelner Prüfungen austauschen. Eine solche Einordnung verstieße aber gegen § 46 Abs. 1 S. 1 LHG BW und Art. 5 Abs. 3 GG. Da hauptamtliche Professoren ihre Lehraufgaben selbständig wahrnehmen, darf ihnen nicht untersagt werden, insoweit zu kommunizieren. Zum anderen müsste das Selbständigkeitsgebot dann auch für die Lehre der Lehrbeauftragten gelten. Wäre das so, dürften Studiengangsleiter nicht mehr zu den Lehrleistungen der Lehrbeauftragten Stellung nehmen. Dies würde aber im diametralen Widerspruch zu den in § 27d Abs. 2 LHG BW normierten Betreuungs-, Beratungsund Qualitätssicherungspflichten stehen. Schließlich sind Studiengangsleiter im Hinblick auf Lehrbeauftragte auch zur Qualitätssicherung verpflichtet (27d Abs. 2 S. 2 Nr. 5 LHG BW). Das gilt sowohl für Lehre als auch für Prüfung. Sie haben also die Evaluationen der Lehrbeauftragten zu prüfen und mit ihnen die von Studenten beanstandeten Aspekte durchzusprechen. Gleichzeitig müssen sie ihnen Wege aufzeigen, wie Lehrdefizite eliminiert und Lehrveranstaltungen verbessert werden können. Ggf. haben sie darauf hinzuwirken, dass Lehrbeauftragte sich in Didaktik-Seminaren fortbilden. Gelingt es Letzteren nicht, ein zumindest befriedigendes Vorlesungsniveau herzustellen, müssen Studiengangsleiter Lehrbeauftragte ggf. auch von ihren Aufgaben freistellen. Die Qualitätssicherungspflicht gilt im gleichen Maße für die Prüfungstätigkeit der Lehrbeauftragten. D. h., Studiengangsleiter haben insoweit die Aufgabenstellung von
Der Studiengangsleiter als zentrale Figur der Dualen Hochschulorganisation
237
Klausuren und die Betreuungsleistung bei Projekt- und Bachelorarbeiten zu prüfen und ggf. Defizite gegenüber dem Lehrbeauftragten zu adressieren. Darüber hinaus dürfen sie jederzeit Prüfungsbewertungen der Lehrbeauftragten auf deren Beurteilungsfehlerfreiheit untersuchen und ggf. Nachbesserungen anordnen. Das Selbständigkeitsgebot des § 56 Abs. 1 S. 2 LHG BW umfasst kein Recht der Lehrbeauftragten, Prüfungsleistungen beurteilungsfehlerhaft zu bewerten.
3.2.5 Verhältnis zum Prüfungsamt Der Studiengangsleiter ist (allein) verantwortlich für die Organisation des Prüfungswesens in dem ihm zugeordneten Studiengang (§ 27d Abs. 2 S. 1 LHG BW). Ein Prüfungsamt gibt es hochschulrechtlich nicht. D. h., sofern Studienakademien Prüfungsämter einrichten, qualifizieren Letztere als Serviceeinheiten der Studiengangsleiter. Die dort tätigen Mitarbeiter unterliegen daher vollumfänglich den fachlichen Weisungen des jeweils zuständigen Studiengangsleiters. Sie haben prinzipiell jede Entscheidung gegenüber Studenten, Professoren für Lehraufgaben und Lehrbeauftragten dem verantwortlichen Studiengangsleiter vorzulegen und von ihm genehmigen zu lassen.
3.2.6 Verhältnis zu Studienbereichsleiter, Rektor und Präsident Im Verhältnis des Studiengangsleiters zu Studienbereichsleiter, Rektor und Präsident ist zwischen Fach- und Rechtsaufsicht zu unterscheiden. Studienbereichsleiter, Rektor und Präsident besitzen kein Recht zur Fachaufsicht, da der Studiengangsleiter seine Funktion weisungsfrei ausübt (§ 27d Abs. 2 S. 1 LHG BW). Nach dieser Vorschrift obliegen dem Studiengangsleiter neben den Aufgaben als Professor insbesondere die inhaltliche und didaktische Ausgestaltung des Studienangebots sowie die Organisation des Studienbetriebs und des Prüfungswesens. Diese umfassende Aufgabenzuweisung macht deutlich, dass Studiengangleiter eigenverantwortlich und selbständig tätig werden. Sie erhalten keine Vorgaben, wie die inhaltliche und didaktische Ausgestaltung des Studienangebots sowie die Organisation des Studienbetriebs und des Prüfungswesens zu erfolgen hat. Die Verwendung unbestimmter Rechtsbegriffe überträgt ihnen einen breiten Beurteilungsspielraum, der verwaltungsintern nicht überprüfbar ist. Hätte der Gesetzgeber keine weisungsfreie Erfüllung von Studiengangsleiteraufgaben gewollt, so hätte er sie nicht Professoren, sondern anderen Beamten übertragen. Diese Auslegung bestätigen drei Vorschriften. Gemäß § 27d Abs. 2 S. 3 LHG BW informieren die Studiengangsleiter die Organe der Studienakademie über die wesentlichen Entscheidungen und Ergebnisse bei der Wahrnehmung ihrer Aufgaben. Diese Formulierung verdeutlicht, dass es um bereits getroffene Entscheidungen und Ergebnisse bereits abgeschlossener Aktivitäten geht. So bringt der Gesetzgeber zum Aus-
238
Hendrik Jacobsen
druck, dass Studiengangsleiter lediglich Bericht über ihre Aktivitäten zu erstatten haben. Wie sie ihre Aufgaben erfüllen, bleibt ihnen überlassen. Hätte der Gesetzgeber ein Weisungsrecht gegenüber den Studiengangsleitern gewollt, hätte er es in diesem Zusammenhang explizit kodifiziert. Nach § 27a Abs. 5 S. 3 LHG BW kann der Rektor „dem Prorektor allgemein oder im Einzelfall Weisungen erteilen“. Eine solche Vorschrift normiert das LHG BW aber nicht für das Verhältnis zwischen Rektor und Studiengangsleiter. Es gibt in der Regelung der Studiengangsleiterfunktion auch keinen Verweis auf § 27a Abs. 5 S. 3 LHG BW mit der Anordnung einer entsprechenden Anwendung. Damit hat der Gesetzgeber seinen Willen, das Weisungsrecht des Rektors auf dessen Verhältnis zum Prorektor zu beschränken, explizit zum Ausdruck gebracht. Studiengangsleiter sind notwendig Hochschullehrer, die ihre Aufgaben selbständig, also selbstbestimmt und weisungsfrei wahrnehmen (§ 46 Abs. 1 S. 1 LHG BW; BVerwG v. 4.3.1993, 6 B 48/92, NVwZ-RR 1994, 93; Sandberger 2009, S. 1386; Detmer 2011, S. 158). Diese Selbständigkeit muss auch für ihre Funktion als Studiengangsleiter gelten. Wäre das nicht so, könnten Leitungsorgane mittelbar auf die Amtsausübung der Studiengangsleiter als Hochschullehrer Einfluss nehmen. Sie hätten dann die Möglichkeit, durch Anweisung zusätzlicher Aufgaben oder durch Entzug finanzieller Mittel ihnen nicht genehme Hochschullehrer-Studiengangsleiter so stark mit zusätzlicher Arbeit zu belasten, dass deren Selbstbestimmtheit und Weisungsfreiheit beeinträchtigt würde. Da Letztere aber verfassungsrechtlich geschützt sind (Bethge 2009, S. 207; Jarass 2012a, S. 136; Burghart 2014, S. 1167), ist ein verfassungskonformes Weisungsrecht der Leitungsorgane gegenüber Studiengangleitern nicht denkbar. Ungeachtet dessen übt der Studienbereichsleiter die Rechtsaufsicht über den Studiengangsleiter aus (§ 27d Abs. 1 S. 1 LHG BW). Sofern also Letzterer seinen Beurteilungsspielraum überschreitet oder Rechtsvorschriften verletzt, darf der Studienbereichsleiter auf eine akkurate Amtsausübung hinwirken. Reagiert der Studiengangsleiter darauf nicht, kann der Studienbereichsleiter die Wissenschaftsministerin als Dienstvorgesetzte adressieren (§ 11 Abs. 5 S. 1 LHG BW) und ein Disziplinarverfahren gegen den Studiengangsleiter initiieren.
3.3 Beendigung der Funktion Die Funktion eines Studiengangsleiters kann ordentlich (Kap. 3.3.1) oder außerordentlich (Kap. 3.3.2) eine Beendigung erfahren.
3.3.1 Ordentliche Beendigung Studiengangsleiter werden auf Zeit bestellt (§ 27d Abs. 2 S. 4 LHG BW). Daher erfährt ihre Tätigkeit durch Ablauf des in ihrer Berufungsvereinbarung formulierten Zeit-
Der Studiengangsleiter als zentrale Figur der Dualen Hochschulorganisation
239
raums eine Beendigung. Sie haben grundsätzlich keinen Anspruch auf eine erneute Bestellung. Die Studienakademie kann sich daher prinzipiell nach Ablauf des vereinbarten Zeitraums von jedem Studiengangsleiter trennen und einen anderen Professor berufen. Zu beachten ist in diesem Zusammenhang allerdings, dass eine so vakant gewordene Funktion nach dem Prinzip der Bestenauslese neu zu besetzen ist (Kap. 3.1.2). D. h., auch insoweit darf der Rektor nicht irgendjemanden bestellen und der Örtliche Senat nicht irgendjemanden vorschlagen. Beide Organe sind verpflichtet, den besten Bewerber zu identifizieren. Bei dieser Auswahlentscheidung kommt der praktischen Erfahrung als Studiengangsleiter ganz entscheidende Bedeutung zu. Insofern hat ein nicht wieder bestellter Studiengangsleiter stets die Option, sich erneut zu bewerben und eine ggf. für ihn ungünstige Auswahlentscheidung auf Beurteilungsfehler, insbesondere auf Nichtberücksichtigung seiner Studiengangsleitererfahrung, überprüfen zu lassen.
3.3.2 Außerordentliche Beendigung Eine außerordentliche Beendigung der Studiengangsleiterfunktion ist im LHG BW nicht vorgesehen. Grundsätzlich hat also jeder Studiengangsleiter das Recht, seine Funktion bis zum Ende des mit ihm vereinbarten Zeitraums fortzuführen (VG Freiburg v. 6.7.2006, 3 K 1362/04, BeckRS 2006, 24698; VGH Mannheim v. 24.4.2009, 9 S 603/09, BeckRS 2009, 33373). Ungeachtet dessen gelten die allgemeinen außerordentlichen Kündigungsmöglichkeiten für öffentlich-rechtliche Dauerschuldverhältnisse, insbesondere § 60 Abs. 1 S. 2 VwVfG BW i. V. m. § 314 Abs. 1 BGB (VG Freiburg v. 6.7.2006, 3 K 1362/04, BeckRS 2006, 24698; VGH Mannheim v. 24.4.2009, 9 S 603/09, BeckRS 2009, 33373; VGH Mannheim v. 2.8.2012, 9 S 2752/11, BeckRS 2012, 56026; OVG Münster v. 27.11.1996, 25 A 3079/93, NVwZ-RR 1997, 475). Nach dieser Vorschrift dürfen Studienakademie und Professor das Studiengangsleiterverhältnis jederzeit kündigen, sofern ein wichtiger Grund vorliegt, die Kündigungsfrist beachtet wird und, falls die Studienakademie kündigt, eine fehlerfreie Ermessenausübung erfolgt. Dabei ist ein wichtiger Grund gegeben, wenn dem kündigenden Teil unter Berücksichtigung aller Umstände des Einzelfalls und unter Abwägung der beiderseitigen Interessen die Fortsetzung des Dauerschuldverhältnisses bis zur vereinbarten Beendigung oder bis zum Ablauf einer Kündigungsfrist nicht zugemutet werden kann (§ 314 S. 2 BGB). Eine Unzumutbarkeit ist aus der Perspektive der Studienakademie denkbar, wenn der Professor Handlungen vornimmt, die den ordentlichen Studienbetrieb in seinem Studiengang substanziell beeinträchtigen. Dies kann der Fall sein, wenn er Straftaten in Ausübung seiner Funktion begeht (VG Freiburg v. 6.7.2006, 3 K 1362/04, BeckRS 2006, 24698), aus gesundheitlichen Gründen sein Amt langfristig nicht ausüben kann, sich disziplinarisch erheblich fehlverhält (bspw. Alkohol- oder
240
Hendrik Jacobsen
Drogenkonsum bzw. sexuelle Belästigung in Ausübung der Funktion) oder wiederholt vorsätzlich Dienstvorschriften missachtet. In Abgrenzung hierzu kann der Studienakademie die Fortsetzung der Studiengangsleitung ohne weiteres zugemutet werden, wenn der Studiengangsleiter seine Funktion nicht so erfüllt, wie es andere, insbesondere der Örtliche Senat, der Rektor oder das Präsidium von ihm erwarten. Insoweit ist er frei in der Gestaltung seiner Funktion und von Art. 5 Abs. 3 GG geschützt (Kap. 3.2.6). Selbst wenn ihm wiederholt Fehler unterlaufen würden und deshalb seine Funktionsausübung objektiv als unterdurchschnittlich oder sogar mangelhaft einzuordnen wäre, gäbe es für die Studienakademie keine Kündigungsmöglichkeit. In dieser Situation würde sich lediglich das Auswahlrisiko der Studienakademie realisieren, das sie mit der Bestellung des Studiengangleiters und dessen zeitlicher Verpflichtung übernommen und daher zu tragen hat. Erst recht ohne jede Relevanz ist, ob Studentenzahlen zurückgehen (OVG Münster v. 27.11.1996, 25 A 3079/93, NVwZ-RR 1997, 475), Haushaltsmittel der Studienakademie gekürzt werden oder andere wirtschaftliche Gründe eine Streichung der Studiengangsleiterstelle als sinnvoll erscheinen lassen (Bonk/Neumann 2014, S. 28). Auch in diesen Konstellationen verwirklichen sich finanzielle Risiken der Hochschule, die Letztere nicht auf den Professor überwälzen darf. Außerdem muss der kündigende Vertragspartner zur Schaffung klarer Verhältnisse (Gaier 2012: 20) innerhalb einer angemessenen Frist nach Kenntnis vom Kündigungsgrund kündigen (§ 314 Abs. 3 BGB). Welche Zeitdauer dabei noch als angemessen anzusehen ist, hängt von den Verhältnissen im Einzelfall, insbesondere vom Regelungszweck der Vereinbarung, von der Bedeutung des Kündigungsgrunds, von den Auswirkungen für die Beteiligten und vom Umfang der erforderlichen Ermittlungen, ab (Gaier 2012: 20). Allerdings qualifiziert eine Kündigung nach zwei Monaten in aller Regel nicht mehr als angemessen (BGH v. 15.12.1993, VIII ZR 157/92, NJW 1994, 722; BGH v. 12.3.1992, I ZR 117/90, NJW-RR 1992, 1059; OLG Karlsruhe v. 25.6.2001, 9 U 143/00, NJW-RR 2001, 1492). Fristbeginn ist der Zeitpunkt, zu dem der Rektor (BGH v. 9.11.1992, II ZR 234/91, NJW 1993, 463) sichere und umfassende Kenntnis von den Tatsachen erhält, die den wichtigen Grund bilden (BGH v. 26.2.1996, II ZR 114/95, NJW 1996, 1403). Schließlich muss die Kündigung als ermessensfehlerfrei qualifizieren. Dabei hat der Örtliche Senat insbesondere zu prüfen, ob sie erforderlich und verhältnismäßig ist. Er hat also zu untersuchen, ob es kein milderes Mittel gibt, mit dem ein akkurater Studienbetrieb im Studiengang des betroffenen Professors gleich wirksam wieder hergestellt werden kann (VG Freiburg v. 6.7.2006, 3 K 1362/04, BeckRS 2006, 24698; BVerwG v. 29.4.1982, 7 C 128/80, NVwZ 1983, 546; VGH Mannheim v. 21.4.1999, 9 S 2653/98, NVwZ-RR 1999, 636). Seine Ermessensentscheidung hat er zu begründen.
Der Studiengangsleiter als zentrale Figur der Dualen Hochschulorganisation
241
4 Zusammenfassung Nur ein ordentlicher Professor kann Studiengangsleiter sein. Dabei qualifiziert die Funktion der Studiengangsleitung als ein von der Professur unabhängiges Dauerschuldverhältnis zwischen Professor und Hochschule. Die Auswahl der Studiengangsleiter trifft der Örtliche Senat. Dabei ist Letzterer verpflichtet, den am besten geeigneten Kandidaten zu identifizieren und seine Entscheidung rational und nachvollziehbar zu begründen. Außerdem obliegt es ihm (und nicht dem Präsidium), die Dauer der Bestellung festzulegen. Der Rektor ist grundsätzlich an die Entscheidung des Örtlichen Senats gebunden. Studiengangsleiter sind (allein) für die inhaltliche und didaktische Ausgestaltung des Studienangebots sowie die Organisation des Studienbetriebs und des Prüfungswesens zuständig. Sie verantworten (allein) die Qualität in Studium und Lehre. Im Verhältnis zu Studenten haben sie insbesondere deren Anwesenheitspflicht durchzusetzen und sie in der Zusammenarbeit mit ihrem Ausbildungsbetrieb zu begleiten. Im Verhältnis zu Ausbildungsbetrieben dürfen den Studiengangleitern keinerlei Wachstumsziele vorgegeben werden. Sie sind Wissenschaftler und keine Handelsvertreter. Im Verhältnis zu Lehrbeauftragten dürfen Studiengangsleiter diese lediglich zur Ergänzung des Lehrangebots einsetzen und nur, sofern sie als wissenschaftlich befähigt qualifizieren. Weiter haben sie sicherzustellen, dass nur wissenschaftlich ausgewiesene Lehrbeauftragte Projekt- und Bachelorarbeiten beurteilen. Außerdem dürfen sie Lehrbeauftragte auch im Hinblick auf konkrete Prüfungsfragen beraten. Im Verhältnis zum Prüfungsamt sind Studiengangsleiter vollumfänglich weisungsberechtigt. Das Prüfungsamt qualifiziert insoweit als Serviceeinheit der Studiengangsleiter. Im Verhältnis zu Studienbereichsleiter, Rektor und Präsident unterliegen Studiengangsleiter keiner Fachaufsicht, sondern üben ihre Funktion weisungsfrei aus. Die Funktion des Studiengangsleiters endet mit Ablauf des in ihrer Berufungsvereinbarung formulierten Zeitraums. Eine außerordentliche Beendigung der Studiengangsleiterfunktion ist nicht vorgesehen. Grundsätzlich hat also jeder Studiengangsleiter das Recht, seine Funktion bis zum Ende des mit ihm vereinbarten Zeitraums fortzuführen. Ungeachtet dessen dürfen Studienakademie und Professor das Studiengangsleiterverhältnis kündigen, sofern ein wichtiger Grund vorliegt. Ein solcher ist allerdings nicht gegeben, sofern der Studiengangsleiter seine Funktion nicht so erfüllt, wie es andere, insbesondere der Örtliche Senat, der Rektor oder das Präsidium von ihm erwarten. Insoweit ist er frei in der Gestaltung seiner Funktion und von Art. 5 Abs. 3 GG geschützt.
242
Hendrik Jacobsen
Literaturverzeichnis Bethge, H. (2009), in: Sachs, M. (Hrsg.), Grundgesetz, 5. Aufl., München 2009, § 5. Bonk, H. J./Neumann, W. (2014), in: Stelkens, P./Bonk, J./Sachs, M., Verwaltungsverfahrensgesetz, 8. Aufl. 2014, § 60. Burghart, A. (2014), in: Leibholz, G./Rinck, H.-J., Grundgesetz für die Bundesrepublik Deutschland – Rechtsprechung des BVerfG, 66. Ergänzungslieferung Oktober 2014, Art. 5. Detmer, H. (2011), in: Hartmer, M./Detmer, H. (Hrsg.), Hochschulrecht, 2. Aufl., Heidelberg 2011, Kap. IV. Detmer, H. (1997): Die Bindung der staatlichen Seite an Berufungsvorschläge, WissR 1997, S. 193–217. Epping, V. (1992): Das Letztentscheidungsrecht der zuständigen staatlichen Stellen bei der Berufung von Hochschullehrern, WissR 1992, S. 166–190. Gaier, R. (2012), in: Säcker, F. J., Rixecker, R. (Hrsg.), Münchener Kommentar zum Bürgerlichen Gesetzbuch, 6. Aufl., München 2012, Band 2, § 314. Jarass, H. D. (2012a), in: Jarass, H. D./Pieroth, B., Grundgesetz für die Bundesrepublik Deutschland, 13. Aufl., München 2014, Art. 5. Jarass, H. D. (2012b), in: Jarass, H. D./Pieroth, B., Grundgesetz, 13. Aufl., München 2014, Art. 33. Kutscha, M. (2011): Hochschullehre unter Fachaufsicht?, NVwZ 2011, S. 1178–1181. Pautsch, A./Dillenburger, A. (2011): Kompendium zum Hochschul- und Wissenschaftsrecht, Berlin 2011. Ramsauer, U. (2014), in: Kopp, F. O./Ramsauer, U., Verwaltungsverfahrensgesetz, 14. Aufl., München 2014, § 40. Reich, Andreas (2007), Hochschulrahmengesetz, 10. Aufl., München 2007, § 44. Sandberger, G. (2009), in: Haug, V. (Hrsg.), Das Hochschulrecht in Baden-Württemberg, Heidelberg 2009, Rn. 1368–1417. Seeck, E. (2012a), in: Metzler-Müller, K./Rieger, R./Seeck, E./Zentgraf, R., Beamtenstatusgesetz, 2. Aufl., Wiesbaden 2012, § 24. Seeck, E. (2012b), in: Metzler-Müller, K./Rieger, R./Seeck, E./Zentgraf, R., Beamtenstatusgesetz, 2. Aufl., Wiesbaden 2012, § 26. Schnellenbach, H. (2011), in: Hartmer, M./Detmer, H. (Hrsg.), Hochschulrecht, 2. Aufl., Heidelberg 2011, Kap. XII. Schenke, W.-R. (2014), in: Kopp, F. O./Schenke, W.-R., Verwaltungsgerichtsordnung, 20. Aufl., München 2014, § 114. Scholz, R. (2014), in: Maunz/Dürig, hrsg v. Herzog, R., Scholz, R., u. a., Grundgesetz, München 72. Ergänzungslieferung Juli 2014, Art. 5. Summer, R. (2002): Besprechung von Plückhahn, D., Beendigung des Beamtenverhältnisses und Übertragbarkeit anderer Ämter bei Dienstunfähigkeit, ZBR 2002, S. 144–147. Thieme, W. (2004): Deutsches Hochschulrecht, 3. Aufl., Berlin 2004. Wissenschaftsrat (2013): Empfehlungen zur Entwicklung des Dualen Studiums, wissenschaftsrat.de/ download/archiv/3479-13.pdf, 2013.
Erich Klaus
13 Vertrauen als Erfolgsfaktor für Hochschulen 1 Theoretische Grundlagen des Vertrauens 1.1 Einführung Der Begriff des ‚Vertrauens‘ findet in den Sozialwissenschaften auf vielfältige Art und in unterschiedlichen Kontexten Verwendung. Im allgemeinen Sprachgebrauch wird Vertrauen mit dem Glauben an die Zuverlässigkeit, Integrität, Ehrlichkeit und Gerechtigkeit einer Person oder einer Gruppe von Personen gleichgesetzt. Neben dieser allgemeinsprachlichen Definition existieren insbesondere in den Bereichen Psychologie, Soziologie, Philosophie, Politik und Ethik eine Reihe von fachspezifischen Begriffsdeutungen, die Vertrauen aus ihrer jeweiligen Perspektive unterschiedlich interpretieren (Krystek/Zumbrock 1993, S. 4 f.; Krystek/Redel/Reppegather 1997, S. 367 f.). Um Vertrauen als Erfolgsfaktor für Hochschulen untersuchen zu können, stellt sich die Frage nach einer definitorischen Abgrenzung dieses Begriffs. Da Vertrauen im Rahmen des vorliegenden Beitrags im Hinblick auf die Beziehungen zwischen den Akteuren einer Hochschule betrachtet wird, ist es nicht ausreichend, es im Sinne der Psychologie ausschließlich als ein Merkmal von Individuen zu begreifen. Vielmehr handelt es sich bei Vertrauen in Anlehnung an die Soziologie und Sozialpsychologie insbesondere um ein Merkmal von sozialen Beziehungen, an denen jeweils mindestens zwei Akteure beteiligt sind (Baltes/Dickertmann 2013; Neubauer 1999, S. 92; Preisendörfer 1995, S. 264). Die Bedeutung von Vertrauen für den Erfolg von Beziehungen und die Zufriedenheit der Beziehungspartner führen empirische Untersuchungen deutlich vor Augen. Je vertrauenswürdiger ein Partner eingeschätzt wird, desto höher ist in der Regel die Qualität der Beziehung. Dieser Zusammenhang erweist sich in allen empirischen Untersuchungen als hoch signifikant. Im Rahmen dieser Untersuchungen zeigt sich jedoch auch, dass unterschiedliche Auffassungen darüber bestehen, ob Vertrauen als Voraussetzung für Zufriedenheit, Commitment und Kooperation oder als deren Ergebnis zu interpretieren ist (Anderson/Narus 1990; Crosby/Evans/Cowles 1990; Diller/Kusterer 1988; Dwyer/Schurr/Oh 1987; Ganesan 1994; Garbarino/Johnson 1999; Gruen 1995; Jap/Weitz 1996; Morgan/Hunt 1994; Moorman/Deshpandé/Zaltman 1993; Moorman/Zaltman/Deshpandé 1992; Schurr/Ozanne 1985; Weitz/Jap 1995). Trust is central to all transactions and yet economists rarely discuss the notion. It is treated rather as a background environment, present whenever called upon, a sort of ever-ready lubricant that permits voluntary participation in production and exchange. (Dasgupta 1988, S. 49)
244
Erich Klaus
Obwohl für den Erfolg von kooperativen Austauschbeziehungen gerne auf Vertrauen als Erklärungsvariable (Explanans) zurückgegriffen wird, bleibt unklar, was sich hinter Vertrauen als zu erklärendem Phänomen (Explanandum) verbirgt. Damit sind die Merkmale von Vertrauen schwer erfassbar und eine exakte Analyse wird durch die unübersichtliche Vielfalt der teilweise widersprüchlichen Verwendungen des Vertrauensbegriffs zusätzlich erschwert (Hosmer 1995, S. 395 ff.; Neubauer 1999, S. 91; Ripperger 1998, S. 7). In Anbetracht der unterschiedlichen Bedeutungen von Vertrauen kommen Zweifel auf, ob eine exakte Identifizierung und begriffliche Fixierung von Vertrauen überhaupt möglich ist. Beispielsweise spricht Shapiro von einem „confusing potpourri of definitions applied to a host of units and levels of analysis“ (Shapiro 1987, S. 35). Und Husted stellt fest „the definitions of trust is problematic because there is such a wide variety of approaches to the concept“ (Husted 1990, S. 24). Dieser verwirrenden Begriffs- und Bedeutungsvielfalt in der Theorie steht paradoxerweise die Praxis gegenüber, die die mit Vertrauen in Zusammenhang stehenden Wirkungen als bekannt voraussetzt, ohne jedoch den Inhalt von Vertrauen genau zu kennen (Ripperger 1998, S. 34 f.). In both serious social thought and everyday discourse, it is assumed that the meaning of trust, and of its many apparent synonyms, is so well known that it can be left undefined or to contextual implications. Vagueness is apparent also in the multiple meanings given to trust. (Barber 1983, S. 7)
Aufgrund der geschilderten Problematik haben die folgenden Ausführungen das Ziel, die Begriffsvielfalt im Hinblick auf das Phänomen des Vertrauens systematisch und umfassend zu durchdringen. Für das Verständnis von Vertrauen ist es notwendig, unterschiedliche Perspektiven einzunehmen, um die zwischen den Fachdisziplinen bestehenden Barrieren zu überwinden. Beispielsweise favorisieren Marketing-Wissenschaftler bisher einseitig die psychologische Sichtweise, die Vertrauen überwiegend als personenspezifische Einstellung interpretiert. Nicht zuletzt aufgrund des zunehmend beziehungsspezifischen Charakters des Marketing wird die Forderung nach einer zukünftig stärker interdisziplinär ausgerichteten Herangehensweise an das Phänomen des Vertrauens erhoben (Morgan/Hunt 1994, S. 23; Moorman/Deshpandé/Zaltman 1993, S. 82; Moorman/Zaltman/Deshpandé 1992; Rossmann 2013). In Anlehnung an diese Forderung wird Vertrauen im Folgenden sowohl aus der psychologischen als auch der soziologischen Perspektive betrachtet. The traditional view of trust adopted in marketing has been based on a purely psychological approach. Our research complements and extends that view to include sociological theories. Hence, our definition includes both a confidence in an exchange partner (the psychological component) and a willingness to rely on an exchange partner (the sociological component). (…) Our results indicate that trust may be more a function of interpersonal factors than of individual factors. (Moorman/Deshpandé/Zaltman 1993, S. 92 f.)
Vertrauen als Erfolgsfaktor für Hochschulen
245
1.2 Vertrauen aus psychologischer Perspektive Das Phänomen des Vertrauens hat im Rahmen der Psychologie eine hohe Bedeutung und stellt insbesondere im Bereich der Psychoanalyse und der Sozialpsychologie einen zentralen Untersuchungsgegenstand dar (Bierhoff 1995; Bierhoff 2000, S. 374 ff.; Deutsch 1958; Deutsch 1960a; Deutsch 1960b; Deutsch 1962; Deutsch 1973; Deutsch 1976; Erikson 1953; Erikson 1963; Erikson 1995; Loose/Sydow 1997, S. 166 f.; Neubauer 1997; Neubauer 1999; Petermann 1996; Rotter 1967; Rotter 1971; Rotter 1980; Rotter 1981). Die Psychologie stellt vor allem das einzelne Individuum in den Mittelpunkt ihrer Überlegungen und fragt nach den Bedingungen und Voraussetzungen zur Entwicklung interpersonalen Vertrauens (Loose/Sydow 1997, S. 166; Staehle 1999, S. 410). Die im Folgenden dargestellten psychologischen Ansätze zur Erforschung des Vertrauensphänomens lassen sich im Wesentlichen zwei gegensätzlichen Forschungsrichtungen zuordnen. Ein grundlegender Forschungsansatz versteht Vertrauen als komplexes System von Meinungen, Überzeugungen oder generalisierten Erwartungen, die das Fühlen und Denken eines Menschen beeinflussen. In Anlehnung an den Begriff der Einstellung wird Vertrauen als wertende innere Haltung bzw. als Persönlichkeitsmerkmal begriffen (Holden 1990, S. 32; Narowski 1974, S. 123; Pieper 2000, S. 86; Piontkowski 1976, S. 170; Schmitz 1997, S. 150). Im Gegensatz dazu betrachtet die andere Forschungsrichtung Vertrauen als situativ bedingtes Verhalten, das sich im Sinne einer bewussten Risikoentscheidung bzw. eines ‚Sich Verlassens‘ auf ein bestimmtes Subjekt oder Objekt zeigt (Moorman/Zaltman/Deshpandé 1992, S. 315; Pieper 2000, S. 86; Schmitz 1997, S. 150). Während der zunächst behandelte Ansatz von Deutsch diese rein verhaltensorientierte Forschungsrichtung repräsentiert, lassen sich die beiden anschließend vorgestellten Ansätze von Erikson und Rotter dem einstellungsorientierten Forschungszweig zuordnen.
1.2.1 Der Ansatz von Deutsch Der Sozialpsychologe Deutsch interpretiert Vertrauen als beobachtbares und situationsspezifisches Verhalten von Individuen (Deutsch 1958; Deutsch 1960a; Deutsch 1960b; Deutsch 1962; Deutsch 1973; Deutsch 1976; Deutsch 1981; Krystek 1999, S. 267; Petermann 1996, S. 13; Preisendörfer 1995, S. 264; Wunderer/Grunwald 1980, S. 264; Winkler 2012, S. 24). Im Rahmen von spieltheoretischen Experimenten untersucht Deutsch die Einflussfaktoren auf die Vertrauensbereitschaft von Individuen und interpretiert kooperatives Verhalten in Gefangenendilemma-Situationen als Zeichen von Vertrauen. In seinen Überlegungen steht die Frage im Mittelpunkt, welche situationsspezifischen Determinanten die Neigung einer Person fördern bzw. hemmen, sich vertrauensvoll zu verhalten (Deutsch 1962, S. 304 ff.; Deutsch 1973, S. 148; Loose/ Sydow 1997, S. 166; Narowski 1974, S. 60; Petersen 2011, S. 586; Schmitz 1997, S. 15).
246
Erich Klaus
Nach Deutsch müssen drei spezifische Bedingungen erfüllt sein, damit man bei Individuen von einer vertrauensvollen Entscheidung sprechen kann. (a) the individual is confronted with an ambiguous path, a path that can lead to an event perceived to be beneficial (Va+) or an event perceived to be harmful (Va-); (b) he perceives that the occurence of Va+ or Va- is contingent upon the behavior of another person; and (c) he perceives the strength of Va- to be greater than the strength of Va+. (Deutsch 1960a, S. 124)
Mit dem freiwilligen Entschluss zu vertrauen, wird erstens immer eine bezüglich des Ergebnisses unsichere Entscheidung getroffen. Die Vertrauensentscheidung ist ambivalent und für den Vertrauenden immer mit einem Risiko verbunden. Zweitens erfolgt die Vertrauensentscheidung gegenüber einer Person, die nicht der Kontrolle des Vertrauenden unterliegt. Aus diesem Grund kann Vertrauen enttäuscht werden und für den Vertrauenden können negative Konsequenzen entstehen (Deutsch 1973, S. 152; Deutsch 1976, S. 142 f.; Loose/Sydow 1997, S. 166 f.; Platzköster 1990, S. 27). Drittens bezieht sich Vertrauen auf die subjektiven Überlegungen eines Individuums. Die widersprüchlich wirkende Annahme, dass die Vorteile einer Vertrauensentscheidung (Va+) geringer ausfallen als die Nachteile eines Vertrauensbruchs (Va-) erhält durch die Einbeziehung von subjektiven Eintrittswahrscheinlichkeiten ihren Sinn. Nach Deutsch kann man nur dann von einer vertrauensvollen Entscheidung sprechen, wenn aufgrund subjektiv kalkulierter Eintrittswahrscheinlichkeiten das Produkt aus den möglichen Vorteilen und deren Eintrittswahrscheinlichkeit größer ist als das aus den möglichen Nachteilen multipliziert mit deren antizipierter Eintrittswahrscheinlichkeit (Deutsch 1973, S. 152; Deutsch 1976, S. 142 f.; Loose/Sydow 1997, S. 167; Platzköster 1990, S. 27; Schmitz 1997, S. 151 f.; Wunderer/Grunwald 1980, S. 267). Diesen Zusammenhang verdeutlicht Deutsch am Beispiel eines Babysitters. Ein Elternpaar geht ins Theater und überlässt ihr Kind einem Babysitter. Dabei ist ihnen bewusst, dass dem Kind durch mangelnde Aufsicht etwas zustoßen kann. Das Ehepaar erwartet jedoch angenehme Erlebnisse und zieht deshalb Vorteile aus dem Theaterbesuch (Va+). Kommt der Babysitter seinen Aufsichtspflichten nur in ungenügender Weise nach und lässt er aufgrund opportunistischen Verhaltens einen Unglücksfall zu, so ist der Schaden für die vertrauenden Eltern wesentlich höher als etwa der Nutzen des abendlichen Theaterbesuches (Va-). Da das Elternpaar jedoch die Wahrscheinlichkeit eines angenehmen Theaterabends höher einschätzt als die Wahrscheinlichkeit opportunistischen Verhaltens durch den Babysitter, entschließt es sich für den Theaterbesuch. (Deutsch 1958, S. 266; Deutsch 1962, S. 303; Gierl 1999, S. 196; Plötner 1995, S. 40; Schmitz 1997, S. 152; Zand 1972, S. 230; Zand 1977). Die historische Basis für diesen von Deutsch formulierten Zusammenhang bilden die frühen Erwartungs-Wert-Ansätze der Psychologen Tolman und Lewin. Nach deren Auffassung treffen Individuen aufgrund subjektiv kalkulierter Eintrittswahrscheinlichkeiten von Ereignissen sowie der Bewertung ihrer Konsequenzen ihre Auswahlentscheidung zwischen unterschiedlichen Handlungsalternativen (Deutsch 1954;
Vertrauen als Erfolgsfaktor für Hochschulen
247
Graeff 1998, S. 38; Koller 1997, S. 14; Lewin 1938; Tolman 1932; von Rosenstiel 2000, S. 371; Wunderer/Grunwald 1980, S. 264). Trotz ihres relativ hohen Verbreitungsgrades sind die Untersuchungen von Deutsch nicht unumstritten. Der Hauptansatzpunkt der Kritik zielt auf den Laborcharakter der spieltheoretischen Experimente und die dadurch bedingte fehlende Realitätsnähe. Nach Meinung der Kritiker wird die Gültigkeit der Befunde eingeschränkt, da sich die Personen des Experimentalcharakters der Untersuchungen bewusst sind und deshalb kein ausreichendes Interesse an den Versuchen zeigen (Kee/Knox 1970, S. 362; Koller 1997, S. 15; Pieper 2000, S. 92; Platzköster 1990, S. 27). Einen weiteren Kritikpunkt stellt die unzureichende begriffliche Abgrenzung von Vertrauen sowie die unzulässige Gleichsetzung von Vertrauen mit Kooperation bei den spieltheoretischen Experimenten dar. Nach Auffassung der Kritiker muss das gezeigte Kooperationsverhalten nicht unbedingt auf Vertrauen basieren, sondern kann auch aufgrund von anderen Motiven entstehen (Manz 1980, S. 145 ff.; Pieper 2000, S. 92; Platzköster 1990, S. 27).
1.2.2 Der Ansatz von Erikson Im Gegensatz zu Deutsch interpretiert der Psychoanalytiker Erikson Vertrauen als personenspezifische Einstellung, die vor allem durch frühkindliche Erfahrungen geprägt ist. Während Freud als Begründer der modernen Psychoanalyse die Sexualität in den Mittelpunkt seiner Analysen stellt, spielt für Erikson das Vertrauen die zentrale Rolle für die menschliche Entwicklung. Nach Erikson bildet das ‚Ur-Vertrauen‘ den ‚Eckstein einer gesunden Persönlichkeit‘ und resultiert aus den Erfahrungen des ersten Lebensjahres bzw. der frühkindlichen Einstellung zu sich selbst und zur Umwelt (Bittl 1997, S. 131; Erikson 1963, S. 15; Erikson 1995, S. 15 ff.; Graeff 1998, S. 35; Krampen 1997, S. 21; Pieper 2000, S. 88; Platzköster 1990, S. 20; Staehle 1999, S. 410; von Rosenstiel 1999, S. 36). Der Soziologe Giddens bezieht sich in seinen Ausführungen auf die Position von Erikson: Indem sich die Eltern in einer Art und Weise um die Kinder kümmern, die das sensible Eingehen auf die jeweiligen Kindesbedürfnisse mit unerschütterlicher Vertrauenswürdigkeit in dem als zuverlässig empfundenen kulturellen Lebensstilrahmen verknüpft, erwecken sie bei ihren Kindern das Gefühl des Vertrauens. Damit wird im Kind die Grundlage geschaffen für ein Identitätsgefühl, das später ein Empfinden des Behagens, des Mit-sich-eins-Seins, mit dem Gefühl verbindet, man entwickle sich den Erwartungen der anderen entsprechend. (…) Die Eltern dürfen sich nicht darauf beschränken, durch Verbot und Erlaubnis Anleitungen zu geben, sondern sie müssen auch in der Lage sein, dem Kind die tiefe, nahezu körperlich spürbare Überzeugung zu vermitteln, dass ihr Tun einen Sinn hat. Letzten Endes werden die Kinder nicht durch Versagungen neurotisch, sondern durch Mangel oder Verlust des gesellschaftlichen Sinns dieser Versagungen.
248
Erich Klaus
Tab. 1: Die 8 Phasen der individuellen Entwicklung nach Erikson Phasen Lebensalter bzw. Psychosoziale Krise Verhaltensinventar Alter des Auftretens bzw. Lebenskrise I
0–1 Jahre Säuglingsalter
Vertrauenskrise
Risikobereitschaft, Delegationsfähigkeit, Vertrauen, Glaubensstärke versus Misstrauen, Sicherheitsbedürfnis, Glaubensschwäche
II
2–3 Jahre Kleinkindalter
Autonomiekrise
Eigentumssinn, Sparbereitschaft, Ordnungssinn, Systematik, Zwanghaftigkeit, Schamhaftigkeit und Zweifel, Konformität versus Unordnung, Verschwendungssucht, Großzügigkeit
III
4–5 Jahre Spielalter
Initiativ-Krise
Draufgängertum, Unternehmungsgeist, Aktivität, Konfliktvermögen, Rivalitätspotenz, Wissbegier, Zielstrebigkeit, Gewissenhaftigkeit versus Ängstlichkeit, Passivität, Energielosigkeit, Schuldgefühl
IV
6–12 Jahre Schulalter
Leistungskrise
Selbstwertgefühl, Leistungssinn, Pflichtgefühl, Leistungsbereitschaft, Aufgabenorientiertheit, Fleiß, Zähigkeit, Stolz, Durchhaltevermögen, Verantwortung versus Minderwertigkeitsgefühl, Resignation, Unzulänglichkeit
V
13–18 Jahre Adoleszenz
Identitätskrise
Identität, Zielklarheit, Entschiedenheit, Eindeutigkeit, Ich-Stärke, Beharrungsvermögen, Selbstvertrauen versus Ich-Schwäche, Ich-Verwirrung, Überidentifizierung
VI
19–25 Jahre Frühes Erwachsenenalter
Intimitätskrise
Freundschaftsvermögen, Wettstreitsfähigkeit, Loyalität, Liebesfähigkeit, Intimitätsbefähigung, Kooperationsfähigkeit versus Distanzierungsbedürfnis, Isolation, unkooperatives illoyales Verhalten, Intimitätsunfähigkeit
VII
26–40 Jahre Erwachsenenalter
Generativitätskrise
Lehrfähigkeit, Wachstums- und Aufbauorientierung, Elternschaft, Sorge für andere versus Stagnation, Stillstand und Verarmung in den Beziehungen, Lehrunwilligkeit, Unfähigkeit und Nicht-Bereitschaft, Wachstums- und Erhaltungsverantwortung zu übernehmen
VIII
ab 41 Jahren Reifes Erwachsenenalter
Integritätskrise
Selbstakzeptanz, Annahme des Vergangenen, Sinn und Verantwortungsbereitschaft für die Allgemeinheit, Integrität, Bereitschaft, Führungsverantwortung auf sich zu nehmen versus Verzweiflung, Einsamkeit, Selbstverachtung, Menschheitsverachtung, Lebensüberdruß
Quelle: In Anlehnung an Harbach 1992, S. 227; Staehle 1999, S. 187 f.
Vertrauen als Erfolgsfaktor für Hochschulen
249
Doch selbst unter den günstigsten Bedingungen ist es offenbar so, dass ein Gefühl der inneren Spaltung und der allgemeinen Sehnsucht nach dem verlorenen Paradies durch dieses (dann als prototypisch geltende) Stadium ins psychische Leben eingebracht wird. Gegen dieses mächtige Bündnis zwischen den Gefühlen der Entbehrung, der Spaltung und des Preisgegebenseins muss sich das Urvertrauen während des ganzen Lebens behaupten. (Giddens 1995, S. 121 f.)
Nach Auffassung von Erikson ist das ‚Ur-Vertrauen‘ dem Kind zunächst nicht sonderlich bewusst; es ist im Wesentlichen durch naive Gegenseitigkeit im Verhältnis zur Mutter gekennzeichnet. Erst mit der fortschreitenden Entwicklung wird das Kind zu seiner ersten sozialen Leistung fähig. Die Mutter wird aus dem Gesichtsfeld entlassen, ohne Wut und Angst zu äußern, weil sie inzwischen außer einer zuverlässig zu erwartenden äußeren Erscheinung auch zu einer inneren Gewissheit geworden ist. Die Voraussagbarkeit, Kontinuität und Gleichartigkeit der Mutter-Kind-Beziehung begründet die Ausbildung der ‚Ich-Identität‘, die die Grundlage für das spätere Selbstvertrauen und das Gefühl bildet, ‚in Ordnung zu sein‘ (Petermann 1996, S. 12; Scheuerer-Englisch/Zimmermann 1997, S. 27). Nach Erikson ist zur Entwicklung einer gesunden Persönlichkeit die Überwindung von psychosozialen Krisen erforderlich, die sich nach unterschiedlichen Lebensphasen differenzieren lassen. Die Theorie von Erikson führt die Wichtigkeit des ‚Ur-Vertrauens‘ für die Entwicklung der Persönlichkeit deutlich vor Augen. Viele Erziehungsprobleme und interpersonale Störungen beruhen auf einem Mangel an Vertrauen. Für sozial benachteiligte Kinder werden von Erziehungswissenschaftlern immer wieder Lern- und Unterstützungsprogramme durchgeführt, die jedoch die Leistungsfähigkeit dieser Kinder nur unwesentlich verbessern. Diese entmutigenden Ergebnisse werden mit dem Ur-Misstrauen der Kinder erklärt, das soziale Einflussmöglichkeiten verhindert und die Interaktion mit Erziehungspersonen erschwert (Graeff 1998, S. 35 f.; Hobbs 1966, S. 1105 ff.). Im Rahmen seiner Überlegungen geht Erikson so weit zu behaupten, Vertrauen sei die wichtigste Grundlage psychischer Normalität (Erikson 1953; Pieper 2000, S. 89; Platzköster 1990, S. 21). Nach seiner Auffassung wird Vertrauen jedoch durch unnötige Versagungen, Drohungen und Unzuverlässigkeiten verhindert. Während eine intakte Mutter-Kind-Beziehung die Bildung von ‚Ur-Vertrauen‘ gewährleistet, führen Störungen dieser Beziehung – etwa durch Nahrungsentzug – zu einem ‚Ur-Misstrauen‘. Derartige frühkindliche Erfahrungen stehen auch im Mittelpunkt der pädagogisch orientierten Theorien zur Persönlichkeitsentwicklung (Pestalozzi 1944; Pieper 2000, S. 88; Platzköster 1990, S. 22; Scheuerer-Englisch/Zimmermann 1997, S. 27; Schottländer 1946). Obwohl es Erikson gelingt, die zentrale Bedeutung frühkindlicher Erfahrungen für die Entwicklung einer vertrauensvollen Persönlichkeit hervorzuheben, besteht die Problematik seines Ansatzes in der mangelnden empirischen Überprüfbarkeit der Überlegungen, die im Wesentlichen aus dem psychoanalytischen Anteil seiner Theorie resultiert (Graeff 1998, S. 36; Pieper 2000, S. 89).
250
Erich Klaus
1.2.3 Der Ansatz von Rotter In Anlehnung an die Position von Erikson wird Vertrauen im Rahmen der sozialen Lerntheorie ebenfalls als personenspezifische Einstellung interpretiert, die von Individuen im Laufe der Jahre entwickelt wird (Petermann 1996, S. 13, S. 54; Platzköster 1990, S. 23; Preisendörfer 1995, S. 268; Schlenker/Helm/Tedeschi 1973, S. 420; Schmitz 1997, S. 153; Schweer 1998, S. 10). Im Rahmen seines Ansatzes geht der Psychologe Rotter davon aus, dass Menschen zur Bewältigung von unsicheren und neuen Situationen auf ihre Erfahrungen zurückgreifen. Auf deren Basis entwickeln Menschen im Laufe der Zeit generalisierte Erwartungen, die sehr änderungsresistent sind (Bittl 1997, S. 132; Rotter 1967, S. 653; Rotter 1980, S. 2) und die letztlich ein stabiles, messbares Persönlichkeitsmerkmal bilden, zu denen unter anderem Vertrauen zu zählen ist (Graeff 1998, S. 39; Koller 1997, S. 16; Krampen 1997, S. 22; Petermann 1996, S. 54; Pieper 2000, S. 86 f.). In diesem Sinne definiert Rotter Vertrauen als „(…) die Erwartung, dass man sich auf das Wort, die Äußerungen, die Kommunikation, die Versprechen eines Menschen oder einer Gruppe verlassen kann“ (Rotter 1981, S. 23). Im Rahmen seiner Studien stellt Rotter einen positiven Zusammenhang zwischen der Vertrauensbereitschaft, d. h. dem Ausmaß, zu dem Menschen bereit sind, anderen zu vertrauen, sowie ihrer Vertrauenswürdigkeit fest. Nach seiner Auffassung gehen vertrauensbereite Menschen positiver mit Problemen um und werden als Kooperationspartner sowohl von vertrauensvollen als auch von misstrauischen Personen gleichermaßen geschätzt. Gleichzeitig sind sie vertrauenswürdiger, weil sie weniger lügen, stehlen und betrügen. Darüber hinaus halten vertrauensbereite Menschen es für besser, ab und zu betrogen zu werden, als überhaupt nicht zu vertrauen. Sie respektieren die Rechte von anderen und geben ihnen eher eine zweite Chance. Ihren jeweiligen Interaktionspartnern räumen sie einen ‚hohen Kredit‘ ein, den sie erst dann kündigen, wenn eindeutige Anzeichen dafür vorliegen, dass diese vertrauensunwürdig handeln (Graeff 1998, S. 40; Koller 1997, S. 16; Petermann 1996, S. 54 f.; Pieper 2000, S. 88; Rotter 1980, S. 6). In Bezug auf die grundsätzliche Vertrauensbereitschaft unterscheidet Rotter in ‚High Trusters‘, die in stärkerem Ausmaß vertrauensbereit sind, und ‚Low Trusters‘, die generell weniger vertrauensbereit sind (Petermann 1996, S. 54 f.; Pieper 2000, S. 87; Reina/Reina 1999, S. 16; Rotter 1980, S. 1). Zur Erfassung von ‚High Trusters‘ bzw. ‚Low Trusters‘ entwickelt Rotter als Messinstrument die ‚Interpersonal Trust Scale‘, mit der ein personengebundener Vertrauens-Score ermittelt werden kann. Den Versuchspersonen werden 25 allgemeine Aussagen zum Thema ‚Vertrauen‘ vorgelegt, mit deren Hilfe sich ‚High Trusters‘ und ‚Low Trusters‘ differenzieren lassen (Graeff 1998, S. 22 f.; Petermann 1996, S. 22 ff.; Pieper 2000, S. 87; Platzköster 1990, S. 23; Rotter 1967, S. 651 ff.).
Vertrauen als Erfolgsfaktor für Hochschulen
251
Tab. 2: Skala zur Erfassung interpersonellen Vertrauens (‚Interpersonal Trust Scale‘) Frage 1
Die Heuchelei nimmt in unserer Gesellschaft zu
Frage 2
Dieses Land hat eine dunkle Zukunft, wenn wir nicht bessere Leute in die Politik bringen können
Frage 3
Ohne die Kontrolle der Lehrer während der Prüfungen würde wahrscheinlich das Mogeln zunehmen
Frage 4
Die Vereinten Nationen (UNO) werden niemals eine wirksame Kraft bei der Erhaltung des Weltfriedens sein
Frage 5
Die meisten Leute wären entsetzt, wenn sie wüssten, wie viele Nachrichten, die man sieht oder hört, verfälscht sind
Frage 6
Trotz vieler Berichte in Zeitungen, Radio und Fernsehen ist es schwer, eine objektive Darstellung von öffentlichen Ereignissen zu erhalten
Frage 7
Wenn wir wirklich wüssten, was in der internationalen Politik vor sich geht, dann hätten wir viel mehr Grund zur Sorge, als dies heute der Fall ist
Frage 8
Viele bedeutende nationale Sportwettkämpfe sind in der einen oder anderen Weise manipuliert
Frage 9
Bei den meisten Leuten kann man sich darauf verlassen, dass sie das tun werden, was sie ankündigen
Frage 10
Im Umgang mit Fremden ist man besser solange vorsichtig, bis sie bewiesen haben, dass sie vertrauenswürdig sind
Frage 11
Die Leute werden eher durch Furcht vor sozialer Missbilligung oder Bestrafung als vor ihrem Gewissen davon abgehalten, Gesetze zu übertreten
Frage 12
Bei Eltern kann man sich normalerweise darauf verlassen, dass sie ihre Versprechen halten
Frage 13
Das Gericht ist der Ort, wo wir alle eine unvoreingenommene Behandlung erfahren können
Frage 14
Man kann, trotz anderslautender Aussagen, davon ausgehen, dass die meisten Leute hauptsächlich an ihrem eigenen Wohlergehen interessiert sind
Frage 15
Die Zukunft scheint vielversprechend zu sein
Frage 16
Die meisten gewählten Volksvertreter meinen es bei ihren Wahlversprechen wirklich ehrlich
Frage 17
Bei den meisten Fachleuten kann man sicher sein, dass sie wahrheitsgemäß die Grenzen ihres Wissens zugeben
Frage 18
Bei den meisten Eltern kann man sich darauf verlassen, dass sie angedrohte Strafen auch ausführen
Frage 19
In der heutigen, vom Konkurrenzdenken geprägten Zeit muss man auf der Hut sein, wenn man nicht ausgenutzt werden will
252
Erich Klaus
Tab. 2: Fortsetzung Frage 20
Die meisten Idealisten sind aufrichtig und tun gewöhnlich auch selber das, was sie anderen predigen
Frage 21
Die meisten Kaufleute sind bei der Beschreibung ihrer Waren ehrlich
Frage 22
Die meisten Schüler würden in der Schule nicht schummeln, selbst wenn sie sicher wären, damit durchzukommen
Frage 23
Die meisten Kundendienstmechaniker berechnen nicht zu viel, selbst wenn sie glauben, dass man sich in ihrem Spezialgebiet nicht auskennt
Frage 24
Ein großer Teil von Schadensersatzansprüchen, die gegen Versicherungen erhoben werden, beruht auf Schwindel
Frage 25
Die meisten Leute beantworten Meinungsumfragen ehrlich
Quelle: In Anlehnung an Petermann 1996, S. 23 ff.
Trotz ihres hohen Verbreitungsgrades sind die Überlegungen von Rotter nicht unumstritten. Sowohl die theoretische Fundierung als auch die Methodik bei der empirischen Anwendung der ‚Interpersonal Trust Scale‘ sehen sich der Kritik ausgesetzt (Dwyer/Lagace 1986, S. 41; Petermann 1996, S. 22 f.; Pieper 2000, S. 89; Platzköster 1990, S. 25; Schmitz 1997, S. 154). An der theoretischen Fundierung wird kritisiert, dass es unrealistisch ist, die Entstehung von Vertrauen nur auf personenspezifische Einstellungen zurückzuführen und der situativen Komponente keine ausreichende Bedeutung beizumessen (Graeff 1998, S. 24; Petermann 1996, S. 56 f.; Pieper 2000, S. 89; Platzköster 1990, S. 25). Da die von Rotter entwickelte ‚Interpersonal Trust Scale‘ lediglich generalisierte Erwartungen erfasst, sind ihre Ergebnisse schlechter geeignet, Verhaltensprognosen zu erstellen, als Skalen, die als Alternative der ‚Interpersonal Trust Scale‘ zur Messung von Vertrauen in spezifischen Situationen entwickelt worden sind (Driscoll 1978, S. 44 ff.; Graeff 1998, S. 24; Scott 1980, S. 157 ff.). Insgesamt ist zu kritisieren, dass es allein aufgrund der generellen Vertrauensbereitschaft kaum möglich ist, auf das Verhalten in einer spezifischen Situation zu schließen. Ein weiterer Kritikpunkt stellt die ungenaue Abgrenzung der Begriffe Vertrauen und Verlässlichkeit dar. Die Einschätzung, dass Vertrauen die Erwartung eines Individuums oder einer Gruppe ist, sich auf das Wort bzw. Versprechen und die Äußerungen einer Person oder einer Gruppe von Personen zu verlassen, lässt alternative Deutungen zu. Mit dieser Definition, die die Grundlage der Operationalisierung und der empirischen Erfassung von Vertrauen bei Rotter bildet, ist zu erwarten, dass Verlässlichkeit und nicht Vertrauen im Mittelpunkt der Untersuchungen steht (Pieper 2000, S. 89; Platzköster 1990, S. 25). Im Hinblick auf die empirische Vorgehensweise wird ebenfalls Kritik an Rotter geübt. Alternative faktorenanalytische Untersuchungen identifizieren hinsichtlich der Dimensionalität von Vertrauen zum einen unterschiedlich viele und zum anderen
Vertrauen als Erfolgsfaktor für Hochschulen
253
inhaltlich abweichende Faktoren. Damit relativieren sie Rotters Annahme, dass es sich bei Vertrauen nur um ein eindimensionales Konstrukt handelt (Amelang/Gold/ Külbel 1984, S. 198 ff.; Chun/Campbell 1974, S. 1059 ff.; Corazzini 1977, S. 75 ff.; Kaplan 1973, S. 13 f.; Krampen/Viebig/Walter 1982, S. 242 ff.; Petermann 1996, S. 23; Pieper 2000, S. 89; Platzköster 1990, S. 25; Wright/Tedeschi 1975, S. 430 ff.). Neben diesen unterschiedlichen Auffassungen bezüglich der Dimensionalität von Vertrauen steht die Validität des Messinstrumentariums im Mittelpunkt der Kritik. Während einzelne Autoren generell die Aussagekraft der ‚Interpersonal Trust Scale‘ bezweifeln, bestätigen andere Studien – mit der Einschränkung einer nur kleinen Stichprobengröße – deren Validität (Austrin/Boever 1977, S. 1075 ff.; Cash/Stack/Luna 1975, S. 983 ff.; Fitzgerald/Pasework/Noah 1970, S. 163 ff.; Petermann 1996, S. 56; Pieper 2000, S. 89 f.; Platzköster 1990, S. 25).
1.3 Vertrauen aus soziologischer Perspektive Im Rahmen der soziologischen Perspektive bietet sich die Möglichkeit, die Bedeutung von Vertrauen innerhalb von sozialen Systemen zu untersuchen (Shapiro 1987, S. 623 ff.; Zucker 1986, S. 56 ff.). Die Sichtweise der Soziologie orientiert sich stark an den philosophischen, anthropologischen und ethischen Auffassungen von Vertrauen, deren geschichtliche Wurzeln sich bis in die antike Philosophie zurückverfolgen lassen (Bollnow 1958; Hartmann 1932; Koslowski 2000, S. 419 ff.; Pieper 2000, S. 77 ff.; Platzköster 1990, S. 13 ff.; Schottländer 1957, S. 28 ff.). Die Aussage Konfuzius‘ ‚Treue und Vertrauen sei dein erstes Prinzip‘ gehört zu den ersten überlieferten philosophischen Auseinandersetzungen mit dem Phänomen des Vertrauens. Wenn man berücksichtigt, welche Rolle Vertrauen bereits vor 2500 Jahren in der konfuzianischen Lehre besaß, dann ist es erstaunlich, dass erst seit kurzem Soziologen, Philosophen und Politologen dem Problem des Vertrauens wieder verstärkt ihre Aufmerksamkeit widmen. Für Konfuzius (551 – 479 v. Chr.) und später Menencius (ca. 372 – 298 v. Chr.) ist Vertrauen die Grundlage aller menschlichen Beziehungen und die wichtigste Tugend (Bollnow 1958, S. 175; Hann 1968, S. 29; Platzköster 1990, S. 12).
1.3.1 Der Ansatz von Luhmann Der Soziologe Luhmann untersucht im Rahmen seiner systemtheoretischen Überlegungen die Funktion von Vertrauen für den Erhalt von sozialen Systemen. Insbesondere seinen philosophisch geprägten Ausführungen ist es zu verdanken, dass der Begriff des Vertrauens in der jüngeren Vergangenheit wieder ein verstärktes Interesse in der soziologischen Forschung erlangt hat (Loose/Sydow 1997, S. 168; Pieper 2000, S. 79; Platzköster 1990, S. 18; Schmitz 1997, S. 155; Schweer/Siebertz-Reckzeh 2012,
254
Erich Klaus
S. 19, Seligman 1997, S. 18). Nach Luhmanns Auffassung, die sich an den philosophischen Abhandlungen von Bollnow und Schottländer orientiert, (Bollnow 1958; Pieper 2000, S. 79; Schottländer 1957) sind moderne Gesellschaftssysteme dadurch gekennzeichnet, dass das einzelne Individuum in der Interaktion mit seiner Umwelt auf eine unendliche Vielzahl an Handlungsalternativen trifft. Der Mensch ist deshalb gezwungen, Verhaltensmuster zu entwickeln, die es ihm ermöglichen, mit dieser Komplexität umzugehen bzw. diese zu reduzieren. Ansonsten besteht für den Entscheidungsträger die Gefahr der Überforderung und damit letztlich der Handlungsunfähigkeit (Bachmann/Lane 1999, S. 80; Luhmann 1968, S. 1 ff.; Luhmann 2000, S. 1 ff.; Misztal 1996, S. 73). Die Komplexität und die daraus resultierende Gefahr der Handlungsunfähigkeit werden auch im Rahmen der Betriebswirtschaftslehre als eine der zentralen Herausforderungen an die Unternehmensführung interpretiert (Krystek 1999, S. 268; Krystek/Redel/Reppegather 1997, S. 369; Macharzina 1999, S. 304; Malik 1989; Staehle 1999, S. 43). Zur Sicherung ihrer Handlungsfähigkeit bedienen sich Individuen bestimmter kognitiver Schemata, die darauf ausgerichtet sind, die oben aufgeführte Ungewissheit und Komplexität zu reduzieren. Diese ‚sozialen Mechanismen‘ sollen den Horizont sinnvoller Annahmen über das zukünftige Handeln auf ein überschaubares Maß einschränken. Im Rahmen seiner Überlegungen schlägt Luhmann vor, Vertrauen als ein derartiges Handlungsmuster zu betrachten und es damit als einen Mechanismus zur Reduktion sozialer Ungewissheit bzw. Komplexität zu begreifen (Albach 1980, S. 8; Antfang/Urban 1994, S. 2; Bachmann/Lane 1999, S. 80; Krystek 1999, S. 268; Krystek/ Redel/Reppegather 1997, S. 369; Luhmann 2000, S. 38; Nieder 1997, S. 25; Petermann 1996, S. 12; Platzköster 1990, S. 15; Winand/Pohl 1998, S. 248; Wunderer/Grunwald 1980, S. 260 f.). Das Vertrauen eines Menschen basiert nach Luhmann wesentlich auf dem Zutrauen in seine eigenen Vorstellungen, d. h., ob man seinen eigenen Erwartungen ihre Richtigkeit und Angemessenheit zutraut. Dieses Zutrauen ist für ihn ein grundlegendes Wesensmerkmal von Individuen in einer komplexen Welt und stellt eine nicht intendierte und damit von ihnen bewusst beeinflussbare und variierbare Einstellung dar (Loose/Sydow 1997, S. 168; Luhmann 2000, S. 1; Schmitz 1997, S. 156). Vertrauen im weitesten Sinne eines Zutrauens zu eigenen Erwartungen ist ein elementarer Tatbestand des sozialen Lebens. (…) Ohne jegliches Vertrauen aber könnte er (der Mensch, Anmerkung des Verfassers) sein Bett nicht verlassen. Unbestimmte Angst, lähmendes Entsetzen befielen ihn. (…) Alles wäre möglich. Solch eine unvermittelte Konfrontierung mit der äußersten Komplexität der Welt hält kein Mensch aus. (Luhmann 2000, S. 1)
Nach der Auffassung von Luhmann entfaltet sich die komplexitätsreduzierende Leistung von Vertrauen durch die Ermöglichung eines Ausschlusses bestimmter Handlungsalternativen (Bittl 1997, S. 132; Luhmann 2000, S. 23 f.; Nieder 1997, S. 25; Rössl 1994, S. 187 f.; Schweer 1998, S. 9). „Man schließt durch Vertrauen gewisse Entwicklungsmöglichkeiten von der Berücksichtigung aus. Man neutralisiert gewisse Gefah-
Vertrauen als Erfolgsfaktor für Hochschulen
255
ren, die nicht ausgeräumt werden können, die aber das Handeln nicht irritieren sollen.“ (Luhmann 2000, S. 30) Letztlich ist Vertrauen nicht abschließend rational begründbar und kommt immer durch ein bewusstes und willentliches ‚Überziehen‘ von vorhandenen Informationen zustande. Damit ist Vertrauen stets eine Mischung aus Wissen und Nichtwissen und stellt für die beteiligten Individuen eine mit Risiko behaftete Handlungsoption dar (Loose/Sydow 1997, S. 168 f.; Luhmann 1988, S. 97; Luhmann 2000, S. 31, S. 38 ff.; Petermann 1996, S. 12; Pieper 2000, S. 81; Preisendörfer 1995, S. 268; Simmel 1968, S. 263 f.). Dieser Zusammenhang wird vom Soziologen Simmel treffend formuliert: „Der völlig Wissende braucht nicht zu vertrauen, der völlig Nichtwissende kann vernünftigerweise nicht einmal vertrauen.“ (Simmel 1968, S. 263) Den Aspekt des Risikos greift Luhmann heraus, indem er Vertrauen als ‚Problem der riskanten Vorleistung‘ interpretiert, das aus der prinzipiellen Handlungsfreiheit der Individuen resultiert (Antfang/Urban 1994, S. 2; Bleicher 1995, S. 393; Hatak/Fink 2012, S. 328; Koller 1997, S. 19; Krystek 1999, S. 267; Krystek/Redel/Reppegather 1997, S. 368; Luhmann 2000, S. 27; Pieper 2000, S. 81; Schmitz 1997, S. 156; Sjurts 1995, S. 5; Staehle 1999, S. 410). Diese Freiheit zeigt sich darin, dass zwei sich begegnende Individuen scheinbar frei sind zu handeln und ihr Verhältnis so zueinander zu gestalten, wie es ihnen beliebt. Da ihre Handlungsmöglichkeiten im Prinzip unbeschränkt sind und beide Akteure nicht wissen, was sie erwartet, begegnen sie sich in einem Zustand extremer Unsicherheit. Wenn ein Individuum sich entscheidet, seinem Gegenüber Vertrauen als riskante Vorleistung entgegenzubringen, sind dabei Annahmen über das zukünftige Handeln des anderen enthalten. Obwohl es prinzipiell möglich ist, dass derjenige, dem vertraut wird, sich als vertrauensunwürdig erweist, geht derjenige, der vertraut, davon aus, dass dies nicht der Fall sein wird. Umgekehrt beginnt derjenige, dem vertraut wird, Annahmen über das zukünftige Handeln des Vertrauenden zu machen (Andaleeb 1992, S. 4; Bachmann/Lane 1999, S. 80; Preisendörfer 1995, S. 264). Im Rahmen seiner Überlegungen unterscheidet Luhmann zwischen persönlichem Vertrauen und Systemvertrauen. Das persönliche Vertrauen bezieht sich stets auf den individuellen Akteur und wird von Luhmann interpretiert als „(…) die generalisierte Erwartung, dass der andere seine Freiheit, das unheimliche Potential seiner Handlungsmöglichkeiten, im Sinne seiner Persönlichkeit handhaben wird – oder genauer, im Sinne der Persönlichkeit, die er als die seine dargestellt und sozial sichtbar gemacht hat.“ (Luhmann 2000, S. 48) Neben diesem Vertrauen auf der persönlichen Ebene betrachtet Luhmann eine weitere Variante von Vertrauen auf der Systemebene, die er als unpersönliche Form des Vertrauens bezeichnet, und die nicht unmittelbar an die Identität von Individuen anknüpft. Auf dieser Ebene wird nicht auf einzelne Personen, sondern auf Systeme bzw. auf das Funktionieren von Systemen vertraut. Als Beispiele für derartige institutionelle Strukturen und Systemmechanismen nennt und diskutiert er Geld, Wahrheit und legitime politische Macht (Luhmann 2000, S. 60 ff.; Pieper 2000, S. 81 f.; Schmitz 1997, S. 163 f.). Im Gegensatz
256
Erich Klaus
zu persönlichem Vertrauen, das durch ‚verräterische Kleinigkeiten‘ zerstört werden kann, ist das in einem System bestehende Gesamtvertrauen eher diffus und widerstandsfähiger (Luhmann 2000, S. 75; Schmitz 1997, S. 163). Wesentlich für die Konstituierung von Systemvertrauen ist die Tatsache, „(…) dass andere auch vertrauen und dass diese Gemeinsamkeit des Vertrauens bewusst wird“ (Luhmann 2000, S. 92). Für Vertrauen auf der systemischen Ebene ist es erforderlich, dass die Grundlagen und Funktionen der Vertrauensbildung von allen Mitgliedern eines Systems gemeinsam reflektiert und durchschaut werden (Narowski 1974, S. 89; Schmitz 1997, S. 163 f.). Zusammenfassend liefern die theoretischen Überlegungen von Luhmann einen wertvollen Erklärungsansatz für die Bedeutung von Vertrauen in modernen Gesellschaftssystemen. Dennoch weisen seine Ausführungen Ungenauigkeiten auf, die im Wesentlichen auf die mangelnde definitorische Festlegung von Vertrauen und die ungenügende begriffliche Trennung von Vertrauen und anderen Erwartungshaltungen zurückzuführen sind. Da Luhmann den Vertrauensbegriff in einer weitreichenden und philosophisch geprägten Form verwendet, setzt er gewissermaßen jede Erwartungsbildung mit Vertrauen und damit mit einem Prozess der Reduktion sozialer Komplexität gleich. Außerdem bezeichnet Luhmann Vertrauen als Willensleistung, obwohl im Rahmen seiner Analyse nicht ersichtlich ist, inwieweit eine Person die Wahl zwischen Vertrauen und ‚Nicht-Vertrauen‘ hat. Wenn ein Individuum kein Vertrauen aufbringen kann, dann muss es seiner Ansicht nach geradezu zwangsläufig an der sozialen Komplexität seiner Umgebung scheitern. Mit dieser Sichtweise unterlässt es Luhmann, darauf hinzuweisen, dass sich Vertrauen als Willensleistung immer auf die Wahl eines bestimmten Vertrauensgrades bezieht (Pieper 2000, S. 82; Platzköster 1990, S. 15 f.).
1.3.2 Der Ansatz von Coleman Im Rahmen der Rational-Choice-Theorie wird Vertrauen als bewusste und zeitlich versetzte Tauschhandlung interpretiert. Die Überlegungen dieses Ansatzes stützen sich weitgehend auf das Menschenbild des rational handelnden egoistischen Akteurs (Antfang/Urban 1994, S. 3; Apelt 1999, S. 12; Blau 1964; Lane/Bachmann 1996, S. 369; Misztal 1996, S. 79; Pieper 2000, S. 83; Preisendörfer 1995, S. 266; Staehle 1999, S. 410; Zündorf 1986, S. 40). Demnach legt ein Individuum durch eine rationale Entscheidung fest, ob es vertraut und Ressourcen an eine andere Person überträgt oder ob es misstraut und demzufolge Ressourcen zurückhält. Als einer der profiliertesten Vertreter des Rational-Choice-Ansatzes widmet der Soziologe Coleman in seinem ‚Opus Magnum‘ mehrere Kapitel dem Phänomen des Vertrauens (Coleman 1990; Coleman 1995; Junge 1998, S. 27; Preisendörfer 1995, S. 266; Sztompka 1999, S. 16). und definiert es als „(…) a unilateral transfer of control over certain resources to another actor, based on a hope or expectation that the other’s actions will satisfy his interests better than would his own actions“ (Coleman 1990, S. 91).
Vertrauen als Erfolgsfaktor für Hochschulen
257
Die Überlegungen des Individuums vor der Gewährung von Vertrauen, die Coleman mit denen vor dem Abschluss einer Wette vergleicht, (Apelt 1999, S. 13; Coleman 1982, S. 303; Coleman 1990, S. 99; Coleman 1995, S. 125; Pieper 2000, S. 83) hängen von zwei wesentlichen Faktoren ab. Zum einen spielt der zu erwartende Gewinn bzw. Verlust einer Vertrauensentscheidung eine wesentliche Rolle. Zum anderen besitzt das potentielle Risiko, ähnlich wie bei den Überlegungen von Luhmann, eine hohe Relevanz (Coleman 1990, S. 91; Coleman 1995, S. 125; Junge 1998, S. 39; Lane/Bachmann 1996, S. 369; Loose/Sydow 1997, S. 167; Misztal 1996, S. 79; Pieper 2000, S. 83; Preisendörfer 1995, S. 267; Sztompka 1999, S. 31). Die Zusammenhänge erklärt Coleman folgendermaßen: „Wenn die Chance zu gewinnen relativ zu der Chance zu verlieren größer ist als das Ausmaß des Verlustes (falls er verliert) relativ zum Ausmaß des Gewinns (falls er gewinnt), kann er mit dem Eingehen der Wette einen Gewinn erwarten. Und wenn er rational handelt, sollte er sie abschließen.“ (Coleman 1995, S. 125) Die zentralen Faktoren der Vertrauensentscheidung spiegeln sich in der von Coleman formulierten Beziehungsgleichung wider. Vor der Entscheidung stehend, ob er vertrauen soll oder nicht, wird der rationale Akteur im Fall (a) vertrauen, sich im Fall (b) indifferent verhalten und im Fall (c) dem jeweiligen Gegenüber kein Vertrauen entgegenbringen. Tab. 3: Die Vertrauensentscheidung nach Coleman (a) Vertrauen
(b) Indifferenz
(c) kein Vertrauen
p/(1–p) > L/G
p/(1–p) = L/G
p/(1–p) < L/G
p = Wahrscheinlichkeit des Gewinns (Wahrscheinlichkeit der Vertrauenswürdigkeit) L = potentieller Verlust (Vertrauensperson ist vertrauensunwürdig) G = potentieller Gewinn (Vertrauensperson ist vertrauenswürdig) Quelle: in Anlehnung an Antfang/Urban 1994, S. 3; Coleman 1990, S. 99; Coleman 1995, S. 126; Dederichs 1997, S. 66 f.; Loose/Sydow 1997, S. 167 f.; Pieper 2000, S. 83; Preisendörfer 1995, S. 267.
Im Rahmen seiner Überlegungen unterstellt Coleman, dass eine Vertrauensbeziehung aus mindestens zwei Parteien besteht, die sich zum Zeitpunkt der Gewährung von Vertrauen unterscheiden lassen in Treugeber und Treuhänder. Der Entschluss des Treugebers, Vertrauen zu schenken, basiert auf einem auf den eigenen Nutzen ausgerichteten rationalen Kalkül. Der Treugeber befindet sich in einer Entscheidungssituation, bei der er sich unter Risiko für Kooperation oder Nicht-Kooperation entscheiden muss (Coleman 1990, S. 96; Coleman 1995, S. 121; Loose/Sydow 1997, S. 167). Nach Auffassung von Coleman erzielt der Treugeber dann optimale Ergebnisse, wenn er auf die ökonomische Vernunft seines Kooperationspartners vertraut. Indem er unterstellt, dass der Partner im Interesse beider Akteure handelt und sich nicht opportunistisch verhält, gewährt er dem Gegenüber einen Vertrauenskredit und erwartet, dass dieser sich zeitlich versetzt bei passender Gelegenheit erkenntlich zeigt. Der Akt der Vertrauensvergabe erlaubt dem Treuhänder eine Handlung, die ihm sonst nicht möglich
258
Erich Klaus
gewesen wäre. Der Treugeber verbessert seine Situation, wenn der Treuhänder vertrauenswürdig ist und verschlechtert sie, wenn der Treuhänder vertrauensunwürdig ist (Coleman 1990, S. 97 f.; Coleman 1995, S. 123 f.). Eine hohe Bedeutung weist Coleman gegenseitigen Vertrauensbeziehungen zu, die nach seiner Auffassung wesentlich stabiler sind als diejenigen, bei denen nur einseitig Vertrauen erwiesen wird. Da der Schaden, den die involvierten Akteure durch einen Vertrauensbruch erleiden, in einer Beziehung mit gegenseitigem Vertrauen langfristig größer ist als in einer Beziehung mit nur einseitigem Vertrauen, ist die Wahrscheinlichkeit eines Vertrauensbruchs in Beziehungen mit gegenseitigem Vertrauen demzufolge geringer (Coleman 1990, S. 177 f.; Coleman 1995, S. 228 f.; Junge 1998, S. 46; Pieper 2000, S. 84). Trotz der Vorteilhaftigkeit gegenseitiger Vertrauensbeziehungen unterstreicht Coleman, dass Vertrauen nicht zwingend reziprok ausgerichtet sein muss, sondern auch die bewusste und willentliche Handlung nur einer Partei darstellen kann (Coleman 1990, S. 99, S. 177; Coleman 1995, S. 125, S. 228). Weitere Einsichten ergeben sich nach Coleman, wenn mehrfach aufeinander folgende Austauschbeziehungen unterstellt werden, die jeweils auf Vertrauen beruhen (Junge 1998, S. 32). Bei diesen Konstellationen, die auf dem ‚Gesetz des Wiedersehens‘ basieren, (Junge 1998, S. 32; Luhmann 2000, S. 46; Preisendörfer 1995, S. 267) riskieren Vertrauensbrecher Bestrafungen und Sanktionen, wenn sie sich opportunistisch verhalten. Diese Tatsache ist insbesondere für langfristige Beziehungen von hoher Relevanz, da Vertrauensbrechern ihre Kooperationsfähigkeit abgesprochen wird und sie von weiteren, dauerhaft profitablen Partnerschaften ausgeschlossen werden. Ein Vertrauensbruch mit seinem kurzfristigen Nutzenzuwachs wirkt sich insofern nachteilig aus, als er den Entgang langfristigen Nutzens vielfach nicht aufwiegen kann. Auf Basis dieses Zusammenhangs weisen die Experimente im Rahmen der Spieltheorie nach, dass rational egoistisch handelnde Akteure kooperatives Verhalten bei mehrfach aufeinanderfolgenden Spieldurchgängen bevorzugen (Axelrod 1991, S. 99; Coleman 1990, S. 96; Coleman 1995, S. 122; Preisendörfer 1995, S. 266 f.). Eine zusätzliche Erweiterung von Vertrauensbeziehungen nimmt Coleman durch die Hinzunahme von Drittparteien vor. Für den Fall, dass bei der Gewährung von Vertrauen opportunistische Verhaltensweisen von Drittparteien entdeckt werden, hat das unmittelbare Folgen bezüglich der Reputation des Vertrauensbrechers und kann ihn demzufolge davon abhalten, Vertrauen zu missbrauchen, selbst wenn es sich nur um eine einmalige Interaktion mit seinem Gegenüber handelt. Insbesondere die Tatsache, dass dem opportunistischen Akteur Sanktionen in Form von Beschränkungen bei zukünftigen Austauschbeziehungen entgegengebracht werden, kann ihn dazu bewegen, keinen Vertrauensmissbrauch zu begehen (Antfang/Urban 1994, S. 6 f.; Coleman 1990, S. 188; Coleman 1995, S. 243; Dasgupta 1988, S. 53; Junge 1998, S. 44; Misztal 1996, S. 84; Preisendörfer 1995, S. 267). Nach Coleman entsteht durch Vertrauen eine Form sozialen Kapitals, mit dessen Hilfe Ziele erreicht werden können, die sich andernfalls nicht oder nur zu höheren Kosten verwirklichen ließen. Das soziale Kapital trägt in wesentlichem Ausmaß zur
Vertrauen als Erfolgsfaktor für Hochschulen
259
Erhaltung eines sozialen Systems bei und zeigt sich beispielsweise darin, dass eine Gruppe, deren Mitglieder sich gegenseitig vertrauen, letztlich mehr erreichen kann als eine vergleichbare Gruppe, zwischen deren Mitgliedern kein Vertrauen vorhanden ist (Coleman 1990, S. 304; Coleman 1995, S. 394; Preisendörfer 1995, S. 270; Ripperger 1998, S. 165). Während diese systembezogenen Kooperationsgewinne jedoch nur im Rahmen von vertrauensvollen Beziehungen anfallen, gewinnt bei opportunistischen Handlungen der eine Akteur jeweils etwas hinzu, während sein Gegenüber etwas verliert. Die Handlungen der Akteure bestimmen also darüber, ob sich lediglich ein Null-Summen-Spiel ergibt, oder ob insgesamt Kooperationsgewinne in einem System erzielbar sind (Axelrod 1991, S. 99 ff.). Als profilierter Vertreter der Rational-Choice-Theorie ist Coleman trotz seiner weitreichenden Bedeutung für die soziologische Grundlagenforschung einer Reihe von Kritikpunkten ausgesetzt, die sich vor allem auf die Vorstellung einer rein rationalen Modellierung von Vertrauensbeziehungen beziehen (Bachmann/Lane 1999, S. 83; Dederichs 1997, S. 67; Junge 1998, S. 49 ff.; Lane/Bachmann 1996, S. 369; Preisendörfer 1995, S. 269). Nach Meinung der Kritiker unterschätzt er mit dieser Sichtweise die gesellschaftliche Perspektive und die Relevanz von sozialen Normen für die Entstehung von Vertrauen. Die Einschätzung der Vertrauenswürdigkeit einer Person entspringt nicht nur einem rein rationalen Kalkül, sondern ist in wesentlichen Zügen von der betreffenden Sozialstruktur und den vorhandenen Normen innerhalb einer Gesellschaft sowie vom emotionalen Zustand und den Erfahrungen der beteiligten Menschen abhängig (Antfang/Urban 1994, S. 17; Dederichs 1997, S. 67; Junge 1998, S. 54; Loose/Sydow 1997, S. 168; Misztal 1996, S. 88; Preisendörfer 1995, S. 269).
1.3.3 Der Ansatz von Giddens Im Rahmen der ‚Theorie der Strukturation‘, die der Soziologe Giddens in der Auseinandersetzung mit handlungs- und strukturtheoretischen Ansätzen als eigenständige Sozialtheorie entwickelt hat, spielt Vertrauen eine zentrale Rolle (Giddens 1988, S. 102 ff.; Giddens 1990, S. 29 ff.; Giddens 1995, S. 43 ff.; Hartmann 2012, S. 14; Loose/ Sydow 1997, S. 169; Misztal 1996, S. 88 ff.; Schmitz 1997, S. 157; Seligman 1997, S. 7; Staehle 1999, S. 410; Sydow 1995, S. 183 ff.; Sydow 1998, S. 36 ff.). In seinen frühen Arbeiten betrachtet Giddens Vertrauen weitgehend aus der psychoanalytischen Perspektive und stützt sich auf die bereits dargestellten Überlegungen von Erikson, der Vertrauen in Verbindung mit einem grundlegenden frühkindlichen Bedürfnis der Menschen nach Sicherheit verknüpft sieht (Giddens 1988, S. 102 ff.; Loose/Sydow 1997, S. 169; Mizstal 1996, S. 91). Im Rahmen von aktuellen Veröffentlichungen stellt Giddens zusammen mit den Soziologen Beck und Lash die Notwendigkeit von Vertrauen in der modernen ‚Risiko-Gesellschaft‘ in den Mittelpunkt seiner Überlegungen (Beck 1986; Beck 1992; Beck/Giddens/Lash 1994; Beck/Giddens/Lash 1996; Sztompka 1999, S. 38 ff.). Seine Auffassung, dass Vertrauen immer dann erforderlich ist, wenn
260
Erich Klaus
sicheres Wissen und vollständige Informationen fehlen, kommt in seiner begrifflichen Festlegung zum Ausdruck. Er definiert Vertrauen „als Zutrauen zur Zuverlässigkeit einer Person oder eines Systems im Hinblick auf eine gegebene Menge von Ergebnissen oder Ereignissen, wobei dieses Zutrauen einen Glauben an die Redlichkeit oder Zuneigung einer anderen Person bzw. an die Richtigkeit abstrakter Prinzipien (technischen Wissens) zum Ausdruck bringt“ (Giddens 1995, S. 49). Nach Meinung von Giddens steht die Notwendigkeit des Vertrauens in engem Zusammenhang mit dem ‚Problem der doppelten Kontingenz‘. Damit bringt er zum Ausdruck, dass Menschen grundsätzlich in der Lage sind, anders zu handeln, als man es von ihnen erwartet, und dass sie die vermeintlich sichere Einschätzung ihrer Reaktions- und Handlungsmöglichkeiten potentiell auch enttäuschen können. Für den Entstehungs- und Reproduktionsprozess von Vertrauen ist eine ständig durch Individuen vorgenommene, reflexive Beobachtung, Überwachung und Kontrolle der eigenen Handlungen sowie der Handlungen von anderen Personen von besonderer Bedeutung (Loose/Sydow 1997, S. 170; Parsons 1951, S. 16; Staehle 1999, S. 70). Dem Geschäftsmann mit seiner Frage, wann man denn wieder in New York sei, den Teilnehmern am Arbeitsessen der Show-Business-Größen auf dem Sunset Boulevard oder den Wissenschaftlern, die Kontinente überqueren, um in fensterlosen, klimatisierten Räumen mit Informationen vollgestopfte 15-Minuten-Vorträge zu halten, geht es nicht um Reisen bzw. Essen oder Gelehrtentum. Sie müssen vielmehr, wie einst die Soldaten, das Weiße im Auge ihrer Kollegen wie ihrer Gegner sehen, um die Vertrauensbasis zu bestätigen und – was noch wichtiger ist – auf den neuesten Stand zu bringen. (Giddens 1995, S. 112)
(1) Im Zuge des Reflexive Monitoring, das einen ersten zentralen Themenschwerpunkt im Rahmen der Strukturationstheorie darstellt, ist Vertrauen nur zum Teil das Ergebnis einer rein rationalen Kalkulation, wie sie beispielsweise die Rational-ChoicePerspektive unterstellt. Nach Auffassung von Giddens ist Vertrauen vielmehr durch im alltäglichen Handeln angeeignete und damit nicht bewusst rational zugängliche Fähigkeiten bedingt. In Anlehnung an die Psychoanalyse hebt er insbesondere die frühkindlichen Erfahrungen als zentrale Voraussetzung hervor. Insgesamt betont Giddens die hohe Relevanz von nicht rational bzw. kognitiv zugänglichen Bewusstseinsebenen bei der Entstehung von Vertrauen (Giddens 1988, S. 102 ff.; Loose/Sydow 1997, S. 170 f.). (…) die menschliche Bewusstheit ist immer begrenzt. Der Handlungsstrom produziert kontinuierlich Folgen, die die Akteure nicht beabsichtigt haben, und diese unbeabsichtigten Folgen können sich auch, vermittelt über Rückkoppelungsprozesse, wiederum als nichteingestandene Bedingungen weiteren Handelns darstellen. Die menschliche Geschichte wird durch intentionale Handlungen geschaffen, sie ist aber kein beabsichtigter Entwurf; sie entzieht sich beständig den Anstrengungen, sie unter eine bewusste Führung zu bringen. (Giddens 1988, S. 79)
(2) Einen zweiten wichtigen Themenschwerpunkt im Rahmen der Strukturationstheorie stellen die sozialen Praktiken dar, derer sich Menschen in ihrem Handeln bedie-
Vertrauen als Erfolgsfaktor für Hochschulen
261
nen. Diese Praktiken, zu denen Giddens Vertrauen zählt, entstehen nicht nur als das Ergebnis der Interaktion, sondern stellen gleichzeitig die Voraussetzung dar, auf die Individuen mit ihren Handlungen Bezug nehmen. „Diese Praktiken sind zugleich Ausdruck der Fähig- und Fertigkeiten der Akteure und der strukturellen Merkmale der Systeme, auf die sich die Akteure in ihren Interaktionen rekursiv beziehen.“ (Loose/ Sydow 1997, S. 171) Insofern bilden Handlung und Struktur bei Giddens nicht zwei voneinander unabhängige Phänomene im Sinne eines Dualismus oder Gegensatzes, sondern sind als Dualität im Sinne einer wechselseitig bedingten Abhängigkeit zu verstehen. Die Dualität von Struktur bzw. die Tatsache, dass Strukturen als Medium und als Ergebnis des Handelns zu begreifen sind, ist eine der zentralen Botschaften der Strukturationstheorie. Der im Konzept der Dualität von Struktur verwendete Strukturbegriff unterscheidet sich signifikant von dem in der Organisationstheorie gebräuchlichen. Strukturen existieren aus der Sicht der Strukturationstheorie nur in den Praktiken der Akteure bzw. als Erinnerungsspuren. Als solche ermöglichen sie Akteuren den Zugriff auf Regeln der Signifikation und Legitimation sowie auf Ressourcen zur Machtausübung (Becke/Behrens/Bleses 2012, S. 6; Loose/Sydow 1997, S. 173). Zum einen ermöglichen Strukturen das Handeln, das sich in sozialen Praktiken manifestiert, und sind zum anderen gleichzeitig das Resultat dieser Praktiken (Giddens 1988, S. 77 f.; Joas 1988, S. 14; Loose/Sydow 1997, S. 171 f.; Renz 1998, S. 292; Sewell 1992, S. 4; Staehle 1999, S. 70; Sydow 1995, S. 183; Sydow 1998, S. 36; Sydow u. a. 1995, S. 23; Sydow/van Well 1999, S. 117 f.; Walgenbach 1999, S. 358). Die Auflösung der Trennung von Struktur und Handlung bzw. Aufbau- und Ablauforganisation hat insbesondere im Zusammenhang mit der Entstehung von virtuellen Unternehmen eine hohe Bedeutung (Macharzina 1999, S. 380). Zur Analyse der Entstehung von Vertrauen differenziert Giddens im Rahmen der Strukturationstheorie zwischen zwei Dimensionen. Er unterscheidet zum einen die Strukturdimension, die die Teilbereiche der Bedeutungszuweisung und Sinnkonstitution (Signifikation), der Herrschaftsausübung (Domination) sowie der Legitimation umfasst, und zum anderen in die Handlungsdimension, die die Aspekte der Kommunikation, Machtausübung und Sanktionierung beinhaltet. Diese beiden Dimensionen sind verbunden durch die Modalitäten der Strukturation in Form von interpretativen Schemata, Fazilitäten und Normen. Die Strukturationstheorie geht davon aus, dass alle sozialen Praktiken – und damit auch der vertrauensvolle Umgang von Menschen – durch die vorgenommene analytische Trennung erklärt werden können (Giddens 1988, S. 81 f.; Loose/Sydow 1997, S. 172; Sydow 1995, S. 183 f.; Sydow 1998, S. 39 f.).
262
Erich Klaus
Struktur
Signifikation
Domination
Legitimation
Modalitäten
Interpretative Schemata
Fazilitäten
Normen
Interaktion
Kommunikation
Macht
Sanktionierung
Abb. 1: Die Dimensionen der Dualität von Struktur Quelle: In Anlehnung an Giddens 1984, S. 29.
Die aufgezeigte Systematik der Strukturationstheorie nutzt Sydow zur Beschreibung und Erklärung der Vertrauensproblematik. Mit Hilfe der drei aufgezeigten Dimensionen analysiert er die zentralen Problemfelder der Konstitution und Reproduktion von Vertrauen. Zunächst wird unterstellt, dass Individuen sich in ihrer Kommunikation interpretativer Schemata bedienen, die, beispielsweise in Form von Leitbildern, zur Verständigung, Interpretation und Sinngebung benutzt werden. In diesem Sinne dient Vertrauen als interpretatives Schema, dessen sich Menschen in ihrer Kommunikation bedienen. Mit Hilfe von Vertrauen beziehen sich Individuen auf Regeln, die in einem sozialen System gebräuchlich sind und mit deren Hilfe sie sich verständlich machen. Die Entstehung von Vertrauensbeziehungen wird durch eine Reihe von bewussten oder unbewussten Annahmen über die menschliche Natur und das menschliche Verhalten positiv beeinflusst. Diese Annahmen basieren beispielsweise auf gemeinsamen Vorstellungen über eine gute Zusammenarbeit und einen offenen Informationsaustausch (Giddens 1988, S. 82; Loose/Sydow 1997, S. 173, S. 175 f.; Roeder 2000, S. 97 f.; Sydow 1995, S. 184). In einem Unternehmen kann eine dementsprechende Regel z. B. lauten, dass die Mitarbeiter die Ansicht teilen, dass ihr Unternehmen nur dann effizienter als andere arbeitet, wenn die Zusammenarbeit auf Vertrauen beruht. Außerdem beziehen sich Individuen in der sozialen Interaktion auf Fazilitäten, um machtbezogen in Handlungsabläufe einzugreifen und ihre eigenen Interessen durchzusetzen. Mit Hilfe von Fazilitäten werden allokative und autoritative Ressourcen genutzt, die den Akteuren die Verfügungsgewalt über Objekte bzw. Personen ermöglichen. Während allokative Ressourcen die Machtausübung über Gegenstände möglich machen, erlauben autoritative Ressourcen die Herrschaft über Personen. Die Vertrauenswürdigkeit von Individuen und die zwischen ihnen bestehenden Vertrauensbeziehungen werden als eine solche autoritative Ressource genutzt. Ein langfristiger und vertrauensvoller Umgang miteinander stabilisiert die Vertrauensbeziehungen und stärkt gleichzeitig die Ressource ‚Vertrauen‘. Damit besitzt Vertrauen die
Vertrauen als Erfolgsfaktor für Hochschulen
263
Eigenschaft, dass es sich im Prozess der gegenseitigen Anwendung nicht abnutzt oder aufbraucht, sondern verstärkt. Für die Entstehung von Vertrauen sind Bedingungen notwendig, die es den Akteuren ermöglichen, vertrauensvoll zu handeln. Die Verfügbarkeit über allokative und autoritative Ressourcen in Form von Informationen über die Reputation von Individuen oder der Zugang zu ihnen haben in diesem Zusammenhang eine hohe Bedeutung (Giddens 1988, S. 316 ff.; Loose/Sydow 1997, S. 172 f., S. 174 f.; Roeder 2000, S. 96 f.; Sydow 1995, S. 184; Sydow 1998, S. 40 f.). Schließlich nutzen Individuen in der sozialen Interaktion Normen, um bestimmte Handlungen und Ereignisse als positiv oder negativ bzw. als gerechtfertigt oder ungerechtfertigt zu klassifizieren und entsprechend zu sanktionieren. Indem sich Individuen in der sozialen Interaktion auf diese Normen beziehen, tragen sie wiederum zu deren Stärkung bei. Da der vertrauensvolle Umgang miteinander eine derartige Norm darstellt, wird deren Einhaltung oder Verletzung entsprechend positiv oder negativ sanktioniert. Bevor Vertrauen jedoch zu einer Norm werden kann, sind andere, den Vertrauensprozess stützende Verhaltensregeln relevant. Den Aufbau und die Stabilisierung von vertrauensvollen Beziehungen unterstützen in diesem Zusammenhang vor allem Normen wie Offenheit, Ehrlichkeit, Toleranz, Reziprozität und Fairness (Giddens 1988, S. 82 f.; Loose/Sydow 1997, S. 173, S. 176 f.; Roeder 2000, S. 98 f.; Sydow 1995, S. 186; Sydow 1998, S. 41). Letztlich bilden sich vertrauensvolle Beziehungen unter Bezugnahme der Individuen auf alle drei aufgezeigten Dimensionen der Dualität in Form der Signifikations-, Dominations- und Legitimationsstruktur (Loose/Sydow 1997, S. 177). Dabei ist Vertrauen sowohl Medium als auch Ergebnis der sozialen Praktiken, in denen festgelegt wird, was als vertrauensfördernd oder -behindernd betrachtet und akzeptiert wird. Die Etablierung von vertrauensvollen Beziehungen gelingt nur, wenn eine rekursive Stabilisierung von gemeinsam geteilten interpretativen Schemata, verbindlich akzeptierten Normen und gemeinsam tolerierter Machtausübung möglich ist (Giddens 1988, S. 77; Loose/Sydow 1997, S. 177; Sydow 1995, S. 186). (3) Die Beachtung der Rekursivität des Handelns ist die dritte zentrale Botschaft der Strukturationstheorie von Giddens. Die Rekursivität kommt zum einen in der fortwährenden Bezugnahme der Individuen auf bestehende Strukturen sowie deren gleichzeitige Reproduktion und zum anderen in den rekursiven Beziehungen zwischen den drei Handlungs- bzw. Strukturdimensionen zum Ausdruck. Wenn sich der Umgang in einem Unternehmen beispielsweise durch Verhaltensmuster auszeichnet, in denen Vertrauen eine für das kooperative Handeln der Mitarbeiter wichtige Regel der Bedeutungszuweisung und Legitimation darstellt, werden die Mitarbeiter ihren Kollegen offener erfolgskritische Informationen mitteilen. Diese wiederum werden das ihnen entgegengebrachte Vertrauen honorieren und verstärken, indem sie ihrerseits offener kommunizieren. Das erwiesene und entsprechend signalisierte Vertrauen verpflichtet den Beziehungspartner zu loyalem Verhalten und macht es schwieriger, dieses Vertrauen wiederum zu brechen (Sydow 1995, S. 184 f.). Vertrauen ist damit als eine
264
Erich Klaus
aus dem erfolgreichen gemeinsamen Handeln entstandene Bedingung weiteren Handelns zu verstehen (Dederichs 1999, S. 62; Gambetta 1988, S. 225; Gondek/Heisig/ Littek 1992, S. 41). Die eskalierende Rekursivität von Vertrauen ist unter dem Stichwort des ‚SelfHeightening Cycle of Trust‘ bekannt (Golembiewski/Mc Conkie 1975, S. 152; Sydow 1995, S. 185; Sydow 1998, S. 38; Wunderer/Grunwald 1980, S. 261; Zand 1972, S. 230 ff.; Zand 1977). Neben der positiven Selbstverstärkung von Vertrauen ist allerdings auch eine negative Rekursivität möglich, bei der sich ein kontinuierlicher Vertrauensentzug vollzieht (Golembiewski/Mc Conkie 1975, S. 152; Ortmann 1994, S. 160; Sitkin/ Stickel 1996, S. 196 ff.; Sydow 1995, S. 185; Sydow 1998, S. 38; Wunderer/Grunwald 1980, S. 261). Cycle of Mistrust
Cycle of Trust
Low Trust
Sufficient Trust
Distorted or evaluative communication with others
Undistorted or descriptive communication with others
Low feelings of ability to influence others
High feelings of ability to influence others
Feelings of being controlled, of being forced to conform
Feelings of being in control, of being committed
Abb. 2: Zyklische Wirkungen von Misstrauen und Vertrauen Quelle: In Anlehnung an Golembiewski/Mc Conkie 1975, S. 152.
Die Wahrscheinlichkeit einer rekursiven Verstärkung des Vertrauens im Sinne einer positiven Vertrauensspirale ist umso größer, je mehr die beteiligten Individuen über die erforderlichen Ressourcen in Form von Informationen, Reputation und Zugang zu anderen Individuen verfügen, je mehr sie auf gemeinsame Regeln der Bedeutungszu-
Vertrauen als Erfolgsfaktor für Hochschulen
265
weisung und Sinnkonstitution in Form gemeinsamer Leitbilder und Konfliktlösungsmuster zurückgreifen und je mehr sie sich deshalb in ihren Motivationsstrukturen verstehen und ihr Handeln an gemeinsamen Normen wie z. B. Offenheit, Ehrlichkeit, Loyalität und Reziprozität orientieren. Die gesamten Überlegungen, die sich mit Vertrauen im Spannungsfeld von Dualität und Rekursivität verbinden, fasst die folgende Abbildung nochmals überblicksartig zusammen (Sydow 1995, S. 186).
Struktur
Signifikation
Domination
Legitimation
Vertrauen als Regel der Bedeutungszuweisung: Die Welt wird vertrauensvoll interpretiert, z. B. durch eine entsprechende Persönlichkeit
Vertrauen als autoritative Ressource: Vertrauen bzw. Vertrauensbeziehungen als Ressource in Interaktionen und Kooperationen
Vertrauen als eigenständige normative Regel
Regeln der Signifikation, die die Entstehung von Vertrauen positiv beeinflussen, z. B. Menschen- und Organisationsbilder
Allokative und autoritative Ressourcen, die die Entstehung von Vertrauen fördern, z. B. Information,Reputation, Zugang zu Individuen
Regeln der Legitimation, die die Entstehung von Vertrauen positiv beeinflussen, z. B. Offenheit, Ehrlichkeit, Toleranz
Kommunikation
Macht
Sanktionierung
Modalitäten
Interaktion
Abb 3: Konstitution von Vertrauen im Spannungsfeld von Dualität und Rekursivität Quelle: In Anlehnung an Sydow 1995, S. 187.
Die strukturationstheoretischen Überlegungen von Giddens haben in der Betriebswirtschaftslehre und insbesondere in der Organisationsforschung erhebliche Aufmerksamkeit erregt. Führende Vertreter der sozial- und verhaltenswissenschaftlich orientierten Betriebswirtschaftslehre räumen der Strukturationstheorie sogar die Rolle einer ‚Metatheorie‘ im Rahmen der zukünftigen Managementforschung ein. Eine zunehmende Zahl von Management- und Organisationsforschern greifen auf das Konzept von Giddens zurück und betreiben die Entwicklung einer strukturations-
266
Erich Klaus
theoretisch fundierten Organisations- bzw. Interorganisationstheorie (Kieser 1999, S. VI; Kießling 1988, S. 17 ff.; Neuberger 1995, S. 286 ff.; Ortmann/Sydow 1999, S. 211 f.; Ortmann/Sydow/Windeler 1999, S. 315 ff.; Renz 1998, S. 291; Staehle 1999, S. 69 f.; Walgenbach 1995, S. 761 ff.; Walgenbach 1999, S. 375; Zimmer/Ortmann 1996, S. 87 ff.). Insgesamt ist es das Verdienst von Giddens, die Bedeutung von Vertrauen mit Hilfe der Strukturationstheorie aufzuzeigen. Nach seiner Auffassung kompensiert Vertrauen die ‚Konsequenzen der Moderne‘, die sich in zunehmender Diskontinuität und steigender Verunsicherung manifestieren. Die Sichtweise von Giddens ist deshalb – in Anlehnung an die Auffassung von Luhmann – als ein stillschweigendes ‚Sich-ab-finden‘ mit unsicheren Umständen mangels besserer und sicherer Alternativen zu interpretieren (Apelt 1999, S. 15; Bierhoff 1995, Sp. 2156; Giddens 1995, S. 115; Misztal 1996, S. 89; Sztompka 1999, S. 16). Darüber hinaus erweist sich Vertrauen bei Giddens als ein Beziehungsmodus, der dadurch charakterisiert ist, dass die vertrauensvoll miteinander umgehenden Individuen in der Lage sind, bestimmte Aspekte ihres Handelns wie alternative Verhaltensmöglichkeiten und Risiken auszuklammern bzw. nicht dauerhaft zu problematisieren. Damit hilft Vertrauen den Akteuren, ihre sozialen Beziehungen auf eine spezielle Art zu strukturieren, zu regulieren und zu reproduzieren (Loose/Sydow 1997, S. 177 f.). Nach Auffassung von Giddens ist Vertrauen nicht ausschließlich das Ergebnis rationaler Überlegungen, sondern in Erweiterung der Rational-Choice-Perspektive als oftmals unbewusstes und aufgrund von früheren Erfahrungen habitualisiertes Verhaltensmuster anzusehen (Giddens 1988, S. 102 ff.; Loose/Sydow 1997, S. 171; S. 149). Für Giddens stellt Vertrauen eine Kategorie menschlichen Verhaltens dar, das neben rationalen Aspekten in wesentlichem Ausmaß auch emotionale Gesichtspunkte umfasst. Um eine vertrauensvolle emotionale Disposition gegenüber einer Person bilden zu können, benötigt jeder Vertrauende einen gewissen Erfahrungshorizont mit dem jeweiligen Gegenüber. Für den Aufbau einer reziproken Vertrauensbeziehung ist unbedingt eine entsprechende emotionale Verbindlichkeit erforderlich, die durch eine Beschränkung auf rational-ökonomische Parameter nicht zu erklären ist (Dederichs 1997, S. 74 f.). Insgesamt stellt die Sichtweise von Giddens einen ausgeprägt interdisziplinären Zugang zum Phänomen des Vertrauens dar, der sowohl psychologische als auch soziologische Erkenntnisse enthält: Giddens contribution to the theory of trust redirects interest in the notion of trust from more deterministic and single-order explanations to an approach which combines the psychology of trust with a multi-dimensional sociological understanding of the conditions of trust. (Misztal 1996, S. 94)
Trotz ihrer hohen Bedeutung ist die Strukturationstheorie nicht unumstritten und vorbehaltslos akzeptiert. Wichtige Kritikpunkte stellen die eklektizistische Vorgehensweise, die methodischen Probleme, die hohe Abstraktheit und der mangelnde praktische Nutzen dar. Außerdem wird Giddens ‚Sperrigkeit‘ bzw. mangelnde Klar-
Vertrauen als Erfolgsfaktor für Hochschulen
267
heit der Aussagen vorgeworfen, die zu – möglicherweise aus Gründen der Immunisierung von ihm sogar bewusst erzeugten – Missverständnissen führen (Archer 1982; Archer 1988, S. 73; Bryant/Jary 1991; Callinicos 1985, S. 137; Craib 1992; Dallmayr 1982, S. 23; Gane 1983; Hirst 1982, S. 78; Joas 1988, S. 17 ff.; Johnson/Dandeker/Ashworth 1984, S. 206; Kießling 1988; Matiaske 1999, S. 60 ff.; Neuberger 1995, S. 312 ff.; Renz 1998, S. 296; Sewell 1992, S. 5; Thompson 1989, S. 56 ff.; Urry 1982, S. 100 ff.; Walgenbach 1995, S. 772 ff., Walgenbach 1999, S. 369 ff.). Die fehlende klare Linie, die häufigen inhaltlichen Wiederholungen und die Heterogenität der benutzten Quellen erkennt Giddens als Kritikpunkte an, indem er die Schwierigkeiten bei der Formulierung seines Hauptwerks ‚The Constitution of Society‘ offenbart: „This was not a particularly easy book to write and proved in some part refractory to the normal order of chapters.“ (Giddens 1984, S. XXXV).
2 Ansatzpunkte für ein vertrauensbewusstes Management in Hochschulen 2.1 Einführung Die folgenden Ausführungen bauen auf den interdisziplinär gewonnenen Erkenntnissen auf und liefern – getrennt nach individuellen und institutionellen Ansatzpunkten – konkrete Empfehlungen zur Gestaltung eines vertrauensbewussten Managements in Hochschulen. Bezüglich der folgenden Ausführungen ist zu beachten, dass sie Vertrauen nicht als rein effizienzsteigerndes Mittel im Rahmen der Koordination von Aktivitäten oder als einen weiteren Produktionsfaktor ansehen. Ein derartiges Verständnis hätte zur Konsequenz, dass Vertrauen zu einem rationalistischen Kalkül ‚verkommt‘, dass von Managern ‚strategisch‘ aufgebaut und nach Belieben genutzt werden kann (Bonfiglio/ Kroß 2012, S. 11; Loose/Sydow 1997, S. 164 f.; Krystek/Redel/Reppegather 1997, S. 373). Ein derartiges Verständnis von Vertrauen ist kontraproduktiv, da entsprechende Absichten von den Beteiligten langfristig durchschaut werden würden. In Anlehnung an psychologische und soziologische Interpretationen werden deshalb insbesondere die sozialen, emotionalen und normativen Aspekte des Vertrauensaufbaus in Hochschulen betont. Für die Beteiligten werden Ansatzpunkte aufgezeigt, um ihre Fähigkeiten, ihre Handlungen sowie deren Auswirkungen selbstreflektiv zu überprüfen und den situationsspezifischen Gegebenheiten in Hochschulen unter vertrauensrelevanten Aspekten anzupassen. Ein ähnliches Vorgehen wählt der Nationalökonom Smith, der im Rahmen der ‚Theorie der ethischen Gefühle‘ im Untertitel vom „Versuch einer Analyse der Prinzipien, mittels welcher die Menschen naturgemäß zunächst das
268
Erich Klaus
Verhalten und den Charakter ihrer Nächsten und sodann auch ihr eigenes Verhalten und ihren eigenen Charakter beurteilen“ (Smith 1759/1977, S. LXXXIII) spricht.
2.2 Individuelle Ansatzpunkte für ein vertrauensbewusstes Management in Hochschulen Für ein vertrauensbewusstes Management in Hochschulen ist an Maßnahmen zu denken, die am einzelnen Individuum bzw. an seiner Persönlichkeit ansetzen. Die Bedingungen der Kooperation in Hochschulen, die geprägt sind durch hohe Komplexität und Dynamik, rücken den Faktor ‚Mensch‘ in den Mittelpunkt der Betrachtung. Die Bedeutungszunahme zeigt sich darin, dass qualifizierte und motivierte Mitarbeiter für die erfolgreiche Gestaltung von internen und externen Beziehungen an Hochschulen zum zentralen Erfolgsfaktor werden.
2.2.1 Schaffung motivationaler Voraussetzungen Die Zusammenarbeit in Hochschulen ist durch einen hohen Anteil an Informationsasymmetrien und Verhaltensrisiken gekennzeichnet. In diesem Zusammenhang stellt die Motivation der Mitarbeiter einen wichtigen Erfolgsfaktor dar. Die Zielsetzung vertrauensbewusster Maßnahmen im Bereich Personalauswahl und -schulung besteht darin, einen möglichst hohen Prozentsatz an intrinsisch motivierten Mitarbeitern sicherzustellen, die im Rahmen ihrer beruflichen Tätigkeit in der Lage sind, vertrauensvolle Beziehungen inner- und außerhalb einer Hochschule zu knüpfen. Darüber hinaus gewinnt die Fähigkeit zur Selbstmotivation an Bedeutung, die die Mitarbeiter durch lebenslanges Lernen in die Lage versetzt, ihre im Rahmen einzelner Zeitabschnitte selbstgesteckten Ziele zu erreichen. Im Einzelnen umfasst die Selbstmotivation die permanente Abklärung der individuellen Ziele, die Überprüfung ihres Erreichungsgrades, die Bündelung der eigenen Aktivitäten, die Entwicklung von Geduld sowie eine Objektivierung der eigenen Sichtweise.
2.2.2 Sicherstellung der Vertrauensbereitschaft Im Rahmen der Kooperation in Hochschulen ist durch eine entsprechende Personalauswahl sicherzustellen, dass Mitarbeiter sich durch ein hohes Ausmaß an genereller Vertrauensbereitschaft auszeichnen. Zur Erfassung der sogenannten ‚High Trusters‘ ist ansatzweise die ‚Interpersonal Trust Scale‘ geeignet, die trotz ihrer methodischen Mängel wichtige Hinweise bezüglich der generellen Vertrauensbereitschaft bzw. Vertrauenswürdigkeit von Menschen liefern kann. Letztlich sind Mitarbeiter zu bevor-
Vertrauen als Erfolgsfaktor für Hochschulen
269
zugen, die sowohl im privaten als auch im beruflichen Bereich über ein möglichst breites Spektrum an vertrauensbezogenen Erfahrungen verfügen.
2.2.3 Unterstützung kognitiver und emotionaler Fähigkeiten Durch Trainings- und Schulungsmaßnahmen sind bei den Mitarbeitern entsprechende kognitive Fähigkeiten zu entwickeln, damit sie sich einerseits einen ausreichenden Informationsstand bezüglich der Motivation von Kooperationspartnern verschaffen und sich andererseits ein entsprechendes Selbstbewusstsein aneignen, um sich über die zwangsläufig vorhandenen kognitiven Lücken bewusst hinwegzusetzen. Die Bildung der Vertrauenserwartung ist in hohem Maße davon abhängig, dass man die Motivation hinter der Handlungsabsicht des Kooperationspartners erkennt, da diese im Wesentlichen die Verlässlichkeit im Rahmen einer Vertrauensbeziehung bestimmt. Da Entscheidungen in Hochschulen meist hohe Risiken beinhalten, ist bei den Mitarbeitern durch entsprechende Qualifikationsmaßnahmen darüber hinaus das Risikobewusstsein zu trainieren. Falls ihnen das absolute Risiko einer Entscheidung zu hoch erscheint, sollten sie entweder die Vertrauensbeziehung vermeiden oder sie durch entsprechende vertragliche Maßnahmen absichern. Da in Hochschulen aufgrund der Flexibilität und Dynamik der Zusammenarbeit jedoch weitgehend auf derartige explizite Vereinbarungen verzichtet wird, besteht die generelle Gefahr eines Vertrauensmissbrauchs. Im Rahmen derartiger Situationen müssen Mitarbeiter in Hochschulen über die Selbstsicherheit und das Selbstvertrauen verfügen, um einen Vertrauensbruch psychisch zu verkraften. Die Entstehung von Vertrauen in Hochschulen ist auf leicht interpretierbare Situationen angewiesen und setzt bei den Mitarbeitern die Fähigkeit voraus, kommunikative Äußerungen und nonverbale Signale beispielsweise in Form von Emotionen möglichst korrekt interpretieren zu können. Da Menschen Mimik, Gestik, Äußerungen und Verhaltensweisen anderer Menschen durch einen subjektiven Filter und in Abhängigkeit von situativen Beschränkungen wahrnehmen, sind sie nicht durchgängig in der Lage, die vom jeweils anderen kommunizierte Botschaft korrekt zu deuten. Die Problematik von fehlenden ‚gesichtsabhängigen‘ Beziehungen zeigt sich insbesondere in virtuellen Unternehmen, in denen die Mitarbeiter weitgehend auf der Basis neuer Informations- und Kommunikationstechnologien kooperieren. Für den Aufbau von vertrauensvollen Beziehungen ist es deshalb notwendig, im Rahmen von Schulungen und Qualifikationsmaßnahmen die korrekte Interpretation von kommunikativen Äußerungen zu erlernen bzw. die eigene Kommunikation im Hinblick auf Missverständlichkeiten selbstreflektiv zu überprüfen. Durch Schulung und Training sind Mitarbeiter im Rahmen eines vertrauensbewussten Managements weiterhin in die Lage zu versetzen, Emotionen der Freundschaft, Aggression, Schuld, Sympathie und Dankbarkeit mit ihrer Mimik und Gestik eindeutig und glaubhaft zum Ausdruck bringen zu können, um dadurch das rezip-
270
Erich Klaus
rok altruistische Verhalten von anderen zu ihren Gunsten zu beeinflussen. Da die Zusammenarbeit an Hochschulen durch hohe Dynamik und Komplexität geprägt ist, dient Vertrauen vielfach zur Verständigung auf emotionaler Basis und ermöglicht den Beteiligten dadurch schnelle und flexible Entscheidungen.
2.2.4 Förderung prosozialen Verhaltens Der Erfolg von Kooperationsbeziehungen in Hochschulen hängt in wesentlichem Ausmaß davon ab, dass alle Beteiligten Handlungsnotwendigkeiten erkennen und daraus entsprechende Maßnahmen ableiten. Insbesondere in Hochschulen entstehen vielfach Situationen, die durch die Notwendigkeit von prosozialem Verhalten gekennzeichnet sind. Durch entsprechende Trainingsmaßnahmen ist sicherzustellen, dass möglichst viele Mitarbeiter die soziale Norm für vertrauenswürdiges und damit altruistisches Verhalten internalisieren. Wenn Menschen über eine altruistische Einstellung verfügen, dann sind sie grundsätzlich motiviert, vertrauenswürdiges Handeln unabhängig von äußeren Einflüssen zu zeigen. Bei der Personalauswahl ist zum Nachweis einer altruistischen Einstellung beispielsweise das außerberufliche Engagement im sozialen und kulturellen Bereich geeignet. In Hochschulen ist aufgrund der organisationsspezifischen Zusammenarbeit eine eindeutige und klare Ankündigung von Handlungen notwendig, um die Missinterpretation von Informationen aufgrund vager, mehrdeutiger oder unbestimmter Aussagen zu vermeiden. Einen wichtigen Ansatzpunkt stellen in diesem Zusammenhang Qualifikationsmaßnahmen dar, bei denen die Konsistenz des Verhaltens bzw. damit zusammenhängende persönliche Eigenschaften wie Verlässlichkeit, Zuverlässigkeit und Vorhersehbarkeit trainiert werden. Eine wichtige Eigenschaft von Mitarbeitern in Hochschulen stellt deren Vertrauenswürdigkeit dar, die das Verhalten von Dritten zu deren Gunsten beeinflussen kann. Insbesondere in Hochschulen, die sich im Rahmen der Zusammenarbeit durch ein hohes Ausmaß an opportunistischen Verhaltensspielräumen auszeichnen, ist durch entsprechende Qualifizierungsmaßnahmen zu gewährleisten, dass für andere unmittelbar erkennbar wird, wenn sich eine Person auf vertrauenswürdiges Verhalten festgelegt hat. Damit genießt derjenige auch in solchen Situationen Vertrauen, in denen dieses einem anderen, weniger vertrauenswürdigen Menschen verweigert wird. Wenn die jeweiligen Kooperationspartner das vertrauenswürdige Verhalten eines Menschen antizipieren können, werden sie auch bereit sein, sich bezüglich ihrer eigenen Handlungen auf kooperative Verhaltensweisen festzulegen.
Vertrauen als Erfolgsfaktor für Hochschulen
271
2.2.5 Stärkung der sozialen Kompetenz Vor dem Hintergrund der erhöhten Anforderungen an die Zusammenarbeit in Hochschulen müssen die Mitarbeiter über eine ausgeprägte soziale Kompetenz verfügen. Derartige Kompetenzen, die die Mitarbeiter zur Koordination, Kooperation und Kommunikation in Teams befähigen, stehen in der jüngeren Vergangenheit verstärkt im Mittelpunkt der Aus- und Weiterbildung. Neben diesen sozialen Qualifikationen gewinnt die Fähigkeit zur objektiven Urteilsbildung an Bedeutung, die es Mitarbeitern in Hochschulen ermöglicht, ihren bzw. den Beitrag ihrer Institution zur Erfüllung der Ziele selbstreflektiv zu beurteilen und – ohne dass andere benachteiligt werden – daraus einen angemessenen Anteil am Gesamtergebnis abzuleiten. Die Abhängigkeit von Kooperationspartnern, die im Rahmen von Hochschulen wesentlich ausgeprägter ist als in anderen Institutionen bedeutet für die Beteiligten darüber hinaus, dass sie Toleranz und Geduld im Hinblick auf die Handlungen der jeweils anderen entwickeln müssen, da sich deren Sinnhaftigkeit vielfach erst zu einem späteren Zeitpunkt erweist.
2.3 Institutionelle Ansatzpunkte für ein vertrauensbewusstes Management in Hochschulen Neben den individuellen Merkmalen von Menschen sind es die Beziehungen zwischen den Beteiligten, die weitere Ansatzpunkte für ein vertrauensbewusstes Management in Hochschulen aufzeigen. Im Rahmen der Kooperation wird aufgrund des hohen Zeit- und Flexibilitätsdrucks vielfach auf vertragliche Absicherungsmaßnahmen verzichtet. Der niedrige Formalisierungsgrad und die eingeschränkten Dokumentationspflichten führen zur Existenz opportunistischer Verhaltensspielräume. Darüber hinaus entstehen Verhaltensunsicherheiten durch die Einbindung der Mitarbeiter in ständig wechselnde Projektteams und die Zusammenarbeit auf Basis der neuen Informations- und Kommunikationstechnologien.
2.3.1 Sicherstellung von Information und Kommunikation Die Vertrauensproblematik resultiert aus der Existenz von Informationsasymmetrien und der Gefahr ihrer opportunistischen Ausnutzung. Zur Überwindung dieser Problematik bedarf es rechtzeitiger und umfassender Information und Kommunikation, die zu den wesentlichen interindividuellen Ansatzpunkten eines vertrauensbewussten Managements in Hochschulen gehören. Eine weitere Bedingung für die Vertrauensbildung stellt die Vielfalt der Beziehungen dar, die für das Ausmaß an unterschiedlichen Inhalten steht, die zwischen den Beteiligten ausgetauscht werden. Neben kognitiven Gesichtspunkten wie Infor-
272
Erich Klaus
mationen, Produkten und Dienstleistungen stellen dies insbesondere die Emotionen und Gefühle der Mitarbeiter dar. Aufgrund der Tatsache, dass Vertrauen stets auch eine emotionale Komponente enthält, ist auf der Basis informeller Treffen und Kontakte der Austausch von Emotionen ein wichtiger Bestandteil für die Entstehung von Vertrauen in Hochschulen. Darüber hinaus stellt die emotionale Verbindlichkeit aller Beteiligten einen wesentlichen Faktor für die Aufrechterhaltung von langfristig erfolgreichen Vertrauensbeziehungen innerhalb von Hochschulen dar. Im Rahmen von Schulungen können entsprechende Verhaltensregeln eingeübt werden. Allerdings ist im Hinblick auf die emotionale Komponente von Vertrauen die Funktionalisierung von Gefühlen abzulehnen, da sie langfristig durchschaubar ist und letztlich zu deren Missachtung beiträgt.
2.3.2 Herstellung von Vertrautheit Im Rahmen eines vertrauensbewussten Managements in Hochschulen ist es von zentraler Bedeutung, eine wahre Aussage von einer unwahren unterscheiden zu können. Da der Unterschied zwischen Wahrheit und Unwahrheit in einem vertrauten Umfeld deutlicher zu erkennen ist als in einem unvertrauten, ist die Existenz von Vertrautheit eine zentrale Voraussetzung für die Entstehung von Vertrauen. Diesbezüglich ist beispielsweise im Rahmen von regional ausgerichteten Hochschulen die räumliche Nähe ein nicht zu unterschätzender Faktor. Insbesondere aufgrund der Vertrautheit mit dem regionalen Umfeld und den spezifischen Gegebenheiten vor Ort wird die Entstehung von Vertrauen zwischen den Beteiligten wesentlich unterstützt. Ebenso wie die räumliche Nähe beeinflusst die Zahl der Kooperationspartner einer Hochschule maßgeblich die Vertrautheit und damit die Vertrauensbildung. Eine tendenziell kleinere Zahl von Partnern, die sich darüber hinaus durch eine strukturelle Gleichartigkeit auszeichnen, kommt der Entstehung von vertrauensvollen Beziehungen entgegen.
2.3.3 Nutzung von Vertrauensintermediären Durch die Existenz von Drittparteien stellt in Hochschulen die Einschaltung von Vertrauensintermediären eine wichtige Möglichkeit zur Unterstützung der Information und Kommunikation dar. Um die Kosten und die Zeit des Vertrauensaufbaus zwischen zwei neuen potentiellen Kooperationspartnern zu verringern, werden gemeinsame, bereits bestehende Vertrauensbeziehungen zu einem Dritten genutzt, der als Vermittler zwischen den eigentlichen Kooperationspartnern dient. Dadurch, dass Intermediäre verlässliche Informationen über potentielle Kooperationspartner zur Verfügung stellen, verringern sie die vorhandene subjektive Unsicherheit und verbessern die Qualität der Entscheidungen.
Vertrauen als Erfolgsfaktor für Hochschulen
273
2.3.4 Unterstützung der Reziprozitätsnorm Einen weiteren wesentlichen Ansatzpunkt für die Gestaltung eines vertrauensbewussten Managements in Hochschulen bildet die Initiierung und Unterstützung von sozialen Normen. Auf Basis der informationstechnischen und organisatorischen Vernetzung verhindert in Hochschulen die Reziprozitätsnorm als zentrale Verhaltensregel die Benachteiligung einzelner Kooperationspartner, indem sie das Gleichgewicht des gegenseitigen Austauschs langfristig sichert. Die durch wechselseitige Verpflichtungen geschaffenen Beziehungen tragen wesentlich zur Stabilität von Hochschulen bei, indem sie bei langfristig ausgeglichenen ‚sozialen Konten‘ die Vorteilhaftigkeit der Kooperation für alle Beteiligten sicherstellen. Im Rahmen der Reziprozitätsnorm ergeben sich die Vorteile wechselseitig altruistischen Verhaltens aus dem günstigen Verhältnis von Kosten und Nutzen. Insbesondere in Hochschulen, die größtenteils durch immaterielle Größen wie Information, Wissen und Kommunikation gekennzeichnet sind, ist der Nutzen einer altruistischen Handlung in der Regel für den Begünstigten größer als deren Kosten für den Handelnden. Auf dieser Basis ist die Mitteilung von wichtigen Informationen für den Informanten mit einem relativ geringen Einsatz verbunden und erzeugt beim Informierten in der Regel einen hohen Nutzen. Transparenz und ein gleichmäßig hohes Informationsniveau sind in Hochschulen durch geeignete Informationsstrukturen sowie ein entsprechendes Bewusstsein bei den Betroffenen sicherzustellen. Zwischen den Partnern einer Hochschule existieren implizite Verträge, die für alle Beteiligten Rechte und Pflichten bedeuten. Wenn sich ein Kooperationspartner einem anderen gegenüber in einer für diesen wichtigen Situation als vertrauenswürdig erwiesen hat, dann erwirbt er einen moralischen Anspruch darauf, dass sich der andere ebenfalls vertrauenswürdig verhält, wenn er selbst in einer Notsituation ist. In diesem Sinne trägt reziproker Altruismus entscheidend dazu bei, dass die impliziten Verträge zwischen den Beteiligten selbstdurchsetzend sind.
2.3.5 Schaffung und Sicherung sozialen Kapitals Das Sozialkapital innerhalb einer Hochschule entsteht aufgrund von Verpflichtungen sozialer Art, die sich aus dem moralischen Anspruch auf gegenseitig altruistisches Verhalten ableiten. Derjenige Kooperationspartner, der über soziales Kapital verfügt, ist in der Lage, die Ressourcen von anderen Beteiligten zu nutzen, fehlende eigene Ressourcen zu ergänzen und damit seinen eigenen Handlungsspielraum wesentlich zu erweitern. Insbesondere in Organisationsformen wie Hochschulen, deren Erfolg wesentlich auf der Potenzierung eigener Möglichkeiten durch schnelle und flexible Kooperationen beruht, hat das Sozialkapital als gegenseitiger Anspruch auf altruistisches Verhalten eine hohe Bedeutung. Durch eine entsprechende organisatorische
274
Erich Klaus
Gestaltung ist sicherzustellen, dass der Informationsaustausch und damit die Beteiligung am sozialen Kapital für alle Kooperationspartner bestmöglich gewährleistet ist. In Hochschulen sind diejenigen Beteiligten im Vorteil, die bei Bedarf auf soziales Kapital zurückgreifen und sich in Notsituationen darauf berufen können. Aufgrund des günstigen Kosten- bzw. Nutzen-Verhältnisses reziprok altruistischen Verhaltens sind – wie bereits ausgeführt – die Kosten für den Erbringer einer altruistischen Handlung in der Regel geringer als der Nutzen für den Begünstigten. Wenn der Letztere die altruistische Handlung zu einem späteren Zeitpunkt wiederholt, zu dem der erstere darauf angewiesen ist, dann ergibt sich daraus ein langfristiger Nutzenzuwachs für alle Beteiligten einer Hochschule. Letztlich ist sicherzustellen, dass die jeweiligen Kompetenzen innerhalb einer Hochschule den anderen Beteiligten in einem möglichst hohen Ausmaß zur Verfügung stehen, um die Kooperationsgewinne zu maximieren. Im Rahmen einer derartigen Auffassung sind diejenigen Hochschulen im Vorteil, bei denen durch eine entsprechende informationstechnische und organisatorische Gestaltung das Ausmaß an sozialem Austausch am höchsten ist.
2.3.6 Aufbau und Verbreitung einer Vertrauenskultur Innerhalb einer Hochschule liefert die jeweilige Kultur den Beteiligten wichtige Informationen für die Bildung ihrer Vertrauenserwartung. Insbesondere in Situationen, in denen nicht auf eigene Erfahrungen und auch nicht auf Erfahrungen Dritter im Umgang mit dem potentiellen Kooperationspartner zurückgegriffen werden kann, wird die jeweilige Vertrauenskultur als Basis für die Bildung der Vertrauenserwartung herangezogen. Die Bekanntheit und Verbreitung der Vertrauenskultur ist demgemäß durch entsprechende kommunikative Aktivitäten innerhalb einer Hochschule sicherzustellen. Aufgrund der Tatsache, dass im Rahmen der Vertrauenskultur Dritte gleichermaßen von einem Vertrauensmissbrauch betroffen sind, besteht grundsätzlich ein Konsens darüber, das Verhalten der Kooperationspartner in Hochschulen kollektiv zu kontrollieren und den Bestand an Sozialkapital zu schützen. Als Voraussetzung für die Durchsetzung einer Vertrauenskultur müssen allerdings eine ausreichend große Anzahl von Kooperationspartnern die Bereitschaft besitzen, ihre Beziehungen auf einer Vertrauensbasis zu gestalten. In diesem Zusammenhang ist dafür Sorge zu tragen, dass eine entsprechende Vertrauenskultur bekannt ist, und dass sich die Kooperationspartner der Vorteile einer Vertrauenskultur auch bewusst sind. Um im Rahmen von Kooperationsbeziehungen in Hochschulen ihre eigenen Ziele zu verwirklichen, müssen die Beteiligten das Verhalten derer, mit denen sie interagieren, entsprechend beeinflussen. Zu diesem Zweck muss ein Kooperationspartner glaubwürdig versichern können, dass er seine eigenen zukünftigen Handlungen im gegenseitigen Interesse bindend festlegt und sich an die in Aussicht gestellte Verteilung der jeweiligen Handlungsergebnisse halten wird. Wenn Vertrauen zwischen den Beteiligten einer Hochschule herrscht, dann entfallen jene Kosten, die ansonsten im
Vertrauen als Erfolgsfaktor für Hochschulen
275
Rahmen expliziter vertraglicher Sicherungsmaßnahmen gegen opportunistisches Verhalten bestehen. Dieser Teil der Kosten wird durch die Entwicklung einer sozialen Norm zum Schutz von Vertrauen von der einzelvertraglichen Ebene auf die Systemebene verlagert und stellt in diesem Sinne eine Aufwendung dar, von der alle innerhalb der Hochschule bestehenden Beziehungen profitieren.
2.3.7 Stärkung schwacher Verbindungen Die Existenz und Verbreitung einer Vertrauenskultur innerhalb von Hochschulen beruht weitgehend auf schwachen Verbindungen und informellen Beziehungen. Die Informationen, die über schwache Verbindungen übermittelt werden, erreichen eine größere Anzahl von Individuen über eine weitere soziale Entfernung hinweg. Damit spielen sie eine wichtige Rolle für die Entstehung und Ausbreitung von Vertrauen innerhalb von Hochschulen. Je größer die Anzahl und die Dichte der schwachen Verbindungen ist, desto größer ist die Wahrscheinlichkeit, dass Informationen bestehen, auf deren Basis sich Vertrauen innerhalb von Hochschulen ausbreiten kann. Unter diesen Aspekten sind die schwachen Verbindungen in Hochschulen beispielsweise durch informalen Informationstransfer gezielt zu stärken. Auf Basis derartiger Verbindungen sind Mitarbeiter in Hochschulen darüber hinaus aufgefordert, bei der Rekrutierung von Personal Empfehlungen zu geben, die aufgrund persönlicher Erfahrungen im beruflichen und privaten Bereich bestehen. Die Bedeutung derartiger Kontakte zeigt sich beispielsweise im Rahmen von sogenannten ‚Alumni-Kontakten‘, die auf den Erfahrungen einer gemeinsam absolvierten Ausbildung beruhen.
2.3.8 Nutzung der Reputation Ein weiterer zentraler Ansatzpunkt für ein vertrauensbewusstes Management in Hochschulen stellt die Reputation der Kooperationspartner dar. Die Reputation signalisiert, wie vertrauenswürdig sich dieser in der Vergangenheit gegenüber anderen Kooperationspartnern verhalten hat. Insbesondere in Situationen, in denen man keine eigenen Erfahrungen mit dem potentiellen Kooperationspartner besitzt, greift man auf dessen Reputation als Informationsquelle zurück. Mit der Qualität seiner Reputation wachsen die Möglichkeiten eines Akteurs, auf die Ressourcen der Anderen Zugriff zu nehmen sowie das Ausmaß, in dem er an den insgesamt erzielbaren Kooperationsgewinnen innerhalb einer Hochschule teilhaben kann. Der Verlust an Reputation bedeutet gleichzeitig die Reduzierung des Anspruchs auf die Unterstützung durch Dritte und liefert damit eine potentielle Sanktionsmöglichkeit gegenüber dem Betroffenen. Insbesondere in Hochschulen stellt die Reputation eine zentrale Informationsquelle bezüglich potentieller Kooperationspartner dar und kann nach Ablauf eines Kooperationsprojekts als ‚Geisel‘ genutzt werden. Je zahlreicher
276
Erich Klaus
und gewinnträchtiger die Beziehungen sind, die auf der Basis von Vertrauen in Hochschulen bestehen, desto erstrebenswerter wird der Erwerb und der Erhalt einer vertrauenswürdigen Reputation. Auf Basis derartiger Überlegungen ist sicherzustellen, dass Informationen bezüglich der Reputation der Beteiligten möglichst schnell und umfassend innerhalb der Hochschule verbreitet werden. Falls sich ein Kooperationspartner nicht vertrauenswürdig verhält, so ist unmittelbar Einfluss auf seine Reputation zu nehmen.
2.3.9 Sicherstellung der Sozialisation Als abschließender Ansatzpunkt zur Gestaltung eines vertrauensbewussten Managements in Hochschulen sind Möglichkeiten zur Sozialisation der beteiligten Kooperationspartner anzusprechen. Da die Zusammenarbeit in Hochschulen durch hohe Informationsasymmetrien und Verhaltensunsicherheiten geprägt ist, ist langfristig in die Internalisierung einer sozialen Norm für vertrauenswürdiges Verhalten zu investieren. Während diejenigen Beteiligten, die diese Norm internalisiert haben, unabhängig von situativen Einflüssen vertrauenswürdiges Verhalten zeigen, müssen diejenigen, die diese Norm nicht internalisiert haben, im Rahmen von extrinsischen Anreizen zu vertrauenswürdigem Verhalten veranlasst werden. Dazu bedarf es umfassender Information und Kommunikation, um zum einen den Konsens zu ermöglichen und um zum anderen gemeinsames Handeln abzustimmen. Die Internalisierung einer Norm für vertrauenswürdiges Verhalten zieht eine Änderung der Einstellungen der Betroffenen nach sich, die durch die anderen Kooperationspartner der Hochschule initiiert wird. Als Ergebnis dieser Sozialisation ändert der Betreffende seine Einstellung und entwickelt eine entsprechende Sensibilität für die Bedürfnisse der anderen Partner. Falls dies langfristig nicht der Fall sein sollte, und der Betreffende weiterhin lediglich in opportunistischer Absicht seine individuellen Gewinne maximiert, ist er in letzter Konsequenz aus der Hochschule auszuschließen.
3 Zusammenfassung und Ausblick Die im Rahmen des vorliegenden Beitrags entwickelte Perspektive ermöglicht eine interdisziplinäre Analyse von Vertrauen sowie – darauf aufbauend – Empfehlungen zur Gestaltung eines vertrauensbewussten Managements in Hochschulen. Zunächst wurden im Bereich Vertrauen die theoretischen Grundlagen gelegt. Dabei wurde die – insbesondere in der Wissenschaft bisher vorherrschende – rein psychologische Sichtweise von Vertrauen um soziologische Erkenntnisse ergänzt. Insbesondere zur Analyse von Vertrauensbeziehungen in Hochschulen erscheint eine derartige Erweiterung notwendig und lohnenswert. Dieser interdisziplinäre Ansatz ermöglichte die
Vertrauen als Erfolgsfaktor für Hochschulen
277
Reduzierung der bisher zwischen den betreffenden Wissenschaftsdisziplinen bestehenden Erkenntnisbarrieren in Bezug auf Vertrauen. Die gewonnenen Erkenntnisse wurden genutzt, um Empfehlungen für ein vertrauensbewusstes Management in Hochschulen auszusprechen. Die aufgezeigten Erkenntnisse können zur Auffassung führen, dass sich Hochschulen generell durch ein hohes Vertrauensniveau auszeichnen sollten. Ein derartiger Anspruch ist zu relativieren, da sich ein vertrauensbewusstes Management in Hochschulen stets an den spezifischen Rahmenbedingungen orientieren sollte. Daraus leitet sich naturgemäß die Frage nach einer situativen Relativierung des aufgezeigten Bezugsrahmens ab. Eine Aufgabenstellung für weitere Forschungsprojekte kann demgemäß lauten, die optimale Ausgestaltung eines vertrauensbewussten Managements in spezifischen Situationen zu ermitteln. Im Rahmen derartiger Untersuchungen sind jedoch ‚Warnungen‘ zu beachten, die auf die schwierige Operationalisierung und Messung von Vertrauen hinweisen. Insbesondere die Tatsache, dass Vertrauen ein personen-, beziehungs- und situationsabhängiges Phänomen darstellt, lässt empirische Untersuchungen problematisch erscheinen (Petermann 1996, S. 48 ff.). Im Hinblick auf die Messung und situationsspezifische Ausgestaltung ist auch ein ‚strategischer‘ Aufbau von Vertrauen unter rein rationalen Gesichtspunkten schwierig, da sich Vertrauen – wie mehrfach dargestellt – aufgrund seiner sozialen und emotionalen Aspekte einer bewussten und rational intendierten Gestaltung und Handhabung weitgehend entzieht. Insofern ist der Auffassung von mehreren Fachautoren zu folgen, die die Formulierung eines vertrauensbewussten oder vertrauensorientierten Managements für angemessener halten als die eines generellen Vertrauensmanagements (Funken/Hörlin 2012, S. 42; Loose/Sydow 1997, S. 190; Raunicher 2012, S. 40; Steinle/Ahlers/Gradtke 2000, S. 209; Sydow 1995, S. 195; Wicks/Berman/Jones 1999). Bei der situativen Relativierung stellt sich die Frage nach der Bedeutung von Vertrauen im internationalen bzw. interkulturellen Kontext. In einer globalen Wirtschaft, in der Hochschulen über verschiedene Kultur- und Landesgrenzen hinweg kooperieren, kommt der Vertrauensbildung eine zentrale Rolle zu. Wenn die Mitarbeiter mit einer Kultur und ihren spezifischen Merkmalen sozialer Interaktion nicht vertraut sind, sind die Folgen des eigenen Handelns und das Verhalten der jeweiligen Kooperationspartner nur schwer einzuschätzen. In einem fremden Umfeld ist es schwerer, den Wahrheitsgehalt einer Botschaft zu erkennen, als in einer sozial und kulturell vertrauten Umgebung. Auf Basis unterschiedlicher kultureller Hintergründe ist die Eindeutigkeit von Kommunikation in einem geringeren Ausmaß gesichert als innerhalb einer identischen Kultur. Beispielsweise gilt ein mündliches Versprechen in einem Land viel und in einem anderen Land wenig, und eine Lüge, die innerhalb einer Kultur als höfliche Floskel durchschaut wird, kann in einer anderen Kultur als böswillige Täuschungsabsicht interpretiert werden. Die Mimik und Gestik sowie die kommunikativen Äußerungen und Verhaltensweisen von Menschen sind in verschiedenen Kulturräumen unterschiedlich ausgeprägt, und sprachliche Probleme
278
Erich Klaus
erschweren die Kommunikation und den Vertrauensaufbau zusätzlich (Picot/Reichwald/Wigand 2001, S. 132 f.). Darüber hinaus stellt sich die Frage nach der Bedeutung von Vertrauen im Kontext der Digitalisierung von wirtschaftlichen Aktivitäten. Insbesondere im Rahmen der digitalen Wirtschaft wird Vertrauen eine zentrale Rolle zugewiesen. Das Prinzip des Vertrauens im Sinne einer wechselseitigen sozialen Kontrolle liegt mittelalterlichen Handelstraditionen ebenso zugrunde wie den jüdischen Diamantenhändlern in New York oder den digitalen Internet-Märkten (Picot/Reichwald/Wigand 2001, S. 336). Sowohl in der Wissenschaft als auch in der Praxis besteht ein zunehmendes Interesse am Konzept der digitalen Wirtschaft. Im Zuge der Entwicklung des Internets sehen Fachautoren ein neues Zeitalter anbrechen, bei dem die derzeit gültigen Regeln der Ökonomie außer Kraft gesetzt werden und kleinere Unternehmen in Konkurrenz mit großen multinationalen Konzernen treten. Obwohl Skeptiker entgegenhalten, dass die tatsächliche Entwicklung von derartigen Vorstellungen noch weit entfernt ist, wird die digitale Wirtschaft und die damit unmittelbar in Zusammenhang stehende Notwendigkeit des Aufbaus vertrauensvoller Beziehungen zu Kunden langfristig an Bedeutung gewinnen (Eggs 2001; Padovan 2000; Picot/Reichwald/Wigand 2001, S. 337; Toedtmann/Engeser 2014). Abschließend stellt sich die Frage nach der Relevanz von Vertrauen im Rahmen einer globalen Weltwirtschaftsordnung. Insbesondere die westlichen Industrienationen müssen sich die Frage gefallen lassen, ob ihre bisherigen Beziehungen zu anderen Staaten nicht durch einen hohen Grad der Ausnutzung von opportunistischen Verhaltensspielräumen gekennzeichnet waren. Das niedrige Vertrauensniveau und das geringe Ausmaß an sozialem Kapital in den unterentwickelten Staaten der Dritten Welt ist unter anderem auf die niedrige generelle Vertrauensbereitschaft in diesen Ländern zurückzuführen, und die diesbezüglichen schlechten Erfahrungen reichen zurück bis in die Zeiten der Kolonialisierung. Die Relevanz derartiger Überlegungen spiegelt sich nicht zuletzt in der Verleihung des Wirtschaftsnobelpreises an die Informationsökonomen Akerlof, Spence und Stiglitz wider, die auf die Existenz von Informationsasymmetrien und die Problematik ihrer opportunistischen Ausnutzung explizit hinweisen. Ein Vorschlag zur Lösung des globalen ökonomischen Ungleichgewichts könnte dementsprechend lauten, die unterentwickelten Staaten in ein Netzwerk einzubinden, um sie mit dessen Hilfe an der Verteilung der weltweiten Wohlfahrtsgewinne angemessener als bisher zu beteiligen.
Literaturverzeichnis Albach, H. (1980): Vertrauen in der ökonomischen Theorie, in: Zeitschrift für die gesamte Staatswissenschaft, 136. Jg., 1980, S. 2–11. Amelang, M./Gold, A./Külbel, E. (1984): Über einige Erfahrungen mit einer deutschen Skala zur Erfassung zwischenmenschlichen Vertrauens, in: Diagnostica, 30. Jg., 1984, S. 198–215.
Vertrauen als Erfolgsfaktor für Hochschulen
279
Andaleeb, S. S. (1992): The Trust Concept: Research Issues for Channels of Distribution, in: Research in Marketing, 11. Jg., 1992, S. 1–34. Anderson, J. C./Narus, J. A. (1990): A Model of the Distributor Firm and Manufacturer Firm Working Partnerships, in: Journal of Marketing, 54. Jg., January 1990, S. 42–58. Antfang, P./Urban, D. (1994): ‚Vertrauen‘ – soziologisch betrachtet: Ein Beitrag zur Analyse binärer Interaktionssysteme, Schriftenreihe des Instituts für Sozialforschung der Universität Stuttgart, Nr. 1/1994, Stuttgart 1994. Apelt, M. (1999): Vertrauen in der zwischenbetrieblichen Kooperation, Wiesbaden 1999. Archer, M. S. (1982): Morphogenesis versus Structuration: On Combing Structure and Action, in: British Journal of Sociology, 33. Jg., 1982, S. 455–483. Archer, M. S. (1988): Culture and Agency: The Place of Culture in Social Theory, Cambridge 1988. Austrin, H. R./Boever, P. M. (1977): Interpersonal Trust and Severity of Delinquent Behavior, in: Psychological Reports, 40. Jg., 1977, S. 1075–1078. Axelrod, R. (1991): Die Evolution der Kooperation, 2. Auflage, München 1991. Bachmann, R./Lane, C. (1999): Vertrauen und Macht in zwischenbetrieblichen Kooperationen: Zur Rolle von Wirtschaftsrecht und Wirtschaftsverbänden in Deutschland und Großbritannien, in: Sydow, J. (Hrsg.), Management von Netzwerkorganisationen: Beiträge aus der ‚Managementforschung‘, Wiesbaden 1999, S. 75–106. Baltes, P./Dickertmann, D. (2013): Vertrauen aus handlungsökonomischer Sicht, in: WISU, Das Wirtschaftsstudium, Heft 11, 42. Jg., 2013, Studienblatt, o. S. Barber, B. (1983): The Logic and Limits of Trust, New Brunswick 1983. Beck, U. (1986): Risikogesellschaft: Auf dem Weg in eine andere Moderne, Frankfurt am Main 1986. Beck, U. (1992): Risk Society, London 1992. Beck, U./Giddens, A./Lash, S. (1994): Reflexive Modernization, Cambridge 1994. Beck, U./Giddens, A./Lash, S. (1996): Reflexive Modernisierung: Eine Kontroverse, Frankfurt am Main 1996. Becke, G./Behrens, M./Bleses, P. (2012): Vertrauen ≠ Vertrauen, in: Organisationsentwicklung, Heft 1, 31. Jg., 2012, S. 4–8. Bierhoff, H. W. (1995): Vertrauen in Führungs- und Kooperationsbeziehungen, in: Kieser, A./ Reber, G./Wunderer, G. (Hrsg.), Handwörterbuch der Führung, 2. Auflage, Stuttgart 1995, Sp. 2148–2158. Bierhoff, H. W. (2000): Sozialpsychologie: Ein Lehrbuch, 5. Auflage, Stuttgart, Berlin, Köln 2000. Bittl, A. (1997): Vertrauen durch kommunikationsintendiertes Handeln: Eine grundlagentheoretische Diskussion in der Betriebswirtschaftslehre mit Gestaltungsempfehlungen für die Versicherungswirtschaft, Wiesbaden 1997. Blau, P. M. (1964): Exchange and Power in Social Life, New York 1964. Bleicher, K. (1995): Vertrauen als kritischer Faktor einer Bewältigung des Wandels, in: Zeitschrift für Führung und Organisation, 64. Jg., 1995, S. 390–395. Bollnow, O. F. (1958): Wesen und Wandel der Tugenden, Frankfurt am Main 1958. Bonfiglio, D./Kroß, M. (2012): On Trust – Die Tagung des Einstein-Forums, in: Organisationsentwicklung, Heft 1, 31. Jg., 2012, S. 9–11. Bryant, C. G. A./Jary, D. (1991): Introduction: Coming to Terms with Anthony Giddens, in: Bryant, C. G. A./Jary, D. (Hrsg.), Giddens‘ Theory of Structuration – A Critical Appreciation, London 1991, S. 1–31. Callinicos, A. (1985): Anthony Giddens: A Contemporary Critique, in: Theory and Society, 14. Jg., 1985, S. 133–166. Cash, T. F./Stack, J. J./Luna, G. C. (1975): Convergent and Discriminant Behavioral Aspects of Interpersonal Trust, in: Psychological Reports, 38. Jg., 1975, S. 983–986.
280
Erich Klaus
Chun, K./Campbell, I. B. (1974): Dimensionality of the Rotter Interpersonal Trust Scale, in: Psychological Reports, 37. Jg., 1974, S. 1059–1070. Coleman, J. S. (1982): Vertrauen als Eigenschaft von Interaktionssystemen – Entwurf eines theoretischen Bezugsrahmens, in: Angewandte Sozialforschung, 10. Jg., 1982, S. 301–307. Coleman, J. S. (1990): Foundations of Social Theory, Cambridge, London 1990. Coleman, J. S. (1995): Grundlagen der Sozialtheorie, Band 1: Handlungen und Handlungssysteme, München, Wien 1995. Corazzini, I. G. (1977): Trust as a Complex Multidimensional Construct, in: Psychological Reports, 40. Jg., 1977, S. 75–80. Craib, I. (1992): Anthony Giddens, London 1992. Crosby, L./Evans, K./Cowles, D. (1990): Relationship Quality in Services Selling: An Interpersonal Influence Perspective, in: Journal of Marketing, 54. Jg., July 1990, S. 68–81. Dallmayr, W. (1982): The Theory of Structuration – A Critique, in: Giddens, A. (Hrsg.), Profiles and Critiques in Social Theory, London 1982, S. 18–25. Dasgupta, P. (1988): Trust as a Commodity, in: Gambetta, D. (Hrsg.), Trust: Making and Breaking Cooperative Relations, New York, Oxford 1988, S. 49–72. Dederichs, A. M. (1997): Vertrauen als affektive Handlungsdimension: Ein emotionssoziologischer Bericht, in: Schweer, M. K. W. (Hrsg.), Vertrauen und soziales Handeln: Facetten eines alltäglichen Phänomens, Neuwied, Kriftel, Berlin 1997, S. 62–77. Dederichs, A. M. (1999): Das soziale Kapital in der Leistungsgesellschaft: Emotionalität und Moralität in ‚Vetternwirtschaften‘, Münster u. a. 1999. Deutsch, M. (1954): Field Theory in Social Psychology, in: Lindzey, G. (Hrsg.), Handbook of Social Psychology, Band 1, Theory and Methods, Cambridge 1954, S. 181–222. Deutsch, M. (1958): Trust and Suspicion, in: Journal of Conflict Resolution, 2. Jg., 1958, S. 265–279. Deutsch, M. (1960a): The Effect of Motivational Orientation upon Trust and Suspicion, in: Human Relations, 13. Jg., 1960, S. 123–139. Deutsch, M. (1960b): Trust, Trustworthiness and the F-Scale, in: Journal of Abnormal and Social Psychology, 61. Jg., 1960, S. 138–140. Deutsch, M. (1962): Cooperation and Trust: Some Theoretical Notes, in: Jones, M. R. (Hrsg.), Nebraska Symposium on Motivation, Lincoln 1962, S. 275–319. Deutsch, M. (1973): The Resolution of Conflict, New Haven 1973. Deutsch, M. (1976): Konfliktregelung: Konstruktive und destruktive Prozesse, München, Basel 1976. Deutsch, M. (1981): Fünfzig Jahre Konfliktforschung, in: Grunwald, W./Lilge, H. G. (Hrsg.), Kooperation und Konkurrenz in Organisationen, Bern, Stuttgart 1981. Diller, H./Kusterer, M. (1988): Beziehungsmanagement: Theoretische Grundlagen und empirische Befunde, in: Marketing • Zeitschrift für Forschung und Praxis, 10. Jg., 1988, S. 211–220. Driscoll, J. W. (1978): Trust and Participation in Organizational Decision Making as Predictors of Satisfaction, in: Academy of Management Journal, 21. Jg., 1978, S. 44–56. Dwyer, F. R./Lagace, R. R. (1986): On the Nature and Role of Buyer-Seller-Trust, in: Shimp, T. (Hrsg.), American Marketing Association Winter Educator‘s Conference Proceedings, Chicago 1986, S. 40–45. Dwyer, F. R./Schurr, P. H./Oh, S. (1987): Developing Buyer-Seller Relationships, in: Journal of Marketing, 51. Jg., April 1987, S. 11–27. Eggs, H. (2001): Vertrauen im Electronic Commerce: Herausforderungen und Lösungsansätze, Wiesbaden 2001. Erikson, E. H. (1953): Wachstum und Krisen der gesunden Persönlichkeit, Stuttgart 1953. Erikson, E. H. (1963): Childhood and Society, 2. Auflage, New York 1963. Erikson, E. H. (1995): Kindheit und Gesellschaft, 12. Auflage, Stuttgart 1995.
Vertrauen als Erfolgsfaktor für Hochschulen
281
Fitzgerald, B. J./Pasework, R. A./Noah, S. J. (1970): Validity of Rotter‘s Interpersonal Trust Scale: A Study of Delinquent Adolescents, in: Psychological Reports , 33. Jg., 1970, S. 163–166. Funken, C./Hörlin, S. (2012): Misstrauen als Ressource, in: Organisationsentwicklung, Heft 1, 31. Jg., 2012, S. 41–44. Gambetta, D. (1988): Can We Trust Trust?, in: Gambetta, D. (Hrsg.), Trust: Making and Breaking Cooperative Relations, New York, Oxford 1988, S. 213–237. Gane, M. (1983): Anthony Giddens and the Crisis of Social Theory, in: Economy and Society, 12. Jg., 1983, S. 368–398. Ganesan, S. (1994): Determinants of Long-Term Orientation in Buyer-Seller Relationships, in: Journal of Marketing, 58. Jg., April 1994, S. 1–19. Garbarino, E./Johnson, M. S. (1999): The Different Roles of Satisfaction, Trust, and Commitment in Customer Relationships, in: Journal of Marketing, 63. Jg., April 1999, S. 70–87. Giddens, A. (1984): The Constitution of Society, Cambridge 1984. Giddens, A. (1988): Die Konstitution der Gesellschaft: Grundzüge einer Theorie der Strukturierung, Frankfurt am Main, New York 1988. Giddens, A. (1990): The Consequences of Modernity, Cambridge 1990. Giddens, A. (1995): Konsequenzen der Moderne, Frankfurt am Main 1995. Gierl, H. (1999): Vertrauen im Beratungsgeschäft, in: Jahrbuch der Absatz- und Verbrauchsforschung, 45. Jg., 1999, S. 195–213. Golembiewski, R. T./Mc Conkie, M. (1975): The Centrality of Interpersonal Trust in Group Processes, in: Cooper, C. L. (Hrsg.), Theories of Group Processes, London 1975, S. 131–186. Gondek, H. D./Heisig, U./Littek, W. (1992): Vertrauen als Organisationsprinzip, in: Littek, W./Heisig, U./Gondek, H. D. (Hrsg.), Organisation von Dienstleistungsarbeit: Sozialbeziehungen und Rationalisierung im Angestelltenbereich, Berlin 1992, S. 33–55. Graeff, P. (1998): Vertrauen zum Vorgesetzten und zum Unternehmen: Modellentwicklung und empirische Überprüfung verschiedener Arten des Vertrauens, deren Determinanten und Wirkungen bei Beschäftigten in Wirtschaftsunternehmen, Berlin 1998. Gruen, T. (1995): The Outcome Set of Relationship Marketing in Consumer Markets, in: International Business Review, 4. Jg., 1995, S. 447–469. Hann, M. S. (1968): Die Idee des Vertrauens bei Konfuzius, in: Schwartländer, J. u. a. (Hrsg.), Verstehen und Vertrauen, Otto Bollnow zum 65. Geburtstag, Stuttgart 1968. Harbach, H. (1992): Altruismus und Moral, Opladen 1992. Hartmann, M. (2012): Die Weisheit des Taxifahrers, in: Organisationsentwicklung, Heft 1, 31. Jg. 2012, S. 12–15. Hartmann, N. (1932): Ethics, New York 1932. Hatak, I./Fink, M. (2012): Kompetenzbasiertes Vertrauen, in: WiSt, Heft 6, 43. Jg., 2012, S. 328–330. Hirst, P. (1982): The Social Theory of Anthony Giddens – A New Syncretism?, in: Theory, Culture and Society, 1. Jg., 1982, S. 78–82. Hobbs, N. (1966): Helping Disturbed Cildren: Psychological and Ecological Strategies, in: American Psychologist, 21. Jg., 1966, S. 1105–1115. Holden, R. K. (1990): An Exploratory Study of Trust in Buyer-Seller Relationships, Boston 1990. Hosmer, L. T. (1995): Trust: The Connecting Link between Organizational Theory and Philosophical Ethics, in: Academy of Management Review, 20. Jg., 1995, S. 379–403. Husted, B. W. (1990): Trust in Business Relations: Directions for Empirical Research, in: Business and Professional Ethics Journal, 8. Jg., 1990, S. 23–40. Jap, S./Weitz, B. (1996): Achieving Strategic Advantages in Buyer-Supplier Relationships, Working Paper, Report Nr. 96–108, Marketing Science Institute, Cambridge 1996.
282
Erich Klaus
Joas, H. (1988): Einführung: Eine soziologische Transformation der Praxisphilosophie – Giddens‘ Theorie der Strukturierung, in: Giddens, A., Die Konstitution der Gesellschaft: Grundzüge einer Theorie der Strukturierung, Frankfurt am Main, New York 1988, S. 9–23. Johnson, T./Dandeker, C./Ashworth, C. (1984): The Structure of Social Theory, London 1984. Junge, K. (1998): Vertrauen und die Grundlagen der Sozialtheorie: Ein Kommentar zu James S. Coleman, in: Müller, H. P./Schmid, M. (Hrsg.), Norm, Herrschaft und Vertrauen: Beiträge zu James S. Colemans Grundlagen der Sozialtheorie, Opladen, Wiesbaden 1998, S. 26–63. Kaplan, R. M. (1973): Components of Trust: Note on Use of Rotter’s Scale, in: Psychological Reports, 36. Jg., 1973, S. 13–14. Kee, H. W./Knox, R. E. (1970): Conceptual and Methodological Considerations in the Study of Trust and Suspicion, in: Journal of Conflict Resolution, 14. Jg., 1970, S. 357–366. Kieser, A. (1999): Vorwort zur dritten Auflage, in: Kieser, A. (Hrsg.), Organisationstheorien, 3. Auflage, Stuttgart, Berlin, Köln 1999, S. VI. Kießling, B. (1988): Kritik der Giddens’schen Sozialtheorie: Ein Beitrag zur theoretischmethodischen Grundlegung der Sozialwissenschaft, Frankfurt am Main u. a. 1988. Koller, M. (1997): Psychologie interpersonalen Vertrauens: Eine Einführung in theoretische Ansätze, in: Schweer, M. K. W. (Hrsg.), Interpersonales Vertrauen: Theorien und empirische Befunde, Opladen 1997, S. 13–26. Koslowski, P. (2000): Wirtschafts- und Unternehmensethik, in: Bea, F. X./Dichtl, E./Schweitzer, M. (Hrsg.), Allgemeine Betriebswirtschaftslehre, Band 1: Grundfragen, 8. Auflage, Stuttgart 2000, S. 411–451. Krampen, G. (1997): Zur handlungs-, persönlichkeits- und entwicklungstheoretischen Einordnung des Konstrukts Vertrauen, in: Schweer, M. K. W. (Hrsg.), Vertrauen und soziales Handeln: Facetten eines alltäglichen Phänomens, Neuwied, Kriftel, Berlin 1997, S. 16–61. Krampen, G./Viebig, J./Walter, W. (1982): Entwicklung einer Skala zur Erfassung dreier Aspekte von sozialem Vertrauen, in: Diagnostica, 28. Jg., 1982, S. 242–245. Krystek, U. (1999): Vertrauen als Basis erfolgreicher strategischer Unternehmensführung, in: Hahn, D./Taylor, B. (Hrsg.), Strategische Unternehmungsplanung – strategische Unternehmungsführung: Stand und Entwicklungstendenzen, 8. Auflage, Heidelberg 1999, S. 266–288. Krystek, U./Redel, W./Reppegather, S. (1997): Grundzüge virtueller Organisationen: Elemente und Erfolgsfaktoren, Chancen und Risiken, Wiesbaden 1997. Krystek, U./Zumbrock, S. (1993): Planung und Vertrauen: Die Bedeutung von Vertrauen und Misstrauen für die Qualität von Planungs- und Kontrollsystemen, Stuttgart 1993. Lane, C./Bachmann, R. (1996): The Social Constitution of Trust: Supplier Relations in Britain and Germany, in: Organization Studies, 17. Jg., 1996, S. 365–395. Lewin, K. (1936): Principles of Topological Theory, New York 1936. Lewin, K. (1938): The Conceptual Representation and the Measurement of Psychological Forces, Durham 1938. Lewin, K. (1963): Feldtheorie in den Sozialwissenschaften, Bern, Stuttgart 1963. Loose, A./Sydow, J. (1997): Vertrauen und Ökonomie in Netzwerkbeziehungen: Strukturationstheoretische Betrachtungen, in: Sydow, J./Windeler, A. (Hrsg.), Management interorganisationaler Beziehungen, Opladen 1997, S. 160–193. Luhmann, N. (1968): Vertrauen: Ein Mechanismus der Reduktion sozialer Komplexität, Stuttgart 1968. Luhmann, N. (1988): Familiarity, Confidence, Trust: Problems and Alternatives, in: Gambetta, D. (1988): Making and Breaking Cooperative Relations, New York, Oxford 1988, S. 94–107. Luhmann, N. (2000): Vertrauen: Ein Mechanismus der Reduktion sozialer Komplexität, 4. Auflage, Stuttgart 2000.
Vertrauen als Erfolgsfaktor für Hochschulen
283
Macharzina, K. (1999): Unternehmensführung: Das internationale Managementwissen, Konzepte – Methoden – Praxis, 3. Auflage, Wiesbaden 1999. Malik, F. (1989): Strategie des Managements komplexer Systeme, 3. Auflage, Bern, Stuttgart 1989. Manz, W. (1980): Gefangen im Gefangenendilemma? Zur Sozialpsychologie der experimentellen Spiele, in: Bungard, W. (Hrsg.), Die gute Versuchsperson denkt nicht: Artefakte in der Sozialpsychologie, München 1980, S. 145–166. Matiaske, W. (1999): Soziales Kapital in Organisationen: Eine tausch-theoretische Studie, München, Mering 1999. Misztal, B. A. (1996): Trust in Modern Societies: The Search for the Bases of Social Order, Cambridge 1996. Moorman, C./Deshpandé, R./Zaltman, G. (1993): Factors Affecting Trust in Market Reseach Relationships, in: Journal of Marketing, 57. Jg., January 1993, S. 81–101. Moorman, C./Zaltman, G./Deshpandé, R. (1992): Relationships Between Providers and Users of Market Research: The Dynamics of Trust Within and Between Organizations, in: Journal of Marketing Research, 29. Jg., August 1992, S. 314–329. Morgan, R. M./Hunt, S. D. (1994): The Commitment-Trust Theory of Relationship Marketing, in: Journal of Marketing, 58. Jg., July 1994, S. 20–38. Narowski, C. (1974): Vertrauen: Begriffsanalyse und Operationalisierungsversuch, Tübingen 1974. Neubauer, W. (1997): Interpersonales Vertrauen als Management-Aufgabe in Organisationen, in: Schweer, M. K. W. (Hrsg.), Interpersonales Vertrauen: Theorien und empirische Befunde, Opladen 1997, S. 105–120. Neubauer, W. (1999): Zur Entwicklung interpersonalen, interorganisationalen und interkulturellen Vertrauens durch Führung: Empirische Ergebnisse der sozialpsychologischen Vertrauensforschung, in: Schreyögg, G./Sydow, J. (Hrsg.), Managementforschung 9, Berlin, New York 1999, S. 89–116. Neuberger, O. (1995): Mikropolitik: Der alltägliche Aufbau und Einsatz von Macht in Organisationen, Stuttgart 1995. Nieder, P. (1997): Erfolg durch Vertrauen: Abschied vom Management des Misstrauens, Wiesbaden 1997. Ortmann, G. (1994): ‚Lean‘: Zur rekursiven Stabilisierung von Kooperation, in: Schreyögg, G./ Conrad, P. (Hrsg.), Managementforschung 4, Berlin, New York 1994, S. 143–184. Ortmann, G./Sydow, J. (1999): Grenzmanagment in Unternehmungsnetzwerken: Theoretische Zugänge, in: Die Betriebswirtschaft, 59. Jg., 1999, S. 205–220. Ortmann, G./Sydow, J./Windeler, A. (1999): Organisation als reflexive Strukturation, in: Ortmann, G./ Sydow, J./Türk, K. (Hrsg.), Theorien der Organisation, 2. Auflage, Opladen 1999, S. 315–354. Padovan, B. (2000): Ein Vertrauens- und Reputationsmodell für Multi-Agenten-Systeme, Freiburg 2000. Parsons, T. (1951): Some Fundamental Categories of the Theory of Action: in: Parsons, T./Shils, E. A. (Hrsg.), Toward a General Theory of Action, New York 1951, S. 3–27. Pestalozzi, J. H. (1944): Wie Gertrud ihre Kinder lehrt, Zürich 1944. Petermann, F. (1996): Psychologie des Vertrauens, 3. Auflage, Göttingen u. a. 1996. Petersen, T. (2011): Vertrauen – (k)eine ökonomische Kategorie, in: WiSt, Heft 11, 42. Jg., 2011, S. 585–589. Picot, A./Reichwald, R./Wigand, R. T. (2001): Die grenzenlose Unternehmung: Information, Organisation und Management, Lehrbuch zur Unternehmensführung im Informationszeitalter, 4. Auflage, Wiesbaden 2001. Pieper, J. (2000): Vertrauen in Wertschöpfungspartnerschaften: Eine Analyse aus Sicht der Neuen Institutionenökonomie, Wiesbaden 2000. Piontkowski, U. (1976): Psychologie der Interaktion, München 1976.
284
Erich Klaus
Platzköster, M. (1990): Vertrauen: Theorie und Analyse interpersoneller, politischer und betrieblicher Implikationen, Essen 1990. Plötner, O. (1995): Das Vertrauen des Kunden: Relevanz, Aufbau und Steuerung auf industriellen Märkten, Wiesbaden 1995. Preisendörfer, P. (1995): Vertrauen als soziologische Kategorie: Möglichkeiten und Grenzen einer entscheidungstheoretischen Fundierung des Vertrauenskonzepts, in: Zeitschrift für Soziologie, 24. Jg., 1995, S. 263–272. Raunicher, P. (2012): Sinnentleerung statt Sinnbezeichnung, in: Organisationsentwicklung, Heft 1, 31. Jg., 2012, S. 39–40. Reina, D. S./Reina, M. L. (1999): Trust and Betrayal in the Workplace: Building Effective Relationships in Your Organization, San Francisco 1999. Renz, T. (1998): Management in internationalen Netzwerken, Wiesbaden 1998. Ripperger, R. (1998): Ökonomik des Vertrauens: Analyse eines Organisationsprinzips, Tübingen 1998. Roeder, K. (2000): Management virtueller Unternehmen unter besonderer Berücksichtigung des Vertrauensmanagements, Bamberg 2000. Rössl, D. (1994): Gestaltung komplexer Austauschbeziehungen: Analyse zwischenbetrieblicher Kooperation, Wiesbaden 1994. Rosenstiel, L. von (1999): Tiefenpsychologische Grundlagen der Führung, in: Rosenstiel, L. von/ Regnet, E./Domsch, M. E. (Hrsg.), Führung von Mitarbeitern: Handbuch für erfolgreiches Personalmanagement, 4. Auflage, Stuttgart 1999, S. 25–38. Rosenstiel, L. von (2000): Grundlagen der Organisationspsychologie: Basiswissen und Anwendungshinweise, 4. Auflage, Stuttgart 2000. Rossmann, A. (2013): Vertrauen in Marketing und Vertrieb, in: Vollmar, J. u. a. (Hrsg.), Macht des Vertrauens, Wiesbaden 2013, S. 221–243. Rotter, J. B. (1954): Social Learning and Clinical Psychology, Englewood Cliffs 1954. Rotter, J. B. (1967): A New Scale for the Measurement of Interpersonal Trust, in: Journal of Personality, 35. Jg., 1967, S. 651–665. Rotter, J. B. (1971): Generalized Expectancies for Interpersonal Trust, in: American Psychologist, 26. Jg., 1971, S. 443–452. Rotter, J. B. (1980): Interpersonal Trust, Trustworthiness and Gullibility, in: American Psychologist, 35. Jg., 1980, S. 1–7. Rotter, J. B. (1981): Vertrauen: Das kleinere Risiko, in: Psychologie heute, 8. Jg., 3/1981, S. 23–29. Scheuerer-Englisch, H./Zimmermann, P. (1997): Vertrauensentwicklung in Kindheit und Jugend, in: Schweer, M. K. W. (Hrsg.), Interpersonales Vertrauen: Theorien und empirische Befunde, Opladen 1997, S. 27–48. Schlenker, B./Helm, B./Tedeschi, J. T. (1973): The Effects of Personality and Situational Variables on Behavioral Trust, in: Journal of Personality and Social Psychology, 25. Jg., 1973, S. 419–427. Schmitz, G. (1997): Marketing für professionelle Dienstleistungen: Bedeutung und Dynamik der Geschäftsbeziehungen dargestellt am Beispiel Wirtschaftsprüfung, Wiesbaden 1997. Schottländer, R. (1946): Die Mutter als Schicksal, Stuttgart 1946. Schottländer, R. (1957): Theorie des Vertrauens, Berlin 1957. Schurr, P. H./Ozanne, J. L. (1985): Influence on Exchange Processes: Buyers‘ Preceptions of a Seller’s Trustworthiness and Bargaining Toughness, in: Journal of Consumer Research, 11. Jg., 1985, S. 939–953. Schweer, M. K. W. (1998): Vertrauen, Landau 1998. Schweer, M. K. W./Siebertz-Reckzeh, K. (2012): Vertrauen als zentrale Ressource interorganisationler Kooperationen, in: Organisationsentwicklung, Heft 1, 31. Jg. 2012, S. 18–22.
Vertrauen als Erfolgsfaktor für Hochschulen
285
Scott, D. (1980): The Causal Relationship between Trust and the Assessed Value of Management by Objectives, in: Journal of Management, 6. Jg., 1980, S. 157–175. Seligman, A. B. (1997): The Problem of Trust, Princeton, New Jersey 1997. Sewell, W. H. (1992): A Theory of Structure: Duality, Agency and Transformation, in: American Journal of Sociology, 98. Jg., 1992, S. 1–29. Shapiro, S. P. (1987): The Social Control of Impersonal Trust, in: American Journal of Sociology, 93. Jg., 1987, S. 623–658. Simmel, G. (1968): Soziologie, 5. Auflage, Berlin 1968. Sitkin, S. B./Stickel, D. (1996): The Road to Hell: The Dynamics of Distrust in an Era of Quality, in: Kramer, R. M./Tyler, T. R. (Hrsg.), Trust in Organizations: Frontiers of Theory and Research, Thousand Oaks, London, New Delhi 1996, S. 196–215. Sjurts, I. (1995): Kontrolle ist gut, Vertrauen ist besser? Ökonomische Überlegungen zur Selbstorganisation als Leitidee neuer Organisationskonzepte, Diskussionsbeiträge des Instituts für betriebliche Logistik und Organisationstheorie, Hamburg 1995. Smith, A. (1759/1977): Theorie der ethischen Gefühle, Hamburg 1977. Staehle, W. H. (1999): Management: Eine verhaltenswissenschaftliche Perspektive, 8. Auflage, München 1999. Steinle, C./Ahlers, F./Gradtke, B. (2000): Vertrauensorientiertes Management: Grundlegung, Praxisschlaglicht und Folgerungen, in: Zeitschrift für Führung und Organisation, 69. Jg., 2000, S. 208–217. Sydow, J. (1995): Konstitutionsbedingungen von Vertrauen in Unternehmungsnetzwerken: Theoretische und empirische Einsichten, in: Bühner, R./Haase, K. D./Wilhelm, J. (Hrsg.), Die Dimensionierung des Unternehmens, Stuttgart 1995, S. 177–200. Sydow, J. (1998): Understanding the Constitution of Interorganizational Trust, in: Lane, C./ Bachmann, R. (Hrsg.), Trust within and between Organizations, Oxford 1998, S. 31–63. Sydow, J. u. a. (1995): Organisation von Netzwerken: Strukturationstheoretische Analysen der Vermittlungspraxis in Versicherungsnetzwerken, Opladen 1995. Sydow, J./van Well, B. (1999): Wissensintensiv durch Netzwerkorganisation: Strukturationstheoretische Analyse eines wissensintensiven Netzwerkes, in: Sydow, J. (Hrsg.), Management von Netzwerkorganisationen: Beiträge aus der ‚Managementforschung‘, Wiesbaden 1999, S. 107–150. Sztompka, P. (1999): Trust: A Sociological Theory, Cambridge 1999. Toedtmann, C./Engeser, M. (2014): Härteste Währung, in: Wirtschaftswoche, 58. Jg., Nr. 40, 2014, S. 88–98. Thompson, J. B. (1989): The Theory of Structuration, in: Held, D./Thompson, J. B. (Hrsg.), Anthony Giddens and his Critiques, Cambridge 1989, S. 56–76. Tolman, E. (1932): Purposive Behavior in Animals and Men, New York, London 1932. Urry, J. (1982): Duality of Structure: Some Critical Issues, in: Theory, Culture and Society, 1. Jg., 1982, S. 100–106. Walgenbach, P. (1995): Die Theorie der Strukturierung, in: Die Betriebswirtschaft, 55. Jg., 1995, S. 761–782. Walgenbach, P. (1999): Giddens‘ Theorie der Strukturierung, in: Kieser, A. (Hrsg.), Organisationstheorien, 3. Auflage, Stuttgart, Berlin, Köln 1999, S. 355–375. Weitz, B./Jap, S. (1995): Relationship Marketing and Distribution Channels, in: Journal of the Academy of Marketing Science, 23. Jg., 1995, S. 305–320. Wicks, A. C./Berman, S. L./Jones, T. M. (1999): The Structure of Optimal Trust: Moral and Strategic Implications, in: Academy of Management Review, 24. Jg., 1999, S. 99–116.
286
Erich Klaus
Winand, U./Pohl, W. (1998): Die Vertrauensproblematik in elektronischen Netzwerken, in: Link, J. (Hrsg.), Wettbewerbsvorteile durch Online Marketing: Die strategischen Perspektiven elektronischer Märkte, Berlin u. a. 1998, S. 243–259. Winkler, B. (2012): Traust du mir – trau ich dir, in: Organisationsentwicklung, Heft 1, 31. Jg., 2012, S. 24–30. Wright, T. L./Tedeschi, R. G. (1975): Factor Analysis of the Interpersonal Trust Scale, in: Journal of Consulting and Clinical Psychology, 43. Jg., 1975, S. 430–477. Wunderer, R./Grunwald, W. (1980): Führungslehre: Kooperative Führung, Band 2, Berlin, New York 1980. Zand, D. E. (1972): Trust and Managerial Problem Solving, in: Administrative Science Quarterly, 17. Jg., 1972, S. 229–239. Zand, D. E. (1977): Vertrauen und Problemlösungsverhalten von Managern, in: Lück, H. E. (Hrsg.), Mitleid, Vertrauen, Verantwortung, Stuttgart 1977, S. 61–74. Zimmer, M./Ortmann, G. (1996): Strategisches Management, strukturations-theoretisch betrachtet, in: Hinterhuber, H. H./Al-Ani, A./Handlbauer, G. (Hrsg.), Das neue strategische Management: Elemente und Perspektiven einer zukunftsorientierten Unternehmensführung, Wiesbaden 1996, S. 87–114. Zucker, L. G. (1986): Production of Trust: Institutional Sources of Economic Structure, 1840 – 1920, in: Staw, B. M./Cummings, L. L. (Hrsg.), Research in Organizational Behavior, Greenwich 1986, S. 53–111. Zündorf, L. (1986): Macht, Einfluß, Vertrauen und Verständigung: Zum Problem der Handlungskoordinierung in Arbeitsorganisationen, in: Seltz, R./Mill, U./Hildebrandt, E. (Hrsg.), Organisation als soziales System: Kontrolle und Kommunikationstechnologie in Arbeitsorganisationen, Berlin 1986, S. 33–56.
Hanns-Peter Knaebel
14 Gestörtes Gleichgewicht zwischen Bildungs- und Beschäftigungssystem Zur gegenwärtigen Krise schulischer, beruflicher und akademischer Bildung
1 Die formative Kraft der Ersten Welt Im Bildungswesen spiegelt sich wie kaum in einer anderen gesellschaftlichen Institution die innere Verfassung eines Gemeinwesens und dessen Zukunftsfähigkeit wider. Schulen und Hochschulen, Lehrwerkstätten und Kindergärten verkörpern gleichsam die Keimzellen für künftige Entwicklungen. In ihnen wachsen die kulturellen und geistigen Gene für Kommendes, bilden sich die Orientierungen und Schicksalskomponenten bestehender und künftiger Zivilgesellschaften aus, reifen die Grundlagen für die Strukturen des Arbeitslebens, für soziales Verhalten, politisches Bewusstsein, Leistungswillen und Charakter. Natürlich gilt dieser formative Einfluss, den wir dem Bildungssystem zuschreiben, in noch stärkerem Maße für die Identität und Persönlichkeit stiftende Funktion der Familie als der Urzelle von Gesellschaft und Kultur. In nahezu allen Kulturen und Epochen wird deswegen dem elementaren, prägenden Einfluss der Mutter als primärer Bezugsperson lebenslange Bedeutung zugemessen. Das manifestiert sich bis heute in allen Denkrichtungen und zumal in den verschiedenen Wissenschaften vom Menschen. So gesehen bleibt für jede Form der Sozialisations- und Enkulturationsforschung jene Ursprungssituation, welcher der Psychoanalytiker Felix Schottlaender 1947 ein Buch mit dem einschlägigen Titel „Die Mutter als Schicksal“ gewidmet hat, letztlich der Fluchtpunkt basaler Erkenntnisse. Das geflügelte Wort, wonach die Hand, die die Wiege bewege, auch die Welt bewege, hebt den empirischen wie den metaphysischen Erkenntniswert dieses kulturellen Wissens von Bedeutung und Rang der Mutterrolle – natürlich auch der des Vaters wie der Familie als dem entscheidenden Bezugssystem in der Ersten Welt des Menschen – selbstredend an den Anfang allen Nachdenkens über Erziehung und Bildung. Und überhaupt: Mittel und Ziel von Erziehung und Bildung sind im elementaren Sinn eines schönen Wortes des Dichters Adalbert Stifter Beispiel und Liebe – sonst nichts! Was aus einem Menschen einmal wird und werden kann, baut auf den frühen Erfahrungen im Elternhaus, im Geschwisterkreis, in der prägenden Welt des Herkommens auf. Es sind jene durch und durch individuellen Vorspiele des Lebens, in denen die jeweiligen Orientierungen, Fähigkeiten, Fertigkeiten, Kräfte, Sehnsüchte und Bilder einer künftigen Existenz wachsen, Hoffnungen, Ängste und Enttäuschungen keimen, mit denen sich später die Erfahrungen und Erlebnisse des Kindergartens wie der Schule vermengen und die Einflüsse der peer groups paaren.
288
Hanns-Peter Knaebel
Aufbau und Entfaltung der Persönlichkeit eines Menschen, von Leistungsvermögen, Ichbild, Sozialkompetenz und kultureller Identität vollziehen sich in einem komplexen Prozess von Anpassung und Aneignung, von Akkommodation und Assimilation der je eigenen Weltverhältnisse, in die ein Mensch ganz ohne sein Zutun hineingestellt wird. Denn für Eltern, Familie, Religion, Kultur, geschichtliche und soziale Situation kann ein beginnendes Leben nichts; in diese Erste Welt wird man einfach geworfen, wie es bei Heidegger heißt. Insofern handelt es sich bei den Umständen, in die wir Menschen hineingeboren werden, um das, was man gemeinhin Schicksal nennt. Schicksal meint die Summe dessen, was dem Menschen von außen her widerfährt und sein künftiges Erleben im Guten wie im Bösen, in fördernder, unterstützender oder einschränkend-unterdrückender Weise formiert und leitet. Schicksal oder – synonym gebraucht – Geschick bezeichnen diesen anthropologischen Sachverhalt der „Geworfenheit“ menschlicher Existenz in der ganzen Spannweite von fatum und fortuna, von Festlegung und Offenheit, von Gunst und Ungunst der allerersten Voraussetzungen des Lebens. Und aus diesen so verschiedenen Voraussetzungen individueller Existenz kann und muss jeder Mensch etwas machen, seinen eigenen Weg finden – sei es im Einklang mit oder im Widerstand gegen die einmal gegebenen Verhältnisse.
2 Lernen als Entfaltung von Urteils- und Berufsfähigkeit Bildungs- und Sozialschicksale werden in unserer Gesellschaft nach wie vor entscheidend vom Anregungs- und Aspirationsniveau des Herkunftsmilieus vorausbestimmt, weil sich früh schon Sinnperspektiven, kognitive und emotionale Stile im Streben, Handeln und Denken von Heranwachsenden ausbilden. So ist der Anteil derjenigen, die eine Hochschulzugangsberechtigung erwerben und mit einer akademischen Ausbildung beginnen, unter Jugendlichen aus sogenannten bildungsfernen Schichten – verstärkt feststellbar bei Migrationshintergrund – nach wie vor hochsignifikant niedriger als bei Menschen aus den bildungsnäheren, qualifikationsorientierten Mittel- und Oberschichten. Das erklärte Ziel der Bildungsreformer der letzten fünf Jahrzehnte, durch kompensatorische Maßnahmen wie pädagogische Frühförderung in Krippen und Kindergärten, durch Ganztagsschulen, Schülerhorte, leistungsdifferenzierende Lernangebote, Elternaufklärung, Bildungsangebote und unterschiedliche finanzielle Fördermodelle in unserem Land eine Art „Bildungsrepublik“ zu errichten, in der soziale Chancengleichheit und justice scolaire für alle Schichten der Bevölkerung wirklich eingelöst sind, hat sich als Utopie, als realitätsfremd und trügerisch erwiesen. Das hat Gründe. Denn die Forderung der Aufklärung, die Menschen durch die Entfaltung der Urteilskraft (Immanuel Kant) und der Berufskraft (Johann Heinrich Pesta-
Gestörtes Gleichgewicht zwischen Bildungs- und Beschäftigungssystem
289
lozzi) zu Mündigkeit und selbstverantworteter Teilhabe am politischen, sozialen und beruflichen Leben zu führen, hat die breite Entwicklung aller Anlagen und Begabungen des Menschen zum Programm gemacht und dabei aus der Sichtweise einer pragmatischen Anthropologie von vornherein die Verschiedenartigkeit der Köpfe, d. h. die immer schon gegebene, differenzierte Begabungs- und Leistungsstruktur – sei es mit mehr oder weniger großen Dominanzen im kognitiv-analytischen, sensomotorischen, sozial-kommunikativen oder musisch-gestalterischem Bereich – ins Kalkül gezogen. Das im 19. Jahrhundert aufgebaute, gegliederte Schulwesen, das Aufblühen der Universitäten und dann mit der Zunahme und Intensivierung der industriellen Arbeit die schrittweise Verzweigung des beruflichen Fachschulwesens, das Aufkommen und die fachspezifische Durchgliederung der Polytechnika und der Technischen Hochschulen bilden die logische institutionelle Folge dieser Erkenntnisse. Mehr noch: Das ganze Bildungssystem im Sekundarbereich und auf akademischem Level folgte in einer gut ausbalancierten Entsprechungslogik den Bedürfnissen und Anforderungen der Arbeitswelt mit der Vielfalt der industriellen Branchen, dem Entwicklungs- und Innovationsinteresse einer modernen Technik- und Wissenschaftskultur sowie dem administrativen Aufwand einer sozialstaatlich anspruchsvoll organisierten Zivilgesellschaft. Die fein abgestimmte Korrespondenz zwischen Bildungs- und Beschäftigungssystem liefert gleichsam das Rückgrat für eine leistungsfähige Arbeits- und Industriegesellschaft und deren ständigen inneren wie äußeren Transformations- und Anpassungsprozessen.
3 Persönlichkeitsbildung als Erziehungsziel Allerdings darf diese wechselseitige Entsprechungslogik von Bildungs- und Beschäftigungssystem, wie wir sie in den differenzierten, aufgeklärten Gesellschaften allgemein beobachten können, nicht mit einseitiger Gewichtung angelegt sein, wie sie eine allein an Ressourcengewinnung und an aktuellem Arbeitskräftebedarf orientierte Bildungsökonomie als plausibles, doch allzu vordergründiges Ziel vorgibt. Das liefe den emanzipatorischen Ansprüchen unserer auf allseitige, ganzheitliche Bildung und Erziehung sowohl zur Berufsfähigkeit wie zu bürgerlicher Autonomie zuwider. Denn wir kennen die Gefahren, die aus dem Umstand erwachsen, wenn ein Bildungssystem nur Funktion der Wirtschaft ist, wenn das notwendige Gleichgewicht zwischen Allgemeinbildung und Berufsbildung gestört ist, wenn die Gewissensbildung, Werteorientierung, Ausbildung von sozialen und kommunikativen Tugenden dem Primat der Wissensanhäufung, Fertigkeitsschulung und der technischen Perfektion des Erlernens der Wissensgewinnung und -anwendung – kurzum: von all dem, was man gemeinhin als Fachidiotentum bezeichnet – weichen müssen. Jede Stufe und jede Form der Bildung und Erziehung müssen die Formung der Persönlichkeit, deren
290
Hanns-Peter Knaebel
ethische wie kognitive, emotionale, soziale, sensomotorische Vervollkommnung gleichermaßen zum Ziel haben. Mehr noch: Das Gewissen des Einzelnen steht im Handeln normierend noch über dem Wissen. Überhaupt scheint das überkommene Postulat humanistischen Denkens conscientia dominator scientiae – das Gewissen sei Beherrscher von Wissen und Wissenschaft – heute aktueller denn je zu sein. Um die Gefahr, die von einem kalten Intellektualismus ohne Korrektur durch eine verbindliche ethisch-moralische Verantwortungskultur ausgeht, deutlich zu machen, füge ich hier eine Passage ein, die Michael Ungethüm, mein Vorgänger im Amt des Vorstandsvorsitzenden der Aesculap AG 2007 in einer Rede über Friedensfähigkeit als höchstes Gut aufgeführt hat. Ungethüm verweist zunächst auf die Forderung der Aufklärung nach dem wissenden Wollen des Guten und hebt jene vielzitierte Maxime von Johann Friedrich Herbart, dem Nachfolger Kants an der Universität Königsberg, zur Erziehung hervor: Der Wert des Menschen liegt nicht im Wissen, sondern im Wollen – also in der Tugend als der Fähigkeit, Ziele in der Lebenspraxis umzusetzen. Und: Diese Ziele in der Lebenspraxis, auf die hin alle Bildung und Erziehung in unserem Kulturkreis bis in die anspruchsvollsten Stufen der Berufsvorbereitung ausgerichtet sind, haben in den Grundwerten der christlich-humanistischen Tradition ihr festes Fundament. Wie verhängnisvoll es ist, wenn Familien, Schulen, Hochschulen, berufliche Praxis und ganz allgemein das gesellschaftliche Leben auf diese Rückbindung menschlichen Denkens und Handelns bewusst verzichten, sei mit Hilfe einer Quelle ins Bewusstsein gehoben, die Michael Ungethüm in seiner vorgenannten Rede heranzieht. Es handelt sich um einen Brief, den der Schulleiter einer Privatschule 1947 zum Beginn des neuen Schuljahres an alle Mitglieder seines Kollegiums gerichtet hat. Er schrieb: Liebe Lehrer, ich habe ein Konzentrationslager überlebt. Meine Augen haben Dinge gesehen, die kein menschliches Auge je erblicken sollte: Gaskammern, erbaut von gebildeten Ingenieuren, Kinder, vergiftet von wissenschaftlich ausgebildeten Ärzten, Säuglinge, getötet von erfahrenen Krankenschwestern, Frauen und Kinder, erschossen und verbrannt von ehemaligen Oberschülern und Akademikern. Deswegen traue ich der Bildung nicht mehr. Mein Anliegen ist: Helfen Sie Ihren Schülern, menschlicher zu werden. Ihr Unterricht und Ihr Einsatz sollten keine gelehrten Ungeheuer hervorbringen, keine befähigten Psychopathen, keine gebildeten Eichmanns. Lesen, Schreiben und Arithmetik sind nur wichtig, wenn sie dazu beitragen, unsere Kinder menschlicher zu machen (Ungethüm 2013, S. 279).
Zugegeben: Ein ebenso harsches wie erschütterndes Beispiel, das über Zeiten hinweg beherzigenswert bleibt, denn aus diesen Zeilen spricht die brennende Sorge, ob unsere Gesellschaft die blutige Lektion aus Zeiten totalitärer Herrschaft gerade auch für Erziehung und Bildung, für Schulen und Hochschulen wirklich gelernt hat. Die immer weiter voranschreitende Differenzierung und Spezialisierung der sekundären
Gestörtes Gleichgewicht zwischen Bildungs- und Beschäftigungssystem
291
und tertiären Qualifizierungssysteme mit ihrer buchstäblichen Wissensmast nähren die Bedenken, dass die emotionalen, sozialen und kommunikativen Elemente einer ganzheitlichen Pädagogik zu kurz kommen, dass Gemütsbildung, Empathie, Charakter- und Gewissensbildung an den Rand geraten.
4 Bildung von Kopf, Herz und Hand Die Lebens- und Zukunftsfähigkeit moderner Arbeits- und Leistungsgesellschaften hängt wesentlich von diesen Grundfundamenten gelebter Demokratie, allenthalben erfahrbarer Solidarität mit Schwächeren, Hilfsbedürftigen, kulturell oder religiös anderen Traditionen Verpflichteten ab, muss das Recht auf individuelle Entfaltung der eigenen Persönlichkeit mit ihren jeweiligen Begabungen, Interessen und Aspirationen garantieren. Ein zu früh einsetzender Selektionsdruck im Kindesalter, der nur kognitiven Leistungen nachspürt, führt zu einer einseitigen Auslese, negiert vielfach unterschiedliche Entwicklungstempi und verspielt ohne Not jene Errungenschaft einer aufgeklärten Pädagogik, die Johann Heinrich Pestalozzi oder auch Maria Montessori als unverlierbaren Grundsatz einheitlicher, menschenwürdiger Erziehung und Bildung festgemacht haben: Allein im gleichgewichtigen Förderungskonzept von Kopf, Herz und Hand liegt der Schlüssel für eine angemessene, wirkungsvolle Persönlichkeitsentfaltung und für eine humane, gerechte Gesellschaft, in der Arbeit, Beruf, Leistung, gesellschaftlicher wie technischer Fortschritt sich mit der Verwirklichung eines von Freiheit, Glück und Fürsorge getragenen Lebens in sozialen Beziehungsgeflechten wie Ehe, Familie, sozialen, religiösen und kulturellen Gemeinschaften sich verbinden lassen. Mit dieser ersten, grundsätzlichen Überlegung zur gefährlichen einseitigen Ausrichtung von Bildung und Erziehung durch die fatale Verengung des Begabungsbegriffs auf den kognitiven Aspekt wird ein Holzweg gesamtgesellschaftlicher Entwicklung sichtbar gemacht, der sich in allen Einrichtungen organisierten Lernens von der Schule bis in die Hochschulen und betrieblichen Ausbildungen hinein als unheilvoll erweist. Manchmal muss man einen Schritt nach rückwärts wagen, um dann umso kraftvoller und bewusster die richtige Weite oder Höhe zu erlangen. Reculer pour mieux sauter, ist bei den Franzosen ein geflügeltes Wort. Die Bildung braucht auf allen Stufen bis hin zum Universitätsstudium die Einbettung der fachspezifischen Lernund Erkenntnisprozesse in größere zivilisatorisch-kulturelle Gesamtzusammenhänge. Dazu gehören Einübungen in die Ethik und in exemplarische Verantwortungsfelder der angewandten Kenntnisse. Wissen bedarf der Reflektion auf seine sozialen, gesellschaftlichen Auswirkungen, steht immer in konstruktiver Spannung mit den Folgen praktischer Verwendung.
292
Hanns-Peter Knaebel
Neben dieser wieder zu gewinnenden Balance von Berufswissen und Persönlichkeitsbildung rückt eine zweite Gefährdung in den Blick, die das Sekundarschulwesen und den Hochschulbereich zunehmend in eine Schieflage hineinmanövriert hat. Es ist die gegenwärtige Krise der beruflichen und akademischen Ausbildung unter dem Einfluss dessen, was der Philosoph und Bildungspolitiker Julian Nida-Rümelin den Akademisierungswahn nennt. Dazu setzen wir mit einer neuen Argumentation an. Es gehört zum Signum dessen, was wir abgekürzt als Zweites Maschinenzeitalter bezeichnen, dass die Produktivität und Wettbewerbsfähigkeit auf dem Weltmarkt darauf gründen, dass in der Wertschöpfungskette immer mehr Köpfe und immer weniger Hände den Ausschlag geben. Um es auf den Begriff zu bringen: Die modernen Volkswirtschaften müssen nolens volens bei den investiven Faktoren neben Arbeit und Kapital die Bildung mit steigendem Gewicht ins Kalkül nehmen. Ein Blick in unsere Geschichte lehrt, dass das Aufblühen und die Entfaltung von Wissenschaft, Technik, Industrie und Handel ihre synergetischen Kräfte wesentlich aus der Intensivierung einer breiten Allgemein- und Berufsbildung bezogen haben. Das sogenannte Zweite Deutsche Wirtschaftswunder der letzten vierzig Jahre gründet auf einem breiten Fundament einer gewaltigen Strukturverbesserung des gesamten Bildungsbereichs, einer buchstäblichen Reform an Haupt und Gliedern vom Vorschulbereich, der Primar- und Sekundarstufe bis hinein in den tertiären Bereich des Hochschulwesens. Und diese wirtschaftliche Stabilität der vergangenen vierzig Jahre ist elementare Grundlage unserer politischen Stabilität. Blicken wir auf die Steigerungsquote beim Erwerb der Studienberechtigung. Erlangten noch in der ersten Hälfte der 1960er- Jahre zwischen 3 bis 5 Prozent eines Altersjahrgangs die Hochschulreife, so erhalten gegenwärtig im Bundesdurchschnitt fast die Hälfte der Schulabgänger das Abitur, wobei die vielfältigen Qualifizierungswege neben dem klassischen Gymnasium über Berufsfachschulen des dualen Systems eine zunehmende Rolle spielen. Während die Zahl der neuen Lehrlinge 2007 noch um die Hälfte höher war als die der neuen Studenten, gab es 2013 erstmals mehr Studienals Ausbildungsanfänger. Halten wir fest: Auch in Deutschland hat sich der internationale Trend zur Hochschulausbildung rasant verstärkt. Wobei eine Besonderheit zu beachten ist: Über ein Drittel der gegenwärtig Studienberechtigten kommen über berufliche Qualifikationswege, haben beispielsweise die allgemeinbildende Schule nach der Mittleren Reife verlassen, um dann über eine berufliche Vollzeitschule oder über eine Berufsausbildung ihre Studienberechtigung zu erwerben. Dazu kommen nach neuesten Zahlen rund 20.000 Studienanfänger, die sich aufgrund von Anerkennungsverfahren von beruflichen Kompetenzen, wie einer Meisterprüfung oder abgeschlossenen Technikerausbildung, an Hochschulen einschreiben konnten. Diese Zugangswege zu den Hochschulen, welche die meisten anderen Industrieländer so nicht kennen, gründen auf dem starken hiesigen dualen Bildungssystem, in dem sich in den letzten beiden Jahrzehnten eine bemerkenswerte Eigendynamik abzeichnet. Die Verschiebung von mittleren zu hohen Qualifikationsniveaus, so wie
Gestörtes Gleichgewicht zwischen Bildungs- und Beschäftigungssystem
293
sie sich im Bereich des einst als Zweiter Bildungsweg bezeichneten Hauptschul-, Werkrealschul- und Realschulsystems mit einem anschließenden Besuch von Fachschulen, Berufskollegs, Fachoberschulen bzw. Gymnasien neuen Typs (Wirtschaftsgymnasien, Technischen Gymnasien, Ernährungswissenschaftlichen, Biotechnologischen, Sozialwissenschaftlichen Gymnasien usf.) sowie Techniker- und Meisterschulen mit wachsender Tendenz abzeichnet, macht deutlich, dass die Forderung an ein modernes Schulsystem, wonach kein Abschluss ohne Anschluss bleiben dürfe, nachhaltig gegriffen hat. Bemerkenswert ist, dass die Zahl der jungen Erwachsenen ohne beruflichen Abschluss über die Jahre stetig zurückgegangen ist. Der Berufsbildungsbericht 2015, der am 15. April 2015 vom Bundesministerium für Bildung und Forschung der Öffentlichkeit vorgestellt wurde, hält fest: „Im Jahr 2012 verfügten 13,1 Prozent der jungen Menschen zwischen 20 und 29 Jahren in Deutschland über keinen Berufsabschluss. Ihr Anteil ist in den vergangenen Jahren von 14,9 Prozent kontinuierlich zurückgegangen.“ Auch die Bereitschaft zur Weiterbildung zeigt imponierende Erfolgszahlen. 2014 hat jeder zweite Deutsche im erwerbsfähigen Alter an mindestens einer Weiterbildungsmaßnahme teilgenommen. Offensichtlich greifen die Förderkomponenten wie Bildungsprämie, Weiterbildungsstipendium und telefonische Weiterbildungsberatung der Arbeitsverwaltung.
5 Deutschland – ein Land der Akademiker? Was die dramatische Steigerung der Zahl der Studienberechtigten, den Ausbau des Sekundarschulwesens und des tertiären Bereichs in den letzten vierzig, fünfzig Jahren anbetrifft, haben Georg Pichts Kassandra-Rufe angesichts einer drohenden deutschen Bildungskatastrophe und Ralf Dahrendorfs für Kinder und Jugendliche aus bildungsfernen Milieus und Schichten Chancengleichheit einfordernde Mahnung, wonach Bildung Bürgerrecht sei, die beklagte Wirklichkeit der 1960er Jahre radikal – das heißt von der Wurzel, von der Grundvoraussetzung her – verändert. Ein Blick in die 2014 vom Statistischen Bundesamt in Wiesbaden veröffentlichten Zahlen zu den Schulabgängern an allgemeinbildenden Schulen (also auch Hauptschulen, Werkrealschulen etc.) ergibt für das Jahr 2012 folgendes Bild. Von bundesweit insgesamt 868.790 Schulabgängern schlossen 130.968 – zum geringen Teil mit Abitur – Ausbildungsverträge, 355.426 schrieben sich an Hochschulen ein und der erkleckliche Rest von 382.396, immerhin rund 45 %, besuchte eine weiterführende Bildungseinrichtung, absolvierte ein Praktikum, ein freiwilliges soziales Jahr, legte eine „Auszeit“ ein oder rutschte in die Arbeitslosigkeit. Leider gibt es für diese Gruppe keine aussagefähigen verwertbaren und belastbaren Daten. Auf jeden Fall belegen diese Zahlen eindrücklich: Deutschlands Konkurrenzfähigkeit auf dem Weltmarkt basiert auf einem herausragend hohen Bildungsniveau,
294
Hanns-Peter Knaebel
auf einem leistungsfähigen, breit gefächerten Expertentum, einer traditionell innovationsorientierten Hochschul- und Industrieforschung, einer auf solide Qualität und Perfektion ausgerichteten technologischen Arbeitstradition. Gegenwärtig verfügt jeder fünfte Erwerbstätige in unserer Republik über einen akademischen Abschluss. Damit spiegelt sich ein fortschreitender Strukturwandel zu einer Wissens- und Informationsgesellschaft wider. Noch ist der Arbeitsmarkt für Akademiker nach wie vor aufnahmefähig. Die qualifikationsspezifischen Arbeitslosenquoten liegen seit 1975 bis heute bei Beschäftigten mit Hochschul- bzw. Fachhochschulabschlüssen bei rund 2,5 %, bei Erwerbspersonen mit beruflicher Ausbildung bzw. Fachschulabschlüssen bei etwa 5 % und bei Beschäftigten ohne Berufsabschluss bei 19 %. Eine Über-Akademisierung ist, wie teilweise befürchtet, in Deutschland noch nicht eingetreten. Allerdings ist auf die Ausgewogenheit unseres Bildungsprofils, welches eine im internationalen Vergleich herausragende Stärke darstellt, zu achten, damit es nicht heißt, wie eine große deutsche Zeitung anlässlich der gegenwärtigen Aufarbeitung von Fälschungen von Rodins Meisterwerk Le Penseur titelte: Es sind viel zu viele Denker unterwegs, um echt zu sein.
6 Eine Gesellschaft ohne Zukunft? Soviel zur gesamtgesellschaftlichen Situation unseres Landes, dessen Entwicklung vor allem auch durch ein hohes, anhaltendes Interesse der Eltern – und zwar bis in die aufstiegsorientierten Unterschichten und weite Kreise zugewanderten Familien mit bescheidenen eigenen Bildungsvoraussetzungen hinein – an einer besseren Schulbildung und erhöhten sozialen Chancen getragen wird. Die Verschulung von Kindheit und Jugend – Schülersein erweist sich mit der ganzen Verplanung der Schulzeit nachgerade als eine Art Beruf – scheint der Preis der modernen Lerngesellschaften zu sein, die jede Begabungsreserve erschließen, Bildungs- und Beschäftigungssystem passgenau miteinander verzahnen und zu höchster Effizienz verknüpfen wollen. Das auf sozialem Opferwillen und Elternehrgeiz gründende Mantra gegenwärtiger Erziehung, wonach die nachfolgenden Generationen es besser oder in keinem Fall schlechter als die Eltern und Großeltern haben sollen, verbindet die reale Erwartung an die Rentabilität hoher und höchster Qualifikationen mit der Wachstumsideologie aufgeklärter Industrie- und Dienstleistungsgesellschaften. Insbesondere Abitur und Studium erscheinen als Nadelöhre zu mehr Einkommen, mehr sozialem Glück, mehr Emanzipation, führen durch den Verwertungsdruck hoher Qualifikationen zur Verabsolutierung des Berufsmenschentums als Sinnperspektive der modernen Arbeitsgesellschaften. Was Wunder, wenn traditionelle Lebensmodelle, die Ehe, Familie, Kinder, Vaterund Mutterrolle, bewusste Entscheidung für generationenübergreifende Fürsorge für
Gestörtes Gleichgewicht zwischen Bildungs- und Beschäftigungssystem
295
Großeltern oder Enkel etc. ins Zentrum der Existenz rücken, gesellschaftlich randständig werden. Wenn diese als beherrschende Sinnkriterien für viele aus der Existenzmitte verschwinden, vielleicht noch allenthalben als passagere Unterbrechung, als möglichst kurzer „Erziehungsurlaub“, biographisch in Erscheinung treten können. Eine Gesellschaft mit statistisch 1,1 bzw. 1,2 Kindern pro Partnerschaft hat sich faktisch von der Familie als Lebensmodell und von Kindern als existentiellen Garanten von Zukunft weitgehend verabschiedet; verabschiedet auch von der Familie als einem unmittelbaren, existenziellen Lernort, an dem man im Umgang mit Geschwistern, jung und alt, fürsorgliche Liebe, Solidarität, Helfen- und Teilen-Können, Empathie und Sich-Einfügen in Tradition, Kultur sowie in die eigene Herkunftsgeschichte erlernen und erfahren kann. Gerne möchte ich an dieser Stelle zu meiner Ehrenrettung vier eigene Kinder, mit derselben Frau, in die Bilanz einbringen. Doch stellen wir heute dieses bröckelnde Fundament aller Zukunftsplanung, die demographischen Alarmzeichen der rückgängigen Zahlen bei Kindergartenkindern, Schülern, Auszubildenden und Studierenden, zukünftiger Familienväter und -mütter lediglich in unseren Gesamtzusammenhang ein, wonach Vitalität und Zukunftsfähigkeit der modernen Wissens- und Lerngesellschaft neben der von der mittleren und älteren Generation getragenen Kultur den nachdrängenden, stürmischen Elan junger, auf eigene Wege und Ziele pochender Menschen brauchen, notwendig brauchen.
7 Hohes Qualifikationsniveau im Sog der Industrialisierung und Digitalisierung Noch einmal: Die gegenwärtige Bildungssituation in Deutschland ist durch ein so hohes Niveau gekennzeichnet, dass sich vor allem im Westen der Republik inzwischen eher ein Facharbeitermangel abzuzeichnen begonnen hat, wogegen die Engpasssituation bei bestimmten akademischen Berufen, beispielweise bei Ingenieurgruppen wie der Mechatronik, der Automatisierungs- und Elektrotechnik, zu entspannen beginnen. Doch diese tektonische Verschiebung in der Qualifikationsstruktur zu Lasten der klassischen Ausbildungsberufe, die einstweilen noch vom Siegeszug der Industrieroboter kompensiert wird, darf uns nicht gleich zu einem allgemeinen Alarmismus verleiten. Auch wenn im Jahre 2030 der größte Arbeitskräftemangel in Deutschland im Facharbeiterniveau angesiedelt sein und der war for talents sich ganz auf diese Front konzentrieren dürfte. Denn die Dynamik der modernen Arbeitsgesellschaft wird sich nie ganz vom Auf und Ab der Konjunkturen oder von gewissen Mangel- oder Überfüllungskrisen in den einzelnen Berufssparten befreien können. Die grundgesetzlich garantierte freie Berufswahl und das in der US-amerikanischen Verfassung so eindrücklich benannte Streben nach Glück, the pursuit of happiness, setzen einer staatlichen Berufs- und
296
Hanns-Peter Knaebel
Bedarfslenkung sinnvolle Grenzen, die jedoch Eingangsprüfungen, Auswahltests, Zulassungsbeschränkungen, Wartelisten usf. keineswegs ausschließen. Bisher haben die Regelungsmechanismen des Marktes auch unseren Arbeitsmarkt erstaunlich ausgeglichen gehalten. Sieht man von den hohen strukturellen Risiken ab, die Schulabgänger ohne Abschluss oder Studienabbrecher auf dem Arbeitsmarkt haben, weist die Statistik für Deutschland im Unterschied etwa zu Griechenland, Spanien, Frankreich etc. eine sehr geringe Jugendarbeitslosigkeit aus. Mit 7,4 Prozent besitzt Deutschland derzeit die mit Abstand niedrigste Jugendarbeitslosigkeit in der Europäischen Union (Berufsbildungsbericht 2015). Die Korrespondenz zwischen Bildungs- und Beschäftigungssystem in Deutschland zeigt sich im internationalen Vergleich mit zum Teil bis zu 50 % Jugendarbeitslosigkeit in anderen Ländern als eindrücklich und effizient abgestimmt. Auch das konstruktive Miteinander der Tarifparteien bildet seit Ludwig Erhards Zeiten ein solides Fundament für eine gesamtgesellschaftliche Entwicklung, in der sozialer Aufstieg durch Bildung, Leistungsfähigkeit, Fleiß, Qualitätsbewusstsein, berufliche Mobilität und stete Lernbereitschaft erlangt wird. Vor allem hier im deutschen Südwesten mit seinem breiten Mittelstand treten die Stärken des deutschen Systems deutlich vor Augen: Ein differenziertes duales System, hohe Ausbildungsleistung der Betriebe, eine gewachsene Universitätslandschaft, eine traditionell anwendungsorientierte Forschung, die sich auf den Feldern niederschlägt, in denen unser Land weltweit und nach wie vor die technologischen Spitzenpositionen besitzt, so im Maschinen- und Werkzeugbau, in der Elektrotechnik, in der Chemie, im Automobilbau, in der Flugzeugbau- und Raumfahrtechnik und in der Medizintechnik. Schon die Pioniere der hiesigen Industrie wie Daimler, Bosch, Fein – um nur drei Namen zu nennen – haben den Stellenwert der eigenen Lehrwerkstätten, der innerbetrieblichen Weiterqualifizierung, sozialverträglicher Arbeitsbedingungen und eines gerechten, angemessenen Lohns erkannt und all dies modellhaft umgesetzt. Robert Bosch beispielsweise hat früh erkannt, dass nachhaltige Industrie nur auf der sozialen Ästimation und Förderung der arbeitenden Menschen wachsen kann und sich blanker Raubtierkapitalismus per se verbietet. So fasst er seinen von sozialen Unruhen und Streiks weitgehend verschonten unternehmerischen Erfolg in die bis heute beherzigenswerten Worte: Ich zahle nicht gute Löhne, weil ich viel Geld habe, sondern ich habe viel Geld, weil ich gute Löhne bezahle. Wir sehen: Arbeit ist wesensmäßig etwas zutiefst Soziales.
Gestörtes Gleichgewicht zwischen Bildungs- und Beschäftigungssystem
297
8 Akademisierungswahn – fragwürdige Bologna-Reform Was Robert Bosch mit seiner Äußerung zur Verteilungsgerechtigkeit ausführte, betrifft nicht nur Teilhabe am Mehrwert industrieller Arbeit, sondern meint genauso den Zugewinn an Kompetenz, den Leistungs- und Qualitätsgrad, die Kreativität und Originalität als Ergebnisse beruflichen Wirkens, meint den Erwerb von Wissen, Erfahrung und Kontinuität im operativen Geschäft. Moderne Industriebetriebe sind Lernund Sinngemeinschaften und sichern die Identität der Menschen weit über das Materielle hinaus. Nun lehrt uns die Statistik, dass akademische Bildung sich im Lauf eines Berufslebens am besten verzinst. Das können wir recht genau erfassen. Wie gesagt: Bildung ist sowohl für die Gesamtgesellschaft wie für das Individuum eine hochrentierliche Investition. Und hier tut sich ein Dilemma der HighTech-Industrie und der modernen Wissens- und Lerngesellschaft auf. Kann eine Gesellschaft wie die unsrige weiter ungeniert der Fiktion anhängen, dass immer mehr Köpfe und immer weniger Hände unser wirtschaftliches Schicksal bestimmen und sichern können? Ob der Ruf nach immer mehr Wissenschaft und immer mehr Wissenschaftlern in die richtige Richtung weist, ob die fortschreitende Deindustrialisierung durch die Verlagerung von Werkbänken und Fertigungen in Billiglohnländer ein allein seligmachender Weg ist, müssen wir nachdrücklich bezweifeln. Die drohende Gefahr der Über-Akademisierung wurde bereits erwähnt (Nida-Rümelin 2014). Denn die Forderung nach noch mehr zahlenmäßigem Wachstum von akademisch, d. h. universitär Gebildeten geht notwendig zu Lasten der dualen Ausbildung. Der Konstanzer Philosoph Jürgen Mittelstraß, mit dem man die Überzeugung teilen muss, das deutsche Wissenschaftssystem sei eines der besten der Welt, zugleich jedoch auch eines der strukturkonservativsten, stellte in einem Beitrag für die Frankfurter Allgemeine Zeitung vom 22. September 2014 die sicher nicht nur rhetorisch zu verstehende Frage: Wollen die Deutschen ein einig Volk von Akademikern werden? Und Mittelstraß grenzt diese Steigerungsbesessenheit bei akademischen Abschlüssen mit einer einleuchtenden Erwägung ein. Er schreibt: Es kommt in der Wissenschaft nicht auf bloßes Ressourcenwachstum an (schon jetzt ist Wissenschaft auf eine beängstigende Weise unüberschaubar geworden und kann selbst der fleissigste Wissenschaftlicher nicht mehr alles lesen, was auch nur in seinem eigenen spezialisierten Fach geschrieben wird), sondern auf die Konzentration auf Leistungsspitzen (Mittelstraß 2014).
Mittelstraß zielt mit seiner Kritik an der Unübersichtlichkeit der tertiären Bildung vor allem auf die Verwaschenheit und den geradezu inflationären Gebrauch der Begriffe Wissenschaft und Forschung. Hier setzen unsere generellen Bedenken an der Effektivität akademischer Studien nach der sog. Bologna-Reform in den Jahren von 1999 bis 2010 ein, die sich
298
Hanns-Peter Knaebel
dem durchaus berechtigten Anliegen der Schaffung eines europäischen Hochschulraums (European Higher Education Area) widmeten. So haben die Bildungsminister der EU inzwischen mit durchaus plausibler Begründung ein System mit zweistufigen, vergleichbaren Abschlüssen (Bachelor/Master), einem einheitlichen Curriculum mit einem durchgängigem Programm sogenannter Credit-Points und formalisierter Evalutionskriterien installiert. Ob die erstrebte Mobilität zwischen den Mitgliedsstaaten tatsächlich verbessert wurde, lässt sich derzeit noch nicht erkennen. Im Gegenteil: Verschulung und Kleinschrittigkeit im Studienaufbau stehen bisher einer größeren Freizügigkeit im europäischen Hochschulraum recht sperrig im Weg. Wie dem auch sei, auf jeden Fall ist aus unserer Sicht ein Effekt als gravierend zu beklagen. Vor der Bologna-Reform, die künftig zum Zweistufenmodell mit Bachelor und Master als dritten, höchsten Abschluss auch das Doktorat in vereinheitlichter Form einschließen soll, waren die Grenzen und Profile von Universitäts- und Fachhochschulstudien bzw. der Ausbildungsgänge der Dualen Hochschule deutlich vorgegeben. Die Bologna-Reform hat diese fruchtbaren Unterschiede in Forschung, Lehre, Theoriebildung und Praxisbezug faktisch und vom Curriculum her aufgehoben und eine Vereinheitlichung bzw. Nivellierung des tertiären Sektors bewirkt. Fatale Folge: Die Differenzierung der Abschlüsse wird häufig über möglichst komplexe Studiengangstitel mit geringem Wiedererkennungseffekt gesucht. Mancher Personalchef fürchtet die Bewerbung aufstrebender junger Menschen, die ihre Qualifikation durch den Erwerb eines Bachelor of Unknown Content dokumentieren möchten.
9 Profilschwächen im tertiären Bereich Ob die Vereinheitlichung der Abschlüsse die bisherige Funktionalität von Bildungsund Beschäftigungssystem kräftigt, schädigt oder unberührt lässt, wissen wir gegenwärtig nicht zu sagen. Auf jeden Fall sind durch die Ansprüche vergleichbarer Abschlüsse Redundanzen bei Aufgaben und Strukturen der akademischen Ausbildung systembedingt gegeben. Die Humboldtsche Idee der Universität, die Lehre und Forschung verknüpft und Erkennen um seiner selbst Willen vermitteln will, ist in Einrichtungen, welche die Hälfte eines Altersjahrgangs akademisch ausbilden sollen, weder personell – also vom Lehrkörper her – noch finanziell oder institutionell zu verwirklichen, ja überhaupt nicht vorstellbar und wohl auch nicht sinnvoll. Im Grunde ist abzusehen, wie Forschung und Hochleistungswissenschaft in einen vierten Bereich für weiterführende Studien abwandern, in Graduiertenkollegs, centers for advanced studies, in Forschungsinstitute der sog. Blauen Liste, in die MaxPlanck-Institute, in die Fraunhofer-Gesellschaft, die Helmholtz-Zentren oder LeibnizInstitute. Diese schleichende Auswanderung der Forschung und der Forscher aus dem tertiären Bereich wird Folgen zeitigen, nicht zuletzt für das gelebte Selbstverständnis des Professors, dessen Berufsethos bisher ganz aus der Kompetenz, eigene For-
Gestörtes Gleichgewicht zwischen Bildungs- und Beschäftigungssystem
299
schungskenntnisse- und -ergebnisse in die Lehre einzubringen, gespeist war, dessen Berufung in ein akademisches Lehramt auf einem Wettbewerb mit anderen Forschern gründete und dessen amtliche Aufgabe die Forschung als integralen Bestandteil in die venia legendi, die Lehrbefugnis, mit einschloss. Aus unserer Sicht sollte die Habilitation – vielleicht in reformierter Art – auch weiterhin zwingend den entscheidenden Meilenstein der Universitätslaufbahn darstellen. Wenn Inhalte und Abschlüsse im tertiären Bereich sich gleichen, geht eine zukunftsfähige Tradition des deutschen Bildungswesens verloren, droht unter Umständen eine bisher unbekannte Dysfunktionalität zwischen Bildungs- und Beschäftigungssystem. Industrien, Dienstleistungseinrichtungen, Verwaltungen sind bisher ausgesprochen gut damit gefahren, dass sie Führungskräfte und middle management mit unterschiedlichen Studienschwerpunkten und Leistungsprofilen rekrutieren konnten. Wobei zu beobachten ist, dass die Erfolgsmodelle der Fachhochschulen und besonders der Dualen Hochschule entscheidend von der Abnehmerseite und deren Bedarfsstrukturen geprägt worden sind. Die Berufsakademien, vor vierzig Jahren in Baden-Württemberg gegründet, sind eine in vielen Ländern bewunderte, von der heimischen Wirtschaft initiierte akademische Innovation. Die Berufsakademien – heute zu einer Dualen Hochschule Baden-Württemberg (9 regionale Einzelhochschulen an insgesamt 12 Standorten) zusammengefasst – wollten eben gerade keine andere oder weitere Universität sein, eben keine Grundlagenforschung, keine theorielastige, historisch-systematische Lehre treiben, vielmehr galten von Anfang an die Vorzüge der dualen Ausbildung – Verzahnung von praktischer Erfahrung mit einer problembezogenen begrifflich-analytischen Klärung. Das Spezifische der betrieblichen Praxis war die Herausforderung für die Studienakademie. Erst wenn das Wissen als tauglich für die Lösung praktischer Probleme erfahren wurde, gewann es seine Bedeutung in diesem anwendungsorientierten Ausbildungskonzept.
10 Notwendige Besinnung auf bewährte Leistungsstrukturen Das Geheimnis der modernen Industrie liegt wohl weniger in den historisch seltenen Quantensprüngen durch völlig neue Erkenntnisse als in der allmählichen, inkrementellen Optimierung von Bestehenden, in der Steigerungs- und Perfektionslogik des Vertrauten, in der Strategie der kleinen Schritte, dem zusätzlichen Bedienungskomfort, der Energieeinsparung, den höheren Qualitäten, der besseren Leistungsausbeute etc. In dieser Differenzierung von tertiären Bildungswegen, in der Profilierung und unterschiedlichen Gewichtung von Theorie und Praxis verbergen sich wesentliche Antriebskräfte für das Zweite Deutsche Wirtschaftswunder. Es wäre kontraproduktiv und schlichtweg verheerend, wenn unter dem vermeintlichen Druck gleichlautender
300
Hanns-Peter Knaebel
akademischer Titel die notwendige Ausbildung von Hochqualifizierten nivellieren und die fruchtbare Spannung zwischen Grundlagenforschung und Angewandter Forschung, zwischen theoretischem Konzeptdenken und praktischem Lösungshandeln auflösen oder gar verwischen würden. Die politische Frage der verstärkten Förderung der Spitzenforschung – am besten wieder in der Art des einstigen Harnack-Prinzips der Max-Planck-Institute, wonach sich Forschungspersonal und Forschungsmittel um eine herausragende Forscherpersönlichkeit für begrenzte Aufgaben konzentrieren, ohne dass Forschungsgebiete ohne diese treibenden Köpfe perpetuiert und institutionalisiert werden – steht für mich außer Frage. Genauso meine ich, dass die verstärkte Regionalisierung von Fachhochschulen und Dualen Hochschulstandorten im Zusammenwirken mit vorhandenen industriellen Clustern und anwendungsorientierten Forschungsinstituten einer noch stärkeren Förderung bedürfen. Nur wenn unterschiedliche Bedarfe des Beschäftigungssystems mit unterschiedlichen Bildungsprofilen synergetisch zusammenwirken, behält der Standort Deutschland seine internationale Bedeutung, Strahlkraft und generative Funktion und entfaltet weiterhin sein soziales, wirtschaftliches, technisches und wissenschaftliches Potenzial nach innen wie nach außen. Bei aller wohlwollenden Weitsicht darf unsere Genugtuung darüber, dass heute für viele Studierenden die Uni-Bibliotheken auch nachts geöffnet sind, nicht die Sorge darüber verscheuchen, dass in den Lehrwerkstätten der Betriebe immer häufiger die Lichter ausgehen. Ein Drittel Studienabbrecher sind im Verhältnis zu den Tausenden und Abertausenden von nicht besetzbaren Ausbildungsplätzen eine drückende Hypothek für die Zukunft. Es ist ein Zeichen sozialer Gerechtigkeit, jedem Einzelnen ein differenziertes, begabungsgerechtes Angebot im tertiären Sektor und schon im Sekundarbereich zu machen, um notwendige Unterschiede weder zu verwischen noch einzuebnen. Erst so kann jeder die Aufgaben und Herausforderungen finden, in denen er sich durch Neigung, Begabung und Leistungskraft zu bewähren und zu entfalten vermag. Erst so findet jeder seinen Platz in unserer Gesellschaft und sorgt für die erforderliche soziale Kohäsion.
Literaturverzeichnis Berufsbildungsbericht (2015): Bundesministerium für Bildung und Forschung, Presseverlautbarung vom 15. April 2015. Knaebel, H.-P. (2013), Führen und Wachsen lassen – Das schwierige Geschäft der Erziehung in einer „offenen Gesellschaft“, in: Knaebel, H.-P. u. Maurer, F. (Hrsgg.), Dialektik des Denkens und Einheit des Handelns, Berlin 2013, S. 165–178. Knaebel, H.-P. (2014), Die Zukunft der tertiären Bildung und ihre Relevanz für den Standort Deutschland, in: Vorträge beim Stuttgarter Steuerkongress 2014, Steuerberaterkammer Stuttgart, Stuttgart 2014, S. 25–29.
Gestörtes Gleichgewicht zwischen Bildungs- und Beschäftigungssystem
301
Maurer, F. (1992), Lebenssinn und Lernen. Zur Anthropologie der Kindheit und des Jugendalters, 2. Auflage, Bad Heilbrunn/Obb. 1992. Mittelstraß, J. (2014), Die Verhältnisse zum Tanzen bringen, in: Frankfurter Allgemeine Zeitung vom 22.09.2014, Nr. 220, S. 6. Nida-Rümelin, J. (2013), Philosophie einer humanen Bildung, Hamburg 2013. Nida-Rümelin, J. (2014), Der Akademisierungswahn – Zur Krise beruflicher und akademischer Bildung, Hamburg 2014. Scheuerl, H. (1979), Klassiker der Pädagogik, 2 Bände, München 1979. Schottländer, F. (1947), Die Mutter als Schicksal, Stuttgart 1947. Ungethüm, M. (2013), Verantwortung für das Ganze. Grenzgänge zwischen Wirtschaft, Wissenschaft und Kultur, 3. Auflage, Friedrichshafen 2013.
Martin Plag
15 Controlling – die dunkle Seite der Macht 1 Problemfeld, Zielsetzung und Methodik Controller werden in den Unternehmen häufig als graue Eminenzen beschrieben, deren wahrgenommene Machtfülle deutlich das Maß übersteigt, das man gemäß ihrer Einordnung im Organigramm erwarten würde. Ist der Controller ein Stabsstelleninhaber, übt er, per definitionem, nicht die disziplinarische Vorgesetztenfunktion für große Unternehmensbereiche mit einer Vielzahl an unterstellten Mitarbeitern aus. Vielmehr erscheint er im Organigramm bezüglich seiner Möglichkeiten zur Machtausübung im Vergleich mit einem Werksleiter als ganz und gar unbedeutend. Dennoch werden Controller de facto in den Unternehmen häufig als mächtige Akteure erlebt. Diese Diskrepanz zwischen formell zugewiesener Macht und tatsächlicher (realer) Machtausübung ist Gegenstand dieser Ausarbeitung. Ziel dieses Artikels ist eine Positionsbestimmung bezüglich der Macht von Controllern. Es soll aufgezeigt werden, aus welchen Quellen sich ihre wahrgenommene Macht speist und welche Bedeutung diese unterschiedlichen Quellen der Macht dabei für die Controller haben. Darüber hinaus soll untersucht werden, ob bzw. wie die Nutzung der Quellen der Macht von verschiedenen Controller-Rollenbildern abhängt. Die Arbeit stützt sich auf ein rein deduktiv-konzeptionelles Vorgehen. Dabei sollen machttheoretische Aspekte auf ihre Implikationen hinsichtlich der in der Controllingtheorie erörterten Controller-Rollenbilder untersucht werden. Andere Forschungsstrategien, insbesondere empirische Forschungsmethoden, werden im Rahmen dieser Arbeit nicht verwendet.
2 Konzeptionelle Basis 2.1 Controlling und Controller-Rollenbilder Die Definition von Controlling wird in der Literatur breit, anhaltend und bis heute ohne Konsens diskutiert. Vom Begriffsverständnis ist jedoch abhängig, welche Aufgaben Controllern zugewiesen werden und welche Rolle sie damit in Unternehmen einnehmen. Einigkeit herrscht zwar darin, dass Controlling eine Managementunterstützungsfunktion darstellt, jedoch nicht, welche konkreten Unterstützungsaufgaben diese Funktion beinhaltet. Es ist aber unstrittig, dass sich Controllingverständnis, Aufgaben und Rollenbilder in der betrieblichen Praxis im Zeitablauf stark verändert haben. An dieser Stelle wird die in der Literatur geführte Diskussion nicht vollständig nachvollzogen (umfassend zu Definition, Aufgaben und Rollenbildern, Weber/Schäf-
304
Martin Plag
fer 2014, S. 1–56; Horvath 2011, S. 3–67). Vielmehr erscheint es für diese Ausarbeitung zweckmäßig, die Diskussion zu verdichten und zwei Ansätze dichotomisch gegenüber zu stellen, denen nachstehend beschriebene Merkmale idealtypisch zugeordnet werden sollen. Dass hierbei stereotype, klischeehafte Beschreibungen entstehen, die so in der betrieblichen Realität wohl kaum anzutreffen sind, wird bewusst in Kauf genommen. Für das Herausarbeiten der Auswirkungen auf die Nutzung der Quellen der Macht ist dies vielmehr hilfreich. – In einem als „klassisch“ zu bezeichnenden, tradierten Verständnis ist Controlling fokussiert auf eine Informationsversorgungsfunktion, bei der die Bereitstellung von entscheidungsrelevanten, rechnungswesenbasierten Informationen im Vordergrund steht. Hiermit ist ein Aufgabenspektrum des Controllers verbunden, das sich auf die Kosten- und Leistungsrechnung, das regelmäßige Reporting und die Budgetierung konzentriert, also auf kaufmännische Basissysteme, die weitgehend Standardinformationen beinhalten. Die Aufgabenwahrnehmung ist dabei primär auf das Generieren, Selektieren, Kombinieren und Komprimieren von Informationen gerichtet. Die Informationen werden an Führungskräfte lediglich weitergeleitet, aber kaum präsentiert, kommentiert und diskutiert. Die damit einhergehenden, in der Literatur immer wieder bemühten Rollenbilder, werden zumeist durch einige wenig schmeichelhafte metaphorische Bezeichnungen zum Ausdruck gebracht, wie „Erbsenzähler“, „Zahlenknecht“ oder „Bremser“. Es gibt zwar auch weniger negativ besetzte Rollenbilder wie „Spürhund“ oder „Hofnarr“, aber auch diese haben gemein, dass der Controller lediglich Informationen liefert und kaum gestaltend oder konstruktiv beratend in Erscheinung tritt.¹ Im Folgenden soll dieser Typus neutraler als klassischer Controller bezeichnet werden. – Demgegenüber soll ein „modernes“ Controllingverständnis beschrieben werden, das Controlling als Sicherstellung der Rationalität der Führung definiert (Weber/ Schäffer 2014, S. 37–56). Die oben beschriebenen Aufgaben des klassischen Controllings sind hier für den Controller nicht obsolet, stellen aber nur die Basis für eine sehr viel weitergehende Aufgabenerfüllung dar. In diesem Ansatz ist der Controller für die Führungskräfte in ökonomischen Diskussionen und Entscheidungsprozessen ein „Sparringspartner“ auf Augenhöhe, der Rationalitätsdefizite erkennt und kommuniziert. Bei der Informationsversorgung steht die Befriedigung von ad-hoc-Bedarfen im Vordergrund, Sonderanalysen haben einen höheren Stellenwert als Standardberichte. Die strategische Planung nimmt im Vergleich zum klassischen Controller einen breiteren Raum in seinem Aufgabenspektrum ein. Der Controller identifiziert und quantifiziert Risiken und Chancen, analysiert und interpretiert Soll-Ist-Abweichungen, zeigt Handlungsoptionen auf und bewertet diese. Dabei ist die Wahrnehmung von Kommunikationsaufga1 Mit Hofnarr ist insofern ein positives Rollenbild verbunden, als damit nicht die „Verrücktheit“ eines Narren gemeint ist, sondern seine gesellschaftliche Funktion an mittelalterlichen Höfen, den Herrschenden unangenehme „Wahrheiten“ vortragen zu dürfen.
Controlling – die dunkle Seite der Macht
305
ben unvermeidbar und von großer Bedeutung. Zugleich können diese Aufgaben nicht mehr im Alleingang erledigt werden sondern erfordern interdisziplinäre Zusammenarbeit und damit Teamprozesse, die häufig vom Controller moderiert werden. Insgesamt nimmt der Controller in erheblichem Umfang beratende Aufgaben wahr. „Der Controller ist im Lauf der Jahre betriebswirtschaftlicher Berater und Koordinator der Unternehmungsführung geworden“ (Horváth 2011, S. 61). Der Controller ist in der Wahrnehmung seiner Funktion intensiv am Management und Geschäftsmodell des Unternehmens ausgerichtet und wird in die Entscheidungsfindungs- und Unternehmenssteuerungsprozesse eng eingebunden (Schäffer/ Weber, 2012, S. 81; Plag, 2012, S. 44). Das Rollenbild, das in diesem Zusammenhang in den letzten Jahren immer stärker diskutiert wird, ist das des Controllers als Business Partner (zur Rolle des Controllers als Business Partners, Goretzki/ Messner 2014, S. 8–15; Quinn 2014, S. 22–27; Goretzki 2012, S. 64–66; Goretzki/ Weber 2012, S. 22–28; Plag 2012, S. 44). Dieses Rollenbild ist im Kern durch die Wahrnehmung der o. g. Aufgaben charakterisiert.
2.2 Macht 2.2.1 Definition Bereits die Sophistiker der griechischen Antike beschäftigten sich aus philosophischer Perspektive mit Macht (Helferich 1985, S. 12 f.) und seither hat in jeder Epoche der Menschheitsgeschichte eine intensive Auseinandersetzung mit Macht stattgefunden. Jedoch erscheint an dieser Stelle eine eingehende etymologische bzw. historische Auseinandersetzung mit dem Machtbegriff weder notwendig noch sinnvoll. Vielmehr ist eine weithin akzeptierte Definition von Macht für die Zwecke dieser Arbeit ausreichend. Die Definition mit der wohl größten Bekanntheit und Akzeptanz ist die von Max Weber. Für Weber bedeutet Macht „… jede Chance, innerhalb einer sozialen Beziehung den eigenen Willen auch gegen Widerstreben durchzusetzen, gleichviel, worauf diese Chance beruht“ (Weber 1972, S. 28). Diese Definition ist für diese Arbeit deshalb zweckmäßig, weil die Durchsetzung des Willens des Controllers bzw. seiner Ziele Gegenstand der nachfolgenden Analyse ist.
2.2.2 Quellen der Macht im Überblick Die Frage nach der Machtfülle einer Person oder Gruppe in einem Unternehmen lässt sich nicht beantworten ohne zu wissen, worauf diese Macht beruht. Daher sollen im Folgenden die Quellen dargelegt werden, auf denen jegliche Macht in Organisationen basiert. In der Literatur sind die Untersuchungen von French und Raven (French/ Raven 1959; Raven 1965) weit verbreitet und sollen auch in dieser Arbeit Verwendung
306
Martin Plag
finden. Die Quellen der Macht lassen sich zu den nachstehenden fünf Aspekten verdichten (Plag 2012, S. 52–54; Wolf 2011, S. 277). 1. Macht durch Legitimation (Legitimate Power): Die Macht gründet sich auf die Nutzung formaler Rechte, wie z. B. Gesetze, Verträge, Dienstordnungen etc. So kann ein Vorstand Standortschließungen und Stellenreduzierungen oder ein Prokurist den Verkauf von Dienstwagen durch die ihm formal übertragenen Vollmachten durchsetzen, auch gegen das Widerstreben anderer Organisationsteilnehmer. Die oben genannten Beispiele zeigen, dass die Macht durch Legitimation eine wesentliche Quelle der Macht in Organisationen darstellt. Sie gründet sich darauf, dass ein Vorstand, Geschäftsführer oder Prokurist seine Entscheidungen in letzter Konsequenz auch mit juristischen bzw. rechtsstaatlichen Mitteln durchsetzen könnte. 2. Macht durch Persönlichkeitswirkung (Referent Power): Diese Machtquelle basiert auf der vom Machtunterworfenen wahrgenommenen Attraktivität des Mächtigen (zum Begriff der Attraktivität, Wolf 2011, S. 279). Dieser kann sein Charisma, d. h. seine Ausstrahlung, seine rhetorischen bzw. kommunikativen Fähigkeiten und seine äußere Erscheinung einsetzen, um andere zu beeinflussen. Die mögliche Bedeutung der Macht durch Persönlichkeitswirkung wird bereits in Platons fiktivem Dialog „Gorgias“, der sich mit den rhetorischen Künsten befasst, eindrücklich dargestellt: „Wenn man durch Worte zu überreden imstande ist, sowohl an der Gerichtsstätte die Richter, als in der Ratsversammlung die Ratsmänner und in der Gemeinde die Gemeindemänner, und so in jeder andern Versammlung, die eine Staatsversammlung ist. Denn hast du dies in deiner Gewalt, so wird der Arzt dein Knecht sein, der Turnmeister dein Knecht sein...“ (Thomson 1974, S. 127). 3. Macht durch Expertenstatus (Expert Power): Die Expertenmacht gründet sich auf den vom Machtunterworfenen wahrgenommenen oder unterstellten Wissensvorsprung einer Person auf einem Fachgebiet. Personen akzeptieren die Handlungen, Entscheidungen oder Ratschläge des Machtausübenden, weil sie seine fachliche Expertise anerkennen (z. B. eines Arztes, Mathematikers oder ITExperten). Die Einschätzung des Experten kann häufig nicht fundiert in Frage gestellt oder widerlegt werden. Hierbei kommt es auf die Wahrnehmung der Wissensunterschiede an, nicht auf die tatsächliche Ausprägung. Somit könnten z. B. ein schlichter Arztkittel und ein Stethoskop einem Hochstapler in erheblichem Umfang zu Expert Power verhelfen. 4. Macht durch Information (Informational Power): Informationen können eine Ressource darstellen, die mitunter von erheblichem Wert für die Akteure sind. Die Weitergabe oder das Vorenthalten von Informationen sind somit mögliche Mittel, um eigene Interessen gegen das Widerstreben anderer Akteure durchzusetzen. Verfügt z. B. in einem Ausschreibungsverfahren nur ein Akteur über detaillierte Informationen bezüglich offiziell nicht genannter Ausschreibungsan-
Controlling – die dunkle Seite der Macht
5.
307
forderungen, kann dies einen erheblichen taktischen Vorteil zur Durchsetzung der eigenen Interessen (hier Gewinnen der Ausschreibung) darstellen. Macht durch Belohnung und Bestrafung (Coercive and Reward Power): Hier kann der Mächtige Maßnahmen ergreifen, deren Konsequenzen vom Machtunterworfenen als positiv oder negativ bewertet werden. Diese Machtquelle stellt insofern eine Besonderheit dar, als sie nicht unabhängig von den Quellen der Macht gemäß Ziffern (1) – (4) ausgeschöpft werden kann. Man benötigt z. B. Macht durch Legitimation um einen Akteur im Unternehmen mit einem Gehaltsbonus oder einer Beförderung zu belohnen bzw. um ihn mit einer Abmahnung zu bestrafen. Dies stellt formell geregelte Arten der Belohnung und Bestrafung dar. Belohnungs- und Bestrafungsmacht hat aber auch eine informelle Seite, wie z. B. Bestrafung durch Entzug von Zuwendung (Belohnung durch Gewährung von Zuwendung) oder Lob und Tadel durch Kollegen. Diese Art der Belohnung oder Bestrafung erfordert Macht durch Persönlichkeitswirkung, da der Entzug von Zuwendung einer Person, die nicht als attraktiv bewertet wird, für den Akteur auch keine Bestrafung darstellt. Wird eine Idee in einem Meeting von einem Kollegen als unbrauchbar bezeichnet, wird dies nur als Bestrafung wahrgenommen, wenn dieser Kollege von anderen Kollegen oder Entscheidern als Fachmann mit entsprechender Macht durch Expertenstatus wahrgenommen wird. Eine Bestrafung durch Vorenthalten von Informationen setzt ihrerseits das Vorhandensein von Informationsmacht voraus. Somit kann die Macht durch Belohnung und Bestrafung als abgeleitete Quelle der Macht bezeichnet werden, die sich auf die zuvor genannten Quellen stützt.
Lediglich die legitimierte Macht sowie jene Anteile der Belohnungs- und Bestrafungsmacht, die auf legitimierter Macht beruhen, stellen formelle Machtbasen dar. Ihre Verwendung ist explizit durch Gesetze, Verordnungen oder organisationsinterne Statuten geregelt. Diese Machtquellen sind damit transparent und für die Akteure in einer Organisation klar nachvollziehbar. Sie stellen sozusagen die beleuchtete Seite der Macht dar, wohingegen alle übrigen Quellen der Macht informellen Charakter aufweisen. Ihr Gebrauch wird nicht durch explizierte Regeln festgelegt, wodurch sie sehr viel weniger transparent und weniger nachvollziehbar sind. Diese informellen Machtbasen sind daher für viele Organisationsmitglieder und externe Akteure weniger deutlich sichtbar, weshalb sie (das Wortspiel sei dem Autor vergönnt) als die dunkle Seite der Macht bezeichnet werden können.
308
Martin Plag
3 Controller-Rollenbilder und Nutzung der Machtquellen 3.1 Macht durch Legitimation Die Macht durch Legitimation ist für den klassischen Controller vor allem dort nutzbar, wo er den Auftrag hat, Controllingstandards und sonstige Regelungen, die unmittelbar zum fachlichen Aufgabenbereich des Controllers gehören, in der Organisation durchzusetzen. Hierzu gehört auch die regelkonforme Umsetzung der KLR-, Reporting- und Budgetierungsprozesse. Wird unterstellt, dass der Controller keine Vorgesetztenfunktion außerhalb des Controllingbereichs wahrnimmt, scheint eine weitergehende Nutzung der Macht durch Legitimation für ihn nicht möglich zu sein. Die Macht durch Legitimation des klassischen Controllers erschöpft sich daher darin, überspitzt formuliert, Formulare zu entwerfen und Berichtspflichten anzumahnen. Der Controller als Business Partner übt jedoch beratende Funktionen aus, ist Sparringspartner in Entscheidungsprozessen und nimmt umfangreiche Kommunikationsaufgaben wahr. In dieser Rolle hat er idealerweise die Aufmerksamkeit der Führungskräfte und wird von diesen als ernstzunehmender Counterpart akzeptiert. Damit kann der Controller die Führungskräfte in Richtung seiner Zielerreichung beeinflussen und gegebenenfalls dahingehend instrumentalisieren, dass diese im Sinne seiner Ziele entscheiden oder handeln. Damit kann der Controller als Business Partner die Macht durch Legitimation zwar auf direktem Wege auch nicht stärker ausüben als der klassische Controller, er kann sie aber durch seinen Einfluss auf die Führungskräfte in erheblichem Umfang indirekt nutzen. Der Controller als Business Partner nutzt die Macht durch Legitimation in einem „Spiel über die Bande“.
3.2 Macht durch Persönlichkeitswirkung Die Nutzung der Macht durch Persönlichkeitswirkung steht scheinbar jedem Mitarbeiter einer Organisation in gleichem Maße offen, ist sie doch primär abhängig von den Persönlichkeitsmerkmalen eines Akteurs und deren Perzeption durch andere Akteure. Die tatsächliche Ausschöpfung dieser Machtquelle steht jedoch auch in engem Zusammenhang mit den Aufgaben, die einem Organisationsteilnehmer übertragen werden, da die Aufgaben in unterschiedlichem Ausmaß mit Kommunikation verbunden sind. Kommunikation ist eine zentrale Voraussetzung für die Ausschöpfung von Macht durch Persönlichkeitswirkung. Nur wenn ein Akteur durch Dritte wahrgenommen wird, kann diese Machtquelle wirksam werden. Wahrgenommen wird der Akteur, wenn er kommuniziert. Ohne Kommunikation gibt es somit keine Macht durch Persönlichkeitswirkung.
Controlling – die dunkle Seite der Macht
309
Der klassische Controller ist sehr umfänglich mit KLR sowie der Erstellung von Standardreports betraut, was nur in geringem Umfang Kommunikationsaufgaben beinhaltet. Lediglich bei der Budgetierung muss er vermehrt moderieren und kommunizieren, da die Budgets der Unternehmensbereiche hinsichtlich des Gesamtbudgetrahmens und der Erreichung der Unternehmensziele koordiniert werden müssen. Insgesamt lässt das unterstellte Aufgabenspektrum des klassischen Controllers (KLR, Reporting und Budgetierung) jedoch nicht erwarten, dass die Macht durch Persönlichkeitswirkung in großem Umfang für ihn nutzbar ist. Die Situation des Controllers als Business Partner weicht hiervon erheblich ab. Als Berater, der intensiv mit Führungskräften und Mitarbeitern kommuniziert, weil er als wichtiger Diskussions- und Sparringspartner in Entscheidungsprozesse eingebunden wird, hat er vielfältige Kommunikationsaufgaben zu erfüllen. Hieraus lässt sich ableiten, dass der Controller als Business Partner in deutlich größerem Maße die Möglichkeit hat, die Macht durch Persönlichkeitswirkung auszuschöpfen. Hinzu kommt, dass das unterschiedliche Aufgabenspektrum von klassischem Controller und Business Partner erwarten lässt, dass hiermit auch abweichende Fähigkeitsprofile und Neigungen verbunden sind. Extrovertierte, kommunikationsfreudige und -begabte Bewerber werden sich seltener auf die Stelle eines klassischen Controllers bewerben und noch seltener auf einer solchen Stelle verharren, als Bewerber, die sich selbst eine geringe Kommunikationsneigung und -begabung zusprechen. Zudem ist zu vermuten, dass die Bewerberauswahl auf Controllerstellen entsprechend erfolgt. Somit ist zu erwarten, dass der Controller als Business Partner sowohl über eine höhere Kommunikationsneigung als auch über höhere Kommunikationsfähigkeiten verfügt. Insgesamt ist davon auszugehen, dass der Controller als Business Partner die Machtquelle der Persönlichkeitswirkung aufgrund seines Aufgabenspektrums, seiner Fähigkeiten und seiner Neigungen in höherem Ausmaß ausschöpfen kann und will als der klassische Controller.
3.3 Macht durch Expertenstatus Die Macht durch Expertenstatus ist unmittelbar an eine zugewiesene Rolle geknüpft. Sie resultiert daraus für was der Akteur als Experte wahrgenommen wird. Der Expertenstatus wird vorrangig in der Ausübung einer Rolle wirksam. Ein Arzt kann seinen Expertenstatus bei der Diskussion medizinischer Fragen nutzen, nicht aber bei Entscheidungen über die Konfiguration von ERP-Systemen. Hier kann ein IT-Leiter seinen Expertenstatus zur Machtausübung verwenden, nicht aber bei Fragen zum Gesundheitsmanagement im Unternehmen. Die Rolle des klassischen Controllers und die des Controllers als Business Partner weichen erheblich voneinander ab. Der klassische Controller kann in seiner Rolle einen Expertenstatus bei der Gestaltung und Nutzung von Kostenrechnungs-,
310
Martin Plag
Reporting- und Budgetierungssystemen geltend machen. Hier ist der Controller in den Unternehmen häufig der Systemverantwortliche und der wahrgenommene Experte. Die Nutzung dieses Expertenstatus ist nicht zu unterschätzen, setzt man voraus, dass KLR, Reporting und Budgetierungsprozess relevante Unterstützungsfunktionen für das Management darstellen. So kann eine kostenrechnerische Bewertung erheblichen Einfluss auf Programm-, Investitions-, Organisations-, Make-Or-Buy- oder Standortentscheidungen haben. Weiterhin ist der Ausweis von KPIs in regelmäßigen Reports ein wichtiger Einflussfaktor auf betriebswirtschaftliche Entscheidungen des Managements. Ähnliches gilt für die Wirksamkeit einer Stellungnahme des klassischen Controllers für Budgetentscheidungen. Somit kann die Macht durch Expertenstatus bei den klassischen Controllern als nicht unerheblich eingestuft werden. Der Controller als Business Partner ist ebenfalls verantwortlich für die Gestaltung der Kostenrechnungs-, Reporting- und Budgetierungssysteme und kann damit die gleiche Expertise wie der klassische Controller für sich in Anspruch nehmen. Seine Expertenrolle ist aber deutlich breiter definiert, er ist Berater z. B. für die strategische Planung, das Chancen- und Risikomanagement, Corporate Governance und weitere Aspekte der Unternehmensführung. Daher kann unterstellt werden, dass die Expertenmacht des Controllers als Business Partner, aus seiner Rolle resultierend, die des klassischen Controllers deutlich übersteigt. Selbstverständlich ist auf mittlere und längere Sicht die Macht durch Expertenstatus auch davon abhängig, wie gut der Experte seine jeweilige Rolle ausfüllt. So wird z. B. ein Experte, dessen Prognosen sich in der Vergangenheit über einen längeren Zeitraum immer wieder als zutreffend herausgestellt haben, über eine höhere Expertenmacht verfügen als sein Kollege, dessen Prognosen sich überwiegend als nicht zutreffend herausgestellt haben. Dieses Argument gilt aber sowohl für den klassischen Controller als auch für den Controller als Business Partner. Geht man von einer gleichermaßen erfolgreichen Wahrnehmung der jeweiligen Rolle aus, verfügt der Controller als Business Partner über die deutlich größere Expertenmacht.
3.4 Macht durch Information Der Controller hat Zugriff auf vielfältige betriebswirtschaftliche Informationen, z. B. produktbezogene Kosten- und Umsatzdaten, Kostenstelleninformationen, Leistungsdaten unterschiedlicher Unternehmensbereiche, Qualitätskennziffern aber auch Daten, die in den Compliance-Bereich hineinreichen. Hieraus lassen sich Aussagen zur Performance einzelner Fach- und Führungskräfte oder zu Risiken ableiten. Der Gebrauch solcher Informationen kann für einzelne Akteure weitreichende Konsequenzen haben. Es ist bedeutsam welche Informationen an wen, wann, in welchem Kontext und mit welcher Erläuterung weitergegeben werden. So kann es für eine mittlere Führungskraft von erheblicher Bedeutung sein, Informationen über die (schlechte) Performance des eigenen Bereiches zu erhalten, bevor dies vom Controller
Controlling – die dunkle Seite der Macht
311
dem Vorstand gemeldet wird. Auch ist es für diese Führungskraft von Relevanz, Informationen zu den Ursachen der schlechten Leistungsdaten zu erhalten, um Gegenmaßnahmen zu erarbeiten und diese rechtzeitig dem Vorstand kommunizieren zu können. Damit kann die Macht durch Information für den klassischen Controller als die zentrale Basis seines Einflusses gelten. Dem Controller als Business Partner stehen die gleichen Informationen zur Verfügung und diese können ihm in identischem Maße als Quelle der Macht dienen. Es kann aber davon ausgegangen werden, dass der Controller als Business Partner aufgrund des weitergehenden Aufgabenspektrums und der breiteren Kommunikation mit Fach- und Führungskräften über einen Zugang zu deutlich mehr Informationen verfügt, die in diesem Sinne zur Machtausübung nutzbar sind. Somit ist zu unterstellen, dass der Controller als Business Partner die Informationsmacht in noch deutlich größerem Umfang nutzen kann als der klassische Controller.
3.5 Macht durch Belohnung und Bestrafung In Kapitel 2.2.2 wurde festgestellt, dass die Macht durch Belohnung und Bestrafung keine originäre Machtquelle darstellt, sondern als abgeleitete Machtquelle von den zuvor genannten Machtquellen abhängig ist. Für alle originären Quellen der Macht wurde herausgearbeitet, dass der Controller als Business Partner über eine höhere Machtfülle verfügt. Er kann stärker als der klassische Controller die legitimierte Macht „über Bande“ einsetzen um Führungskräfte dahingehend zu beeinflussen, dass Akteure bestraft oder belohnt werden. Sein Aufgabenspektrum führt im Zusammenwirken mit einer entsprechenden Personalauswahl und den daraus resultierenden Fähigkeiten bzw. Persönlichkeitsmerkmalen dazu, dass der Controller als Business Partner auch höhere Persönlichkeits-, Experten- und Informationsmacht zur Belohnung und Bestrafung von Akteuren nutzen kann. Als mögliches Beispiel sei hier eine Situation angeführt, in der ein Akteur ein Investitionsvorhaben durchzusetzen versucht, mit dem er sich persönlich profilieren möchte. Der Controller als Business Partner kann (mehr als der klassische Controller) exklusive Informationen, seinen Expertenstatus sowie seine rhetorischen und anderen kommunikativen Fähigkeiten nutzen, um dieses Investitionsvorhaben in einer Vorstandssitzung zu diskreditieren und damit den Akteur zu bestrafen bzw. um das Vorhaben zu unterstützen und den Akteur zu belohnen. Dem Controller als Business Partner steht die Macht durch Belohnung und Bestrafung in erheblich höherem Maße zur Verfügung als dem klassischen Controller.
312
Martin Plag
3.6 Synopsis und Schlussfolgerung Die nachstehende Synopsis soll die Möglichkeiten zur Nutzung der verschiedenen Machtquellen für den klassischen Controller sowie für den Controller als Business Partner vergleichend zusammenfassen. Tab. 1: Nutzung von Machtquellen und Controller-Rollenbilder
Macht durch Legitimation
Klassischer Controller
Controller als Business Partner
Fast nur bei der Durchsetzung von Controllingstandards und controllingbezogenen Regelungen nutzbar
Hat darüber hinaus als Berater „das Ohr“ der Führungskräfte und in hohem Maße deren Akzeptanz; daher erhebliche Möglichkeit zur indirekten Nutzung der Legitimationsmacht von Führungskräften als „Spiel über die Bande“
Macht durch Aufgrund des Aufgabenspektrums Persönlichkeits- und des Auswahlprozesses eher wirkung gering ausgeprägte Kommunikationsfähigkeiten und -neigung; damit geringer Stellenwert der Macht durch Persönlichkeitswirkung
Als wichtiger Berater von Führungskräften ist der Controller mit vielfältigen Kommunikationsaufgaben betraut; aufgrund des Auswahlprozesses eher stark ausgeprägte Kommunikationsfähigkeiten und -neigung; damit hoher Stellenwert der Macht durch Persönlichkeitswirkung
Macht durch Expertenstatus
Expertenstatus bezüglich KLR, Reporting und Budgetierung; dies kann erheblichen Einfluss auf Unternehmensentscheidungen haben; jedoch beschränkte Nutzungsmöglichkeiten aufgrund begrenzter Kommunikationsaufgaben
Breiter angelegte Expertenrolle als der klassische Controller; vielfältige Kommunikationsaufgaben und -gelegenheiten; hierdurch ergibt sich eine noch höhere Macht durch Expertenstatus.
Macht durch Information
Durch die „Datenhoheit“ des klassischen Controllers über KLR-, Reporting- und Budgetierungsinformationen die wichtigste Quelle der Macht des klassischen Controllers
Als Business Partner hat der Controller Zugang zu Informationen, die noch über die des klassischen Controllers deutlich hinausgehen; daher noch weitergehende Macht durch Information.
Macht durch Belohnung und Bestrafung
Belohnungs- und Bestrafungsmacht resultiert insbesondere aus der Experten- und Informationsmacht und kann diesbezüglich als nicht gering eingeschätzt werden
Alle bis dahin genannten Quellen der Macht stehen dem Controller als Business Partner in höherem Maße zur Verfügung als dem klassischen Controller; daher verfügt er bezüglich der (lediglich abgeleiteten) Macht durch Belohnung und Bestrafung über deutlich größere Nutzungsmöglichkeiten
Quelle: Eigene Darstellung.
Controlling – die dunkle Seite der Macht
313
Der klassische Controller verfügt über nicht unerhebliche Macht, die sich überwiegend aus der Experten- sowie der Informationsmacht und der sich daraus abgeleiteten Belohnungs- bzw. Bestrafungsmacht speist. Der Controller als Business Partner hat jedoch bezüglich sämtlicher Machtquellen und damit insgesamt eine ungleich größere Machtfülle, sofern er seine Aufgaben erfolgreich erfüllt und über die entsprechenden Fähigkeitsmerkmale verfügt. Die Nutzung formeller und damit für die Organisation sehr transparenter Macht beschränkt sich für Controller weitgehend auf die legitimierte Macht bei der Durchsetzung von Controllingstandards, insbesondere zur Umsetzung der KLR-, Reportingund Budgetierungsprozesse. Die Nutzung aller anderen Quellen der Macht sowie die indirekte Nutzung der legitimierten Macht „über Bande“ können als informelle Machtausübung angesehen werden und sind für die Organisation nicht ohne weiteres nachvollziehbar bzw. wenig transparent. Insgesamt spielen damit die informellen bzw. „schlecht beleuchteten“ Quellen der Macht für Controller im Unternehmen eine erhebliche Rolle. Dies erklärt die häufig beschriebene Stellung von Controllern als „graue Eminenzen“ in Unternehmen. Es ist somit richtig, dass Controller in erheblichem Umfang die „dunkle Seite der Macht“ nutzen.
4 Fazit und Ausblick In der Arbeit wurden die Rollenbilder eines klassischen Controllers und eines Controllers als Business Partner in einer idealtypischen und überspitzten Form herausgearbeitet und dichotomisch gegenübergestellt. Anschließend wurden die verschiedenen Quellen der Macht dargelegt um zu analysieren, in welchem Umfang diese dem klassischen Controller und dem Controller als Business Partner zur Verfügung stehen. Im Ergebnis hat sich gezeigt, dass der klassische Controller über nicht unerhebliche Macht verfügt, jedoch in deutlich geringerem Maße als der Controller als Business Partner. Dieser kann sämtliche Quellen der Macht sehr viel umfangreicher ausschöpfen. Vorausgesetzt, er nimmt seine Aufgabe erfolgreich wahr, stellt er einen mächtigen Akteur im Unternehmen dar. Der überwiegende Teil der für ihn nutzbaren Machtquellen stellt informelle Macht dar, deren Gebrauch nicht über explizierte Regeln festgelegt ist. Diese Arbeit kann aufgrund fehlender empirischer Befunde keine Aussage über die in Unternehmen tatsächlich vorhandene Macht von Controllern unterschiedlicher Rollenbilder treffen. Daher wären weitergehende Arbeiten sinnvoll, die ihren Fokus auf den (kausalen) Zusammenhang zwischen Controller-Rollenbildern und Ausschöpfung von Machtquellen richten und sich primär der Instrumente empirischer Sozialforschung bedienen.
314
Martin Plag
Literaturverzeichnis French, J. R. P./Raven, B. H. (1959): The bases of social power, in: Cartwright, D. (Hrsg.): Studies in social power, Ann Arbor 1959, S. 150–167. Goretzki, L. (2012): Rollenwandel der Controller zum Business Partner – Erkenntnisse aus der qualitativen Controllerforschung, in: ZfCM – Zeitschrift für Controlling & Management, 1/2012, S. 64–66. Goretzki, L./Messner, M. (2014): Business Partnering in der Praxis etablieren, in: Controlling & Management Review, 2/2014, S. 8–15. Goretzki, L./Weber, J. (2012): Die Zukunft des Business Partners – Ergebnisse einer empirischen Studie zur Zukunft des Controllings, in: ZfCM – Zeitschrift für Controlling & Management, 1/2012, S. 22–28. Helferich, C. (1985): Geschichte der Philosophie: Von den Anfängen bis zur Gegenwart und Östliches Denken, Stuttgart 1985. Horváth, P. (2011): Controlling, 12., vollständig überarbeitete Auflage, München 2011. Plag, M. (2012): Der Controller als Change Manager, in: Krings, Ulrich (Hrsg.), Controlling als Inhouse-Consulting, Wiesbaden 2012, S. 43–63. Quinn, M. (2014): The Elusive Business Partner Controller, in: Controlling & Management Review, 2/2014, S. 22–27. Raven, B. H. (1965): Social Influence and Power, in: Steiner, I. D./Fishbein, M. (Hrsg.): Current Studies in Social Psychology, New York 1965, S. 371–38 Schäffer, U./Weber, J. (2012): Zukunftsthemen des Controllings, in: Controlling – Zeitschrift für erfolgsorientierte Unternehmenssteuerung, Heft 2, 2012, S. 78–84. Thomson, G. (1974): Die ersten Philosophen, Berlin 1974. Weber, J./Schäffer, U. (2014): Einführung in das Controlling, 14. Auflage, Stuttgart 2014. Weber, M. (1972): Wirtschaft und Gesellschaft – Grundriß einer verstehenden Soziologie, Nachdruck der Erstausgabe zum 50. Jahrestag des Erscheinens der Erstausgabe, Tübingen 1972. Wolf, J. (2011): Organisation, Management, Unternehmensführung, 4. Auflage, Wiesbaden 2011.
Ulrich Sommer und Ala Schönberger
16 Der Nürnberger Trichter ist out!¹ Ein Plädoyer für innovative Formen des Lehrens und Lernens in der Steuerberatung und Wirtschaftsprüfung
1 Aus Informationen Wissen generieren Es ist eine Binsenweisheit, dass die Halbwertszeit des Wissens immer kürzere Zeitzyklen durchläuft, da die Schnelllebigkeit von Informationen Wissen immer schneller veralten lässt. Dies gilt in besonderem Maße sowohl für die EDV als auch für das Steuerrecht, das wie kaum ein anderes Rechtsgebiet so vielen Änderungen und insbesondere einer so hohen Änderungsgeschwindigkeit unterworfen ist. Rose bezeichnete den Steuergesetzgeber daher bereits in den 70er Jahren als „Turbogesetzgeber“ (Rose 1976, S. 41 ff.). Aktualität und schnelle Verfügbarkeit steuerrechtlicher Informationen über die Steuergesetzgebung, Finanzrechtsprechung, Verwaltungsmeinung sowie Kenntnis des einschlägigen Fachschrifttums sind daher ein wesentlicher Erfolgsfaktor qualifizierter Steuerberatung (Sommer 1993, S. 83 ff.). Der Gesetzgeber hat seinen Anteil daran, dass Fortbildung zunehmend als Bürde betrachtet wird. Der wirtschaftliche Erfolg entsprechender Bemühungen sowie das Selbstverständnis der Steuerberater und Wirtschaftsprüfer rechtfertigen jedoch Weiterbildungsaktivitäten als Reaktion auf die ständig steigenden Herausforderungen, die von den Berufsangehörigen und deren Mitarbeiter zu bewältigen sind (Sommer 1993, S. 83 ff.). Das stetig anwachsende Angebot von Fortbildungsveranstaltungen durch Verbände, Kammern und freie Träger dokumentiert eindrücklich, dass die Berufsträger Fortbildung als permanenten Anspruch zur Leistungserhaltung und Leistungssteigerung betrachten. Die Fortbildungsverpflichtung lässt sich bereits unmittelbar aus § 57 Abs. 1 StBerG sowie aus § 43 Abs. 2 WPO ableiten, nach denen Steuerberater und Wirtschaftsprüfer bei sorgfältiger Prüfung von Sachverhalten die aktuelle Rechtslage
1 Teile dieses Beitrags wurden bereits veröffentlicht in: Sommer, U. (2015): Steuerberatung 2020 – Die zukunftsfähige Kanzlei – Mitarbeiterbindung durch systematische Personalentwicklung, in: DStR 2015, S. 1467; Sommer, U. (2012): Hat der Nürnberger Trichter noch eine Zukunft für innovatives Lehren und Lernen?, in: DWS-Online, Berlin 2012, S. 7–20; Sommer, U. (2010): Systematische Fortbildung als Bestandteil eines erfolgreichen Qualitätsmanagements in der Steuerberatung und Wirtschaftsprüfung, in: Kessler/Förster/ Watrin (Hrsg.): Unternehmensbesteuerung, Festschrift für Norbert Herzig zum 65. Geburtstag, München 2010, S. 853–867; Sommer, U: (2004): Systematische Fortbildung im Rahmen des Qualitätsmanagements von Steuerberatern und Wirtschaftsprüfern, in: DStR 2004, S. 745; Beyer, I./Sommer, U. (2002): E-Learning in der Steuerberatung. Eine Alternative zur herkömmlichen Fortbildung?, in: DStR 2002, S. 1782–1784.
316
Ulrich Sommer und Ala Schönberger
anhand der Gesetze, der Verordnungen der Richtlinien und der höchstrichterlichen Rechtsprechung zu beachten haben. Dies ist ohne eine entsprechende Fortbildung in allen relevanten Bereichen nicht möglich. Von daher ist es auch kaum verwunderlich, wenn der Bereich der Fortbildung in den Verlautbarungen der Berufsorganisationen zur Qualitätssicherung der Wirtschaftsprüfer (WPK 2006) sowie der Steuerberater (BStBK 2012) einen gewichtigen Platz einnimmt. Die reine Anhäufung von Informationen mag dabei für alltägliche Handlungsund Sachzusammenhänge das notwendige Wissen – sog. Alltagswissen – bereithalten, dürfte aber den heutigen Anforderungen an eine umfassende berufsbezogene Handlungskompetenz nicht mehr gerecht werden. Wissen im hier verstandenen Sinne ist vielmehr die begründete und begründbare Erkenntnis im Unterschied zur Vermutung und Meinung über einen bestimmten Sachverhalt. Von daher ist die Nutzung des Internets zum Wissenserwerb nicht unproblematisch, da dort nicht nur ein Informationsüberfluss herrscht, sondern nicht selten auch falsche Informationen abgespeichert sind. Gleichwohl nutzt nach einer Untersuchung aus dem Jahre 2011 jeder Dritte in der Altersgruppe der 14- bis 29-Jährigen Wikipedia als ersten Anlaufpunkt bei Internetrecherchen (BITKOM 2011). Dieser Anteil dürfte bis zum heutigen Tag noch angestiegen sein. Sinnvoll dagegen ist eine systematische Einbeziehung des Web in den Lernprozess, weil damit Kenntnisse im Umgang mit den dort erlangten Informationen erworben werden könnten. Dazu ist jedoch ein umfassendes didaktisches Konzept erforderlich. Diese Zusammenhänge waren den 29 europäischen Bildungsministern offensichtlich bewusst, als sie sich 1999 in Bologna das Ziel gesetzt haben, bis 2010 einen gemeinsamen europäischen Bildungsraum zu schaffen. Die bekannte Forderung des „Lebenslangen Lernens“ sollte nach Auffassung der Politik um ein Konzept zur Schaffung flexibler Lernangebote im Hochschulbereich ergänzt werden (BMBF(a) o. J.). Im Jahr 2008 hat die Bundesregierung dazu eine Konzeption des „Lernens im Lebenslauf“ verabschiedet und dabei als wesentliche Voraussetzung für die Bereitschaft zur Weiterbildung „die Motivation und die Befähigung zum selbstständigen Lernen ab der frühkindlichen Bildung und mit den Bildungs- und Ausbildungsinhalten in der Schule, in der Berufsausbildung und an der Hochschule“ bezeichnet (BMBF(b) o. J.).
2 Fortbildungsformen für ein lebenslanges Lernen in der Steuerberatung Es ist heute unbestritten, dass die erfolgreich abgelegten Berufsexamina allein auf Dauer für eine gewissenhafte Berufsausübung nicht ausreichen. Mit dem Stichwort
Der Nürnberger Trichter ist out!
317
„Lebenslanges Lernen“ wird insbesondere im Dienstleistungsbereich die Forderung nach permanenter Weiterbildung verdeutlicht. Im Wesentlichen erfüllen die Berufsträger und deren Mitarbeiter diese Forderung durch den Besuch von Seminarveranstaltungen sowie durch die Lektüre des Fachschrifttums. Die rasante Änderungsgeschwindigkeit gerade des Steuerrechts und die damit einhergehende, ständig zunehmende Arbeitsbelastung für die Berufsangehörigen und deren Mitarbeiter haben dazu geführt, dass die angebotenen Veranstaltungen – auch unter dem Kostenaspekt – im Hinblick auf ihren Erfolgsbeitrag zur weiteren Qualifizierung kritisch betrachtet werden. Erstaunlich ist, dass dabei im Wesentlichen über die fachlichen Inhalte, kaum aber über Methoden, oder über die Didaktik einer systematischen Fortbildung diskutiert wird. Hoffmann (Hoffmann 2003, S. 2 ff.) gibt einen ausgezeichneten Überblick Tab. 1: Qualifizierungsziele und Maßnahmen zur Steigerung der Fachkompetenz
I. Funktionsbezogene Fachkompetenz
Projektmanagement
Prozessmanagement/ Internationalisierung TQM
Qualifizierungsziele
Aufgabenbezogenes Fachwissen
II. Funktionsübergreifende Fachkompetenz
– Erlangung eines Fach- – Erlernen der Metho- – Erkennen der – Erlangung von Know-hows den und Techniken Bedeutung prozesSprachkompetenz in des Projektmanage- sualen Denkens der Kommunikation ments – Entwicklung von mit ausländischen Faktoren eines Qua- Partnern (Manlitätssicherungssys- danten, Beratern, tems in der Kanzlei Institutionen) – Vernetztes Denken
Maßnahmen (intern und extern)
Kompetenz
Fachkompetenz
– Besuch von Seminaren im Steuer-, Handels- und Gesellschaftsrecht sowie der Betriebswirtschaftslehre – Kanzleibesprechungen – Wissensmanagement in der Kanzlei (Data Warehouse) – Selbstlernaktivitäten (Fachzeitschriften, interaktive Lern-CDs) – Einsatz von eLearningInstrumenten
Quelle: Eigene Darstellung.
– Seminare zum Projektmanagement – Projektarbeit in der Kanzlei (Nachfolgeberatung, betriebswirtschaftliche Beratung) – Einrichtung von Qualitätszirkeln – Aufbau eines TQM-Systems in der Kanzlei – Zertifizierung – BWL-Planspiele, Steuerplanspiele „Außenprüfung“, FG-Prozess – Seminare zu Fremdsprachen – Auslandsaufenthalte (Praktikantenaustausch) – Kontaktpflege mit ausländischen Berufskollegen – Fachberater „Internationales Steuerrecht“
318
Ulrich Sommer und Ala Schönberger
über die einzelnen Lehrmethoden und die dazu einzusetzende Didaktik in der Ausund Fortbildung für Wirtschaftsprüfer, die im vollen Umfang auch für Steuerberater gültig sind. Zur Optimierung der Aus- und Fortbildung in der Steuerberatung bzw. Wirtschaftsprüfung sind eine größere Differenzierung sowie eine systematische Vorgehensweise erforderlich. Diese betrifft die klare Abgrenzung zwischen durch die Lerninhalte bestimmter anzustrebender Qualifikation von den einzusetzenden Lehrmethoden und Lernmedien (Herzig 2008). Einen Überblick – getrennt nach Fach-, Methoden- und Sozialkompetenz – über die jeweiligen Qualifizierungsziele und die dazu möglichen Maßnahmen geben die nachstehenden Übersichten (Sommer 2003, S. 156 ff.). Die Komplexität der Fragestellung konkreter Fallkonstellationen in der Steuerberatung und in der Wirtschaftsprüfung sowie die Änderungsgeschwindigkeit in der Steuergesetzgebung sind die wichtigsten Faktoren dafür, dass aus heutiger Sicht und wohl auch in der Zukunft eine überragende Fachkompetenz (Tab. 1) für eine erfolgreiche Berufsausübung erforderlich ist. Die modernen Kommunikationsmedien ermöglichen den Einsatz von Präsentationsmitteln, deren Handhabung nicht zwingend als bekannt vorausgesetzt werden
Kompetenz
Methodenkompetenz
Qualifizierungsziele
– Sicherheit im Auftreten (vor Gruppen) – Selbstmanagement – Erarbeitung einer Vortragsstruktur – Strukturierung von Arbeitsab– Manuskriptgestaltung läufen mit IT-Instrumenten – Argumentationstechnik – Beherrschung von Moderations- und Präsentationstechniken mit modernen Medien
Maßnahmen (intern und extern)
Tab. 2: Qualifizierungsziele und Maßnahmen zur Steigerung der Methodenkompetenz
– Teilnahme an Rhetorikseminaren – Vorträge in der Kanzleien – Vorträge bei Mandanten-Infoveranstaltungen – Erstellen von Gutachten, Einsprüchen und Klagen – Seminare zu Moderations- und Präsentationstechniken – Präsentation von Jahresabschlüssen bei Mandanten- und Bankgesprächen – Vorbereitung und Mitwirkung bei Schlussbesprechungen im Rahmen der Außenprüfung – Seminare zu Techniken des Zeitmanagements – Erstellung von Arbeitsplänen (Workflow-Technik) – Lesetechniken – Auswertung von Datenbanken
Methodik und Dialektik
Quelle: Eigene Darstellung.
Moderation und Visualisierung
Arbeitstechniken
Der Nürnberger Trichter ist out!
319
kann. Hier ist Methodenkompetenz (Tab. 2) im Umgang mit den neuen Medien, z. B. im Rahmen von Jahresabschlusspräsentationen beim Mandanten oder in der Kanzlei, bei Verhandlungen mit dem Finanzamt bzw. vor Gerichten zu erlangen bzw. auszubauen. Fachwissen und methodisches Wissen allein reichen nicht aus, da das Wissen auch in geeigneter Form dem Mandanten näher zu bringen ist. Eine konsequente Mandantenorientierung (Sommer 2005, S. 8 f.) erfordert beispielsweise eine verständliche Sprache, sodass der Mandant die Argumentation leicht nachvollziehen kann und sich nicht von unverständlicher Fachsprache des Beraters belehrt fühlt. Wer Erfahrungen in der Nachfolgeberatung von Familienunternehmen oder im Zusammenhang mit Außen- bzw. Steuerfahndungsprüfungen hat, weiß wie wichtig eine ausgeprägte Sozialkompetenz (Tab. 3) für das Beratungsergebnis ist.
Kompetenz
Sozialkompetenz Team- und Kooperationsfähigkeit
Kommunikationsfähigkeit
Zielstrebigkeit, Selbständigkeit und Organisationsfähigkeit
Qualifizierungsziele
– Verbesserung der Kommunikation
– Sicheres Auftreten in der Gesprächsführung und in der Präsentation von Arbeitsergebnissen
– Entwicklung von Initiative und Lösungsstrategien – Effiziente Organisation von Arbeitsprozessen
Maßnahmen (intern und extern)
Tab. 3: Qualifizierungsziele und Maßnahmen zur Steigerung der Sozialkompetenz
– Teilnahme an Seminaren für Moderationstechniken und Rhetorikseminaren – Bildung auftragsbezogener Projektteams in der Kanzlei – Stärkung der Mandantenkontakte – Mitwirkung bei Mandantengesprächen – Vorbereitung und Mitwirkung bei Mandanten-Infoveranstaltungen – Erlangung der Qualifikation eines Mediators (Schwartz/Thomas 2006) – Übertragung eigenverantwortlicher Einzelaufgaben – Coaching durch internen Mitarbeiter als „Pate“ oder bei Führungskräften durch externe Berater
Quelle: Eigene Darstellung.
3 Der Nürnberger Trichter als Auslaufmodell Anfang des 20. Jahrhunderts galt Wissen als objektiv, d. h., unabhängig vom Lernenden war der Lehrende in der Rolle des Aufbereiters und Vermittlers von Informatio-
320
Ulrich Sommer und Ala Schönberger
nen. Kognitive Prozesse beim Lernenden wurden ausgeklammert, Lernerfolge sollten durch Belohnung bzw. Bestrafung erzielt werden. Lernen fand – und findet leider z. T. auch heute noch – in Form des klassischen Konditionierens statt. Bekanntestes Beispiel für diesen in der Lerntheorie so bezeichneten Behaviorismus, in dem Lernen als Veränderung von Verhaltensweisen verstanden wurde, ist das berühmte Hundeexperiment von Iwan Pawlow (Pawlow 1926, S. 15 ff.), bei dem bestimmte Reize (Strafe oder Belohnung) gewünschte Reaktionen auslösen. Lernen stellte sich so als eine Art Blackbox dar, bei dem der Lernstoff dem Lernenden „eingetrichtert“ (Abb. 1) wird, ohne dass dieser einen eigenen Beitrag zu leisten hat. Es gilt, das eingetrichterte Wissen aufzunehmen und nach Auslösung bestimmter Reize wiederzugeben. Dieser – zwar scherzhaft – benutzte Vergleich für eine Lehrmethode hat sich viele Jahre als die vorherrschende Methode im Bildungsbereich (Aus- und Fortbildung) behauptet.
Abb. 1: Der Nürnberger Trichter Quelle: © puckillustrations/Fotolia.com.
So finden sich Elemente dieser Methode bis Ende der 60er Jahre in Lernangeboten in Form von programmierten Instruktionen, aber auch teilweise heute noch in computer-based trainings (CBTs) bzw. web-based trainings (WBTs). Computer-based training bezeichnet Lernprogramme, die per PC im Selbststudium – ohne Verbindung zum Internet – durchgearbeitet werden können. Diese wurden Anfang der 80er Jahre auf Disketten bzw. CD-ROMs abgespeichert und sind i. d. R. mit Funktionen zur Lernkontrolle verbunden. Beim web-based training werden Lerninhalte im Internet und/oder im Intranet zum Selbststudium zur Verfügung gestellt. Zutreffend ist allerdings auch, dass für die Aufnahme bestimmter Informationen rezeptives Wissen durchaus angebracht ist. Als Beispiele sind das Lernen von Vokabeln und auch Rechenvorgänge zu nennen.
Der Nürnberger Trichter ist out!
321
4 Die konstruktivistische Wende im Bildungsbereich 4.1 Von der Informationsaufnahme zum entdeckenden Lernen Wie oben ausgeführt, sind die Anforderungen der beruflichen Praxis nicht mehr mit den Lehr- und Lernmethoden aus dem vorigen Jahrhundert zu erfüllen. Lernen ist kein Prozess der reinen Informationsaufnahme mehr, sondern findet situationsabhängig zunehmend im Austausch zwischen Lehrenden und Lernenden sowie unter den Lernenden statt. Der Lernende selbst und dessen innerlicher Lernprozess stehen im Zentrum. Beschleunigt wird dieser Prozess durch die elektronischen Medien, die einen deutlich erweiterten Zugriff auf Wissensbestände ermöglichen. Nicht nur auf die Lernenden, sondern insbesondere auch auf die Lehrenden kommen neue Aufgaben und ein verändertes Rollenverständnis zu. Während beim rezeptiven Wissen der Lernstoff vorgegeben und vom Lernenden übernommen wird, gilt es nunmehr, den Lehrinhalt selbstständig zu „entdecken“. Das bedeutet, dass der Lernende selbst Informationen aufbereitet und daraus Regeln ableiten muss, um Problemlösungen zu finden und dadurch neues Wissen zu generieren. Der Lehrende übernimmt bei diesem Prozess die Entwicklung realitätsnaher Aufgabenstellungen sowie die Rolle eines Unterstützers bei der Recherche und Nutzung von Informationen zur Lösung der Aufgabenstellung. Entdeckendes Lernen erfordert natürlich Kompetenzen, um aktives Lernen zu fördern. Wichtige Kompetenzen dazu sind u. a. eine Problemlösefähigkeit, die den Lernenden befähigt, aus den empfangenen Informationen den Lernstoff selbstgesteuert zu konstruieren. Eine weitere wichtige Kompetenz stellt die Transferfähigkeit dar, um „trägem“ Wissen entgegenzuwirken. Diese beruht auf induktivem Lernen, bei dem der Lernende aus speziellen Sachverhalten letztlich Verallgemeinerungen treffen kann. Diese Fähigkeit ist gerade im Steuerrecht ausgesprochen nützlich, da die vielen Detailregelungen nicht selten den Blick für eine – evtl. – dahinterstehende Konzeption verdecken. Datenbanken sind da sicherlich hilfreich, können aber den eigentlichen Lernprozess und einen nachhaltigen Lernerfolg nicht ersetzen.
4.2 Prozessmerkmale des Lernens aus konstruktivistischer Sicht 4.2.1 Die Vielfalt der Lernwege Wenn Hören, Sehen, Reden und Anwenden zusammenkommen, dürfte der Lernerfolg insgesamt optimal sein. Es ist jedoch wahrscheinlich, dass Lernende eine Präferenz für einen bestimmten Lernweg haben. Von daher ist es sinnvoll, das Lehrmaterial so aufzubereiten, dass die Lernenden mehrere Lernwege beschreiten und vor allem die Lernkanäle auswählen können, die ihnen jeweils am besten liegen.
322
Ulrich Sommer und Ala Schönberger
Diese Zusammenhänge dürften in der Zukunft ein größeres Gewicht erlangen, da in den Bildungsplänen bereits für die Grundschule mehr Wert auf selbstgesteuertes Lernen gelegt wird. Von daher kommen auf Hochschulen und Weiterbildungsveranstalter in naher Zukunft Studierende/Teilnehmer mit veränderten Erwartungen an Lehre und Stoffpräsentation zu.
4.2.2 Die einzelnen Prozessmerkmale Wenn aus konstruktivistischer Sicht erfolgreiches Lernen durch ein abgestimmtes Zusammenwirken zwischen Lehrenden und Lernenden gekennzeichnet ist, stellt sich Lernen als ein aktiver, konstruktiver, selbstgesteuerter, situativer und sozialer Prozess dar (Abb. 2). Motivation und Interesse des Lernenden führen dazu, dass sich der Lernende aktiv beteiligt. Allerdings muss sich der Lehrende dabei auf die Rolle eines betreuenden Dozenten „zurückziehen“, damit der Lernende sich aktiv an der Generierung von Wissen zur optimalen Bearbeitung vorgegebener Aufgabenstellungen beteiligen kann. Dabei findet durch die Transformation der Informationen auf die Aufgabenstellung ein konstruktiver Prozess statt, da die Lernenden mit ihren Vorkenntnissen, den Recherchen und der Diskussion mit anderen Lernenden multiple Perspektiven erfahren. Der soziale Prozess bedeutet letztlich Teamarbeit durch ein Lernen in der Gruppe.
situativer Prozess sozialer Prozess
aktiver Prozess Lernen ist ein … selbstgesteuerter Prozess
emotionaler Prozess konstruktiver Prozess
Abb. 2: Prozessmerkmale des Lernens Quelle: Hofele 2009, S. 35.
Der Nürnberger Trichter ist out!
323
Wenn man sich an eigene Lernsituationen, z. B. vor Prüfungen wie der Diplomprüfung oder der Vorbereitung auf das Steuerberaterexamen, erinnert, ist sofort evident, dass Lernen im besonderen Maße auch ein emotionaler Prozess ist. Negative Emotionen wie Angst, Stress oder Überforderung sind beim Lernen kontraproduktiv. Es gilt eine Lernumgebung zu gestalten, die die Motivation und Freude am Lernen positiv unterstützt (Mandl/Reinmann 2006, S. 613 ff.). In einem solchen Umfeld gelingt auch selbstgesteuertes Lernen, da von einer intrinsischen Motivation ausgegangen werden kann. Seit Ende der 80er Jahre werden dazu Konzepte zur Gestaltung von Lernumgebungen bereitgestellt (Issing/Klimsa 2009, S. 301).
5 Verändertes Rollenverständnis von Lehrenden und Lernenden Die Rolle des Lehrenden verändert sich im Umfeld einer „Ermöglichungsdidaktik“ (Hess 2010, S. 58 ff.) natürlich auch. Die wichtigste Aufgabe des Lehrenden wird die optimale Förderung der Selbststeuerung der Lernenden. Das bedeutet nicht, dass sich die Lehrenden auf eine Moderation im Lernprozess beschränken, sondern – wenn erforderlich – auch durch eigene Beiträge den Lernerfolg erst ermöglichen. Instruktion durch den Lehrenden und (Re-) Konstruktion durch den Lernenden schließen sich daher nicht aus (Hess 2010, S. 60). Wie die Erfahrung zeigt, besteht allerdings eine Diskrepanz zwischen Wunsch und Wirklichkeit. Selbstorganisierte Lernprozesse sind zeitintensiv und damit – zumindest vordergründig – auch kostenintensiv. Sehr deutlich zeigt sich dies bei den gestuften Bachelor- und Master-Studiengängen aufgrund der Bologna-Bildungsreform (Sommer 2013, S. 2361 ff.). Zu begrüßen ist der größere Praxisbezug der Lerninhalte, mit dem ein Kernziel von Bologna, nämlich die Employability (Berufsbefähigung), erreicht werden soll. Andererseits wird durch die Modularisierung jeder einzelnen Lehrveranstaltung mit vordefinierten Lernzielen und zu erreichenden Wissensbeständen selbstgesteuertes Lernen wenn nicht verhindert, so doch aber wenig gefördert. Nicht zuletzt die Proteste der Studenten haben dazu geführt, dass sinnvolle Korrekturen vorgenommen worden sind. Wenn „vorgekautes“ Wissen 40 Stunden oder mehr in der Woche als sog. workload von den Studierenden zu konsumieren ist, erlebt der Nürnberger Trichter vielleicht eine neue Blütezeit. Folgerichtig streben rund 80 % der Bachelor-Absolventen an Universitäten und über 50 % der Absolventen von Bachelor-Studiengängen an Fachhochschulen den Master-Abschluss an. Die ursprünglich mit der Bologna-Studienreform angestrebte Studienzeitverkürzung erscheint damit fraglich. Und in der Tat darf für geeignete Absolventen der Bachelor-Abschluss keine Sackgasse bleiben. Wenn Bildung unsere wichtigste Ressource ist, muss qualifizierten jungen Menschen der Weg für vertie-
324
Ulrich Sommer und Ala Schönberger
fende Studiengänge offenbleiben. Kreativität und Innovation entstehen u. a. durch eine intensive Auseinandersetzung mit vorhandenen Theorien, die zu hinterfragen sind, um evtl. zu neuen Erkenntnissen zu gelangen. Dieser Prozess wiederum benötigt Zeit, damit der Lernende auch tatsächlich selbstorganisierte Handlungsfähigkeit erreichen kann. Diese Zusammenhänge gelten aber nicht nur für die Ausbildung, sondern im besonderen Maße auch für die Weiterbildung. Bei gelungenen Fortbildungsveranstaltungen ist ein ausgesprochen fruchtbarer Austausch zwischen den Teilnehmern mit ihren Praxiserfahrungen und dem Dozenten oder Trainer als Anleiter für eigene Problemlösungskompetenz zu beobachten. Wenn der Lehrende dazu noch über fundiertes Fachwissen verfügt, das er für die Teilnehmer in entsprechenden Fragestellungen aufbereitet hat, ist ein nachhaltiger Lernerfolg nahezu garantiert. Lehren und Lernen stellen sich somit als ein Entwicklungsprozess dar, bei dem insbesondere die Lehrenden die Studierenden als Lernende begreifen sollten, die selbständig aktiv oder sogar unabhängig sind. Der Frontalunterricht, den viele Dozenten aus ihrer eigenen Lernbiografie gut kennen, gibt ihnen eine Sicherheit, die sie nicht aufgeben möchten. Nach der hier vertretenen Auffassung stellen Veränderungen des eigenen Lehrverhaltens Herausforderung und Anreiz zugleich dar. In Anlehnung an Böss-Ostendorf/Senft durchlaufen Dozenten typische Entwicklungsphasen, in denen sie das Lehren lernen (Böss-Ostendorf/Senft 2010, S. 17–19). Die nachfolgende Tabelle gibt einen Überblick über die fünf Entwicklungsphasen eines Dozenten. Tab. 4: Die fünf Entwicklungsphasen eines Dozenten Phase 1: „Hauptsache überleben“
Der Lehr-Neuling ist in dieser Phase mit sich selbst beschäftigt. Die Akzeptanz durch die Studierenden ist dabei ein wesentlicher Aspekt.
Phase 2: „Es geht nur um den Stoff.“
In dieser Phase dreht sich alles um den dozentenzentrierten Informationstransfer. Der Stoff, weniger die Person des Dozenten, steht im Vordergrund.
Phase 3: „Hört mir denn keiner zu?“
Die starke Konzentration auf den Stoff führt i. d. R. zu einem Aufmerksamkeitsverlust. Nimmt der Dozent dies bewusst wahr, kann er die Fixierung auf seine Person aufgeben.
Phase 4: „Was braucht ihr zum Verstehen?“
In dieser Phase richtet sich der Dozent mehr an den Bedürfnissen der Lernenden aus. Im Vordergrund steht nicht so sehr die Vermittlung einer bestimmten Stoffmenge sondern die Qualität der eigenen Lehre.
Phase 5: „Das braucht ihr, um selbst darauf zu kommen.“
In dieser Phase wird der Lehrende zum Coach, der die Studierenden auf dem Weg zum entdeckenden Lernen unterstützt. Methodenvielfalt und sinnvoller Medieneinsatz sind für diese Phase kennzeichnend.
Quelle: In Anlehnung an Böss-Ostendorf/Senft, 2010.
Der Nürnberger Trichter ist out!
325
6 Innovative Formen der Aus- und Fortbildung in den steuerberatenden und wirtschaftsprüfenden Berufen 6.1 Entwicklung unterschiedlicher Lernformen Wenn es zutrifft, dass sich Lernende entsprechende Lerninhalte über verschiedene Kanäle aneignen, also durch Hören (Vortrag, Diskussion), andere, wenn sie den Lernstoff visuell präsentiert bekommen (Übersichten, Schaubilder, Grafiken), andere wiederum, wenn sie sich aktiv mit dem Lernstoff auseinandersetzen können, z. B. durch Handeln (Projektarbeit, Ausprobieren) oder durch Lesen (Texte, Lehrbuch, Skript), dürfte es wahrscheinlich sein, dass Einzelne einen bestimmten Lernweg besonders bevorzugen. Von daher ist es sinnvoll, das Lernmaterial so aufzubereiten, dass die Lernenden mehrere Lernwege beschreiten und vor allem die Kanäle auswählen können, die ihnen jeweils am besten liegen (Sommer 2012, S. 7 ff.). Es stellt sich die Frage, ob neben den traditionellen Seminaren zu aktuellen Steuerrechtsänderungen zukünftig nicht vermehrt neue Formen der Weiterbildung an Bedeutung gewinnen. Zu denken ist beispielsweise an Interaktive, multimediale Lernprogramme, Bildungs-TV oder Planspiele. Gerade das Angebot von Lernprogrammen für Steuerberaterkanzleien ist sehr umfangreich, allerdings bisher überwiegend für Windows- und Office-Anwendungen konzipiert (Herzog et. al. 1993, S. 98 f.). Dagegen ist der Markt für qualitativ hochwertige CD-basierte fachliche Fortbildung auf dem Gebiet des Steuerrechts noch sehr entwicklungsfähig. Die bisher am Markt vorhandenen Programme sind zu statisch ausgerichtet und bieten keine oder kaum Möglichkeiten zur Interaktion. Um hier qualitative Verbesserungen zu schaffen, ist es sinnvoll über webbasierte Lernformen den Lernstoff multimedial aufzubereiten und so eine aktive Kommunikation zwischen Lernenden und Lehrenden zu erreichen.
6.2 eLearning als alternative Lehr- und Lernform 6.2.1 Begriff des eLearning Der Einsatz neuer Medien im Bildungsbereich wird häufig als eLearning bezeichnet. Bei genauer Betrachtung zeigt sich jedoch eine große Breite dieser Begriffsverwendung. So wird z. T. bereits eine E-Mail-Betreuung oder die Einstellung von Lehrmaterial auf einer Plattform als eLearning bezeichnet (Beyer/Sommer 2002, S. 1782 ff.). eLearning im hier verwendeten Sprachgebrauch orientiert sich an der Definition von Issing, und Klimsa die eLearning wie folgt definieren: „eLearning umfasst alle
326
Ulrich Sommer und Ala Schönberger
Formen von Lernen, bei denen digitale Medien für die Distribution und Präsentation von Lernmaterialien einschließlich der Unterstützung zwischenmenschlicher Kommunikation in Lernprozessen zum Einsatz kommen“ (Issing/Klimsa 2002, S. 14). Der Einsatz von eLearning im Bereich der Aus- und Fortbildung ist in verschiedenen Formen denkbar, da – wie oben ausgeführt – die Nutzung unterschiedlicher Lernkanäle einen nachhaltigen Lernerfolg sichert. Als ausschließlich virtuelle eLearning-Konzepte (Bachmann et al. 2002, S. 95) sind zu nennen: – Virtuelle Konferenzen – Virtuelle Seminarveranstaltungen – Online-Kurse. Über virtuelle Diskussionsplattformen (Foren, Chats) besteht dabei die Möglichkeit mit anderen Nutzern über den Lernstoff und dessen Anwendung in der Praxis zu diskutieren und somit das erlernte Wissen zusätzlich zu vertiefen. Dadurch ist nach der eigentlichen Fortbildung ein Support über einen längeren Zeitraum möglich. Durch die Nutzung unmittelbar am Arbeitsplatz (Internetzugang vorausgesetzt) hat der Anwender jederzeit Zugriff auf alle Lerninhalte, kann den Lernstoff entsprechend seiner Bedürfnisse aufrufen und an seinen Lernrhythmus angepasst abarbeiten. Über die fachliche Fortbildung erwerben bzw. erweitern insbesondere Mitarbeiter die Fähigkeit zum Selbstlernen, eine wichtige Voraussetzung für den Erfolg in der Wissensgesellschaft. Die online bearbeiteten Lernkontrollen mit unmittelbar anschließender Auflösung verstärken neben den Chats die Interaktivität des eLearnings. Eine Vernetzung findet ebenso durch die parallele Nutzung des Vortrags, des Skripts sowie der Übersichten, die ausgedruckt werden können, statt. Insoweit entsteht durch die Nutzung des eLearnings ein erheblicher Mehrwert gegenüber dem Studium eines herkömmlichen Buches oder Seminarskripts (Euler 2000, S. 60).
6.2.2 Blended-Learning Um eine einseitige Betonung einer bestimmten Lernform zu vermeiden, bietet es sich an, die jeweiligen Vorteile der einzelnen Lernformen miteinander zu verknüpfen, damit möglichst viele Lernkanäle stimuliert werden und somit der Lernerfolg letztlich optimiert wird. Wenn Elemente beider Konzeptionen integrativ verbunden werden, handelt es sich um das sog. Blended-Learning, das die Vorteile von Präsenzveranstaltungen mit denen des Online-Lernens „vermischt“ (Jahnke 2008, S. 604 ff.). Blended Learning bezeichnet Lehr- bzw. Lernkonzepte, die eine didaktisch sinnvolle Verknüpfung traditioneller Lehrmethoden mit virtuellem bzw. Online-Lernen auf der Basis moderner Informations- und Kommunikationsmedien anstreben. Blen-
Der Nürnberger Trichter ist out!
327
ded Learning stellt sich somit als Methodenmix von eLearning-Elementen und Präsenzveranstaltungen dar (Jahnke 2008, S. 604 ff.). Durch diese Verknüpfung können Anreize zur Nutzung der verschiedenen Lernkanäle geschaffen und dadurch der Lernerfolg optimiert werden. Denkbar ist in einem konkreten Lernprozess die nachfolgende Vorgehensweise (Tab. 5): Tab. 5: Vorgehensweise eines Lernprozesses 1. Schritt:
Ein vorgegebenes Lernprogramm/Seminarstoff wird am PC durchgearbeitet, wobei bereits Lernkontrollen mit Selbst- oder Fremdkontrolle vorgesehen sind. Ebenso steht der Autor bzw. ein Redaktionsteam über Chat bzw. Forum für Fragen i. S. eines Tutorings zur Verfügung.
2. Schritt:
Besuch einer Präsenzveranstaltung (Seminar/Workshop) zur Vertiefung bzw. Anwendungsumsetzung mit weiteren Aufgaben.
3. Schritt:
Die sich aus Schritt 1 und 2 möglicherweise ergebenden Fragestellungen werden über Online-Diskussionsforen oder (bei entsprechender Nachfrage) über weitere, aufbauende Präsenzarbeitsgruppen bearbeitet.
4. Schritt:
Ein abschließendes Element kann ein entsprechender Abschlusstest (Evaluation) oder auch eine individuell ausgestaltete Praxisbegleitung in Form eines Coachings bilden.
Quelle: Eigene Darstellung.
Eine solche systematische Vorgehensweise bietet sich vorrangig für die Ausbildung von Mitarbeitern an. Denkbar ist aber auch, dass Teile von Inhalten zur Vorbereitung auf die Prüfung zum Steuerfachwirt bzw. zum Steuerberater oder Wirtschaftsprüfer in dieser Form vermittelt werden. Selbstverständlich erfordert Blended-Learning eine hohe Lerndisziplin und Leistungsbereitschaft der Teilnehmer, da für den Erfolg höhere Selbstlernaktivitäten erforderlich sind als bei reinen Präsenzveranstaltungen. Da diese üblicherweise in Form eines reinen referentenzentrierten Frontalunterrichts erfolgen, ist durch den Methodenmix ein höherer Lern- und Behaltenserfolg zu erzielen (Häfele/Maier-Häfele 2012).
6.2.3 Vorteile des Einsatzes von eLearning Wichtige Vorteile von eLearning sind eine 24-Stunden-Verfügbarkeit direkt am Arbeitsplatz, zu Hause oder unterwegs sowie die Möglichkeit, den Lernstoff in einem individuellen Lernrhythmus aufzunehmen. Charakteristisch für diese Lernform ist zumeist die Kombination von Stoffvermittlung und interaktiven Elementen, z. B. Selbsttests. Zusammenfassend lassen sich vor allem folgende Vorteile des eLearning nennen: – Zeitersparnis durch den Wegfall von Reisezeiten – Kostenersparnis durch den Wegfall von Ausfallzeiten und Reisekosten
328
– – – – – –
Ulrich Sommer und Ala Schönberger
24 Stunden Verfügbarkeit direkt am Arbeitsplatz, von zu Hause oder unterwegs Skripte und Charts zum Download zur Vor- und Nachbearbeitung Aufnahme des Lehrstoffes nach individuellem Lernrhythmus und Lerntempo Interaktion mit anderen Nutzern via Chats, Forum, Blackboard Lernfortschrittskontrolle durch Online-Lernkontrollen und Feedback Schnelle Umsetzung von Änderungen und zeitgerechter Aktualisierung.
So unterscheidet Vaughan bezüglich der Vorteile von Blended-Learning als einer Form von eLearning zwischen verschiedenen Perspektiven (Vaughan 2007). Aus Sicht der Studierenden lassen sich die Vorteile eines Blended-LearningArrangements in zwei Kategorien einteilen: Flexibilität und Lernerfahrung. Von Lehrenden werden vor allem erweiterte Interaktionsformen sowie zeitliche Flexibilität als vorteilhaft empfunden. Hochschulleitung erwartet positive Auswirkungen von Blended-Learning-Angeboten, die von der Positionierung als innovative Bildungseinrichtung über die Erschließung neuer Zielgruppen in der gezielten beruflichen Weiterbildung bis hin zu verbesserter Ressourcenauslastung und deutlichen Kostenersparnissen reichen (Vaughan 2007, S. 81 ff.).
7 Angebote computergestützter Fortbildung in der Steuerberatung und Wirtschaftsprüfung Während in vielen Branchen eLearning als Bestandteil von Weiterbildungsangeboten bereits Standard geworden ist, beschäftigen sich die steuerberatenden Berufe erst seit etwa 14 Jahren mit Konzepten zur multimedialen Weiterbildung. Zu den ersten Anbietern über das Internet gehört seit Januar 2001 die Gesellschaft für Fortbildung im Steuerrecht (www.gfs-fernkurse.de), die sich insbesondere mit der Klausurvorbereitung für die Steuerfachwirte- und Steuerberaterprüfung beschäftigt. Im Herbst 2001 folgte als erster berufsständischer Anbieter die TeleTax GmbH, die als gemeinsame Gesellschaft der DATEV eG und des Deutschen Steuerberaterverbandes eine erste multimedial aufbereitete CD-Rom mit steuerlichen Inhalten veröffentlichte (www.teletax.de). Im Februar 2002 folgte die DWS-Steuerberater-Online GmbH (www.dws-steuerberater-online.de), ein Tochterunternehmen des DWS-Instituts, das unter dem Dach der Bundessteuerberaterkammer firmiert, die ein erstes echtes interaktives Weiterbildungsangebot auf den Markt brachte. Inzwischen haben auch einige Verlage, u. a. der NWB Verlag, der Beck-Verlag und der Haufe-Verlag internetbasierte Fortbildungsangebote für Steuerberater konzipiert. Das Angebot von DWS-Online verknüpft einzelne Elemente miteinander und führt damit zu optimalen Lernergebnissen.
Der Nürnberger Trichter ist out!
329
Die Elemente sind z. B.: – Videovortrag, der in einzeln aufrufbare Unterkapitel unterteilt ist. – Powerpoint-Präsentationen synchron zum Videovortrag. – Lernkontrollen als Übung, die online am PC ausgeführt werden können. Die Musterlösung kann unmittelbar nach der Bearbeitung angeklickt werden; evtl. Fehler werden angezeigt. Durch Rückgriff auf den Vortrag werden das Beispiel und die Lösung vom Vortragenden erläutert. – Eine Zusammenfassung der am meisten hinterfragten und diskutierten Aspekte in einem FAQ-Modul. – Ein Forum (also ein interaktives schwarzes Brett) für den Informationsaustausch zwischen den Nutzern (erfahrungsgemäß ein sehr wertvolles Instrument, mit dem an spezifischen Themen interessierte Personen miteinander in Kontakt treten können). – Ein Chatroom zum Live-Austausch mit anderen Lernenden. – Ein direkter E-Mail-Kontakt für dennoch weitere notwendige Hilfestellungen. Skripte und Charts stehen für den Nutzer als Download zur Verfügung und können so zeitgleich mit dem Videovortrag individuell bearbeitet werden. Inzwischen wurde das Angebot zielgruppenorientiert, d. h., entsprechend der unterschiedlichen Bedürfnisse der Berufsangehörigen und der Mitarbeiter, entwickelt. Ein völlig neues und außerordentlich innovatives Konzept stellt der berufsbegleitende Studiengang „Master in Taxation“ dar, der als Kooperation zwischen dem Zentrum für Business and Law (ZBL) an der Universität Freiburg und der Dualen Hochschule Baden-Württemberg Villingen-Schwenningen konzipiert wurde (www. taxmaster-freiburg.de). Ergebnis ist ein integriertes Studium, das akademische Weiterbildung mit der Vorbereitung auf die Steuerberaterprüfung verbindet. Aufbauend auf den Erfahrungen mit der Durchführung dualer Studiengänge werden die Vorteile der klassischen theoretisch und fachlich fundierten universitären Ausbildung mit der Vermittlung praxisnaher Lehrinhalte und der Anwendung neuer und zeiteffizienter Lehr- und Lernmethoden kombiniert.
8 Fazit Die Steuerberater als Organe der Steuerrechtspflege schulden ihren Mandanten eine kompetente und fachgerechte Beratung. Deshalb sind regelmäßige Fortbildungen erforderlich, um auf die sich stets ändernden Rahmenbedingungen zu reagieren (Grürmann/Wanagas 2010, S. 1400 ff.). Wachsende Komplexität des Steuerrechts, zunehmende Konkurrenz und geänderte Mandantenansprüche, sowie Haftung des Steuerberaters führen dazu, dass ein
330
Ulrich Sommer und Ala Schönberger
Stillstand nie erreicht und ein Ausruhen auf bisherigen Leistungen niemals möglich ist (Grürmann/Wanagas 2010, S. 1400 ff.). Zustand des deutschen Steuerrechts erfordert eine permanente Fortbildung Berufsangehörigen sowie deren Mitarbeiter. Daran werden auch die angedachten Reformen nichts ändern. Um die Flut an Informationen, die für die tägliche Beratungspraxis von Bedeutung ist, bewältigen zu können, ist eine systematische Vorgehensweise erforderlich. Abhängig von der Vorbildung und dem Aufgabengebiet sollte in den Kanzleien eine Personalentwicklungsstrategie umgesetzt werden, die auch unter wirtschaftlichen Gesichtspunkten zu optimalen Ergebnissen führt. Dazu bieten sich besonders webbasierte Angebote an, da diese – bei entsprechender Lerndisziplin der Anwender – zu wirtschaftlich beachtlichen Zeit- und Kostenersparnissen führen. Die Erfahrungen in der Praxis zeigen aber auch, dass die besten Ergebnisse durch eine Kombination von Online-Lernen und Präsenzveranstaltungen erzielt werden. Webbasiertes Lernen ist somit kein Ersatz für Präsenzveranstaltungen, sondern stellt eine geeignete Ergänzung zur Erreichung eines optimalen Lernerfolges dar (Mayerhöfer 2002, S. 52 ff.). 2014 hat das MMB-Institut für Medien- und Kompetenzforschung E-LearningExperten um ihre Prognose zu künftigen Szenarien des digitalen Lernens gebeten. Die mehrheitliche Meinung der Befragten lautet: „Wenn sich ein Lernangebot an die Bedürfnisse des Lerners anpasst, sollte dieser dabei auch eine aktive Rolle spielen“ (MMB 2014, S. 2). Blended-Learning gilt dabei nach wie vor als wichtigste Lernform der nächsten drei Jahre. Mit 99 % erreicht diese Lernform einen absoluten Spitzenwert. „Virtuelle Klassenräume“ rangieren mit 85 % auf dem zweiten Platz. Auch „Web Based Trainings“ werden mit 77 % als weitere erfolgreiche Lernform angesehen. Das Lernen mit „Simulationen“ sehen mehr als die Hälfte der Befragten (56 %) als künftig erfolgreich (MMB 2014, S. 2–8). Wenn der Berufsstand die sich aus der Nutzung neuer Medien ergebenden Vorteile erkennt und diese in ein systematisches Personalmanagement einbezieht, wird er sich engagierten Nachwuchskräften als attraktives Berufsfeld mit vielen weiteren Entwicklungsmöglichkeiten präsentieren.
Literaturverzeichnis Bachmann G./Haefeli, O./Kindt M. (2002): Campus 2002. Die Virtuelle Hochschule in der Konsolidierungsphase, Münster 2002. Beyer, I./Sommer, U. (2002): E-Learning in der Steuerberatung. Eine Alternative zur herkömmlichen Fortbildung?, in: DStR 2002, S. 1782–1784. BITKOM-Presseinfo (2011): Wikipedia ist das meistgenutzte Lexikon. URL: http://www.bitkom.org/ files/documents/BITKOM_Presseinfo_Wikipedia_13_01_2011.pdf, Zugriff: 15.02.2015.
Der Nürnberger Trichter ist out!
331
Böss-Ostendorf A./Senft H. (2010): Einführung in die Hochschul-Lehre: Ein Didaktik-Coach, Opladen/Farmington Hills 2010. BMBF(a) (o.J.): Der Bologna-Prozess – die Europäische Studienreform. URL: www.bmbf.de/de/3336. php, Zugriff: 15.02.2015. BMBF(b) (o.J.): Lernen im Lebenslauf. URL: www.bmbf.de/de/411.php, Zugriff: 15.02.2015. BStBK (2012): Verlautbarung der Bundessteuerberaterkammer zur Qualitätssicherung in der Steuerberaterpraxis vom 27.03.2012, URL: https://www.bstbk.de, Zugriff: 15.02.2015. Euler, D. (2000): High Teach durch High Tech? Überlegungen zur Neugestaltung der Universitätslehre mit Hilfe der neuen Medien, in: Scheffler W./Voigt K.-I. (Hrsg.), Entwicklungsperspektiven im Electronic Business. Grundlagen – Strukturen – Anwendungsfelder, Wiesbaden 2000. Grürmann, H./Wanagas, S. (2010): Die gesetzliche Pflicht zur Fortbildung für Steuerberater und die Fortbildungsempfehlungen der Bundessteuerberaterkammer, in: DStR 27/2010, S. 1400–1403. Jahnke, I. (2008): E-Learning, Web 2.0 & Co. Der Einsatz neuer Medien in der Hochschullehre, in: Forschung & Lehre 9/2008, S. 604–606. Häfele, H./Maier-Häfele, K. (2012): 101 eLearning Seminarmethoden. Methoden und Strategien für die Online- und Blended-Learning-Seminarpraxis, 5. Auflage, Bonn 2012. Herzig, N. (2008): Analyse der Steuerberateraus- und -fortbildung in Deutschland, Köln Verlag 2008. Herzog, J./Herrmann, W./Meissner, T. (1993): Computergestütztes Lernen, DSWR 1993, S. 98–99. Hess, D. (2010): Dozenten und Trainer nach der konstruktivistischen Wende, in: Personalführung 11/2010, S. 58–62. Hofele, A. (2009): Konstruktivistische Lehrprinzipien in der Hochschullehre am Beispiel WebQuest, Furtwangen 2009. Hoffmann, E. (2003): Für eine Verbesserung der Didaktik in der Aus- und Fortbildung (angehender) Wirtschaftsprüfer, WPK-Mitteilungen 1/2003, S. 2–14. Issing, L. J./Klimsa P. (2009): Online-Lernen: Handbuch für Wissenschaft und Praxis, München 2009. Mandl, H./Reinmann, G. (2006): Unterrichten und Lernumgebungen gestalten, in: Krapp A./ Weidenmann B. (Hrsg.), Pädagogische Psychologie, 5. Auflage, Weinheim, S. 613–658. Mayerhöfer, A. (2002): Multimediales Lernen: Ergänzung, nicht Ersatz, in: Consultant 6/2002, S. 52–55. MMB-Trendmonitor II (2014): Weiterbildung und Digitales Lernen heute und in drei Jahren. Individuelles Lernen: Plädoyer für den mündigen Nutzer. Ergebnisse der Trendstudie MMB Learning Delphi 2014. URL: http://www.mmb-institut.de/mmb-monitor/trendmonitor/ MMB-Trendmonitor_2014_II.pdf. Zugriff: 15.02.2015. Pawlow J.P. (1926): Die höchste Nerventätigkeit (das Verhalten) von Tieren. Eine zwanzigjährige Prüfung der objektiven Forschung. Bedingte Reflexe. Sammlung von Artikeln, Berichten, Vorlesungen und Reden, 3. Auflage, München 1926. Rose, G. (1976): Verunsicherte Steuerpraxis, in: Hörstmann, F./Niemann, U./Rose, G. (Hrsg.), Steuerberater-Jahrbuch 1975/76, Köln, S. 41–85. Schwartz H./Thomas H. (2006): Mediation in Wirtschaftssachen – ein neues Tätigkeitsfeld für den Steuerberater, in: DStR 24/2006, S. 1060–1062. Sommer, U. (1993): Fortbildung des Steuerberaters – Bürde oder Anspruch?, in: DWSR 4/1993, S. 83–87. Sommer, U. (2003): Modernes Personalmanagement, in: Jasper Th./Mehrmann E./Wirtz, Th. (Hrsg.), Steuerberater Handbuch Kanzleimanagement, Loseblattwerk 1997/2003, Bonn 2003. Sommer, U. (2005): Qualitätssicherung durch Personalentwicklung, in: Datenverarbeitung, Steuer, Wirtschaft, Recht (DSWR), Zeitschrift für die Praxisorganisation, Betriebswirtschaft und Datenverarbeitung, Vol. 34, No. 1–2 (2005), S. 8–11. Sommer, U. (2012): Hat der Nürnberger Trichter noch eine Zukunft für innovatives Lehren und Lernen? in: 10 Jahre DWS-Online, Berlin 2012, S. 7–20.
332
Ulrich Sommer und Ala Schönberger
Sommer, U. (2013): Master-Studiengänge im Bereich Steuern und Wirtschaftsprüfung, in: DStR 2013, S. 2361–2364. Sommer, U. (2015): Steuerberatung 2020 – die zukunftsfähige Kanzlei. Mitarbeiterbindung durch systematische Personalentwicklung, DStR 2015, Heft 26, S. 1467–1472. Vaughan, N. (2007): Perspectives on Blended Learning in Higher Education. International Journal on E-Learning, Volume 6, Number 1, January 2007, S. 81–94. WPK (2006): Gemeinsame Stellungnahme der WPK und des IDW: VO 1/06 Zur Qualitätssicherung in der Wirtschaftsprüferpraxis, URL: http://www.wpk.de/uploads/tx_templavoila/VO_1-2006.pdf, Zugriff: 15.02.2015.
Petra Stellmach
17 Potenziale der Monte Carlo Simulation bei der Ergebnisplanung 1 Einleitung In betriebswirtschaftlichen Abhandlungen und Praktikerbeiträgen wird immer wieder auf die Monte Carlo Simulation als sinnvolles Instrument des Risikomanagements (Pedell 2004, S. 6; Gleißner/Schrei/Wolfrum 2009, S. 93) und der Planung verwiesen (Schäffer/Botta 2012, S. 10; Günther 2014, S. 225). Nach dem Studium dieser Literatur stellt sich dem interessierten Leser die Frage, wie die praktische Durchführung einer Monte Carlo Simulation konkret erfolgen soll und mit welchem Aufwand dieses Instrument verbunden ist. Beim Versuch, die Methode selbst anzuwenden, stößt man in der Regel sehr rasch auf Probleme bei der Umsetzung. So wird die eigenständige Rekonstruktion der Studienergebnisse durch das Fehlen von Detailinformationen sehr erschwert, wenn nicht gar unmöglich gemacht (Wengert/Schittenhelm 2013, S. 64) oder es werden lediglich Hinweise auf die Erfordernis von zusätzlichen Softwaretools, wie z. B. Crystal Ball von Oracle (Günther et al. 2009, S. 54; Gleißner/ Wolfrum 2011) oder @Risk von Palisade (Bleuel 2006), gegeben. Der vorliegende Beitrag versteht sich als ausführliche Anleitung zum Ausprobieren und Kennenlernen der Monte Carlo Simulation für Praktiker und Studierende. Dabei steht das Ziel im Vordergrund, das Instrument Monte Carlo Simulation anwenden zu können, seine Funktionsweise zu verstehen und mögliche Einsatzgebiete bewerten zu können. Die Komplexität der Simulation wird bewusst einfach gehalten und die Durchführung auf die Leistungsfähigkeit von Excel beschränkt, um den Aufwand in der Test- und Bewertungsphase möglichst gering zu halten. Im folgenden Kapitel zwei wird zunächst kurz die Funktionsweise der Monte Carlo Simulation erläutert. Um den betriebswirtschaftlichen Nutzen der Monte Carlo Simulation zu prüfen, wird anschließend im dritten Kapitel ein Modell erstellt sowie auf die Szenario-Technik im Rahmen der Ergebnisprognose eingegangen. Danach wird in Kapitel vier detailliert das Vorgehen bei der Monte Carlo Simulation beschrieben sowie die Ergebnisse der Monte Carlo Simulation mit den Ergebnissen der SzenarioAnalyse verglichen. Die Potenziale der Monte Carlo Simulation als stochastisches Instrument für die Ergebnisplanung werden in Kapitel fünf bewertet. Die Ausführungen schließen in Kapitel sechs mit einer kurzen Zusammenfassung der Ergebnisse.
334
Petra Stellmach
2 Funktionsweise der Monte Carlo Simulation Die Funktionsweise der Monte Carlo Simulation ist recht einfach erklärt. Ein Experiment mit unbestimmtem Ausgang wird sehr häufig wiederholt. Die Häufigkeiten der erzielten Ergebnisse werden danach ausgewertet. Schlussendlich kann man dann bestimmen, mit welcher Wahrscheinlichkeit ein bestimmtes Ergebnis mindestens erreicht bzw. unterschritten wird oder ein Ergebniskorridor/-intervall eintreffen wird. Derartige Simulationen sind in den Naturwissenschaften nötig, wenn ein Experiment z. B. auf Grund der Komplexität der Anwendung, der finanziellen bzw. technischen Möglichkeiten oder hoher Gefahren bei der Umsetzung nicht durchgeführt werden kann, das Ergebnis des Experiments aber dennoch von hoher Relevanz ist. Im Zusammenhang mit der Entwicklung der Atombombe wurde die Monte Carlo Simulation in den 40er Jahren des letzten Jahrhunderts vermehrt eingesetzt. Ihr Name wird daher insbesondere mit den Forschern Metropolis, Ulam, Fermi und von Neumann in Verbindung gebracht (Metropolis/Ulam 1949; Metropolis 1987). Eine notwendige Voraussetzung für eine Simulation, die die Wirklichkeit nachbilden will, ist die Abbildung derselben in einem mathematischen Modell. Modelle sind Nachbildungen von Systemen der Realität (Berens/Delfmann/Schmitting 2004, S. 21 f.). Für die Anwendung der Monte Carlo Simulation ist als weitere Voraussetzung notwendig, dass sich die Unsicherheit im Modell über Wahrscheinlichkeitsverteilungen beschreiben lässt (Poddig/Dichtl/Petersmeier 2008, S. 168). In diesem Fall spricht man von einem stochastischen Modell. Die Möglichkeiten der Computersimulation erleichtern das Experimentieren mit Modellen. Ziel einer Simulation ist es, das Modellverhalten unter experimentellen Bedingungen zu beobachten (Berens/Delfmann/Schmitting 2004, S. 128 f.). Ein bedeutendes betriebswirtschaftliches Einsatzgebiet der Monte Carlo Simulation ist in der Finanzwirtschaft zu sehen. Hier liegt der Schwerpunkt im Portfolio- und Risikomanagement. Im Vordergrund steht dabei der Value-at-Risk als zu schätzendes Risikomaß (Poddig/Dichtl/Petersmeier 2008, S. 167). Anhand der Verteilungsfunktion der Verluste wird der Value-at-Risk als die Schadenshöhe ermittelt, die mit einer bestimmten Wahrscheinlichkeit im Betrachtungszeitraum nicht überschritten wird (Gleißner 2011a, S. 138). Die Monte Carlo Simulation wird auch im Investment Banking genutzt, um die Robustheit einer Anlagestrategie zu überprüfen (Wüthrich 2010, S. 92). Weitere diskutierte betriebswirtschaftliche Anwendungsgebiete sind die Unternehmensplanung (Bleuel 2006), das Projektcontrolling (Makait 2012; Rohr/ Schaletzky 2014, S. 54), das Investitionscontrolling (Zhou/Kaiser/Holland 2007; Madlener/Siegers/Bendig 2009; Duscher/Meyer/Spitzner 2012), die Beteiligungsbewertung (Gleißner/Lenz/Tilch 2011) sowie die Principal Agent Theorie (Lindstädt 1997). Von besonderer betriebswirtschaftlicher Relevanz ist der Einsatz der Monte Carlo Simulation bei der Ergebnisprognose im Rahmen der Planung, da vielfach eine zunehmend hohe Unsicherheit bezüglich der zukünftigen Entwicklung besteht (Gleißner
Potenziale der Monte Carlo Simulation bei der Ergebnisplanung
335
2011b). Mit diesem Anwendungsschwerpunkt beschäftigt sich der vorliegende Beitrag im Folgenden.
3 Betriebswirtschaftlicher Modellbau und deterministische Ergebnisprognose 3.1 Ergebnisprognose unter Unsicherheit Im weiteren Verlauf dieser Abhandlung wird zur Unterstützung der Unternehmensplanung eine Ergebnisprognose unter Unsicherheit durchgeführt werden. Zur besseren Veranschaulichung der Potenziale der Monte Carlo Simulation wird zunächst eine deterministische Ergebnisprognose unter Einsatz der Szenario-Technik umgesetzt und bewertet. Anschließend wird in Kapitel vier die Ergebnisprognose unter Einsatz des gleichen Modells mit Hilfe der Monte Carlo Simulation abgebildet. Unabhängig von der Prognosemethode ist es zunächst erforderlich, ein mathematisches Modell über die Zusammenhänge der Einflussgrößen und der resultierenden Ergebnisgröße zu definieren. Die Ergebnisgröße soll das Bruttoergebnis vom Umsatz (gross profit on sales) und damit ein Saldo im Rahmen der Gewinn- und Verlustrechnung nach dem Umsatzkostenverfahren lt. § 275 Abs. 3 HGB sein. Berechnet wird das Bruttoergebnis, indem von den Umsatzerlösen die Herstellungskosten der zur Erzielung der Umsatzerlöse erbrachten Leistungen abgezogen werden (siehe Formel 1). Bruttoergebnis vom Umsatz = Umsatzerlöse – Herstellungskosten
(1)
Im folgenden Abschnitt werden die einzelnen Komponenten des Modells und die Zusammenhänge zwischen den Komponenten aufgeschlüsselt.
3.2 Modellaufbau und Zusammenhänge Die Umsatzerlöse sind netto zu betrachten. Damit sind Erlösschmälerungen, wie z. B. Rabatte oder Skonti beim Absatzpreis zu berücksichtigen (siehe Formel 2). Im vorliegenden Beispiel entsteht der Umsatzerlös nur durch den Verkauf von Waren. Umsatzerlöse = Absatzmenge · (Brutto-Absatzpreis – Rabatte – Skonti) = Absatzmenge · Netto-Absatzpreis
(2)
Die Herstellungskosten in der Definition des Bruttoergebnisses lt. HGB werden für die Ergebnisplanung in diesem Beispiel durch die geplanten Herstellkosten der kosten-
336
Petra Stellmach
rechnerischen Kalkulation ersetzt. Die Ermittlung der Herstellkosten erfolgt im Sinne der Vollkostenrechnung über Einzel- und Gemeinkosten als Summe aus Material- und Fertigungskosten (siehe Formel 3). Herstellkosten = Materialeinzelkosten + Materialgemeinkosten + Fertigungseinzelkosten + Fertigungsgemeinkosten
(3)
Die Unsicherheit besteht im vorliegenden Modell darin, dass die Absatzzahlen erfahrungsgemäß nicht genau prognostiziert werden können. Beeinflusst wird davon das Ergebnis über die Gemeinkostenverrechnung pro Stück. Die Schwankungsbreite der Absatzzahlen wird im Beispiel mit +/–10 % angenommen. In der betrieblichen Praxis können die Annahmen über die Schwankungsbreite beispielsweise aus Erfahrungswerten früherer Jahre abgeleitet werden.
3.3 Deterministische Ergebnisprognose Die Szenario-Analyse ist die einfachste Form der Ergebnisprognose bei Unsicherheit. Dazu werden zum erwarteten Normalfall (Normal-Case) die Ergebnisse des günstigsten Falls (Best-Case) und des ungünstigsten Falls (Worst-Case) berechnet, um einen Ergebniskorridor zu erhalten. Da bei dieser Szenario-Analyse drei feste Ergebnissituationen berechnet werden, ist diese Modell zur Ergebnisprognose deterministisch (Klein/Scholl 2011, S. 38). Der Begriff deterministische Prognose suggeriert, dass in dem Korridor zwischen Best- und Worst-Case das Ereignis mit Sicherheit eintritt. Dies muss allerdings nicht zwingend der Fall sein, da sich die zu berechnenden Szenarien alleine auf den Annahmen stützen, welche für das Modell getroffen wurden. In dem Beispielmodell ist dies die angenommene Schwankungsbreite in Höhe von 10 % für die Absatzzahlen. Die Modellrechnung geht von Einzelkosten pro Stück in Höhe von 1,– Euro für sowohl das Material als auch die Fertigung aus. Die Gemeinkosten betragen im Materialbereich 200,– Euro und im Fertigungsbereich 1.000,– Euro. Der Umsatzerlös pro Stück beträgt 7,– Euro. Die geplante Absatzmenge liegt bei 1.000 Stück. Auf Grund der getroffenen Annahme der Schwankungsbreite von +/–10 % bei den Absatzzahlen ergibt sich die Absatzmenge im Worst-Case mit 900 Stück und im Best-Case mit 1.100 Stück. In Tab. 1 sind die Berechnungen zu den Herstellkosten für die Szenarien detailliert dargestellt. Das zu erwartende Bruttoergebnis vom Umsatz liegt bei den gegebenen Annahmen des Modells in einem Korridor zwischen 3.300 und 4.300 Euro. Erwartet wird ein Bruttoergebnis in Höhe von 3.800 Euro (Normal-Case).
Potenziale der Monte Carlo Simulation bei der Ergebnisplanung
337
Tab. 1: Ergebnisplanung mit Szenarien
Pro Stück
Absatzmenge [Stück] Materialeinzelkosten [Euro] Materialgemeinkosten [Euro] Materialkosten [Euro] Fertigungseinzelkosten [Euro] Fertigungsgemeinkosten [Euro] Fertigungskosten [Euro] Herstellkosten [Euro] Umsatzerlöse [Euro] Bruttoergebnis gesamt [Euro] Bruttoergebnis pro Stück [Euro] Bruttomarge
1,00
1,00
7,00
Worst-Case
Normal-Case Best-Case
900 900 200 1.100 900 1.000 1.900 3.000 6.300 3.300 3,67 52,4 %
1.000 1.000 200 1.200 1.000 1.000 2.000 3.200 7.000 3.800 3,80 54,3 %
1.100 1.100 200 1.300 1.100 1.000 2.100 3.400 7.700 4.300 3,91 55,8 %
Quelle: Eigene Berechnungen.
Das Bruttoergebnis vom Umsatz muss grundsätzlich positiv sein, da mit dem Bruttoergebnis noch weitere im Unternehmen anfallende Kosten abgedeckt werden müssen. Hierzu zählen beispielsweise Kosten für den Vertrieb, die Verwaltung, die Finanzierung oder die Steuern. Als Kennzahl zur Bewertung des Bruttoergebnisses vom Umsatz eignet sich die Bruttomarge (gross profit margin). Sie setzt das Bruttoergebnis vom Umsatz ins Verhältnis zu den Umsatzerlösen (siehe Formel 4). Die Bruttomarge ist ein Maß für die Profitabilität und Rentabilität im operativen Geschäft (Erlen/Isaak 2015, S. 98). Bruttomarge = Bruttoergebnis vom Umsatz/Umsatzerlöse
(4)
Im vorliegenden Beispiel (siehe Tab. 1) werden mit der Ergebnisprognose die Bruttomargen in einem Intervall zwischen 52,4 % und 55,8 % ermittelt. In der Planung wird der Normal-Case, der innerhalb des Korridors liegt, berücksichtigt. Im Normal-Case beträgt die Bruttomarge 54,3 %. Die Differenz zwischen dem Worst-Case und dem Normal-Case beträgt im Beispiel 1,9 Prozentpunkte, zwischen dem Normal-Case und dem Best Case liegen 1,5 Prozentpunkte. Für die Planung ist durch diese einfache Simulation die Wirkung der Unsicherheit bei den Absatzahlen auf das Ergebnis transparent. In der Praxis liegen zu den Margen in der Regel Mindestforderungen der Geschäftsführung vor. Im vorliegenden Beispiel wird die Annahme getroffen, dass die Bruttomarge mehr als 53 % betragen muss, um die geforderte Rentabilität der Kapitalgeber erfüllen zu können. Mit dem Normal-Case wird die kritische Marge von 53 % übertroffen. Der Worst-Case unterschreitet die kritische Marge um 0,6 Prozentpunkte. Wenn die geforderte Bruttomarge von 53 % in vielen Fällen, d. h. mit einer hohen Wahrscheinlichkeit übertroffen werden würde, wäre dies ein wichtiges Indiz für die Belastbarkeit der Ergebnisplanung. Allerdings stößt hier die Planung mit Hilfe der
338
Petra Stellmach
einfachen Szenarien-Technik schnell an ihre Grenzen. Mit der Szenario-Analyse sind Aussagen zu Häufigkeiten von Ergebnissen an beliebigen Stellen innerhalb des Korridors zwischen Best- und Worst-Case nicht möglich. Mit Hilfe der Monte Carlo Simulation wird die Unsicherheit bei der Ergebnisplanung berücksichtigt. Um das Spektrum der Bruttoergebnisse mit Wahrscheinlichkeiten abbilden zu können, ist zunächst ein Wechsel von der deterministischen zur stochastischen Ergebnisprognose notwendig. In stochastischen Modellen können nur noch Wahrscheinlichkeiten zum Erreichen bestimmter Ergebnisse angegeben werden (Klein/Scholl 2011, S. 39). Das bereits bestehende Modell zur Prognose des Bruttoergebnisses vom Umsatz wird im folgenden Kapitel durch die Verwendung von Zufallszahlen zum stochastischen Modell und damit kann die Monte Carlo Simulation durchgeführt werden. Dies erfolgt mit dem Ziel, eine konkrete Wahrscheinlichkeit für das Erreichen einer Bruttomarge von mehr als 53 % angeben zu können.
4 Monte Carlo Simulation und Ergebnisinterpretation 4.1 Erzeugung von Zufallszahlen in Excel Zufallszahlen sind das Ergebnis eines Zufallsexperiments. Das Ergebnis eines Zufallsexperiments ist nicht vorhersehbar. Mit Hilfe einer Wahrscheinlichkeitsfunktion können Zufallsvariablen definiert werden, wenn die Zufallsereignisse stochastisch abbildbar sind (Schira 2012, S. 257). Bei der Erzeugung einer Zufallsvariable muss man daher immer eine Verteilungsannahme treffen. Eine Zufallsvariable kann zum Beispiel gleichverteilt oder normalverteilt sein. In Microsoft Excel 2010 (kurz: Excel) kann die Erzeugung von Zufallsvariablen grundsätzlich auf zwei Arten erfolgen. Unter dem Menüpunkt „Formeln“ wird „Funktion einfügen“ ausgewählt. Als erste Möglichkeit zur Erzeugung einer Zufallszahl findet sich hier die vom Begriff her passende Funktion „ZUFALLSZAHL“, mit der eine gleichverteilte reelle Zufallszahl zwischen 0 und kleiner 1 generiert werden kann. Bei einer gleichverteilten Zufallsvariable können alle Ergebnisse mit gleicher Wahrscheinlichkeit eintreten (Eckey/Kosfeld/Türck 2011, S. 112). Für jede Zelle eines Arbeitsblatts, die mit der Funktion „ZUFALLSZAHL“ gefüllt ist, wird in Excel bei jeder Neuberechnung des Arbeitsblatts automatisch eine neue Zufallszahl erzeugt. Da sich die Zufallszahlen bei jeder Neuberechnung ändern, eignet sich die Funktion „ZUFALLSZAHL“ nicht für den betriebswirtschaftlichen Modellbau. Die Ergebnisse sind durch die laufende Neuberechnung schwer zu kontrollieren und zu dokumentieren. Zudem stellt die Gleichverteilungsannahme bei der Erzeugung der Zufallsvariable eine starke Einschränkung dar. Anwendungsgebiete dieser Funktion im Zusammenhang mit der Monte Carlo Simulation liegen zum Beispiel in der nähe-
Potenziale der Monte Carlo Simulation bei der Ergebnisplanung
339
rungsweisen Bestimmung der Kreiszahl π. Simulationsbeispiele mit programmierten Excel-Tabellen lassen sind hierzu im Internet leicht finden. Die zweite Möglichkeit zur Erzeugung einer Zufallszahl findet sich in Excel im Hauptmenü unter dem Punkt „Daten“ und dort unter „Datenanalyse“ in der Ausprägung „Zufallszahlengenerierung“. Falls sich das Untermenü „Datenanalyse“ in Excel (am rechten Bildschirmrand) nicht finden lässt, muss zuvor im Hauptmenü unter „Menü“ und dort im Untermenü „Extras“ unter der Ausprägung „Add-Ins“ das Feld für die „Analyse-Funktionen“ aktiviert werden. Die Funktion „Zufallszahlengenerierung“ bietet in Excel eine Auswahl von Verteilungsannahmen. Neben der Möglichkeit zur Erzeugung einer gleichverteilten Zufallsvariable wird z. B. auch die Möglichkeit zur Nutzung einer normalverteilten Zufallsvariable angeboten. Dazu ist in der Funktion „Zufallszahlengenerierung“ die Verteilung der Zufallsvariablen unter der Auswahl „Standard“ auszuwählen. Es wird dann automatisch für die Parameter ein Mittelwert (μ) von Null und eine Standardabweichung (σ) von Eins vorgegeben. Folglich wird damit eine standardnormalverteilte Zufallsvariable erzeugt. Im vorliegenden Beispiel soll die Annahme gelten, dass sich die Unsicherheit in den Absatzzahlen annähernd durch eine Normalverteilung abbilden lässt. Durch Verwendung der Monte Carlo Simulation soll 1.000 Mal das Bruttoergebnis vom Umsatz erzeugt werden. Mit mehr als eine Mio. Zeilen und mehr als 16.000 Spalten je Arbeitsblatt sind in Excel die grundsätzlichen Voraussetzungen gegeben, auch deutlich mehr als 1.000 Simulationsläufe durchzuspielen. Zuerst ist in Excel eine Tabelle zur Berechnung der Bruttoergebnisse vorzubereiten, in dem zuerst 1.000 Zufallszahlen als Ergebnis einer standardnormalverteilten Zufallsvariable generiert werden. Es ist dazu auf dem relevanten Arbeitsblatt unter „Daten“ und „Datenanalyse“ die Auswahl „Zufallszahlengenerierung“ mit „OK“ zu bestätigen. Danach muss unter „Verteilung“ die Alternative „Standard“ ausgewählt
Abb. 1: Zufallszahlengenerierung in Excel Quelle: Screenshot aus Excel.
340
Petra Stellmach
werden und für die Ausgabe der Ausgabebereich in Spaltenform für die 1.000 Zufallszahlen markiert werden (siehe Abb. 1). Ein mögliches Ergebnis für die ersten zehn Werte der generierten standardnormalverteilten Zufallszahlen ist in Tab. 2 dargestellt. Die ermittelten Zufallszahlen bleiben bei allen folgenden Berechnungen des Modells bestehen und können nur durch eine erneute Durchführung der Funktion „Zufallszahlengenerierung“ verändert werden. Tab. 2: Generierte standardnormalverteilte Zufallszahlen
Zufallszahl
1 2 3 4 5 6 7 8 9 10
0,400232238 –2,091310307 0,111574536 –0,813010956 0,625888106 –0,323925633 2,890592441 –0,200030854 2,567139745 –1,767461981
Quelle: Eigene Berechnungen.
4.2 Umsetzung der Monte Carlo Simulation Eine Übertragung der standardnormalverteilten Zufallszahlen (Z) auf die normalverteilte Zufallsvariable Absatzzahlen (X) kann mit Hilfe der Formel 5 durch die Z-Transformation erfolgen. Dabei wird auf die besondere Eigenschaft der Standardnormalverteilung zurückgegriffen, dass jede beliebige normalverteilte Zufallsvariable X mit f(x, μ, σ) mit der Gleichung zur Z-Transformation in die standardnormalverteilte Zufallsvariable Z mit f(z, 0, 1) umgewandelt werden kann (Eckey/Kosfeld/Türck 2011, S. 119). Z=
X−μ σ
(5)
Durch Auflösen der Formel 5 nach X lässt sich umgekehrt über die Realisierungen einer standardnormalverteilten Zufallsvariable Z jede beliebige normalverteilte Zufallsvariable X generieren (X-Transformation), wenn deren Mittelwert μ und die Standardabweichung σ bekannt sind (siehe Formel 6). X=μ+Z⋅σ
(6)
Für die Absatzzahlen ist im Beispiel der Mittelwert mit μ = 1.000 Stück gegeben (siehe Tab. 1: Normal-Case). Die Standardabweichung wird als Annahme mit σ = 50 Stück
Potenziale der Monte Carlo Simulation bei der Ergebnisplanung
341
angesetzt. Durch diese Annahme soll eine möglichst gute Vergleichbarkeit zwischen den Ergebnissen der Szenario-Analyse und den Ergebnissen der Monte Carlo Simulation erreicht werden. Dies begründet sich wie folgt: In der Szenario-Analyse wurden die maximalen Absatzschwankungen im Best- und Worst-Case mit +/–10 % bzw. +/–100 Stück festgelegt (siehe Tab. 1). Die Festsetzung der Standardabweichung mit σ = 50 Stück bewirkt annähernd die gleiche Streuung der Absatzzahlen, da für die laut Annahme normalverteilten Absatzzahlen die statistische Erkenntnis genutzt werden kann, dass in dem zentralen Intervall μ +/– 2 · σ der theoretischen Verteilung 95,44 % der möglichen Ergebnisse liegen werden (Schira 2012, S. 374). Im konkreten Beispiel werden also über 95 % der möglichen Ereignisse innerhalb des Intervalls zwischen 900 und 1.100 Stück (1.000 +/– 2 · 50) erwartet. Die normalverteilten Absatzzahlen werden im nächsten Schritt, wie in Formel 7 dargestellt, auf Basis der zuvor ermittelten standardnormalverteilten Zufallszahlen berechnet. x = 1000 + z ⋅ 50
(7)
Für die normalverteilten Absatzzahlen ergeben sich in Excel beispielhaft auf Basis der zuvor erzeugten Zufallszahlen die in Tab. 3 dargestellten Werte. Alternativ kann die Funktion „Zufallszahlengenerierung“ unter der Verteilung „Standard“ nicht nur zur Erzeugung von standardnormalverteilten Zufallsvariablen mit f(z, μ = 0, σ = 1) genutzt werden, sondern auch zur Erzeugung von normalverteilte Zufallszahlen mit beliebigem Mittelwert und beliebiger Standardabweichung. Bei diesem Vorgehen wird in dem Eingabefenster der Funktion „Zufallszahlengenerierung“ in dem Feld „Mittelwert“ die erwartete Absatzzahl von 1.000 Stück und in dem Feld „Standardabweichung“ die angenommene Standardabweichung in Höhe von 50 Stück eingegeben. In diesem Fall entfällt die Transformationsrechnung und das Rechenverfahren wird verkürzt. Tab. 3: Simulation der Absatzzahlen
Zufallszahl
Absatzmenge
1 2 3 4 5 6 7 8 9 10
0,400232238 –2,091310307 0,111574536 –0,813010956 0,625888106 –0,323925633 2,890592441 –0,200030854 2,567139745 –1,767461981
1.020 895 1.006 959 1.031 984 1.145 990 1.128 912
Quelle: Eigene Berechnungen.
342
Petra Stellmach
Mit den simulierten Absatzzahlen werden nun für alle 1.000 Zeilen der Rechentabelle in Excel die Herstellkosten nach der gleichen Methodik und mit den gleichen Einzelkosten pro Stück sowie den Gemeinkosten berechnet, wie bei der Szenario-Analyse in Kapitel drei und danach das Bruttoergebnis sowie die Marge bestimmt. Tab. 4 stellt beispielhaft die ersten zehn Werte der Berechnungen zum vorliegenden Beispiel dar. Tab. 4: Ausschnitt der Ergebnissimulation Zufallszahl
1 2 3 4 5 6 7 8 9 10
0,400232238 –2,091310307 0,111574536 –0,813010956 0,625888106 –0,323925633 2,890592441 –0,200030854 2,567139745 –1,767461981
Absatzmenge
Herstellkosten [Euro]
Umsatz [Euro]
Bruttoergebnis Bruttomarge [Euro]
1.020 895 1.006 959 1.031 984 1.145 990 1.128 912
3.240 2.990 3.212 3.118 3.262 3.168 3.490 3.180 3.456 3.024
7.140 6.265 7.042 6.713 7.217 6.888 8.015 6.930 7.896 6.384
3.900 3.275 3.830 3.595 3.955 3.720 4.525 3.750 4.440 3.360
54,6 % 52,3 % 54,4 % 53,6 % 54,8 % 54,0 % 56,5 % 54,1 % 56,2 % 52,6 %
Quelle: Eigene Berechnungen.
Die praktische Durchführung der Monte Carlo Simulation ist damit für das vorliegende einfache Beispiel einer Ergebnissimulation abgeschlossen und die Ergebnisinterpretation kann durchgeführt werden.
4.3 Auswertung der Ergebnisse Die Auswertung der 1.000 Simulationsergebnisse erfolgt zur leichteren Interpretation über eine Verdichtung zur Häufigkeitstabelle. In Excel wird dazu im Hauptmenü unter dem Punkt „Formeln“ und dort unter dem Untermenüpunkt „Funktion einfügen“ die Funktion „HÄUFIGKEIT“ gewählt. Bevor die individuelle Dateneingabe erfolgen kann, ist es sinnvoll, über die Funktionen „MIN“ (=Minimum) und „MAX“ (=Maximum), die ebenfalls im Hauptmenü „Formeln“ und dort unter dem Untermenü „Funktion einfügen“ gewählt werden können, die Extremwerte der 1.000 Ergebnisdaten zu ermitteln. Dazu ist jeweils die Funktion zu wählen und die Ergebnisdaten sind unter „Zahl1“ vollständig zu markieren. Anhand der Spannweite, die als Differenz zwischen dem kleinsten und dem größten Wert der Datenreihe definiert ist, lässt sich eine sinnvolle Klasseneinteilung für die Häufigkeitstabelle vornehmen. Für die 1.000 Beispieldaten dieser Abhandlung ergeben sich die in Tab. 5 dargestellten Extremwerte. Die Klassengrenzen für die Häufigkeitstabelle sind anschlie-
Potenziale der Monte Carlo Simulation bei der Ergebnisplanung
343
ßend individuell festzulegen und die Tabelle ist analog zu dem Ausschnitt in Tab. 5 vorzubereiten. Die Klassengrenzen sind für die Funktion „HÄUFIGKEIT“ als Klassenobergrenze (d. h.