128 59 4MB
German Pages 140 Year 2023
Klaus Leusmann
Nachhaltig erfolgreiches Bankmanagement Ein Paradigmenwechsel für Banksteuerung und Bankenregulierung
Nachhaltig erfolgreiches Bankmanagement
Klaus Leusmann
Nachhaltig erfolgreiches Bankmanagement Ein Paradigmenwechsel für Banksteuerung und Bankenregulierung
Klaus Leusmann Senden, Deutschland
ISBN 978-3-658-41928-8 ISBN 978-3-658-41929-5 (eBook) https://doi.org/10.1007/978-3-658-41929-5 Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über https://portal.dnb.de abrufbar. © Der/die Herausgeber bzw. der/die Autor(en), exklusiv lizenziert an Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2023 Das Werk einschließlich aller seiner Teile ist urheberrechtlich geschützt. Jede Verwertung, die nicht ausdrücklich vom Urheberrechtsgesetz zugelassen ist, bedarf der vorherigen Zustimmung des Verlags. Das gilt insbesondere für Vervielfältigungen, Bearbeitungen, Übersetzungen, Mikroverfilmungen und die Einspeicherung und Verarbeitung in elektronischen Systemen. Die Wiedergabe von allgemein beschreibenden Bezeichnungen, Marken, Unternehmensnamen etc. in diesem Werk bedeutet nicht, dass diese frei durch jedermann benutzt werden dürfen. Die Berechtigung zur Benutzung unterliegt, auch ohne gesonderten Hinweis hierzu, den Regeln des Markenrechts. Die Rechte des jeweiligen Zeicheninhabers sind zu beachten. Der Verlag, die Autoren und die Herausgeber gehen davon aus, dass die Angaben und Informationen in diesem Werk zum Zeitpunkt der Veröffentlichung vollständig und korrekt sind. Weder der Verlag noch die Autoren oder die Herausgeber übernehmen, ausdrücklich oder implizit, Gewähr für den Inhalt des Werkes, etwaige Fehler oder Äußerungen. Der Verlag bleibt im Hinblick auf geografische Zuordnungen und Gebietsbezeichnungen in veröffentlichten Karten und Institutionsadressen neutral. Planung/Lektorat: Guido Notthoff Springer Gabler ist ein Imprint der eingetragenen Gesellschaft Springer Fachmedien Wiesbaden GmbH und ist ein Teil von Springer Nature. Die Anschrift der Gesellschaft ist: Abraham-Lincoln-Str. 46, 65189 Wiesbaden, Germany Das Papier dieses Produkts ist recyclebar.
Geleitwort
Der Autor dieses Werkes ist studierter Betriebswirt mit mehr als 30 Jahren Berufserfahrung in der Finanzbranche. Er hat die unternehmerische Zielsetzung der Maximierung des Shareholder Value – oder charmanter die „Wertorientierte Steuerung“ – unter der Nebenbedingung der jederzeitigen Risikotragfähigkeit der Bank gelernt, gelehrt und praktiziert. Vor dem Hintergrund der Erfahrungen der beiden letzten Dekaden stellt sich jedoch die Frage, warum häufig die Banken, welche die Shareholder Value Maximierung am konsequentesten verfolgen, die größten Probleme mit einem nachhaltigen Unternehmenserfolg haben. Zusätzlich zeigt die Empirie, dass auch eine immer detailliertere und verschärfte Bankenregulierung Zusammenbrüche von systemrelevanten Banken, wie das jüngste Beispiel der Credit Suisse zeigt, nicht verhindern. Geprägt von dieser Entwicklung und den vielfältigen eigenen Erfahrungen in der Praxis reflektiert der Autor Fragen zur Zielsetzung, Steuerung und Ethik von Banken unter Einbindung benachbarter wissenschaftlicher Disziplinen wie der Psychologie, der Philosophie und der Verhaltensökonomie gerade an den Punkten, wo betriebswirtschaftliche Formeln und Modelle in Konflikt mit der erlebten Wirklichkeit geraten. Durch diesen Blick aus verschiedenen Perspektiven gelingt ihm eine ebenso einfache wie plausible Erklärung der Probleme worauf aufbauend er Lösungsansätze entwickelt und diskutiert. Dieses Buch geht also nicht in die Tiefe einzelwissenschaftlicher Details, sondern in die Breite interdisziplinärer Zusammenhänge. Der Autor zeigt, dass die Shareholder Value Maximierung vor allem deshalb an der Nachhaltigkeit scheitert, weil sie dazu verleitet, diese Maximierung zu Lasten anderer Stakeholder zu erzielen, die früher oder später eskalieren. Das Scheitern bestimmter Risikomodelle, insbesondere der ökonomischen Risikotragfähigkeit sowie der darauf aufbauenden Regulierung, erklärt er mit ihrer Entwicklung aus der Rückschau, während Risiken (und Chancen) in der Zukunft liegen. Aus der einfachen aber klaren Problemanalyse entwickelt er ebenso einfach wie klar Lösungsansätze, die aufgrund ihrer interdisziplinären Entwicklung für die Banksteuerung und Bankenregulierung einen „alternativlosen“ Paradigmenwechsel darstellen.
V
VI
Geleitwort
Dem Autor ist eine lebhafte interdisziplinäre Diskussion dieser Paradigmenwechsel mit einer weiteren Konkretisierung der geschilderten Lösungsvorschläge in Wissenschaft und Praxis zu wünschen. Esslingen, Deutschland April 2023
Prof. Dr. Philipp Schreiber
Vorwort
Das hier vorgelegte Buch wurde von einem Autor verfasst, der in den Achtzigerjahren Betriebswirtschaftslehre studiert, geglaubt und in der Praxis des Finanzdienstleistungssektors angewendet hat. Kern dieser Betriebswirtschaftslehre ist die Gewinnmaximierung, die sich bei Banken im weiteren Verlauf zur Maximierung des Shareholder Value unter der Nebenbedingung der Risikotragfähigkeit entwickelt hat. Dabei gilt die (ökonomische) Risikotragfähigkeit dann als gegeben, wenn die Vermögenswerte die gemessene Gesamtbank- Risikoposition übersteigen. Abgelesen wird der Erfolg an den Jahresabschlüssen, die gewissermaßen in jährlichen Sprints optimiert werden. Dieses Prinzip resultiert aus dem Wettbewerb um das knappe Eigenkapital auf dem Markt für dieses Kapital (Börse/Anlagealternativen). Als Treiber der Übernahme der Shareholder Value-Maximierung im Bankensektor bleibt Josef Ackermann in Erinnerung, der das nicht erreichbare Ziel der Maximierung als CEO der Deutschen Bank in eine Ziel-Eigenkapitalrendite von 25 % vor Steuern übersetzt und Anreiz- und Sanktionssystematik konsequent darauf ausgerichtet hat. Diese integrierte Banksteuerung mit Zielfunktion (Renditemaximierung) und Nebenbedingung (Risikotragfähigkeit), die nachfolgend als „Bankmanagement 1.0“ bezeichnet werden soll, scheint eine eigentlich methodisch schlüssige und runde Sache zu sein. In der Praxis lassen sich jedoch fatale Phänomene beobachten: • Gerade die großen börsennotierten Banken, die sich dem Shareholder Value mit entsprechender Steuerungssystematik verschrieben haben, weisen im langfristigen Durchschnitt eine extrem niedrige Eigenkapitalverzinsung bei einer hohen Ergebnisvolatilität auf (zum Beispiel Deutsche Bank, Commerzbank, UBS, Credit Suisse, Barclays, …). Die Deutsche Bank als repräsentatives Beispiel hat in den Jahren 2011 bis 2020 eine durchschnittliche Eigenkapitalrendite von gerade einmal 1,1 % vor Steuern aufzuweisen. • Reihenweise geraten Institute in Schieflagen bis hin zur Pleite, obwohl sie im Sinne der oben erwähnten universitären Betriebswirtschaftslehre eine exzellente ökonomische Risikotragfähigkeit aufweisen. • Mit der Credit Suisse bricht gerade eine Bank zusammen, der zum Zeitpunkt des Zusammenbruchs im jüngsten Jahresabschluss knapp 48 Mrd. Schweizer Franken VII
VIII
Vorwort
igenkapital testiert wurden und die im Zweifel vor dem Bank-Run auch alle LiquidiE tätsvorschriften erfüllt hat. Grund: Vertrauensentzug von Kunden und Aktionären. • Aufgrund der besonderen Bedeutung des Finanzdienstleistungssektors für die Realwirtschaft sowie wesentlicher wechselseitiger Abhängigkeiten bei den Instituten sehen sich die Staaten gezwungen, Institute in Schieflagen teilweise mit immensen Summen aus Steuermitteln zu stützen, während andererseits bei Ergebnisschwankungen in die positive Richtung reichlich Boni und Dividenden an die Verantwortlichen der Banken fließen. • Bankenaufsicht und Regulierung/Politik geraten unter gesellschaftlichen Druck und reagieren mit einer Regulierungsflut (Umfang Basel I ca. 100 Seiten; Umfang Basel III über 7000 Seiten), die aufgrund einer Serie nicht vorhergesehener Krisen nicht zu enden scheint und auf Dauer zu einer schleichenden Abschaffung der Marktwirtschaft mit all ihren positiven Lenkungseffekten führt. Trotzdem konnte diese Regulierung den Kollaps der Credit Suisse nicht verhindern und damit die Finanzstabilität nicht sichern. Vor diesem Hintergrund geht es dem Autor in diesem Buch darum, das „Bankmanagement 1.0“ gemäß universitärer Lehre hinsichtlich der beobachteten Fehlentwicklungen auf Reformbedarf hin zu analysieren, um darauf aufbauend realitätskonforme Ansätze für ein „Bankmanagement 2.0“ zu entwickeln. Der Autor wendet sich mit diesem Buch insbesondere an alle Entscheidungsträger in der Finanzwirtschaft, der Bankenaufsicht und -regulierung, Studenten und Lehrkörper der Betriebswirtschaftslehre sowie die sachkundigen und interessierten Bürger. Die Analyse des Status Quo wäre nicht möglich gewesen ohne zahlreiche intensive Gespräche mit Entscheidungsträgern von Finanzdienstleistern, Aufsichtsbehörden und -organen sowie Vertretern unterschiedlicher wissenschaftlicher Disziplinen, die aus verschiedenen Gründen hier nicht aufgeführt werden können. Ihre Erfahrungen waren für das tiefere Verständnis und damit auch für dieses Buch und seine Lösungsansätze von unermesslichem Wert. Darüber hinaus gilt folgenden Personen ein besonderer Dank für ihr kritisches Lektorat und wertvolle Diskussionen: • Thomas Klimpke, ehemaliger Partner und jetziger Senior Adviser bei zeb • Klaus Röpke, pensionierter Bausparkassenvorstand und Controlling-Experte • Prof. Dr. Philipp Schreiber, Professor of Finance, Hochschule Esslingen und ehemaliger Risiko-Experte bei zeb Das vorliegende Buch ist das Ergebnis einer persönlichen und privaten Projektarbeit und nicht von bisherigen oder potenziellen Arbeitgebern induziert. Daher liegt auch die alleinige inhaltliche Verantwortung beim Verfasser. Senden, Deutschland April 2023
Klaus Leusmann
Inhaltsverzeichnis
1 Einleitung. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 Literatur������������������������������������������������������������������������������������������������������������������ 3 2 Beschreibung der Wertorientierten Banksteuerung. . . . . . . . . . . . . . . . . . . . . 5 2.1 Grundgedanken der Wertorientierten Bankensteuerung ������������������������������ 5 2.2 Entscheidungsorientierte Einzelgeschäftskalkulation���������������������������������� 8 2.2.1 Überblick������������������������������������������������������������������������������������������ 8 2.2.2 Marktzinsmethode���������������������������������������������������������������������������� 10 2.2.3 Standardrisiko ���������������������������������������������������������������������������������� 19 2.2.4 Prozesskosten������������������������������������������������������������������������������������ 22 2.2.5 Eigenkapitalkosten���������������������������������������������������������������������������� 26 2.3 Überleitung zum Gesamtbankergebnis �������������������������������������������������������� 29 2.4 Barwertige Steuerungsperspektive���������������������������������������������������������������� 31 2.5 Risikosteuerung�������������������������������������������������������������������������������������������� 35 2.5.1 Risikoinventur ���������������������������������������������������������������������������������� 35 2.5.2 Risikomessung���������������������������������������������������������������������������������� 38 2.5.3 Risikotragfähigkeit���������������������������������������������������������������������������� 41 2.5.4 Risikorendite ������������������������������������������������������������������������������������ 41 2.6 Integrierte Gesamtbanksteuerung ���������������������������������������������������������������� 43 Literatur������������������������������������������������������������������������������������������������������������������ 44 3 Defizite der Wertorientierten Banksteuerung . . . . . . . . . . . . . . . . . . . . . . . . . . 45 3.1 Fehlende Nachhaltigkeit in der Zielfunktion������������������������������������������������ 45 3.1.1 Plan-Ist-Vergleich für die Wertorientierte Steuerung������������������������ 45 3.1.2 Ursachenhypothesen für Fehlsteuerungen���������������������������������������� 47 3.1.3 Definition von Nachhaltigkeit���������������������������������������������������������� 51 3.1.4 Anforderungen an eine nachhaltige Ergebnissteuerung ������������������ 54 3.2 Fehler im Risikomanagement ���������������������������������������������������������������������� 54 3.2.1 Ungewissheiten und Risikomodelle�������������������������������������������������� 54 3.2.2 Falsifizierung der ökonomischen Risikotragfähigkeit���������������������� 56 3.2.3 Schlussfolgerungen für ein sachgerechtes Risikomanagement�������� 59
IX
X
Inhaltsverzeichnis
3.3 Vernachlässigung der strategischen Dimension�������������������������������������������� 60 3.3.1 Entwicklung und Status Quo der strategischen Steuerung �������������� 60 3.3.2 Anforderungen an die strategische Steuerung���������������������������������� 62 3.4 Vernachlässigung der kulturellen Dimension ���������������������������������������������� 63 3.4.1 Führungskultur���������������������������������������������������������������������������������� 64 3.4.2 Risikokultur�������������������������������������������������������������������������������������� 66 3.5 Entfremdung von Theorie und Wirklichkeit ������������������������������������������������ 66 3.6 Zusammenfassung des Status Quo���������������������������������������������������������������� 70 Literatur������������������������������������������������������������������������������������������������������������������ 71 4 Status Quo der Bankenaufsicht und -regulierung. . . . . . . . . . . . . . . . . . . . . . . 73 4.1 Ziele und Organisation der Bankenaufsicht in der Marktwirtschaft������������ 73 4.2 Wesentliche Inhalte der Bankenregulierung ������������������������������������������������ 77 4.2.1 Struktur �������������������������������������������������������������������������������������������� 77 4.2.2 Baseler Säule 1���������������������������������������������������������������������������������� 78 4.2.3 Baseler Säule 2���������������������������������������������������������������������������������� 81 4.2.4 Risikotragfähigkeitsleitfaden������������������������������������������������������������ 83 4.3 Strategisches Regulierungsdilemma ������������������������������������������������������������ 85 Literatur������������������������������������������������������������������������������������������������������������������ 88 5 Realitätskonformes, nachhaltiges Bankmanagement. . . . . . . . . . . . . . . . . . . . 89 5.1 Stakeholder Value statt Shareholder Value���������������������������������������������������� 89 5.1.1 Vorgehensweise�������������������������������������������������������������������������������� 89 5.1.2 Ethikindikatoren�������������������������������������������������������������������������������� 90 5.1.3 Ökologische Ausrichtung der Bank�������������������������������������������������� 95 5.1.4 Ethikrating als Teil der Ziel- und Steuerungssystematik������������������ 96 5.2 Fragilitätsmanagement statt Risikomessung������������������������������������������������ 99 5.2.1 Risiko und Intuition�������������������������������������������������������������������������� 99 5.2.2 Fragilität versus Risikotragfähigkeit������������������������������������������������ 100 5.2.3 Fragilitätsanalyse������������������������������������������������������������������������������ 102 5.3 Integration der strategischen Dimension������������������������������������������������������ 109 5.3.1 Geschäftsmodellanalyse�������������������������������������������������������������������� 109 5.3.2 Agile Geschäftsmodellentwicklung�������������������������������������������������� 112 5.3.3 Mehrjahresplanung �������������������������������������������������������������������������� 114 5.4 Integration der kulturellen Dimension���������������������������������������������������������� 114 5.4.1 „Messung“ und Analyse der Unternehmenskultur���������������������������� 114 5.4.2 Integrative Methodik zur Weiterentwicklung der Risikokultur�������� 116 5.5 Auflösung des Regulierungsdilemmas���������������������������������������������������������� 120 5.6 Integration zur „Banksteuerung 2.0“������������������������������������������������������������ 123 Literatur������������������������������������������������������������������������������������������������������������������ 124 6 Zusammenfassung und Ausblick. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 127 Literatur������������������������������������������������������������������������������������������������������������������ 130
Abbildungsverzeichnis
Abb. 2.1 Wertbeitrag, zum Beispiel eines Geschäftsbereiches Firmenkunden (Millionen Euro). (Quelle: eigene Darstellung)���������������������������������������������� 6 Abb. 2.2 Eigenkapitalkostensatz nach CAPM. (Quelle: eigene Darstellung in Anlehnung an Breuer o. J.) ���������������������������������������������������������������������������� 7 Abb. 2.3 Deckungsbeitragsschema. (Quelle: eigene Darstellung)�������������������������������� 9 Abb. 2.4 Erfolgsquelle Zinsüberschuss. (Quelle: eigene Darstellung)�������������������������� 10 Abb. 2.5 Zinsstrukturkurve. (Quelle: eigene Darstellung)�������������������������������������������� 11 Abb. 2.6 Typen von Zinsgeschäften. (Quelle: eigene Darstellung in Anlehnung an Schierenbeck 2003a, S. 98, Abb. 40)�������������������������������������������������������������� 14 Abb. 2.7 Abbildung variabel verzinslicher Darlehen. (Quelle: eigene Darstellung)�������� 16 Abb. 2.8 Variable Einlagen. (Quelle: eigene Darstellung)�������������������������������������������� 17 Abb. 2.9 Strukturbeitragsbilanz. (Quelle: eigene Darstellung) ������������������������������������ 18 Abb. 2.10 Erwarteter und unerwarteter Verlust. (Quelle: eigene Darstellung)���������������� 20 Abb. 2.11 Risikoorientiertes Pricing von Krediten. (Quelle: eigene Darstellung)���������� 21 Abb. 2.12 Prozesskosten. (Quelle: eigene Darstellung in Anlehnung an zeb-Akademie)������������������������������������������������������������������������������������������������ 24 Abb. 2.13 Produktivitätsergebnis. (Quelle: eigene Darstellung) ������������������������������������ 25 Abb. 2.14 Ergebnisquellen Gesamtbank. (Quelle: eigene Darstellung in Anlehnung an Schierenbeck 2003a, S. 410–419) ������������������������������������������ 30 Abb. 2.15 Barwert Zinskonditionsbeitrag. (Quelle: eigene Darstellung)������������������������ 32 Abb. 2.16 Forward Rates. (Quelle: eigene Darstellung)������������������������������������������������� 34 Abb. 2.17 Long List der Risikoarten. (Quelle: eigene Darstellung in Anlehnung an zeb-Akademie)������������������������������������������������������������������������������������������������ 36 Abb. 2.18 Zinsänderungsszenarien. (Quelle: eigene Darstellung)���������������������������������� 39 Abb. 2.19 Definition Risikotragfähigkeit. (Quelle: eigene Darstellung)������������������������ 41 Abb. 2.20 Risikomatrix. (Quelle: eigene Darstellung)���������������������������������������������������� 42 Abb. 2.21 Kennzahlen Risikorendite. (Quelle: eigene Darstellung in Anlehnung an Schierenbeck 2003b, S. 43–49)���������������������������������������������� 43
XI
XII
Abb. 3.1 Abb. 3.2 Abb. 3.3 Abb. 3.4 Abb. 3.5 Abb. 3.6 Abb. 3.7 Abb. 3.8
Abbildungsverzeichnis
Realwirtschaftliches Kundengeschäft für den Zeitraum 2002 bis 2011 ������ 46 Realwirtschaftliches Kundengeschäft für den Zeitraum 2011 bis 2020 ������ 48 Net Promoter Score. (Quelle: Bain & Company 2012)�������������������������������� 50 Nachhaltiger Erfolg. (Quelle: eigene Darstellung) �������������������������������������� 52 Koordinatensystem Rendite – Ethik. (Quelle: eigene Darstellung)�������������� 53 Risikotreiber aus „Extremistan“. (Quelle: eigene Darstellung)�������������������� 56 Risiken – Ungewissheiten. (Quelle: eigene Darstellung) ���������������������������� 59 Berichtswege. (Quelle: eigene Darstellung) ������������������������������������������������ 64
Abb. 4.1 Volkswirtschaftliche Funktionen der Banken. (Quelle: eigene Darstellung)�������������������������������������������������������������������������������������������������� 74 Abb. 4.2 Fristentransformation. (Quelle: eigene Darstellung)������������������������������������ 74 Abb. 4.3 Single Supervisory Mechanism (Quelle: Eigene Darstellung in Anlehnung an EZB-Leitfaden zur Bankenaufsicht, September 2014)��������� 76 Abb. 4.4 Drei-Säulen-Architektur Basel. (Quelle: eigene Darstellung)���������������������� 77 Abb. 4.5 Regulatorische Ansätze Kreditrisiko. (Quelle: eigene Darstellung in Anlehnung an zeb-Akademie)������������������������������������������������������������������ 79 Abb. 4.6 Kapitalanforderungen Säule 1. (Quelle: eigene Darstellung in Anlehnung an zeb-Akademie)������������������������������������������������������������������ 81 Abb. 4.7 SREP-Prüfungsarchitektur (Quelle: EBA CP Nr. 14 vom 7.7.2014)����������� 82 Abb. 4.8 Risikotragfähigkeitsperspektiven. (Quelle: eigene Darstellung)������������������ 84 Abb. 4.9 Regulierungsdilemma. (Quelle: eigene Darstellung)������������������������������������ 85 Abb. 5.1 Interessensausgleich Bank – Kunde. (Quelle: eigene Darstellung)�������������� 90 Abb. 5.2 Interessensausgleich Bank – Mitarbeiter/innen. (Quelle: eigene Darstellung)�������������������������������������������������������������������������������������������������� 93 Abb. 5.3 Nachhaltige Mitarbeiterleistung. (Quelle: eigene Darstellung)�������������������� 94 Abb. 5.4 Balanced Scorecard Gesamtbank. (Quelle: eigene Darstellung)������������������ 97 Abb. 5.5 BSC Privatkundenbetreuerteam. (Quelle: eigene Darstellung)�������������������� 98 Abb. 5.6 Risikowürfel Cyber Risk. (Quelle: eigene Darstellung) ������������������������������ 101 Abb. 5.7 Fragilitätsanalyse. (Quelle: eigene Darstellung)������������������������������������������ 102 Abb. 5.8 Risk-Map für Operationelle Risiken. (Quelle: eigene Darstellung in Anlehnung an zeb-Akademie)������������������������������������������������������������������ 103 Abb. 5.9 Scorewerte Geschäftsmodellanalyse. (Quelle: Palii et al. 2017, S. 10) �������� 112 Abb. 5.10 Dension-Organisationsstrukturmodel (Quelle: Bertelsmann Stiftung 2006, Seite 15)�������������������������������������������������������������������������������� 115 Abb. 5.11 Themenfelder Risikokultur. (Quelle: eigene Darstellung)���������������������������� 117 Abb. 5.12 Thesenbewertung Eigenland. (Quelle: Eigenland GmbH) �������������������������� 118 Abb. 5.13 Neue Baseler Säule 1. (Quelle: eigene Darstellung)������������������������������������ 121 Abb. 6.1 Haus der „Banksteuerung 2.0“. (Quelle: eigene Darstellung)���������������������� 129
1
Einleitung
Finanzdienstleister bzw. Banken wurden ursprünglich erfunden, um die Realwirtschaft mit den für ihre Abwicklung erforderlichen Bankprodukten zu versorgen. Sie sind von daher Teil der realwirtschaftlichen Wertschöpfungskette. Aufgrund dieser zentralen Bedeutung für die Gesamtwirtschaft ist es für den Staat von ebenso zentralem Interesse, dass die Funktionen der Finanzwirtschaft auch durch eine staatliche Regulierung und Aufsicht sichergestellt werden. Im Rahmen ihrer Funktionen für die Realwirtschaft gehen Finanzinstitute neben den klassischen unternehmerischen Betriebsrisiken (Non Financial Risks) insbesondere Finanzrisiken (Financial Risks) wie Kreditausfallrisiken oder Marktpreisrisiken ein, die zwingend Bestandteil des Geschäftsmodells sind. Die Bankbetriebswirtschaftslehre zielt in ihrer fachlichen Konzeption von Steuerungssystemen darauf ab, den Unternehmenserfolg, gemessen am Gewinn, zu maximieren. Nebenbedingung ist dabei, dass die übernommenen Risiken die Existenz der Bank nicht gefährden („Risikotragfähigkeit“). Die moderne Banksteuerung, welche die Zielorientierung bei Einhaltung der Nebenbedingung sicherstellen sollte, nahm Anfang der Achtzigerjahre ihren Anfang mit der Einführung der Marktzinsmethode in die Praxis und wurde seither sukzessive ausgebaut (vgl. die 1. bis 9. Auflage des Werkes „Ertragsorientiertes Bankmanagement“ von Henner Schierenbeck). Trotz einer in sich schlüssigen und wissenschaftlich scheinbar ausgereiften Systematik kam es in den letzten zwei Dekaden zu vermehrten Schieflagen und Pleiten bei Finanzdienstleistern. Insbesondere die Finanzmarktkrise 2007/2008 und die Staatsschuldenkrise 2011 haben sich in der öffentlichen Wahrnehmung manifestiert, auch weil „systemrelevante“ Banken mit staatlichen Geldern aufgefangen werden mussten. Da die Bankbetriebswirtschaftslehre dafür keine bessere Erklärung liefern konnte als die des außergewöhnlichen Extremfalls („Schwarze Schwäne“, für das bis zu seiner Entdeckung Undenk-
© Der/die Autor(en), exklusiv lizenziert an Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2023 K. Leusmann, Nachhaltig erfolgreiches Bankmanagement, https://doi.org/10.1007/978-3-658-41929-5_1
1
2
1 Einleitung
bare Unbekannte, vgl. dazu Taleb 2015, insbes. S. 19–35) und eine Revision der Lehre weitgehend unterblieb, versuchten Bankenregulierung und -aufsicht mit einer Fülle von Vorschriften die negativen Konsequenzen einzuhegen (vgl. Basel II bis Basel IV, CRR, CRD, MaRisk etc.). Vor diesem Hintergrund ist es das Ziel dieses Buches, das bankbetriebswirtschaftliche Steuerungskonzept kritisch zu analysieren und praxisgerechte Lösungen für erkannte Defizite vorzuschlagen. Im zweiten Kapitel wird die „Wertorientierte Banksteuerung“ vorgestellt, so wie sie noch heute Kern der wissenschaftlichen bzw. universitären Lehre ist. Sie wird im Folgenden für die Zwecke dieses Buches auch als „Bankmanagement 1.0“ bezeichnet. Bei der Beschreibung steht nicht die Darstellung von mathematisch-statistischen Details für spezifische Problemstellungen im Vordergrund, sondern die methodischen und strukturellen Grundlagen, Annahmen und Modelle. Im dritten Kapitel werden sukzessive Schwachpunkte dieser Grundlagen der Banksteuerung analysiert und dabei mit Beispielen aus der Praxis unterlegt. Abschließend werden die Auswirkungen zusammenfassend beurteilt und Anforderungen an ein sachgerechtes „Bankmanagement 2.0“ abgeleitet. Das vierte Kapitel befasst sich einleitend für die Zwecke dieses Buches mit den Zielen und der Organisation der Bankenaufsicht in der Marktwirtschaft und beschreibt anschließend die wesentlichen Inhalte der Regulierung. Abschließend wird erörtert, inwieweit die zu beobachtende zunehmende Detailregulierung zur Bekämpfung der negativen Symptome einer unzureichenden Steuerung geeignet ist und den ursprünglichen Anforderungen an eine staatliche Regulierung in einem marktwirtschaftlichen Umfeld noch gerecht werden kann. Es wird gezeigt, dass sich die Bankenregulierung u. a. aufgrund verwandter Probleme zur betriebswirtschaftlichen Risikosteuerung derzeit in einem strategischen Dilemma befindet, welches nur durch einen Paradigmenwechsel gelöst werden kann. Im fünften Kapitel werden für die im dritten Kapitel analysierten Steuerungsdefizite jeweils denkbare praxisgerechte Lösungsansätze abgeleitet und soweit bereits möglich in ihrer Wirkung belegt. Danach wird in grober Form aufgezeigt, wie mit einem Paradigmenwechsel das im vierten Kapitel herausgearbeitete Regulierungsdilemma aufgelöst werden kann. Abschließend wird dargestellt, wie die Lösungen der einzelnen Defizite zu einer neuen Integrierten Banksteuerung 2.0 zusammengefasst werden können. In der Zusammenfassung wird verdeutlicht, dass das Bankmanagement 2.0 als Voraussetzung für einen nachhaltigen Erfolg in Form eines Paradigmenwechsels die Mittel- Zweck-Beziehung von Kapital und Mensch wieder vom Kopf auf die Füße stellt. Dabei wird die Zielfunktion des Bankmanagement 1.0 nicht ersetzt, sondern um die für die Nachhaltigkeit erforderlichen Dimensionen ergänzt. Hinsichtlich der Nebenbedingung der Risikotragfähigkeit ersetzt das Bankmanagement 2.0 die realitätsfremden Modelle der (isolierten) Betriebswirtschaftslehre über eine engere Verzahnung mit der Philosophie und Psychologie durch eine realitätskonforme Steuerung und Begrenzung der Fragilität bezüg-
Literatur
3
lich der in der Zukunft liegenden ungewissen und nicht prognostizierbaren Risiken. Diese beiden Korrekturen ermöglichen letzten Endes auch die Auflösung des Regulierungsdilemmas, wodurch sich die Regulierung wieder auf ihre eigentliche Funktion in der Marktwirtschaft, dem Setzen der erforderlichen Leitplanken, fokussieren kann.
Literatur Taleb, N. (2015) Der Schwarze Schwan, erste deutschsprachige Ausgabe von 2015.
2
Beschreibung der Wertorientierten Banksteuerung
2.1 Grundgedanken der Wertorientierten Bankensteuerung Das Ziel der Wertorientierten Unternehmenssteuerung besteht darin, den Unternehmenswert aus der Sicht der Eigenkapitalgeber zu maximieren. Das kann nur erreicht werden, wenn die jährlichen Ergebnisse (Gewinne/Verluste) nachhaltig die Kosten für das Eigenkapital übersteigen. Dies ist schematisch für einen Kundengeschäftsbereich einer Bank in Abb. 2.1 dargestellt. Der Wertbeitrag eines einzelnen Geschäfts, eines Kunden oder wie hier eines Geschäftsbereichs ergibt sich allgemein dadurch, dass von den vereinnahmten Bruttoerträgen (hier Zinsbeiträge und Provisionen) die Aufwendungen für sämtliche Ressourcen abgezogen werden. Im Geschäftsbereich Firmenkunden werden zunächst die Kosten für das latente Kreditausfallrisiko („Standardrisiko“) abgezogen. Diese erwarteten Kreditausfälle orientieren sich auf Portfolioebene am Durchschnitt der Vergangenheit. Das ist praktisch die Versicherungsprämie, zu der das zentrale Kreditrisikomanagement als Versicherer dem Geschäftsbereich das Ausfallrisiko für Kredite abnimmt. Auf die individuelle Kalkulation dieser Versicherungsprämie im Einzelfall wird in Abschn. 2.2.3 eingegangen. Danach werden die zurechenbaren Kosten (direkte Kosten) und Kostenumlagen zentraler Bereiche abgezogen. Auch darauf wird im Kapitel der Einzelgeschäftskalkulation näher eingegangen. Als Saldo verbleibt der Gewinn, in diesem Beispiel von 150 Mio. €. Um dieses Geschäft mit seinen Risiken betreiben zu können, ist als notwendige Ressource Eigenkapital erforderlich, mit welchem Mindestverzinsungsansprüche der Eigenkapitalgeber verbunden sind. Werden diese Mindestverzinsungsansprüche nachhaltig nicht erfüllt, werden die Eigenkapitalgeber tendenziell ihr Eigenkapital abziehen und einer anderen Verwendungsrichtung zuführen. Aus diesem Grunde wird bei dieser Mindestverzinsung auch von Eigenkapitalkosten gesprochen. Bevor die Höhe der Eigenkapitalkosten auf der
© Der/die Autor(en), exklusiv lizenziert an Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2023 K. Leusmann, Nachhaltig erfolgreiches Bankmanagement, https://doi.org/10.1007/978-3-658-41929-5_2
5
6
2 Beschreibung der Wertorientierten Banksteuerung 1000
250 350 250 150
200 -50
Zinsbeiträge/ Provisionen
Standardrisiko
Direkte Kosten
Kostenumlagen
Gewinn
Kapitalkosten
Wertbeitrag
Abb. 2.1 Wertbeitrag, zum Beispiel eines Geschäftsbereiches Firmenkunden (Millionen Euro). (Quelle: eigene Darstellung)
Ebene von Geschäftsbereichen zugeordnet werden kann, sind sie zunächst auf Institutsebene zu ermitteln. Um die absolute Höhe der Eigenkapitalkosten auf Institutsebene zu ermitteln, braucht man die Höhe des Eigenkapitals, welches oberhalb der regulatorischen Mindestanforderungen liegen muss, sowie den Verzinsungsanspruch in Prozent. Beim Verzinsungsanspruch in Prozent kann man zumindest davon ausgehen, dass er aufgrund der übernommenen unternehmerischen Risiken oberhalb eines risikofreien Zinses als Anlagealternative für den Investor liegen muss und tendenziell mit zunehmendem Risiko steigt. Für die konkrete Ermittlung des „Risikoaufschlags“ auf den risikofreien Zins kann man grundsätzlich kapitalmarkttheoretische Modelle oder Konkurrenzvergleiche bemühen. Das am weitesten verbreitete kapitalmarkttheo retische Modell ist das „Capital Asset Pricing Model“ (CAPM). Danach besteht zwischen dem risikofreien Zins rf und dem Verzinsungsanspruch für die Übernahme eines unternehmerischen Risikos (rek) ein linearer Zusammenhang in der Form
rek rf ß Marktrisikoprämie
Dieser Zusammenhang wird in Abb. 2.2 dargestellt. Das unternehmerische Risiko wird hier durch den ß-Faktor ausgedrückt. Der ß-Faktor von 1,0 entspricht dem marktdurchschnittlichen unternehmerischem Risiko, zum Beispiel gemessen an den beobachteten Wertschwankungen eines repräsentativen Aktienindex (DAX). Für dieses marktdurchschnittliche Unternehmensrisiko lässt sich eine durchschnittliche Eigenkapitalrendite oberhalb des risikofreien Zinses ermitteln. Im dargestellten Beispiel liegt die durchschnittliche Rendite bei fünf Prozent, woraus sich als Differenz zum risikofreien Zins eine „Marktrisikoprämie“ von drei Prozent (fünf Prozent minus zwei Prozent) ergibt. Als risiko freier Zins kann beispielsweise die Rendite für zehnjärige Bundesanleihen herangezogen werden. Nachdem mit dem risikofreien Zins als Schnittpunkt mit der Y-Achse und dem Renditeanspruch für das Marktrisiko von fünf Prozent zwei Punkte einer als linear angenommenen Funktion vorhanden sind, lässt sich für jeden anderen ß-Faktor der entsprechende Verzinsungsanspruch ableiten. Liegt der ß-Faktor zum Beispiel um 0,3 über dem Marktrisiko von 1,0, so liegt der Verzinsungsanspruch um das 0,3-fache der Marktrisikoprämie über dem Marktdurchschnitt von fünf Prozent. In diesem Beispiel liegt das 0,3-fache der Marktrisikoprämie von drei Prozent bei 0,9 %, woraus sich bei einem ß-Faktor von 1,3 ein Verzinsungsanspruch von 5,9 % er-
2.1 Grundgedanken der Wertorientierten Bankensteuerung
7
%
5,9 5,0
rf= 2,0 Risiko (ß-Faktor) 1,0 Marktrisiko
1,3
Abb. 2.2 Eigenkapitalkostensatz nach CAPM. (Quelle: eigene Darstellung in Anlehnung an Breuer o. J.)
gibt. Ein so ermittelter Verzinsungsanspruch bezieht sich auf den Preis des Eigenkapitals, den ein Investor zum Investitionszeitpunkt als Marktwert (zum Beispiel in Form des Aktienkurses) bezahlen muss. Weichen der Marktwert des Eigenkapitals und sein Buchwert in der Bilanz voneinander ab, so ist der Verzinsungsanspruch auf den Marktwert per Dreisatz in den Verzin sungsanspruch auf den Buchwert des Eigenkapitals umzurechnen. Wenn beispielsweise der Marktwert bei 1500 Mio. € und der Buchwert bei 1000 Mio. € liegen würde, dann würde der Verzinsungsanspruch von 5,9 % auf 1500 Mio. € einem Verzinsungsanspruch von 8,85 % auf den Buchwert von 1000 Mio. € entsprechen (1500/1000 * 5,9 %). Absolut ergibt sich demnach ein Ergebnisanspruch von 88,5 Mio. € p. a. Da die Bank in diesem Beispiel ihr bilanzielles Eigenkapital von 1000 Mio. € risikofrei zu zwei Prozent anlegen kann, ohne dass dadurch der aufsichtsrechtliche Charakter des Eigenkapitals als Haftungsmasse verloren geht, kann sie dadurch bereits 20 Mio. € vom gesamten Verzinsungsanspruch erwirtschaften. Die verbleibenden 68,5 Mio. € sind demnach dadurch zu erwirtschaften, dass die Bank durch das Betreiben von Bankgeschäften Risiken eingeht. Für eine verursachungsgerechte Verteilung dieses Ergebnisanspruchs auf Geschäftsbereiche, Kundengruppen, einzelne Kunden oder gar einzelne Bankgeschäfte wäre daher also das entsprechend verursachungsgerecht heruntergebrochene Risiko maßgeblich. Damit ist die Zielfunktion der Wertorientierten Banksteuerung vom Grundgedanken her beschrieben, auch wenn auf die Kalkulation der einzelnen Komponenten noch zurückzukommen ist: Es gilt neben den Kosten für alle Ressourcen, einschließlich der grundsätzlich als Ausschüttung geforderten Mindestverzinsungsansprüche für das Eigenkapital, noch einen möglichst hohen Wertbeitrag quasi als „Übergewinn“ zu erwirtschaften, der zum Beispiel zur Unterlegung künftigen Geschäftswachstums mit Eigenkapital thesauriert werden kann. Bei einer konsequenten Umsetzung muss der Verzinsungsanspruch an das risikoadjustierte Eigenkapital in allen Einheiten eines Konzerns gleich sein. Einzige Nebenbedingung bei der Zielfunktion der Wertbeitragsmaximierung ist die Sicherung des Fortbestandes der Bank in der Form, dass hin-
8
2 Beschreibung der Wertorientierten Banksteuerung
reichend Nettovermögen vorhanden ist, um eintretende Risiken mit einer vorgegebenen Wahrscheinlichkeit auffangen zu können. Diese Nebenbedingung der Risikotragfähigkeit wird im gleichnamigen Abschn. 2.5.3 behandelt. Bei der Umsetzung dieser klassischen Reinform der Wertorientierten Steuerung wird zwar grundsätzlich darauf hingewiesen, dass auch die Interessen der anderen Stakeholder (Kunden, Mitarbeiter/innen, Lieferanten, Gesellschaft/Staat, Gläubiger) zu berücksichtigen sind, jedoch findet das keine Berücksichtigung in der klassischen Wertorientierten Steuerungssystematik. Milton Friedmann als Verfechter dieser Sichtweise wird mit dem Satz zitiert: „The social responsibility of business is to increase it’s profits!“. Dahinter verbirgt sich der Gedanke, dass aus einer hinreichenden Steigerung der Gewinne letztlich auch die zwingenden Interessen der übrigen Stakeholder befriedigt werden können. Inwieweit diese Sichtweise in der Praxis funktioniert, wird in Abschn. 3.1.1 analysiert. Im Beispiel aus Abb. 2.1 ist zwar ein positiver Gewinn für den Geschäftsbereich Firmenkunden ausgewiesen, der jedoch nicht den Mindestverzinsungsansprüchen der Eigenkapitalgeber genügt, ganz zu schweigen von einem positiven Wertbeitrag. Der Geschäftsbereich hat demnach seinen Anteil an den Eigenkapitalkosten nicht erwirtschaftet. Würde sich im Quervergleich zeigen, dass andere Geschäftsbereiche oder Konzerngesellschaften eine höhere Rendite auf das Eigenkapital bzw. das damit verbundene Risikobudget erzielen, müsste bei der nächsten Budgetrunde eine Umschichtung dieser knappen Ressource zu den attraktiveren Geschäftsbereichen erwogen werden. Im theoretischen Idealfall würde eine solche Umschichtung so lange erfolgen, bis die Rendite bzw. der Grenznutzen des Eigenkapitals in allen Verwendungsrichtungen, entsprechend dem 2. Gossenschen Gesetz („Genussausgleichsgesetz“), gleich groß ist. Werden trotz optimaler Allokation des Eigenkapitals auf die Geschäftsbereiche in der Summe die Mindestverzinsungsansprüche der Eigenkapitalgeber nicht nachhaltig verdient, besteht die Gefahr, dass die Eigenkapitalgeber kein zusätzliches Eigenkapital bereitstellen bzw. sogar Eigenkapital abziehen.
2.2 Entscheidungsorientierte Einzelgeschäftskalkulation 2.2.1 Überblick Nachdem die Zielfunktion und die Nebenbedingung der Risikotragfähigkeit im Grundsatz geklärt sind, sind nun beide in Form eines Steuerungssystems zu operationalisieren. Dazu braucht es als Basis „entscheidungsrelevante Informationen“. Die kleinste entscheidbare Einheit des Bankgeschäftes ist das einzelne Geschäft, welches im Zuge der Gestaltung bzw. Verhandlung der Konditionen am Ende abgeschlossen oder abgelehnt werden kann. Wenn es abgeschlossen wird, sollte es im Sinne der Zielfunktion idealerweise einen positiven Wertbeitrag liefern oder aber im Sinne eines größeren Ganzen (auf Kundenebene, Konzernebene, als „Ankergeschäft“ mit Aussicht auf positive Folgegeschäfte) zu positiven Wertbeiträgen führen. Um das beurteilen zu können, ist daher bei entsprechenden Gestaltungsspielräumen der Geschäftskonditionen durch die Entscheidungsträger eine Ergebniskalkulation auf Einzelgeschäftsebene in der Form eines Deckungsbeitragsschemas hilfreich, die sich an der Zielfunktion des Unternehmens orientiert (vgl. Abb. 2.3).
2.2 Entscheidungsorientierte Einzelgeschäftskalkulation
DB 3
DB 2
DB 1 Zinsbeiträge/ Provisionen
9
Standardrisiko
Prozesskosten
Gewinnbeitrag
Kapitalkosten
Wertbeitrag vor Overhead
Abb. 2.3 Deckungsbeitragsschema. (Quelle: eigene Darstellung)
Die im Rahmen einer Wertorientierten Banksteuerung in der Praxis eingesetzten Deckungsbeitragsschemata entsprechen in der Grundstruktur sämtlich dem in Abb. 2.3, auch wenn die Bezeichnungen der einzelnen Deckungsbeitragsstufen (hier DB 1 bis DB 3) variieren. Die erste Deckungsbeitragsstufe beinhaltet die verursachungsgerechte Zuordnung der Erträge. Mit dem Wort „Zinsbeiträge“ ist hier jedoch nicht der Anteil an den Zinserträgen, sondern am Zinsüberschuss der Bank gemeint, also am Saldo aus Zinserträgen und Zinsaufwendungen. Um diesen Anteil bei Kreditgeschäften zu ermitteln, bedarf es einer „Separierung“ der Refinanzierungskosten. Umgekehrt bedarf es bei der Kalkulation der Zinsbeiträge aus Einlagen der „Separierung“ der damit realisierten Anlageerträge. Anders formuliert: Es ist eine Zerlegung des Zinsüberschusses in seine einzelnen Erfolgsquellen, bis herunter auf die Einzelgeschäftsebene erforderlich. Für diese verursachungsgerechte Aufteilung des Zinsüberschusses hat sich seit Anfang der Achtzigerjahre die Marktzinsmethode durchgesetzt, die im folgenden Abschnitt in den Grundzügen erläutert wird. Nach der verursachungsgerechten Zurechnung des Anteils am Zinsüberschuss sind bei einem Kreditgeschäft die Kosten für erwartete Kreditausfälle („Standardrisiken“) abzuziehen. Sie stellen praktisch eine vom Kunden zu vereinnahmende Versicherungsprämie für das latente Kreditausfallrisiko dar, welches sich mit jedem neuen Kreditgeschäft erhöht. Sie ist praktisch vergleichbar mit einer Versicherungsprämie für eine Kfz-Haftpflichtversicherung, wo sich auch mit jedem neu versicherten Kfz das latente Risiko für Unfallschäden erhöht. Auf die Kalkulation dieser Versicherungsprämien wird im übernächsten Abschnitt eingegangen. Danach folgt ein Abschnitt zur Kalkulation der durch das einzelne Geschäft verursachten Prozesskosten. Nach Abzug der Kosten ergibt sich der verursachungsgerecht zurechenbare Beitrag des einzelnen (Kredit-) Geschäftes zur GuV. Ob ein positiver DB 2 ausreichend ist, ergibt sich nach Abzug der zurechenbaren Eigenkapitalkosten, auf deren Kalkulation danach eingegangen wird. Aus dem sich ergebenden DB 3 sind in der Summe über alle Geschäfte die Overheadkosten sowie das g esetzte Wertbeitragsziel abzudecken. Im Planungsprozess ist daher anzustreben, dass in der Summe über alle Ergebnisbereiche die Overheadkosten abgedeckt und das angestrebte Wertbeitragsziel erreicht wird. Mit der Integration der Deckungsbeitragsziele in das Anreiz- und Sanktionssystem wird eine Verhaltensrelevanz der Steuerungssystematik angestrebt. Zielerreichung bzw. -überschreitungen werden tendenziell belohnt, Zielunterschreitungen führen tenden-
10
2 Beschreibung der Wertorientierten Banksteuerung
ziell zu relativen Nachteilen. Belohnungen bzw. entsprechende relative Nachteile können bei der Gestaltung variabler Einkommensbestandteile, bei der Beförderung, der Mitarbeiterentwicklung, etc. erfolgen.
2.2.2 Marktzinsmethode Die Marktzinsmethode dient der im Rahmen der Wertorientierten Steuerung erforderlichen verursachungsgerechten Aufteilung des Zinsüberschusses auf die einzelnen Erfolgsquellen bis hinunter zum einzelnen (Zins-) Geschäft. Alle Vorgängermethoden (Poolmethode, Schichtenbilanz etc.) waren dazu nicht in der Lage, weshalb sie hier auch nicht weiter erwähnt werden. Zudem ist die Marktzinsmethode inzwischen auch aufsichtsrechtlich in ihrer Grundstruktur vorgegeben. Zur Anwendung mit all ihren Fallunterscheidungen und Spezialproblemen bzw. Lösungen gibt es hinreichend Literatur, welche sich über die Zeit in der Praxis, beginnend in den Achtzigerjahren, weiterentwickelt hat. In der Banksteuerung spiegelt vor allem das „Ertragsorientierte Bankmanagement“ von Schierenbeck et. al. in seiner inzwischen 9. Auflage diese Entwicklung wieder. Von daher erfolgt an dieser Stelle eine Beschränkung auf die wesentlichen Grundstrukturen soweit sie für eine Ableitung ihrer Leistungsfähigkeit und ihrer Grenzen erforderlich ist. Die Marktzinsmethode geht, wie der Name bereits andeutet, von einem im volkswirtschaftlichen Sinn vollständigen Markt für Zinsgeschäfte unter Banken aus. Das heißt, dass unter Banken bei vollständiger Marktransparenz für alle Fristigkeiten Preise für Zinsgeschäfte geboten werden zu denen sie in beliebiger Höhe abgeschlossen werden können. Da den Kunden von Banken dieser Interbankenmarkt weitgehend verschlossen ist, schließen sie ihre Geschäfte zu abweichenden (ungünstigeren) Konditionen mit einzelnen Banken ab. Der Anteil von Kundengeschäften am gesamten Zinsüberschuss der Bank kann nun dadurch ermittelt werden, dass die Kundenkonditionen für einen bestimmten Betrag und eine bestimmte Laufzeit mit den entsprechenden Konditionen am (vollständigen) Interbankenmarkt verglichen werden. Dazu ein stark vereinfachtes Beispiel einer Bank mit nur zwei Zinsgeschäften (vgl. Abb. 2.4). Bei beiden Geschäften soll von einer jährlichen Zinszahlung jeweils am Jahresende sowie einer endfälligen Rückzahlung der vollen Summe ausgegangen werden. Aus diesen beiden Geschäften ergibt sich für die Bank ein Zinsüberschuss im ersten Jahr von 3000 € als Saldo von 5000 € Zinsertrag und 2000 € Zinsaufwand. Um den Anteil von Kredit und Festgeld an diesem Zinsüberschuss zu ermitteln, muss nun die jeweilige Kundenkondition
Aktiv Kredit Lfz. 5 Jahre 5 %
Bilanz T€ 100
Festgeld Lfz. 1 Jahr 2 %
Abb. 2.4 Erfolgsquelle Zinsüberschuss. (Quelle: eigene Darstellung)
Passiv 100
2.2 Entscheidungsorientierte Einzelgeschäftskalkulation
11
Zinssatz %
4
3
Lfz. Jahre
1
5
Abb. 2.5 Zinsstrukturkurve. (Quelle: eigene Darstellung)
mit der Kondition für Geschäfte gleicher Laufzeit am Geld- und Kapitalmarkt verglichen werden. Dabei wird hier vereinfachend davon ausgegangen, dass es keine Geld-Brief- Spanne für Angebot und Nachfrage bei Geldern gleicher Laufzeit gibt. Es gibt also für jede Fristigkeit nur einen Satz, der sich grafisch in der so genannten Zinsstrukturkurve darstellen lässt. Diese Zinsstrukturkurve sei zum Abschlusszeitpunkt der beiden Geschäfte, wie in Abb. 2.5 dargestellt, angenommen. Das dargestellte Beispiel zeigt auf dem Geld- und Kapitalmarkt für eine einjährige Geldaufnahme bzw. -anlage einen Zinssatz von drei Prozent und für fünf Jahre von vier Prozent. Mit diesen Informationen kann nun der Zinsüberschuss von insgesamt 3000 € aufgeteilt werden. Für den Kredit mit fünf Jahren Laufzeit ergibt sich eine Marge von fünf Prozent minus vier Prozent, was bei einem Betrag von 100.000 € einem Anteil am Zinsüberschuss von 1000 € entspricht. Begründung: Statt einem Kreditnehmer einen Kredit zu fünf Prozent zu geben, hätte die Bank den gleichen Betrag für die gleiche Laufzeit mühelos am Geld und Kapitalmarkt zu vier Prozent anlegen können. Das Kundengeschäft führt also zu einem Mehrertrag von 1000 €. Bei der Termineinlage ist die Differenz zum Jahressatz am Geld- und Kapitalmarkt umgekehrt zu bilden. Die Marge beträgt dort drei Prozent minus zwei Prozent, also ebenfalls ein Prozent bzw. 1000 €. Begründung hier: Die Bank bekommt das Geld mit gleicher Fristigkeit mühelos am Geld- und Kapitalmarkt zu drei Prozent. Das Geld vom Kunden ist somit ein Prozent günstiger als die zum gleichen Zeitpunkt mühelose Alternative am Geldund Kapitalmarkt. In diesem Zusammenhang bezeichnet man die Geld- und Kapitalmarktsätze auch als Opportunitätszinssätze (OZ), weil sie die Opportunität zu den Kundengeschäften sind. Mit den beiden Kundengeschäften können also 2000 € vom gesamten Zinsüberschuss in Höhe von 3000 € erklärt werden. Diese 2000 € werden auch als Konditionsbeiträge bezeichnet, weil sie dadurch zustande kommen, dass Kundenbetreuer bzw. der Vertrieb von den Opportunitätszinssätzen abweichende Konditionen vereinbaren. Die restlichen 1000 € Zinsüberschuss resultieren daraus, dass die Bank eine Fristentransformation eingeht, bei der sie Geld für ein Jahr aufnimmt und auf der Aktivseite für fünf Jahre in dem Kredit bindet. Diesen Beitrag könnte die Bank auch gänzlich ohne Vertrieb dadurch erzielen, dass das Trea-
12
2 Beschreibung der Wertorientierten Banksteuerung
sury der Bank am Geld- und Kapitalmarkt 100.000 € für ein Jahr zu drei Prozent aufnimmt und für fünf Jahre zu vier Prozent anlegt. Die Entscheidung, ob die im Beispiel eingegangene Fristentransformation eingegangen werden soll, liegt beim Treasury, weil das Treasury auch für das daraus resultierende Risiko verantwortlich ist. Ein Risiko besteht in diesem Beispiel in der Form, dass nach dem Auslaufen des Festgeldes in einem Jahr die Zinssätze deutlich gestiegen sind und die erforderliche Anschlussrefinanzierung für den länger laufenden Festzinskredit entsprechend teurer wird. Aus der Fristentransformation resultiert also ein Zinsänderungsrisiko, auf welches im Abschn. 2.5 noch näher eingegangen wird. Möchte das Treasury dieses Zinsänderungsrisiko aufgrund seiner Zinsprognosen für die Zukunft nicht eingehen, kann sie das Risiko aus den Kundengeschäften durch entsprechende Ausgleichsgeschäfte glattstellen. Sie müsste dafür auf dem Geld- und Kapitalmarkt 100.000 € für fünf Jahre zur fristenkongruenten Refinanzierung des Kredites zum Zinssatz von vier Prozent aufnehmen und das Festgeld für ein Jahr am Geld- und Kapitalmarkt zu drei Prozent anlegen. Aus diesen beiden Ausgleichsgeschäften resultiert ein negativer Zinsbeitrag von einem Prozent für 100.000 €, sodass der positive Fristentransformationsbeitrag aus den Kundengeschäften exakt kompensiert wird. Ohne Zinsänderungsrisiko kann demnach auch kein Fristentransformationsbeitrag erwirtschaftet werden. Wichtig ist an dieser Stelle, dass die Vertriebseinheiten der Bank kein Zinsänderungsrisiko tragen. Der Erfolg oder Misserfolg aus dem Eingehen von Zinsänderungsrisiken durch Fristentransformation wird grundsätzlich dem Treasury zugerechnet, wo auch die Verantwortung dafür liegt. Dass durch die Marktzinsmethode der Zinsüberschuss gemäß GuV exakt aufgeteilt wird bzw. die Beiträge der einzelnen Erfolgsquellen in der Summe wieder exakt den Zinsüberschuss gemäß GuV ergeben, ist kein Zufall, sondern System. Im Beispiel wurden drei Erfolgsquellen unterschieden: Konditionsbeitrag der Aktivseite (KBA), Konditionsbeitrag der Passivseite (KBP) und das Ergebnis aus der Fristentransformation, welches in der Marktzinsmethode auch als Strukturbeitrag (STB) aus der ungleichen Fristenstruktur der beiden Bilanzseiten bezeichnet wird. Diese drei Erfolgsquellen ergeben in der Summe den Zinsüberschuss (ZÜ). Es gilt also: ZÜ = KBA + KBP + STB oder ausführlich:
ZÜ EZ A – OZ A OZP – EZP OZ A – OZP
Dabei steht EZ für den Effektivzins aus den Kundengeschäften und OZ für den jeweiligen Opportunitätszinssatz. Der KB aus dem Kredit (Aktivseite) ist demnach positiv, wenn der Kreditzins (EZA) höher ist als der OZ für fünf Jahre und der KB aus dem Festgeld (Passivseite) ist dann positiv, wenn die Bank dem Kunden (EZP) weniger zahlt, als das einjährige Geld am Geld- und Kapitalmarkt gekostet hätte. Der STB ist dann positiv, wenn der Opportunitätszins auf der Aktivseite (Anlageseite) größer ist als auf der Passivseite (Finanzierungsseite). Wie an der ausführlichen Formel für den Zinsüberschuss zu erkennen ist, kürzen sich die Opportunitätszinsen in der Summe über die drei Erfolgsquellen wieder heraus. Was übrig bleibt, ist der positive EZ aus dem Kredit und der negative EZ aus dem Festgeld. Das entspricht exakt dem Saldo aus Zinsertrag und Zinsaufwand in der GuV. Die mit der Marktzinsmethode eingeführten Opportunitätszinssätze haben demnach keine andere Funktion, als die einzelnen Erfolgsquellen voneinander abzugrenzen.
2.2 Entscheidungsorientierte Einzelgeschäftskalkulation
13
Exkurs Liquiditätskosten: Bei der Steuerung der Fristentransformation ist zu berücksichtigen, dass der Opportunitätszins zwei Preiskomponenten beinhaltet. Bei dem Opportunitätszins für den Kredit in Höhe von vier Prozent sind das der Preis für die fünfjährige Zinssicherung sowie der Preis für die fünfjährige Liquiditätsbindung. Das Gleiche gilt analog für den Opportunitätszins auf der Passivseite von drei Prozent der den Preis für die einjährige Zinssicherung sowie die einjährige Kapitalbindung beinhaltet. Die getrennte Erfassung beider Preiskomponenten ist aus zwei wesentlichen Gründen für die Steuerung erforderlich. Erstens werden die beiden Preiskomponenten von unterschiedlichen Faktoren beeinflusst und zweitens sind sie auch getrennt am Markt handelbar. Der Preis für die Zinsbindung wird beeinflusst von den erwarteten künftigen Zinsentwicklungen am Geld- und Kapitalmarkt, während der Preis für die Liquiditätsbindung von der Bonität/dem Rating der aufnehmenden Bank sowie dem allgemeinen Marktpreis für Liquidität abhängt. Der Marktpreis für die Zinsbindung ist der (risikofreie) Swap-Satz für die entsprechende Laufzeit, während der Preis für die Liquiditätsbindung als (institutsspezifischer) Liquiditätsspread kalkuliert wird. Während die Zinsstrukturkurve eine positive Steigung (wie in Abb. 2.5) haben, flach oder invers (mit negativer Steigung) sein kann, sind die Preise für die Liquidität aufgrund des damit verbundenen Ausfallrisikos immer höher, je länger die Laufzeit ist. Ein Institut kann nun in Abhängigkeit seiner Erwartungen für die jeweiligen Preiskomponenten nur das Zinsänderungsrisiko, nur das Liquiditätsrisiko, beide Risiken oder keines der Risiken absichern. Möchte das Institut nur das Zinsrisiko absichern, kann es in dem vereinfachten Beispiel mit den zwei Geschäften einen Payer-Swap über fünf Jahre und einen Receiver- Swap über ein Jahr abschließen. Bei einem Zinsswap handelt es sich schlicht um den Austausch von Zinszahlungen für eine bestimmte Laufzeit und einen bestimmten Betrag (hier 100.000 €), ohne das Kapital transferiert wird. Bei dem Payer Swap zahlt das Institut den Festzinssatz für fünf Jahre und bekommt im Gegenzug einen variablen Zins. Steigen in dem Beispiel die Zinsen während der Laufzeit des Kredites, dann wird die Verteuerung einer variablen Refinanzierung für den Kredit exakt durch die höheren Zinseinnahmen aus dem Swap ausgeglichen. Bei dem Receiver-Swap erfolgt der Ausgleich des Zinsänderungsrisikos aus dem einjährigen Festgeld analog mit umgekehrter Wirkung. Das Risiko, dass der Preis für die Liquidität bis zum Auslauf des Festgeldes deutlich steigt, könnte ungesichert bleiben und der dafür erforderliche Preis gespart werden, wenn das Institut mit konstanten oder gar sinkenden Liquiditätskosten rechnet. Das Beispiel von Abb. 2.4 weist auf der Aktivseite eine fünfjährige Zins- und Kapitalbindung und auf der Passivseite eine einjährige Zins und Kapitalbindung auf. Bei entsprechenden Informationen könnten nun die beiden Opportunitätszinssätze für fünf Jahre (vier Prozent) und für ein Jahr (drei Prozent) in die beiden Preiskomponenten zerlegt werden. So könnte sich der OZ für fünf Jahre aus einem (risikofreien) Swap-Satz vom 3,5 % und einem Liquiditätsspread von 0,5 % zusammensetzen. Entsprechend könnte der OZ für ein Jahr aus einem Swap-Satz von 2,75 % und einem Liquiditätsspread für ein Jahr von 0,25 % bestehen. Wenn beide Risiken unbesichert bleiben, kann das daraus erzielte Fristentransformationsergebnis im ersten Jahr von einem Prozent aufgeteilt werden in ein Ergebnis aus Zinsfristentransforma-
fest
Zinsbindung
variabel
Abb. 2.6 Typen von Zinsgeschäften. (Quelle: eigene Darstellung in Anlehnung an Schierenbeck 2003a, S. 98, Abb. 40)
2 Beschreibung der Wertorientierten Banksteuerung
Kapitalbindung
14
fest
variabel
Typ1
Typ 2
Typ 3
Typ 4
tion (3,5 % − 2,75 % = 0,75 %) und ein Ergebnis aus Liquiditätsfristentransformation (0,5 % − 0,25 % = 0,25 %). Durch die Aufteilung der OZ in ihre beiden Preisbestandteile ändert sich demnach nichts für die Konditionsbeiträge im Vertrieb. Auch die Überführbarkeit der Ergebnisquellen in den Zinsüberschuss der GuV bleibt davon unberührt. Es wird lediglich das Treasury in die Lage versetzt, die beiden Teile der Fristentransformation (Zins und Liquidität) separat zu steuern. (Ende des Exkurses) Soweit Zins- und Kapitalbindung fest vereinbart sind, ist die genaue und verursachungsgerechte Kalkulation der Anteile einzelner Zinsgeschäfte und des Strukturbeitrags am gesamten Zinsergebnis kein Problem. Schwieriger und in gewisser Weise unscharf wird es dann, wenn Zins- und/oder Kapitalbindung nicht fest vereinbart sind, weil dann die Zuordnung von fristenkongruenten Opportunitätszinsen nicht offensichtlich bzw. eindeutig ist. Die Marktzinsmethode unterscheidet in diesem Zusammenhang vier verschiedene Typen von Zinsgeschäften (vgl. Abb. 2.6). In den bisherigen Beispielen wurden ausschließlich Zinsgeschäfte des Typs 1 mit fester Zins- und Kapitalbindung angenommen, um das Verständnis für das Grundmodell der Marktzinsmethode zu erleichtern. Bei dem Kredit wurde eine fünfjährige Zinsund Kapitalbindung angenommen und bei dem Festgeld eine einjährige Zins- und Kapital bindung. Die aus den Effektivzinsen und den fristenkongruenten Opportunitätszinsen ermittelten Konditionenbeiträge des Vertriebs waren garantiert frei von Zinsänderungsrisiken. Zum Typ 1 zählen auch Ratenkredite oder Annuitätendarlehn mit Festzinsvereinbarung, bei denen der Zins- und Tilgungsteil einer jeden Rate bzw. einer jeden Annuität feststehen. Bei einem Ratenkredit über fünf Jahre mit konstanten monatlichen Raten, bei dem der Tilgungsanteil während der Laufzeit zu und der Zinsanteil abnimmt, entspricht der Tilgungsanteil der ersten Rate einem endfälligen Festzinsgeschäft mit einer Laufzeit von einem Monat. Beim Tilgungsanteil der 60. Rate handelt es sich entsprechend um ein endfälliges Festzinsgeschäft mit einer Laufzeit von fünf Jahren. Der gesamte Ratenkredit kann somit als eine Sammlung von 60 Festzinsgeschäften des Typs 1 mit fester Zins- und Kapitalbildung kalkuliert werden. Bei Zinsgeschäften des Typs 3 handelt es sich um Festzinsgeschäfte in Verbindung mit Optionen bei der Kapitalbindung. In der Praxis relativ häufig sind zum Beispiel Festzinsdarlehn mit vertraglichen, in der Regel limitierten, Sondertilgungsrechten für den Kunden. Die Aus-
2.2 Entscheidungsorientierte Einzelgeschäftskalkulation
15
übung dieser Option ist für den Kunden insbesondere dann interessant, wenn die Zinsen seit der Darlehnsvergabe gesunken sind. Im Extremfall könnte der Kunde dann sogar einen billigeren Kredit aufnehmen um die Sondertilgungen in vertraglich maximal möglicher Höhe zu leisten, wodurch er die Differenz bei den Zinsen zwischen bestehendem und neuem Kredit sparen würde. Ein anderes Beispiel aus der realen Welt ist ein langlaufender Ratensparvertrag, zum Beispiel über zehn Jahre, mit fest vereinbarten, jährlich steigenden Zinssätzen, bei dem der Sparer die Option hat, die monatliche Sparrate bis zu einer maximalen Höhe (zum Beispiel 1000 €) zu variieren. Derartige Sparverträge hat beispielsweise die Sparkasse Ulm ihren Kunden unter dem Namen „Scala“ (ital. Treppe, für die steigenden Zinsen) angeboten. Diese Sparverträge sind ihr zum Verhängnis geworden, als die Zinsen ihre Abwärtsentwicklung in die Niedrigzinsphase genommen haben. Als das Zinsniveau sank, während gleichzeitig die Zinssätze der Sparverträge über das Marktzinsniveau stiegen, haben die Kunden natürlich die maximal mögliche Sparrate geleistet, wodurch die Verträge für die Sparkasse zu erheblichen Verlusten führten. Im Grundsatz handelt es sich bei den Geschäften dieses Typs um eine Kombination von Geschäften des Typs 1 mit einer Option, wobei das Optionsrecht grundsätzlich beim Kunden oder bei der Bank liegen kann. Wenn bei einem Festzinskredit das Optionsrecht in der Form möglicher Sondertilgungen beim Kunden liegt und der Konditionsbeitrag während der Laufzeit nicht durch Zinsänderungen beeinflusst werden soll, muss der Opportunitätszins als Preis für die fristenkongruente Refinanzierung um den Preis für die Option erhöht werden, den die Bank aufwenden muss, um sich mit einer identischen Option am Markt abzusichern. Dabei kann die Kalkulation über das Optionspreismodell erfolgen und in einem p.a.-Satz ausgedrückt werden. Würde beispielsweise der Kredit aus dem Eingangsbeispiel in Abb. 2.4 ein solches Sondertilgungsrecht beinhalten und der Wert dieser Option über die Laufzeit einem Zinssatz von 0,2 % entsprechen, dann würden sich die Refinanzierungskosten für die Bank bei vollständiger Absicherung gegen Zinsänderungsrisiken von vier Prozent um 0,2 % auf 4,2 % erhöhen und die Marge würde sich entsprechend von einem Prozent auf 0,8 % verringern. Liegt das Optionsrecht auf der Seite der Bank, würde sich die Konditionsmarge aus dem entsprechenden Geschäft um den Preis der Option erhöhen, weil sie die Option zu dem Preis verkaufen könnte. Ob das Treasury dann t atsächlich das Absicherungs- bzw. Ausgleichsgeschäft macht oder nicht, bleibt ihm im Rahmen der Steuerung des Fristentransformationsbeitrags überlassen. Bei den Zinsgeschäften der Typen 2 und 4 ist die Kalkulation eines von Fristentransformationsrisiken geschützten Konditionsbeitrags deutlich schwieriger bzw. unschärfer. Ein Beispiel für Zinsgeschäfte des Typs 2 wären variabel verzinsliche Hypothekendarlehn mit fester Kapitalbindung von fünf oder zehn Jahren. Bei zu erwartenden Marktzinsänderungen während der Laufzeit eines solchen Darlehns wird die Bank voraussichtlich auch den Effektivzinssatz in die entsprechende Richtung anpassen. Der Effektivzins wird also in der Zukunft schwanken. Die Schwierigkeit besteht nun darin, das Zinsanpassungsverhalten der Bank für dieses Produkt in Abhängigkeit von zu definierenden Marktzinsveränderungen zu antizipieren und eine hinsichtlich Zins- und Liquiditätsbindung risikofreie Refinanzierung zu konstruieren, bei welcher der Konditionsbeitrag während der Laufzeit konstant bleibt. Grafisch könnte diese Herausforderung in etwa aussehen wie in (Abb. 2.7) dargestellt.
16 Abb. 2.7 Abbildung variabel verzinslicher Darlehen. (Quelle: eigene Darstellung)
2 Beschreibung der Wertorientierten Banksteuerung Zinssatz
Konditionsmarge
EZ OZ
Laufzeit (t)
Bei Zinsgeschäften des Typs 4 sind ungewisse Zins- und Kapitalveränderungen zu antizipieren, was die Herausforderung nicht kleiner macht. Beispiele für Zinsgeschäfte dieses Typs sind die Kontokorrentkredite auf der Aktivseite bzw. Sicht- oder variable Spar einlagen auf der Passivseite. Bei diesen Produkten liegt die vertragliche Laufzeit aufgrund der jederzeitigen Verfügbarkeit bei einem Tag, während die tatsächliche Laufzeit der Kontokorrentkredite bzw. Einlagen länger ist. Weil die in der Zukunft liegende tatsächliche Laufzeit aufgrund der täglichen Verfügungsmöglichkeit ungewiss ist, arbeiten Theo rie und Praxis bei der Kalkulation dieser Produkte im Rahmen der Marktzinsmethode mit einem Modell auf der Basis von Erfahrungen der Vergangenheit. Sie bilden praktisch eine Replikation der Vergangenheit als Basis für die Kalkulation der Zukunft, die hier nur beispielhaft für variable Spareinlagen angedeutet werden soll, da eine detaillierte Beschreibung für die Zwecke dieses Buches nicht erforderlich ist und insoweit auf die einschlägigen Lehrbücher verwiesen wird. Bei Spareinlagen erfolgt die Ermittlung eines fristenkongruenten Opportunitätszinses nicht auf der Ebene der einzelnen Einlagenkonten, sondern für das Produkt in Summe. Bei der Beobachtung des gesamten variablen Spareinlagenbestandes in der Vergangenheit lässt sich in der Regel beobachten, dass dieser aufgrund der Abhebungen und Einzahlungen auf einzelnen Konten Schwankungen unterliegt und eine gewisse Untergrenze im „Normalfall“ nicht unterschreitet. Dieser Sachverhalt ist grafisch in Abb. 2.8 dargestellt. Dieser im Normalfall nicht unterschrittene Bestand wird in der Praxis auch als „Bodensatz“ bezeichnet. Zudem lässt sich bei einer Analyse der Vergangenheit feststellen, dass der Gesamtbestand an Spareinlagen über einen gewissen Zeitraum auf Kundenebene (nahezu) komplett umgewälzt wird. Um diesem Umschichtungsgedanken gerecht zu werden, könnte man bei einer in der Vergangenheit beobachteten durchschnittlichen Verweildauer von fünf Jahren eine „fristenkongruente“ Anlage der Spareinlagen in fünf gleichgroßen Tranchen zu jeweils 1/5 des Gesamtbestandes vorsehen, von denen jedes Jahr eine Tranche ausläuft und sofort wieder zum dann gültigen Fünf-Jahressatz angelegt wird. Bei einem Bestand von einer Milliarde Euro wären das fünf Tranchen zu jeweils 200 Mio. €. Um in diesen Durchschnittsmodus
2.2 Entscheidungsorientierte Einzelgeschäftskalkulation Abb. 2.8 Variable Einlagen. (Quelle: eigene Darstellung)
17
Volumen Spareinlagen
„Bodensatz“ Zeit
hereinzukommen, werden beim Start eines solchen Modells 200 Mio. € für ein Jahr angelegt, weitere 200 Mio. € für zwei Jahre usw. bis hin zur letzten Tranche, die sofort für fünf Jahre angelegt wird. Bei Fälligkeit der jeweiligen Tranchen erfolgt die Wiederanlage immer für fünf Jahre zu dem dann gültigen Satz für fünf Jahre. Nach vier Jahren befindet sich das Modell in einem „eingeschwungenen“ Zustand, weil alle Tranchen in Fünf- Jahresgeld investiert sind, von denen jedes Jahr eine Tranche fällig wird. In der Regel weisen die einzelnen Tranchen unterschiedliche Zinssätze auf, weil der Fünf-Jahreszins am Geld- und Kapitalmarkt Marktschwankungen unterliegt. Wenn die Anlage ausschließlich in Fünf-Jahresgeld erfolgt, ist der Durchschnittszins der fünf Tranchen der Opportunitätszins für die gesamten Spareinlagen. Diese Vorgehensweise bezeichnet man auch als „Konzept der gleitenden Durchschnitte“. Bei dieser Vorgehensweise schlägt sich die Veränderung zwischen zwei Wiederanlageterminen somit im Opportunitätszins für die Spareinlagen nur zu 1/5 nieder. Damit schwankt auch die Konditionsmarge als Differenz zwischen diesem Opportunitätszins und dem Effektivzinssatz für die Spareinlagen deutlich geringer, als wenn beispielsweise der komplette Bodensatz alle fünf Jahre zu dem dann gültigen Fünf-Jahressatz neu angelegt würde. Trotzdem werden Schwankungen in der Konditionsmarge verbleiben, die als im Vertrieb verbliebenes Zinsänderungsrisiko anzusehen sind. Für die bekannte Vergangenheit kann man nun bei diesem Modell ex post die Schwankungen des Konditionenbeitrags ermitteln, die sich bei der Anwendung in der Vergangenheit ergeben hätten. Darauf aufbauend könnte man dann für die Vergangenheit analysieren, wie sich die Schwankung verändert, wenn man Tranchierung und Mischungsverhältnis ändert. So könnte man beispielsweise statt fünf Jahrestranchen 60 Monatstranchen vorsehen und statt nur gleitend in Fünf-Jahresgeld zum Beispiel 70 % (700 Mio. €.) gleitend in Fünf- Jahresgeld und den Rest gleitend in monatlichen Tranchen von 1-Jahresgeld anlegen. Auf diese Weise könnte man für die Vergangenheit ein „Replikationsmodell“ entwickeln, bei dem die Schwankungen der Konditionsmarge für die Spareinlagen und damit der Effekt aus Zinsänderungsrisiken minimal gewesen wäre. Damit hätte man für die Vergangenheit den richtigen (fristenkongruenten) Opportunitätszins, bei dem das Zinsänderungsrisiko weitgehend im Treasury verblieben wäre, gefunden. Dass das auch rückblickend mit absoluter Genauigkeit nicht in praktikabler Weise zu schaffen ist, ist im Zweifel nicht entschei-
18
2 Beschreibung der Wertorientierten Banksteuerung
dend. Wenn die auf diese Weise ermittelte Replikation jedoch für die Kalkulation in der Zukunft angewendet wird, ist die implizite Annahme, dass die Zukunft hinsichtlich der tatsächlichen Verweildauern dieser Gelder eine annähernde Wiederholung der Vergangenheit ist, kritisch. Man stelle sich beispielsweise vor, dass die derzeitigen (mangels Anlagealternativen) großen Bestände bei einem deutlichen Zinsanstieg zwecks Anlage in besser verzinsliche Produkte (Anleihen) abgezogen würden. Eine solche unerwartete Entwicklung würde anzeigen, dass die auf der Basis der Vergangenheit angenommene Verweildauer der Spareinlagen sich „unbemerkt“ wesentlich verkürzt hat und von daher ein wesentlicher Anteil der Spareinlagen nur in kurzfristige Laufzeiten hätte investiert werden dürfen. Aus diesem Grund gehen heute Institute vermehrt dazu über, die Mischungsverhältnisse der Laufzeiten als Ausdruck für die erwartete Verweildauer des aktuellen Spareinlagenbestandes und damit Minimierung des Zinsänderungsrisikos für die Zukunft nicht nur anhand der Vergangenheit zu modellieren, sondern nach Möglichkeit besondere Entwicklungen in der Zukunft zu antizipieren. Wichtig für die Zwecke dieses Buches ist: Ein Modell (hier für die nicht greifbaren, in der Zukunft liegenden tatsächlichen Laufzeiten der variablen Kundeneinlagen auf Basis der Vergangenheit), ist immer nur eine starke Vereinfachung der Wirklichkeit. Von daher ist bei im Rahmen der Banksteuerung eingesetzten Modellen immer wieder kritisch zu hinterfragen, ob zugrunde liegende Modellprämissen (hier: Zukunft als Wiederholung der Vergangenheit) für die zu treffenden Entscheidungen (hier: Bestimmung von Mischungsverhältnissen bei der Anlage variabler Spareinlagen zur Minimierung von Zinsänderungsrisiken für Konditionsbeiträge) noch vertretbar sind. Dass das geschieht, obliegt der Verantwortung des Managements. Diese Thematik wird noch ausführlicher in Abschn. 3.2 im Rahmen der Risikosteuerung mit Hilfe von Risikomodellen erörtert. Abschließend soll das Gesamtbild der Aufteilung des Zinsüberschusses in seine einzelnen Erfolgsquellen inklusive der noch nicht explizit beschriebenen Komponenten des Strukturbeitrags anhand einer etwas differenzierteren Bankbilanz dargestellt werden (vgl. Abb. 2.9).
Aktiva Position
Volumen Mio. €
EZ
Passiva OZ
Position
Volumen Mio. €
OZ
EZ
Kundenkredite
5000
3,000 %
1,700 % Kundeneinlagen
6000
1,500 %
1,400 %
Eigenanlagen
4700
1,900 %
1,500 % Vblk. ggüb. Banken
3000
1,300 %
1,300 %
Zinslose Aktiva
300
0,000 %
2,000 % Eigenkapital
1000
2,000 %
0,000 %
10.000
2,393 %
1,615 % Summe
Summe
Abb. 2.9 Strukturbeitragsbilanz. (Quelle: eigene Darstellung)
10.000
1,490 % 1,230 %
2.2 Entscheidungsorientierte Einzelgeschäftskalkulation
19
Die Bank hat auf der Aktivseite Kundenkredite in Höhe von insgesamt fünf Milliarden Euro mit einer durchschnittlichen Marge von 1,3 % (3 % minus 1,7 %). Ferner hat sie Eigenanlagen in Höhe von 4,7 Mrd. € getätigt, aus denen sie eine durchschnittliche Marge von 0,4 % generiert. Hinter den 300 Mio. € zinsloser Aktiva verbergen sich Grundstücke und Gebäude sowie Betriebs- und Geschäftsausstattung. Hierfür werden fristenkongruente (langfristig rollierend) Refinanzierungskosten in Höhe von zwei Prozent unterstellt. Auf der Passivseite stehen sechs Milliarden Euro Kundeneinlagen, die (in der Niedrigzinsphase) eine durchschnittliche Marge von 0,1 % bringen, das zinslos zur Verfügung stehende Eigenkapital, welches fristenkongruent (langfristig rollierend) zu zwei Prozent risikolos angelegt werden kann sowie drei Milliarden Euro Verbindlichkeiten gegenüber Banken, da Einlagen und Eigenkapital nicht ausreichen, um Aktivseite zu finanzieren. Da das Interbankengeschäft zu Geld- und Kapitalmarktsätzen erfolgt, sind EZ und OZ identisch (1,3 %). Als Differenz vom durchschnittlichen Effektivzins auf der Aktivseite und durchschnittlichem Effektivzins auf der Passivseite errechnet sich eine Bruttozinsspanne von 1,163 % (2,393 % – 1,23 %). Durch Multiplikation der Zinsspanne mit der Bilanzsumme ergibt sich der Zinsüberschuss von 116,3 Mio. €. Dieser Zinsüberschuss muss sich auch als Summe der einzelnen Erfolgsquellen ergeben. Die Konditionsbeiträge aus den Kundenkrediten belaufen sich auf 65 Mio. € (1,3 % * 5000 Mio. €). Die Kundeneinlagen tragen mit sechs Millionen Euro zum Zinsüberschuss bei. Mit den Eigenanlagen werden 18,8 Mio. € erwirtschaftet. Den Erträgen aus der risikolosen Anlage des Eigenkapitals in Höhe von 20 Mio. € steht ein Refinanzierungsaufwand für die zinslose Aktiva in Höhe von sechs Millionen Euro gegenüber. Das Ergebnis aus der Fristentransformation ergibt sich als Differenz der durchschnittlichen Opportunitätszinssätze von Aktiv- und Passivseite der Bilanz, multipliziert mit der Bilanzsumme. Es liegt in diesem Fall bei 12,5 Mio. € (0,125 % * 10.000). In der Summe ergeben sich wieder die 116,3 Mio. € Zinsüberschuss. Würde für alle Opportunitätszinssätze die Aufteilung nach Swap-Satz und Spread vorliegen, könnten die 12,5 Mio. € aus der Fristentransformation, wie am vereinfachten Beispiel im Exkurs erläutert, nach dem Ergebnis aus Zinsfristen transformation und Liquiditätsfristentransformation aufgeteilt werden.
2.2.3 Standardrisiko Von den ermittelten und verursachungsgerecht zugeordneten Bruttoerträgen, die in Abb. 2.3 auch als DB 1 bezeichnet wurden, werden bei Kreditgeschäften die Standardrisiken als zum Abschlusszeitpunkt durchschnittlich erwartete Kreditausfallkosten abgezogen. Dahinter verbirgt sich die Erfahrung, dass sich mit jedem neuen Kreditgeschäft das latente Kreditausfallrisiko erhöht, weil im (langjährigen) Durchschnitt der Vergangenheit immer ein bestimmter Prozentsatz der Kundenkredite verloren gegangen ist. Von daher wird aufgrund dieser Erfahrungen ein solcher erwarteter Verlust bei der Preisgestaltung von Kundenkrediten berücksichtigt. Die Standardrisiken sind damit quasi eine vom Kunden über den Kreditzins zu entrichtende „Versicherungsprämie“ für das latente Kreditaus-
20
2 Beschreibung der Wertorientierten Banksteuerung
fallrisiko. Dieser Sachverhalt ist durchaus vergleichbar mit der von Versicherungsnehmern einer Kfz.-Haftpflichtversicherung zu entrichtenden Versicherungsprämie für das latente Schadensrisiko. In beiden Fällen werden bei der Ermittlung der Versicherungsprämien in der Regel zwei Bedingungen angestrebt: Einerseits soll die Höhe der zu vereinnahmenden Prämien in der Summe über das ganze Portfolio den durchschnittlichen Schäden über die langjährige Vergangenheit entsprechen und andererseits sollen zum Zwecke einer besseren Steuerung, ebenfalls auf der Basis der Erfahrungen der Vergangenheit, kundenindividuelle Risikofaktoren bei der kundenindividuellen Preisdifferenzierung berücksichtigt werden. Was bei der Kfz-Haftpflicht zum Beispiel die unfallfreien Jahre des Versicherungsnehmers sind, sind bei den Risikoprämien für das erwartete Kreditausfallrisiko kundenindividuelle Ratings auf der Basis von Risikoindikatoren (bei Privatkunden zum Beispiel Haushaltseinkommen, Schufa-Auskunft, Jahre der Beschäftigung bei einem Arbeitgeber), die sich auf der Basis der Vergangenheit als relevant herausgestellt haben. In der Vergangenheit und auch in der Zukunft wird es einzelne Jahre geben, in denen mehr Versicherungsprämien vereinnahmt wurden als Schäden angefallen sind und andere Jahre, in denen mehr Schäden angefallen sind als Versicherungsprämien bzw. Standardrisiken eingenommen wurden. Übersteigen die tatsächlichen Schäden bzw. Verluste die erwarteten, so ist diese Überschreitung das unerwartete und damit eigentliche Risiko. Bei der Kfz- Haftpflicht könnte ein solcher Fall beispielsweise durch eine Unfallhäufung aufgrund widriger Wetterverhältnisse eintreten, während bei Banken unerwartete Verluste aufgrund einer Wirtschaftskrise, Finanzkrise, Pandemie oder andere seltene Extremereignisse eintreten können. Abb. 2.10 verdeutlicht diesen Zusammenhang. Während der erwartete Verlust in der Summe über alle Kreditnehmer über deren Anteil am Zinsüberschuss vereinnahmt wird, ist der unerwartete Verlust aus dem Eigenkapital zu bezahlen und seine Möglichkeit bei Ermittlung des für die Erfüllung der Risikotragfähigkeit erforderlichen Eigenkapitals zu berücksichtigen. Die bereits angesprochene Differenzierung der Standardrisikokosten auf Kunden- bzw. Einzelgeschäftsebene über Risikoklassen auf der Basis von Ratings ist dabei nicht nur gesetzlich vorgeschrieben, sondern auch für die ökonomische Steuerung unerlässlich. Dies soll Abb. 2.11 verdeutlichen. Abb. 2.10 Erwarteter und unerwarteter Verlust. (Quelle: eigene Darstellung)
Kreditverluste
Unerwarteter Verlust/ Risiko Tatsächlicher Verlust
Erwarteter Verlust (Durchschnitt der Vergangenheit) Zeit (Jahre)
2.2 Entscheidungsorientierte Einzelgeschäftskalkulation
21
Prämie (%)
Risikoorientierte Prämie
!
Undifferenzierte Risikoprämie
!
Risikoklassen (steigend) Abb. 2.11 Risikoorientiertes Pricing von Krediten. (Quelle: eigene Darstellung)
Würde eine Kalkulation für alle Kunden mit einer undifferenzierten Durchschnittsprämie erfolgen, würden risikoärmere Kunden tendenziell zu viel bezahlen und abwandern (linkes Warndreieck), während tendenziell Kunden mit überdurchschnittlichem Risikoprofil bei einer einheitlichen Risikoprämie zu wenig bezahlen und damit angelockt würden (rechtes Warndreieck). Die individuellen Standardrisikokosten bzw. erwarteten Verluste für einzelne Kredite sind ein Produkt aus drei Faktoren:
EL PD LGD EaD
Dabei steht EL für den erwarteten Verlust (Expected Loss), PD (Probability of Default) für die Ausfallwahrscheinlichkeit des Kunden, LGD (Loss Given Default) für den Anteil der noch ausstehenden Kreditbeträge zum Zeitpunkt des Ausfalls, der nicht mehr eingebracht werden kann und EaD (Exposure at Default) für die noch ausstehenden Kreditbeträge zum Zeitpunkt des Ausfalls. Soll nun das Standardrisiko zum Zeitpunkt der Kreditvergabe in die Konditionsgestaltung einfließen, müssen demnach alle drei Faktoren ex ante ermittelt werden. Die Ausfallwahrscheinlichkeit (in Prozent) als die Wahrscheinlichkeit, dass der Kreditkunde seinen kreditvertraglichen Verpflichtungen aus eigener Kraft nicht mehr nachkommen kann, ergibt sich dabei als Ergebnis eines Ratings auf der Basis von Ausfalldaten der Vergangenheit. Ein solches Ratingsystem wird spezifisch für einzelne Forderungsklassen (Konsumentenkredite, Hypothekendarlehn, Investitionskredite, etc.) entwickelt. Dabei werden denkbare Indikatoren für einen Ausfall in der jeweiligen Forderungsklasse (Haushaltseinkommen, Schufa-Auskunft, Wohngegend etc.) anhand vergangener Ausfälle in der Forderungsklasse, die in einer laufend gepflegten Ausfalldatenbank geführt
22
2 Beschreibung der Wertorientierten Banksteuerung
werden, daraufhin untersucht, inwieweit sie mit den später eingetretenen Ausfällen tatsächlich korrelieren. Eine optimale Auswahl von Indikatoren und deren Gewichtung im Ratingsystem für die Ermittlung der Ausfallwahrscheinlichkeit ist dann erreicht, wenn damit für die abgeschlossenen Kreditgeschäfte der Vergangenheit zum Zeitpunkt der jeweiligen Kreditvergaben eine bestmögliche Prognose der später eingetretenen Ausfälle möglich gewesen wäre. Hinsichtlich der detaillierten Entwicklung und fortlaufenden Qualitätssicherung solcher Ratingmodelle aufgrund regelmäßiger Backtestings wird wiederum auf die entsprechende Standardliteratur des „Bankmanagement 1.0“ verwiesen. Gleiches gilt für die Modelle zur Prognose von LGD und EaD. Wichtig für die Zwecke dieses Buches ist, dass die Ermittlung aller drei Faktoren zum Zeitpunkt der Kreditvergabe auf der Basis von Daten bzw. Geschäften der Vergangenheit erfolgt. Damit ist die implizite Modellprämisse verbunden, dass die Ausfallgründe der Vergangenheit auch eine entsprechende Aussagekraft für die Zukunft haben. Wie bereits zuvor erwähnt, sind bei der Anwendung von Modellen die Modellprämissen daraufhin zu überprüfen, ob sie für die zu treffenden Entscheidungen ausreichend sind oder Korrekturen (in welcher Form auch immer) erforderlich sind. Gerade bei Kreditratings sind die so genannten ESG-Kriterien (Enviromental Social and Governance) für die Prognose solcher Faktoren in der Zukunft nunmehr deutlich relevanter als sie es in der Vergangenheit waren. So ist zum Beispiel bei Immobilien als Sicherheiten heute die Energieeffizienz und/oder Gefahrenlage hinsichtlich Überflutungen wesentlich entscheidender für die Bewertung als in der Vergangenheit. Für das Rating ist es heute im Zweifel entscheidender, wie umweltverträglich die Branche ist, welcher ein gewerblicher Kreditnehmer angehört als das in der Vergangenheit der Fall war. Insoweit sind Korrekturen der auf der Basis von Vergangenheitsdaten ermittelten Ratings angezeigt. Wie bereits gesagt, wird auf die grundsätzliche Problematik der Anwendung von Modellen in Abschn. 3.2 näher eingegangen.
2.2.4 Prozesskosten Eine verursachungsgerechte Zuordnung von Kosten zu einzelnen Bankgeschäften scheint auf den ersten Blick insbesondere deshalb schwierig, weil der Anteil der variablen, direkt zurechenbaren Kosten (zum Beispiel für Formulare oder Transaktionskosten für externe Dienstleister) relativ gering ist. Diese Problematik löst das Bankmanagement 1.0 mit Hilfe der Prozesskostenrechnung, die sich als Standard durchgesetzt hat. Im Zusammenhang mit ihrer Anwendung sind, auch bei zwangsläufigen Unschärfen, keine entscheidenden Hinderungsgründe für ihre Anwendung aufgetreten. Auch sind bisher keine Alternativen aufgekommen, deren vergleichende Erörterung an dieser Stelle erforderlich wäre. Von daher erfolgt an dieser Stelle aus Gründen der Vollständigkeit bzw. des Überblicks eine kurze Beschreibung der Grundzüge. Hinsichtlich der Details in Theorie und Praxis wird auf die einschlägigen Lehrbücher des Bankmanagements 1.0 verwiesen. Das Ziel der Prozesskostenrechnung besteht darin, einen möglichst großen Teil der Gesamtbankkosten den einzelnen Bankgeschäften verursachungsgerecht ex ante zurechnen zu
2.2 Entscheidungsorientierte Einzelgeschäftskalkulation
23
können, um bei der Preisgestaltung auch diese Kosten angemessen im Sinne der Deckungsbeitragsrechnung zu berücksichtigen. Zudem sollen die Kosten, die nicht den Kundengeschäften zugerechnet werden können, nach ihren Entstehungsursachen analysierbar und entsprechend steuerbar sein. Bevor auf die Zuordnung bzw. Verteilung von Kosten eingegangen wird sei an dieser Stelle noch erwähnt, dass es einen Unterschied geben kann zwischen Ausgaben und Kosten. Auch wenn die meisten Ausgaben zu gleich hohen Kosten führen, kann es Ausgaben geben, denen nicht unmittelbar Kosten in gleicher Höhe gegenüberstehen, wie zum Beispiel Anschaffungen, deren Abschreibung als Bestandteil der Kosten über einen längeren Zeitraum erfolgt. Als Beispiel für Kosten, denen keine Ausgabe zugrunde liegt sind kalkulatorische Mieten für eigene, selbst genutzte Gebäude denkbar. Nach dieser „Überleitung“ von Ausgaben in Kosten erfolgt der Einstieg in die Prozesskostenrechnung über eine Erfassung aller Kosten zum Zeitpunkt ihrer Entstehung in einer zweidimensionalen Matrix nach Kostenarten (Zeilen) und Kostenstellen (Spalten). Kostenarten sind beispielsweise Löhne und Gehälter, Sozialabgaben, IT-Kosten, Reisekosten etc. Bei den Kostenstellen handelt es sich um Organisationseinheiten, wie zum Beispiel Abteilungen, die sich grundsätzlich einteilen lassen in Profit-Center, Service-Center und Cost-Center. Profit-Center sind Organisationseinheiten, welche durch Kunden- oder Eigengeschäfte Erträge für die Bank erwirtschaften. Das können zum Beispiel Filialen, Firmenkundencenter oder Treasury sein. Service-Center sind Back-Office-Einheiten, welche bankinterne Dienstleistungen für Profit-Center, andere Service-Center und Cost-Center oder direkt bei der Erstellung von Bankprodukten für die Kunden erbringen. Beispiele hierfür sind die Kreditabteilung, die Wertpapierabwicklung, der IT-Bereich. Cost-Center zeichnen sich dadurch aus, dass sie nicht an der Erstellung von Bankgeschäften beteiligt sind. Sie werden auch als Overhead-Kostenstellen bezeichnet. Beispiele sind Revision, Personalabteilung, Controlling, Marketing. In einem zweiten Schritt ist diese erste Zuordnung der Kosten um die bewerteten internen Dienstleistungen von Service-Bereichen für Profit-Center, andere Service-Bereiche und Cost-Center zu korrigieren. Das kann zum Beispiel ein bestimmter Betrag pro IT-Arbeitsplatz sein für Wartung und Anwenderbetreuung, der von den jeweiligen Abteilungen an den IT-Bereich zu entrichten ist. Diesen so um interne Leistungen korrigierten Kosten können in den jeweiligen Organisationseinheiten auch entsprechende Mitarbeiterkapazitäten zugeordnet werden. Von den Gesamtkapazitäten eines Mitarbeiters/einer Mitarbeiterin verbleibt nach Abzug von Urlaub, Weiterbildung, durchschnittlicher Krankheitszeit sowie persönlichen und betrieblichen Verteilzeiten und Rüstzeiten eine produktive Nettoarbeitszeit. Angenommen die Nettoarbeitszeit beträgt in einer bestimmten Abteilung 80.000 min pro Vollzeitkraft und Jahr, dann kann die gesamte in der Organisationseinheit zur Verfügung stehende Arbeitskapazität durch Multiplikation mit der Anzahl der Vollzeitkräfte (bei Teilzeitkräften mit entsprechendem Dezimalwert) ermittelt werden. Werden nun die gesamten jährlichen Kosten einer Organisationseinheit (Personalkosten, Sachkosten +/− interne Leistungsverrechnung) durch die gesamte Mitarbeiterkapazität p.a. in Minuten dividiert, so ergibt sich ein Kostensatz pro Mitarbeiterminute für die jeweilige Einheit. Wenn zum Beispiel 8,5 Vollzeitkräfte in einer Abteilung mit einer produktiven Arbeitskapazität von 80.000 min p.a./Mitarbeiter:in arbeiten, so ergibt sich eine Gesamtkapazität von 680.000 min. Wenn die Abteilung insgesamt
24
2 Beschreibung der Wertorientierten Banksteuerung
Bankprodukt: Kauf Aktien (vereinfacht)
Prozesskosten
Zeit in Min. Teilprozessn
∑ Kosten/ Teilprozessn
Produkt Prozess
TP 1 Annahme
TP 2 Abwicklung
TP 3 Buchung
Kostenstelle
4711
4712
4713
Prozessdauer
5 Min.
3 Min.
3 Min.
Kosten/ Minute
3 EUR/ Min.
2 EUR/ Min.
1 EUR/ Min.
Kosten/ Prozess
15 EUR
6 EUR
3 EUR
Kosten Teilprozess
Kosten Teilprozess
TOTAL
11 Min.
24 EUR/ Stück Kosten Teilprozess
Abb. 2.12 Prozesskosten. (Quelle: eigene Darstellung in Anlehnung an zeb-Akademie)
1.500.000 € Kosten verursacht, dann ergibt sich daraus ein Preis von gerundet 2,21 € pro produktiver Mitarbeiterminute. Zerlegt man nun die Erstellung eines Bankproduktes in einzelne Teilprozesse, die in verschiedenen Abteilungen durchgeführt werden, so lassen sich im Rahmen eines Projektes durch entsprechende Messungen Standardbearbeitungszeiten für die einzelnen Teilprozesse in den jeweiligen Abteilungen ermitteln. Durch Multiplikation der Standardbearbeitungszeiten mit den jeweiligen Kostensätzen pro Mitarbeiterminute in den jeweiligen Abteilungen lassen sich dann die Standardkosten für die einzelnen Teilprozesse und somit auch für den Gesamtprozess ermitteln. Das in Abb. 2.12 dargestellte, vereinfachte Beispiel soll diese Kalkulation veranschaulichen. In diesem stark vereinfachten Beispiel ist das (Dienstleistungs-) Produkt der Kauf von Aktien für einen Kunden, der den Kauf telefonisch in einer Filiale beauftragt. Die Aufnahme der Kauforder (ohne Beratung) in der Filiale bis zur Verabschiedung vom Kunden wird mit fünf Minuten Standardbearbeitungszeit angesetzt. Multipliziert mit dem Preis für eine produktive Betreuerminute ergibt sich ein Kostensatz für diesen Teilprozess von 15 €. Analog ergeben sich die Kosten für die Teilprozesse in der Abwicklung und der Buchhaltung mit sechs bzw. drei Euro. In der Summe ergeben sich für den gesamten Prozess Kosten in Höhe von 24 € pro Stück. Da sie pro Stück anfallen, spricht man auch von Stückkosten. Um den DB 2 eines Geschäftes dieser Art im Sinne der Abb. 2.3 zu ermitteln, müssen von den vereinnahmten Provisionen die Stückkosten von insgesamt 24 € abgezogen werden. Würde diese Bank eine Standardprovision von 1 % auf den Umsatz nehmen, so könnte man daraus auch ableiten, dass erst bei einem Ordervolumen von mehr als 2400 € ein positiver Deckungsbeitrag entsteht bzw. bei einem Ordervolumen von unter 2400 € eine Mindestgebühr von 24 € erforderlich wäre, um einen negativen Deckungsbeitrag zu vermeiden. Auf der Ebene der beteiligten Organisationseinheiten (Filiale, Abwicklung, Buchhaltung) helfen die Stückkosten ebenfalls bei der Ergebnisanalyse. Dies sei in der Fortführung des vereinfachten Beispiels erläutert (vgl. Abb. 2.13).
2.2 Entscheidungsorientierte Einzelgeschäftskalkulation
25
Zentrale
Summe Bank
Anzahl Wertpapierkäufe: 25 Stück
Filiale
Provisionen
1000
1000
Stückk. Kunden
600
600
Markterg./DB 3
400
400
Stükk. OE
375
150
75
600
Ist - Kosten
400
200
100
700
Produktivitätsergebnis
- 25
- 50
- 25
- 100
Gesamtergebnis
375
- 50
- 25
300
-
=
-
=
Abwicklung
Buchhaltung
Abb. 2.13 Produktivitätsergebnis. (Quelle: eigene Darstellung)
Die vereinfachte Bank besteht nur aus einer Filiale sowie den beiden zentralen Service- Centern Abwicklung und Buchhaltung. In der Filiale werden insgesamt 25 Wertpapierkäufe durchgeführt, die insgesamt zu Provisionserträgen von 1000 € führen. Die tatsächlichen (Ist-) Kosten belaufen sich über alle Organisationseinheiten auf 700 €. Das führt zu einem Gesamtbankergebnis in Höhe von 1000 − 700 = 300 €. Von den insgesamt 700 € Kosten wurden 600 € dadurch verursacht, dass Kunden insgesamt 25 Aktienkäufe zu Stückkosten von 24 € beauftragt haben. Diese Stückkosten werden von den Kundenerträgen abgezogen. Da bei einem Dienstleistungsgeschäft keine Standardrisiken anfallen und keine Eigenkapitalkosten zugeordnet werden können (vgl. auch Abschn. 2.2.5), ergibt sich ein DB 2, der dem DB 3 entspricht, von 400 €. Dieses Ergebnis aus dem Kundengeschäft nennt man auch Marktergebnis. Die im Marktergebnis belasteten Stückkosten sind als Leistungen der beteiligten Organisationseinheiten diesen anteilig zu vergüten und den jeweiligen Ist-Kosten gegenüberzustellen. Die Differenz zwischen vereinnahmten Stückkosten als Ausdruck der erbrachten Leistungen und tatsächlichen Ist-Kosten bezeichnet man als Produktivitätsergebnis. Dadurch, dass die Stückkosten im Marktergebnis belastet und Produktivitätsergebnis vergütet werden, kürzen sie sich bei der Addition von Markt- und Produktivitätsergebnis in der Summe über die Gesamtbank wieder heraus. Sie haben demnach keine andere Aufgabe, als die Gesamtkosten danach aufzuteilen, inwieweit sie durch den Kunden verursacht wurden und inwieweit sie andere Ursachen haben. Diese anderen Ursachen können sich allgemein aus Beschäftigungsschwankungen, Preisschwankungen oder Produktivitätsschwankungen ergeben. Liegen beispielsweise die Mengen der Geschäfte unter den geplanten bzw. möglichen Mengen, so kommt es zu einer negativen Beschäftigungsabweichung (Leerkosten) beim Produktivitätsergebnis in Höhe der Mengendifferenz multipliziert mit den Stückkosten. Negative Preisabweichungen können beispielsweise daraus resultieren, dass Tarifabschlüsse höher waren als geplant und Produktivi-
26
2 Beschreibung der Wertorientierten Banksteuerung
tätsabweichungen daraus, dass die tatsächlichen Bearbeitungszeiten oberhalb der Standardbearbeitungszeiten lagen. In beiden Fällen würde sich in der Nachkalkulation ein höherer Kostensatz pro Stück ergeben, als die ex ante kalkulierten und verrechneten Stückkostensätze. Vom Konzept her ist die Verwendung von Prozess- bzw. Stückkosten in dieser Form in sich schlüssig. Analog zu den Opportunitätszinssätzen bei der Marktzinsmethode dienen die kalkulierten Prozess- bzw. Stückkosten lediglich dazu, die Kosten des Unternehmens nach Verursachungsbereichen aufzuteilen. Der Kundenbetreuer muss die dem Kundengeschäft zurechenbaren Stückkosten als Preis für die von den beteiligten Abteilungen „eingekauften“ Leistungen über die Erträge der jeweiligen Geschäfte verdienen. Für die Steuerung der Kapazitäten in den beteiligten Abteilungen ist er ebenso wenig verantwortlich wie für die Steuerung des Fristentransformationsergebnisses als Erfolgsquelle für den Zinsüberschuss. Zu den eingangs erwähnten Unschärfen kann es in der Praxis beispielsweise dann kommen, wenn kalkulierte Stückkosten hinsichtlich veränderter Preise oder Prozesse nicht regelmäßig gepflegt werden oder aus Kosten-Nutzen-Erwägungen nicht für alle Produkte und Produktvarianten umfangreiche Erhebungen von Standardbearbeitungszeiten erhoben werden und stattdessen beispielsweise mit Mischkalkulationen, Expertenschätzungen und Äquivalenzziffern gearbeitet wird. Grundsätzlich sind Pflegeintensität und Kosten-Nutzen-Erwägungen so zu handhaben, dass daraus keine Fehlentscheidungen resultieren.
2.2.5 Eigenkapitalkosten In Abschn. 2.1 wurde im Zusammenhang mit dem Capital Asset Pricing Model erläutert, dass die Eigenkapitalkosten als Mindestverzinsungsanspruch der Eigenkapitalgeber in einem linearen Zusammenhang zum eingegangenen unternehmerischen Risiko stehen und sich aus der risikofreien Verzinsung und eben dem Aufschlag für das Risiko ergeben. Bei dem dort angeführten Beispiel lagen die Eigenkapitalkosten für die Gesamtbank bei 88,5 Mio. €, wovon 20 Mio. € durch die risikofreie Anlage des bilanziellen Eigenkapitals in Höhe von 1000 Mio. € zu zwei Prozent erzielt werden konnten und der Rest in Höhe von 68,5 Mio. € durch das eingegangene unternehmerische Risiko zu erwirtschaften ist. Um diese 68,5 Mio. € auf einzelne Geschäfte als Eigenkapitalkosten umlegen zu können, sind demnach die Risiken der Gesamtbank („Gesamtbankrisikoposition“) zu messen und verursachungsgerecht auf die Geschäfte herunterzubrechen. Um diese Anforderung zu verstehen, muss zunächst der Begriff des Risikos in diesem Zusammenhang definiert werden. cc Definition Ein (Vermögens-) Risiko ist ein potenzieller Vermögensschaden in Form einer negativen Abweichung von einem erwarteten Vermögenswert aufgrund ungewisser Ereignisse in der Zukunft. Bei dieser Definition, die durchaus dem allgemeinen Verständnis der Branche entspricht (hier gibt es diverse Definitionen verschiedener Wirtschaftslexika im Internet), ist eine eindeutige quantitative Messung vor allem aus zwei Gründen nicht möglich. Zum einen ist eine
2.2 Entscheidungsorientierte Einzelgeschäftskalkulation
27
zeitliche Begrenzung des Betrachtungszeitraums in der Zukunft erforderlich, bis zu dem die Risiken erfasst werden und zum anderen ist der Eintritt der potenziellen Vermögensschäden ungewiss und damit nicht prognostizierbar. Von daher sind zum Beispiel auch keine mit Wahrscheinlichkeiten gewichteten Schadensereignisse mit entsprechenden Erwartungswerten berechenbar. Das gilt insbesondere auch deshalb, weil die hier relevanten Schadensfälle in der Regel durch Menschen verursacht werden, deren Verhalten nicht prognostizierbar ist (vgl. hierzu insbesondere die Ausführungen in Abschn. 2.3). Während der Betrachtungszeitraum für diese Zwecke der Banksteuerung üblicherweise auf ein Jahr begrenzt wird, nimmt das Bankmanagement 1.0 die Hürde der Ungewissheit der Zukunft mit einem Modell. Die entscheidende Modellprämisse besteht darin, dass die Zukunft eine Wiederholung der Vergangenheit ist. Auf diese Weise erledigt sich auch das Problem der fehlenden Eintrittswahrscheinlichkeit von Schadensereignissen, weil die Eintrittswahrscheinlichkeit bei dieser Modellprämisse der Häufigkeit in der bekannten Vergangenheit entspricht. Ein Beispiel für einen Betrachtungszeitraum von einem Jahr zum Verständnis: Wenn ein bestimmter Schadensbetrag in der Vergangenheit rechnerisch nur einmal in tausend Jahren überschritten wurde, dann wird er auch in der Zukunft nur einmal in tausend Jahren überschritten. Umgekehrt formuliert hat die Bank eine 99,9-prozentige Sicherheit, dass dieser Schadensbetrag im nächsten Jahr nicht überschritten wird. Dabei wird der Prozentsatz zu dem der Schadensbetrag nicht überschritten wird auch als „Konfidenzniveau“ bezeichnet. Da eine Datenhistorie über 1000 Jahre nicht verfügbar sein kann, bedient sich die Praxis der Betrachtung von 1000 Ein-Jahres-Zeiträumen, die sich zwar unterscheiden müssen, aber trotzdem überlappen dürfen. So sind zum Beispiel die Zeiträume vom 02.01.2020 bis zum 01.01.2021 und vom 03.01.2020 bis zum 02.01.2022 zwei solche Ein-Jahres-Zeiträume. Auf diese Weise reicht für die Risikomessung mit einem Konfidenzniveau von 99,9 % auf der Basis historischer Daten („Historische Vollsimulation“) trotz Wochenenden und Feiertagen eine relativ begrenzte Anzahl von Jahren als Datenhistorie. Bei den erhobenen Jahreszeiträumen werden die Ergebnisse ihrer Höhe nach sortiert und der Durchschnittswert über alle 1000 Szenarien ermittelt. Das zweitschlechteste Ergebnis ist demnach das Ergebnis, welches nur einmal in 1000 Jahren unterschritten wird. Das Risiko wiederum ist die negative Abweichung vom Erwartungswert, also dem Durchschnitt aller 1000 Szenarien. Das gemessene Risiko wird somit bei bestehender Datenbasis durch die Länge des Betrachtungszeitraums (für diese Zwecke ein Jahr) und die Höhe des Konfidenzniveaus (99,9 %) bestimmt. Misst man auf diese Art die Risiken über alle unterschiedlichen Risikoarten mit gleichem Betrachtungszeitraum und gleichem Konfidenzniveau, so kann man sie zur Gesamtbankrisikoposition aggregieren. Die Beispielbank könnte sich jetzt im Rahmen der Planung durch eine Vorstandsentscheidung unter der Berücksichtigung des bilanziellen Eigenkapitals und der stillen Reserven ein Risikobudget (Value at Risk, kurz: VaR) von 500 Mio. € geben. Bei über das Risiko insgesamt zu verdienenden 68,5 Mio. € liegt die Mindestverzinsung für das Risikobudget also bei 68,5/500 * 100 % = 13,7 %. Wenn das Gesamtbankbudget heruntergebrochen wird auf Bereiche und Risikoarten, in Teilen sogar bis zum einzelnen Geschäft, dann können auch parallel die entsprechenden ökonomischen Risikokapitalkosten ermittelt werden.
28
2 Beschreibung der Wertorientierten Banksteuerung
Wie unter dem Abschnitt zu den Standardrisiken erläutert, besteht bei Krediten das (unerwartete) Risiko darin, dass die tatsächlichen Verluste aus Kreditausfällen die erwarteten Verluste übersteigen (vgl. Abb. 2.10). Das noch offene Problem besteht nunmehr noch darin, den VaR-Betrag ex ante (bei Verhandlung der Kreditkonditionen) für den einzelnen Kredit zu bestimmen. Dieses Problem besteht deshalb, weil dieser Betrag neben den bereits bekannten Faktoren für die erwarteten Verluste (PD, LGD und EaD) vor allem von der Risikokonzentration im gesamten Kreditportfolio abhängig ist. Was damit gemeint ist, soll an einem stark vereinfachten Beispiel erläutert werden: Zwei Banken (A und B) haben jeweils ein Kreditportfolio von 100 Mio. €. Bei der Bank A handelt es sich um 100 Kredite zu jeweils eine Million Euro, während Bank B zehn Kredite zu jeweils zehn Millionen Euro vergeben hat. Die Ausfallwahrscheinlichkeit (PD) aller Kredite sei ein Prozent. Die Verlustquote bei Ausfall (LGD) sei 100 %, da keine Sicherheiten vorhanden sind und im Falle des Ausfalls nicht mehr mit (Teil-) Rückzahlungen zu rechnen ist. Der Erwartete Verlust (PD * LGD * EaD) ist somit bei beiden Banken eine Million Euro (1 % * 100 % * 100 Mio. €). Für Bank A könnte das mit Blick auf die Vergangenheit wie folgt interpretiert werden: In einem guten Jahr fällt kein Kredit aus, womit der unerwartete Verlust zu einem unerwarteten Gewinn von einer Million Euro in Form der vereinnahmten Standard risikokosten führt. In einem durchschnittlichen Jahr fällt demnach (erwartet) ein Kredit aus. In einem schlechteren Jahr fallen zwei Kredite aus, in einem noch schlechteren Jahr fallen drei Kredite aus und bei der rechnerischen Analyse von 1000 vergangenen Ein-Jahres-Zeiträumen hat es nur ein Jahr gegeben, in dem mehr als fünf Kredite ausgefallen sind. Somit hat die Bank gemäß der Modellprämissen eine 99,9-prozentige Sicherheit, dass im kommenden Jahr nicht mehr als fünf Kredite ausfallen. Zieht man von diesen fünf Kreditausfällen den einen ab, der erwartet wurde, so verbleibt ein unerwartetes Risiko (VaR) in Höhe von vier Millionen Euro. Bei Bank B sieht die Interpretation anders aus: Der erwartete Verlust von einer Million Euro resultiert daraus, dass rechnerisch in der Vergangenheit nur alle zehn Jahre ein Kredit ausgefallen ist. Das bedeutet, dass bei einem deutlich niedrigeren Konfidenzniveau von 90 % bereits ein unerwartetes Risiko von neun Millionen Euro besteht (zehn Millionen Euro Gesamtverlust minus eine Million Euro erwarteter Verlust). Bildlich gesprochen schwanken die tatsächlichen Risiken bei Bank A enger um den erwarteten Verlust von einer Million Euro als bei Bank B, wo ein einziger Ausfall schon ein relativ dramatisches Ausmaß annimmt. Dieses Beispiel zeigt, dass die Risikokonzentration, hier aufgrund von deutlich höheren Einzelkrediten in Bank B, ein wesentlicher Treiber des unerwarteten Verlustes (VaR) ist. Eine solche Konzentration kann auch in Form von Branchenkonzentrationen (zum Beispiel Schiffsfinanzierungen bei der ehemaligen HSH-Bank oder der ehemaligen Deutsche Schiffsbank AG) und/oder regionalen Konzentrationen auftreten. Wichtig an diese Stelle ist, dass der unerwartete Verlust bzw. VaR von der Struktur des Kreditportfolios abhängig ist. Wenn ein neuer Kredit mit einer Laufzeit zum Beispiel für fünf Jahre zur Entscheidung ansteht, dann lässt sich theoretisch eine Erhöhung des VaR zum Zeitpunkt der Kreditentscheidung durch eine Simulation des Portfolios mit und ohne diesen Kredit ermitteln, die man dann auch mit dem Renditeanspruch für dieses Risiko multiplizieren könnte. Problem bei dieser Vorgehensweise ist, dass sich die Struktur des Portfolios während der Laufzeit des Kredites permanent verändert
2.3 Überleitung zum Gesamtbankergebnis
29
und damit auch der VaR für diesen Kredit. Anders formuliert: Der VaR für Kredite lässt sich nicht für einen Kredit über seine Laufzeit ex ante verursachungsgerecht ermitteln, was demnach eine Kalkulation der Kosten für das ökonomische Risikokapital bzw. der Eigenkapitalkosten auf der Ebene der einzelnen Geschäfte theoretisch verhindert. Die Praxis behilft sich hier mit einem Trick. Dazu wird das Gesamtportfolio der Bank in Teilportfolien nach wesentlichen Segmenten aufgeteilt, zum Beispiel nach Privatkunden, Firmenkunden, Projektfinanzierungen. Für diese Teilportfolien wird nun auf der Basis der Vergangenheit jeweils geschaut, welches Vielfache der Standardrisiken rechnerisch nur einmal in tausend Jahren überschritten wurde. Dieses Vielfache der Standardrisiken wird für das jeweilige Segment ex ante in die Kreditkondition eingepreist und ex post fest abgerechnet. Auf diese Weise gibt es zwar Unschärfen zwischen dem VaR auf Portfolioebene und dem, welches auf Einzelgeschäftsebene für die Kapitalkosten zugrunde gelegt wurde, was sich jedoch für die Zwecke der Steuerung als akzeptabel erwiesen hat. Der VaR für unerwartete Verluste aus Kredit- bzw. mit Ausfallrisiken behafteten Geschäften ist in Theorie und Praxis auch das einzige Risiko, welches (nahezu) verursachungsgerecht Kundengeschäften zugerechnet werden kann. Marktpreisrisiken, wozu auch die Zinsänderungsrisiken gehören, fallen ausschließlich im Treasury an. Gleiches gilt für die Risiken aus der Liquiditätsfristentransformation. Operationelle und Geschäftsrisiken sind nicht auf einzelne Geschäfte verursachungsgerecht zurechenbar. Strategische und Reputationsrisiken entziehen sich grundsätzlich der Messbarkeit im Sinne einer vergangenheitsorientierten VaR-Logik. Hierauf wird unter 2.5.1 näher eingegangen. Dass somit Einlagen- und Dienstleistungsgeschäften keine Risiken und damit auch keine Eigenkapitalkosten zugerechnet werden können, obwohl sie zum Beispiel mit Operationellen Risiken verbunden sind, wird in Theorie und Praxis als problematisch a ngesehen, aber aufgrund fehlender alternativer Lösungsansätze hingenommen. Für diese Geschäfte ist damit in der Deckungsbeitragslogik aus Abb. 2.3 der Deckungsbeitrag 2 gleich dem Deckungsbeitrag 3.
2.3 Überleitung zum Gesamtbankergebnis Mit der Einführung des modernen Bankmanagements und der Deckungsbeitragsrechnung in der beschriebenen Form als Instrument der internen Steuerung ergab sich implizit die Anforderung der Überführbarkeit in die Bilanz und GuV, die weitgehend Grundlage der unternehmensexternen Kommunikation sind. Es musste unbedingt ausgeschlossen werden, dass zwischen internem und externem Rechnungswesen Inkonsistenzen bzw. Steuerungskonflikte auftreten. In der Praxis hat sich bei der Einführung der neuen Steuerungsinstrumente gezeigt, dass die Entscheidungsträger diesen erst vertrauten, wenn die Überleitbarkeit für ihr Unternehmen auch nachvollziehbar war (das zeigen eigene Erfahrungen des Verfassers sowie Erfahrungsaustausche mit Leitern Controlling anderer Kreditinstitute). Es gilt also zu zeigen, dass in der periodischen Logik der Geschäftsjahre sämtliche Erfolgsquellen der Bank in der Summe wieder das Ergebnis ergeben, welches in der GuV des Jahresabschlusses ausgewiesen wird. Die Überleitbarkeit der einzelnen Erfolgsquellen des Zinsüberschusses (Konditionenbeiträge der Aktiv- und Passivseite sowie der Struktur-
30
2 Beschreibung der Wertorientierten Banksteuerung Kundengeschäft Bruttoerträge (DB 1) ./. Standardrisiko Risikomanagement Standardrisiko
./. Bewertungsverluste Kredit + Ergebnis Kredit-Treasury = Risikoergebnis Treasury-Ergebnis Finanzergebnis und Strukturbeitrag
./.Standardstückkosten = TSY-Ergebnis vor Kapitalkosten
./.Standardstückkosten = Marktergebnis vor Kapitalkosten (DB 2) Gesamtbank
Service-Center
Stückkosten ./. Ist-Kosten = Produktivitätsergebnis
Marktergebnis vor Kapitalkosten + Produktivitätsergebnis + Risikoergebnis
Costcenter ./. Ist-Kosten
+ TSY-Ergebnis vor Kapitalkosten +/- Überleitung = GuV-Ergebnis (vor Kapitalkosten)
Abb. 2.14 Ergebnisquellen Gesamtbank. (Quelle: eigene Darstellung in Anlehnung an Schierenbeck 2003a, S. 410–419)
beitrag mit den Ergebnissen aus der Fristentransformation) wurde im Abschnitt über die Marktzinsmethode in der Form gezeigt, dass sich die kalkulatorischen Opportunitätszinssätze in der Summe über alle Erfolgsquellen wieder herauskürzen und somit nur der Saldo aus Zinserträgen und Zinsaufwendungen verbleibt. Dieses gilt es nun für alle Erfolgsquellen unter Berücksichtigung aller Kalkulationskomponenten zu zeigen. Hinsichtlich der Deckungsbeiträge wird zu diesem Zweck auf den Deckungsbeitrag 2 (vor Eigenkapitalkosten) abgestellt, weil die Eigenkapitalkosten keine Kosten im Sinne der GuV sind, sondern aus dem Gewinn bezahlt werden. Abb. 2.14 gibt eine schematische Übersicht über die Erfolgsquellen der Gesamtbank mit den in den bisherigen Abschnitten erläuterten Kalkulationskomponenten. Das Marktergebnis über alle Kunden der Bank setzt sich zusammen aus den Konditionsbeiträgen gemäß Marktzinsmethode sowie den zurechenbaren Provisionen (Bruttoerträge) abzüglich der Standardrisiken als „Versicherungsprämie“ für die erwarteten Verluste aus dem Kreditgeschäft sowie den Stückkosten als Entlohnung der Servicebereiche für die von ihnen erbrachten Leistungen. Die belasteten Standardrisiken werden an das zentrale Kreditrisikomanagement als von den Kunden vereinnahmte Versicherungsprämie abgeführt und dort den tatsächlichen Verlusten aus dem Kreditgeschäft gegenübergestellt. Das zentrale Kreditrisikomanagement als organisatorischer Bereich hat zum Beispiel über ein entsprechendes Abwicklungs- und/oder Sanierungsmanagement sowie über den Kauf oder Verkauf von Kreditausfallversicherungen in Form verschiedener Credit-Default-Swaps (Kredit-Treasury) Möglichkeiten, dieses Risikoergebnis im Rahmen der Risikostrategie zu beeinflussen und damit eine praktische Ergebnisverantwortung zu ü bernehmen. Werden letztlich mehr Versicherungsprämien vereinnahmt als tatsächliche Verluste aus dem Kreditgeschäft anfallen und ggf. noch zusätzliche Beiträge aus Geschäften des Kredit-Treasury erzielt, ist das Risikoergebnis positiv,
2.4 Barwertige Steuerungsperspektive
31
im umgekehrten Fall ist es negativ und stellt einen unerwarteten Verlust dar. Das Standard risiko, welches sich in der Summe über beide Erfolgsquellen wieder herauskürzt, teilt also lediglich den gesamten Verlust aus dem Kreditgeschäft nach erwartetem und unerwartetem Verlust auf. Die Erträge des klassischen Treasury setzen sich aus dem Finanzergebnis und dem Strukturbeitrag gemäß Marktzinsmethode zusammen. Ggf. könnten hier auch noch Konditionsbeiträge aus den Eigenanlagen angeführt werden. Von diesen Erträgen sind, analog zum Marktergebnis aus dem Kundengeschäft, Stückkosten abzuziehen für die Leistungen der Service-Bereiche. Die im Kundengeschäft und im Treasury insgesamt belasteten Stückkosten werden den an der Leistungserstellung beteiligten Bereichen vergütet und dort den tatsächlichen Ist-Kosten gegenübergestellt. Der Saldo ist das im Abschnitt zu den Prozesskosten erläuterte Produktivitätsergebnis. In der Summe über Marktergebnis, Treasury-Ergebnis und Produktivitätsergebnis kürzen sich demnach die Stückkosten wieder heraus. Das Ergebnis der Cost-Center ist zwangsläufig in Höhe seiner tatsächlichen Kosten negativ. Somit müsste sich in der Summe über die fünf Ergebnisbereiche, ggf. korrigiert um klar identifizierbare Überleitungspositionen (zum Beispiel kalkulatorische Mieten bei den Kosten) das Ergebnis gemäß der GuV ergeben. Wie bereits erwähnt, haben derartige Überführungsrechnungen, möglichst als Bestandteil eines regelmäßigen Reportings, einen erheblichen Beitrag zur Akzeptanz der internen Steuerungssysteme geleistet.
2.4 Barwertige Steuerungsperspektive Ein Nachteil der Synchronisation von interner Ergebniskalkulation mit der periodischen (jährlichen) GuV besteht darin, dass zwar hinsichtlich der Erfolgsquellen eine verursachungsgerechte Zuordnung erfolgt, nicht jedoch zum Geschäftsjahr, in dem der Erfolg entstanden ist. Um diesen Sachverhalt zu verdeutlichen, wird noch mal auf den endfälligen Kredit mit fünfjähriger Laufzeit aus dem Abschnitt zur Marktzinsmethode Bezug genommen. Dieser Kredit mit einer Konditionsmarge von einem Prozent trägt im ersten Jahr mit 1000 € zum Zinsüberschuss bei. Mit dem Abschluss des Geschäftes wird jedoch, abgesehen vom Ausfallrisiko, ein sicherer Zinsüberschuss von 1000 € pro Jahr für insgesamt fünf Jahre gesichert. Damit ist der durch das Geschäft verursachte Zinsüberschuss deutlich größer als der Beitrag zum ersten Jahr. Wollte man den gesamten Beitrag des Kredites zum Zinsüberschuss zum Zeitpunkt seiner vertraglichen Fixierung ermitteln, so müssten sämtliche Anteile am Zinsüberschuss der fünf Laufzeitjahre auf diesen Zeitpunkt abgezinst werden. Da der Abschlusszeitpunkt implizit der 1.1. des ersten Laufzeitjahres ist und Zinszahlungen entsprechend dem gesetzlich vorgeschriebenen dynamischen Verfahren jährlich nachschüssig erfolgen, müsste der Zinsüberschuss für das erste Jahr für ein Jahr, für das zweite Jahr für zwei Jahre usw. abgezinst werden. Die Abzinsung erfolgt dabei für die einzelnen Laufzeitjahre mit so genannten „Zero-Bond-Abzinsungsfaktoren“ (AZF) auf der Basis der Zinsstrukturkurve für die Geld- und Kapitalmarktsätze zum Zeitpunkt des Geschäftsabschlusses. Multipliziert man zum Beispiel den Beitrag des Kredites zum Zinsüberschuss des fünften Laufzeitjahres in Höhe von 1000 € mit dem Abzinsungsfaktor für fünf Jahre, so ergibt sich der Wert dieses in fünf Jahren fälligen Beitrags
32
2 Beschreibung der Wertorientierten Banksteuerung
Laufzeitjahr
0
1
2
3
4
5
3%
3,25 %
3,50 %
3,75 %
4%
5000 -4000
5000 -4000
5000 -4000
1000
1000
1000
1000
1000
0,9709
0,9380
0,9016
0,8623
0,8203
970,90
938,00
901,60
862,30
820,30
Zinsstrukturkurve Zahlungen Kredit Zahlungen Refinanzierung
-100.000 100.000
Zinskonditionsbeitrag AZF Barwert (€) Summe Barwert (€)
4493,10
5000 105.000 -4000 -104.000
L-1
AZF (L) =
1 - i(L) * AZF (l) l=0 1 + i (L)
AZF = Zerobond-Abzinsfaktor; L = Laufzeit, i = Kuponzinssatz
Berechnungsbeispiel AZF für 3. Jahr: (1-0,035*(0,9709+0,938))/1,035 = 0,9016 Abb. 2.15 Barwert Zinskonditionsbeitrag. (Quelle: eigene Darstellung)
zum Zeitpunkt des Geschäftsabschlusses (Barwert). Abb. 2.15 stellt die Zahlungsströme für den Kredit dar und gibt neben der Formel für den AZF auch die Ergebnisse für die Abzin sungsfaktoren und den Barwert der Konditionsbeiträge an. In der ersten Zeile der Tabelle befindet sich die Zinsstrukturkurve aus Abb. 2.5, darunter die Zahlungsströme aus dem Kredit und seiner kalkulatorischen Refinanzierung zum Opportunitäts- bzw. Marktzinssatz für fünf Jahre. Der Kredit beginnt mit seiner Auszahlung zum Abschlusszeitpunkt (0). Danach folgen jeweils zum Ende der Laufzeitjahre 1 bis 4 die Zinszahlungen und zum Ende des fünften Jahres die Zinszahlung für das fünfte Jahr zuzüglich der Rückzahlung des Kreditbetrages. Die Zahlungen der Refinanzierung haben umgekehrte Vorzeichen. Als Saldo beider Zahlungsströme bleiben in den einzelnen Jahren die periodischen Zinskonditionsbeiträge. Der Barwert dieser Zinskonditionsbeiträge beträgt in der Summe über alle Laufzeitjahre 4493,10 €. Dieser Barwert wäre durch entsprechende Refinanzierungsgeschäfte („Glattstellung“) auch zum Zeitpunkt des Geschäftsabschlusses realisierbar. Vom Barwert des Konditionsbeitrags könnte man die Barwerte der periodischen Standardrisiken und Stückkosten für die gesamte Laufzeit abziehen und hätte dann den Barwert der gesamten periodischen Gewinnbeiträge aus diesem Geschäft, den der Kundenbetreuer mit dem Abschluss dieses Kredites für die Bank generiert. Analog könnte auch der Barwert des Konditionsbeitrags für die ein Jahr laufende Einlage ermittelt werden. Hierzu müsste der am Ende des ersten Jahres anfallende Beitrag zum Zinsüber-
2.4 Barwertige Steuerungsperspektive
33
schuss in Höhe von 1000 € (ein Prozent Marge für einen Betrag von ebenfalls 100.000 €) mit dem Barwertfaktor für ein Jahr multipliziert werden (0,9709 * 1000 € = 970,90 €). Der Barwert des Kredites würde sich auch ergeben, wenn die Zins- und Tilgungszahlungen der Jahre 1 bis 5 mit den jeweiligen AZF abgezinst und mit dem (negativen) Auszahlungsbetrag saldiert würden. Würde man analog den Barwert nur für die Refinanzierung ermitteln, so wäre dieser gleich 0. Das liegt daran, dass die Refinanzierung zu den gleichen Marktzinsen erfolgt, wie ihre anschließende Abzinsung. Auch der Barwert der Opportunität für die einjährige Einlage beträgt aus gleichem Grunde 0. Man kann daher die barwertigen Erfolge aller Zinserfolgsquellen analog der Erfolgsquellenrechnung in periodischer Form als Differenzen ermitteln. Konditionsbeiträge: Barwert des Kredites – Barwert der Opportunität aktiv: 4993,10 – 0 = 4993,10 € Barwert der Opportunität passiv – Barwert der Einlage: 0 − (−970,90) = 970,90 € Fristentransformation: Barwert der Opportunität (aktiv) – Barwert der Opportunität Passiv: 0 – 0 = 0 €. Der Barwert der Fristentransformation ist demnach zum Abschlusszeitpunkt der beiden Geschäfte trotz der unterschiedlichen Laufzeiten 0. Mit anderen Worten: Allein aus dem Eingehen von Fristentransformation kann noch kein barwertiges und damit sicheres Fristentransformationsergebnis erzielt werden. Wenn man richtigerweise davon ausgeht, dass die barwertige Perspektive nur eine andere Darstellung der gleichen Ergebnisse ist und sich demnach die periodischen und barwertigen Ergebnisse der gleichen Geschäfte rechnerisch ineinander überführen lassen, dann könnte bei diesen beiden Kundengeschäften auf den ersten Blick ein Störgefühl auftreten. Während in der periodischen Betrachtungsweise im ersten Jahr ein garantierter Fristentransformationsbeitrag in Höhe von 1000 € anfällt, ist der barwertige Fristentransformationsbeitrag zum Abschlusszeitunkt = 0. Dieser scheinbare Widerspruch löst sich dadurch auf, dass der Fristentransformationsbeitrag des ersten Jahres aufgrund des noch bestehenden Zinsänderungsrisikos für die verbleibende Laufzeit des vier Jahre länger laufenden Kredites aufgezehrt werden kann. Übersteigen die Kosten für die Anschlussrefinanzierung am Geld- und Kapitalmarkt den über fünf Jahre konstanten Opportunitätssatz für das Kreditgeschäft in Höhe vier Prozent, wird das periodische Ergebnis aus der Fristentransformation für die entsprechenden Folgejahre negativ. Würde man dieses Risiko dadurch ausschließen wollen, dass man bereits zum Abschlusszeitpunkt der beiden Kundengeschäfte die Kondition für die Anschlussrefinanzierung fest vereinbart, könnte man zum Beispiel die Refinanzierungslücke für ein weiteres Jahr dadurch schließen, dass man sie zur Forward-Rate (FRA) für Jahresgeld in einem Jahr finanziert. Danach schließt man die unter Berücksichtigung von Zinszahlungen noch verbleibende Lücke für ein weiteres Jahr zur FRA für Ein-Jahres-Geld in zwei Jahren usw. Würde man auf diese Weise durch insgesamt vier Anschlussfinanzierungen über ein Jahr zu den entsprechenden Forward-Rates am Abschlusszeitpunkt der beiden ursprünglichen Kundengeschäfte ex ante das Zinsänderungsrisiko ausschließen, dann würde durch diese
34
2 Beschreibung der Wertorientierten Banksteuerung
Beispiel Zinsstrukturkurve: 1 Jahr: 3,0 % 2 Jahre: 3,25 % 3 Jahre: 3,5 % 4 Jahre: 3,75 % 5 Jahre: 4 % Anlage 2 Jahre Anlagebetrag: Zinssatz: Zinszahlung:
Zahlungen
Anlage 2 mal 1 Jahr 100.000 EUR 3,25 % jährlich t0
t1
t2
- 100.000
+ 3.250
+ 103.250
- 3.250
?
Anlage Zinsen t1
=
Anlagebetrag: Zinssatz: Zinszahlung:
Zahlungen
t0
t1
- 100.000
+ 103.000
Wiederanlage in t1
?
Gesamtvermögen in t2
100.000 EUR 3,0 % jährlich
Gesamtvermögen in t2
- 103.000
t2
?
?
Berechnungsformel für Forward Rates (Kuponrenditen)
i (t,L) =
1 – AZF(t,L) L
AZF(t,n)
mit AZF (t,L) =
n=1
AZF(0,t+L) AZF(0,t)
i = Kuponzinssatz; AZF = Zerobond-Abzinsfaktor; t = Beginn Forwardrate; L = Laufzeit
Abb. 2.16 Forward Rates. (Quelle: eigene Darstellung)
Anschlussrefinanzierungen das positive Fristentransformationsergebnis des ersten Jahres in Höhe von 1000 € in den restlichen vier Jahren exakt wieder aufgezehrt. Daraus folgt, dass sich die Forward-Rates zum Abschlusszeitpunkt der Kundengeschäfte als vom Markt erwartete Zinsentwicklungen aus der Zinsstrukturkurve zum gleichen Zeitpunkt rechnerisch ableiten lassen müssen. Dies soll bei der gegebenen Zinsstrukturkurve beispielhaft für das Jahresgeld in einem Jahr in Abb. 2.16 nachvollzogen werden. In der ersten Zeile befindet sich die bekannte Zinsstrukturkurve mit den Zinssätzen für ein Jahr von drei Prozent und zwei Jahren von 3,25 %. Darunter sind zwei Geldanlagen über insgesamt zwei Jahre dargestellt. Auf der linken Seite eine einzelne Anlage über zwei Jahre zum Festzinssatz von 3,25 %, auf der rechten Seite eine Anlage über zweimal ein Jahr zu drei Prozent im ersten Jahr. Bei der Anlage über zwei Jahre werden nach Ablauf des ersten Jahres die Zinsen für das erste Jahr in Höhe von 3250 € fällig, die für das zweite Jahr zur gesuchten Forward-Rate für Ein-Jahres-Geld in einem Jahr angelegt werden können. Zum Ende des zweiten Jahres erfolgt die Rückzahlung der ursprünglichen Anlage samt Zinsen für das zweite Jahr sowie die Rückzahlung der Zinsanlage aus dem ersten Jahr samt der Zinseszinsen für das zweite Jahr. Bei der zweiten Anlagealternative erfolgt nach dem Ablauf des ersten Jahres die Rückzahlung inklusive der Zinsen für das abgelaufene Jahr. Der Gesamtbetrag von 103.000 € kann dann zur gesuchten Forward-Rate für Jahresgeld in einem Jahr angelegt werden. Die gesuchte Forward-Rate muss dazu führen, dass das Endvermögen beider Anlagealternativen gleich ist, da ansonsten risikofreie Arbitragegeschäfte möglich wären. Auch ohne exakte Berechnung anhand der angeführten Formel ist schon erkennbar, dass diese Forward-Rate bei ca. 3,5 % liegen muss, um den Zinsnachteil der rechten Alternative aus dem ersten Jahr im zweiten Jahr zu kompensieren. Unter Verwendung der bereits in Abb. 2.14 berechneten Abzinsungsfaktoren (mit allen Nachkommastellen) ergibt sich nach der Formel ein Wert für die gesuchte Forward-Rate von 3,5088 %. Es wird demnach ein Anstieg des 1-Jahreszinssatzes in
2.5 Risikosteuerung
35
einem Jahr von 3,0 auf 3,5088 % erwartet. Die Erwartung eines Zinsanstiegs resultiert aus der positiven Steigung der Zinsstrukturkurve (je länger die Laufzeit, umso höher der Zinssatz). Eine solche Zinsstrukturkurve wird auch als „normale Zinsstrukturkurve“ bezeichnet. Den umgekehrten Fall einer negativen Steigung der Zinsstrukturkurve (je länger die Laufzeit, umso niedriger der Zinssatz) bezeichnet man auch als „inverse Zinsstruktur“. Bei einer solchen Zinsstrukturkurve würden die Forward-Rates als Ausdruck der Zinserwartung des Marktes unterhalb der aktuellen Zinsstrukturkurve liegen. Für das Ausgangsbeispiel mit den beiden Kundengeschäften bedeuten diese Erkenntnisse, dass über die gesamte Laufzeit des Kredites von fünf Jahren ein positives Fristentransformationsergebnis erzielt wird, wenn die tatsächliche Zinsentwicklung während dieser Zeit unterhalb der Forward-Rates am Abschlusszeitpunkt verläuft, weil dann die Anschlussrefinanzierungen billiger sind als vom Markt erwartet. Negativ wird das Transformationsergebnis hingegen ausfallen, wenn die tatsächliche Zinsentwicklung oberhalb der Forward-Rates zum Abschlusszeitpunkt liegt. Treten exakt die Forward-Rates ein, dann wird der positive Fristentransformationsbeitrag des ersten Jahres in Höhe von 1000 € exakt aufgezehrt. Abschließend bleibt festzuhalten, dass es sich mit der periodischen und barwertigen Ergebnisrechnung um zwei zeitlich unterschiedliche Perspektiven (Jahresscheiben vs. Totalperiode) auf den gleichen Sachverhalt handelt, die grundsätzlich ineinander überführbar sind mit unterschiedlichen Vor- und Nachteilen. Der große Vorteil der periodischen Ergebnisrechnung liegt in der Überführbarkeit in die GuV sowie in dem Anreiz für Kundenbetreuer, sich während der Laufzeit um den Bestand zu kümmern, während der wesentliche Vorteil der barwertigen Perspektive in der periodengerechten Abbildung der Vertriebsleistung liegt. In der Praxis sind durchaus beide Perspektiven gängig. Bei den Kundenbetreuungskonzepten der Universalbanken bietet sich in der Vertriebssteuerung eher die periodische Perspektive an, wobei der Messung der Vertriebsleistung dadurch Rechnung getragen werden kann, dass neben periodischen Deckungsbeitragszielen noch separate Neugeschäftsziele vereinbart und nachgehalten werden. Bei eher produktorientierten Banken (Hypotheken- oder Ratenkreditbanken) bietet sich hingegen eher die barwertige Sicht für die Vertriebssteuerung an. Für die Steuerung der Treasuryergebnisse werden in der Regel beide Perspektiven parallel genutzt. Während man die barwertige Perspektive braucht um Ergebniswirkungen über die Totalperiode sichtbar zu machen, braucht man die periodische Perspektive, um Auswirkungen des Neugeschäftes, auch auf die Fristentransformation, besser sichtbar zu machen.
2.5 Risikosteuerung 2.5.1 Risikoinventur Um stets einen fundierten und aktuellen Überblick über die Risiken einer Bank zu behalten, sind diese auch aufsichtsrechtlich angehalten, mindestens einmal im Jahr eine Risikoinventur durchzuführen. Diese beginnt in der Regel damit, dass eine „Longlist“ von Risikoarten erstellt wird, welche grundsätzlich bei der Bank auftreten könnten. Abb. 2.17 stellt ein Beispiel einer solchen Liste dar.
36
2 Beschreibung der Wertorientierten Banksteuerung RISIKOARTEN Adressenrisiken
Marktpreisrisiken
Ausfallrisiko
Zinsänderungsrisiko
Emittentenrisiko
Spezialfondsrisiko
Kontrahentenrisiko
Aktien- und Aktienfondskursrisiko
Operationelle Risiken
Liquiditätsrisiken
Sonstige Risiken
Int./ext. Betrug
Liquiditätsrisiko i. e. S.
Geschäftsrisiken
Conduct Risk
Marktliquiditätsrisiko
Reputationsrisiko
IT-Risiken
Refinanzierungsrisiko
Strategische Risiken
Bonitätsänderungsrisiko
Optionsrisiko
Rechtsrisiken
Beteiligungsrisiko
Rohwarenrisiko
Compliance
Länderrisiko
Sachwertrisiko
Personalrisken
Währungsrisiko
In-/Outsourcingrisken
Credit-SpreadRisiko
Modellrisiko
ESG-Risiken Abb. 2.17 Long List der Risikoarten. (Quelle: eigene Darstellung in Anlehnung an zeb-Akademie)
Mit Ausnahme des „Liquiditätsrisikos im engeren Sinne“ und des „Marktliquiditätsrisikos“ handelt es sich dabei um Vermögensrisiken im Sinne der oben genannten Definition. Während die Überwachung und Begrenzung der Vermögensrisiken auf die Vermeidung einer Überschuldung abzielt, geht es bei der Überwachung der Liquiditätsrisiken im engeren Sinne um die Vermeidung einer Zahlungsunfähigkeit. Bei dem unter den Liquiditätsrisiken aufgeführten Refinanzierungsrisiko geht es um die Risiken aus der im Abschnitt zur Marktzinsmethode beschriebenen Liquiditätsfristentransformation. Hierbei handelt es sich – analog zum Zinsänderungsrisiko – insofern um ein Vermögensrisiko, als das Schließen einer Liquiditätslücke zu einem späteren Zeitpunkt möglicherweise nur zu höheren Preisen (Liquiditätsspreads) möglich ist. Das Marktliquiditätsrisiko beinhaltet das Risiko, dass Geschäfte zu einem bestimmten Zeitpunkt nicht oder nur zu einem geringeren Preis liquidierbar sind. Dass sie nicht liquidierbar sind, ist Teil des Liquiditätsrisikos im engeren Sinne, während eine Liquidation zu einem niedrigeren als dem erwarteten Preis Teil des Marktpreisrisikos ist. Bei den Adress-, Marktpreis- und Liquiditätsrisiken handelt es sich um die so genannten „Financial Risks“. Sie sind zwangsläufig als Teil des Geschäftsmodells zu sehen, während es sich bei den Operationellen und Sonstigen Risiken als „Non Financial Risks“ eher um klassische Unternehmensrisiken handelt. Aus dem Katalog dieser Risiken wurden bereits das (Kredit-) Ausfallrisiko, das Zinsänderungsrisiko sowie das Refinanzierungsrisiko bzw. Liquiditätsfristentransformationsrisiko besprochen. Hinsichtlich der exakten Definitionen und Abgrenzungen der anderen Risikounterarten wird auf die einschlägige Literatur des Bankmanagement 1.0 verwiesen, da sie an dieser Stelle für die Zwecke dieses Buches nicht entscheidend sind und deshalb hier nicht wiederholt werden sollen. Unter den „Sonstigen Risiken“ wurden in Abb. 2.17 die Reputations- und Strategischen Risiken farblich abgehoben. Das besondere Problem dieser beiden Risikoarten besteht darin,
2.5 Risikosteuerung
37
dass sie intuitiv (auf Basis der Erfahrungen der Vergangenheit) zwar wesentlich sind, aber allgemein als nicht messbar erachtet werden. Ein strategisches Risiko erleben beispielsweise Universalbanken gerade in der Form einer langjährigen Niedrigzinsphase. Während in durchschnittlichen Zinsphasen Sicht- und Spareinlagen durchaus zu Konditionsmargen in Höhe von mehreren Prozentpunkten geführt haben, sind sie nach Auslauf ihrer langfristigen Anlagen gemäß den Replikationsportfolien auf null oder gar darunter geschrumpft. Hierbei handelt es sich ausdrücklich nicht um ein Zinsänderungsrisiko, weil es nicht für das Bestandsgeschäft durch eine Zinsänderung, sondern für Neugeschäft nach Ablauf des Altgeschäfts (gemäß Replikationsannahmen) besteht. In der Konsequenz sind die Zinsüberschüsse der betroffenen Banken in Teilen dramatisch zurückgegangen. Zu einer Bedrohung für das Geschäftsmodell kann ein solcher Rückgang des Zinsüberschusses insbesondere dann führen, wenn die in der Vergangenheit üppigeren Margen aus den Einlagen zur Quersubventionierung, beispielsweise einer kostenlosen Kontoführung, genutzt wurden. Ein weiteres Beispiel für strategische Risiken ist in der Bedrohung von Geschäftsmodellen zum Beispiel durch die Digitalisierung in Verbindung mit FinTechs und veränderten Kundengewohnheiten zu sehen. Hinsichtlich der vermuteten Wesentlichkeit von Reputationsrisiken sei auf die Auswirkungen der zahlreichen Bankenskandale und Schieflagen in der jüngeren Vergangenheit für das Vertrauen gegenüber der gesamten Branche verwiesen. Die Problematik der Messbarkeit resultiert daraus, dass sie sich nicht zu anderen Risikoarten abgrenzen lassen (zum Beispiel Reputationsverluste aufgrund von schlagend gewordenem Conduct Risk oder IT-Risiko in Verbindung mit entsprechenden Skandalberichten). Wesentliche Risiken, die nicht gemessen werden können, fehlen somit zwangsläufig bei der für die Beurteilung der ökonomischen Risikotragfähigkeit entscheidenden „Gesamtbankrisikoposition“. Bei den ebenfalls farblich abgehobenen ESG-Risiken handelt es sich gemäß Definition der BaFin nicht um eine eigenständige Risikoart, sondern vielmehr um (neue) Faktoren oder Treiber der übrigen Risikoarten (vgl. BaFin 2020, S. 18). An gleicher Stelle auf Seite 11 merkt die BaFin an, dass es aufgrund der hohen Komplexität und der erst kurzfristigen Betrachtung dieser Risikofaktoren keine historischen Daten als Grundlage für die Messung zur Verfügung stehen und sie in diesem Kontext darauf hofft, dass die Praxis „neue, innovative Mess-, Steuerungs- und Risikominderungsinstrumente“ entwickelt. Die ESG-Risiken sind somit expliziter Bestandteil der Prozesse eines integrierten Risikomanagements, beginnend mit der Risikoinventur. Vor dem Hintergrund, dass es sich nicht um eine eigenständige Risikoart, sondern um einen (wesentlichen) Faktor in nahezu allen anderen Risikoarten handelt, wird die Prämisse für die Risikomessung, dass die Zukunft eine Wiederholung der Vergangenheit ist, noch weiter belastet als sie es ohnehin schon ist. Um festzustellen, ob die Gesamtbankrisikoposition in der barwertigen Vermögenssicht tragfähig ist, müssen alle wesentlichen (Vermögens-) Risiken gemessen und zur Gesamtbankrisikoposition aggregiert werden. Nach der Prüfung, welche der aufgezählten Risiken in der Bank vorkommen, ist demnach die Wesentlichkeit zu prüfen. Dazu werden in mehreren Dimensionen durch Experten Wesentlichkeitsgrenzen festgesetzt. Beispielsweise könnte eine Risikoart als wesentlich eingestuft werden, wenn bestimmte Prozentsätze von Vermögen, Kapital und Ertrag überschritten werden. Erforderlichenfalls werden oberhalb
38
2 Beschreibung der Wertorientierten Banksteuerung
dieser Wesentlichkeitsgrenze weitere Cluster hinsichtlich des Ausmaßes der Wesentlichkeit mit der Maßgabe gebildet, dass die Steuerungsmethodik umso differenzierter und genauer sein muss, je bedeutender die Wesentlichkeit ist. Die Festlegung der entsprechenden Grenzen und Methoden durch Experten sollte dabei in der Weise geschehen, dass sie aufsichtlichen Prüfungen genügt. Das Ergebnis der Risikoinventur besteht damit in der Beurteilung, ob für alle wesentlichen Risiken angemessene Methoden zu ihrer Messung und Steuerung bestehen.
2.5.2 Risikomessung Da (Vermögens-) Risiken als potenzielle Vermögensschäden aufgrund ungewisser Ereignisse in der Zukunft definiert sind, lassen sich keine wahrscheinlichkeitsgewichteten Schäden messen. Das Problem der fehlenden Möglichkeit, die tatsächlichen in der Zukunft liegenden Risiken in diesem Sinne zu messen wird, wie bereits erläutert, durch ein Modell, also eine Abstraktion der Wirklichkeit, gelöst. Die entscheidende Modellprämisse ist dabei, dass im Prinzip die Zukunft eine Wiederholung der Vergangenheit ist. Durch diese Analogie werden auf Basis der Daten der Vergangenheit aus Häufigkeiten für die Zukunft Eintrittswahrscheinlichkeiten abgeleitet und der Durchschnittswert der Vergangenheit als Erwartungswert genommen (vgl. dazu auch die Herleitung der erwarteten Verluste aus Kreditausfällen in Abschn. 2.2.3). Das Risiko als negative Abweichung von einem Erwartungswert kann damit auf Basis der Modellprämisse als Funktion von Betrachtungszeitraum und Konfidenzniveau „gemessen“ werden. So kann bei einem Betrachtungszeitraum von einem Jahr ein Schadensbetrag ermittelt werden, der in der Vergangenheit rechnerisch nur einmal in tausend Jahren überschritten wurde. Der so ermittelte Schadensbetrag wird demnach auch nur einmal in den nächsten 1000 Jahren überschritten. Umgekehrt formuliert besteht eine 99,9-prozentige Sicherheit, dass der ermittelte Schadensbetrag in den kommenden zwölf Monaten nicht überschritten wird. Für die „Messung“ der Schadensbeträge bei vorgegebenem Betrachtungszeitraum (aufsichtsrechtliche Vorgabe für die Beurteilung der Risikotragfähigkeit: 1 Jahr) und K onfidenzniveau (aufsichtsrechtliche Vorgabe für die Beurteilung der Risikotragfähigkeit: 99,9 %) sind in Theorie und Praxis grundsätzlich drei Methoden vorzufinden. Die Methode der „Historischen Vollsimulation“ wurde in Abschn. 2.2.3 bereits angesprochen. Hierbei werden für 1000 zwangsläufig nicht überschneidungsfreie Ein-Jahres-Zeiträume der Vergangenheit die relevanten Daten erhoben. Für das Zinsänderungsrisiko werden demnach für 1000 Jahreszeiträume Zinsänderungen dadurch erhoben, dass die Differenz von Zinsstrukturkurven gebildet wird, zwischen denen genau ein Jahr liegt. Die erhobenen Differenzen geben dabei jeweils Zinsänderungen über ein Jahr wieder (vgl. Abb. 2.18). Dabei ist davon auszugehen, dass sich die erhobenen Zinsänderungen umso weniger unterscheiden, je größer die Überlappung der erhobenen 1-Jahres-Zeiträume sind. Nach der Erhebung von mindestens 1000 Zinsänderungen werden deren Auswirkungen auf den Barwert des gesamten Zinsbuchs simuliert. Die sich daraus ergebenden Veränderungen des aktuellen Barwertes werden nach ihrer Höhe sortiert. Das zur Bestimmung des Risikos (VaR) relevante
2.5 Risikosteuerung Laufzeit Zinsstruturkurve 15.7.20xx Zinsstrukturkurve 15.7. Folgejahr Zinsänderung 1 Zinsstrukturkurve 19.7.20xx Zinsstrukturkurve 19.7. Folgejahr Zinsänderung 2
39 1 Monat 1 Jahr
2 Jahre
3 Jahre
5 Jahre
10 Jahre
1,25 % 1,20 %
2,00 % 2,40 %
2,28 % 2,63 %
2,41 % 2,81 %
2,60 % 3,07 %
3,27 % 3,53 %
-0,05 %
0,40 %
0,35 %
0,40 %
0,47 %
0,26 %
1,22 % 1,21 %
1,98 % 2,53 %
2,30 % 2,68 %
2,44 % 2,82 %
2,55 % 3,08 %
3,23 % 3,60 %
-0,01 %
0,55 %
0,38 %
0,38 %
0,53 %
0,37 %
usw.
Abb. 2.18 Zinsänderungsszenarien. (Quelle: eigene Darstellung)
Szenario ist bei einem Konfidenzniveau von 99,9 % und 1000 gerechneten Szenarien das Szenario mit der zweitschlechtesten Barwertveränderung. Da das Risiko in diesem Modell als negative Abweichung vom Erwartungswert definiert ist, ergibt sich der relevante VaR-Betrag als Differenz zwischen der durchschnittlichen Barwertveränderung über alle 1000 Szenarien und der Barwertveränderung des zweitschlechtesten Szenarios. Liegt die durchschnittliche Barwertveränderung über alle 1000 Szenarien beispielsweise bei +15 Mio. € und das zweitschlechteste Szenario bei einer Barwertveränderung von −75 Mio. €, dann ergibt sich daraus ein VaR von 90 Mio. €. Bei dieser Vorgehensweise sind statistische Parameter wie zum Beispiel Korrelationen zwischen verschiedenen Einflussfaktoren nicht relevant, da sie implizit in den 1000 tatsächlichen Vergangenheitsszenarien enthalten sind. Weniger aufwendig ist die Anwendung eines Varianz-Kovarianz-Modells. Hierbei wird eine Verteilungsannahme (zum Beispiel Normalverteilung) für die Ergebnisse getroffen und die erforderlichen statistischen Parameter (Varianzen, Kovarianzen und Korrelationen) auf Basis von Vergangenheitsdaten ermittelt. Deutlich rechenintensiver und in der Praxis seltener ist die so genannte „Monte-Carlo-Simulation“. Hierbei wird ein großes Spektrum an unterschiedlichsten Marktszenarien durch „Zufallsziehungen“ generiert, wobei die erforderlichen statistischen Parameter ebenfalls auf der Basis der Vergangenheit ermittelt werden. Eine besondere Herausforderung bei der Risikomessung liegt in der Berücksichtigung von Korrelationen sowohl innerhalb einer Risikoart als auch übergreifend zwischen verschiedenen Risikoarten. So kann sich beispielsweise die Ausfallwahrscheinlichkeit eines Kreditnehmers bei Ausfall oder Veränderung der Ausfallwahrscheinlichkeit eines anderen Kreditnehmers verändern. Wenn sich beispielsweise die Bonität bzw. Ausfallwahrscheinlichkeit der Lufthansa AG als Kreditnehmer aufgrund einer Pandemie verschlechtert und sie deshalb Mitarbeiter/innen entlassen muss, die eine private Baufinanzierung haben, dann besteht offenbar eine positive Korrelation zwischen der Lufthansa und den privaten Baufinanzierungskunden die dort arbeiten. Zudem könnte die positive Korrelation zwi-
40
2 Beschreibung der Wertorientierten Banksteuerung
schen der Lufthansa und den bei ihr beschäftigen privaten Kreditnehmern unterschiedlich hoch sein, zum Beispiel aufgrund unterschiedlicher Qualifikationen und somit alternativen Beschäftigungsmöglichkeiten. Besonders relevante Korrelationen bestehen auch zwischen verschiedenen Branchen, zum Beispiel zwischen der Reisebranche, dem Gaststättengewebe und der Flugzeugindustrie. Erschwerend kommt hinzu, dass sich sämtliche Korrelationen verändern können, zum Beispiel in Zeiten einer Pandemie. Da sich zudem die Zusammensetzung des gesamten Portfolios laufend verändert, wird die extrem große Komplexität bei der Berechnung des unerwarteten Verlustes aus Kreditausfällen deutlich. Praktisch ist sie daher nicht in allen Details ermittelbar. Auch bei der üblicherweise vereinfachten (statischen) Berücksichtigung von Korrelationen nur zwischen Branchen, wobei entsprechende Insolvenzstatistiken zugrunde gelegt werden, braucht es ein Expertensystem, welches die unerwarteten Verluste für ein Kreditportfolio zu einem bestimmten Zeitpunkt für das erforderliche Konfidenzniveau berechnet. Da die Entwicklung von derartigen Expertensystemen durch einzelne Banken aufgrund des hohen Komplexitätsgrades in der Regel nicht leistbar ist, werden sie von speziellen Unternehmen entwickelt und an (möglichst viele) Banken als Abnehmer verkauft. So bietet beispielsweise die Beratungsgesellschaft McKinsey das System „Credit Portfolio View“ an oder die Beratungsgesellschaft zeb das System „zeb.control.risk-credit“. Aufgrund der mit den Erfahrungen steigenden Anforderungen an solche Systeme werden sie von den Anbietern laufend (reaktiv) weiterentwickelt. Abgesehen von den Korrelationen innerhalb einer Risikoart sind grundsätzlich auch Korrelationen zwischen den Risikoarten zu berücksichtigen. So kann eine Bank beispielsweise eine Fristentransformation in der Form betreiben, dass sie von einem Zinsanstieg profitiert, während gleichzeitig die Erfahrungen der Vergangenheit zeigen, dass bei einem Zinsanstieg ein zunehmender Teil von Kreditnehmern seine Raten nicht mehr tragen kann und die Ausfallwahrscheinlichkeiten steigen. Ein denkbares Beispiel dafür wäre eine Bank mit kürzeren Zinsbindungsfristen auf der Aktiv- als auf der Passivseite der Bilanz und einem hohen Bestand an italienischen Staatsanleihen. Im Falle eines Zinsanstiegs würde sich der Beitrag aus der Fristentransformation sogar verbessern, während die Ausfallwahrscheinlichkeit für die (unbesicherten) italienischen Staatsanleihen möglicherweise deutlich steigt. In diesem Falle wäre die Korrelation zu diesem Zeitpunkt deutlich kleiner, gar negativ. Positiv wäre die Korrelation, wenn auch das Fristentransformationsergebnis bei einem Zinsanstieg deutlich einbrechen würde. Im Normalfall sind die Korrelationen zwischen zwei Risikoarten kleiner als 1, was bedeutet, dass das Gesamtbankrisiko kleiner ist als die Summe der Risiken. Die Differenz wird auch als (positiver) „Diversifikationseffekt“ bezeichnet. Da in der Praxis ein Nachweis einer in der Zukunft dauerhaft niedrigeren Korrelation als 1 in der Regel schwer möglich ist, verlangt die Aufsicht zur Sicherheit die Verwendung einer Korrelation von 1. Somit ergibt sich die Gesamtrisikoposition der Bank als Summe über die Risikoarten. Hinsichtlich einer detaillierteren Beschreibung der statistischen Methodik sowie der verschiedenen Typen von Kreditportfoliomodellen wird auf die einschlägige Fachliteratur verwiesen, da sie für die Zwecke dieses Buches nicht erforderlich ist.
2.5 Risikosteuerung
41
2.5.3 Risikotragfähigkeit Die „ökonomische Risikotragfähigkeit“ ist in diesem Zusammenhang dann gegeben, wenn die Gesamtbankrisikoposition kleiner ist als die Nettovermögenswerte der Bank. Mit anderen Worten: Im Zerschlagungsfall („Gone Concern“) müssen die gesamten Vermögenswerte ausreichen um sämtliche Ansprüche von Dritten abzudecken. Dabei wird die Gesamtbankrisikoposition für einen Betrachtungszeitraum von einem Jahr und ein Konfidenzniveau von 99,9 % ermittelt. Das gesamte Nettovermögen besteht dabei aus dem bilanziellen Eigenkapital zuzüglich stiller Reserven, welches auch als Substanzwert bezeichnet wird. Abb. 2.19 stellt diesen Sachverhalt bildlich dar. In diesem Beispiel ist bei den impliziten Modellprämissen für die Risikomessung sowie Vernachlässigung von nicht messbaren Risiken die ökonomische Risikotragfähigkeit für die nächsten zwölf Monate mit einer Wahrscheinlichkeit von 99,9 % gesichert, weil die so gemessene Gesamtbankrisikoposition kleiner ist als das Nettovermögen.
2.5.4 Risikorendite
Bilanzielles Eigenkapital
VermögensWer te Passiv
Risikotragfähigkeit
Nettovermögen
Stille Reserven
Vermögenswer te Aktiv
Ist die (zwingende) Nebenbedingung der Risikotragfähigkeit dadurch erfüllt, dass die Bank sich ein Gesamtbankrisikolimit setzt, welches kleiner als das Nettovermögen ist und konsequent auf seine Einhaltung achtet, kann sie die Rendite für das Eigenkapital und gleichermaßen für das festgelegte Gesamtbankrisikobudget optimieren. Hierzu wird das Beispiel aus den Abschn. 2.1 und 2.2.5 zu den Eigenkapitalkosten wieder aufgegriffen. In diesem Beispiel hat sich für die Gesamtbank nach dem CAPM ein Mindestergebnisanspruch 88,5 Mio. € ergeben. Von diesem Betrag konnten 20 Mio. € durch die risikofreie Anlage des bilanziellen Eigenkapitals in Höhe von 1000 Mio. € zu zwei Prozent e rwirtschaftet werden. Somit sind mindestens 68,5 Mio. € über das Eingehen von Risiken zu verdienen. Im Rahmen einer Vorstandsent-
Gesamtbankrisiko bei 99,9 %
Adressrisiko
>
Marktpreisrisiko Op-Risk Sonst. Risiken
Abb. 2.19 Definition Risikotragfähigkeit. (Quelle: eigene Darstellung)
42
2 Beschreibung der Wertorientierten Banksteuerung
Bereiche
Privatkunden
Ist
Firmenkunden
Limit
Ist
Limit
Ist
Treasury
Gesamtbank
Limit
Ist
Limit
Risikoarten Adressrisiko Marktpreisrisiko Zurechenbare Risiken Op-Risk Summe Risiken
98
110
198
220
13
20
309
350
0
0
0
0
89
100
89
100
98
110
198
220
102
120
398
450
0
0
0
0
0
0
42
50
98
110
198
220
102
120
440
500
Abb. 2.20 Risikomatrix. (Quelle: eigene Darstellung)
scheidung wurde ein Limit für die Gesamtbankrisikoposition in Höhe von 500 Mio. € festgelegt. Sofern die Bank keine stillen Lasten hat, ist damit die ökonomische Risikotragfähigkeit gesichert. Um die Eigenkapitalkosten zu verdienen, muss mit diesem Limit eine Risikorendite von mindestens 13,7 % (68,5 Mio. €/500 Mio. €*100 %) erwirtschaftet werden. Dieser Ergebnisanspruch ist nun auf die Bereiche zu verteilen, so wie im Planungsprozess das Limit vergeben wird. Die Gesamtbankrisikoposition besteht aus den Risikoarten Adressrisiko, Marktpreisrisiko und Operationelle Risiken, wovon sich die Operationellen Risiken nicht verursachungsgerecht den Geschäftsbereichen zuordnen lassen. Das Ergebnis eines angenommenen Budgetierungsprozesses ist als Risikomatrix in Abb. 2.20 dargestellt. In diesem Beispiel werden die Limite in jeder Risikoart, in jedem der drei Geschäftsbereiche und auch auf der Ebene der Gesamtbank eingehalten. Da vom Gesamtbanklimit in Höhe von 500 Mio. € jedoch nur 450 Mio. € den Bereichen verursachungsgerecht zugeordnet werden können und somit die 68,5 Mio. € Mindestergebnis aus dem Risiko nur darüber zu verdienen sind, erhöht sich die Mindestrendite auf das Risikolimit von 13,7 % auf 15,2 % (68,5 Mio. €/450 Mio. €). Durch Multiplikation der Limite der drei Bereiche mit dieser Mindestverzinsung ergeben sich die Eigenkapitalkosten für den Privatkundenbereich mit 16,7 Mio. €, den Firmenkundebereich mit 33,5 Mio. € und für das Treasury mit 18,3 Mio. €. In der Summe ergeben sich die über das Risiko insgesamt zu verdienenden 68,5 Mio. €. Versprechen die Bereiche in der Planung mindestens Ergebnisbeiträge in dieser Höhe, werden in der Planung zusammen mit der risikofreien Anlage des bilanziellen Eigenkapitals die Eigenkapitalkosten verdient. In diesem Zusammenhang werden in Theorie und Praxis zwei Kennzahlen für die Risikorendite unterschieden (vgl. Abb. 2.21). Beim RORAC befindet sich im Zähler das Ergebnis vor Eigenkapitalkosten, also der Beitrag eines Bereichs zum Gewinn oder der DB 2 eines einzelnen Kredits. Das Risikokapital im Nenner entspricht dem verursachungsgerecht zurechenbaren VaR. Der „Risikoadjustierte Ergebnisbeitrag“ beim RAROC entspricht dem Netto-Ergebnisbeitrag beim RORAC abzüglich der zurechenbaren Eigenkapitalkosten, deren Höhe vom zurechenbaren VaR abhängig ist. Auf Einzelgeschäftsebene ist das praktisch der DB 3.
2.6 Integrierte Gesamtbanksteuerung
Kennzahl
RORAC
RAROC
43
Definition
Return on Riskadjusted Capital
RORAC =
Risk-adjusted Return on Capital
RAROC =
(erwarteter) Netto-Ergebnisbeitrag
Abbildung des Risikopotenzials
Im Nenner (Risikokapital)
Risikokapital
Risikoadjustierter Ergebnisbeitrag Risikokapital
Im Zähler (Risikoadjustierter Ergebnisbeitrag) und Nenner (Risikokapital)
Abb. 2.21 Kennzahlen Risikorendite. (Quelle: eigene Darstellung in Anlehnung an Schierenbeck 2003b, S. 43–49)
Angenommen, der Geschäftsbereich Firmenkunden der Beispielbank erwirtschaftet einen Ergebnisbeitrag vor Eigenkapitalkosten in Höhe von 38 Mio. €. Dividiert man diesen Ergebnisbeitrag durch das VaR-Limit von 220 Mio. €, ergibt sich ein RORAC von 17,3 %. Zieht man von den 38 Mio. € die Eigenkapitalkosten in Höhe von 33,5 Mio. € ab, dann ergibt sich ein „Risikoadjustierter Ergebnisbeitrag“ von 4,5 Mio. €. Dividiert man diesen Betrag durch das Risikolimit von 220 Mio. €, so ergibt sich ein RAROC in Höhe von 2,1 %. Während ein positiver RAROC einem positiven Wertbeitrag entspricht, bedeutet ein negativer RAROC, dass die (anteiligen) Eigenkapitalkosten nicht verdient werden. Die Differenz von RORAC und RAROC entspricht exakt dem Mindestrenditeanspruch auf das Risikolimit in Höhe von 15,2 %. Der Grund dafür, dass auf Bereichsebene für das Risikokapital das Limit und nicht der Ist-Betrag genommen wird ist der, dass das Limit ohne weitere Entscheidung jederzeit ausgeschöpft werden kann und daher (noch) nicht ausgeschöpfte Teile des Limits nicht anderweitig zur Verfügung stehen. Weisen die drei Geschäftsbereiche sehr unterschiedliche Risikorenditen aus, so kann theoretisch eine Optimierung der Risikorendite bzw. Eigenkapitalrendite für die Gesamtbank dadurch erreicht werden, dass im Rahmen der Planung Limite vom Bereich mit relativ niedriger Risikorendite zum Bereich mit höherer Risikorendite umgeschichtet werden.
2.6 Integrierte Gesamtbanksteuerung In den bisherigen Abschnitten wurde ein System zur verursachungsgerechten Ergebnisermittlung, bestehend aus einer Zielfunktion zur Maximierung des Wertbeitrags und einer Nebenbedingung der Risikotragfähigkeit, beschrieben. In diesem System ist das Eigenbzw. Risikokapital ein knappes Gut, welches nachhaltig für die Gesamtbank nur gesichert werden kann, wenn die Mindestverzinsungsansprüche der Eigenkapitalgeber verdient werden. In diesem System kann die relative Attraktivität von Geschäften, Bereichen, Vertriebswegen etc. durch einen Vergleich der Renditen für dieses knappe Gut dargestellt wer-
44
2 Beschreibung der Wertorientierten Banksteuerung
den. Durch eine Verteilung dieses knappen bzw. limitierten Gutes in die Verwendungsrichtungen mit den höheren Renditen kann die Rendite auf der Ebene der Gesamtbank optimiert werden. Damit die Entscheidungsträger der Bank ihre Entscheidungen im Sinne dieses Steuerungssystems fällen und sich für die Erreichung ihrer Ziele einsetzen, braucht es einen Steuerungsprozess bestehend aus Planung und Plan-Ist-Vergleich sowie eine auf die Zielerreichung ausgerichtete Anreiz- und Sanktionssystematik. In der Praxis werden dabei im Gegenstromverfahren (Top-down-Vorgabe eines Ergebnisziels, Bottom-up-Erhebung der Ergebnismöglichkeiten) über die Hierarchieebenen der Bank Ziele für ein Geschäftsjahr verhandelt und letztlich vereinbart. Nach Ablauf der Periode kann als Plan-Ist-Vergleich der Grad der Zielerreichung ermittelt werden. Dabei sollten die vereinbarten Ergebnisziele (Deckungsbeiträge 3 für Kundenbetreuer bzw. Ergebnisbeiträge nach Eigenkapitalkosten für Geschäftsbereiche) zumindest mittelfristig zu positiven Wertbeiträgen führen, damit die Eigenkapitalgeber ihr Kapital nicht in andere Verwendungsrichtungen geben bzw. bereit sind, Wachstum entsprechend mit zusätzlichem Eigenkapital zu finanzieren. Die Synchronisation der Anreiz- und Sanktionssystematik wird dabei in der Regel so gehandhabt, dass der Grad der Zielerreichung durch Gehaltserhöhungen, Bonushöhe, Ausstattungen, Belobigungen, Förderungen und Beförderungen etc. honoriert wird. Mit dieser Synchronisation wird in der Regel erreicht, dass Mitarbeiter/innen ihren Arbeitseinsatz an der Zielerreichung ausrichten.
Literatur BaFin (2020): Merkblatt zum Umgang mit Nachhaltigkeitsrisiken der BaFin vom 13.01.2020, unter: https://www.bafin/shareddocs/downloads/DE/Merkblatt/dl_mb_Nachhaltigkeitsrisiken.html, abgerufen am 15.05.2023. Breuer, W. (o.J.): Gabler Wirtschaftslexikon online zum CAPM, unter: https://wirtschaftslexikon. gabler.de/Definition/capital-asset-pricing-model-capm-28840, abgerufen am 15.05.2023. Schierenbeck, H. (2003a): Ertragsorientiertes Bankmanagement, 8. Auflage, Band 1 Wiesbaden 2003. Schierenbeck, H. (2003b): Ertragsorientiertes Bankmanagement, 8. Auflage, Band 1 Wiesbaden 2003.
3
Defizite der Wertorientierten Banksteuerung
3.1 Fehlende Nachhaltigkeit in der Zielfunktion 3.1.1 Plan-Ist-Vergleich für die Wertorientierte Steuerung Das in Kap. 2 in vereinfachter Form beschriebene Verfahren der Wertorientierten Banksteuerung 1.0 mit Zielfunktion und Nebenbedingung erscheint aus der Sicht der Eigentümer und damit der obersten Entscheidungsebene intuitiv ebenso schlüssig wie legitim. Dieser Eindruck manifestiert sich darin, dass diese Steuerungssystematik nach wie vor Gegenstand der universitären Betriebswirtschaftslehre ist, weitgehend in der Praxis umgesetzt bzw. angewendet wird und zudem in wesentlichen Teilen Grundlage der aufsichtsrechtlichen Bestimmungen ist. Während die moderne Deckungsbeitragsrechnung in den Achtzigerjahren entwickelt und sukzessive eingeführt wurde, folgte die moderne Risikomessung und -steuerung in den Neunzigerjahren. Mit der Einführung von Basel II im Jahre 2004 wurde diese Steuerungssystematik in wesentlichen Teilen Gegenstand auf sichtsrechtlicher Anforderungen zum Risikomanagement (vgl. hierzu Kap. 4). Es kann daher davon ausgegangen werden, dass die Wertorientierte Gesamtbanksteuerung mit Beginn der Zweitausenderjahre bereits weit verbreitet war. 2005 verkündete Josef Ackermann in Verbindung mit dem Jahresabschluss 2004, den er zwar für gut, aber nicht gut genug hielt, im Sinne des Shareholder Value das Ziel einer (Mindest-) Eigenkapitalrendite von 25 % vor Steuern (vgl. o. V. 2005). Schaut man sich vor diesem Hintergrund die Entwicklung insbesondere des privaten Bankensektors und dort insbesondere der großen Universalund Investmentbanken nach der Jahrtausendwende an, sind die Ergebnisse im Vergleich zu den Ergebnisansprüchen ernüchternd. So liegt die durchschnittliche Eigenkapitalrendite der Deutschen Bank als repräsentatives Beispiel für große Universal- und Investmentban-
© Der/die Autor(en), exklusiv lizenziert an Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2023 K. Leusmann, Nachhaltig erfolgreiches Bankmanagement, https://doi.org/10.1007/978-3-658-41929-5_3
45
46
3 Defizite der Wertorientierten Banksteuerung
ken in den letzten zehn Jahren (2011–2020) auf der Basis ihrer Jahresabschlüsse bei 1,1 % vor Steuern, was einem Bruchteil der durchschnittlichen Renditen von Sparkassen oder Volksbanken entspricht. Zudem kann über einen längeren Zeitraum beobachtet werden, dass die Ergebnisse von großen Universal- und Investmentbanken, gemessen an der Standardabweichung (durchschnittliche Abweichung vom Mittelwert) deutlich hefiger schwanken als diejenigen von Sparkassen oder Volksbanken (vgl. hierzu auch Abb. 3.1 für den Zeitraum 2002 bis 2011). Wenn man, analog zur Logik des CAPM heftigere Ergebnissch wankungen als Ausdruck eines höheren unternehmerischen Risikos interpretiert, so müssten demnach die Renditeanforderungen für die großen Universal- und Investmentbanken höher sein als diejenigen von durchschnittlichen Sparkassen und Volksbanken. Zudem ist zu berücksichtigen, dass gerade die großen Universal- und Investmentbanken in der Rechtsform der Aktiengesellschaft sich erklärtermaßen in relativer Reinform dem Shareholder Value verpflichtet sehen, während Sparkassen einen öffentlichen „Versorgungsauftrag“ mit Bankprodukten zu erfüllen haben und bei den Genossenschaftsbanken die (breit gestreuten) Eigentümer gleichzeitig Kunden sind. Von einer übergeordneten Metaebene aus betrachtet kann daher der Eindruck entstehen, dass die Wertorientierte Steuerung umso schlechter funktioniert, je energischer sie verfolgt wird. Das verlangt ebenso nach Erklärungen wie der bisherige Fortbestand in Theorie und Praxis. Überdies fällt bei einer Betrachtung von der Meta-Ebene auf, dass die Häufigkeit von faktischen Bankpleiten, unabhängig davon, ob die betroffenen Banken durch externe Stützungsmaßnahmen gerettet wurden oder nicht, in den letzten beiden Dekaden trotz der Einführung der modernen Methoden zur Risikomessung und -steuerung deutlich zugenommen hat. Auch diese Beobachtung verlangt nach Ursachenanalysen, die in Abschn. 3.2 aufgenommen werden.
Abb. 3.1 Realwirtschaftliches Kundengeschäft für den Zeitraum 2002 bis 2011
3.1 Fehlende Nachhaltigkeit in der Zielfunktion
47
3.1.2 Ursachenhypothesen für Fehlsteuerungen Da sich eine Erklärung aus der betriebswirtschaftlichen Steuerungslogik nicht unmittelbar ergibt, wird mit einer Sammlung von Indizien begonnen. Beispielsweise fallen folgende Beobachtungen auf: (a) Vom Jahr 2000 bis ca. Mitte 2021 mussten insbesondere große Universal- und Investmentbanken Strafzahlungen von insgesamt ca. 333 Mrd. US-Dollar leisten (vgl. Jung 2021). Davon entfielen zum Beispiel auf die Deutsche Bank 18,3, UBS 16,9 und Credit Suisse 10,5 Mrd. US-Dollar. Bei der Deutschen Bank entspricht die Höhe der Strafzahlungen mehr als einem Viertel des aktuellen bilanziellen Eigenkapitals und in etwa dem aktuellen Marktwert von ca. 18 Mrd. €. Dabei reichen die Gründe für die Strafzahlungen vom toxischen Wertpapierhandel (insbes. Verbriefungen von Subprime-Hypotheken) über Marktmanipulationen und Geldwäsche bis hin zum Steuerbetrug zum Beispiel mit dem Handel von Emissionszertifikaten. (b) Vor dem Hintergrund, dass Banken ursprünglich gegründet wurden, um die Realwirtschaft mit den für ihre Abwicklung erforderlichen Bankprodukten zu versorgen fällt auf, dass gerade bei den großen Universal- und Investmentbanken der Anteil des realwirtschaftlichen Geschäftes an der Bilanzsumme unterrepräsentiert ist. Macht man das realwirtschaftlich basierte bilanzwirksame Kundengeschäft an den Kundenkrediten bzw. Kundeneinlagen fest und setzt die größere Seite (Kundenkredite oder Kundeneinlagen) ins Verhältnis zur Bilanzsumme, so stellt man fest, dass dieser Anteil bei den großen Universal- und Investmentbanken deutlich geringer ist als beim Durchschnitt der Sparkassen oder Volksbanken. So lagen die Anteile in 2011 zum Beispiel in der Deutschen Bank bei 27,8 %, in der UBS bei 24,1 % und in der Credit Suisse bei 16,3 %, während sie in durchschnittlichen Sparkassen und Volksbanken mit 70,1 bzw. 72,0 % signifikant höher ausfielen (vgl. Abb. 3.1). In Abb. 3.1 steht die Bezeichnung BVR für den Durchschnitt der Volks- und Raiff eisenbanken ohne ihre seinerzeitigen Zentralbanken und die Bezeichnung DSGV für den Durchschnitt der Sparkassen ohne Landesbanken. Hinter der „National-Bank“ verbirgt sich sie Regionalbank „National-Bank Essen AG“, die sich erklärtermaßen auf das (realwirtschaftliche) Kundengeschäft fokussiert. Nimmt man die Treynor Ratio (Durchschnittliche EK-Rendite/Standardabweichung) als Maßstab für ein nachhaltiges Ergebnis unter Berücksichtigung der Ergebnisvolatilität, dann wird trotz gewisser Unschärfen in der Vergleichbarkeit (Bilanzierungsmethode, Bilanzpolitik, abweichende Zeiträume) der signifikante Zusammenhang zwischen dem so definierten nachhaltigen Ergebnis und dem der Realwirtschaft dienenden Geschäftsmodell deutlich. Als für die Interpretation wesentlicher bilanzpolitischer Effekt muss an dieser Stelle ergänzt werden, dass der deutliche Unterschied zwischen genossenschaftlichen Banken und Sparkassen bei der Standardabweichung und in der Folge bei der Treynor-Ratio daraus resultiert, dass die Auflösung von stillen Reserven aus Wertberichtigungen von Krediten bei den Sparkassen einheitlich in einem Jahr erfolgte, während sie bei den genossenschaftlichen Banken über die Jahre verteilt erfolgten. Ohne diese
48
3 Defizite der Wertorientierten Banksteuerung
Verzerrung würden die entsprechenden Werte deutlich dichter beieinander liegen. Bei den großen Universal- und Investmentbanken bestanden die nicht dem realwirtschaftlichen Geschäft dienenden Bilanzpositionen neben den unvermeidbaren unverzinslichen Positionen (Grundstücke und Gebäude, BuG, Eigenkapital etc.) insbesondere aus „Zum beizulegenden Zeitwert bewertete finanzielle Vermögenswerte“ (Aktivseite) bzw. entsprechenden Verbindlichkeiten auf der Passivseite. Bei der Deutschen Bank entfiel hiervon wieder der größte Anteil auf die Marktwerte von Derivaten. Das Nominalvolumen aller Derivate betrug bei der Deutschen Bank zum Jahresende 2011 ca. 59 Billionen Euro, wovon ca. 48,1 Billionen Euro auf Zinsderivate, sechs Billionen auf Währungsderivate und ca. 3,7 Billionen Euro auf Kreditderivate entfielen. Wie im Abschnitt zur Marktzinsmethode angedeutet, bestand der ursprüngliche Zweck von Zinsderivaten in der Absicherung von Zinsänderungsrisiken. Wenn das Nominalvolumen der Zinsderivate mit ca. 48,1 Billionen Euro jedoch das 22-fache der Bilanzsumme in Höhe von ca. 2,16 Billionen Euro übersteigt, muss zwangsläufig der Zweck der meisten Zinsderivate eher in der Erzielung von Spekulationsgewinnen gelegen haben. Dass der Bestand an Derivaten den Bestand an entsprechenden Kassapositionen, die man damit gegen Preis- oder Ausfallrisiken absichern könnte inzwischen um ein Vielfaches übersteigt und somit eher rein finanzwirtschaftlichen Spekulationen dient, ist unabhängig von einzelnen Banken inzwischen eine allgemeine Tendenz, die auch unter dem Begriff des „Kasino-Kapitalismus“ eingeordnet wird (vgl. Sinn 2009). Nachtrag: Die Zahlen zur Abb. 3.1 wurden bereits für den „Kulturwandel bei den Banken“ erhoben mit einem Erhebungszeitraum, der sehr eng um die Finanz- und Staatsschuldenkrise gefasst ist. Zur Überprüfung der Ergebnisse wurde eine zusätzliche Erhebung für den Zeitraum 2011 bis 2020 angefertigt, deren Ergebnisse in Abb. 3.2 dargestellt sind.
Abb. 3.2 Realwirtschaftliches Kundengeschäft für den Zeitraum 2011 bis 2020
3.1 Fehlende Nachhaltigkeit in der Zielfunktion
49
Es zeigt sich, dass der grundsätzliche Zusammenhang zwischen dem Anteil des realwirtschaftlichen Geschäftes an der Bilanzsumme und der Treynor Ratio auch hier signifikant ist. Die detaillierte Verlaufsanalyse zeigt zudem, dass die Ergebnisentwicklung bei den beiden Regionalbanken Dortmunder Volksbank und Sparkasse Münsterland Ost vom strategischen Risiko der anhaltenden Niedrigzinsphase betroffen ist. Mit dem Auslaufen der hohen Kupons bei den Replikationsportfolien für Sicht- und Spareinlagen hat der Zinsüberschuss gerade in den letzten Jahren erheblich abgenommen. In der Konsequenz kommt das jeweilige Renditeminimum von 7,2 bzw. 4,4 % auch aus dem Jahr 2020. Die extrem hohen Treynor-Ratios bei der Dortmunder Volksbank und der Nationalbank Essen sind vor allem durch die minimalen Ergebnisschwankungen geprägt. Hier kann natürlich nicht ausgeschlossen werden, dass bilanzpolitische Ausgleichsmaßnahmen bei der Bilanzierung Einfluss genommen haben. Die grundsätzliche Aussagekraft dürfte davon jedoch nicht beeinträchtigt sein. (Ende des Nachtrags) (c) Während einer Führungskräfteversammlung bei einer großen Universal- und Invest mentbank im Jahre 2011 wurde seitens der anwesenden Vorstände das Thema der Banken ethik mit Blick auf die wegen Falschberatungen in der Öffentlichkeit vielfach gerügte Konkurrenz dahingehend aufgeworfen, dass man selbst niemals aufgrund unethischen Verhaltens in eine solche Situation kommen möchte. Auf die Frage, ob es auch im eigenen Institut schon unethisches Verhalten gegeben habe wurde mit „Ja“ geantwortet. Auf die Nachfrage, ob dieses unethische Verhalten auch sanktioniert wurde, lautete die Antwort: „Das haben wir mit Blick auf die Leistung nicht getan.“ Das war zu dem Zeitpunkt das wahrscheinlich unbeabsichtigte Eingeständnis, dass der Zweck (der Maximierung des Shareholder Value) die Mittel heiligt. Kurze Zeit darauf häuften sich zu dieser Bank die Skandalberichte (gemäß eines vertraulichen, verifizierten Teilnehmerberichts). Wie bei dieser Bank, so waren auch bei Konkurrenzinstituten durchaus ehrenwerte Ethikkodizes oder „Codes of Conduct“ vorhanden. Sie waren jedoch nicht oder nur eingeschränkt verhaltensrelevant, weil sie nicht Gegenstand der Anreiz- und Sanktionssystematik waren. (d) In 2012 hat Bain & Company Deutschland auf ihrer Internetseite die Studie „Was Bankkunden wirklich wollen“ mit den Net Promoter Scores für den deutschen Bankensektor veröffentlicht (vgl. Abb. 3.3), welche die Vertrauenskrise im Bankensektor und dort insbesondere bezüglich der Großbanken verdeutlicht. Dabei ist der Net Promoter Score (NPS) vereinfacht so definiert, dass bei Bewertungen von Banken durch ihre Kunden von der Anzahl derjenigen, die ihre Bank weiterempfehlen würden diejenigen abgezogen werden, welche aufgrund von Unzufriedenheit bzw. Vertrauensmangel einen Wechsel ihrer Bank in Erwägung ziehen. Ausgedrückt in Prozent war zu der Zeit der NPS auf der Ebene der gesamten Branche mit 13 % negativ. In der differenzierteren Betrachtung reichten die Bewertungen von +13 % bei den Direktbanken bis zu −27 % bei den Großbanken. Diese Erhebung war für den gesamten Sektor, insbesondere jedoch für die Großbanken von besonderer Bedeutung, weil gerade für Banken das Vertrauen, neben dem erforderlichen fachspezi-
50
3 Defizite der Wertorientierten Banksteuerung
15
13
10 5 0 -5 -7
-10 -15
-13 -17
-20 -25
-27
-30 Direktbk.
Genossen
Sparkassen
Großbanken
Durchschn.
1) Definition NPS: Anteil Promoter abzüglich Anteil Kritiker in Prozent Quelle: Internetseite von Bain & Company
Abb. 3.3 Net Promoter Score. (Quelle: Bain & Company 2012)
fischen Know-how und der technisch Organisatorischen Fähigkeit zur Abwicklung von Bankgeschäften, eine entscheidende Legitimationsressource ist (vgl. Leusmann 2013, S. 5 ff.). (e) Besondere Aufmerksamkeit hat seit der Finanzmarktkrise das System von variablen Vergütungen erfahren. Dieses System ist nach wie vor durch eine Asymmetrie in der Form geprägt, dass Erfolge zu positiven Boni führen, während bei ausbleibenden Erfolgen oder gar Verlusten im schlimmsten Fall die variablen Vergütungsbestandteile auf null schrumpfen können. Eine Beteiligung an verursachungsgerecht zurechenbaren Verlusten ist nicht vorgesehen. Bei Eigenhändlern wurden in Teilen gar variable Vergütungen als prozentualer Anteil am erwirtschafteten Gewinn vereinbart. Ein brisantes Beispiel hierfür war der Händler der Deutschen Bank Christian Bittar, der in 2008 für die Deutsche Bank einen Gewinn in Höhe von 500 Mio. € durch Spekulationen mit Zinsgeschäften erwirtschaftete, für den ihm ein Bonus in Höhe von 80 Mio. € (zahlbar in Raten) zugesprochen wurde. Dabei lag die besondere Brisanz nicht nur in der Höhe des absoluten Betrags sondern auch oder vor allem darin, dass ihm in diesem Zusammenhang die Manipulation der Euribor-Zinssätze nachgewiesen werden konnte (vgl. Freiberger 2013). Bis zur Aufdeckung der Manipulationen im Jahre 2011 wurden von diesem Bonus ca. 40 Mio. € ausgezahlt. Aufgrund der zu dem Zeitpunkt für die Deutsche Bank zu erwartenden hohen Strafzahlungen wurden die noch ausstehenden Boni zwar nicht mehr ausgezahlt, eine Beteiligung an den Strafzahlungen erfolgte jedoch nicht. Auf Institutsebene war eine solche Asymmetrie in der Form zu beobachten, dass bei krisenhaften Schieflagen selbst verursachte Verluste aufgrund möglicher Gefahren für das Finanzsystem durch staatliche Zahlungen beglichen wurden, während bei ersten Erfolgen danach schon wieder Boni und Dividenden gezahlt wurden (vgl. Schreiber 2021).
3.1 Fehlende Nachhaltigkeit in der Zielfunktion
51
Zusammenfassend ergibt sich vor dem Hintergrund der geschilderten Beobachtungen der Eindruck, dass ethische Defizite eine wesentliche Ursache für das Verfehlen nachhaltig angemessener Ergebnisse sind und diese Defizite durch das Steuerungssystem nicht nur nicht verhindert, sondern sogar forciert wurden. Dies gilt insbesondere dann, wenn die Einhaltung oder Nicht-Einhaltung von Ethikkodizes nicht Gegenstand der Anreiz- und Sanktionssystematik ist und das Eingehen überproportionaler (die Tragfähigkeit übersteigender) Risiken im Erfolgsfall honoriert und bei Schäden nicht sanktioniert wird. Hinzu kommt die Kurzfristigkeit der Messung und Honorierung von Erfolgen im Rhythmus der Geschäftsjahre, bei denen grundsätzlich eine menschliche Neigung dazu besteht, Erfolge und deren sichere Honorierung im bzw. für das laufende Jahr höher zu gewichten als mögliche/ungewisse negative Konsequenzen daraus in den Folgejahren (vgl. Kahneman 2012, S. 331 ff.). Zudem spielt der ursprüngliche Zweck der Banken, die Versorgung der Realwirtschaft mit den benötigten Bankprodukten, in der Steuerungssystematik keine Rolle. Die Zielfunktion der Wertorientierten Unternehmenssteuerung vertauscht damit insofern Mittel und Zweck, als die arbeitsteilige Wirtschaft mit Hilfe des Kapitals ursprünglich dem Menschen dienen sollte und nunmehr der Mensch dem Kapital dient.
3.1.3 Definition von Nachhaltigkeit Um der Vermutung ethischer Defizite als einer denkbaren Ursache für das Ausbleiben nachhaltiger Ergebnisse nachzugehen, ist zunächst der Begriff der Ethik in diesem Zusammenhang zu definieren. Als Teil der praktischen Philosophie geht die Ethik zurück auf Aristoteles der sie als normative Bewertung menschlichen Handelns mit philosophischen Mitteln definierte. Ihr Ziel seien allgemeingültige Normen und Werte (vgl. Leusmann 2013, S. 6). In dieser Definition stecken explizite und implizite Anforderungen an die Ethik. Aus dem Begriff „normativ“ resultiert eine Allgemeingültigkeit der Beurteilung. Mit anderen Worten, alle Beteiligten und Unbeteiligten müssen einer Bewertung als gut, böse oder neutral folgen können. Adam Smith spricht in diesem Zusammenhang in seiner „Theorie der ethischen Gefühle“ vom „unbeteiligten Dritten“ (vgl. Smith 2010). Als „Maßstab“ haben sich hinsichtlich dieser Allgemeingültigkeit drei Kernelemente der Ethik als Kultur übergreifender Basiskonsens herausgebildet: Die Prinzipien der Menschenwürde, der Gegenseitigkeit („Goldene Regel“) und der Sachgerechtigkeit. Aus der Bewertung menschlichen Handelns folgt, dass beispielsweise nur die Entscheidungsträger einer Bank und nicht die Bank als Unternehmen bzw. gesellschaftsrechtliches Konstrukt mehr oder weniger moralisch handeln können. Es geht hier demnach um menschliche Verantwortung (zur Thematik des Menschen als moralische Akteure vgl. insbesondere Leusmann 2013, S. 8–10). Bei dieser allgemeinen Definition der Ethik kann man als Unternehmensethik die normative Bewertung des Handelns von Menschen als Vertreter eines Unternehmens verstehen. Das „Normative“ besteht in diesem Zusammenhang darin, dass alle Interessensgruppen bzw. Parteien, die in irgendeiner Form mit dem Unternehmen verbunden sind, die Bewertung teilen müssen. Ersetzt man den Begriff Interessensgruppen in diesem Zusammenhang durch
52
3 Defizite der Wertorientierten Banksteuerung Rendite
Mindestethikscore
These: Der nachhaltige Erfolg ist eine multiplikative Verknüpfung von Rendite und Ethik
Mindestrendite Nachhaltiger Erfolg
Ethik
Abb. 3.4 Nachhaltiger Erfolg. (Quelle: eigene Darstellung)
den Begriff der Stakeholder, dann geht es demnach neben den Eigentümern auch um Kunden, Mitarbeiter/innen, Lieferanten und der Gesellschaft/dem Staat. Ethisch ist demnach das Handeln der Vertreter eines Unternehmens dann, wenn zumindest mittel- und langfristig der Interessensausgleich zwischen den Stakeholdern sichergestellt ist. Demnach müsste ein Ergebnis einer Bank dann nachhaltig sein, wenn über alle Stakeholder ein positiver Wertbeitrag erwirtschaftet wird und sich dieser Wertbeitrag so verteilt, dass kein Stakeholder strategisch benachteiligt wird. Anders formuliert wäre der nachhaltige Erfolg eines Unternehmens ein Produkt von zwei Faktoren, Kapital- bzw. Risikorendite und der Unternehmensethik als Maßstab für den Interessensausgleich der Stakeholder. Diese These wurde im „Kulturwandel“ mit Hilfe der Grafik in Abb. 3.4 veranschaulicht (vgl. Leusmann 2013, S. 58). Dabei ist der Erfolg in diesem I. Quadranten dann nachhaltig, wenn zumindest mittelfristig sowohl eine Mindestrendite als auch ein Mindestmaß an Ethik erreicht bzw. überschritten wird. Wird das Mindestmaß an Rendite nicht erreicht, werden die Eigenkapitalgeber dem Unternehmen/der Bank mittelfristig das Kapital entziehen bzw. kein neues Kapital zur Finanzierung von Wachstum einbringen. Wird ein Mindestmaß an Ethik verfehlt, werden ein oder mehrere Stakeholder eskalieren. Im Bankensektor haben wir eine solche Eskalation in Form eines – gemessen am Regulierungsumfang – Regulierungstsunamis (Umfang Basel I: ca. 100 Seiten: Umfang Basel IV: über 7000 Seiten) in Verbindung mit den bereits erwähnten Strafzahlungen sowie dem gemessenen Vertrauensverlust (vgl. Abb. 3.3) erlebt. Die These zur Definition des „Nachhaltigen Erfolgs“ steht dabei nicht im Widerspruch zur vielfachen Verwendung des Begriffs der Nachhaltigkeit im ökologischen Sinne. Sie schließt diese Sichtweise vielmehr als Teilaspekt mit ein, weil zwangsläufig die ökologische Vertretbarkeit des Geschäftsgebarens aus der Sicht der Gesellschaft Teil des Interessensausgleichs zwischen den Stakeholdern und damit Bestandteil der Unternehmensethik ist. Die Erklärung des Nachhaltigen Erfolgs über die beiden Faktoren Rendite und Ethik im Rahmen eines Koordinatensystems lässt sich auch auf die übrigen Quadranten erweitern
3.1 Fehlende Nachhaltigkeit in der Zielfunktion
53
Rendite
II • •
•
Gewinn z. L. anderer „The social resposibility of business is to increase ist profits!“ (M. Friedman) Shareholderegoismus
I Nachhaltiger Erfolg „Fair Share“ „Goldene Regel“ Stakeholder Value
• • • •
Ethik
III • •
Das Unethische schafft sich langfristig selbst ab Zustand endet in Konkurs und Abwicklung
IV • •
Gemeinnützige Unternehmen/Banken Auf Mittelzuführung bzw. Kapitalisierung von außen angewiesen
Abb. 3.5 Koordinatensystem Rendite – Ethik. (Quelle: eigene Darstellung)
(vgl. Abb. 3.5; vgl. Leusmann 2013, S. 60). Im Zweiten Quadranten befinden sich Banken die es geschafft haben mit unethischen Geschäften kurzfristig ein höheres Ergebnis zu erzielen. Dieser Quadrant ist insofern nicht stabil, als eine Eskalation benachteiligter Stakeholder zu erwarten ist. Eine solche Eskalation führt entweder zu einem Kulturwandel und damit mittelfristig in den ersten Quadranten oder in den dritten Quadranten. Im zweiten Quadranten waren in den vergangenen Dekaden sinnbildlich vorübergehend Banken wie Credit Suisse, Deutsche Bank, UBS, Barclays etc. zu „beobachten“. Im dritten Quadranten ist im Sinne der Multiplikation zweier negativer Faktoren das nachhaltige Ergebnis insofern wieder positiv, als sich das Unethische selber abschafft. Hier ist der (stabile) Bankenfriedhof zu verorten mit „verstorbenen“ Banken wie HypoReal Estate, Lehman Brothers, Sachsen LB etc. Jüngster Zugang, unmittelbar vor Finalisierung dieses Skriptes, ist die Credit Suisse. Die hinsichtlich Anzahl und zeitlicher Dauer umfangreichen Skandale haben die Bank im zweiten Quadranten so weit nach links getrieben, dass der daraus resultierende Vertrauensverlust sie trotz Eigenkapital von knapp 48 Mrd. Schweizer Franken (Bank) innerhalb eines Wochenendes zum Preis von drei Milliarden Schweizer Franken (Kaufpreis für die UBS als übernehmendes Institut) in den dritten Quadranten befördert hat. Im vierten Quadranten könnten gedanklich staatliche Förder- und Entwicklungsbanken angesiedelt sein, die auf Mittelzuführung bzw. Kapitalisierung von außen angewiesen sind.
54
3 Defizite der Wertorientierten Banksteuerung
3.1.4 Anforderungen an eine nachhaltige Ergebnissteuerung Wollte man das Gedankenmodell für den nachhaltigen Erfolg in einer entsprechend erweiterten Steuerungssystematik umsetzen, dann müsste die Ethik messbar sein und mit der Renditeachse zwecks Erfolgsmessung verknüpft werden. Zudem wäre der Zusammenhang zwischen einer zu messenden Ethik und einem zu definierenden nachhaltigen Erfolg nachzuweisen. Wie der in Abb. 3.4 verwendete Begriff des Mindestethikscore bereits andeutet, könnte dieses über ein Ethikrating erfolgen, bei dem verschiedene Kriterien der Ethik bewertet werden. Dieser Ansatz wird im Abschn. 5.1 weiterverfolgt. Die Nebenbedingung der (ggf. neu zu definierenden) Risikotragfähigkeit bleibt davon unbenommen und die Messung der Rendite kann bei der Erweiterung der Steuerungssystematik um die Ethikachse weiterhin über die Kapital- bzw. Risikorendite, wie im Kap. 2 beschrieben, erfolgen. Wird der um die ethische Dimension erweiterte nachhaltige Erfolg auch zur Grundlage der Anreiz- und Sanktionssystematik, dann wird das Wie und Womit der Renditemaximierung auch Gegenstand der beurteilten und honorierten Leistung. Auch wird durch die Integration der ethischen Dimension des nachhaltigen Erfolgs der Mensch wieder zum Zweck und das Kapital zum Mittel der Wirtschaft. Das System würde also sinnbildlich wieder vom Kopf auf die Füße gestellt. Dass ein solcher Paradigmenwechsel in der Steuerung durch eine entsprechende Entwicklung der Unternehmenskultur flankiert werden muss, wird in Abschn. 3.4 aufgegriffen.
3.2 Fehler im Risikomanagement 3.2.1 Ungewissheiten und Risikomodelle Das Risiko wurde für die Zwecke dieses Buches definiert als potenzieller Vermögensschaden aufgrund ungewisser Ereignisse in der Zukunft. In der Vergangenheit gab es jedoch abweichende Definitionen. Frank Hyneman Knight als Begründer der modernen Risikoforschung hat in seinem Werk „Risk, Uncertainty and Profit“ von 1921 zwischen Risiko und echter Unsicherheit unterschieden. Sinngemäß unterscheidet Nassim Taleb in seinem Werk „Schwarzer Schwan“ zwischen Risiken aus den fiktiven Regionen „Mediokristan“ und „Extremistan“. Die Knight’schen Risiken aus Mediokristan zeichnen sich dadurch aus, dass sie logisch und empirisch berechenbar sind, eine zuverlässige Verteilung aufweisen und gegen einen Mittelwert tendieren (vgl. Boeckelmann und Mildner 2011; vgl. Taleb 2015, S. 73–85). Beispiele für derartige Risiken sind Roulette, Würfel, Münzwurf oder grundsätzlich Parameter mit begrenzten Schwankungsbreiten. Taleb beschreibt als plastisches Beispiel für Mediokristan einen Marsmenschen, der mit dem Auftrag auf die Erde kommt, die durchschnittliche Größe eines erwachsenen Erdenbürgers zu ermitteln. Nachdem er die ersten 100 zufällig ausgewählten Personen vermessen hat, wird er möglicherweise einen Durchschnittswert von 179 cm ermitteln mit einer begrenzten Verteilung um diesen Mittelwert. Er wird tendenziell
3.2 Fehler im Risikomanagement
55
kein Messergebnis unterhalb von 100 cm haben und auch keinen Fall von mehr als 250 cm. Wahrscheinlich wäre das Ergebnis einer zweiten Stichprobe ähnlich und der Marsmensch könnte den gesuchten Gesamtdurchschnitt der Körpergröße aller erwachsenen Erdenbürger sehr zuverlässig schätzen. Anders verhält es sich mit den „echten Ungewissheiten“ aus „Extremistan“. Sie zeichnen sich dadurch aus, dass sie nicht logisch oder empirisch berechenbar sind, sie sind nicht prognostizierbar und tendieren nicht gegen einen Mittelwert. Sie haben teils extreme Auswirkungen und werden naturgemäß unterschätzt, insbesondere aufgrund seltener Extremfälle oder „Schwarzer Schwäne“ als Sinnbild für das bis dahin Undenkbare Unbekannte. Sie sind in der Regel die Ursachen von Bankschieflagen und -pleiten. Auch hierfür führt Taleb an gleicher Stelle ein plastisches Beispiel an: Ein zweiter Marsmensch landet mit dem Auftrag in Amerika, dass durchschnittliche Vermögen der Amerikaner zu ermitteln. Nach der Erhebung einer Stichprobe von 1000 erwachsenen Amerikanern wird er einen Durchschnitt ermitteln, der in keinem Falle dem Durchschnitt aller Amerikaner entspricht oder auch nur nahekommt. Sofern er keinen bedeutenden Milliardär in der Stichprobe hat, wird der in der Stichprobe ermittelte Durchschnitt deutlich unter dem Durchschnitt aller Amerikaner liegen. Ist auch nur ein wesentlicher Milliardär (zum Beispiel Jeff Bezos oder Bill Gates) in der Stichprobe, wird der Durchschnitt der Stichprobe deutlich über dem aller Amerikaner liegen. Aus dem gleichen Grunde kann auch nicht vom Ergebnis einer Stichprobe von 1000 Amerikanern auf das Ergebnis einer weiteren Stichprobe gleicher Größe geschlossen werden. Die für die Beurteilung der Risikotragfähigkeit relevanten Risiken sind insbesondere die potenziellen Vermögensschäden aufgrund von nicht prognostizierbaren echten Ungewissheiten aus „Extremistan“. Sir Isaac Newton (1643–1727) wurde mit den Worten zitiert: „Ich kann zwar die Bewegung der Himmelskörper berechnen, aber nicht das Verhalten von Menschen.“ Er hat damit zu einem wesentlichen Teil erklärt, warum durch Menschen beeinflusste Ereignisse zu den echten Ungewissheiten im Sinne von Knight gehören. Sie sind ebenso wenig prognostizierbar wie das Verhalten von (wenigen oder vielen) Menschen. Wäre das Verhalten von Menschen prognostizierbar, dann gäbe es keine freie Gewissensentscheidung und das Jüngste Gericht wäre überflüssig. Alle seltenen Extremereignisse der letzten Zeit wurden durch wenige oder viele Menschen beeinflusst. Das gilt für die Finanzmarktkrise, die Staatsschuldenkrise, Pandemien und Kriege bis hin zum Klimawandel oder einem unberechenbaren amerikanischen (Ex-) Präsidenten. Auch die aktuelle Energieversorgungskrise aufgrund der Abhängigkeit von einem totalitären Staat ist menschengemacht. Aufgrund aktueller Entwicklungen ist grundsätzlich eine Tendenz der Zunahme seltener Extremereignisse mit entsprechendem Bedrohungspotenzial auch für die Risikotragfähigkeit von Banken zu beobachten bzw. weiterhin zu erwarten. Abb. 3.6 zählt neue Risikotreiber aus „Extremistan“ auf. Da aufgrund der Ungewissheit der Zukunft Risiken dieser Art nicht messbar sind, greift das Bankmanagement 1.0 zu dem in seinen Grundzügen bereits beschriebenen Modell. Ein Modell ist eine Analogie zu Teilaspekten der Wirklichkeit und damit eine erhebliche Vereinfachung bzw. Abstraktion (vgl. Derman 2013, S. 12–14). Die Vereinfachung bzw. Abstraktion von Risikomodellen besteht darin, dass die Zukunft im Prinzip eine Wieder-
56
3 Defizite der Wertorientierten Banksteuerung
1 2 3 4 5 6
Die Globalisierung geht einher mit zunehmender Spezialisierung und Aufgabenteilung, was Abhängigkeiten und Kettenreaktionen begünstigt Die Geldwirtschaft ist von der Realwirtschaft entkoppelt und verursacht aufgrund der Hebelwirkungen Volatilitäten und Extremereignisse/Blasen Neue weltpolitische Strömungen und Machtkonzentrationen relativieren gesellschaftliche Normen, Werte und Kontrollmechanismen Das Tempo technischer und (macht-) politischer Entwicklungen trifft die betroffenen Menschen „unvorbereitet“ bzw. manipulierbar Nachrichten, ob manipuliert oder emotional verstärkt, verbreiten sich durch soziale Netzwerke in Minutenschnelle, mit entsprechenden Risiken Globale Entwicklungen, z. B. hinsichtlich Ressourcen, Klima, Bevölkerung, Verteilung von Vermögen und Chancen bergen weitere Extremrisiken
Abb. 3.6 Risikotreiber aus „Extremistan“. (Quelle: eigene Darstellung)
holung der Vergangenheit ist. Aufgrund dieser Abstraktion wird ein Schadensbetrag, der aufgrund der Datenbasis für die Vergangenheit rechnerisch nur einmal in tausend Jahren überschritten wurde, auch in der Zukunft nur einmal in tausend Jahren überschritten. Er stellt praktisch einen maximal denkbaren Schaden dar. Wie bereits erläutert, ergeben sich damit die Risiken als Funktion von Konfidenzniveau und Betrachtungszeitraum. Der Möglichkeit seltener aber schon erlebter Extremereignisse versucht man mit einem möglichst hohen Konfidenzniveau gerecht zu werden. Ob ein hohes Konfidenzniveau ausreicht, um seltene Extremereignisse in der Zukunft hinreichend zu berücksichtigen darf jedoch bezweifelt werden, da bis dahin (undenkbares) Unbekanntes nicht in der Datenhistorie enthalten ist und eine zwangsläufig starke Überlappung der betrachteten mindestens 1000 Jahreszeiträume der Vergangenheit in Verbindung mit der Einmaligkeit seltener Extremereignisse Fehleinschätzungen begünstigt. Zudem wurde in Abschn. 2.5.1 festgestellt, dass wesentliche Risiken wie zum Beispiel die Strategischen Risiken oder Reputationsrisiken von diesen Modellen nicht erfasst bzw. „gemessen“ werden können. Es gilt daher zu prüfen, ob die entscheidende Prämisse der Risikomodelle für die Zwecke der Risikomessung und Beurteilung der Risikotragfähigkeit zulässig ist. Entscheidend für die Verwendung von Modellen ist dabei, dass sie bereits bei einem entscheidenden Gegenbeispiel streng genommen ihre Berechtigung verlieren. Für Risikomodelle würde das bedeuten, dass damit auch die Beurteilung der ökonomischen Risikotragfähigkeit hinfällig ist.
3.2.2 Falsifizierung der ökonomischen Risikotragfähigkeit Zur Zeit der Abfassung dieses Buches (zweites Halbjahr 2022) gibt es einen Krieg in Europa und es droht aufgrund der Abhängigkeit von Russland eine konkrete Versorgungskrise im kommenden Winter. Das Risiko einer solchen Krise aufgrund einer Abhängigkeit
3.2 Fehler im Risikomanagement
57
von einem totalitären Staat war zu der Zeit, als man sich sukzessive in diese Abhängigkeit begeben hat, mit einem vergangenheitsorientierten Modell der Risikomessung nicht zu erfassen, da Russland bis dahin in allen sich überlappenden Einjahreszeiträumen immer seinen Lieferverpflichtungen nachgekommen ist. Hätte man das Risiko dort gesucht, wo es ist, nämlich in der Zukunft, so hätte man aufgrund der Besetzung der Krim sowie der Krise im Donbass bereits auf der Basis eines Stresstests die größer werdende Gefahr eines Lieferstopps gesehen und die Abhängigkeit reduziert. Mit Blick auf den Finanzsektor ergibt sich wahrscheinlich eine deutliche Erhöhung der Ausfallwahrscheinlichkeiten für besonders von der Gasversorgung abhängige Unternehmen, wie zum Beispiel der Glas- und Metallindustrie. Vermutlich verändern sich auch gerade die in den Kreditportfoliosystemen hinterlegten Korrelationen zwischen Branchen. Bis zur Veröffentlichung des neuen Risikotragfähigkeitsleitfadens mit einem vorgeschriebenen Konfidenzniveau von 99,9 % hat die Deutsche Bank ihr Risiko mit einem Konfidenzniveau von 99,98 % ermittelt. Bei gegebener Risikotragfähigkeit mit diesem Konfidenzniveau droht demnach ein Ausfall des Instituts nur zweimal in 10.000 Jahren. In dieser Zeit wurde zwischen 2010 und 2015 das Operationelle Risiko mit diesem Konfidenzniveau laut Geschäftsbericht in mehreren Teilschritten von ca. 3,6 Mrd. € auf über zehn Milliarden Euro angehoben, bevor im Jahr 2016 ein Strafbescheid über 14 Mrd. US-Dollar allein für die strittigen Hypothekengeschäfte einging, der nachträglich auf sieben Milliarden US-Dollar heruntergehandelt wurde, aber in seiner ursprünglichen Höhe existenziell war (vgl. die Geschäftsberichte der Deutschen Bank aus den genannten Jahren). Jede dieser Erhöhungen sowie der Strafbescheid von 2016 war im Grunde ein „Zwei- mal-in-zehntausend-Jahren-Fall“. Auch die zahlreichen Bankkrisen und Pleiten bei hervorragender ökonomischer Tragfähigkeit im Jahr vor der Krise sind Beispiele für das Versagen der Risikomessmethodik. Bei der Bestimmung der Datengrundlage zum Beispiel für Zinsänderungsrisiken besteht grundsätzlich das Entscheidungsproblem zwischen der Auswahl einer langjährigen Historie, um möglichst auch seltene Entwicklungen zu erfassen aber möglicherweise damit aktuelle Entwicklungen nicht angemessen zu berücksichtigen und der stärkeren Gewichtung der jüngeren Vergangenheit, um eben diesem möglichen Mangel zu begegnen. Würde man beispielsweise den Schwerpunkt bei der Erhebung von einjährigen Zinsänderungsszenarien auf die vergangene Dekade legen, so würde sich praktisch kein Risiko aus unerwarteten Zinsanstiegen ergeben, auch wenn die meisten Institute in ihrer Fristentransformation so aufgestellt sind, dass sie unerwartete Vermögensverluste aus Zinsanstiegen erleiden würden. Das liegt einfach daran, dass es in den letzten zehn Jahren keine wesentlichen Zinsanstiege gegeben hat. Dies ist besonders deshalb kritisch zu sehen, als wesentliche Zinsanstiege in der näheren Zukunft nicht unwahrscheinlich bzw. die Eintrittswahrscheinlichkeit eines solchen Szenarios über 0,1 % einzuschätzen wäre. Allgemeiner formuliert versagt das Modell der vergangenheitsorientierten Risikomessung gerade auch in Phasen länger anhaltender Trends. Reinhold Hölscher und Michael Kremers haben in einer Analyse von 2009 festgestellt, dass die Ergebnisse vergangenheitsorientierter VaR-Messungen „bei einem Konfidenzni-
58
3 Defizite der Wertorientierten Banksteuerung
veau von 95 % qualitativ deutlich bessere Ergebnisse bei der Risikobewertung liefern als bei Sicherheitsniveaus jenseits der 99 %“ (vgl. Hölscher und Kremers 2009, S. 7). Während ein Sicherheitsniveau von 95 % eine Ausfallwahrscheinlichkeit einmal in 20 Jahren bedeutet, bedeutet ein Sicherheitsniveau von 99 % eine Ausfallwahrscheinlichkeit von einmal in 100 Jahren und das aufsichtsrechtlich vorgeschriebene Sicherheitsniveau eine Ausfallwahrscheinlichkeit von einmal in 1000 Jahren, wobei die Qualität mit steigendem Sicherheitsniveau überproportional abnimmt. Man könnte vor dem Hintergrund dieser Erkenntnisse die imaginäre Grenze zwischen „Mediokristan“ (normalen Schwankungen) und „Extremistan“ bei einem Sicherheits- bzw. Konfidenzniveau von 95 % vermuten. Der Versuch, für die Risikotragfähigkeit relevante Risiken in der Zukunft auf Basis von Daten der Vergangenheit zu steuern wird daher gelegentlich auch mit dem sinnbildlichen Versuch verglichen, ein Auto mit zugeklebter Windschutzscheibe, nur mit dem Blick in den Rückspiegel, sicher nach vorn zu fahren. Als Fazit lässt sich festhalten, dass insbesondere bei höheren Konfidenzniveaus (oberhalb von 95 %) das Risiko signifikant unter- bzw. das Sicherheitsniveau signifikant überschätzt wird. Somit sind die Risikomessungen als Basis für die Beurteilung der Risikotragfähigkeit ungeeignet. Zudem bestehen wesentliche Fehlsteuerungsanreize insofern als dass bei gegebenem Eigenkapital die Risikoneigung in Form der Auslastung der Risikodeckungsmasse durch entsprechende Anhebung des Gesamtbankrisikolimits über die tatsächliche Tragfähigkeit hinaus erhöht wird, um die Rentabilität des bilanziellen Eigenkapitals zu erhöhen. Als praktische Beispiele mit negativem Ausgang dient die SachsenLB, welche für ca. 41 Mrd. € Subprime-Verbriefungen mit zu gut ausgewiesenem Rating über ihre irische Tochter Ormond Quay gekauft hat, weil sie rechnerisch noch „Luft“ in der Risikotragfähigkeit hatte (vgl. Weik und Friedrich 2012, S. 57). Entsprechendes gilt für die IKB. Auch bei weiteren Banken die von der Finanzmarktkrise und/oder dem griechischen Schuldenschnitt betroffen waren gab es erhebliche Irritationen im Management, weil ökonomischen Risikotragfähigkeitsberichte immer „dunkelgrün“ waren, bis es unvermittelt zu existenziellen Belastungen kam (so nach eigenen Erfahrungen des Verfassers sowie Erfahrungsaustausch mit anderen Leitern Controlling). Eine Fehlsteuerung mit nahezu identischer Ursache erleben wir gerade bei der Steuerung der Inflationsrisiken durch die EZB, wo deren Präsidentin Lagarde erkennen musste: „Wir können uns nicht mehr ausschließlich auf die Projektionen (der Inflationsrate, d. V.) verlassen, die uns unsere Modelle liefern – sie mussten in diesen vergangenen zwei Jahren immer wieder nach oben korrigiert werden“ (vgl. o. V. 2022). Weiter wird sie in dem Bericht indirekt zitiert mit: „Es gebe Dinge, die die Modelle nicht erfassten, manchmal geschehe das Unerwartete.“ (vgl. o. V. 2022). Auch in diesem Beispiel wurde aufgrund der Unterzeichnung der Inflationsrisiken durch vergangenheitsorientierte Modelle das Inflationsrisiko über die Ausweitung der Geldmange sogar noch erhöht.
3.2 Fehler im Risikomanagement
59
3.2.3 Schlussfolgerungen für ein sachgerechtes Risikomanagement Aus den bisherigen Ergebnissen kann der Schluss gezogen werden, dass in der Zukunft liegende Risiken nicht auf der Basis von Vergangenheitsdaten als Funktion von Sicherheitsniveau und Betrachtungszeitraum messbar sind. Das Risikomanagement muss die entsprechenden Risiken mit anderen Methoden dort suchen, erfassen und analysieren wo sie zeitlich gesehen liegen: in der Zukunft. Da es bei in der Zukunft liegenden Risiken keine Eintrittswahrscheinlichkeiten gibt und zudem das Undenkbare Unbekannte definitionsgemäß nicht erfasst und analysiert werden kann, kann es keine Sicherheit auf dem Niveau von beispielsweise 99,9 % geben. Was möglich ist, sind Fragilitätsanalysen, die in Verbindung mit entsprechenden Frühwarnsystemen und Maßnahmen das Unternehmen bezüglich potenzieller Extremereignisse robuster machen. Abb. 3.7 verdeutlicht noch mal den Fokus eines sachgerechten Risikomanagements. Für die Vergangenheit lassen sich unerwartete Verluste aus Knight’schen Risiken und Unsicherheiten (einschließlich historischer Extremereignisse, wie zum Beispiel der Finanzkrise) als historische Fakten feststellen. Sie führten zu einer entsprechenden Volatilität der Ergebnisse. Renditeansprüche am „Value at Risk“ zu orientieren und die relative Attraktivität von Geschäften, Kunden, Bereichen und Produkten am RORAC oder R AROC zu messen, ist erst einmal unbedenklich, zumal das CAPM auch die Kursvolatilität der Vergangenheit als Indikator für das Risiko und somit den Renditeanspruch benutzt. Man muss sich nur darüber im Klaren sein, dass es sich faktisch nicht um Risiko-, sondern um Volatilitätsrenditen handelt. Echte Risikorenditen sind nicht ermittelbar, weil die für den Nenner erforderlichen Risiken aus Ungewissheiten in der Zukunft nicht messbar sind. Vergangenheit (Unerw. Verluste) Knight‘sche Risiken
Zukunft (Potenzielle Schäden)
berechenbar, prognostizierbar
Nicht prognostizierbare Extremereignisse
Unsicherheiten
Ergebnisvolatilität als Basis für Renditeanforderungen
Abb. 3.7 Risiken – Ungewissheiten. (Quelle: eigene Darstellung)
Fokus des Risikomanagements
60
3 Defizite der Wertorientierten Banksteuerung
Hinsichtlich der Nebenbedingung der Risikotragfähigkeit muss akzeptiert werden, dass es sie in der beschriebenen ökonomischen Form nicht gibt, weil aufgrund der nicht gegebenen Messbarkeit der wirklichen Risiken auch eine Berechnung der Gesamtbankrisikoposition und ihr Vergleich mit den Nettovermögenswerten nicht möglich ist. Der Fokus des Risikomanagements muss demnach in der Gefahrenanalyse der Zukunft liegen sowie in der Analyse, wie fragil die Bank hinsichtlich der denkbaren Gefahren ist, um bei Bedarf bzw. bei Erreichen definierter Frühwarngrenzen von Risikoindikatoren entsprechende Maßnahmen abzuleiten. Wie dieser eigentliche Fokus des Risikomanagements angemessen gestaltet werden kann, wird in Abschn. 5.2 behandelt.
3.3 Vernachlässigung der strategischen Dimension 3.3.1 Entwicklung und Status Quo der strategischen Steuerung Ursprünglich hatte der aus dem Altgriechischen stammende Begriff der Strategie eine eher militärische Bedeutung: stratos = das Heer; agein = führen (vgl. Baum et al. 2013, S. 1). In der Betriebswirtschaftslehre gewann der Begriff gegen Ende der ersten Hälfte des vergangenen Jahrhunderts im Zusammenhang mit der Entscheidungstheorie als Analyse von Handlungsmöglichkeiten in Anhängigkeit von Umweltzuständen an Bedeutung (vgl. Baum et al. 2013). Bei der Abgrenzung von strategischem und operativem Management wird häufig ein Zitat vom amerikanischen Ökonomen Peter Drucker bemüht: „Es ist besser die richtige Arbeit zu tun (= Effektivität) als eine Arbeit nur richtig zu tun (= Effizienz)“ (vgl. o. V. o. J.). In der idealen Kombination geht es demnach darum, zuerst zu entscheiden, was die richtigen Dinge sind (strategisches Management) um dann den effizientesten Weg zu bestimmen, wie man diese Dinge macht (operatives Management). Für die Zwecke dieses Buches kann die strategische Steuerung daher definiert werden als Analyse, Entscheidung und Überwachung, mit welchen Produkten, Vertriebswegen und Prozessen man bei gegebenen und absehbaren Umfeldbedingungen die Tragfähigkeit des Geschäftsmodells bestmöglich sichern kann. Es schließt demnach auch das Management strategischer Risiken ein. Die explizite strategische Steuerung ist noch eine relativ junge Teildisziplin der Betriebswirtschaftslehre bzw. der Unternehmenssteuerung, auch wenn sie natürlich schon immer implizit erfolgte. Im Bankmanagement hat sie im Branchenvergleich noch später Einzug gehalten, weil es aufgrund der relativ stabilen geschäftlichen Rahmenbedingungen bis weit in die zweite Hälfte des vorigen Jahrhunderts keinen Anlass gab, das Set an Produkten, Vertriebswegen und Prozessen wesentlich zu verändern. Die praktische Interpretation der strategischen Planung erfolgte daher bis zur letzten Dekade des vorigen Jahrhunderts weitgehend als Mehrjahrestrendfortschreibung von Bilanz- und Erfolgszahlen, wobei natürlich die Erträge stärker wuchsen als die Kosten (gemäß eigener Erfahrungen des Verfassers und dem Erfahrungsaustausch mit anderen Controllern). Erreicht werden sollte das vor allem dadurch, dass man Bestandskunden „besser ausschöpfte“ und mit diversen Argumenten zu Lasten der Konkurrenz Neukunden gewann. In der externen Kommunikation, auch gegen-
3.3 Vernachlässigung der strategischen Dimension
61
über der Aufsicht, wurden derartige Rechenübungen in der Regel mit etwa folgenden Worten umschrieben: „Wir wollen weiter risikobewusst in unseren Kernmärkten wachsen und sich ergebende, ausgewählte Opportunitäten für zusätzliches Wachstum nutzen.“ Auch wenn sukzessive erste strategische Methoden, wie SWOT-Analysen oder andere Formen der strategischen Geschäftsfeldanalyse in den Neunzigerjahren Einzug in die Banksteuerung hielten, so haben sich mangels Handlungsdruck erst nach der Finanzmarktkrise spürbare Veränderungen ergeben, weil sich die Umfeldbedingungen erst danach entscheidend und dynamisch verändert haben. Die stark zunehmende Geschwindigkeit bei der Innovation bzw. Weiterentwicklung von Produkten, Methoden und Prozessen in Verbindung mit einem sich ebenso schnell verändernden Verbraucherverhalten und exponentiellem Anstieg des Wissens haben mit der erläuterten Verspätung auch den bis dahin stabilen strategischen Rahmen von Banken gesprengt. Zusätzlicher Druck ist vor allem dadurch entstanden, dass durch die lang anhaltende Niedrigzinsepoche die Replikationsportfolien der (variablen) Sicht- und Spareinlagen immer niedrigere Erträge erwirtschaftet haben, was die bis dahin sehr starken Margen von Sicht- und Spareinlagen inzwischen aufgezehrt hat. Die starken Einbrüche der Zinsüberschüsse in Verbindung steigenden Kosten für die Umsetzung regulatorischer Anforderungen sowie einer zunehmenden Konkurrenz durch so genannte FinTechs, vor allem im Zahlungsverkehr, haben die klassischen realwirtschaftlich orientierten Geschäftsmodelle erheblich unter Druck gesetzt. Das gilt insbesondere dort, wo bisher komfortable Margen aus Sichtund Spareinlagen dafür genutzt wurden, um andere Produkte, wie zum Beispiel eine kostenlose Kontoführung, zu subventionieren. Als Beispiel dafür seien die Sparda-Banken erwähnt, welche die kostenlose Kontoführung bisher als „Gegenleistung des genossenschaftlichen Kollektivs“ für die gering verzinsten Spar- und Sichteinlagen gesehen haben (gemäß Erfahrungsaustausch mit Insidern). Bei den aus genannten Gründen ohnehin von niedrigen Durchschnittsrenditen bei hoher Ergebnisvolatilität gezeichneten großen internationalen Universal- und Investmentbanken hat das niedrige Zinsniveau zu einer zusätzlichen Belastung geführt. So zeigen diverse Analysen, dass insbesondere europäische Banken ihre Eigenkapitalkosten nicht verdienen (vgl. Sinn et al. 2013; vgl. Sinn 2021). Vor diesem Hintergrund ist es nur konsequent, dass die Tragfähigkeit von Geschäftsmodellen bzw. das strategische Risiko zunehmend in den Mittelpunkt bankaufsichtlicher Prüfungen gerückt ist. Begonnen hat der aufsichtliche Druck zur Schärfung des strategischen Instrumentariums mit der 3. und 4. Novelle (insbes. AT 4.2) der Mindestanforderungen an das Risikomanagement (MaRisk), mit denen eine strukturierte strategische Analyse und Mehrjahresplanung in angemessener qualitativer und quantitativer Form mit integrierter Risikostrategie und zugrunde liegenden Planungsprämissen gefordert wurde. Zusätzlicher aufsichtlicher Druck entstand dadurch, dass im Rahmen des „Supervisory Review and Evaluation Prozess“ (SREP) der europäischen Bankenaufsicht eine Geschäftsmodellanalyse als eigenes Prüfungsfeld in den aufsichtlichen Überprüfungsprozess der Baseler Säule 2 implementiert wurde, die auch Auswirkungen auf die Kapitalanforderungen hat. In den Standardwerken der Banksteuerung bzw. Bankbetriebslehre (vgl. zum Beispiel Büschgen 1998; vgl. Schierenbeck 2014; vgl. Hartmann-Wendels et al. 2019 sowie jeweils auch die Vorauflagen dieser Werke) wird die strategische Dimension ebenso wenig abge-
62
3 Defizite der Wertorientierten Banksteuerung
deckt wie mit der Zielfunktion und der Nebenbedingung des „Bankmanagement 1.0“. Auch in der Bankpraxis ist eine systematische strategische Steuerung bisher noch unterrepräsentiert, was vor dem Hintergrund unverständlich ist, dass sich mit den immer schnelleren und komplexeren Entwicklungen der strategischen Rahmenbedingungen und ihrer Bedeutung für das Ziel der Wertsteigerung eigentlich das Gewicht mehr von der Effizienzsteuerung zur Effektivitätsteuerung verschieben müsste. Die zahlreichen Veränderungen von strategischen Rahmenbedingungen bzw. „Megatrends“ (zum Beispiel Regulatorik, Niedrigzinsepoche, Globalisierung, Demografie, Ressourcenknappheit, Digitalisierung, „Nachhaltigkeit“, Wissensmanagement und „New Work“) werden von Banken vielfach noch eher reaktiv aufgenommen. Eine systematische Strategiearbeit im Rahmen einer integrierten Unternehmenssteuerung erfolgt nach bisherigen Beobachtungen in weiten Teilen nicht ausreichend. Gemäß einer Studie von Deloitte aus 2016 über 26 von der EZB direkt beaufsichtigte Banken mit einer kumulierten Bilanzsumme von 7,7 Billionen Euro verfügte bis dahin lediglich ein Drittel der Banken über einen eigenen, teilweise eingeschränkten, an die SREP-Systematik angelehnten Prozess zur Geschäftsmodellanalyse (vgl. Palii et al. 2017). Nach einem Bericht der Zeitschrift „FinanzBusiness“ vom 26.01.2022 wird erwartet, dass ca. 60 % der europäischen Großbanken bei der SREP- Geschäftsmodellanalyse von 2021 auf einer Skala von 1 (sicheres Geschäftsmodell) bis 4 (unsicheres Geschäftsmodell) mit den Noten 3 und 4 bewertet werden (vgl. Rohrig 2022).
3.3.2 Anforderungen an die strategische Steuerung Die strategische Arbeit zur mittelfristigen Sicherung bzw. Steigerung des nachhaltigen Shareholder Value besteht demnach aus einer Geschäftsmodellanalyse und einer darauf aufbauenden proaktiven Geschäftsmodellentwicklung. Aufgrund der permanenten Änderung der strategischen Rahmenbedingungen kann die Geschäftsmodellentwicklung nicht mehr in Form eines Mehrjahresplans geschehen, der mit einem Zeithorizont von zum Beispiel fünf Jahren umzusetzen ist, sondern ist eine permanente Aufgabe in Form eines zeitlich unbeschränkten agilen Projekts. Die Definition und Notwendigkeit von Agilität lassen sich in diesem Zusammenhang folgendermaßen erklären: Strategische Projekte lassen sich nicht mehr klassisch in den Schritten Planung und Umsetzung realisieren, wenn damit gerechnet werden muss, dass sich bereits während der Umsetzung des Projektes Ziel und Weg zum Ziel wieder entscheidend verändern. Dazu ein branchenfremdes Beispiel: Wenn zum Zeitpunkt t0 der Bedarf für ein völlig neues militärisches Transportflugzeug mit ganz bestimmten Eigenschaften besteht, dann wird es üblicherweise im Rahmen einer im öffentlichen Sektor vorgeschriebenen Ausschreibung bis zur letzten Schraube geplant und dann zu einem nachvollziehbaren Preis angeboten. Aufgrund der sich dynamisch verändernden Umfeldbedingungen kann es jedoch passieren, dass sich während der mehrjährigen Entwicklungs- und Erprobungszeit sowohl die Anforderungen, wie auch Fertigungstechniken und -möglichkeiten wesentlich verändern. Wird der ursprüngliche, dem Angebot zugrunde liegende Plan konsequent verfolgt, ent-
3.4 Vernachlässigung der kulturellen Dimension
63
steht ein Flugzeug, welches nicht den aktuellen Anforderungen gerecht wird und auf veralteter Technik beruht. Die klassische Vorgehensweise aus Planung, Umsetzung und Erfolgskontrolle funktioniert demnach nicht mehr. Ein agiles Vorgehen würde nun die Planung und Entwicklung in eine Reihe von sachgerechten Teilschritten zerlegen und nach jedem abgeschlossenen Teilschritt („Sprint“) überprüfen, ob eventuelle Änderungen der Umfeldbedingungen Konsequenzen für die folgenden Teilschritte haben und das weitere Vorgehen entsprechend anpassen. Auf diese Weise wird bei zwangsläufigen aber ungewissen Änderungen der Rahmenbedingungen ein Höchstmaß an Flexibilität bewahrt und das (strategische) Risiko einer Fehlentwicklung minimiert. Agilität versucht also nicht, den dramatischen Anstieg von Dynamik und Komplexität zu beherrschen, was aufgrund der Ungewissheit schlicht nicht möglich ist, sondern bestmöglich damit umzugehen. Übertragen auf die Strategiearbeit einer Bank, bestehend aus den Teilschritten Geschäftsmodellanalyse und Geschäftsmodellentwicklung bedeutet das, dass sie auf der Ebene der strategischen Geschäftsfelder (Privatkunden, Firmenkunden, Treasury etc.) zum Beispiel im jährlichen Rhythmus in synchronisierter Form erfolgen. Im Rahmen der Geschäftsmodellanalyse sind qualitative und quantitative sowie interne und externe Erfolgs- bzw. Einflussfaktoren zu erheben und möglichst in ihrer Entwicklung zu antizipieren. Auf dieser Basis erfolgt unter Beachtung von Nebenbedingungen (Risikotragfähigkeit und Ressourcenverfügbarkeit) eine auf die Sicherung des nachhaltigen Erfolgs ausgerichtete Geschäftsmodellentwicklung, bei der nach Möglichkeit Perspektiven bzw. Anforderungen der verschiedenen Stakeholder zu integrieren sind. Daraus resultierende Projekte zur Realisierung werden ebenfalls als agile Projekte aufgesetzt. Wie eine solche Vorgehensweise praktisch funktionieren kann, wird anhand von in der Praxis erprobten Vorgehensweisen in Abschn. 5.3 erläutert. Idealerweise wird auf der Ebene der strategischen Geschäftsfelder der Erfolg der strategischen Arbeit erhoben und zum Gegenstand der Anreiz- und Sanktionssystematik gemacht. Auf diese Weise kann verhindert werden, dass ein überproportionales Engagement für die Erreichung operativer Ziele zu Lasten der Geschäftsmodellentwicklung und damit der Sicherung der Zukunftsfähigkeit geht. Auch dieser Punkt wird in Kap. 5 aufgenommen.
3.4 Vernachlässigung der kulturellen Dimension Für den Begriff der Unternehmenskultur finden sich zahlreiche im Detail unterschiedliche, aber sinngemäß übereinstimmende Definitionen. Nachfolgende Definition ist dem „BWL-Lexikon.de“ entnommen: „Die Kultur eines Unternehmens beschreibt die gemeinsam gelebten und akzeptierten Werte innerhalb des Unternehmens, an dem sich das Handeln aller Beteiligten orientiert.“ In Theorie und Praxis werden verschiedene nicht überscheidungsfreie Teilkulturen unterschieden, wie beispielsweise Führungskultur, Vertriebskultur, Risikokultur oder Innovationskultur. In hierarchisch strukturierten Unternehmen wird die Unternehmenskultur und damit auch Ihre Teilkulturen zwangsläufig von der Spitze der Hierarchie aus nach unten geprägt, weil letztlich Beurteilungen und Entscheidungen bei unterschiedlichen An-
64
3 Defizite der Wertorientierten Banksteuerung
sichten über die Hierarchie entschieden werden und sich aus diesem Prozess sowohl geschriebene als auch ungeschriebene Regeln sowie bewusste und unbewusste Vorbilder für das Verhalten Einzelner ergeben. Wenn Einzelne mit diesen Werten nicht leben können und bei eventuellen Versuchen der Überzeugung von Entscheidungsträgern scheitern, werden sie früher oder später zwangsläufig das Unternehmen verlassen. Die Ausprägung der Kultur mit ihren Unterarten ist in hohem Maße für Zielfunktion und Nebenbedingung der Wertorientierten Unternehmenssteuerung von Bedeutung, was nachfolgend an den Beispielen der Führungs- und der Risikokultur erläutert werden soll.
3.4.1 Führungskultur Die Führungskultur war noch bis zum Ende des vergangenen Jahrhunderts stark davon geprägt, dass der geführte Mitarbeiter Mittel zum Zweck der Erreichung der Unternehmensziele ist. Auch wenn sich die ethische Dimension der Führung inzwischen dahingehend entwickelt hat, dass sich Führende dem Anspruch stellen, Handeln gegenüber Geführten rechtfertigen zu können und den Geführten sukzessive selbst auch als Zweck zu akzeptieren, ist die prozessuale Ausgestaltung noch sehr stark vom „Command an Control“ geprägt. In dieser Kultur informiert und delegiert die Führungskraft an die unterstellten Mitarbeiter/innen. Auch behält sie sich alle wesentlichen Entscheidungen vor. Umgekehrt berichten die unterstellten Mitarbeiter/innen an die Führungskraft. Im Rahmen einer solchen, noch weitgehend üblichen Kultur laufen demnach auch die Berichts- und Abstimmungswege über die diversen Hierarchieebenen in vertikaler Richtung. Eine ordnungsgemäße bereichsübergreifende Abstimmung zwischen Experten läuft demnach in einem Bereich (A) über alle Ebenen nach oben, dann im benachbarten Bereich (B) über die Ebenen wieder herunter und anschließend auf gleichem Weg wieder zurück. Ein solcher Weg ist natürlich wesentlich aufwendiger als der direkte Weg zwischen den beiden Experten (vgl. Abb. 3.8). Vorstand
BL A
AL
BL C
BL A
AL
AL
GL
AL Hierarchischer Weg
GL
Direkter Weg
Experte
Abb. 3.8 Berichtswege. (Quelle: eigene Darstellung)
Experte
3.4 Vernachlässigung der kulturellen Dimension
65
Eine eventuelle direkte Abstimmung zwischen den beiden Experten hat so lange keinen Bestand, bis sie in beiden Bereichen über alle Hierarchieebenen abgestimmt wurde. Dass eine solche klassische Berichtswegestruktur in der Vergangenheit funktioniert hat und heute zu nachteiligen Zeit- und Ressourcenverlusten führt, ist im Wesentlichen auf zwei Entwicklungen zurückzuführen: Mit der Wissensgesellschaft hat sich die Wissenspyramide im Unternehmen von der Spitze auf die breite Seite gestellt. Während früher das Wissen über die Hierarchieebenen von oben nach unten abgenommen hat, nimmt heute das Spezialwissen über die Hierarchieebenen von oben nach unten tendenziell zu. Von daher ist eine direkte Abstimmung unter Experten zwangsläufig vorteilhafter, weil über die lange (rote) Informationskette ansonsten Inhalte zwangsläufig verloren gehen. Zudem hat sich, wie bereits erläutert, das Tempo der Veränderungen von Rahmenbedingungen in einer Weise erhöht, die bei einer Abstimmung über den längeren roten Weg unter Umständen eine neue Abstimmung aufgrund zwischenzeitlich veränderter Rahmenbedingungen erforderlich macht. Die Steigerung des Komplexitätsgrades von Entscheidungen und das zunehmende Tempo von Innovationen und Veränderungen machen demnach andere (agile) Führungsprozesse erforderlich. Ein wesentlicher Aspekt der agilen Führung besteht in der Konsequenz darin, die Entscheidungskompetenzen dahin zu delegieren, wo auch die Fachkompetenz liegt. Damit ändert sich auch das Rollenbild einer Führungskraft, deren Aufgaben mehr in der Vernetzung von Mitarbeiter/innen und der Beschaffung von erforderlichen Ressourcen und damit im „Ermöglichen“ liegen als im „Command and Control“. Personenbezogen liegen die neuen Schwerpunkte der Führung in der Förderung und im Interessensausgleich. Damit wird das Führungsbild insofern umgekehrt, als nicht die Geführten der Führungskraft dienen, sondern die Führungskraft den Geführten (als Ermöglicher und Sinnstifter). Ein anonymisiertes aber reales Beispiel soll den Unterschied verdeutlichen: Ein noch patriarchalisch führender Vorstandsvorsitzender eines mittelständischen Regionalinstituts bittet um einen Vorschlag für ein Training/Seminar zum Thema Agilität, damit die Mitarbeiter mal ihr „verstaubtes Firmensymbol vor der Stirn entstauben und mehr eigene Vorschläge einbringen“. Nachdem ihm erläutert wurde, dass man unter Agilität auch die Verlagerung von Entscheidungskompetenz dorthin verstehen würde, wo auch die entsprechenden Fachkompetenzen liegen und er sie damit zumindest in Teilen delegieren müsse, wollte er es nicht mehr. Dass die Mitarbeiter, die durchaus voller Ideen steckten, diese nicht zuvor bereits aktiv einbrachten lag daran, dass sie es als effizienter empfanden auf die Anordnung zu warten als einen Vorschlag einzubringen, der am Ende vom Chef wieder mit Änderungswünschen zurückkam. Dies entspricht dem veralteten Führungsverständnis, dass es die Führungskraft besser wissen muss und allein deshalb schon zur eigenen Legitimation Änderungswünsche äußern muss. Die Mitarbeiter haben danach gelernt, dass es effizienter ist, wenn man auf konkrete Anforderungen des Chefs wartet. Durch den gegebenen Rahmen wurde demnach bestehendes Innovationspotenzial unterdrückt. Abgesehen von der Unterdrückung kreativen Potenzials haben weitere praktische Beispiele gezeigt, dass Standardprozesse, wie zum Beispiel Regelreportings an den Vorstand, in Stabsbereichen aufgrund von Abstimmungen über mehrere Hierarchieebenen in mehreren Zyklen erhebliche Zeiten beansprucht haben ohne Mehrwert zu stiften, weshalb andere Vorhaben (wegen fehlender Zeit) verzögert bzw. vernachlässigt wurden (nach einem vertraulichen Insiderbericht).
66
3 Defizite der Wertorientierten Banksteuerung
Die Führungsleistung als „Begünstigung humaner Leistung“ (vgl. Jäger 2001) ist demnach ein wesentlicher Erfolgsfaktor, der durch entsprechende Systeme der Beurteilung von Führungsleistungen vor allem auch durch die Geführten, in die Anreiz- und Sanktionssystematik einbezogen werden sollte (vgl. Leusmann 2013. S. 87 ff.).
3.4.2 Risikokultur Die Risikokultur könnte sinngemäß folgendermaßen definiert werden: Die Risikokultur besteht aus allen geschriebenen und ungeschriebenen Regeln (Werten) sowie allen bewussten und unbewussten Vorbildern die das Verhalten von Mitarbeiter/innen in einem Unternehmen bezüglich der Risiken beeinflussen. Aufgrund seiner besonderen Bedeutung für das Risikomanagement wurde ihre „Entwicklung, Förderung und Integration innerhalb eines Instituts …“ zum Teil der Gesamtverantwortung der Geschäftsleitung für ein angemessenes Risikomanagement erklärt (vgl. AT 3 MaRisk). Diese Formulierung macht deutlich, dass es nicht um die Definition neuer Soll-Zustände in Form von Ethik- und Verhaltenskodizes, sondern um die Weiterentwicklung des Ist-Zustandes geht. In diesem Zusammenhang hat das Financial Stability Board (FSB) in einer ausdrücklich nicht abschließenden Aufzählung vier Indikatoren für die Risikokultur genannt: Leitungskultur, Verantwortlichkeit, Kommunikation und Anreizsystematik. Eine Anreizsystematik in Form der beschriebenen asymmetrischen Bonusregelungen hat nachweislich dazu verleitet, überproportionale Risiken einzugehen, weil die persönliche Haftung ausschließlich auf den Bonus begrenzt ist, während zum Beispiel bei einer Gewinnbeteiligung die persönlichen Chancen nahezu unbegrenzt sind (Beispiel Christian Bittar). Auch das genannte Beispiel einer unterbliebenen Sanktionierung unethischen Handelns aufgrund der „positiven Leistung“ begünstigt unethisches Handeln mit den entsprechenden Konsequenzen für das Reputationsrisiko und das „Conduct Risk“. Dieses Beispiel betrifft neben der Anreizsystematik („Der Zweck heiligt die Mittel“) im Grunde auch die anderen drei Indikatoren der Risikokultur Leitungskultur, Kommunikation und Verantwortlichkeit. Die Liste der kulturellen Verfehlungen als Ursache auch von faktischen Bankpleiten ließe sich beliebig durch alle Skandale der letzten beiden Dekaden verlängern. Die formal betroffene Risikoart ist weitgehend das so genannte „Conduct Risk“ als Unterart des Operational Risk (vgl. Abb. 2.17). Abgesehen vom konkreten Conduct Risk geht es bei der Verbesserung der Risikokultur jedoch auch um die grundsätzliche Steigerung der Risikosensibilität, um auch bisher noch weitgehend unbekannte Risiken und ihre Treiber rechtzeitig zu erkennen, zu analysieren und zu begrenzen. Wie eine Risikokultur im Sinne der AT 3 praktisch entwickelt, gefördert und integriert werden kann, wird anhand eines schlichten aber effektiven Verfahrens in Abschn. 5.4 beschrieben.
3.5 Entfremdung von Theorie und Wirklichkeit Für das grundsätzliche Bestreben bzw. die Notwendigkeit für Entscheidungen die Zukunft bestmöglich zu antizipieren, unterscheidet Emanuel Derman grundsätzlich drei unterschiedliche Methoden: Theorien, Modelle und die Intuition (vgl. Derman 2013, S. 12–14).
3.5 Entfremdung von Theorie und Wirklichkeit
67
Theorien sind allgemein der Versuch, die Prinzipien der Wirklichkeit zu erkennen und zu beschreiben. Sie brauchen keine Rechtfertigung, sondern Bestätigung. Sie „sterben“ oder müssen korrigiert werden, wenn mit ihrer Hilfe getätigte Voraussagen nicht eintreffen. Modelle hingegen sind Metaphern oder Analogien. Sie vergleichen Teilaspekte der Wirklichkeit mit etwas anderem und sind zwangsläufig erhebliche Vereinfachungen. Bei ihnen gilt es stets kritisch zu überprüfen, ob ihre Vereinfachungen für den angestrebten Zweck tragbar sind oder nicht. Im Falle der Falsifikation sind sie für den entsprechenden Zweck zu verwerfen oder zu korrigieren. Die Intuition entsteht aus einer Verknüpfung von erklärendem Subjekt und zu verstehendem Objekt. Man könnte sie als Resultat persönlich bewerteter Erfahrungen der Vergangenheit charakterisieren. Gerd Giegerenzer bezeichnet die Intuition auch als Ergebnis der unbewussten Intelligenz (vgl. Giegerenzer 2008, insbesondere S. 49–63). Allgemein könnte man die Wirtschaft als ein von Menschen betriebenes System mit dem Ziel bezeichnen, den Wohlstand der Menschen zu mehren. Dabei ist der Mensch ein von Werten, Trieben und Gefühlen gesteuertes Wesen, dessen zukünftiges Handeln im Zusammenwirken mit anderen Menschen absolut ungewiss und aufgrund der daraus resultierenden unendlichen Komplexität nicht zu prognostizieren ist. Als wissenschaftliche Disziplinen beschäftigen sich mit der „Funktionsweise“ des Menschen vor allem die Psychologie und die Universalwissenschaften (Philosophie und Theologie) sowie weitere Sozialwissenschaften. Für Adam Smith als Moralphilosoph und Begründer der klassischen Nationalökonomie waren diese Zusammenhänge klar, und er versuchte durch B eobachtungen der Wirklichkeit Prinzipien zu verstehen und (in Theorien) zu erklären, wie eine Wirtschaft funktioniert, die von Menschen mit Werten, Trieben und Gefühlen geprägt wird. Er erkannte insbesondere durch Beobachtung das gewaltige Potenzial der Arbeitsteilung sowie den Eigennutz als entscheidende Antriebskraft. Gleichzeitig war er sich jedoch der ethischen Dimension für das nachhaltige Funktionieren der Wirtschaft bewusst. Insofern ist die „Theorie der ethischen Gefühle“ (vgl. Smith 2010) die zwangsläufige Ergänzung des „Wohlstands der Nationen“ (vgl. Smith 2013). Ebenso zwangsläufig war für ihn, dass das menschliche Handeln insbesondere in der Zukunft aufgrund der unendlichen Komplexität im Zusammenwirken von Menschen nicht durch mathematisch-statistische Modelle erfasst werden konnte. Anders verhält es sich mit den modernen Wirtschaftswissenschaften. Sie versuchen die komplexe Wirklichkeit menschlichen Handelns durch Modelle bzw. Abstraktionen von der Wirklichkeit zu ersetzen, die es dann erlauben, menschliches Verhalten in der Zukunft mathematisch-statistisch zu erklären. Die wohl bekannteste Abstraktion ist der „Homo Oeconomicus“, der stets rational zum eigenen Vorteil handelt. Ohne Homo Oeconomicus gibt es keine Preis-Absatz-Funktion, keine Markteffizienzhypothese etc. Dabei zeigt die Wirklichkeit, beobachtet und erklärt von der Psychologie und Ethik, dass es den „Homo Oeconomicus“ nicht gibt. Praktisch ergibt sich das bereits schon aus den Millionen von Lottospielern oder aus der emotionsorientierten Werbung. Auch ist es, abgesehen von der finanziellen Dimension, schwierig den individuellen Nutzen für den Homo Oeconomicus zu erfassen und zu bewerten. Warum die Wirtschaftswissenschaften für Dinge, die sie innerhalb ihrer eigenen Disziplin nicht erklären können wirklichkeitsfremde Modelle als Alternative zu einer interdisziplinä-
68
3 Defizite der Wertorientierten Banksteuerung
ren Arbeit verwenden, ist bisher weitgehend ungeklärt. Möglicherweise liegt es auch daran, dass ohne Modelle und die auf ihnen basierenden mathematisch-statistischen Erklärungsversuche gefühlt zu wenig als eigenständiger wissenschaftlicher Kern verbleibt. Emanuel Derman stellt dazu fest: „Die Finanzwissenschaft kann kein Zweig der Mathematik sein und daher auch keinen Fundamentalansatz haben. Nur wer den Unterschied zwischen dem Bedingten, Situationsabhängigen (von Menschen Beeinflussten, d. V.) und dem Tatsächlichen und alle Zeit Gültigen (zum Beispiel Naturgesetzen, d. V.) nicht versteht kann sich Lehrsätze der Finanzwissenschaft ausdenken.“ (vgl. Derman 2013, S. 173). Der Mathematiker und Spieletheoretiker Volker Bieta merkt dazu an: „Dass die Empirie als Härte der Realität diese Kunstwelt fast täglich falsifiziert und die Effizienzhypothese für Robert Shiller der bemerkenswerteste Fehler der Ökonomie ist, stört in der Finanzbranche ganz offensichtlich niemanden wirklich ernsthaft.“ (vgl. Bieta 2016, S. 22). Die Modelle der Value at Risk Messung und die darauf aufbauende Berechnung der Risikotragfähigkeit wurden bereits hinreichend falsifiziert, teilweise sogar von Professoren der Wirtschaftswissenschaften (vgl. Hölscher und Kremers 2009). Auch wurde nachgewiesen, dass sie aufgrund der Unterzeichnung des Risikos bzw. der Überzeichnung des Sicherheitsniveaus das Eingehen überproportionaler Risiken zur Optimierung der Eigenkapitalrendite sogar noch fördern und damit Bankpleiten begünstigen (s. zum Beispiel IKB, SachsenLB, HRE, ….). Zu der Frage, warum es zur Entwicklung und vor allem Verbreitung solcher Modelle über einen so langen Zeitraum bei offensichtlichem Konflikt mit der Wirklichkeit kommen konnte, bieten Hölscher/Kremers eine bemerkenswerte Analyse, die hier ungekürzt übernommen werden soll: „Ein wichtiger Grund hierfür liegt zweifelllos gerade in der Komplexität der Modelle. Je komplizierter die Berechnungsweise, desto schwieriger ist es, das Zustandekommen der Zahlen nachzuvollziehen. Wenn das Ergebnis dann noch eine verständliche und vermeintlich leicht interpretierbare Kennzahl ist, dann führt das zur Zahlengläubigkeit. Hiervon betroffen sind sowohl die Entwickler bzw. Betreiber der Modelle in den Fachabteilungen als auch die Führungskräfte, die Entscheidungen auf der Grundlage der Risikobewertung treffen sollen. Erstere wissen um die Komplexität des Modells, die im Bestreben, möglichst viele relevante Zusammenhänge abbilden zu wollen, entsteht und glauben an eine hohe Aussagekraft der Modellergebnisse. Hinzu kommt, dass die Modelle i. d. R. von Mathematikern und Physikern entwickelt werden, die während ihrer Ausbildung gelernt haben, dass sich Naturgesetze durch eine Gleichung exakt beschreiben lassen. Dabei wird aber häufig der Umstand unterschätzt, dass dieser Grundsatz für eine Beurteilung des Verhaltens von Menschen und Märkten nicht gilt. Betriebswirtschaftliches Praxiswissen wird meist nur unzureichend bei der Risikomessung genutzt. Auf der anderen Seite kennt das Management nicht einmal die grundlegende Funktionsweise der Modelle. Sie wissen nur, dass die Modelle kompliziert sind und viele Zusammenhänge berücksichtigen. Dies gaukelt Genauigkeit und Vollständigkeit vor, die in Wirklichkeit nicht vorhanden sind. Deswegen neigt das Management dazu, auf die Scheingenauigkeit der Zahlen zu vertrauen, und es erkennt aufgrund dessen nicht, dass eine statistisch fundierte Risikobewertung verschiedene Schwächen aufweist.“ (vgl. Hölscher und Kremers 2009, S. 2).
3.5 Entfremdung von Theorie und Wirklichkeit
69
Diese Analyse beschreibt in treffender Weise die fehlende Verständnisbrücke zwischen den naturwissenschaftlich getriebenen Fach- bzw. praxisfernen Experten und dem Bankmanagement, welches für die in Teilen grausamen Konsequenzen aus der Anwendung der Modelle verantwortlich ist. Dem Management in diesem Zusammenhang den Vorwurf zu machen, dass es der „Scheingenauigkeit“ der „fundierten Risikobewertung“ vertraut ohne die „systembedingten Schwächen“ zu erkennen, ist jedoch aus zwei Gründen nicht gerechtfertigt: Zum einen geht es nicht um eine Ungenauigkeit, die man durch Justierung beheben könnte, sondern um eine schlichte methodische Untauglichkeit. Zum anderen ist die Genauigkeit im Sinne des Konfidenzniveaus expliziter Bestandteil des (untauglichen) Modells und insoweit nicht das Ergebnis einer falschen Interpretation. Viel entscheidender für die ungebrochen fortgesetzte Irrlehre ist gemäß dem Autor und Risikospezialisten Nassim Taleb das Auseinanderfallen universitärer Lehre der Modelle und der Verantwortung für die Folgen der Anwendung (vgl. Taleb 2018). Müssten die lehrenden Professoren haften, wie jeder Handwerker für seine Arbeit haftet oder ein Pilot für seine Fähigkeit ein Flugzeug sicher fliegen zu können, wäre der Spuk schnell vorbei und der Wettbewerb um die beste Lösung eröffnet. Zudem schützen die Professoren sorgfältig das System, welches sie weitgehend risikofrei ernährt und (in Form von Titeln) ehrt. Aus diesem Grunde könne man, so Taleb, von einem Professor (der Ökonomie) nur lernen, wie man Professor wird (vgl. Taleb 2018, S. 66). Spricht man mit Entscheidungsträgern der Praxis über die Falsifikation der Risikomodelle, so vernimmt man teilweise Ungläubigkeit und teilweise den Verweis auf die aufsichtsrechtlichen Vorgaben zur ökonomischen Risikotragfähigkeit im neuen Risikotragfähigkeitsleitfaden. Spricht man mit hochrangigen Vertretern einzelner Aufsichtsbehörden, so wird die Problematik der Modelle zwar zugestanden, aber man sei als einzelnes Mitglied im großen „Baseler Konzert“ allein nicht in der Lage einen entsprechenden Paradigmenwechsel einzuleiten (das ergaben vertrauliche Gespräche). Umso unverständlicher ist der ungestörte Fortbestand dieser Modelle in der universitären Lehre, in der Bankenregulierung und sogar in der „Forschung“. Beispielhaft für die „Forschung“ sei hier eine Promotionsschrift aus 2019, deutlich nach der Falsifikation der Risikomodelle (vgl. zum Beispiel Hölscher und Kremers 2009) angeführt, die in wissenschaftlich einwandfreier Methodik entscheidungstheoretisch herleitet, wie Entscheidungsträger in Genossenschaftsbanken ihre Entscheidungen zur Risikotoleranz (Verhältnis von Gesamtbankrisikolimit zur Risikodeckungsmasse), zur Haltedauer und zum Konfidenzniveau herleiten (vgl. Polle, 2019). Sie setzt damit die nicht gegebene Tauglichkeit der zugrunde liegenden Risikomodelle voraus. Man könnte eine solche Vorgehensweise bildlich vergleichen mit der methodisch sauberen Herleitung eines Verfahrens, wie man tote Pferde besser reiten kann. In diesem Bild stehen die Risikomodelle für das Pferd und das Adjektiv „tot“ für ihre Falsifikation. Der zeitgenössische deutsche Philosoph Markus Gabriel schreibt zur Problematik von Modellen, welche von Menschen beeinflusste Ereignisse prognostizieren: „Der Prognostizismus ist eine Ideologie, die glaubt, die Zukunft ergebe sich automatisch, wenn man nur die gesellschaftlichen Faktoren quantitativ erfasst und als Daten in Modelle einspeist, die in den Natur- und Sozialwissenschaften entwickelt wurden. Doch das ist ein Irrtum, weil
70
3 Defizite der Wertorientierten Banksteuerung
die Zukunft wesentlich davon abhängt, wie wir sie als zu moralischer Einsicht fähige Individuen, als freie geistige Lebewesen, gestalten.“ (vgl. Gabriel 2020, S. 289) Insofern wäre der Betriebswirtschaft hinsichtlich ihrer diversen Abstraktionen vom Homo oeconomicus bis zu den Risikomodellen der Mut zu einer philosophischen Reflektion zu wünschen.
3.6 Zusammenfassung des Status Quo Die Zielfunktion der Wertorientierten Banksteuerung kann vor dem Hintergrund der bisherigen Betrachtungen aus Sicht der Eigenkapitalgeber von Banken im Grundsatz als sachgerecht angesehen werden. Voraussetzung ist natürlich, dass verwendete Modelle, wie die im Rahmen der Marktzinsmethode verwendeten Replikationsmodelle für variable Kredit- und Einlagenprodukte oder diverse Rating-, LGD- bzw. CCF-Modelle etc. gepflegt und laufend hinsichtlich Angemessenheit ihrer Prämissen überprüft werden. Auch die Verwendung der „Risikorenditen“, die aufgrund ihrer Vergangenheitsorientierung eigentlich Volatilitätsrenditen sind, zur Beurteilung der relativen Attraktivität von Geschäften, Kunden, Produkten, Vertriebswegen etc., ist kein Problem, da auch das Capital Asset Pricing Model die Renditeanforderung im Prinzip von den Wert- bzw. Ergebnisvolatilitäten der Vergangenheit abhängig macht. Die beschriebenen Fehlsteuerungseffekte aus der Anwendung dieser Zielfunktion resultieren nicht aus ihrer Fehlerhaftigkeit, sondern vielmehr aus ihrer isolierten Anwendung bzw. der Negierung anderer gerade auch für ein nachhaltiges Ergebnis entscheidender Steuerungsdimensionen sowie des eigentlichen Unternehmenszwecks in der Form der angemessenen Versorgung der Realwirtschaft mit den benötigten Bankprodukten. Um diese Nachhaltigkeit zu gewährleisten ist, so die These, insbesondere darauf zu achten, dass in der Summe über alle Stakeholder ein positiver Wertbeitrag generiert und der Interessenausgleich zwischen den Stakeholdern gewahrt wird. Wie diese Dimension in die Steuerungssystematik integriert werden kann, gilt es im fünften Kapitel zu zeigen. Zudem sind weitere entscheidende Erfolgsfaktoren, wie die agile Geschäftsmodellentwicklung und die kulturelle Dimension in ein umfassendes Bankmanagement zu integrieren, die von der schlichten Zielfunktion der Wertorientierten Steuerung nicht erfasst werden. Ein grundsätzliches Problem besteht in dem Modell der ökonomischen Risikotragfähigkeit als zwingende Nebenbedingung, weil es auf Modellprämissen beruht, die laufend von der Realität falsifiziert werden. In der Konsequenz führen diese Modelle zu einer erheblichen Unterzeichnung der Risiken bzw. zu einer Überzeichnung des Sicherheitsniveaus. Das Wiederum hat nachweislich dazu geführt, dass zur Optimierung der Eigenkapitalrendite bei gegebenem Eigenkapital unangemessene Risiken eingegangen wurden. Es wurde gezeigt, dass eine auf Vergangenheitsdaten basierende Risikotragfähigkeitsbeurteilung zwangsläufig eine Illusion ist, weil die Zukunft keine Wiederholung der Vergangenheit ist. Auch für die Zukunft kann aufgrund ihrer Ungewissheit keine Risikotragfähigkeit in dem Sinne sichergestellt werden. Kern des Risikomanagements muss es daher sein, die
Literatur
71
Risiken bzw. die Gefahren der Zukunft zu erfassen, hinsichtlich ihrer potenziellen Auswirkungen auf die Bank zu analysieren (Fragilitätsanalyse) und die Fragilität (inkl. einer angemessenen Eigenkapitalposition) unter Verwendung entsprechender Frühwarnsystematiken bestmöglich zu steuern. Inwieweit von einem solchen Paradigmenwechsel für das Risikomanagement auch die Bankenaufsicht und -regulierung betroffen ist, wird im kommenden Abschnitt aufgegriffen.
Literatur Bain & Company (2012): Was Bankkunden wirklich wollen, Internetseite Bain & Company Deutschland, unter: https://www.bain.com/contentassets/7c048142ea024d9fb7c7cbb3bd5aa865/ studie_banking_es.pdf, abgerufen am 15.05.2023. Baum, H.-G. et al. (2013): Strategisches Controlling, 5. Auflage Stuttgart 2013. Bieta, V. (2016): Rechnen ohne Risiko, Zeitschrift Risikomanager vom Februar 2016. Boeckelmann, L. und Mildner, S.-A. (2011): Unsicherheit, Ungewissheit, Risiko, Stiftung Wissenschaft und Politik, SWP-Zeitschriftenschau 2 vom 01.09.2011. Büschgen, H. E. (1998): Bankbetriebslehre, 5. Auflage, Wiesbaden 1998. Derman, E. (2013): Models Behaving Badly, Hamburg 2013. Freiberger, H. (2013): 80 Millionen Euro Bonus für Skandal Banker, in: SZ Online vom 13.02.2013, unter: https://www.sueddeutsche.de/wirtschaft/libot-affaere-80-millionen-euro-bonus-fuer-skandal-banker-1.1599680, abgerufen am 15.05.2023. Gabriel, M. (2020): Moralischer Fortschritt in dunklen Zeiten, Berlin 2020. Giegerenzer, G. (2008): Bauchentscheidungen – Die Intelligenz des Unbewussten und die Macht der Intuition, 12. Auflage, München 2008. Hartmann-Wendels, T. et al. (2019): Bankbetriebslehre, 7. Auflage, Wiesbaden 2019. Hölscher, R. und Kremers, M. (2009): Risikosteuerung in Krisenzeiten – Warum die Risikomessung in Banken nicht funktioniert hat, Studien zum Finanz-, Bank- und Versicherungsmanagement der TU Kaiserslautern, Band 15, 2009. Jäger, U. (2001): Führungsethik – Mitarbeiterführung als Begünstigung humaner Leistung, Bern 2001. Jung, M. (2021): Amerikas Banken zahlen am meisten, in: FAZ Online vom 19.08.2021, unter: https:// www.faz.net/aktuell/finanzen/strafzahlungen-amerikas-banken-zahlen-am-meisten-17492462. html, abgerufen am 15.05.2023. Kahneman, D. (2012): Schnelles Denken, langsames Denken, 7. Auflage, München 2012. Leusmann, K. (2013): Kulturwandel bei den Banken, Wiesbaden 2013. o. V. (2005): Gewinnsprung und Stellenabbau, in: Manager Magazin Online vom 03.02.2005, unter: https://www.manager-magazin.de/finanzen/artikel/a-339915.html, abgerufen am 15.05.2023. o. V. (2022): Lagarde: Dürfen bei Inflation nicht nur auf unsere Modelle schauen, in: FAZ Online, 25.08.2022, unter: https://www.faz.net/aktuell/finanzen/inflation-christine-lagarde-nachdenklich-bezueglich-prognosen-18267725.html, abgerufen am 15.05.2023. o. V. (o.J.): Zitate berühmter Personen, unter: https://beruhmte-zitate.de/autoren/peter-drucker/?page=2, abgerufen am 15.05.2023. Palii, V. et al. (2017): Die Geschäftsmodellanalyse im Rahmen des Supervisory Review and Evaluation Process (SREP), Deloitte White Paper No. 78 vom 22.03.2017, Seite 11, unter: https://www2.deloitte.de/content/dam/deloitte/at/documents/financial-services/fsi-white-paper-no-78.pdf, abgerufen am 15.05.2023.
72
3 Defizite der Wertorientierten Banksteuerung
Polle, M. (2019): Risiko- und Präferenzmessungen in Kreditinstituten: Entwicklung einer entscheidungstheoretisch fundierten Risikotragfähigkeitskonzeption am Beispiel ausgewählter Risikokategorien von Genossenschaftsbanken, Frankfurt 2019. Rohrig, D. (2022): EZB erteilt Geschäftsmodellen der Banken schlechtere Noten, FinanzBusiness Online vom 26.01.2022, unter https://finanzbusiness.de/nachrichten/banken/article13675647. ece?utm_campaign=boerse-online.de&utm_source=traffic_deals&utm_medium=rss, abgerufen am 15.05.2023. Schierenbeck et al. (2014): Ertragsorientiertes Bankmanagement, 9. Auflage, Wiesbaden 2014. Schreiber, M. (2021): Investmentbanker erwarten super Bonus-Jahr, in: SZ online, unter: https://www.sueddeutsche.de/wirtschaft/banken-deutsche-bank-boni-1.5492410, abgerufen am 15.05.2023. Sinn, H.-W. (2009): Kasino-Kapitalismus: Wie es zur Finanzkrise kam, und was jetzt zu tun ist, Berlin 2009. Sinn, W. (2021): Deutschlands Banken 2021: Wie die Renditewende gelingt, Bain & Company, 2021,unter: https://www.bain.com/globalassets/german-blocks/pdfs/bankenstudie/bain-studie-deutschlands-banken2021.pdf, abgerufen am 15.05.2023. Sinn W. et al. (2013): European Banking: Striking the right balance between risk and return, Bain & Company 2013, unter: https://media.bain.com/images/Bain_Report_European_Banking.pdf, abgerufen am 15.05.2023. Smith, A. (2010): Theorie der ethischen Gefühle, Hamburg 2010. Smith, A. (2013): Wohlstand der Nationen, Köln 2013. Taleb, N. (2015): Der Schwarze Schwan, deutsche Ausgabe, München 2015. Taleb, N. (2018): Skin in the Game, 2018. Weik, M. und Friedrich, M. (2012): Der größte Raubzug der Geschichte, Marburg 2012.
4
Status Quo der Bankenaufsicht und -regulierung
4.1 Ziele und Organisation der Bankenaufsicht in der Marktwirtschaft Formal wird das Ziel der Bankenaufsicht in § 6 Abs. 2 KWG definiert. Dort heißt es: „Die Bundesanstalt (für die Finanzdienstleistungsaufsicht, d. V.) hat Missständen im Kreditund Finanzdienstleistungswesen entgegenzuwirken, die • die Sicherheit der den Instituten anvertrauten Vermögenswerte gefährden, • die ordnungsgemäße Durchführung der Bankgeschäfte oder Finanzdienstleistungen beeinträchtigen oder • erhebliche Nachteile für die Gesamtwirtschaft herbeiführen können.“ In diesem Zusammenhang spricht das Bundesministerium für Finanzen (BMF) auch von der Finanzstabilität, welche Sie als einen Zustand bezeichnet, „in dem das Finanzsystem seine volkswirtschaftlichen Funktionen erfüllt – und zwar gerade auch im Falle von unvorhersehbaren Ereignissen, in Stresssituationen sowie in strukturellen Umbruchphasen.“ (vgl. BMF 2019, S. 13). Damit zielt die Bankenaufsicht auf den ursprünglichen Zweck der Banken, nämlich der (stabilen) Versorgung der Realwirtschaft mit den erforderlichen Bankprodukten. Abb. 4.1 stellt die wesentlichen volkswirtschaftlichen Funktionen von Banken dar. Bei der Bereitstellung von Liquidität geht es darum, die Interessen der Anbieter von Liquidität (Einleger) mit denen der Nachfrager (Kreditnehmer), die grundsätzlich entgegengerichtet sind, zum Marktgleichgewicht zusammenzuführen. Während die Einleger tendenziell an hohen Zinsen, kurzfristiger Verfügbarkeit und maximaler Sicherheit interessiert sind, sind die Kreditnehmer an niedrigen Zinsen, möglichst langfristiger Verfügbarkeit
© Der/die Autor(en), exklusiv lizenziert an Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2023 K. Leusmann, Nachhaltig erfolgreiches Bankmanagement, https://doi.org/10.1007/978-3-658-41929-5_4
73
74
4 Status Quo der Bankenaufsicht und -regulierung
Bereitstellung von Liquidität Auswahl und Bewertung von Investitionen
Geldschöpfung
„funktionierende“ Realwirtschaft Treuhandfunktion für anvertrautes Vermögen
Zahlungsverkehr
Absicherung von Kundengeschäften
Abb. 4.1 Volkswirtschaftliche Funktionen der Banken. (Quelle: eigene Darstellung)
Laufzeit Aktiva
Nachfrage
Liquidität
FT
Angebot
Volumen
Investitionskredite und Baufinanzierungen
Passiva Sicht- und Spareinlagen Eigenkapital
Volumeneffekt der Fristentransformation (FT)
Abb. 4.2 Fristentransformation. (Quelle: eigene Darstellung)
und niedrigen Sicherheiten interessiert. Hinsichtlich der Laufzeit von Krediten und Einlagen leisten die Banken in der Regel dadurch einen zusätzlichen Beitrag als sie durch Fristentransformation in der Form längerer Laufzeiten bei den Krediten als bei den Einlagen zusätzliches Finanzierungsvolumen ermöglichen (vgl. Abb. 4.2). Der Anreiz für die Banken zu diesem höheren Marktgleichgewicht besteht darin, dass bei einer normalen Zinsstruktur am Geld- und Kapitalmarkt mit höheren Zinssätzen für längere Laufzeiten in der Regel ein positiver Fristentransformationsbeitrag erzielt werden kann. Das daraus resultierende Zinsänderungs- und Liquiditätsrisiko muss selbstverständ-
4.1 Ziele und Organisation der Bankenaufsicht in der Marktwirtschaft
75
lich im Rahmen der Risikosteuerung gesteuert und auf das vertretbare Limit hin begrenzt werden. Die volkswirtschaftliche Funktion der Auswahl und Bewertung von Investitionen erfolgt faktisch durch die Kreditwürdigkeitsprüfung. Es werden nur die gewerblichen oder privaten Kreditwünsche genehmigt, bei denen die Bank aufgrund von Verwendungszweck und Tragfähigkeit der Zins- und Tilgungsleistung von einer hinreichend sicheren Rückzahlung ausgehen kann. Die Höhe des Zinssatzes spiegelt damit praktisch die erforderliche volkswirtschaftliche Attraktivität der Investition wider. Wird demnach das Zinsniveau zum Beispiel durch eine Überversorgung mit Zentralbankgeld künstlich niedrig gehalten, werden dadurch tendenziell weniger attraktive Geschäftsmodelle am Leben erhalten und so die Zukunftsfähigkeit einer Volkswirtschaft eingeschränkt. In diesem Zusammenhang sei darauf hingewiesen, dass im Zeitraum von 2008 (Lehman-Pleite) bis 2021 die Zentralbankgeldmenge (M0) im Verhältnis zum BIP (Kassenhaltungskoeffizient) im Euro-Raum durch den Ankauf von Staats- und Unternehmensanleihen von 9,1 % auf 50,9 % ausgeweitet wurde, woraus ein absoluter Geldüberhang von 4,9 Billionen Euro resultiert (vgl. Sinn 2021, S. 218 f.). Diese Geldmengenausweitung hat massiv zur (künstlichen) Senkung des Zinsniveaus bis in den negativen Bereich beigetragen. Damit erhöhen sich die „aufgestauten“ Ausfallrisiken von privaten, gewerblichen und staatlichen Kreditnehmern tendenziell, die dann konkret werden, wenn die Zinsen zum Beispiel zur Bekämpfung einer Inflation wieder angehoben werden. Mit Blick auf die vergangenheitsorientierte Risikomessung sei zusätzlich angemerkt, dass ein vergleichbarer Sachverhalt in den historischen Daten nicht enthalten sein kann. Auf eine detaillierte Erläuterung des nationalen und internationalen Zahlungsverkehrs mit den unterschiedlichsten Produkten wird an dieser Stelle in der Annahme verzichtet, dass diese Funktion selbsterklärend ist. Bei der Absicherung von Kundengeschäften geht es darum, dass finanzielle Risiken aus realwirtschaftlichen Geschäften der Kunden über entsprechende Produkte zu marktgerechten Preisen übernommen und nach Möglichkeit von der Bank auf dem Markt wieder glattgestellt werden. So könnte es beispielsweise bei einer großen Werft für Kreuzfahrtschiffe mit mehrjähriger Bauzeit bei Produktionskosten in Euro und Kaufpreiszahlung in US-Dollar erforderlich sein, das Währungsrisiko und das Ausfallrisikos des Käufers bis zur Übernahme des Schiffs abzusichern, wofür auch Derivate in Frage kommen. Bei der Treuhandfunktion für anvertrautes Vermögen sind zwei Fälle zu unterscheiden. Einerseits geht es um Einlagen, welche die Bank auf ihre eigene Bilanz nimmt. Hier vertraut der Kunde darauf, dass die Bank ihre Risiken beherrscht und zur Rückzahlung am Ende der vereinbarten Frist in der Lage ist. Andererseits geht es um Kundengelder, bei denen die Bank nach entsprechender Beratung im Kundenauftrag Finanzanlagen kauft, deren Risiken der Kunde trägt. Hier muss der Kunde darauf vertrauen, dass die Beratung in seinem Interesse erfolgt und der Berater möglichst frei von Interessenskonflikten ist. Die Treuhandfunktion bzw. das ihr zugrunde liegende Vertrauen wird insbesondere dann gestört, wenn Kundenbetreuer unter dem Druck ihre Ertrags- bzw. Renditeziele zu erfüllen, den Kunden Produkte verkaufen, die nicht mit den Kundenzielen vereinbar sind. Handelt es sich dabei nicht um Einzelfälle, leidet die „volkswirtschaftliche Funktionsfähigkeit“ der Bank aufgrund des damit verbundenen Vertrauensverlustes. Bei der Geldschöpfung geht es darum, dass Banken – über die Geldmenge
76
4 Status Quo der Bankenaufsicht und -regulierung
Single Supervisory Mechanism (SSM) Aufsicht über 4900 Unternehmen 3700 Unternehmen
1200 Unternehmen Direkte Aufsicht Mikroprudenzielle Aufsicht I und II durch Joint Supervisory Teams (JSTs)
überwacht das System Unterstützung durch horizontale Abteilungen
Bedeutende Institute Bedeutende Kreditinstitute (Aktiva > 30 Mrd. EUR oder 20 % des BIP und dabei > 5 Mrd. EUR) Bedeutendste Kreditinstitute in einem Mitgliedsstaat Empfänger finanzieller Unterstützung aus dem ESM Nach Ermessen der EZB zur einheitlichen Anwendung von Aufsichtsstandards
Indirekte Aufsicht National Competent Authorities (NCAs), In Deutschland: BaFin und Bundesbank
Weniger bedeutende Institute
85 %
15 %
des gesamten Bankvermögens im Euroraum
Alle anderen Kreditinstitute (eine nachträgliche Statusänderung kann eintreten, wenn die vorgegebenen Schwellenwerte in einem Jahr überschritten werden, eine darauf folgende Statusrevision ist hingegen erst nach Unterschreitung der Schwellenwerte in drei aufeinander folgenden Jahren möglich)
Quelle: EZB Leitfaden zur Bankenaufsicht vom September 2014
Abb. 4.3 Single Supervisory Mechanism (Quelle: Eigene Darstellung in Anlehnung an EZB-Leitfaden zur Bankenaufsicht, September 2014)
M0 hinaus – durch die schlichte Bereitstellung von Krediten auf dem laufenden Konto (Buchung: Per Kreditkonto an Laufendes Konto) Giralgeld erzeugen können. Begrenzt wird diese Möglichkeit über die Vorschriften zur Eigenkapitalausstattung im Verhältnis zur risikogewichteten Aktiva (RWA) sowie die Vorschriften zur Mindestreserve. Die Bankenaufsicht ist in den Euro-Ländern unter der Oberaufsicht der EZB arbeitsteilig geregelt (vgl. Abb. 4.3). Im Rahmen dieser Arbeitsteilung übernimmt die EZB die direkte Aufsicht über die größeren Institute (i. d. R. mit einer Bilanzsumme > 30 Mrd. €), während die nationalen Aufsichtsbehörden die direkte Aufsicht über die kleineren Institute übernehmen. Dabei wird die Einheitlichkeit der Aufsicht neben einer einheitlichen gesetzlichen Grundlage (Single Rule Book für die gesamte EU) auch dadurch sichergestellt, dass die Aufsicht über die kleineren Institute durch die nationalen Aufsichtsbehörden auch durch die EZB überwacht wird, die zudem die Hoheit über die Methoden und Standards hat. Inhaltlicher Impulsgeber für das Single Rule Book und die zahlreichen flankierenden Standards, Rundschreiben (zum Beispiel MaRisk), Leitfäden (zum Beispiel Risikotragfähigkeitsleitfaden) und Empfehlungen sind die Standards, Richtlinien und Empfehlungen des Baseler Ausschusses, dessen Ziel in einer internationalen Harmonisierung der Bankenregulierung und Aufsicht liegt, um grenzüberschreitende Aufsichtsarbitrage möglichst weitgehend zu verhindern. Die Entwicklung der Bankenregulierung, ausgehend vom Baseler Ausschuss für Bankenaufsicht, erfolgt in der Regel reaktiv in Schüben, zumeist nach erkannten Fehlentwicklungen. Sie nahm ihren Anfang in Form des Baseler Konkordats von 1975, mutmaßlich als Reaktion auf die Pleiten von Herstatt (Deutschland) und der Franklin Bank (USA) in 1974. Es folgte Basel I in 1988 (Baseler Akkord), seine Ergänzung in 1996 sowie Basel II in 2004. Zu einer exponentiellen Ausweitung der Baseler Standards kam es mit der Ent-
4.2 Wesentliche Inhalte der Bankenregulierung
77
wicklung von Basel III als Reaktion auf die Fehlentwicklungen im Rahmen der Finanzkrise 2007/2008. Lag die Seitenzahl von Basel I inkl. Ergänzungen noch bei ca. 100 Seiten und von Basel II bei ca. 300 Seiten, so wuchs sie mit Basel III und seiner „Vollendung“ mit Basel IV auf inzwischen über 7000 Seiten. Bei der Bankenregulierung in einer Marktwirtschaft besteht eine besondere Herausforderung der staatlichen Regulierung darin, ein Gleichgewicht zu finden zwischen der unverzichtbaren Funktionssicherung der Finanzwirtschaft für die Realwirtschaft auf der einen Seite und der Eigenverantwortung der Wirtschaftssubjekte (Unternehmen und Verbraucher) sowie ihr Zusammenwirken auf den Märkten auf der anderen Seite. In diesem Zusammenhang wird zunehmend diskutiert, ob mit der exponentiellen Ausweitung der Regulierungen dieses Gleichgewicht noch gegeben ist oder sich aufgrund von Ausmaß und Ausrichtung der Regulierung diese den betroffenen Marktwirtschaften bereits zum Nachteil gereicht (vgl. zum Beispiel Kolly et al. 2017; vgl. Keppeler 2018; vgl. Neuberger 2018).
4.2 Wesentliche Inhalte der Bankenregulierung 4.2.1 Struktur Charakteristisch für die Regelungen des Baseler Ausschusses ist seit der Einführung von Basel II die so genannte „Drei-Säulen-Architektur“ gemäß Abb. 4.4. In der ersten Säule geht es um die Mindestkapitalanforderungen im Sinne der Haftungsmasse für eigegangene Risiken. In der zweiten Säule geht es um aufsichtliche Überprüfungsverfahren zur Beurteilung der Risikoschätzungen, der ökonomischen Risikotragfähigkeit sowie der dafür erforderlichen Ressourcen, Systeme, Methoden und Prozesse. In der dritten Säule geht es um Transparenz im Sinne von Offenlegungspflichten.
Solvabilität MINDESTKAPITALANFORDERUNGEN Kreditrisiken Marktrisiken Operationelle Risiken
MaRisk/SREP
Offenlegung
AUFSICHTLICHES ÜBERPRÜFUNGSVERFAHREN
MARKTDISZIPLIN
Beurteilung der Risikoschätzungen der Banken
Erweiterung der Offenlegungspflichten
Abb. 4.4 Drei-Säulen-Architektur Basel. (Quelle: eigene Darstellung)
78
4 Status Quo der Bankenaufsicht und -regulierung
Während hier auf die dritte Säule nicht weiter eingegangen werden soll, wird über die Säulen 1 und 2 insoweit ein Überblick gegeben, als es für die Zwecke dieses Buches erforderlich ist. Hinsichtlich darüber hinaus gehender Details wird auf die einschlägige Literatur sowie die zahlreichen Seminarangebote dazu verwiesen.
4.2.2 Baseler Säule 1 Schwerpunkt der Regelungen bildet die Ermittlung einer Mindestquote des aufsichtsrechtlichen Kapitals bezogen auf die so genannte „Risikogewichtete Aktiva“ (RWA). Bei der Ermittlung des aufsichtsrechtlichen Kapitals werden drei Qualitätsstufen von Kapital unterschieden: Das harte Kernkapital (Core Equity Tier 1), das (hybride) Additional Tier 1 und das Ergänzungskapital Tier 2, mit Fremdkapitalcharakter. Die absolute Mindestkapitalquote bezogen auf die RWA beträgt acht Prozent, wobei hiervon mindestens 4,5 Prozentpunkte hartes Kernkapital sein müssen. Hartes Kernkapital plus Additional Tier 1 müssen zusammen mindestens sechs Prozentpunkte ergeben, sodass das Tier 2 Kapital maximal zwei Prozentpunkte betragen darf. Die RWA setzen sich aus den drei Positionen Kreditrisiken, Marktpreisrisiken und Operationelle Risiken zusammen. Für die Ermittlung der RWA zu den drei Positionen mit diversen Unterarten sind alternative Methoden mit steigendem Komplexitätsgrad vorgesehen. Bei Kredit- und Marktpreisrisiken sind Standard- und fortgeschrittene Methoden definiert. Bei den Operationellen Risiken gibt es nur einen Standardansatz, der jedoch in Anhängigkeit vom Umfang der Bruttoerträge als Risikoindikator für operationelle Risiken insgesamt drei Komplexitätsstufen unterscheidet. Bei den Kredit- und Marktpreisrisiken sind die jeweiligen Standardansätze als Einstieg definiert, von dem aus sich das Institut für fortgeschrittenere Ansätze qualifizieren kann. Dabei ist die Qualifikation für fortgeschrittene Ansätze grundsätzlich aufsichtlich gewünscht, weil mit der Qualifikation für diese Ansätze von einer besseren Beherrschung der Risiken ausgegangen wird. Bei den fortgeschrittenen Ansätzen ermittelt das Institut wesentliche Komponenten für die Bestimmung der Risikoaktiva auf der Basis von selbst entwickelten und aufsichtlich geprüften Methoden und Prozessen. Dabei erfordern die fortgeschrittenen Methoden im Vergleich zu den Standardansätzen grundsätzlich einen deutlich höheren Aufwand beim Institut und auch der Aufsicht. Der Anreiz, sich trotzdem für fortgeschrittene Ansätze zu qualifizieren wird dadurch erreicht, dass bei einer Qualifikation für fortgeschrittene Ansätze der Eigenkapitalbedarf und damit auch die Eigenkapitalkosten ceteris paribus geringer sind. Abb. 4.5 verdeutlicht diesen Sachverhalt am Beispiel der Kreditausfallrisiken. Beim Kreditrisikostandardansatz (KSA) ergeben sich die RWA als Produkt aus der Bemessungsgrundlage (Volumen, ggf. korrigiert um anrechenbare Sicherheiten), einem Anpassungsfaktor sowie einem Risikogewicht je nach Forderungsklasse und externem Rating. Bei den fortgeschrittenen Ansätzen ergibt sich die erforderliche Kapitalunterlegung in Abhängigkeit von den bereits bekannten Parametern PD, LGD und EaD sowie der Restlaufzeit. Das zu prognostizierende EaD hängt dabei zusätzlich vom Credit Conversion
Komplexität/Aufwand
4.2 Wesentliche Inhalte der Bankenregulierung
79
Fortgeschrittener IRB-Ansatz
IRB-Basisansatz Bank schätzt die mit der Ratingklasse verbundene Ausfallwahrscheinlichkeit (PD) selbst Standardansatz (KSA) Mindestlösung
Bank schätzt außer der Ausfallwahrscheinlichkeit (PD) auch die Verlustquote (LGD), Kreditkonversionsfaktoren (CCF) und die Laufzeit (M) selbst
IRB-Retail-Ansatz Bank schätzt PD, LGD und CCF selbst Kreditrisikominderungstechniken
Auf Basis externer Ratings Risikoeinschät- Parametrisierter Einbezug der Sicherheiten zung
Auf Basis bankinterner Ratings Für das Retailportfolio weitgehende Freiheitsgrade
Auf Basis bankinterner Ratings Selbstgeschätzte SicherheitenErlösquoten
Gewünschte Entwicklung
Abb. 4.5 Regulatorische Ansätze Kreditrisiko. (Quelle: eigene Darstellung in Anlehnung an zebAkademie)
Faktor (CCF) ab. Während beim Internal Rating Based (IRB)-Basis Ansatz außerhalb des Retail-Geschäftes nur die PD durch das Institut geschätzt werden darf, dürfen beim fortgeschrittenen IRB-Ansatz zusätzlich LGD, CCF und die Laufzeit selbst geschätzt werden. Basis für die Parameterschätzungen durch das Institut sind die historischen Daten für die jeweilige Forderungsklasse. Während beim Basisansatz Ausfallhistorien reichen, sind beim fortgeschrittenen IRB-Ansatz umfangreiche Verlusthistorien aus vollständig abgewickelten Krediten erforderlich. Auf tiefer gehende Details zum Kreditausfallrisiko und die methodischen Ansätze zum Credit Couterparty Risk, Credit Value Adjustment, Verbriefungen sowie zu den Marktpreis- und Operationellen Risiken kann für die Zwecke dieses Buches verzichtet werden. Von der Entwicklungsgeschichte her ist zu beobachten, dass die Verlagerung der Berechnung von Kapitalanforderungen auf die Bank im Rahmen von fortgeschrittenen Ansätzen dazu geführt hat, dass die Risiken in unvorhergesehener Weise klein gerechnet wurden, um die Kapitalbelastungen bzw. Eigenkapitalkosten zu minimieren. Statt einer erhofften Stärkung der Kapitalbasis führten fortgeschrittene Ansätze in Teilen zu Eigenkapitalquoten bei Banken von weniger als drei Prozent der Bilanzsumme (zum Beispiel Deutsche Bank oder DZ Bank). Was die Reduzierung des Eigenkapitals zusätzlich begünstigt hat, war zum Beispiel ein Risikogewicht von 0 für Staatsanleihen, die von Euro-Staaten begeben wurden. Dieser Umstand ist auch mehr als zehn Jahre nach dem Schuldenschnitt für Griechenland sowie der auf Basis externer Ratings in Teilen höheren Ausfallwahrscheinlichkeit einiger südlicher Euro-Staaten nach wie vor unverändert. Diese Entwicklungen haben zu der Reaktion geführt, dass für Berechnungen der Eigenkapitalanforderungen mittels interner Modelle inzwischen mit Basel III Untergrenzen für Kapitalanforderungen eingeführt wurden. Zudem wurde mit der Leverage-Ratio ein zweiter, parallel geltender Ansatz zur Mindestkapitalausstattung eingeführt, nach dem die nicht risikogewichteten und damit gesamten Aktiva zu mindestens drei Prozent mit Eigenkapital im Sinne von hartem Kernkapital zu unterlegen ist.
80
4 Status Quo der Bankenaufsicht und -regulierung
Ein wesentlicher Aspekt der Kapitalanforderungen nach Säule 1 besteht darin, dass dort nur für einen Teil der Risiken Kapitalanforderungen definiert werden. Abgesehen von den als nicht messbar deklarierten Risiken (zum Beispiel Strategische Risiken, Reputationsrisiken) sowie der problematischen Risikogewichtung von Euro-Staatsanleihen sind dies zum Beispiel sämtliche Risiken aus der Zinsfristen- und Liquiditätsfristentransformation. Auch werden keinerlei Effekte aus Risikokonzentrationen innerhalb von Risikoarten und risikoartenübergreifend berücksichtigt. Diesem Umstand soll dadurch Rechnung getragen werden, dass diese in der Säule 2 zu erfassenden Risiken zu Aufschlägen bei den Kapitalanforderungen nach Säule 1 führen. Den in Säule 1 nicht erfassten Risiken wird also dadurch Rechnung getragen, dass die Anforderungen für die in Säule 1 erfassten Risiken in Form eines Aufschlags auf die Mindestkapitalquote erhöht werden. Der Wirkmechanismus soll an einem synthetischen Extrembeispiel verdeutlicht werden. Angenommen eine Bank ist neben einem geringen Bestand an Wertpapierkrediten für Kunden und einem weniger bedeutenden Bestand an Interbankenforderungen hauptsächlich in länger laufenden Euro-Staatsanleihen mit „attraktiven“ Spreads investiert, die dem Anlagebestand zugeordnet sind. Die Passivseite setzt sich neben einem eher geringeren Bestand an Interbankenverbindlichkeiten hauptsächlich aus Sicht- und Spareinlagen vermögender Privatkunden zusammen, die ansonsten im Wesentlichen Wertpapieranlagen über die Bank betreiben. Bei einer solchen Bank werden die Kapitalanforderungen aus Kreditausfallrisiken und auch aus Marktpreisrisiken des Handelsbuches nahezu vernachlässigbar sein und die Kapitalanforderungen aus Operationellen Risiken allenfalls durchschnittlich. Wenn diese Bank ein bedeutendes Zinsänderungsrisiko in Form einer deutlich längeren Zinsbindungsfrist auf der Aktivseite der Bilanz eingeht, dann „droht“ dafür bei einer qualitativen Bewertung des Zinsänderungsmanagements mit der Note C ein maximaler Kapitalaufschlag von drei Prozentpunkten bezogen auf die sehr niedrige RWA-Basis aus Adress-, Marktpreis- und Operationellen Risiken. Die gesamten Kapitalanforderungen gemäß der Baseler Säule 1 als Quote der RWA setzen sich zusammen aus dem absoluten Minimum von acht Prozent zuzüglich diverser Aufschläge gemäß Abb. 4.6. Der erste Aufschlag auf die Untergrenze von acht Prozent ergibt sich als institutsindividueller Aufschlag aus der Prüfung gemäß der Säule 2 (P2R = Pillar 2 Requirement), unter anderem aufgrund der dort festgestellten und in Säule 1 nicht erfassten Risiken, der auch als SREP-Aufschlag bezeichnet wird. Dieser Aufschlag liegt im Durchschnitt der deutschen Institute ca. bei zwei Prozent der RWA. Die Zusammensetzung dieses Aufschlags muss dabei derjenigen der Mindestquote entsprechen. Darüber hinaus werden ein Kapitalerhaltungspuffer, ein antizyklischer Kapitalpuffer und ggf. ein Kapitalpuffer bei Systemrelevanz des Instituts verlangt. Hinter der Bezeichnung P2G verbirgt sich eine aufsichtliche Empfehlung (Pillar 2 Governance), die in Abhängigkeit von institutsindividuellen Stresstestergebnissen festgelegt wird und praktisch auch verpflichtenden Charakter hat. Diese institutsspezifische Empfehlung liegt im Durchschnitt der deutschen Institute bei ca. 1,5 %. Auf die so ermittelte praktische Untergrenze wird noch ein Managementpuffer addiert, damit nicht bei jeder „Bodenwelle“ gegen Mindestanforderungen verstoßen wird. Alle Puffer bzw. Empfehlungen oberhalb der P2R sind mit hartem Kernkapital zu erfüllen.
4.2 Wesentliche Inhalte der Bankenregulierung
81
KAPITALANFORDERUNGEN SÄULE 1 Managementpuffer
100% CET1
Mindestgrenze 8 %
Maximum von
P2G
G-SRIO-SRI- Puffer Puffer
SRB
Ø ca. 1,5% ≤ 5%
Antizyklischer Kapitalpuffer (CCyB)
≤ 2,5%
Kapitalerhaltungspuffer (CCB)
2,5%
P2R
Ø ca. 2%
T2
2%
T1
1,5%
CET1
4,5%
Abb. 4.6 Kapitalanforderungen Säule 1. (Quelle: eigene Darstellung in Anlehnung an zeb-Akademie)
4.2.3 Baseler Säule 2 Hinsichtlich der Säule 2 sind in Deutschland aktuell (noch) zwei parallel existierende Prüfungsverfahren zu unterscheiden: Die Prüfungen nach den deutschen Mindestanforderungen an das Risikomanagement (MaRisk) und der europäische Supervisory Review and Evaluation Process (SREP), die sich inhaltlich stark überlappen. In beiden Prüfungsverfahren geht es schwerpunktmäßig um die angemessene interne Kapitalausstattung im Sinne der bereits beschriebenen ökonomischen Risikotragfähigkeit, ergänzt um diverse Stresstests und ergänzende Analysen sowie um angemessene Methoden, Systeme, Prozesse und Ressourcen für das Risikomanagement. Dabei unterscheidet der SREP vier inhaltliche Prüfungsfelder (vgl. Abb. 4.7). Eine Kategorisierung aller Institute in vier Größenklassen ist ausschlaggebend für die Tiefe und zeitliche Taktung der laufenden Prüfung von Schlüsselindikatoren sowie insbesondere der eigentlichen Prüfung. Das erste der vier Prüfungsfelder beschäftigt sich mit der mittelfristigen Zukunftsfähigkeit der Geschäftsmodelle. Sie analysiert einzelne Geschäftsfelder (zum Beispiel gegliedert nach Kundengruppen und ggf. Ländern) hinsichtlich Ertragskraft, Einflussfaktoren der Ertragskraft, Alleinstellungsmerkmale, Ausrichtung und Stärken der Peer-Group etc. in Verbindung mit der strategischen Planung. Durch dieses Prüfungsfeld
82
4 Status Quo der Bankenaufsicht und -regulierung Kategorisierung von Instituten Überwachung von Schlüsselindikatoren
I
II
Geschäftsmodellanalyse
III
Bewertung der internen Governance und der institutsweiten Kontrollen
Bewertung ICAAP
IV
Bewertung ILAAP
Bewertung des inhärenten Risikos und der Kontrollen
Bewertung des inhärenten Risikos und der Kontrollen
Bestimmung der Eigenmittelanforderungen und Stresstests
Bestimmung der Liquiditätsanforderungen und Stresstests
Bewertung der Angemessenheit der Eigenkapitalausstattung
Bewertung der Angemessenheit der Liquiditätsausstattung
SREP -Gesamtbewertung Aufsichtsmaßnahmen Quantitative Kapitalmaßnahmen
Quantitative Liquiditätsmaßnahmen
Andere Aufsichtsmaßnahmen
Frühinterventionsmaßnahmen BaFin-Darstellung
Abb. 4.7 SREP-Prüfungsarchitektur (Quelle: EBA CP Nr. 14 vom 7.7.2014)
wird dem Umstand Rechnung getragen, dass dem strategischen Risiko in der ökonomischen Risikotragfähigkeit nicht Rechnung getragen werden kann. Das zweite, rein qualitative Prüfungsfeld beschäftigt sich mit der Angemessenheit von Methoden, Prozessen, Systemen und Ressourcen der Risk Governance bzw. der institutsweiten Kontrollen. Zu diesem Prüfungsfeld gehört auch die Analyse einer angemessenen Risikokultur. Schwerpunkt des dritten Prüfungsfeldes ist die angemessene interne Kapitalausstattung anhand der ökonomischen Risikotragfähigkeit in Verbindung mit entsprechenden Stresstests. Es beinhaltet auch die Angemessenheit der dafür eingesetzten Methoden und Prozesse. Das vierte Prüfungsfeld hat, analog zum dritten Prüfungsfeld die angemessene interne Liquiditätsausstattung inkl. der dazu angemessenen Methoden und Prozesse zum Gegenstand. Alle vier Prüfungsfelder werden separat bewertet. Anschließend werden die Teilnoten zu einer Gesamtnote zusammengeführt, die unter anderem maßgeblich für den SREP-Aufschlag (P2R) ist. Anders als in Säule 1 sind bei der Beurteilung der Risikotragfähigkeit bzw. der angemessenen internen Kapitalausstattung alle wesentlichen Risiken zu berücksichtigen. Existieren für bestimmte Risiken keine angemessenen Messmethoden, sind dafür „Worst Case-Schätzungen“ zu erstellen und in deren Höhe Puffer vom gesamten Nettovermögen (= Risikodeckungspotenzial) dafür zu reservieren, die dann nicht als Risikolimit vergeben werden können. Praktisch ist das jedoch im Rahmen der ökonomischen Risikotragfähigkeit für die nicht messbaren Risiken nicht möglich. Ihnen kann man demnach nur dadurch gerecht werden, als man sie entweder aktiv begrenzt und/oder die Risikoneigung als Prozentsatz des Gesamtbankrisikolimits vom gesamten Risikodeckungspotenzial reduziert. Anhand der Beschreibung der vier Prüfungsfelder wird deutlich, dass die Aufsicht damit versucht, die Defizite der reinen Wertorientierten Banksteuerung zumindest weitgehend abzudecken bzw. auszuleuchten, um entsprechenden Fehlentwicklungen möglichst rechtzeitig begegnen zu können. Man muss jedoch davon ausgehen, dass eine rückschau-
4.2 Wesentliche Inhalte der Bankenregulierung
83
ende Prüfung, selbst wenn sie alle Defizite aufdecken könnte, aufgrund des zeitlichen Verzugs eine aktive Steuerung der bisher vernachlässigten Dimensionen nicht ersetzen kann. Beispielsweise können strategische Defizite aus der Geschäftsmodellanalyse und die anschließenden Versuche ihrer reaktiven Behebung in einer dynamischen und komplexen Umwelt keine laufende proaktive Geschäftsmodellanalyse des Instituts in Verbindung mit einer agilen Weiterentwicklung des Geschäftsmodells ersetzen. In Kap. 5 wird konkreter hergeleitet, dass eine rückschauende aufsichtliche Mängelfeststellung keine integrierte Unternehmenssteuerung unter Berücksichtigung bisher vernachlässigter Steuerungsdimensionen ersetzen kann.
4.2.4 Risikotragfähigkeitsleitfaden Der aktuelle Risikotragfähigkeitsleitfaden unterscheidet zwei Perspektiven der Risiko tragfähigkeit, die normative und die ökonomische Perspektive (vgl. Deutsche Bundesbank und BaFin 2018). Aufsichtlich ist die Risikotragfähigkeit bzw. die angemessene Kapitalausstattung danach gegeben, wenn die Bedingungen beider Perspektiven erfüllt sind. In der normativen Perspektive ist die Risikotragfähigkeit dann gegeben, wenn die Mindestkapitalanforderungen gemäß Säule 1 auf der Basis einer Mehrjahresplanung (Basis- Szenario) für mindestens drei Planjahre nach dem laufenden Jahr inklusive der entsprechenden Pufferanforderungen gegeben ist. Zudem sind adverse (Belastungs-) Szenarien für die gleichen drei Jahre zu erstellen, bei denen die Mindestkapitalanforderungen, reduziert um die Puffer und die Stresstestkomponente P2G, nicht unterschritten werden dürfen. Bei der ökonomischen Perspektive werden in der in Abschn. 2.5.3 beschriebenen Form die Gesamtbankrisiken für einen Betrachtungszeitraum von einem Jahr mit einem Konfidenzniveau von 99,9 % „gemessen“ und dem Risikodeckungspotenzial (gesamtes Nettovermögen) gegenübergestellt. Ist die Gesamtbankrisikoposition kleiner als das Risikodeckungspotenzial, ist die Risikotragfähigkeit nach dieser Perspektive gegeben. Abb. 4.8 stellt noch mal beide Perspektiven in Form eines Steckbriefs dar. Die beiden Perspektiven sind in ihrer Methodik grundsätzlich unterschiedlich mit spezifischen Vor- und Nachteilen, sodass sie sich tendenziell in ihrer additiven Erfüllung ergänzen. Die Normative Perspektive hat den großen Vorteil, dass sie die Risiken dort sucht, wo sie zeitlich einzuordnen sind, in der Zukunft. Die Nachteile sind darin zu sehen, dass sie über den Planungszeitraum hinaus gehende Effekte vernachlässigt, die Risiken nur unvollständig erfasst und keine Eintrittswahrscheinlichkeiten von Szenarien und damit auch kein Sicherheitsniveau kennt. Auch fällt eine Beurteilung schwer, inwieweit seltenen aber tendenziell zunehmenden Extremereignissen durch die adversen Szenarien Rechnung getragen wird. Auf der anderen Seite ist die ökonomische Perspektive in der Erfassung von Risiken umfassender, wenn auch nicht vollständig. Sie kennt aufgrund der verwendeten Vergangenheitsdaten Eintrittswahrscheinlichkeiten und damit auch ein „Sicherheitsniveau“. Die entscheidenden Nachteile liegen allerdings darin, dass die Risiken in der Zukunft keine Wiederholung der Vergangenheit sind und somit die Messergebnisse hinsicht-
84
4 Status Quo der Bankenaufsicht und -regulierung Normative Perspektive (Säule 1)
Ökonomische Perspektive (Säule 2)
Prämisse
Fortführung
Gläubigerschutz
Ansatz
periodisch
Barwertig bzw. barwertnah
Modell
Simulation
Value at Risk (VaR)
Zeithorizont
36 Monate
12 Monate
Konfidenzniveau
Plan/Adverses Szenario
99,9 %
Limit
Mindestkapital Säule 1
VaR-Limit
Abb. 4.8 Risikotragfähigkeitsperspektiven. (Quelle: eigene Darstellung)
lich der Risikotragfähigkeit keine bzw. sogar eine irreführende Botschaft ergeben. Vor diesem Hintergrund stellt sich die Frage, inwieweit die additive Erfüllung beider Perspektiven eine hinreichende Aussage zur Risikotragfähigkeit zulässt. Ohne „aus dem Stand“ ein abschließendes Urteil fällen zu können, so deuten Analysen von Bankpleiten und -krisen zumindest darauf hin, dass eine hinreichende Risikotragfähigkeit auch bei der Erfüllung beider Perspektiven kaum gegeben sein kann. So resultierte die Finanzmarktkrise überwiegend aus Fehlverhalten von verschiedensten Parteien bzw. Personengruppen, angefangen bei den Hypothekenbanken über Vermittler, Ratingagenturen, verbriefende Investmentbanken bis hin zu den Banken, welche die Anleihen in Teilen trotz des Wissens um nicht verlässliche Ratings gekauft haben (vgl. Weik und Friedrich 2012, S. 56). Auch die vergangene oder mutmaßlich noch anstehende Staatsschuldenkrise(n) würde(n) tendenziell von keiner der beiden Perspektiven angemessen erfasst. Wenn man bedenkt, dass bei einem größeren Anteil an Krisensituationen das (schlagend gewordene) Conduct Risk des eigenen Managements eine nicht unbedeutende Rolle gespielt hat (zum Beispiel SachsenLB, Bayern LB w/ Hypo Alpe Adria, HRE, HSH Nordbank, Greesnsill, Herstatt, Krisenjahre der Deutschen Bank), so muss bezweifelt werden, dass diese über die beiden Perspektiven erfasst worden wären. Auch die in Abb. 3.6 angeführten zusätzlichen Risiko treiber aus „Extremistan“ werden im Zweifel nicht hinreichend von den beiden Perspektiven erfasst. Vor diesem Hintergrund muss davon ausgegangen werden, dass eine „Sicherstellung“ der Risikotragfähigkeit im Sinne dieses Leitfadens als zwingende Nebenbedingung praktisch nicht möglich ist und das seitens des Bankmanagements 1.0 eingeräumte „Restrisiko“ ähnlich trügerisch ist, wie das Sicherheits- bzw. Konfidenzniveau oberhalb von 99 % bei der vergangenheitsorientierten „Risikomessung“. An dieser Stelle wird daher die These aufgestellt, dass nicht die (Illusion der so definierten) Risikotragfähigkeit das Bestreben des Risikomanagements sein sollte, sondern vielmehr die Analyse und Steuerung
4.3 Strategisches Regulierungsdilemma
85
der Fragilität eines Instituts (unter Berücksichtigung einer angemessenen Eigenkapitalausstattung) mit Blick auf denkbare Ungewissheiten, wie dieses bei der Geschäftsmodell analyse oder bei Stresstests schon in Teilen getan wird. Diese These wird in Abschn. 5.2 weiterverfolgt.
4.3 Strategisches Regulierungsdilemma Bei der Entwicklung aufsichtsrechtlicher Vorschriften fällt auf, dass sie gerade nach beobachteten Fehlentwicklungen quasi in Schüben erfolgt (vgl. Kolly et al. 2017). Das war bei der Abfassung des Baseler Konkordats ebenso wie bei den bisher umfangreichsten Veröffentlichungen des Basler Ausschusses nach der Finanzkrise von 2007/2008. Peter Keppeler vom Austrian Institute schreibt dazu: „Die Krux der Vorschriften liegt darin, dass sie eben geschehene Fehlentwicklungen für die Zukunft verhindern wollen, wobei man nicht weiß, ob diese Zukunft gleich sein wird, wie die Vergangenheit.“ (vgl. Keppeler 2018). Dabei formuliert er insoweit noch zurückhaltend, als die Zukunft aufgrund der unendlichen Komplexität niemals so sein kann wie die Vergangenheit. Damit ist im Wesentlichen beschrieben, warum die aufsichtliche Regulierung ebenso wenig einen stabilen Stand erreichen kann, wie man auf der Basis vergangenheitsorientierter „Risikomessungen“ eine Risikotragfähigkeit sicherstellen kann. Auch Doris Neuberger kommt zu dem Schluss, dass die „Risikomessung auf der Grundlage von harten historischen Informationen … nach wie vor im Mittelpunkt des regulatorischen Ansatzes steht“ und deshalb die Regulierungsmaßnahmen der „Illusion der Berechenbarkeit und Feinabstimmung“ folgen (vgl. Neuberger 2018). Das legt die Vermutung nahe, dass ein „Teufelskreis“ aus Regulierung und neuer, unerwarteter Realität sich zu einem aufsichtsrechtlichen Dilemma entwickelt, welches durch Abb. 4.9 veranschaulicht wird.
BANKENAUFSICHT
AUSBLICK
Regulierungs- und Überwachungsaufwand
Erfüllungs- und „Kapitaloptimierungsaufwand“
Zunehmende Ressourcenvernichtung Nicht mehr beherrschbare Komplexität Einengung des Handlungsspielraums, auch für ethisches Handeln
BANKEN
Umfang Basel I: 100 Seiten / Basel II: 300 Seiten / Basel III: 6.400 Seiten / Basel IV: >7.000 Seiten
Abb. 4.9 Regulierungsdilemma. (Quelle: eigene Darstellung)
86
4 Status Quo der Bankenaufsicht und -regulierung
Dieser Teufelskreis wird neben neuen unerwarteten Extremereignissen dadurch befeuert, dass ohne entsprechenden Kulturwandel auch ein nahezu sportlicher Anreiz zur Umgehung von aufsichtsrechtlichen Regelungen besteht. „Tatsächlich lautet ein eisernes Gesetz der Unternehmensphysik, dass sich für jede Regulierung entsprechende Innovationen zu ihrer Umgehung verbreiten.“ Mit der Komplexität steigt auch dieser Umgehungs- bzw. „Optimierungsaufwand“, wie zum Beispiel Doris Neuberger feststellt: „Die Banken verwenden immer mehr Ressourcen für „strategische Anpassungen“ an die Baseler Regeln anstelle für ihre eigentlichen Aufgaben.“ (vgl. Neuberger 2018). Das Dilemma besteht darin, dass die Regulierer entweder neue Fehlentwicklungen hinnehmen, ohne sie durch neue Regelungen für die Zukunft auszuschießen, oder den Teufelskreis bis ins Unendliche fortsetzen, verbunden mit einer kontinuierlichen Zunahme des Ressourcenverbrauchs und einer möglicherweise schleichenden Abschaffung der Marktwirtschaft. In der Studie „Conduct and Culture“ der Group of Thirty (G 30) von 2015 heist es dazu auf Seite 22: „Banks need to fix their culture to fix the doom loop with policy makers and society“. Die Experten sehen es also als ein Problem der Kultur der Banken, die man gemäß der G 30 nicht regulieren kann (vgl. The Group of Thirty 2015). Eine weitere zwangsläufige Konsequenz der exponentiell steigenden Regulierungsdichte besteht darin, dass der Spielraum für ethisches Handeln und damit auch für die Rückgewinnung des Vertrauens entsprechend enger wird. Wenn die Ethik darin besteht, im Rahmen des Erlaubten das Gute zu tun, wird dieser Spielraum dadurch, dass alles reguliert wird, immer enger. Gleiches gilt für die unternehmerische Verantwortung, einschließlich der Gesamtverantwortung der Geschäftsleitung für das Risikomanagement. Es muss zwangsläufig der Eindruck bei den Geschäftsleitern entstehen, dass man seiner Verantwortung hinreichend gerecht geworden ist, wenn man nach bestem Wissen und Gewissen für die Umsetzung aller Detailvorschriften Sorge getragen hat. Abgesehen vom geschilderten Dilemma mit seinen Folgen ergeben sich im Zusammenhang mit der Entwicklung der Regulierung in den letzten beiden Dekaden zusätzliche Fragen, die einer Antwort bedürfen. Wie bereits erläutert, besteht die schützenswerte Funktionsfähigkeit des Finanzsystems vor allem aufgrund ihrer fundamentalen Bedeutung für eine funktionierende Realwirtschaft. In diesem Zusammenhang bekundete der ehemalige Bundesbankvorstand Andreas Dombret in einem Vortrag beim Bankenverband Hamburg am 21.04.2016: „Verstehen Sie mich nicht falsch: Die Ertragskraft von Banken und Sparkassen ist wichtig; sie müssen nachhaltig profitabel sein. Aber der Fokus in der Regulierung liegt auf der Stabilität, und zwar zum Zwecke der nachhaltigen realwirtschaftlichen Entwicklung.“ (vgl. Dombret 2016). Vor dem Hintergrund, dass gerade der von der Realwirtschaft losgelöste Teil des spekulativen Bankgeschäftes, zum Beispiel in Form des entsprechenden Anteils vom Handel mit Derivaten oder von Leerverkäufen, drastisch gewachsen ist, verwundert es, dass die Regulierung auf diese Entwicklung nicht reagiert. Warum wird nicht zwischen realwirtschaftlich orientiertem Geschäft und reinem „Kasino Kapitalismus“ (vgl. das gleichnamige Buch von Hans-Werner Sinn) unterschieden, wobei Letzterer mit wesentlich stärkeren Eigenkapitalanforderungen unterlegt und/oder sogar vom realwirtschaftlich orientierten Geschäft getrennt werden könnte. Bei einer Trennung könnte möglicherweise das Problem der Systemrelevanz deutlich reduziert werden, zumindest hinsichtlich der Risiken für die Realwirtschaft.
4.3 Strategisches Regulierungsdilemma
87
Überdies fällt auf, dass seit längerem als offene Punkte der Regulierung bezeichnete Defizite nicht behoben werden. Als Beispiel sei hier das Risikogewicht von Euro- Staatsanleihen genannt. In dem o. g. Vortrag vor dem Bankenverband Hamburg im April 2016 lobte der damalige Bundebankvorstand Andreas Dombret Wirkung und Verhältnismäßigkeit der neuen Baseler Regelungen und sah lediglich die bessere Umsetzung des Proportionalitätsprinzips im Sinne einer Entlastung kleinerer Banken sowie die „bisherige Privilegierung von Staatsanleihen in der Regulierung“ als offene Punkte und versprach: „Hier setzt sich die Bundesbank dafür ein, dass Kreditinstitute Staatsschulden deren Risiken entsprechend mit Eigenkapital unterlegen müssen und dass auch für Forderungen an Staaten die üblichen Großkreditregelungen gelten.“ (vgl. Dombret 2016). Bis zur Abfassung dieser Zeilen im Herbst 2022 besteht die Privilegierung von Staatsschulden unverändert fort, was darauf schließen lässt, dass es politische Einflüsse von Staaten gibt, die bei einer Verteuerung ihrer Schulden durch höhere Eigenkapitalkosten bei den wichtigsten Abnehmern ihrer Anleihen um ihre Schuldentragfähigkeit fürchten. Die aktuell wieder deutlich gestiegenen Spreads dieser Länder (zum Beispiel Griechenland, Italien, Spanien) in Verbindung mit einem allgemeinen Anstieg des Zinsniveaus lassen befürchten, dass der politische Widerstand gegen die Abschaffung der Null-Gewichtung anhält. Mit anderen Worten, die Bankenregulierung und Aufsicht ist in ihrer Fokussierung auf das Ziel der Finanzstabilität wahrscheinlich nicht unabhängig, so wie es auch immer wieder für die Geldpolitik der EZB vermutet wird (vgl. hierzu diverse Meldungen aus der Tagespresse sowie Hans-Werner Sinn in „Die wundersame Geldvermehrung“ von 2021). Praktisch mit dem Redaktionsschluss für dieses Manuskript liefert die Realität mit dem Zusammenbruch der Credit Suisse noch ein „exzellentes“ Beispiel für das Regulierungsdilemma. Zum „Todeszeitpunkt“ der Bank wird mit dem Jahresabschluss für das Jahr 2022 ein Eigenkapital von knapp 48 Mrd. Franken testiert. Gemäß Abschluss darf auch davon ausgegangen werden, dass die Duale Risikotragfähigkeit zum 31.12.2022 gegeben war und auch die wesentlichen Liquiditätskennziffern (Liquidity Coverage Ratio und Net Stable Funding Ratio) eingehalten wurden. Offensichtlich konnte selbst Basel IV mit inzwischen deutlich über 7000 Seiten Regulierung durch die besten Experten der Welt diesen Zusammenbruch weder verhindern noch erklären, weil sie gewissermaßen (inklusive ihrer Feinjustierungen) aus der Rückschau entwickelt wurden. In beeindruckender Weise wird die Wirtschaftsethik in Form des Vertrauens der Stakeholder als Erfolgsfaktor konkret in Schweizer Franken messbar. Es ist die Differenz zwischen dem per 31.12.2022 testierten (den Aktionären zurechenbaren) Eigenkapital von ca. 48 Mrd. Schweizer Franken und dem verhandelten Übernahmepreis von drei Milliarden Schweizer Franken. Damit steht endgültig fest: Ethik ist kein „Gedöns“, sondern ein harter Erfolgsfaktor. Für die Regulierer ergeben sich damit einige Fragen: Welche Risikoart ist hier schlagend geworden? Wie kann man diese Risikoart messen? Wie kann ich so etwas überhaupt in der zweidimensionalen Risikotragfähigkeit erfassen? Welchen Wert haben eigentlich noch die 7000 Seiten „feinabgestimmter“ Baseler Regulierung für die angestrebte Finanzstabilität? Wie muss Basel V aussehen, damit wir das gerade Erlebte wiederum für die Zukunft ausschließen können?
88
4 Status Quo der Bankenaufsicht und -regulierung
Für die Lösung des geschilderten Regulierungsdilemmas braucht es mutmaßlich einen Paradigmenwechsel, der das Ziel der Finanzmarktstabilität wieder ins Gleichgewicht bringt mit den Grundsätzen der (sozialen) Marktwirtschaft einschließlich der unternehmerischen Verantwortung. In Kap. 5, insbesondere in Abschn. 5.5 wird ein Ansatz skizziert, wie im Zusammenhang mit einer reformierten Banksteuerung eine Auflösung des Regulierungsdilemmas gelingen könnte.
Literatur BMF (2019): Zehn Jahre nach der Finanzkrise: Haben die Reformen der Finanzmarktregulierung den Finanzsektor krisenfester gemacht? Monatsbericht des BMF, März 2019. Deutsche Bundesbank und BaFin (2018): Aufsichtliche Beurteilung bankinterner Risikotragfähigkeitskonzepte und deren prozessualer Einbindung in die Gesamtbanksteuerung (ICAAP) – Neuausrichtung vom 24.05.2018, unter: https://www.bafin.de/shareddocs/downloads/de/anlage/dl_180524_rtf- leitfaden_veroeffentlichung.pdf?_blop=publicationfile&v=3, abgerufen am 15.05.2023. Dombret, A. (2016): Übers Ziel hinausgeschossen? Bankenregulierung und ihre Folgen für das Bank geschäft, Redemanuskript vom 21.04.2016, Internetseite der Bundesbank, unter: https://www. bundesbank.de/de/presse/reden/uebers-ziel-hinaus-geschossen-bankenregulierung-und -ihrefolgen-für-das-bankgeschaeft-664960, abgerufen am 15.05.2023. Keppeler, P. (2018): Bankenregulierung – mehr Schaden als Nutzen, Austrian Institute vom 04.09.2018, unter: https://austrian-institte.org/de/blog/bankenregulierung-mehr-schaden-als-nutzen/, abgerufen am 15.05.2023. Kolly, M.-J. et al. (2017): Am Anfang stand ein Bankenkollaps. Dann kam die Regulierung – und hörte nicht mehr auf, in: NZZ Online vom 10.08.2017, unter https://www.nzz.ch/witschaft/40-jahre-bankenregulierung-unter-der-lupe-die -worte-welche-die-naechste-finanzkrise-verhindern-sollen-ld.1304102, abgerufen am 15.05.2023. Neuberger, D. (2018): Bankenregulierung: Auf dem falschen Dampfer, Bürgerbewegung Finanzwende Online, 28.11.2018, unter https://www.finanzwende.de/bolg/bankenregulierung-auf-dem-falschen- dampfer/, abgerufen am 15.05.2023. Sinn, H.-W. (2021): Die wundersame Geldvermehrung, Freiburg 2021. The Group of Thirty (2015): Banking Conduct and Culture – A Call for Sustained and Comprehensive reform, 01.07.2015, unter: https://group30.org/images/uploads/publications/g30_bankingconductandculture.pdf, abgerufen am 15.05.2023. Weik, M. und Friedrich, M. (2012): Der größte Raubzug der Geschichte, Marburg 2012.
5
Realitätskonformes, nachhaltiges Bankmanagement
5.1 Stakeholder Value statt Shareholder Value 5.1.1 Vorgehensweise In Abschn. 3.1.3 wurde die These aufgestellt, dass der nachhaltige Erfolg das Ergebnis einer (multiplikativen) Verknüpfung von Eigenkapital- bzw. Risikokapitalrendite und Ethik ist. Dabei wurde die Ethik als zumindest mittelfristiger Interessensausgleich über alle Stakeholder charakterisiert. Bei dieser Sichtweise ist der ökologische Aspekt der Unternehmensführung ein Teil dieses Interessensausgleichs. Vor diesem Hintergrund stellen sich die Fragen, ob und wie die Ethik als Interessensausgleich zwischen den Stakeholdern messbar ist, wie man sinnvoller Weise den nachhaltigen Erfolg definieren kann und ob ein Zusammenhang zwischen einer messbaren Ethik und dem definierten nachhaltigen Erfolg nachgewiesen werden kann. Vorausgesetzt, dass das alles möglich ist, stellt sich dann noch die Frage einer sinnvollen Integration der ethischen Erfolgsdimension in die Steuerungssowie die Anreiz- und Sanktionssystematik. Ein nachhaltiger Erfolg könnte daran festgemacht werden, dass über einen längeren Zeitraum eine Rendite oberhalb der Kapitalkosten erwirtschaftet wird, um potenzielles Wachstum auch angemessen mit dem dafür erforderlichen Kapital unterlegen zu können. Dabei ist zu berücksichtigen, dass gemäß dem CAPM volatilere Ergebnisse eine im Durchschnitt höhere Rendite erfordern. Vor diesem Hintergrund wird als Maßstab für den nachhaltigen Erfolg der gleitende Zehn-Jahresdurchschnitt der Eigenkapitalrendite im Verhältnis zur Ergebnisschwankung während dieser zehn Jahre um ihren Durchschnitt, gemessen an der Standardabweichung, vorgeschlagen. Dieses Maß wird in der Wirtschaftswissenschaft auch als Sharpe- bzw. Treynor-Ratio bezeichnet (vgl. etwa die Definition auf
© Der/die Autor(en), exklusiv lizenziert an Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2023 K. Leusmann, Nachhaltig erfolgreiches Bankmanagement, https://doi.org/10.1007/978-3-658-41929-5_5
89
90
5 Realitätskonformes, nachhaltiges Bankmanagement
Wikipedia). Mit dem Zeitraum von zehn Jahren wird man auch dem Umstand gerecht, dass in der Vergangenheit häufig zwischen den Gründen für Eskalationen bzw. Strafzahlungen und ihrem Auftreten bzw. ihrer Verhängung Zeitspannen von bis zu fünf Jahren vergangen sind. Die Unternehmensethik könnte grundsätzlich an Indikatoren für den Interessensausgleich der Stakeholder festgemacht werden. Wie bei der Entwicklung von Ratingsystemen wäre demnach in einem ersten Schritt eine Long-List an denkbaren Indikatoren zu erstellen, bei denen ein statistischer Zusammenhang zum nachhaltigen Erfolg zu prüfen wäre. Für die danach verbleibenden Kriterien mit einem nachgewiesenen Zusammenhang wäre dann im Rahmen einer multivariaten Analyse eine Gewichtig zu finden, bei welcher der Zusammenhang zum nachhaltigen Erfolg maximiert wird. Erste Versuche in dieser Richtung deuten darauf hin, dass wahrscheinlich Auswahl und Gewichtung der Ethikindikatoren nach Geschäftsmodellen unterschiedlich sind. Auf diese Weise bekäme man ein Ethik rating mit einer Kalibrierung bzw. Qualitätssicherung auf der Basis von Vergangenheitsdaten. Eine besondere Herausforderung besteht jedoch darin, den moralischen Fortschritt in der Form neuer Indikatoren für die Ethik zu integrieren, zum Beispiel in der Form von ESG-Kriterien, mit besonderem Schwerpunkt hinsichtlich der ökologischen Kriterien, weil hierfür die historische Datenbasis fehlt, um einen Zusammenhang mit dem nachhaltigen Erfolg statistisch zu belegen. Da man die ökologische Dimension der Ethik jedoch aufgrund ihrer für die Menschheit existenziellen Bedeutung nicht mehr vernachlässigen kann, wird darauf in Abschn. 5.1.3 separat eingegangen. Abschließend gilt es, die ethische Dimension in Form einer integrierten Steuerung in die Zielfunktion und die Anreiz- und Sanktionssystematik zu integrieren.
5.1.2 Ethikindikatoren Ethikindikatoren können nach den verschiedenen Paarungen von Stakeholdergruppen unterschieden werden. Abb. 5.1 gibt einen Überblick über denkbare Indikatoren für den Interessensausgleich zwischen Kunden und Bank. Abb. 5.1 Interessensausgleich Bank – Kunde. (Quelle: eigene Darstellung)
Indikatoren für Interessensausgleich Bank - Kunde •
• • • • • •
Anteil des realwirtschaftlich orientierten Geschäftes an der Bilanzsumme Anteil der Derivateumsätze mit realwirtschaftlichem Hintergrund Kundenzufriedenheit Kundenfluktuation (Rechtsberatungskosten + Strafzahlungen)/Verwaltungswand Interessenskonflikte ….
5.1 Stakeholder Value statt Shareholder Value
91
Den Anteil des realwirtschaftlich orientierten Geschäftes an der Bilanzsumme könnte man auch als Ausdruck der volkswirtschaftlichen Zweckorientierung des Geschäftsmodells interpretieren. In einer Outside-In-Betrachtung wäre sie vereinfacht messbar, indem man die Kundenkredite auf der Aktivseite mit den Kundeneinlagen auf der Passivseite vergleicht und die jeweils größere Position ins Verhältnis zur Bilanzsumme setzt. Beispielsweise weist die Deutsche Bank in ihrer Konzernbilanz von 2011 Kundenkredite in Höhe von 412,5 Mrd. € und Kundeneinlagen in Höhe von 601,7 Mrd. € aus. Demnach wäre die längere Einlagenseite durch die Bilanzsumme von 2.164,1 Mrd. € zu dividieren, was zu einer Quote für den realwirtschaftlichen Anteil an der Bilanzsumme von 27,8 % führt. Dieser Wert findet sich auch in der Tabelle von Abb. 3.1. In gleicher Weise wurden die Kennzahlen für die anderen dort angeführten Banken bzw. Aggregate von Banken ermittelt. Bei entsprechender Kenntnis interner Daten könnte man eine solche Kennzahl noch dadurch verfeinern, dass man bei den Krediten beispielsweise Wertpapierkredite oder Kredite an nicht realwirtschaftliche Kunden, wie beispielsweise Hedge-Fonds, herausrechnet. Wie die Tabelle in Abb. 3.1 zeigt, wird jedoch auch schon ohne diese Verfeinerung der signifikante Zusammenhang zwischen dieser Kennzahl und der Treynor-Ratio als Indikator für den nachhaltigen Erfolg deutlich. Damit würde sich dieser Indikator ausdrücklich für das Ethikrating empfehlen. Nachrichtlich sei angemerkt, dass die in dieser Tabelle im Vergleich zu den Volksbanken doppelt so hohe Ergebnisvolatilität bei den Sparkassen ausschließlich darauf zurückzuführen ist, dass die Auflösung von stillen Reserven auf Wertberichtigungen bei den Krediten bei den Sparkassen geschlossen in 2011 erfolgte, während sie bei den Volksbanken in unterschiedlichen Jahren erfolgte. Derartige Effekte sind natürlich bei der Interpretation der Ergebnisse bestmöglich zu berücksichtigen. Von vergleichbarer Intention ist der Anteil des realwirtschaftlich orientierten Derivateumsatzes am gesamten Derivateumsatz zu sehen. Als realwirtschaftlich können von realwirtschaftlichen Kunden zur Absicherung ihrer Geschäfte nachgefragte Derivate sowie Derivate zur Absicherung von Risiken der Bank selbst sein. Der übrige Derivatehandel dient im Zweifel der kurz- oder mittelfristigen Spekulation. Dass der spekulative Anteil am gesamten Derivategeschäft inzwischen deutlich größer ist als der realwirtschaftlich bedingte kann dadurch belegt werden, dass die von ihren Underlyings unabhängig handelbaren Derivate vom Volumen her inzwischen ein Vielfaches von den Underlyings betragen, die man damit absichern könnte. So kann mit Sicherheit davon ausgegangen werden, dass die Zinsderivate im Abschluss der Deutschen Bank von 2011 mit einem Nominalvolumen von 48,07 Billionen Euro bei einer Bilanzsumme von 2,16 Billionen Euro größtenteils nicht der Absicherung eigener Zinsänderungsrisiken dienen. Der spekulative Anteil des Derivategeschäftes ist deshalb ethisch fragwürdig, weil er, wie alle anderen spekulativen Geschäfte auch, in der Summe über die Beteiligten keine Werte schafft, sondern mindestens in Höhe seiner Betriebskosten Werte vernichtet und zudem zur Volatilität der Märkte beiträgt. Besonders kritisch ist es zu sehen, wenn Verluste aus Derivatespekulationen letztlich von den realwirtschaftlichen Kunden getragen werden müssen. Jüngstes Beispiel in Deutschland ist die ehemalige Volksbank Heilbronn, welche aus diesem Grunde in 2021 durch die Sicherungseinrichtung des Bundesverbandes der Volks- und R aiffeisenbanken aufgefangen wer-
92
5 Realitätskonformes, nachhaltiges Bankmanagement
den musste (vgl. Atzler und Votsmeier 2021). Vor dem Hintergrund, dass der realwirtschaftliche Anteil des Derivategeschäftes volkswirtschaftlichen Nutzen generiert, während der spekulative Teil insgesamt volkswirtschaftlichen Schaden generiert, ist es schwer zu verstehen, dass die Aufsicht keine Unterscheidung nach den beiden Verwendungszwecken verlangt. Würde man den spekulativen Teil auf das Mindestmaß begrenzen, welches für einen liquiden realwirtschaftlich orientierten Derivatemarkt erforderlich ist oder ggf. sogar den darüber hinaus gehenden Teil, sofern er denn unbedingt betrieben werden soll, haftungsmäßig kapseln, so würde im Zweifel nicht nur die Finanzstabilität gemäß der Definition des BMF verbessert, sondern auch die Abwicklungsfähigkeit von nicht zukunftsfähigen Geschäftsmodellen aufgrund geringerer wechselseitiger Verflechtungen. Nachdem die beiden betrachteten Kennzahlen auf den Anteil des realwirtschaftlich orientierten Geschäftes abzielen, geht es bei der Kundenzufriedenheit um die Qualität bei diesem Anteil des Geschäftes. Sofern die Kundenzufriedenheit regelmäßig in repräsentativen Stichproben erhoben wird, sollte vor dem Hintergrund der bei verschiedenen Banken relativ austauschbaren Standardprodukte (Laufendes Konto, Zahlungsverkehr, Sicht- und Spareinlagen) auch erhoben werden, was die relative Zufriedenheit bzw. Unzufriedenheit ausmacht (zum Beispiel Vertrauenswürdigkeit, Beratungsqualität, erzielte Renditen bei Anlageempfehlungen oder Vermögensverwaltungen), weil daraus für die Geschäftsmodellanalyse wertvolle Rückschlüsse zu relativen Stärken und Schwächen im Vergleich zur Konkurrenz gezogen werden können. Die Integration der Kundenzufriedenheit in die Leistungsbemessung beispielsweise der Kundenberater wird durchaus bereits in einigen Häusern mit Erfolg vollzogen, wodurch der Interessenskonflikt zwischen beispielsweise Provisionsmaximierung und Kundenzufriedenheit mit Erfolg entschärft wurde. Ein namhaftes Beispiel hierfür in Deutschland ist die Commerzbank. Ob die Kundenzufriedenheit als isolierter Jahreswert oder ggf. als Durchschnittswert mehrerer Jahre mit stärkerer Gewichtung der jüngeren Vergangenheit einfließen sollte, wäre im Einzelfall abzuwägen. Von grundsätzlich gleicher Intention sind die quantitativen Kennzahlen der Kundenfluktuation sowie der Rechtsberatungskosten und Strafzahlungen im Verhältnis zum gesamten Verwaltungsaufwand, die allerdings insofern einseitig sind, als sie nur auf die negative Seite der Kunde-Bank-Beziehung abzielen. Bei dem Punkt der Interessenskonflikte handelt es sich um einen Merkposten, unter dem man verschiedene, in Teilen geschäftsmodellspezifische, Aspekte untersuchen kann. Ein Beispiel hierfür wäre bei Ratenkreditanbietern der Anteil der ausgefallenen Kredite mit Privatinsolvenz der Kreditnehmer. Eine solche Kennzahl zielt auf den Interessenskonflikt der Berater zwischen dem Verkaufsziel an Ratenkrediten und der konservativ- kritischen Prüfung der Ratingkriterien, insbesondere der Haushaltsrechnung. Verschärft treten solche Interessenskonflikte bei so genannten „Point-of-Sale-Finanzierungen“ auf, wo neben dem Verkaufsziel der Ratenkredite auch noch das Verkaufsziel des finanzierten Konsumgutes relevant ist (Kraftfahrzeuge, Elektroartikel, Möbel etc.). Die Liste der denkbaren Indikatoren ist ausdrücklich nicht abschließend. Die Kunde-Bank-Beziehung hat eine besondere Bedeutung, weil sie doch den Kern der neuen bzw. ursprünglichen Zweckorientierung der Banken und somit Nachhaltigkeit ver-
5.1 Stakeholder Value statt Shareholder Value Abb. 5.2 Interessensausgleich Bank – Mitarbeiter/innen. (Quelle: eigene Darstellung)
93
Indikatoren für Interessensausgleich Bank – Mitarbeiter/innen • • • • • • • •
Führungskräftebeurteilung Mitarbeiterzufriedenheit CEO-Worker-Pay Ratio Mitarbeiterfluktuation Krankheitsstatistik Überstundenstatistik Weiterbildungstage/Mitarbeiter/in ………
körpert. Wie in Kap. 2 gezeigt wurde, ist die Wertorientierte Steuerung in der Form, dass die Kapitalrendite der Zweck ist und die Kunden das Mittel zum Zweck sind nicht nachhaltig, weil dann insbesondere auch Geschäfte zu Lasten der anderen Stakeholder oder Spekulationsgeschäfte kurzfristig als Mittel zum Zweck dienen, die sich langfristig als Nachteil erweisen. Nachhaltig ist vielmehr, wenn der Kunde bzw. die Stakeholder und damit die Menschen wieder zum Zweck werden und dabei auch die Kapitaleigner als Nebenbedingung angemessen entlohnt werden. Somit drücken diese Indikatoren aus, inwieweit die Mittel-Zweck-Beziehung vom Kopf wieder auf die Füße gestellt wurde. Abb. 5.2 zeigt mögliche Indikatoren für den Interessensausgleich zwischen Bank und Mitarbeiter/innen. Die Führungskräftebeurteilung durch die geführten Mitarbeiter/innen ist insofern von besonderer Bedeutung, als an dieser Kontaktstelle zwischen Bank und Mitarbeiter/innen der Interessensausgleich zu einem wesentlichen Teil gestaltet wird. Bei einer rein Wert orientierten Steuerung, deren primärer Zweck in der Maximierung des Shareholder Value liegt, wird in der Konsequenz „der Mensch als (emotionsloser) kostenintensiver Produktionsfaktor“ gesehen, „dessen Einsatz ausschließlich mit Blick auf den Unternehmenserfolg (im Sinne des kurzfristigen Shareholder Value, d. V.) optimiert werden muss“ (vgl. Leusmann 2013, S. 86). So gesehen bemisst sich die ökonomische Mitarbeiterleistung eines Kundenbetreuers bzw. einer Kundenbetreuerin an dem von ihm/ihr generierten DB 3 im Sinne des Deckungsbeitragsschemas aus Abb. 2.3. Er ist demnach analog dem Kunden in der Bank-Kunde-Beziehung Mittel zum Zweck der Shareholder-Value-Maximierung mit mutmaßlich der gleichen Nachhaltigkeitsproblematik. Auch wenn die Mitarbeiter/innen natürlich dem Unternehmenszweck dienen müssen, so steht die moderne, ethische Führungsphilosophie für eine zweistufige Zweckbetrachtung. „An erster Stelle steht der Mensch als Zweck an sich. In dieser Zweckbetrachtung sind Führungskraft und Geführter Menschen mit gleichen Menschenrechten, die es zwingend wechselseitig zu respektieren gilt. Erst an zweiter Stelle steht das Rollenverständnis von Vorgesetztem und Untergebenem.“ (vgl. Leusmann 2013, S. 86). Weiter heißt es danach an gleicher Stelle: „Innerhalb der (sekundären) Funktionsbetrachtung geht es um den angemessenen Ausgleich von Sachgerechtem und Menschengerechtem. Diese Sichtweise ist Voraussetzung für die Be-
94 Abb. 5.3 Nachhaltige Mitarbeiterleistung. (Quelle: eigene Darstellung)
5 Realitätskonformes, nachhaltiges Bankmanagement
These: Der nachhaltige Führungserfolg ist eine multiplikative Verknüpfung von Sinnstiftung und (kurzfrisitger) „Schlagzahl“
Ökonomische Mitarbeiterleistung (DB 3)
Nachhaltige, „sinnvolle“ Mitarbeiterleistung
Menschenwürde/ Sinnstiftung
antwortung der Sinnfrage, der Frage des Geführten danach, ob das was er innerhalb der Organisation tut, gut ist. Wenn es gut ist, ist er davon überzeugt und tut es gern und aus Leidenschaft, ist motiviert es noch besser zu machen und dient damit der gemeinsamen Sache am besten.“ Vor diesem Hintergrund wurde bei Leusmann 2013 auf Seite 85 die These aufgestellt, dass, analog zum nachhaltigen Unternehmenserfolg, die nachhaltige Mitarbeiterleistung eine multiplikative Verknüpfung der Faktoren „Ökonomische Mitarbeiterleistung“ (DB 3) und „Menschenwürde/Sinnstiftung“ ist (vgl. Abb. 5.3). Die Y-Achse korrespondiert mit der Y-Achse für den nachhaltigen Erfolg gemäß Abb. 3.4, die Menschenwürde/„Sinnstiftung“ wäre ein Indikator für die Ethik, der auf einen Zusammenhang mit dem nachhaltigen Erfolg zu prüfen wäre. Messbar wäre ein solcher Indikator über eine entsprechend differenzierte Führungskräftebeurteilung durch die geführten Mitarbeiter/innen. Hierfür wird im „Kulturwandel bei den Banken“ auf den Seiten 87 ff. ein Scoring-System mit drei Kategorien und jeweils drei konkreten Beurteilungskriterien vorgeschlagen, bei denen die einzelnen Kriterien mit Punkten auf einer Skala von 0 bis 10 Punkten bewertet werden. Bei den drei Kategorien handelt es sich um „Ziele und Orientierung“, „Ressourcen und Unterstützung“ sowie „Vertrauen, Förderung und Entwicklung“. Hinsichtlich der einzelnen Kriterien und ihrer Herleitung wird auf die angegebene Quelle verwiesen. Eine denkbare externe Quelle für eine allgemeine Mitarbeiterzufriedenheit wäre beispielsweise „Kununu“. Die CEO-Worker-Pay-Ratio gibt das Verhältnis der Einkünfte des CEO zum durchschnittlichen Einkommen der übrigen Mitarbeiter/innen an. Für die übrigen in Abb. 5.2 genannten möglichen Indikatoren für den Interessensausgleich Bank – Mitarbeiter/innen wird davon ausgegangen, dass sie weitgehend selbsterklärend sind. Denkbare Indikatoren für einen Interessensausgleich zwischen Bank und Staat/Gesellschaft wären zum Beispiel gezahlte Boni im Verhältnis zu gezahlten Steuern, ggf. abzüglich staatlicher Hilfen, als gleitender Durchschnitt über mehrere Jahre. Von besonderer Bedeutung beim Interessensausgleich mit der Gesellschaft ist sicherlich die Berücksichtigung ökologischer Aspekte in verschiedenster Hinsicht, wofür einfache, unabhängig messbare Indikatoren nicht offensichtlich sind. Eine besondere Herausforderung hinsichtlich ökologischer Aspekte besteht zudem im Nachweis eines statistischen Zusammenhangs zum nachhaltigen Erfolg, weil im Zweifel keine Datenhistorien für derartige Indikatoren zur Verfügung stehen. Von daher wird auf das gesellschaftlich relevante Thema der ökologischen Ausrichtung der Bank im folgenden Abschnitt separat eingegangen.
5.1 Stakeholder Value statt Shareholder Value
95
Abgesehen von der ökologischen Betrachtung des Geschäftsmodells wären, wie bereits erläutert nunmehr alle denkbaren Ethikkriterien auf der Long-List hinsichtlich ihres statistischen Zusammenhangs zum nachhaltigen Erfolg, analog dem Beispiel des realwirtschaftlich orientierten Anteils an der Bilanzsumme, zu überprüfen. Die danach verbliebenen Kriterien wären dann in einem Ethikrating so zu gewichten, dass der Zusammenhang zum nachhaltigen Erfolg maximal ist. Dieses Ethikrating wäre dann in die Ziel- und Steuerungssystematik zu integrieren.
5.1.3 Ökologische Ausrichtung der Bank Der Interessensausgleich zwischen Bank und Gesellschaft hinsichtlich der Ökologie hat in der jüngsten Vergangenheit einen ebenso dramatischen Anstieg der Bedeutung erfahren wie die Zunahme von Wetterextremen und Naturkatastrophen, die mit dem menschengemachten Klimawandel erklärt werden. Eine zunehmende Zahl von Philosophen spricht inzwischen von der beschleunigten Selbstausrottung der Menschen, wobei die Maxime der Akkumulation von Kapital bzw. der Gewinnmaximierung und das daraus resultierende Wachstumsdogma eine wesentliche Rolle spielen. Dabei beginnt sich der Interessenskonflikt zwischen kurzfristiger Gewinnmaximierung und der ökologischen Ausrichtung des Geschäftsmodells von Banken sukzessive dadurch aufzulösen, dass in zunehmendem Maße ökologische Verfehlungen zu konkreten ökonomischen Risiken für Banken führen, beispielsweise wenn finanzierte Investitionsgüter Brand- oder Flutkatastrophen zum Opfer fallen. Diese Entwicklung hat durch das Merkblatt der BaFin zum Umgang mit Nachhaltigkeitsrisiken vom 13.01.2020 noch eine deutliche Beschleunigung erfahren, auch weil mit diesem Papier die Risiken greifbarer bzw. transparenter gemacht und die aus aufsichtlicher Sicht erforderliche Integration der so genannten ESG-Risiken (Enviromental, Social and Governance) in das Risikomanagement verdeutlicht wurde. Wie bereits in Abschn. 2.5.1 zur Risikoinventur ausgeführt, gibt es insbesondere aufgrund fehlender Datenhistorien bzw. unzureichender Erfahrungen keine Standards zur Risikomessung und -steuerung. Vielmehr hofft die BaFin, dass sich für diese Risikofaktoren neue Methoden zu Ihrer Messung und Steuerung in der Praxis entwickeln. Gleichwohl empfiehlt sie im Sinne von „sollte“ eine explizite Behandlung des Themas in der Geschäfts- und Risikostrategie und auch eine Integration von Nachhaltigkeitszielen und Nachhaltigkeitsrisiken in die Vergütungssystematik (vgl. Merkblatt, Seiten 13 und 22). Vor diesem Hintergrund kann bis zur Entwicklung entsprechender Standards zur Bewertung und Steuerung dieser (insbesondere ökologischen) Risiken bzw. ihrer expliziten Analyse und Bewertung durch die Aufsicht, zum Beispiel im Rahmen des SREP, möglicherweise eine Befragung von Aufsichtsräten zu diesem Interessensausgleich in Form eines Punkte-Bewertungsschemas erfolgen. Gegenstand der Bewertung wären insbesondere der Umsetzungsstand der BaFin-Empfehlungen aus dem genannten Merkblatt. Voraussetzung ist natürlich eine vorhergehende Schulung des Aufsichtsrates zu diesem Themenkomplex sowie eine entsprechende Zielvereinbarung mit der Geschäftsleitung.
96
5 Realitätskonformes, nachhaltiges Bankmanagement
5.1.4 Ethikrating als Teil der Ziel- und Steuerungssystematik Üblicherweise werden in der Zielsystematik von Unternehmen drei Hierarchieebenen unterschieden. An der Spitze steht die Unternehmensphilosophie bzw. das Mission- Statement. Darauf aufbauend wird die Strategie entwickelt und laufend fortgeschrieben, in welcher festgelegt wird, mit welchen Produkten und Methoden man in welchen Segmenten was erreichen möchte. Im Rahmen der operativen Steuerung wird grundsätzlich das Wie und in welchen Teilschritten definiert. Der Fokus liegt auf dieser dritten Ebene also vor allem auf der Effizienz. In den Ausführungen bisher wurde verdeutlicht, dass für den nachhaltigen Erfolg die Mittel-Zweck-Beziehung wieder insofern auf die Füße zu stellen ist, als das Kapital dem Menschen dienen sollte und nicht umgekehrt der Mensch dem Kapital dient, weil es ansonsten zwangsläufig zu Fehlsteuerungen in der Form kommt, dass die Kapitalrendite (kurzfristig) zu Lasten anderer Stakeholder gepuscht wird, die dann ihrerseits eskalieren. Darüber hinaus hat die reine Gewinnmaximierung praktisch ein Wachstumsdogma zur Folge, welches hinsichtlich der ökologischen Konsequenzen inzwischen eine existenzbedrohende Bedeutung für die menschliche Spezies hat. Von daher sollten sich Kreditinstitute in der Unternehmensphilosophie bzw. dem Mission-Statement hinsichtlich der Mittel-Zweck-Beziehung für ihr Unternehmen bzw. ihre Bank klar erklären. Bemerkenswerterweise hat sich der ehemalige Vorstandssprecher der Deutschen Bank und Philosoph Alfred Herrhausen zu diesem Thema zeitlos, aber trotzdem klar geäußert: „An dem Tag, an dem die Manager vergessen, dass eine Unternehmung nicht weiter bestehen kann, wenn die Gesellschaft ihre Nützlichkeit nicht mehr empfindet oder ihr Gebaren als unmoralisch betrachtet, wird die Unternehmung zu sterben beginnen.“ (vgl. diverse Zitatesammlungen im Internet). Um nicht im rein Abstrakten zu verbleiben, könnte beispielsweise ein klares Bekenntnis zum realwirtschaftlich orientierten Geschäft, inklusive einer klaren Beschränkung im Eigenhandel als Umkehrschluss, erfolgen. Auch kann oder besser sollte an dieser Stelle bereits das Bekenntnis dazu erfolgen, dass sich die Unternehmensleistung, die Unternehmensziele, sowie ihre Steuerungssystematik an dieser Mittel- Zweck-Beziehung und dem Interessensausgleich der Stakeholder orientieren. Das so definierte Mission-Statement bildet den Rahmen für die (Weiter-) Entwicklung der Strategie, u. a. auch in der Form einer Definition bzw. Abgrenzung des strategiekonformen Geschäftes. Auf die weitere Ausgestaltung der strategischen Dimension wird in Abschn. 5.3 eingegangen. Der mit dem Ethikrating angestrebte Interessensausgleich muss sich auch in der internen Steuerungssystematik sowie der Anreiz- und Sanktionssystematik wiederfinden, da er ansonsten nicht verhaltensrelevant wird. Aufgrund der unterschiedlichen quantitativen und qualitativen Kennzahlen, die in ihrer ausgewogenen Kombination den nachhaltigen Erfolg sichern sollen, bietet sich dafür das Instrument der Balanced Scorecard (BSC) an. „Bei der Balanced Scorecard handelt es sich um ein von den Amerikanern R. S. Kaplan und D. P. Norton in den Neunzigerjahren des vergangenen Jahrhunderts konzipiertes Steuerungsinstrument zur Umsetzungs- und Erfolgskontrolle von Unternehmensstrategien.“ (vgl. Leusmann 2013, S. 96). Durch die Verknüpfung vom Ergebnis und seinen angenommenen und strategisch in den Blick genommenen Einflussfaktoren sollte nachgehalten werden, ob
5.1 Stakeholder Value statt Shareholder Value
97
und inwieweit sie die gewünschte Ergebniswirkung zeigt. Die verschiedenen Indikatoren bzw. Einflussfaktoren für den Umsetzungsstand und den Erfolg der Strategie werden dabei üblicherweise in verschiedenen Kategorien einsortiert, die auch als „Perspektiven“ bezeichnet werden. Die klassischen Perspektiven sind dabei üblicherweise die Finanzperspektive, die Kundenperspektive, die Prozessperspektive und die Potenzialperspektive. Die Finanzperspektive soll am Ende der Wirkungskette zeigen, ob das gewünschte Ergebnis eingetreten ist. Sie ist damit immer gesetzt, während die übrigen Perspektiven je nach Zweck, Geschäftsmodell und Fokus variieren können. Grundsätzlich sind auch mehr als vier Perspektiven denkbar, wobei aufgrund der Praktikabilität jedoch enge Grenzen gesetzt werden sollten. Scorecards werden dabei nach Möglichkeit für jede Organisationseinheit definiert und über die Hierarchieebenen verdichtet, bis zur Scorecard für das Gesamtunternehmen. Dabei weisen die Scorecards für unterschiedliche Typen von Organisationseinheiten auch unterschiedliche Kennzahlen aus, je nach Funktion der Organisationseinheit. Gleiche Typen von Organisationseinheiten (zum Beispiel Privatkundenfilialen gleicher Art) haben hingegen identische Scorecards. Eine Gesamtbank-Scorecard, in welche die ethische Erfolgsdimension integriert wurde, könnte in der Ergebnisspalte folgende Kennzahlen aufweisen: Treynor-Ratio (bezogen auf einen Zeitraum von zehn Jahren), Eigenkapitalrendite, Wertbeitrag, Ethikrating sowie eine Kennzahl für das Risiko, die in Abschn. 5.2 aufgegriffen wird. Die Treynor-Ratio ist praktisch die oberste Zielkennziffer für den nachhaltigen Erfolg, die sich entsprechend der These aus Abb. 3.4 aus der multiplikativen Verknüpfung von Kapitalrendite und Ethikrating ergibt. Das Ethikrating wurde ja praktisch auf die Maximierung des Zusammenhangs zum Nachhaltigen Erfolg hin entwickelt und kalibriert. Die zweite Perspektive könnte die Stakeholder-Perspektive sein. Hier würden sich auch die steuerungsrelevanten Ethikindikatoren wiederfinden, wie der Anteil des realwirtschaftlichen Geschäftes an Bilanzsumme und Derivateumsatz bzw. -bestand, die Kundenzufriedenheit, die Mitarbeiterzufriedenheit etc. Die beiden weiteren Perspektiven könnten Prozesse/Qualität und Potenzial sein, die weitere Einflussfaktoren aus der Unternehmensstrategie berücksichtigen. Abb. 5.4 zeigt exemplarisch eine solche Gesamtbank-Scorecard.
Scorecard Gesamtbank Ergebnis • • • • •
Treynor-Ratio Eigenkapitalrendite Wertbeitrag (DB3) Ethikrating Fragilität
Prozesse
Stakeholder • • • • •
Anteil realwirtschaftliches Geschäft Kundenzufriedenheit MA-Zufriedenheit FK-Beurteilung ….
• • •
Anteil Online Kundenbeziehungen …..
Potenzial • • •
Abb. 5.4 Balanced Scorecard Gesamtbank. (Quelle: eigene Darstellung)
Anzahl NettoNeukunden im Segment xy Neugeschäft Projektfinanzierungen ……
98
5 Realitätskonformes, nachhaltiges Bankmanagement
Die erste Ebene unterhalb der Gesamtbankebene wäre die Ebene der Geschäfts- und Zentralbereiche. Die Scorecards der Bereiche werden sich sowohl gegenüber der Gesamtbank- Scorecard als auch gegenüber denen der anderen Bereiche unterscheiden. Beispielsweise wird sich das Ethikrating der Gesamtbank-Card so auf der Bereichsebene nicht wiederfinden, weil die jeweiligen Bereiche nur einen Teil oder gar nur wenige Ethikindikatoren beeinflussen können. So machen die Anteile des realwirtschaftlichen G eschäftes an der Bilanzsumme oder dem Derivateumsatz bei den Kundengeschäftsbereichen keinen Sinn. Sofern ihnen nicht unglücklicherweise „Schattenbanken“ zugeordnet sind, müsste die Quote im Grunde praktisch bei 100 % liegen. Auch beim Treasury macht diese Kennzahl in der Form keinen Sinn. Hier würde stattdessen bei einer Limitierung des Eigenhandels eine entsprechende Limitsystematik Sinn machen oder aber nach einem Kulturwandel mit beschlossener Abkehr vom überproportionalen Eigenhandel entsprechende Abbauziele von Altbeständen. Auch würde beim Treasury eine Kundenzufriedenheit hinsichtlich externer Kunden keinen Sinn machen. Eine Kennzahl, die in nahezu allen Organisationseinheiten vorkommen müsste, wäre die Mitarbeiterzufriedenheit oder alternativ die Führungskräftebeurteilung. Die unterste Ebene in den Kundengeschäftsbereichen könnten entweder ein Kundenbetreuerteam oder gar der einzelne Kundenbetreuer sein. Die Karte eines Privatkundenbetreuers oder eines Privatkundenbetreuerteams könnte zum Beispiel folgendermaßen aussehen (vgl. Abb. 5.5). Die fett geschriebenen Kennzahlen der beiden ersten Spalten bilden praktisch die beiden Dimensionen des nachhaltigen Erfolgs. Die Führungskräftebeurteilung macht natürlich nur auf der Teamebene Sinn. Dadurch, dass beide Dimensionen Teil der Leistung des Teams sind, ist das Ergebnis auch im Sinne der Nachhaltigkeit „balanced“. Ein Praxisbeispiel für eine solche Zielvereinbarung mit Kundenbetreuern ist die Commerzbank AG, die nach einer Zeit mit zahlreichen Kundenbeschwerden die Kundenzufriedenheit bei der Beurteilung der Gesamtleistung zu einem wesentlichen Faktor definiert hat. In den beiden anderen Perspektiven stehen lediglich denkbare Kennzahlen, die aus der Strategie abgeleitet sein könnten. Diese Karte müsste bei allen anderen (gleichartigen) Privatkundenteams
Privatkundenbetreuerteam xy Ergebnis
•
Wertbeitrag (DB3)
Stakeholder
• •
• Kundenzufriedenheit FK-Beurteilung
Prozesse
Anteil Online Kundenbeziehungen
Abb. 5.5 BSC Privatkundenbetreuerteam. (Quelle: eigene Darstellung)
Potenzial
• •
Anzahl NettoNeukunden mit Gehaltskonten Neugeschäft Baufinanzierungen
5.2 Fragilitätsmanagement statt Risikomessung
99
identisch sein. Die insgesamt sechs Ziele sind dabei durchaus ausreichend, weil bei zu vielen Zielkennziffern der Fokus verloren geht. Anders ausgedrückt, wenn alles wichtig ist, gibt es zwangsläufig keine Prioritäten mehr. Bei Service-Centern kann selbstverständlich in der Ergebnisspalte kein DB 3 oder eine Rentabilitätskennziffer stehen. Bei einer Stückkostenverrechnung, wie im zweiten Kapitel beschrieben, könnte hier jedoch ein Produktivitätsergebnis ausgewiesen werden. In der Stake holder-Spalte würde die Führungskräftebeurteilung stehen und in den beiden anderen Spalten wiederum Kennzahlen, die aus der Strategie abgeleitet wurden. Allen Scorecards unterhalb der Gesamtbankebene sollte jedoch gemeinsam sein, dass die in ihnen enthaltenen Kennzahlen in einer Ursache-Wirkungs-Beziehung zu den Kennzahlen auf der Gesamtbank ebene stehen. In der Konsequenz müssten sich das Ethikrating, das Ergebnis der Periode und die Treynor-Ratio und damit der nachhaltige Erfolg grundsätzlich in die richtige Richtung bewegen. Befördert werden kann diese Entwicklung dadurch, dass die Ergebnisse gemäß Scorecard mit der Anreiz- und Sanktionssystematik verknüpft werden.
5.2 Fragilitätsmanagement statt Risikomessung 5.2.1 Risiko und Intuition Wie an verschiedenen Stellen bisher erläutert, sind Risiken im Sinne potenzieller Schäden aufgrund ungewisser Ereignisse in der Zukunft nicht prognostizierbar, insbesondere weil sie vom zukünftigen, vernetzten Handeln weniger oder vieler Menschen abhängig sind, welches unendlich komplex und damit nicht prognostizierbar ist. In Abschn. 3.5 wurden drei Methoden zur Antizipation der Zukunft vorgestellt: Theorien, Modelle und die Intuition. Theorien und Modelle zeichnen sich dadurch aus, dass sie durch Beobachtung der Entwicklung eines zu verstehenden Objekts versuchen Prinzipien zu erkennen und daraufhin die Zukunft zu prognostizieren. Während es bei Modellen auf der Basis einer stark vereinfachten Wirklichkeit oder in Form von Analogien erfolgt, erfolgt es bei Theorien durch die Beobachtung der Wirklichkeit. Beide Methoden können in ihren Prognosen grundsätzlich zu befriedigenden Ergebnissen kommen, wenn die zugrunde liegenden Prinzipien unbedingt gelten, wie beispielsweise bei Naturgesetzen oder Ungewissheiten, welche den Gesetzen aus „Mediokristan“ unterliegen. Bei den echten Ungewissheiten, die vom nicht prognostizierbaren, vernetzten menschlichen Handeln abhängig sind, müssen sie zwangsläufig versagen, insbesondere aufgrund der Möglichkeit unerwarteter oder gar bis dahin undenkbarer Extremereignisse. Gerd Giegerenzer hat in seinem Werk „Bauchentscheidungen – Die Intelligenz des Unbewussten und die Macht der Intuition“ dargelegt, dass gerade im Bereich der echten Ungewissheiten sich die Intuition als oftmals beste Methode zur Antizipation der Zukunft erweist und auch Erklärungsansätze dafür geliefert. Er erklärt die Intuition als eine Kombination von Heuristiken bzw. „Faustregeln“ sowie evolvierten Fähigkeiten zur Auswahl der richtigen Faustregel einschließlich der Entscheidung ihrer Anwendung im konkreten Fall. Dabei seien
100
5 Realitätskonformes, nachhaltiges Bankmanagement
die Faustregeln teilweise genetisch verankert, teilweise aber auch aus Erfahrungen erlernt bzw. geprägt. Die Auswahl der passenden Faustregel sowie die Entscheidung über ihre Anwendung ist das, was er als „unbewusste Intelligenz“ bezeichnet (vgl. Giegerenzer 2008, S. 56–58). Die Erklärung, warum derartige Intuitionen in der Prognose oftmals besser sind als komplexe Erklärungsansätze oder Modelle von Experten sieht er vor allem darin, dass komplexe Strategien und Modelle zu viel in der Rückschau erklären, aber nicht alle Details in der Rückschau auch für die Zukunft relevant sind und damit zwangsläufig in der Prognose scheitern. Klassische Beispiele sind die üblichen volkswirtschaftlichen Prognosen, Prognosen von Aktienkursen, Zinsen und, wie gerade erlebt, die Prognosen von Inflationsraten. Vereinfacht gesagt: Je detaillierter die Postgnostik, umso unsicherer die daraus abgeleitete Prognostik. Er verdeutlicht diese in vielen Versuchen bestätigte These anhand eines sehr eingängigen Beispiels: Man zeichne die Tagestemperaturen in New York täglich zu einer bestimmten Zeit über insgesamt 365 Tage auf und nehme sie als Prognose für das darauffolgende Jahr. Es ist davon auszugehen, dass eine derart detaillierte Postgnostik in ihrer genauso detaillierten Prognostik weitgehend falsch liegt (vgl. Giegerenzer 2008, S. 162). Übertragen auf die Prognose von Risiken bedeutet das, dass Intuitionen im Rahmen der Fragilitätsanalyse bei Risikoassessments oder auch der Entwicklung von Stressszenarien deutlich hilfreicher sind als die Annahme der Wiederholung der Vergangenheit. Von Bedeutung ist diese „natürliche Risikosensitivität“ gerade bei der Erkennung von Risiken, die in der bisherigen Vergangenheit noch nicht schlagendgeworden sind bzw. beim Denken des bisher Undenkbaren. Zudem kann diese Fähigkeit im Rahmen der Entwicklung der Risikokultur über alle Ebenen und Organisationseinheiten „trainiert“ werden (vgl. dazu Abschn. 5.4).
5.2.2 Fragilität versus Risikotragfähigkeit In Abschn. 3.2 wurde erläutert, dass das Konzept der Risikotragfähigkeit nicht funktionieren kann, weil es die Risiken der Zukunft mit den Volatilitäten der Vergangenheit vertauscht, nur um Aussagen zur Eintrittswahrscheinlichkeit aus den Häufigkeiten der Vergangenheit ableiten zu können. Da die Zukunft jedoch grundsätzlich keine Wiederholung der Vergangenheit ist, müssen die Risiken in der der Zukunft gesucht werden. Da für die ungewisse, von Menschen beeinflusste Zukunft keine Eintrittswahrscheinlichkeiten ermittelt werden können, können potenzielle Schäden nur ohne Eintrittswahrscheinlichkeiten durch „Wenn-Dann-Simulationen“ ermittelt werden. Dabei können auch Szenarien simuliert werden, die es in der Vergangenheit noch nicht gegeben hat, die jedoch denkbar sind. Was per Definition nicht simuliert bzw. berücksichtigt werden kann, ist das „Undenkbare Unbekannte“, wofür sich auch der Begriff des „Schwarzen Schwans“ oder der „Unkown Unkowns“ etabliert hat. Dieser Zusammenhang soll in Abb. 5.6 am Beispiel des Cyber-Risk veranschaulicht werden. Von der Erfahrung her können die bereits in der Vergangenheit so oder so ähnlich schon erlebten „Known Knowns“, die noch nicht erlebten aber denkbaren „Kown Unkowns“ und die bereits erwähnten „Unknown Unknowns“ als das undenkbare Unbekannte unterschie-
5.2 Fragilitätsmanagement statt Risikomessung
101
data avilable
CAUSE
parameter to estimate
External Effect EXPIRIENCE
try to create new scenarios
Mistake
Attack OBJECT
Hardware
Software/AI
Unknown Unknowns Known Unknowns Known Knowns
Data Cyber Risk - 44
Abb. 5.6 Risikowürfel Cyber Risk. (Quelle: eigene Darstellung)
den werden. Vom Objekt her können sich die Risiken auf die Daten, die Software bzw. Künstliche Intelligenz oder die Hardware beziehen. Auslöser des Risikos kann eine Attacke, der Fehler eines oder mehrerer Mitarbeiter/innen oder ein externer Effekt, wie Lieferkettenstörungen bei der Hard- oder Software oder eine Überflutung des Rechenzentrums sein. Nur für die graue Schicht der „Known Knowns“ von diesem Würfel liegen überhaupt ausreichend Daten aus der Vergangenheit vor. Gerade bei dieser noch relativ jungen Risikounterart vom Operational Risk ist jedoch nachvollziehbar, dass im Zweifel die hell blauen und dunkelblauen Anteile des Würfels wesentlich gefährlicher im Sinne höherer Schadenspotenziale sind. Während man für die hellblaue Schicht Stresstests durchführen kann, ist das für die „Unknown Unknows“ per Definition nicht möglich. So war auch der Zusammenbruch des amerikanischem Immobilienmarktes als Auslöser für die Finanzmarktkrise in den Jahren davor (mindestens bis 2006) für fast alle Banken noch Teil des Undenkbaren Unbekannten und somit auch nicht Gegenstand zum Beispiel von Stresstests. Bezüglich der Schicht dieser Unknown Unkowns besteht somit nur die Möglichkeit, sie dadurch zu reduzieren, dass unter Zuhilfenahme externer Experten durch Entwicklung neuer denkbarer Szenarien die dunkelblaue Schicht zugunsten der hellblauen Schicht verringert wird. Über die Ermittlung der potenziellen Schäden wird praktisch die Fragilität der Bank bezüglich dieser Ereignisse deutlich. Die Fragilität kann durch entsprechende Maßnahmen grundsätzlich verringert werden. Das Erreichen des Nullpunktes einer solchen Fragilitätsskala würde hinsichtlich der denkbaren Schäden absolute Robustheit bedeuten. Welche Robustheit man sich bezüglich welcher Szenarien zu welcher Zeit leisten kann und will ist demnach ein wesentlicher Teil eines zukunftsbezogenen Risikomanage-
102
5 Realitätskonformes, nachhaltiges Bankmanagement
ments und wird in den weiteren Abschnitten wieder aufgenommen. Was an dieser Stelle verdeutlicht werden soll ist der grundsätzliche Unterschied eines zukunftsorientierten Risiko- bzw. Fragilitätsmanagements im Gegensatz zu einer vergangenheitsorientierten Risikotragfähigkeit, die erfahrungsgemäß bezüglich der in der Zukunft liegenden Risiken zu irreführenden Schlussfolgerungen kommt.
5.2.3 Fragilitätsanalyse 5.2.3.1 Überblick Der Risikoidentifizierungs- und -analyseprozess hat demnach weniger mit Statistik als mit Kreativität, Risikosensibilität, Analyse und Frühwarnsystematik zu tun. Auch die Aufsicht hat den Bedarf erkannt und setzt neben der klassischen (zweidimensionalen) Risikotragfähigkeit auf ergänzende Analysen und Tests. Abb. 5.7 soll dazu einen Überblick geben. Das Ethikrating als zweite Dimension des nachhaltigen Erfolges und seine Entwicklung wurde bereits erläutert. Wenn es hier in diesem Zusammenhang noch einmal angeführt wird, dann deshalb, weil ein Geschäftsmodell, welches auf den Interessenausgleich zwischen den Stake holdern achtet im Sinne der Fragilität deutlich robuster sein muss, weil kein Stakeholder einen Grund zur Eskalation bekommen dürfte. Dabei erstreckt sich die gewonnene Robustheit über viele der Risikoarten, die in der Long List von Abb. 2.17 angeführt wurden, vom Conduct Risk über Rechts- und Reputationsrisiken bis hin zu den Ertragsrisiken. Auf die Geschäftsmodellanalyse wird noch separat eingegangen. Dass sie hier ebenfalls angeführt wird ist dem Umstand geschuldet, dass sie zusammen mit der darauf aufbauenden Geschäftsmodellentwicklung auf die Reduktion der Strategischen Risiken zielt, also einer Risikoart, welche von der klassischen Risikotragfähigkeit nicht erfasst wird. Hinsichtlich der Risikokultur wird bereits durch die bisherigen Beschreibungen eines „New Risk Management“ deutlich, dass die Risikosensibilität als we-
SREP (Supervisory Review and Evaluation Process)
Verbesserte/ erweiterte Stresstestsystematik Risk Assessments Neue Risikoarten (ESG/Cyber-Risk)
MaRisk (5. Novelle) plus BAIT plus Bafin-Merkblatt Nachhaltigkeitsrisiken (ESG)
Frühwarnsystematik
New Riskmanagement GeschäftsmodellAnalyse und -entwicklung
Nachhaltigkeit/ Ethikrating
§ 25 c, d KWG (Verschärfte Anforderungen an die Sachkunde von GL und Kontrollorgan)
Abb. 5.7 Fragilitätsanalyse. (Quelle: eigene Darstellung)
Risikokultur (inkl. Anreiz- und Sanktionsmechanik)
5.2 Fragilitätsmanagement statt Risikomessung
103
sentlicher Teil der Risikokultur und damit auch die Früherkennung entscheidende Erfolgsfaktoren im Risikomanagement sind. Von daher wird der praktischen Entwicklung einer gewünschten Risikokultur ebenfalls ein separater Abschnitt gewidmet. Die anderen Aspekte sollen an dieser Stelle näher erläutert werden.
5.2.3.2 Assessments/Neue Risikoarten Das Instrument des Risikoassessment hat in der Praxis des Risikomanagements insbesondere bei den Operationalen Risiken eine besondere Bedeutung erlangt, weil diese Risikoart aufgrund ihrer Heterogenität und dynamischen Entwicklung (zum Beispiel Cyber Risk, Verhaltensrisiken) sowie der dadurch bedingten eher mangelhaften Datengrundlage weniger gut durch die klassischen statistischen Modelle abgedeckt werden kann. Das Management des Operational Risk ist üblicherweise so geregelt, dass es eine zentrale Zuständigkeit im Risikocontrolling gibt und dezentrale Zuständige/Experten in den jeweiligen Organisationseinheiten (first and second line os defense). Während das zentrale Risikocontrolling für Methoden und Prozesse zuständig ist, sind die dezentralen Experten für die Erfassung und das Management der Risikoquellen in ihren Organisationseinheiten verantwortlich. Im Rahmen der mindestens einmal pro Jahr durchzuführenden Risikoinventur wird, zentral gesteuert durch das Risikocontrolling, auch ein Assessment für die Operationellen Risiken durchgeführt. Dabei werden in den jeweiligen Organisationseinheiten in Zusammenarbeit von zentralen und dezentralen Op-Risk-Verantwortlichen, ggf. auch unter Hinzuziehung weiterer interner und/oder externer Experten, potenzielle Gefahrenquellen erfasst hinsichtlich möglicher Eintrittshäufigkeit und potenzieller Schadenshöhe klassifiziert und in einer sogenannten „RiskMap“ zusammengefasst. Abb. 5.8 zeigt schematisch eine solche Risk-Map. In dieser schematischen Risk-Map wurden die denkbaren Risiken nach Schadenshöhe und Schadenshäufigkeit einsortiert. Links oben befinden sich die Risiken der Kategorie „Low Impact – High Frequency“, während sich unten rechts die Risiken der Kategorie „High Impact – Low Frequency“, also die seltenen Extremereignisse, befinden. B eispielsweise könnte es sich
Schadenshäufigkeit Sehr hoch
R1
Hoch Mittel bis hoch
R6 R3
R7
R2
Mittel
R5
Gering
R4
Sehr gering Sehr gering
Gering
Mittel
Mittel bis hoch
Hoch
Sehr hoch
Schadenshöhe
Abb. 5.8 Risk-Map für Operationelle Risiken. (Quelle: eigene Darstellung in Anlehnung an zebAkademie)
104
5 Realitätskonformes, nachhaltiges Bankmanagement
bei dem Risiko „R 1“ um Schäden aus dem so genannten „Phishing“, also dem Erschleichen und Missbrauchen von PIN- oder TAN-Codes von Kunden handeln. Bei dem Risiko R 4 könnte es sich um einen gravierenden Verlust sensibler Daten oder um einen gravierenden und länger dauernden Systemausfall handeln. Das Erkennen und Klassifizieren potenzieller Gefahren ist ein eher kreativer Prozess, der eine hohe Risikosensibilität erfordert. Dieses hohe Level an Risikosensitivität kann sowohl durch eine entsprechende Risikokultur im Unternehmen als auch durch das Hinzuziehen externer Experten gestärkt werden. Im Idealfall kann durch ein entsprechendes Zusammenwirken der Betroffenen, flankiert von ebenso kreativen Stresstests, bei entsprechenden kulturellen Rahmenbedingungen die Schicht des „Undenkbaren Unbekannten“ aus Abb. 5.6 reduziert werden. Im Nachgang zur ersten Klassifizierung sollten für alle wesentlichen Gefahrenquellen Risikotreiber identifiziert werden, die als Basis für ein Frühwarnsystem dienen. Dabei werden für die entscheidenden Risikotreiber abgestufte Schwellenwerte definiert, bei denen jeweils zu definierende Maßnahmen ergriffen werden. Auch wenn auf die Stresstests und die kulturelle Dimension noch separat einzugehen ist, wird bereits deutlich, dass dieser Prozess der Risikoanalyse sich weniger mit der Vergangenheit als mit der Zukunft beschäftigt. Er beschäftigt sich also mit den Ursachen von Risiken, den ungewissen aber möglichen Ereignissen in der Zukunft. Neben den heterogenen und sich dynamisch entwickelnden Unterarten der Operationellen Risiken wie zum Beispiel dem Cyber Risk, ist dieses Vorgehen (Assessment, Stresstests, Frühwarnsystem etc.) bei entsprechenden kulturellen Rahmenbedingungen insbesondere auch bei den ESG-Risiken entscheidend, weil auch für diese Risiken kaum brauchbare Datenhistorien zur Verfügung stehen. Wenn man sich die diversen Schieflagen und Pleiten von Banken in Verbindung mit den genannten Summen an Strafzahlungen vor Augen führt, so wird deutlich, dass ein Großteil dieser Schieflagen letztlich durch Operationelle Risiken verursacht oder zumindest wesentlich mit verursacht wurde. Dieses gilt zum Beispiel für die Sachsen LB, die Bayern LB, die HSH-Nordbank, die HRE, die IKB, Greensill, die Volksbank Heilbronn und letztlich auch für den entscheidenden Vertrauensverlust bei der Credit Suisse. In diesem Zusammenhang drängt sich die Frage auf, warum diese Krisen wesentlich durch heterogene Operationelle Risiken getrieben wurden, während sich das Risikomanagement aufgrund mangelhafter Datenhistorien für diese Risiken mehr mit der Feinsteuerung der Financial Risks auseinandergesetzt hat. Eine wesentliche Erklärung dafür scheint ein „Blinder Fleck“ im Management der Operationellen Risiken zu sein, der das Conduct Risk des Bankmanagements selbst betrifft. Wenn beispielsweise der Vorstand der Sachsen LB die Warnungen bezüglich der Unglaubwürdigkeit der Ratings für Subprime-Verbriefungen aus der eigenen Kreditabteilung ignoriert und trotzdem über eine irische Tochter, unter dem Radar der heimischen Bankenaufsicht mit über 40 Mrd. € „spekuliert“, dann handelt es sich wohl um ein klassisches Conduct Risk, welches sich nicht in der Op-Risk-Map der Vorjahre als Risiko findet. Gleiches gilt zum Beispiel auch für den politischen Druck auf den Vorstand der Bayern LB hinsichtlich des Kaufs der Hypo Alpe Adria, die Omega-Geschäfte der HSH Nordbank oder die immense Häufung von Strafzahlungen für vermeintliche „Einzelfälle“, gerade in großen Universal- und Investmentbanken. Dieser „Blinde Fleck“ kann letztlich nur über die kulturelle Dimension im Zusammenwirken mit dem bereits angeregten Ethikrating geheilt werden.
5.2 Fragilitätsmanagement statt Risikomessung
105
5.2.3.3 Verbesserung der Stresstestsystematik Stresstests dienen dazu, denkbare Belastungssituationen zu simulieren und hinsichtlich ihrer Auswirkungen auf ungeplante Verluste zu untersuchen. Sie werden in verschiedener Form von der Bankenaufsicht gefordert, zusätzlich zur dualen Risikotragfähigkeit, und führen ggf. zu einer zusätzlichen Kapitalempfehlung, der bereits beschriebenen „Pillar 2 Governance“ (P2G). Offenbar ist die Bankenaufsicht von der „Dualen Risikotragfähigkeit“ nicht soweit überzeugt, dass sie weitere Analysen für entbehrlich hält. Grundsätzlich können hinsichtlich verschiedener Kriterien unterschiedlichste Arten von Stresstests unterschieden werden. So gibt es hinsichtlich der bisherigen Erfahrungen historische und hypothetische Stresstests. Bei den hypothetischen Stresstests werden Szenarien simuliert, die es in der Form bisher noch nicht gegeben hat, was ein entscheidender Vorteil gegenüber der ökonomischen Risikotragfähigkeit ist. Ein Spezialfall der hypothetischen Stresstests ist der inverse Stresstest, bei dem extrem ungünstige aber dennoch denkbare Szenarien soweit simuliert werden, bis sie zum Zusammenbruch der Bank führen. Bei der Entwicklung von Flugzeugen wird zum Beispiel ein inverser Stresstest in der Form betrieben, dass ein Flügel in einer Werkshalle so weit gebogen wird, bis er bricht, um seine Maximalbelastung zu ermitteln. Sollte später im Einsatz zum Beispiel aufgrund von extremen Turbulenzen ein beunruhigender Prozentsatz dieser Maximalbelastung erreicht werden, kann beispielsweise ein Alarmsystem die Besatzung auffordern, diesen Bereich (Höhe oder Region) zu verlassen, bevor es zur Katastrophe kommt. Auch der inverse Stresstest in Banken kann zur (Weiter-) Entwicklung entsprechender Frühwarnsysteme genutzt werden. Darüber hinaus können univariate (für einzelne Risikoparameter bzw. Risikoarten) und multivariate, institutsübergreifende und institutsindividuelle, vorgeschriebene und freiwillige Stresstests unterschieden werden. Ein bekannter univariater Stresstest ist beispielsweise der so genannte „Baseler Zinsschock“, bei dem der Eigenkapitalverzehr bei einer Overnight-Verschiebung der Zinsstrukturkurve von +/− 200 Basispunkten ermittelt wird. Ein anderes Beispiel für einen univariaten Stresstest wäre der Anstieg von erwartetem und unerwartetem Verlust aus dem Kreditportfolio, wenn sich das Rating aller Kredite um ein Notch verschlechtern würde. Ähnlich wie beim Op-Risk- Assessment ist auch hier Kreativität bzw. Risikosensibilität gefragt, um denkbare aber bisher noch nicht erlebte Gefahren in ihrer Entwicklung zu erkennen, in ihren Auswirkungen einzuschätzen und erforderlichenfalls gegensteuern zu können. Die Absicht geht demnach schon in die Richtung, die Nachteile der Vergangenheitsorientierung bei der ökonomischen Risikotragfähigkeit auszugleichen und ist zudem ein Ausdruck dafür, dass man der ökonomischen Risikotragfähigkeit allein nicht traut. Gleichwohl gibt es aufgrund der dynamischen Entwicklung bei den ökonomischen, ökologischen und politischen Rahmenbedingungen wie auch neuer Risikoarten erhebliches Verbesserungspotenzial. Werden beispielsweise Stressszenarien nicht von der Aufsicht vorgegeben, so besteht ein Anreiz darin, den Stresstest insoweit „von hinten aufzuziehen“ als das mehr oder weniger komfortable Bestehen vorgegeben und daraufhin das Szenario entwickelt wird (bekannt aus vertraulichen Gesprächen). Ein weiterer Nachteil besteht bei einer Vielzahl von Stresstests darin, dass zwar bei vielen hypothetischen Stresstests die Szenarien neu sind, aber die Kalkulation der Auswirkungen
106
5 Realitätskonformes, nachhaltiges Bankmanagement
statisch bzw. vergangenheitsorientiert erfolgt. Wenn beispielsweise die Auswirkungen einer Ratingverschlechterung auf den erwarteten und unerwarteten Verlust in einem Kreditportfolio untersucht werden, dann geschieht das auf der Basis der Portfoliostruktur zu diesem Zeitpunkt, die implizit als konstant unterstellt wird, aber sich im Zweifel zum Zeitpunkt des Eintritts der Ratingverschlechterung völlig anders darstellt. Auch bei theoretisch konstanter Portfoliostruktur können sich die Verluste anders entwickeln, als sie sich in der Vergangenheit bei gleichstarker Ratingverschlechterung verändert haben, insbesondere auch weil sich die Korrelationen zwischen den Kreditnehmern laufend verändern. Von daher müssten in Abhängigkeit von konkreten denkbaren Szenarien eigentlich auch die entsprechenden Veränderungen der Portfoliostruktur und wahrscheinliche Veränderungen der Korrelationen zwischen Branchen berücksichtigt werden, um den tatsächlichen Auswirkungen auf die Verluste bei diesen Szenarien nahe zu kommen. Aus diesen Anforderungen lässt sich bereits erkennen, dass ein weiteres Verbesserungspotenzial darin besteht, die Sichtweisen verschiedener externer Experten und Normalbürger bei der Ableitung möglicher Szenarien einzuschalten, weil die alleinige Sicht der institutsinternen „Risikospezialisten“ häufig in der Weise routinemäßig eingeengt ist, wie die internen Richtlinien und/oder externe Richtlinien standardmäßig gewisse Stresstests vorschreiben bzw. empfehlen. Auch werden die internen Experten, insbesondere wenn sie von ihrer Ausbildung her eher mathematisch-statistisch geprägt sind, tendenziell ihre Szenarien stärker an der Vergangenheit orientieren. Ob Stresstests routinemäßig abgearbeitet und abgehakt oder risikosensitiv entwickelt, durchgeführt und analysiert werden scheint dabei von mindestens drei Faktoren abhängig zu sein (These): Je detaillierter die Vorgaben, umso eher erfolgt die „Abarbeitung“ des (umfangreichen) „Pflichtprogramms“ mit dem Ziel ein „Häkchen machen zu können“. Für diese These spricht, dass allein schon aufgrund der Ressourcenbindung für das Pflichtprogramm kaum Zeit für die kreative, eigenverantwortliche Risikoanalyse verbleibt. Zudem wird aufgrund der fehlenden Eigenverantwortung konsequenterweise auch die Motivation absterben, diese Dinge aus Eigeninitiative „on top“ zu leisten. Die zweite These in diesem Zusammenhang lautet: Umso ausgeprägter die Risikokultur und damit auch die Risikosensitivität, umso kreativer und institutsindividueller werden denkbare Gefahren und Szenarien identifiziert, die für die Fragilitätsanalyse des jeweiligen Instituts und darauf aufbauende Frühwarnsysteme wertvoll sind. Die dritte These lautet, dass die internen Risikoexperten noch zu sehr von den vergangenheitsorientierten Prinzipien der integrierten ökonomischen Risikotragfähigkeit geprägt sind, insbesondere, wenn eine risikosensitivere Sichtweise wirtschaftlich unbequemer ist und die eigenen mathematisch-statistischen Überzeugungen in Frage stellt. Für die dritte These sprechen einige wesentliche Extrembeispiele der jüngeren Vergangenheit. So gehörte bis 2006 ein Zusammenbruch des amerikanischen Immobilienmarktes noch zum Undenkbaren Unbekannten, weil es einen solchen bisher noch nicht gegeben hatte. Dabei wurde schlicht ignoriert, dass die Immobilienfinanzierungen dramatisch stärker gewachsen waren als der Immobilienbestand und somit die Finanzierungen zwangsläufig deutlich risikoreicher werden mussten. Ein zweites Beispiel ist die Abhängigkeit vom Import russischen Erdgases. Wenn bereits vor der Inbetriebnahme von „Nordstream 2“ ca. 55 % des Gasimportes aus Russland kamen, warum war man bereit, trotz vielfacher
5.2 Fragilitätsmanagement statt Risikomessung
107
Warnungen und Proteste aus dem Ausland sowie der Warnsignale durch die Krimbesetzung und durch Russland initiierter Separatistenaufstände im Donbass diese Risikokonzentration noch zu erhöhen. Ehemalige Entscheider haben dies in Interviews vor allem damit begründet, dass Russland bisher immer, auch bei politischen Spannungen, seine Lieferverpflichtungen erfüllt habe. Gasabhängigkeit als Waffe gehörte demnach bis zum Kriegsausbruch in der Ukraine bequemerweise noch zum „Undenkbaren Unbekannten“. Auch die konsequente Ignoranz von Inflationsgefahren durch die EZB mit Verweis auf die (vergangenheitsorientierten) Modelle (s. o.) fallen in diese Kategorie. Die Risikokultur ist ein entscheidender Faktor bei allen drei Thesen. Wie sie auf pragmatische Weise zu einer signifikanten Steigerung der Risikosensitivität und entsprechenden Prozessen zur Erfassung und Analyse erkannter Gefahren führen und permanent verbessert werden kann, soll in Abschn. 5.4 erläutert werden. Ein sich in der Praxis als hilfreich erweisender zusätzlicher Kreativitätsfaktor zur Überwindung interner Denkblockaden bei der Identifizierung relevanter Gefahren ist das Hinzuziehen externer Experten bzw. Sichtweisen. So greifen Rückversicherungsgesellschaften heute bereits auf die Erfahrungen und Intuitionen von Konfliktforschern, Ökologen, Theologen und ähnlichen Experten zurück. Was bei international tätigen Groß- und Investmentbanken ähnlich aussehen könnte, kann bei mittelständischen Regionalbanken möglicherweise durch das Einbinden von Bürgermeister, Handelskammerpräsident, Vertreter der wesentlichen Firmenkunden und ggf. Experten von Verbänden in die intuitiv-kreative Entwicklung möglicher Stressszenarien erreicht werden. Vom heutigen Status Quo ausgehend (März 2023) könnte sich beispielsweise die Frage nach einem Szenario ergeben, in welchem steigende Zinsen in Verbindung mit einem länger anhaltenden Krieg in der Ukraine, nachhaltig hohen Energiekosten und anhaltender Pandemie mit neuen Virus-Varianten immer mehr „Bazookas“, „Sondervermögen“ und „Mehrfach-Wumms“ erfordern, um einen Kollaps der Realwirtschaft zu vermeiden. Wird in der Folge sukzessive die Schuldentragfähigkeit zunächst der südlichen Euro-Staaten (Griechenland, Italien, Portugal, Spanien) und dann vielleicht auch Frankreich kollabieren? Könnte eine solche Entwicklung durch zusätzliche Flüchtlingsströme und klimabedingte Naturkatastrophen (Dürren, Waldbrände, Flutkatastrophen, Ernteausfälle etc.) verstärkt werden? Auch wenn man nicht den Weltuntergang erwartet, so stellt sich doch die Frage nach den Risikotreibern solcher Entwicklungen, der Simulation ihrer Auswirkungen sowie einem darauf aufbauenden Frühwarnsystem in Verbindung mit potenziellen Maßnahmen zur Reduzierung der institutsindividuellen Fragilität. Hinsichtlich der speziellen IT-Risiken aus der beschriebenen Kategorie „High Impact – Low Frequency“ werden zunehmend externe Experten, ggf. auch Hacker-Experten, hinzugezogen, um beispielsweise durch simulierte „Angriffe“ Sicherheitslücken aufzudecken und entsprechende Vorsorge zu treffen, teilweise sogar initiiert durch die EZB in der Form des so genannten TIBER (Threat Intelligence-based Ethical Read Teaming). Dabei handelt es sich um ein (freiwilliges) Angebot, in Deutschland durch die Bundesbank, Angriffe durch Hacker zu simulieren und dadurch die Sicherheit von Finanzinstituten und deren IT-Dienstleistern vor derartigen Angriffsrisiken zu testen (vgl. Internetseite der Bundesbank).
108
5 Realitätskonformes, nachhaltiges Bankmanagement
Zusammenfassend kann zum Thema der Stresstests festgehalten werden, dass insgesamt weniger aus der Rückschau erklärt werden sollte und bisherige „Sicherheiten“ hinterfragt werden müssen, um Denkbarrieren hinsichtlich der in der Zukunft liegenden Risiken zu überwinden. Zudem sollte zur Erkennung der Gefahren in der Zukunft und ihrer möglichen Auswirkungen für das eigene Institut die eigene Risikosensitivität durch die Entwicklung einer entsprechenden Risikokultur und das hinzuziehen externer Experten bzw. Sichtweisen verbessert werden. Als ein zusätzliches Forschungsthema wäre die Entwicklung eines selbstlernenden Kreditportfoliomodells denkbar, welches in der Lage ist, aufgrund laufend aktualisierter Erfahrungen bei Stressszenarien zum Beispiel Korrelationen zwischen Branchen anzupassen. Gerade die dynamischen Entwicklungen der jüngeren Vergangenheit und Gegenwart könnten für ein solches KI-gestütztes Portfoliomodell hinsichtlich einer Dynamisierung von Korrelationskoeffizienten erste signifikante Erkenntnisse bringen.
5.2.3.4 Frühwarnsystem Im Rahmen der Risikoassessments und Stresstests werden Risikotreiber als Indikatoren für eine erhöhte Eintrittswahrscheinlichkeit von unerwarteten Verlusten identifiziert, um dann für diese Indikatoren abgestufte Schwellenwerte festzulegen, bei denen zu definierende Maßnahmen zur Risikominderung, -vermeidung oder -absicherung ergriffen werden. Solche Indikatoren können mittelbarer Natur sein, wie beispielsweise Inflationsraten, Wachstumsraten, Arbeitsmarktdaten oder unmittelbarer Natur, wie beispielsweise Ratingverschlechterungen im Kreditportfolio, Revisionsnoten oder negative TIBER-Tests beim IT-Dienstleister, erhöhte Risikosensitivitäten bei Zinsänderungen etc. Mit entsprechendem (verhältnismäßigem) Entwicklungsaufwand wäre für die in der Risikoinventur als wesentlich identifizierten Risikoarten anhand in Verbindung mit den Simulationsergebnissen und abgestuften Schwellenwerten zum Beispiel in einer Ampelsystematik eine aggregierte Darstellung des Risikosta tus denkbar. Eine wichtige Erkenntnis der vergangenen beiden Dekaden scheint jedoch zu sein, dass sich das Management nicht allein auf eine aggregierte Fragilitätskennzahl verlässt, was einer Delegation der Beurteilung von Risiken an ein System entsprechen würde, sondern sich im Sinne von AT 3 der MaRisk, in Verbindung mit den gem. BT 3 geforderten (zu modifizierenden) Berichten einen differenzierten Blick über den Risikostatus verschafft. Das Ergebnis einer solchen Fragilitätsanalyse könnte im Rahmen einer „Säule 2 Prüfung“, zusammen mit einem aufsichtlich abzunehmenden Ethikrating für die Bemessung zusätzlicher Kapitalanforderungen herangezogen werden. Auf die Basis bzw. Mindestausstattung für das Kapital wird noch separat in Abschn. 5.5 eingegangen. 5.2.3.5 Limitsteuerung Das Verlockende der Messung ökonomischer Risiken in der Form des Value at Risk als Funktion von Betrachtungszeitraum und Konfidenzniveau ist für Erfinder und Anwender gleichermaßen ihre „All-In-One-Rechensystematik“ in Verbindung mit einfachen Botschaften. Die gleichen Messergebnisse ermöglichen über Risikorenditen die Beurteilung der relativen Attraktivität von Produkten, Kunden Vertriebswegen etc. wie die Beurteilung und „Si-
5.3 Integration der strategischen Dimension
109
cherung“ der Risikotragfähigkeit, wenn die vom Management festgelegten Risikolimite von den jeweiligen Einheiten eingehalten werden (siehe Risikomatrix in Abb. 2.20). Mit der Feststellung, dass die ökonomische Risikotragfähigkeit eben nur eine Tragfähigkeit der Vergangenheit, aber nicht für die Zukunft garantiert, ist diese „All-In-One-Rechensystematik“ zumindest für die Beurteilung der Risikotragfähigkeit unbrauchbar. Von daher stellt sich die Frage nach einem angemessenen Ersatz. Dieser Ersatz kann nur in einem System von Strukturkennziffern bestehen, welches aus den bisher beschriebenen Fragilitätsanalysen in Verbindung mit der Frühwarnsystematik abgeleitet wird. Beispielsweise könnte auf der Basis von (verbesserten) Stresstests für die Adressrisiken mit den Kreditportfoliomodellen eine Limitsystematik für Neugeschäft mit Betragsobergrenzen für Ratingklassen abgeleitet werden, wobei unverändert die aufsichtlich geforderte Berücksichtigung von Risikokonzentrationen zum Beispiel auch nach Branchen, berücksichtigt würde. Diese sollte so bemessen sein, dass unterhalb eines Geschäfts- bzw. Planjahres eine Anpassung nur in Ausnahmefällen erforderlich ist. Bei der Fristentransformation sollte eine strategische Steuerung des Zinsbuchs auf der Basis der durch das Kundengeschäft geprägten Bilanzstruktur (längere Fristen auf der Aktivseite als auf der Passivseite) erfolgen, um von der langfristig normalen Zinsstruktur zu profitieren und die Kreditversorgung der Volkswirtschaft zu optimieren. Entscheidende Nebenbedingung ist natürlich, dass entsprechende Fragilitätsgrenzen, zu denen auch der so genannte „Baseler Zinsschock“ gehört, nicht verletzt werden. Zudem müssten über regelmäßige kombinierte, risikoartenübergreifende Stresstests im Zusammenhang mit der Frühwarnsystematik und vor dem Hintergrund der Risikodeckungsmasse die aggregierte Fragilität „beobachtet“ werden. Wie an diesen Erläuterungen bereits ersichtlich, wird die schlichte All-In One-Lösung durch ein komplexeres System an Strukturkennziffern zu ersetzen sein, welches den Schwerpunkt mehr auf die Risikosensitivität als auf die Statistik legt. Genau diese in der Vergangenheit vernachlässigte Risikosensitivität sollte jedoch (bei entsprechendem „Training“) wieder die Verständnisbrücke zwischen dem Risikocontrolling und dem Vorstand schlagen und dem Vorstand die wirkliche Beurteilung von Risiken im Sinne des AT 3 der MaRisk ermöglichen.
5.3 Integration der strategischen Dimension 5.3.1 Geschäftsmodellanalyse In diesem Abschnitt geht es darum, dass die strategische Steuerung nicht reaktiv, zum Beispiel auf der Basis mehr oder weniger erfreulicher Ergebnisse einer aufsichtlichen Geschäftsmodellprüfung oder nachhaltiger Ergebnisprobleme in einzelnen Geschäftsfeldern bzw. des gesamten Instituts erfolgt, sondern vielmehr als proaktiver permanenter Prozess installiert wird. Auf diese Weise sollen relevante Trends und daraus resultierende Chancen und Risiken rechtzeitig erkannt werden, um daraus entsprechende Maßnahmen zur Weiterentwicklung des Geschäftsmodells abzuleiten. Die Notwendigkeit einer proaktiven strate-
110
5 Realitätskonformes, nachhaltiges Bankmanagement
gischen Steuerung ergibt sich allein schon daraus, dass die strategische Sicherung des Geschäftsmodells für einen Planungshorizont von drei bis fünf Jahren wesentlich von den relativen Stärken im Vergleich zur Konkurrenz abhängig ist. Sind solche Stärken nicht gegeben bzw. können nicht ausgebildet werden, drohen bei ohnehin vorhandenen Schwierigkeiten die Kapitalkosten zu verdienen, zusätzliche Rentabilitätsverluste über einen „schutzlosen“ Preiswettbewerb. Gleichwohl bildet das Vorgehen bei der aufsichtlichen Geschäftsmodellanalyse im Rahmen des SREP eine methodische Ausgangsbasis für eine proaktive strategische Steuerung. Den Prozess der aufsichtlichen Geschäftsmodellanalyse haben Palii et al. im Deloitte- Whitepaper Nr. 78 vom 22.03.2017 in vier Schritte unterteilt (vgl. Palii et al. 2017): 1 . Erste Einschätzung und Bewertung des Geschäftsumfelds 2. Beurteilung des aktuellen Geschäftsmodells 3. Bewertung der Geschäftsstrategie des Instituts – Nachhaltigkeit des Geschäftsmodells 4. Zusammenfassung der Ergebnisse und Einstufung Im ersten Schritt werden als Ausgangsbasis die wesentlichen Strategischen Geschäftsfelder definiert und abgegrenzt, sofern das nicht bereits in der Form von Geschäftsbereichsabgrenzungen im Jahresabschluss und entsprechenden organisatorischen Abgrenzungen von Verantwortungsbereichen geschehen ist. Das könnten zum Beispiel die Geschäftsfelder Privatkunden, Firmenkunden, Spezialfinanzierungen und Treasury sein. Bei in relevantem Umfang international tätigen Banken empfiehlt es sich, bei den Kundengeschäftsbereichen eine Unterteilung nach Ländern vorzunehmen, um den unterschiedlichen Rahmenbedingungen (Markttrends, Konkurrenz, gesetzliche Rahmenbedingungen etc.) in den unterschiedlichen Ländern gerecht werden zu können. Die Wesentlichkeit der Geschäftsfelder bzw. die Relevanz des Auslandsgeschäftes können dabei, analog zu Wesentlichkeitsprüfung von Risiken im Rahmen der Risikoinventur, an Wesentlichkeitsgrenzen für ausgewählte Kennziffern (zum Beispiel Anteil an den Bruttoerträgen oder der Bilanzsumme) festgemacht werden. Entsprechend den Geschäftsfeldern und der Größenklasse des Instituts erfolgt eine Zuordnung zu einer Peer-Group, um über Vergleiche entsprechende Erkenntnisse zur Rentabilität, zu Markttrends, Chancen und Risiken, relative Stärken und Schwächen, Alleinstellungsmerkmalen, etc. zu bekommen. Werden beispielsweise in einem aufgrund der Niedrigzinsepoche, der Kostenintensität und der Vergleichbarkeit der Standardprodukte ohnehin unter Druck stehenden Geschäftsfeld im Peer-Group-Vergleich relativ niedrigere Renditen festgestellt, so kann analysiert werden, welche Faktoren dafür wesentlich sind (zum Beispiel Kostenintensität, relative Rückstände bei der Digitalisierung bzw. digitaler Kundenservices, Wahrnehmung bei Kunden und Selbstwahrnehmung bei Mitarbeitern etc). Bei entsprechenden Rentabilitätsvorteilen im Vergleich zur Konkurrenz können analog die Gründe dafür ermittelt werden (Kosteneffizienz, Neukundengeschäft, digitale Services, Kundenzufriedenheit, Beraterqualität, mediale Wahrnehmung/Reputation oder Markteintrittsbarrieren für die Konkurrenz).
5.3 Integration der strategischen Dimension
111
Aufbauend auf der Analyse des Geschäftsumfeldes erfolgt die Beurteilung des jeweiligen Geschäftsfeldes. Hierfür werden für die vergangenen Geschäftsjahre bis hin zur aktuellen Periode die wesentlichen Rentabilitätszahlen (Eigenkapitalrentabilität, RWA-Rentabilität, Risikorentabilität), in ihrer Entwicklung erhoben und hinsichtlich ihrer wesentlichen Treiber analysiert. Ein wesentliches Kriterium für die Tragfähigkeit ist dabei, inwieweit die Kapitalkosten, die aktuell in Abhängigkeit vom individuellen Unternehmensbeta bei ca. acht bis zehn Prozent liegen (Quelle: e-Valuation Data, PWC), auf Geschäftsfeldebene und insgesamt verdient wurden und mit welcher Auslastung der Risikotragfähigkeit bzw. Fragilität dabei gearbeitet wurde. An dieser Stelle wird bereits erkennbar, dass eine bankeigene Ursachenanalyse von relativen Renditestärken oder -schwächen sowie Chancen und Risiken, insbesondere hinsichtlich der sogenannten „Softfacts“ (Skills, Kultur, Kunden- und Mitarbeiterzufriedenheit etc.) entscheidend weiter gehen kann als eine aufsichtliche Geschäftsmodellanalyse. Beim dritten Schritt, der „Bewertung der Geschäftsstrategie des Instituts – Nachhaltigkeit des Geschäftsmodells“ sei darauf verwiesen, dass sich die Definition der Nachhaltigkeit, analog zur Definition des nachhaltigen Erfolges in Abschn. 3.1.3 daran orientiert, dass angemessene Gewinne über einen längeren Zeitraum erzielt werden können. Im Rahmen der Geschäftsmodellanalyse wird ein Zeitraum von drei Jahren geprüft, was dem Mindestzeitraum für die geforderte Mehrjahresplanung sowie dem Zeithorizont für die „Normative Perspektive“ der Risikotragfähigkeit entspricht. Für die Prüfung der Qualität der Mehrjahresplanung sind neben den Ergebnissen der beiden ersten Schritte insbesondere die zu dokumentierenden Planungsprämissen sowie Methodik und Ergebnisse der Stresstests relevant. Bezüglich der Plausibilität der Planungsprämissen erfolgt eine Prüfung insbesondere im Abgleich mit den Planungsprämissen anderer Institute aus der Peer-Group sowie hinsichtlich der Planabweichungen früherer Perioden des zu prüfenden Instituts. Hinsichtlich der Prüfung von Methodik und Ergebnissen der Stresstests ist bemerkenswert, dass die Anfälligkeit der Ergebnisplanungen offensichtlich weniger von der vergangenheitsorientierten ökonomischen Risikotragfähigkeit als von potenziellen Anfälligkeiten zukünftiger Gefahren abhängig gesehen wird. Es wird also ansatzweise auf das geschaut, was in Abschn. 5.2.3 als Fragilitätsanalyse bezeichnet wurde, nur nicht unter der Berücksichtigung aller dort beschriebenen Elemente und möglichen methodischen Verbesserungen. Wenn demnach die Geschäftsmodellanalyse in einem integrierten Steuerungsprozess proaktiv durch das Institut selbst vorgenommen wird, liegen dort auch die entsprechenden Verbesserungspotenziale. Der letzte Schritt der aufsichtlichen Geschäftsmodellanalyse ist die Zusammenfassung der Ergebnisse der Schritte 1 bis 3 über zusammen fünf quantitative und qualitative Kriterien zu einer Gesamtnote für das Geschäftsmodellrisiko gemäß Abb. 5.9, welche aus dem genannten Whitepaper von Deloitte übernommen wurde. Die Gesamtnote zur Tragfähigkeit des Geschäftsmodells wird demnach vor allem an der Rendite, ihrer Volatilität (Vergangenheit) und Fragilität (Zukunft) vor dem Hintergrund der relativen Wettbewerbssituation beurteilt. Zudem wird berücksichtigt, ob die Pläne für die Zukunft hinsichtlich Prognosen und Maßnahmen plausibel erscheinen. Der Pflichtbeitrag des zu prüfenden Instituts zur aufsichtlichen Geschäftsmodellanalyse besteht in der Mehrjahresplanung über mindestens drei Jahre inklusive Eigenkapitalplanung
112
5 Realitätskonformes, nachhaltiges Bankmanagement
Score
Aufsichtliche Beurteilung
Rendite
Konzentrationen
Wettbewerbsposition
Annahmen für Prognosen
Strategische Pläne
1
kein erkennbares Risiko
hoch, stabil
keine
stark
plausibel
angemessen
2
niedriges Risiko
akzeptabel
einige
gut
optimistisch
vertretbar
3
mittleres Risiko
schwach, instabil
beträchtlich
schwach
zu optimistisch
nicht plausibel
4
hohes Risiko
sehr schwach, instabil
hoch
sehr schwach
unrealistisch
nicht plausibel
F
Fail
n/a
n/a
n/a
n/a
n/a
Abb. 5.9 Scorewerte Geschäftsmodellanalyse. (Quelle: Palii et al. 2017, S. 10)
und Dokumentation der geplanten Maßnahmen und Prämissen. Diese Pflichtbeiträge sind dabei ohnehin auch für die „Normative Perspektive“ der Risikotragfähigkeit erforderlich. Um jedoch der eigenen strategischen Verantwortung für das Institut gerecht zu werden, muss das Institut, wie bereits gesagt, die strategische Weiterentwicklung des Geschäftsmodells samt der bisher bereits beschriebenen Verbesserungsmöglichkeiten selbst proaktiv betreiben, um gerade im Wettbewerb nachhaltig bestehen zu können. Dabei kann das sich sehr dynamisch verändernde Umfeld durch eine agile Geschäftsmodellentwicklung unter Einbindung der Stakeholder wesentlich besser antizipiert werden und damit auch die relative Wettbewerbssituation verbessern.
5.3.2 Agile Geschäftsmodellentwicklung In Abschn. 3.3.2 wurde erläutert, dass aufgrund der sich dynamisch verändernden Umfeldbedingungen eine zeitnahe Berücksichtigung dieser Veränderungen bei der Weiterentwicklung des Geschäftsmodells erforderlich ist. Die Entwicklung einer langfristigen Strategie bis in die Einzelheiten mit anschließender Umsetzung gemäß Plan wird den immer schnelleren und in Teilen auch überraschenden Änderungen nicht mehr gerecht. Die Weiterentwicklung muss demnach laufend und in der Weise agil erfolgen, dass nach jeder Entwicklungsstufe („Sprint“) die Ergebnisse und weiteren Schritte vor dem Hintergrund der aktuellsten Entwicklungen reflektiert und bei Bedarf angepasst werden. Dafür braucht es eine laufende Beobachtung und Bewertung der aktuellen und absehbaren Trends. Ein solches „Trendradar“ bietet beispielsweise Deloitte in mehreren Ausgaben für den Bankensektor an (vgl. Deloitte 2022). Die einzelnen Ausgaben beschäftigen sich mit Perspektiven, wie Technologie, Kunden und Unternehmensorganisation sowie ESG, Regulierung &Politik, Wirtschaft und Finanzmärkte. Im Rahmen eines solchen Trendradars werden viele kleine Trends zu „maßgeblichen Trends“ zusammengefasst. In der angegebenen Ausgabe 2 wurden 15 dieser maßgeblichen Trends identifiziert und anschließend hinsichtlich ihrer Handlungsrelevanz eingestuft nach „beobachten“, „vorbereiten“ und „handeln“. Die Einstufung erfolgt dabei nach den Kriterien „Einfluss“ und geschätzte „Zeit bis zur
5.3 Integration der strategischen Dimension
113
Mainstreamanwendung“. Inwieweit auf externe Trendstudien zum Beispiel von Beratungsgesellschaften oder von Verbänden zurückgegriffen wird oder auch Trends eigenständig identifiziert und analysiert werden, ist sowohl eine Frage des Proportionalitätsgrundsatzes bzw. der Verhältnismäßigkeit des Aufwandes wie auch eine Frage der Individualität des eigenen Geschäftsmodells. Entscheidend ist nur, dass die für das jeweilige Institut relevanten Trends identifiziert und bei der (permanenten) Weiterentwicklung des Geschäftsmodells bzw. der strategischen Geschäftsfelder berücksichtigt werden. Auf der Basis von Geschäftsmodellanalyse und der relevanten Trends gilt es nun in einem organisatorisch synchronisierten Prozess in den jeweiligen Geschäftsfeldern Optionen für die Weiterentwicklung des Geschäftsmodells zu entwickeln, zu validieren und in einem geschäftsfeldübergreifenden Prozess zu bewerten und zu entscheiden. Grundsätzlich ist es natürlich denkbar, dass im Rahmen eines solchen Regelprozesses auf der Basis von Analyse und Trendradar aktuell keine konkreten Maßnahmen oder Änderungen entschieden werden, um zum Beispiel erst einmal bewusst weitere Entwicklungen abzuwarten. Wichtig ist jedoch, dass der Prozess der Analyse, Trendbeobachtung und Weiterentwicklung des Geschäftsmodells aktiv als Teil der Banksteuerung betrieben wird, um keine strategischen Nachteile im Vergleich zur Konkurrenz zu erleiden. Organisatorisch könnte ein solcher Prozess beispielsweise derart ablaufen, dass das Controlling im März/April auf der Basis des jüngsten Jahresabschlusses eine Aktualisierung der Geschäftsmodellanalyse sowie der Trendbeobachtung vornimmt und mit den Geschäftsfeldern zusammen bewertet. Die Geschäftsfelder könnten sich dafür in heterogenen Arbeitsgruppen organisieren (Kundenbetreuer, interessierte Potenzialkandidaten, Produktexperten) und in entsprechend organisierten Workshops auch ausgewählte Kunden hinzubitten. In solchen „Zukunftswerkstätten“ können dann vor dem Hintergrund der neuen Trends in entsprechenden kreativen Formaten Optionen für die Weiterentwicklung des Geschäftsmodells in den einzelnen Geschäftsfeldern entwickelt und bewertet werden. Nachdem das in den einzelnen Geschäftsfeldern abgeschlossen ist, kann in geschäftsfeldübergreifenden Prozessen vor dem Hintergrund laufender Projekte, vorhandener Ressourcen sowie der Sicherung bzw. dem Ausbau der relativen Wettbewerbsposition die übergreifende Weiterentwicklung der Strategie mit entsprechender Anpassung der Mehrjahresplanung sowie ggf. (agilen) Korrekturen bei laufenden Projekten beschlossen werden. Wie der Prozess idealerweise im Detail gestaltet werden sollte hängt natürlich von der Größe der jeweiligen Institute (Proportionalitätsgrundsatz: Verhältnismäßigkeit des Aufwands) der Dynamik der Entwicklungen im Trendradar, ggf. Verbandsaktivitäten sowie der Entwicklungen/Besonderheiten im eigenen Marktgebiet ab. Erfahrungen zeigen jedoch, dass es von entscheidender Bedeutung ist, sowohl bei der Analyse, als auch bei der Weiterentwicklung die Kundenseite mit einzubeziehen, was an praktischen Beispielen verdeutlicht werden kann. So wurden beispielsweise in einem Regionalinstitut mit noch relativ großer Filialdichte erstmalig Einschätzungen der Privatkunden hinsichtlich der Modernität und Innovationsfreudigkeit erhoben oder Fragen diskutiert, ob persönliche Betreuung Filialen erfordert oder virtuell bzw. beim Kunden erfolgen kann. Im Firmenkundenbereich können zum Beispiel die digitale Unterstützung der Unternehmens- und Fi-
114
5 Realitätskonformes, nachhaltiges Bankmanagement
nanzplanung der Kunden erörtert werden. Bei regionalen Volksbanken oder Sparkassen kann der Bedarf/die Möglichkeit von Bankanwendungen zur Vernetzung von Privat- und Geschäftskunden (Handwerker, Ärzte etc.) analysiert werden. Ein solches „regionales Google“ könnte ggf. gleichermaßen Kundenbindung und Marktanteil stärken. Die Diskussion von Kundenanforderungen und Möglichkeiten sind dabei für die Kunden und Mitarbeiter des Instituts gleichermaßen bereichernd. Sie eröffnet nicht nur die kunden- und ergebnisfreundliche Weiterentwicklung des Geschäftsmodells, sondern auch noch die ideale Strategie für die kommunikative Begleitung im Markt. Analog zu den Risikoassessments und der Entwicklung von Stressszenarien ist auch bei diesem Prozess eine Unternehmenskultur erforderlich, die Kreativität und Sensitivität fordert und fördert. Ein mögliches Format für die interaktive und kreative Weiterentwicklung des Geschäftsmodells in den „Zukunftswerkstätten“ der Geschäftsfelder wird im kommenden Abschnitt zur Integration der kulturellen Dimension vorgestellt.
5.3.3 Mehrjahresplanung Die Ergebnisse der Weiterentwicklung des Geschäftsmodells können zusammen mit den entsprechenden Ergebnissen aus den Fragilitätsanalysen des Risikomanagements und der Jahresplanung im Herbst eines Jahres zu einer Aktualisierung der Strategie und Mehrjahresplanung zusammengeführt werden. Die so aktualisierte Mehrjahresplanung wäre entsprechend inhaltlich unterlegt und indirekt durch die entscheidenden Stakeholder abgesegnet. Bei einem Zeithorizont der Mehrjahresplanung von mindestens drei Jahren ist jedoch zu berücksichtigen, dass aufgrund der deutlichen Zunahme unerwarteter Extrementwicklungen (Wirtschafts- und Finanzkrisen, ökologische Krisen, Pandemien oder auch Kriege) die Sicherheit der Planzahlen mit den zusätzlichen Planjahren überproportional abnimmt. Ob und inwieweit maßnahmenunterlegte Planungsszenarien über einen Zeitraum von drei Jahren hinaus unter Kosten-Nutzen-Aspekten Sinn machen, ist zumindest kritisch, ggf. auch geschäftsmodellspezifisch zu hinterfragen.
5.4 Integration der kulturellen Dimension 5.4.1 „Messung“ und Analyse der Unternehmenskultur In Abschn. 3.4 wurde die kulturelle Dimension definiert sowie ihre Ergebnisrelevanz für Zielfunktion und Nebenbedingung erläutert. Die maßgebliche Relevanz der kulturellen Dimension für den Unternehmenserfolg wurde unabhängig von der Branche überdies in zahlreichen Untersuchungen nachgewiesen. Einen Überblick über Methoden und Erfahrungen dazu bietet die Veröffentlichung der Bertelsmann Stiftung „Messen, werten, optimieren – Erfolg durch Unternehmenskultur“ von 2006 (vgl. Bertelsmann Stiftung 2006, ausführliche Erläuterungen zum Organisationskulturmodelle: vgl. Denison et al. 2012a; vgl. Denison
5.4 Integration der kulturellen Dimension
115
Abb. 5.10 Dension-Organisationsstrukturmodel (Quelle: Bertelsmann Stiftung 2006, Seite 15)
et al. 2012b). Wenn die Erfolgsrelevanz nachgewiesen ist, stellt sich die Anschlussfrage der Erhebung der Ist-Kultur, der Definition einer Zielkultur und daraus abgeleitet das Gap und die erforderlichen Maßnahmen zur Schließung dieses Gaps. In der zitierten Unterlage der Bertelsmann Stiftung werden von den jeweiligen Experten die wesentlichen Modelle zur Erhebung der Kultur, die sich in der Praxis durchgesetzt haben, beschrieben. Die gemeinsame Basis dieser Modelle sind erfolgsrelevante Indikatoren der Kultur, die im Rahmen einer vertraulichen Befragung von Betroffenen als subjektive Empfindung erhoben werden. Beispielhaft wird nachfolgend das Denison-Organisationskulturmodell vorgestellt, welches von Prof. Daniel R. Denison beschrieben wird. Das Modell unterscheidet insgesamt zwölf Indikatoren, die vier „Kulturmerkmalen“ (Mitwirkung, Kontinuität, Anpassungsfähigkeit, Mission) zugeordnet werden. Diese vier Kulturmerkmale sind laut Denison in der Literatur als erfolgsrelevant identifiziert worden. Sie stellen zudem ein Spannungsfeld zwischen internem und externem Fokus sowie zwischen Stabilität und Flexibilität dar. (vgl. Abb. 5.10 aus der zitierten Unterlage, S. 15). Jeder dieser zwölf Indikatoren wird dabei anhand von fünf Befragungspunkten „gemessen“. Aufgrund der Spannungsfelder ist eine gleichmäßige Ausprägung eher gegensätzlicher Indikatoren schwer denkbar und kann auch keine Ideallösung sein. Vielmehr ist das Ergebnis vor dem Hintergrund der individuellen Lage und Zielsystematik des Unternehmens hinsichtlich Verbesserungspotenzial zu analysieren. Wenn beispielsweise ein re-
116
5 Realitätskonformes, nachhaltiges Bankmanagement
lativ starres traditionelles Geschäftsmodell mit hierarchischer Struktur aufgrund von Umfeldveränderungen vor einem erforderlichen Strukturwandel steht, ist eine starke Stabilität bei geringerer Flexibilität tendenziell ein Erfolgshemmnis. Aufgrund der beschriebenen Trends und Umbrüche in der Bankenbranche in den letzten beiden Dekaden könnte eine solche Ausgangslage auch in weiten Teilen der traditionellen Finanzdienstleistungsanbieter gegeben sein. Nach der Analyse könnte in einer zweiten Befragung eine Wunschkultur erhoben und als Differenz das kulturelle Gap ermittelt werden. Die weiteren in der Praxis verbreiteten Modelle wie beispielsweise die „Organizational Culture Inventory“ oder die „Repetory Grid-Technik“ arbeiten mit vergleichbaren (kreisförmigen) Kulturprofilen um kulturellen Handlungsbedarf zu identifizieren, sodass für die Zwecke dieses Buches auf einen Abgleich der Modelle verzichtet werden kann. Abgesehen von der Erhebung kulturellen Handlungsbedarfs als „Differenz“ von aktueller und gewünschter Kultur können solche Modelle zum Beispiel auch im Vorfeld von Fusionen eingesetzt werden, um kulturelle Differenzen der Fusionspartner zu identifizieren und daraus eine gemeinsame Wunschkultur abzuleiten. Aus den bisherigen Erkenntnissen hinsichtlich eines modernen „Fragilitätsmanagements“ als Kern des Risikomanagements mit dem Analyseschwerpunkt von Gefahren aus Ungewissheiten in der Zukunft bei sich dynamisch verändernden, hoch komplexen Umfeldbedingungen ist tendenziell zu vermuten, dass kulturelle Stärken in der flexiblen linken Hälfte des Diagramms für eine erfolgreiche Risikokultur von Vorteil sind. Aufgrund der bereits erläuterten Überlappung der verschiedenen Teilkulturen und der zunehmenden Dynamik bei der Geschäftsmodellentwicklung ist eine tendenziell gleich gerichtete Entwicklung der übrigen Teilkulturen anzustreben. Ist das kulturelle Gap ermittelt, so kann nach Erläuterung der Protagonisten der unterschiedlichen Kulturorganisationsmodelle die Planung von Maßnahmen für den angestrebten Kulturwandel erfolgen, ggf. mit Unterstützung von entsprechenden Organisationsberatern und Coaches.
5.4.2 Integrative Methodik zur Weiterentwicklung der Risikokultur Sofern nicht Fusionen, Führungswechsel, organisatorische oder sonstige gravierende Veränderungen die in AT 3 geforderte „Entwicklung, Förderung und Integration einer angemessenen Risikokultur“ überlagern, könnte der Eindruck entstehen, dass das in Abschn. 5.4.1 beschriebene Vorgehen zuzüglich Maßnahmenplanung und -umsetzung tendenziell aufwendig ist, insbesondere wenn vor dem Hintergrund der dynamischen Entwicklungen eine permanente Weiterentwicklung gefordert ist. Vor diesem Hintergrund wurde durch den Autor dieses Buches nachfolgender, in der Praxis bereits erfolgreich getesteter Ansatz zur permanenten Weiterentwicklung einer aktuellen Risikokultur entwickelt, der praktisch Erhebung der Ist-Kultur, der Soll-Kultur und die Ableitung von Maßnahmen durch die Betroffenen vereint und somit bereits den Prozess selbst zur gelebten Kultur macht.
5.4 Integration der kulturellen Dimension
117
Abb. 5.11 Themenfelder Risikokultur. (Quelle: eigene Darstellung)
Grundlage dieses Ansatzes ist ein Format „Eigenland“, welches für verschiedenste Zwecke von der gleichnamigen Firma in Haltern am See entwickelt wurde. Bei diesem Format werden durch bis zu 15 Teilnehmer je „Spielrunde“ zehn Thesen zu maximal sechs Themenfeldern spontan in fünf Stufen bewertet von „stimmt voll und ganz“ bis „stimmt überhaupt nicht“. Bei den Themenfeldern handelt es sich um die vier vom Financial Stability Board (FSB) genannten Indikatoren sowie zwei möglichen weiteren Indikatoren, die das System ermöglicht aber nicht erfordert. Im genannten Praxistest wurden die Themenfelder gemäß Abb. 5.11 belegt. Bei sechs Themenfeldern mit jeweils zehn Thesen besteht das gesamte Thesenset maximal aus sechzig zu bewertenden Thesen. Die Bewertung der den Teilnehmern nicht bekannten Thesen erfolgt dabei in der Form, dass die jeweilige These vor den um einen Tisch versammelten Teilnehmern zweimal verlesen wird und die Teilnehmer dann einen farbigen Stein, dessen Farbe die Bewertung ausdrückt, auf Kommando gleichzeitig in einen trichterförmigen „Inselvulkan“ fallen lassen. Dabei steht zum Beispiel die Farbe Gold für „stimmt voll und ganz“ und die Farbe Schwarz für „stimmt überhaupt nicht“. Die weiteren Zwischenstufen der Bewertung werden durch die Farben Grün, Blau und Weiß repräsentiert. Durch die gleichzeitige Bewertung wird ausgeschlossen, dass die eigene Bewertung von anderen, zum Beispiel dem Vorgesetzten, beeinflusst wird. Die Spontanität der Bewertung verringert zudem die Gefahr, dass die eigene Bewertung von „politischen Überlegungen“ beeinflusst wird. Auf diese Art wird erfahrungsgemäß die größtmögliche Ehrlichkeit erreicht. Um Missverständnisse beim Verlesen und Verstehen der Thesen zu vermeiden, werden diese immer positiv formuliert und vom Umfang her begrenzt. Nachfolgend einige denkbare Thesenbeispiele:
118
5 Realitätskonformes, nachhaltiges Bankmanagement
Beispiele
Themenfeld Leitungskultur: „Unsere Führungskräfte sind für kritische Rückfragen immer offen.“ Oder „Es gibt einen laufenden Austausch mit dem Vorstand über das Eingehen von Risiken.“ Themenfeld Verantwortlichkeit: „Wer entscheidet, trägt auch die Verantwortung für die Risiken.“ Oder „Fehlverhalten wird identifiziert und thematisiert.“ ◄ Das Teilnehmerfeld sollte hinsichtlich Funktionen (Kundenbetreuung, Kreditsachbearbeitung, Treasury, Revision, Vorstand, u. U. Aufsichtsrat) und Hierarchieebenen möglichst heterogen gestaltet sein, um eine repräsentative Sicht auf die Kultur zu bekommen. Nach der Bewertung jeder These wird die Bewertung elektronisch erfasst und nach Bewertung der zehn Thesen eines Themenfeldes zusammen mit den Thesen ausgedruckt. Dabei ist ohne Namensnennung ersichtlich, wie die durchschnittliche Zustimmung zur jeweiligen These ist und wie weit die Bewertungen der Teilnehmer gestreut sind (alle Stufe 2 bis 3 oder Bewertungen von 1 bis 5). Erfahrungsgemäß dauert die Bewertung der Thesen zu einem Themenfeld ca. 15 min. Die Bilder in Abb. 5.12 geben einen Eindruck vom Prozess bis zur Erfassung der Bewertung und dem Ausdruck für die Teilnehmer. Nach der Bewertung der Thesen zu einem Themenfeld und dem Aushändigen der Auswertung der Bewertungen an die Teilnehmer folgt eine von einem neutralen Moderator geleitete Diskussion der Ergebnisse. Besonderen Anlass bieten dabei insbesondere breit gestreute Bewertungen als Ausdruck unterschiedlicher Wahrnehmungen zu einzelnen Thesen, aber durchaus auch besonders hohe oder niedrige durchschnittliche Bewertungen. Vielfach haben sich bei breit gestreuten Bewertungen niedrigere bei den unteren Hierarchieebenen im
These im „Vulkan“
Bewertung
Quelle: Eigenland GmbH Abb. 5.12 Thesenbewertung Eigenland. (Quelle: Eigenland GmbH)
Auswertung
5.4 Integration der kulturellen Dimension
119
Vergleich zum Management gezeigt, die in der Diskussion hinsichtlich ihrer Ursachen verständlich wurden und in Teilen Handlungsbedarf angezeigt haben. Während der Diskussion werden durch den Moderator die wesentlichen Statements zu den einzelnen Thesen auf PostIts an einer Pinnwand zur späteren Erstellung eines Protokolls festgehalten. Werden auf diese Weise in einem Workshop alle Thesen bewertet und die Bewertungen der sechs Themenfelder diskutiert, so könnten nach der Erstellung der Stichwortprotokolle in einer Pause, zum Beispiel auf einem Flipchart, in einer zweiten Runde mit den Teilnehmern potenzielle Maßnahmen besprochen und priorisiert werden. Man stelle sich beispielsweise die Bewertung der vorgenannten Thesenbeispiele im Vorfeld der Krise bei Greensill, der Sachsen LB, der Bayern LB (bezüglich Hypo Alpe Adria) der Volksbank Heilbronn etc. im Vorfeld der jeweiligen Krisen vor, wo möglicherweise die Bewertung der wenigen Beispielthesen, entsprechende Durchführung vorausgesetzt, bereits wertvolle Diskussionen oder gar Maßnahmenvorschläge über die heterogene Teilnehmerschaft hätte auslösen können. Eine Verbindlichkeit in der Weiterentwicklung der Kultur kann dadurch erreicht werden, dass nach einem Jahr eine erneute „Spielrunde“ mit neuen Thesen durchgeführt wird, wobei die Umsetzung der im Vorjahr beschlossenen Maßnahmen mit in die Thesen einfließt. Beispiel: „Die Maßnahme xy wurde erfolgreich umgesetzt“. Bewertung und Diskussion wie gehabt. Um die gewünschte unternehmensweite Kulturentwicklung bei einer kleinen Teilmenge der Belegschaft als Teilnehmer zu erreichen, sind eine flankierende Kommunikation hinsichtlich Methodik und beschlossener Maßnahmen sowie ein sukzessiver Austausch der Teilnehmer in jedem Jahr hilfreich. In Abhängigkeit von der Institutsgröße können zudem die Anzahl der parallelen Spielrunden konfiguriert werden, beispielsweise eine Spielrunde je 500 Mitarbeitende. So würden bei einer Belegschaft von 1500 Mitarbeitenden parallel drei „Spielrunden“ durchgeführt und damit insgesamt mindestens drei Prozent der Mitarbeiterschaft erreicht. In jedem Folgejahr werden zwei Drittel der Teilnehmer ausgetauscht, während das restliche Drittel auch als „Wächter“ hinsichtlich der Maßnahmen aus dem Vorjahr fungiert. Grundsätzlich kann der Workshop auf einen Tag pro Jahr für die ausgewählten Teilnehmer begrenzt werden. Lediglich die Organisatoren bzw. Moderatoren müssen für die Vorbereitung (Thesensets) und Nachbereitung (Ergebnisdokumentation und Kommunikation) größere Zeitaufwände einkalkulieren. Als Basis für die Entwicklung der institutsindividuellen Thesensets bieten sich an: Unternehmensvision und -strategie, Risikostrategie, Maßnahmenbeschlüsse aus dem Vorjahr sowie besondere Entwicklungen in der Branche bzw. relevantem Umfeld. Die Praxistests mit dem Format zu Teilkulturen des Unternehmens (Führungs-, Risiko-, Innovations- oder Vertriebskultur) haben gezeigt, dass allein schon der Prozess eine gelebte Weiterentwicklung der Kultur ist, was aufgrund von Umfelddynamik und Entwicklungspotenzialen insbesondere für die Risikokultur gilt. Die Dokumentation der Thesen, ihrer Bewertungen, der beschlossenen Maßnahmen sowie der begleitenden Unternehmenskommunikation sollten eine gute Basis bilden für Prüfungen der Risikokultur im Rahmen der Baseler Säule 2. Eine Aufwandsreduktion in
120
5 Realitätskonformes, nachhaltiges Bankmanagement
Form einer größeren Taktung (zum Beispiel alle zwei Jahre) wäre denkbar, wenn eine gewisse kulturelle Stabilität in der Form erreicht ist, dass bei kulturellen Störfällen, zum Beispiel durch externe Personalzugänge, die Gemeinschaft der Mitarbeitenden den Neuling in die Richtung der gemeinsamen Werte „leitet“. Als Zwischenfazit bisheriger Anwendungserfahrungen kann festgehalten werden, dass das Format als spontan, pragmatisch, kreativ, verhältnismäßig kostengünstig im Sinne des Proportionalitätsprinzips und zielorientiert erwiesen hat. Auch ist es bei den Teilnehmern sehr beliebt und wird vielfach als gelebte Wunschkultur empfunden. Einschränkend muss festgehalten werden, dass es eine gewisse Offenheit bei der Geschäftsleitung erfordert, die in noch verbliebenen Patriarchaten oftmals nicht gegeben ist und v. a. aufgrund von Corona und auch des noch relativ jungen Konzepts noch keine Langzeiterfahrungen gemacht werden konnten. Erfahrungen aus dem Einsatz im Rahmen anderer Teilkulturen, insbesondere der Führungskultur und auch der Innovationskultur, sind ähnlich positiv und waren der Auslöser für die Erprobung im Rahmen der Risikokultur. Hinsichtlich der aufsichtlichen Prüfung der Risikokultur haben sich in der EU bisher noch keine Standards herausgebildet. Die BaFin orientiert sich jedoch insbesondere am Vorgehen der niederländischen Aufsicht, die eine Prüfung bei größeren Instituten durch eine Gruppe von professionellen Psychologen vor allem in der Form der Beobachtung von Sitzungen und Prozessen sowie der Durchführung von Interviews vollzieht, woraus am Ende ein Gutachten mit Empfehlungen erstellt wird.
5.5 Auflösung des Regulierungsdilemmas In Abschn. 4.3 wurde dargelegt, dass die exponentiell zunehmende Regulierungsdichte praktisch die unternehmerische Verantwortung zu Gunsten einer Vorschriftserfüllungsverantwortung wegreguliert, was wiederum ein Wesensmerkmal der Planwirtschaft ist. Zudem wurde erläutert, dass aufgrund der methodischen Vergangenheitsorientierung der Risikomodelle, die auch den aufsichtsrechtlichen Vorschriften zugrunde liegen, zwangsläufig ein Regulierungsdilemma entsteht und der Kreislauf aus neuen, unerwarteten Realitäten und weiteren Regulierungen nur durch einen Paradigmenwechsel durchbrochen werden kann. Nachfolgend wird ein Ansatz vorgeschlagen, wie ein solcher Paradigmenwechsel aussehen könnte. In Abschn. 5.2 wurde gezeigt, wie eine vergangenheitsorientierte (untaugliche) ökonomische Risikotragfähigkeitsbetrachtung als Kern des Risikomanagements durch eine zukunftsorientierte Fragilitätsanalyse in Verbindung mit entsprechenden Steuerungsmechanismen ersetzt werden kann. Auch wurde in Abschn. 5.1 ein Ethikrating vorgeschlagen, welches einen Interessensausgleich der Stakeholder in die Steuerungssystematik inte griert. Vor allem mit diesen beiden Instrumenten sollten, wenn sie aufsichtlich vorgeschrieben und geprüft werden, vermeidbare Fehlentwicklungen auch in einer ungewissen Zukunft deutlich eingeschränkt werden.
5.5 Auflösung des Regulierungsdilemmas Abb. 5.13 Neue Baseler Säule 1. (Quelle: eigene Darstellung)
121
Managementpuffer Aufschlag Ethik-Rating SREP-Aufschlag
Neue MindestLeverage Ratio
Basis-Leverage Ratio 3%
These Werden diese beiden Instrumente verpflichtend eingeführt, können die Vorschriften zur Mindestkapitalausstattung in der Baseler Säule 1 auf die Leverage-Ratio reduziert werden, die in Abhängigkeit von Ethikrating und Prüfungsergebnissen der Säule 2 mit institutsspezifischen Aufschlägen versehen werden (vgl. Abb. 5.13). Dabei müsste im dritten Prüfungsfeld der SREP-Prüfung die vergangenheitsorientierte Risikotragfähigkeitsbetrachtung durch die Ergebnisse der Fragilitätsanalyse im Verhältnis zum Risikodeckungspotenzial bzw. Substanzwert ersetzt werden. Die Regelungen bezüglich Großkredite, TLAC (Total Loss Absorbing Capacity) und MREL (Minimum Requirement for Own Funds and Eligible Liabilities) etc. bleiben davon unbenommen. Gleiches gilt für die Verwendung der Risikomanagementsysteme wie Rating-Modelle für die Kalkulation von Standardrisiken (mit Korrekturfaktoren für zu antizipierende zukünftige Effekte wie beispielsweise ESG-Risiken) oder auch Kreditportfoliomodellen als Basis für Stresstests der Adressrisiken etc. Wie im Einzelnen die Aufschläge zu kalibrieren wären, wäre über entsprechende Analysen und Expertenberatungen vor dem Hintergrund der aktuellen und künftig angestrebten Kapitalausstattung zu erarbeiten. Wichtig an dieser Stelle sind die Steuerungsimpulse, die von der neuen Systematik ausgehen, wofür zumindest eine Wesentlichkeit der beiden Aufschläge erforderlich ist. Die Aufsicht würde auf diese Weise wieder die Verantwortung für eine schlichte und robuste Leitplanke zur Kapitalausstattung der Institute übernehmen, statt sie mit komplexen, vergangenheitsorientierten internen Modellen an die Banken zu delegieren, die sich damit in Teilen über die „Eigenkapitaloptimierung“ selbst regulieren (vgl. hierzu auch Neuberger 2018). Eben diese Banken können sich wiederum in der Steuerung mehr auf den nachhaltigen Erfolg bei Begrenzung der in der Zukunft liegenden Risiken konzentrieren. Bei dieser Fokussierung hilft ein auf den nachhaltigen Erfolg kalibriertes und aufsichtlich abgenommenes Ethikrating, zu dessen Steuerungsrelevanz zudem noch ein entsprechender Kapitalaufschlag beiträgt. Insbesondere die vielen realwirtschaftlich orientierten Sparkassen und Volksbanken würden von einer regulatorischen Komplexität befreit, die sie selber kaum provoziert haben. Bei den Aufschlägen für die Risiken bzw. die Fragilität würde der Fokus auf die Zukunft, statt die Vergangenheit gerichtet werden, analog zur Neuausrichtung des Risikomanagements im Institut. Im Risikocontrolling und -management würde sich der Schwerpunkt von Mathema-
122
5 Realitätskonformes, nachhaltiges Bankmanagement
tikern und Statistikern wieder zu Risikoexperten verschieben, wodurch die Verständnisbrücke zum Management und damit auch die Beurteilung der Risiken durch die Geschäftsleitung gemäß AT 3 MaRisk wieder gestärkt wird. Gewissermaßen als Bonus „on top“ würde sich durch diese Form der Regulierung noch das politisch motivierte Problem des Risikogewichtes von Null für Euro-Staatsanleihen erledigen. Allerdings sollte für Staatskredite dann auch die normale Großkreditregelung gelten. Der Fokus der Regulierung könnte sich damit von der permanenten „Detailoptimierung“ der Kapitalvorschriften auf das Setzen von noch fehlenden „Leitplanken“ verlagern, wie zum Beispiel Schattenbanken, Krypto-Währungen und -Assets, Entwicklung und Einsatz künstlicher Intelligenz etc. Auch wenn hinsichtlich Ausgestaltung und Standardisierung von Fragilitätsstatus als drittem SREP-Prüfungsfeld und Ethikrating sowie deren Prüfungs- und Abnahmeverfahren noch umfangreiche Konzeptarbeiten zu leisten sind, so wird doch der Paradigmenwechsel zur Auflösung des Regulierungsdilemmas, bestehend aus drei Komponenten, bereits erkennbar: Nachhaltigkeit/Interessensausgleich der Stakeholder Die Aufnahme des Interessensausgleichs der Stakeholder in Form eines am nachhaltigen Erfolg ausgerichteten Ethikratings in die regulatorischen Rahmenbedingungen, idealerweise als Gegenstand des zweiten SREP Prüfungsfeldes (Interne Governance und institutsweite Kontrollen, vgl. Abb. 4.7) scheint erforderlich, auch wenn eine Kalibrierung auf den nachhaltigen Erfolg im Sinne einer Treynor-Ratio bereits sicher stellt, dass sich Ethik lohnt. Ursache für diese Notwendigkeit z. B. bei großen, börsennotierten Universal- und Invest mentbanken ist die bisherige implizite Ausrichtung am kurzfristigen Shareholder Value, insbesondere aufgrund der asymmetrischen variablen Vergütung (Boni bei kurzfristigem Erfolg, aber keine Mali bei Misserfolg) des Managements sowie auch von schnellen Kursgewinnen bei eher kurzfristig orientierten Aktionären. Auch hierfür ist die Credit Suisse ein Paradebeispiel. Der Interessensausgleich der Stakeholder, der sowohl eine Fokussierung auf das realwirtschaftlich orientierte Geschäft als auch die ökologische Ausrichtung als Faktoren eines nachhaltigen Erfolgs begünstigt, macht die Institute robuster (insbesondere auch hinsichtlich der Gefahr eines Vertrauensverlustes) und fördert damit auch die Finanzstabilität im Sinne des Kernziels der Bankenaufsicht. Zukunftsorientierte Fragilitätssteuerung In Abschn. 3.2 und 5.2 wurde gezeigt, dass eine vergangenheitsorientierte Risikotragfähigkeit als Nebenbedingung zur Zielfunktion zu Fehlsteuerungseffekten bis hin zu Krisen bzw. Pleiten führt. In Kap. 3 wurde gezeigt, dass die Übernahme dieser Logik in die bankaufsichtlichen Vorschriften der Baseler Säule 1 (insbesondere hinsichtlich der internen Modelle) permanente Nachregulierungen aufgrund unerwarteter Entwicklungen erfordert und damit ohne absehbares Ende Umfang und Komplexität der Regulierung immer weiter erhöht. Zynisch formuliert besteht damit die Gefahr, dass irgendwo zwischen Basel V und Basel XXVII gefühlt die Grenze zur Planwirtschaft überschritten wird. Dazu Neuberger: „Die (permanente, d. V.) Feinabstimmung der Eigenkapitalregulierung beruht auf einer Illusion, nicht nur, weil sie von Banken beeinflusst und manipuliert werden kann, sondern auch, weil den Banken selbst die Informationen fehlen, um sie richtig zu messen, da sich Risiken ändern.“ (vgl. Neuberger 2018). Die Logik der Korrektur unerwarteter Entwicklungen wird mit einer Zukunfts- bzw. Fragilitätsorientierung bei den Risiken und
5.6 Integration zur „Banksteuerung 2.0“
123
der Bemessung der Mindestkapitalausstattung durchbrochen. Es wird implizit akzeptiert, dass aufgrund von Ungewissheit eine Sicherstellung der Risikotragfähigkeit im bisherigen Sinne nicht möglich ist. Leitplanken statt Detailregulierung Mit dem Entfall der Logik, auf der Basis der sich stetig weiter entwickelnden Vergangenheit die Regulierung „feinabstimmen“ zu müssen, erübrigt sich auch die Notwendigkeit einer immer weiter ins Detail gehenden und permanent zu aktualisierenden Regulierung. Wie eigentlich in der Marktwirtschaft grundsätzlich vorgesehen, sorgt der Regulierer für Leitplanken, die insbesondere die Tendenz zur Zweckorientierung, zum Interessensausgleich der Stakeholder und Robustheit im Sinne der Finanzstabilität sicherstellen und belässt die unternehmerische Verantwortung weitgehend beim Unternehmer bzw. beim Management. In der Folge können die erheblichen Aufwände bei der Aufsicht für die Regulierung und Überwachung sowie bei den Banken für die Umsetzung, die Lobbyarbeit und ggf. auch für die Umgehung bzw. „Kapitaloptimierung“ wieder begrenzt werden. Dieser Faktor ist insbesondere für die vielen mittelständischen Banken entscheidend, welche diese Entwicklung u.a. im Rahmen der Finanzmarktkrise nicht provoziert haben.
5.6 Integration zur „Banksteuerung 2.0“ Von Abschn. 5.1 bis Abschn. 5.4 wurden Ansätze für erforderliche Verbesserungen bzw. Ergänzungen der Steuerungssystematik im Vergleich zur bisherigen Banksteuerung 1.0 erläutert, die letztlich auch eine Auflösung des Regulierungsdilemmas und eine Reduzierung des damit verbundenen Aufwandes erlauben. Diese Verbesserungen und Ergänzungen sind nunmehr zu einer neuen Integrierten Banksteuerung 2.0 zusammenzufügen. Ein altes japanisches Sprichwort besagt, „Eine Vision ohne Handeln ist ein Tagtraum, ein Handeln ohne Vision ist ein Albtraum.“ Die Unternehmensvision ist praktisch die oberste Ebene der Zielhierarchie. Vor dem Hintergrund, dass insbesondere die auf den Shareholder Value fokussierten großen international agierenden Universal- und Investmentbanken massive Schwierigkeiten haben, nachhaltig zumindest ihre Kapitalkosten zu verdienen (vgl. zum Beispiel Abb. 3.1 und 3.2) stellt sich die Frage, ob die Maximierung des Shareholder Value die richtige Vision sein kann. Wie gezeigt wurde, macht sie implizit den Menschen als Verkörperung der anderen Stakeholder zum Mittel für den Zweck des Kapitalwachstums, was allein schon deshalb nicht nachhaltig sein kann, weil es zwangsläufig dazu führen muss, dass systembedingt benachteiligte Stakeholder eskalieren. Das gilt neben Aktionären, Kunden und Mitarbeitern auch hinsichtlich der Gesellschaft insgesamt bezüglich des ursprünglichen Zwecks der Banken hinsichtlich der Versorgung der Realwirtschaft mit den benötigten Bankprodukten. Von daher ist auf der obersten Ebene der Zielhierarchie genau diese Mittel-Zweck-Beziehung klar zu stellen und gegenüber der spekulativen Finanzwirtschaft abzugrenzen. Darüber hinaus ist geschäftsmodellspezifisch zu konkretisieren, welche besonderen Funktionen ein Institut aufgrund seiner Stärken und Schwächen sowie Möglichkeiten und Risiken heute und in der Zukunft erfüllen möchte. Diese Vision bzw. Mission ist Basis für die strategischen Ziele und
124
5 Realitätskonformes, nachhaltiges Bankmanagement
die beschriebene laufende Weiterentwicklung des Geschäftsmodells. Zu einem solchen realwirtschaftlich orientierten Geschäftsmodell gehört auch die Fristentransformation insoweit sie sich aus der durch das Kundengeschäfts geprägten Bilanzdimension ergibt und unter Risikoaspekten tragbar ist. Darüber hinaus würde sie über das Ethikrating mit der Kennzahl „Anteil des Realwirtschaftlichen Geschäfts an der Bilanzsumme“ durch das Steuerungssystem tendenziell mit höheren Eigenkapitalkosten belastet. Über die gleiche Systematik werden tendenziell die Eigenanlagen (Depot A) auf einen Einlagenüberhang aus den Kundeneinlagen begrenzt bzw. darüber hinaus über das Ethikrating mit entsprechenden Eigenkapitalkosten belastet. Die operative Zielfunktion ist auf Institutsebene entsprechend auf den Nachhaltigen Erfolg als Produkt von Eigenkapital- oder „Volatilitätsrendite“ und entsprechend kalibriertem Ethikrating auszurichten. Dabei könnte vorbehaltlich weiterer Erfahrungen die Zielerreichung in den beiden Dimensionen zu Beginn gleichgewichtet sein. Zusätzlich ist die laufende Weiterentwicklung des Geschäftsmodells gewissermaßen als „strategische Performance“ in die Steuerungssystematik zu integrieren. Letztlich können alle drei Komponenten in einer Balanced Scorecard zusammengefasst und entsprechend den jeweiligen Möglichkeiten in der Beeinflussung über die Hierarchieebenen auf die einzelnen Organisationseinheiten heruntergebrochen werden (vgl. Abb. 5.4 und 5.5). Die Verantwortung für die flankierende kulturelle Dimension liegt, wie die Einordnung der Risikokultur in AT 3 MaRisk bereits verdeutlicht, ausschließlich bei der Geschäftsleitung. Eine Beurteilung der Entwicklung der Unternehmens- und insbesondere auch der Risikokultur obliegt dem Kontrollorgan des Unternehmens. Anhaltspunkte für die Beurteilung bieten die Mitarbeiter- und Kundenzufriedenheit aus dem Ethikrating sowie die entsprechenden Prüfungsergebnisse zur Risikokultur (zweites SREP-Prüfungsfeld, vgl. Abb. 4.7). Auf diese Weise sollte ein in sich schlüssiges und möglichst von Interessenskonflikten verschontes Zielsystem mit eindeutigen Verantwortlichkeiten entstehen, welches auch Grundlage einer transparenten und für die Betroffenen nachvollziehbaren Anreiz- und Sanktionssystematik ist.
Literatur Atzler, E. und Votsmeier, V. (2021): Volksbank Heilbronn muss wegen Aktien- und Zinsgeschäften mit Millionen gestützt werden, in: Handelsblatt Online vom 23.04.2021, unter: https://www. handelsblatt.com/finanzen/banken-versicherungen/banken/genossenschaftliche-banken-volksbank-heilbronn-muss-wegen-aktien-und-zinsgeschaeften-mit-millionen-gestuetzt-werden, abgerufen am 15.05.2023. Bertelsmann Stiftung (Hrsg.): Messen, werten, optimieren – Erfolg durch Unternehmenskultur, 1. Auflage von 2006, Internetseite der Bertelsmann Stiftung, unter: https://www.bertelsmann-stiftung.de/ fileadmin/files/bst/publikationen/grauepublikationen/gp_messen_werten_optimieren.pdf, abgerufen am: 15.05.2023. Deloitte (2022): Deloitte Trendradar 2022, Ausgabe 2, „ESG, Regulierung & Politik, Wirtschaft & Finanzmärkte, Internetseite von Deloitte, unter: https://www2.deloitte.com/content/dam/deloitte/de/documents/financial-services/deloitte-banking-trend-radar-2ausgabe-de.pdf, abgerufen am 15.05.2023. Denison et al. (2012a): „Diagnosting organizational cultures: A conceptual and empirical review of culture effectiveness surveys“ im European Journal of Work and Organizational Psychology vom 28. August 2012.
Literatur
125
Denison et al. (2012b): „Leading Culture Change in Global Organizations: Aligning Culture and Strategy“, Jossey-Bass Business & Management Series, Band 394 von 2012. Giegerenzer, G. (2008): Bauchentscheidungen – Die Intelligenz des Unbewussten und die Macht der Intuition, 12. Auflage, München 2008. Leusmann, K. (2013): Kulturwandel bei den Banken, Wiesbaden 2013. Neuberger, D. (2018): Bankenregulierung: Auf dem falschen Dampfer, Bürgerbewegung Finanzwende Online, 28.11.2018, unter https://www.finanzwende.de/bolg/bankenregulierung-auf-demfalschen-dampfer/, abgerufen am 15.05.2023. Palii, V. et al. (2017): Die Geschäftsmodellanalyse im Rahmen des Supervisory Review and Evaluation Process (SREP), Deloitte White Paper No. 78 vom 22.03.2017, Seite 11, unter: https://www2.deloitte.de/content/dam/deloitte/at/documents/financial-services/fsi-white-paper-no-78.pdf, abgerufen am 15.05.2023.
6
Zusammenfassung und Ausblick
Die moderne Banksteuerung 1.0, bestehend aus der Zielfunktion zur Maximierung des Shareholder Value und der Nebenbedingung der jederzeitigen Risikotragfähigkeit, erscheint als ein in sich logisches und legitimes Steuerungswerkzeug, welches insbesondere aufgrund seiner bestechenden Eingängigkeit erst einmal keinen Ansatzpunkt für Zweifel bietet. Umso irritierender ist es, dass nach ca. zwei Dekaden Praxiserfahrung die Zielverfehlung umso größer scheint, je konsequenter sie in der Steuerung umgesetzt wird und trotz Einhaltung einer scheinbar wissenschaftlich bzw. mathematisch-statistisch untermauerten Nebenbedingung die Anzahl der Bankpleiten gestiegen ist. Wie in Kap. 3 gezeigt wurde, deutet hinsichtlich der Zielfunktion vieles darauf hin, dass aufgrund der Kurzfristigkeit bei der Beurteilung und „Belohnung“ der Zielerreichung ein Anreiz besteht, die kurzfristige Mehrung des Shareholder Value zu Lasten anderer Stakeholder bzw. zu Lasten zukünftiger Perioden zu erreichen. Hinzu kommt die Wirkung einer asymmetrischen Belohnung in der Form, dass mögliche Misserfolge in späteren Perioden nicht zu Sanktionen, sondern höchstens zu ausbleibenden weiteren Belohnungen führen. Diese bis in die Geschäftsleitung gepflegte Systematik begünstigt zudem „Gewinnspiele“ mit rein spekulativem Charakter, die in der Summe über alle Marktteilnehmer keine Wertbeiträge generieren, sondern nur „Betriebskosten“ verursachen. Bin ich in einer Periode auf der Gewinnerseite, werde ich fürstlich belohnt (Beispiel Bittar). Bin ich in einer Periode auf der Verliererseite, werde ich nicht bestraft. Spätestens an dieser Stelle zeigt sich, dass diese Anreizsystematik sogar gegen die Shareholder wirken muss. Auch dies zeigt sich besonders deutlich bei der Credit Suisse, bei der seit 2013 insgesamt 32 Mrd. Schweizer Franken an Boni gezahlt wurden, während über den gleichen Zeitraum Verluste von 3,2 Mrd. Schweizer Franken verbucht wurden (vgl. Bakir 2023). So verwundert es schließlich nicht, dass die am konsequentesten auf den Shareholder Value fokus-
© Der/die Autor(en), exklusiv lizenziert an Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2023 K. Leusmann, Nachhaltig erfolgreiches Bankmanagement, https://doi.org/10.1007/978-3-658-41929-5_6
127
128
6 Zusammenfassung und Ausblick
sierten großen Universal- und Investmentbanken eine niedrigere Durchschnittsrendite bei größerer Ergebnisvolatilität aufweisen (vgl. Abb. 3.1 und 3.2). Um es mit dem Volksmund zu sagen: „Sie laufen mit voller Energie gegen die Wand, prallen stark zurück und versuchen es danach umso energischer erneut.“ Während sich eine Deutsche Bank aktuell zu erholen scheint, ist die Credit Suisse nach der letzten Kollision mit der Wand nun leblos liegengeblieben. Ganz nebenbei ist auch noch der eigentliche gesellschaftliche Zweck der Banken in Form der Versorgung der Realwirtschaft mit Bankprodukten aus dem Blickfeld verschwunden. Diese Diagnose legt nahe, dass Erfolg nur dann nachhaltig sein kann, wenn der Inte ressensausgleich der Stakeholder Teil der Zielfunktion wird. Im dritten Kapitel wurde gezeigt, dass dieser Interessensausgleich über Indikatoren messbar ist und tatsächlich ein Zusammenhang mit dem nachhaltigen Erfolg, gemessen an der Treynor Ratio, besteht. Dabei ist die ökologische Ausrichtung des Geschäftsmodells Teil dieses Interessensausgleichs. Gewichtet man die Indikatoren geschäftsmodellspezifisch so, dass der Zusammenhang zum nachhaltigen Erfolg maximiert wird, so hat man praktisch ein Ethikrating, welches sich zwangsläufig nachhaltig lohnt. Die notwendige Verknüpfung von Rendite und Ethik hat der ehemalige Vorsitzende der Alfried Krupp von Bohlen und Halbach- Stiftung, Berthold Beitz, mit folgenden Worten zum Ausdruck gebracht: „Der moralische Kapitalismus muss die Grundlage unseres wirtschaftlichen Handelns sein.“ Aufgrund sich immer dynamischer verändernder Umfeldbedingungen muss jedoch ein Geschäftsmodell, was in Vergangenheit und Gegenwart funktioniert hat, nicht in gleicher Form auch für die Zukunft funktionieren. Die vor dem Hintergrund aktueller und absehbarer Umfeldveränderungen regelmäßig vorzunehmende Geschäftsmodellanalyse und ihre agile Weiterentwicklung in der in Abschn. 5.3 aufgezeigten Form müssen daher in die Steuerungssystematik integriert werden. Eine so auf den nachhaltigen Erfolg ausgerichtete neue Zielfunktion sollte sich in einer Unternehmensvision als oberste Ebene der Zielsystematik wiederfinden und damit auch die Mittel-Zweck-Beziehung wieder in der Form vom Kopf auf die Füße stellen, als das Kapital dem Menschen bzw. den Stakeholdern dient und nicht umgekehrt der Mensch bzw. Stakeholder dem Kapital. Während damit die Banksteuerung 1.0 Teil der neuen Zielfunktion bleibt und um notwendige Komponenten ergänzt wird, sieht die Sache bei der Nebenbedingung der Risikotragfähigkeit anders aus. In Kapitel drei wurde nachgewiesen, dass Risiken im Sinne echter Ungewissheiten auf der Basis von Daten der Vergangenheit nicht messbar sind und darauf basierende Risikotragfähigkeitsbeurteilungen mit einem Sicherheitsniveau von beispielsweise den aufsichtlich geforderten 99,9 % eine Illusion sind. Das ist insbesondere deshalb so, weil die wesentliche Prämisse der Risikomodelle, dass die Zukunft eine Wiederholung der Vergangenheit ist, nahezu täglich falsifiziert wird. Zudem wurde gezeigt, dass die daraus folgende drastische Überzeichnung des Sicherheitsniveaus bei gegebener Eigenkapitalausstattung tendenziell dazu verleitet, zu hohe Risiken einzugehen, um die Eigenkapitalrendite zu maximieren. Von daher sollte die „ökonomische Risikotragfähigkeit“ aus der Steuerungssystematik entfernt und durch eine in die Zukunft gerichtete Fra-
6 Zusammenfassung und Ausblick
129
gilitätsanalyse und -begrenzung ersetzt werden. Diese besteht im Kern aus der bestmöglichen Antizipation von Gefahren in der Form von entsprechenden Assessments und „Wenn-Dann-Analysen“. Diese können wiederum um eine Analyse der Risikotreiber und eine darauf ausgerichtete Frühwarnsystematik und Maßnahmenplanung ergänzt werden. Auf diese Art und Weise entsteht eine Kombination aus Robustheit und Flexibilität, welche den Fortbestand des Unternehmens bestmöglich sichert. In Kap. 4 wurde gezeigt, dass die in Kap. 3 aufgezeigten Mängel in der Banksteuerung 1.0 nicht nur die beobachteten Fehlentwicklungen, sondern auch ein Regulierungsdilemma verursacht haben. Dieses besteht darin, dass die auf der gleichen Vergangenheits orientierung beruhenden Regulierungen bei neuen, bisher noch nicht erlebten Fehlentwicklungen immer weiter ausgebaut werden müssen, um das gerade Erlebte wiederum für die Zukunft auszuschließen. Anderenfalls würde sie ja erlebte Fehlentwicklungen für die Zukunft bewusst akzeptieren. Da die Zukunft jedoch keine Wiederholung der Vergangenheit ist, hat dieser Kreislauf praktisch kein Ende und überschreitet durch immer weitere Detailregulierungen irgendwann gefühlt die Grenze von der Markt- zur Planwirtschaft. Im Rahmen dieser Entwicklung wandelt sich praktisch die unternehmerische Verantwortung der Geschäftsleitung in eine Vorschriftserfüllungsverantwortung. Bereits jetzt hat die Regulierung einen Umfang erreicht, bei dem der damit verbundene Aufwand für sich zu einem Risiko wird, gerade auch bei den vielen mittelständischen Regionalinstituten, die diese Entwicklung nicht provoziert haben. In Abschn. 5.5 wurde gezeigt, wie dieses Regulierungsdilemma aufgelöst werden kann, vorausgesetzt, dass die Fehlsteuerungseffekte der Banksteuerung 1.0 in der beschriebenen Form behoben werden. Die neue integrierte „Banksteuerung 2.0“ als Ergebnis der aufgezeigten Ansätze zur Behebung der Probleme des Bankmanagement 1.0 wird in Abb. 6.1 zusammengefasst. Die über die Säulen dargestellte neue Zielfunktion umfasst die beiden Dimensionen des nachhaltigen Erfolgs sowie seine Sicherung bei sich verändernden Umfeldbedingungen
Banksteuerung 2.0
Banksteuerung 1.0
Ethikrating
„Wertbeitrag“ + Volatilitätsrendite
Stakeholderinteressensausgleich
Agile Strategie
Geschäftsmodellanalyse und -entwicklung
NB: Begrenzung der Fragilität– Stärkung der Robustheit
Abb. 6.1 Haus der „Banksteuerung 2.0“. (Quelle: eigene Darstellung)
130
6 Zusammenfassung und Ausblick
durch die agile Weiterentwicklung der Strategie. Das Fundament bildet eine aus der Begrenzung der Fragilität und dem Risikodeckungspotenzial gewonnene Robustheit bezüglich der in der Zukunft liegenden Risiken. Dieses Haus der „Banksteuerung 2.0“ sollte in einer entsprechenden Unternehmensvision bzw. einem entsprechenden „Mission Statement“ verankert und durch eine von der Geschäftsleitung weiter zu entwickelnde Unternehmenskultur (einschließlich Risikokultur) flankiert werden. Ob und inwieweit der hier skizzierte Paradigmenwechsel in Steuerung und Regulierung erfolgen wird, ist eine Frage des politischen Mutes und der unternehmerischen und wissenschaftlichen Einsicht in seine Notwendigkeit. Hochrangige Vertreter der Aufsicht teilen die Ansicht der Notwendigkeit, sehen sich aber als Impulsgeber im „großen Baseler Konzert“ nicht ausreichend durchsetzungsstark und zudem mit dem operativen Krisenmanagement ausgelastet (bekannt aus vertraulichen Gesprächen). Die innerhalb ihrer Grenzen agierende Betriebswirtschaft scheut gleichermaßen einen potenziellen Bedeutungsverlust wie eine interdisziplinäre Zusammenarbeit mit zum Beispiel der Philosophie und Psychologie. Hoffnung macht eine zunehmende Zahl interdisziplinär orientierter Universitäten. In der Bankenpraxis ist zu beobachten, dass Kundenorientierung und Mitarbeiterzufriedenheit tendenziell in zunehmenden Maße Teil der Zielsystematik werden und das Risikomanagement insbesondere bei neuen Risikoarten (Cyber Risk, ESG-Risiken etc.) die Risiken dort sucht, wo sie sind: in der Zukunft. Natürlich ist bei den hier vorgeschlagenen Ansätzen eines Bankmanagement 2.0 noch vieles zu analysieren und zu konkretisieren. Dennoch bleibt zu hoffen, dass der notwendige Paradigmenwechsel durch diesen Beitrag nachvollziehbar geworden ist.
Literatur Bakir, D. (2023): Milliarden-Boni trotz Milliardenverlusten – wie kann das sein? Stern Online vom 20.03.2023;unter: https://www.stern.de/wirtschaft/news/credit-suisse%2D%2Dmilliarden-bonitrotz-milliardenverlusten%2D%2Dwie-kann-das-sein%2D%2D332299220.html, abgerufen am 15.05.2023.