Mathematik für Sozial- und Wirtschaftswissenschaften: Lehrbuch mit Übungsaufgaben [9., unwesentl. veränd. Aufl. Reprint 2015] 9783486804645, 9783486254679

Mathematik-Lehrbuchbestseller. Aus dem Inhalt: Lineare Algebra. Matrizen. Lösungen von linearen Gleichungssystemen. Dete

187 87 39MB

German Pages 318 [320] Year 2000

Report DMCA / Copyright

DOWNLOAD PDF FILE

Table of contents :
Vorwort zur sechsten Auflage
Vorwort zur siebenten Auflage
1 Vektor- und Matrizenrechnung
1.1 Vektoren
1.1.1 Das Rechnen mit Vektoren
1.1.2 Lineare Abhängigkeit und lineare Unabhängigkeit von Vektoren
1.1.3 Vektorraum Vrn
1.2 Matrizen
1.2.1 Das Rechnen mit Matrizen
1.2.2 Skalare Kenngrößen von Matrizen: Rang und Spur
1.2.3 Invertieren einer Matrix
1.2.4 Partitionierte Matrizen, Kronecker-Produkt
1.A Ergänzende Beispiele
1.C Übungsaufgaben
Lösungen der Übungsaufgaben
2 Gauß-Jordan’sches Eliminationsverfahren und Anwendungen
2.1 Einige Grundbegriffe
2.2 Gauß-Jordan’sche Eliminationsverfahren
2.3 Bestimmung des Ranges einer Matrix
2.4 Lineare Gleichungssysteme
2.4.1 Lösen eines linearen Gleichungssystems
2.4.2 Inhomogene, lineare Gleichungssysteme
2.4.3 Homogene lineare Gleichungssysteme
2.4.4 Eigenschaften der Lösung eines linearen Gleichungssystems
2.5 Invertieren einer Matrix
2.6 Bestimmung von Dimension und Basis des von einem Erzeugendensystem aufgespannten Vektorraumes
2.A Ergänzende Beispiele
2.B Ökonomische Anwendungsbeispiele
2.C Übungsaufgaben
Lösungen der Übungsaufgaben
3 Determinanten
3.1 Das Berechnen von Determinanten, ihre Eigenschaften
3.2 Anwendungen
3.2.1 Invertieren einer Matrix
3.2.2 Lösen eines linearen Gleichungssystems
3.2.3 Bestimmen des Ranges einer Matrix
3.A Ergänzende Beispiele
3.B Ökonomische Anwendungsbeispiele
3.C Übungsaufgaben
Lösungen der Übungsaufgaben
4 Eigenwerte, Eigenvektoren; Quadratische Formen
4.1 Das Eigenwertproblem
4.2 Das Eigenwertproblem für symmetrische Matrizen
4.3 Kongruente Matrizen
4.4 Quadratische Formen
4.4.1 Transformieren einer quadratischen Form
4.4.2 Definitheit von quadratischen Formen
4.4.3 Faktorisieren von Matrizen
4.A Ergänzende Beispiele
4.B Ökonomische Anwendungsbeispiele
4.C Übungsaufgaben
Lösungen der Übungsaufgaben
5 Lineare Optimierung
5.1 Ein einführendes Beispiel
5.1.1 Formulierung als lineares Optimierungsproblem
5.1.2 Graphisches Lösungsverfahren
5.1.3 Analytisches Lösungsverfahren
5.2 Die Simplex-Methode
5.2.1 Problem-Formulierung
5.2.2 Der Algorithmus
5.3 Erweiterungen
5.3.1 Gleichungen als Nebenbedingungen
5.3.2 Nebenbedingungen von der Form ̒≥’
5.3.3 Negative Elemente des Beschränkungsvektors
5.3.4 Minimieren der Zielfunktion
5.4 Das duale Problem
5.A Ergänzende Beispiele
5.C Übungsaufgaben
Lösungen der Übungsaufgaben
6 Funktionen
6.1 Einführung
6.2 Grenzwert einer Funktion
6.3 Stetigkeit
6.A Ergänzende Beispiele
6.C Übungsaufgaben
Lösungen der Übungsaufgaben
7 Differentialrechnung
7.1 Funktionen einer Veränderlichen
7.2 Funktionen von mehreren Veränderlichen
7.2.1 Partielle Ableitungen
7.2.2 Differenzierbarkeit von Funktionen mehrerer Veränderlicher
7.2.3 Anwendungen des totalen Differentials
7.A Ergänzende Beispiele
7.B Ökonomische Anwendungsbeispiele
7.C Übungsaufgaben
Lösungen der Übungsaufgaben
8 Extremwertaufgaben
8.1 Funktionen einer Veränderlichen
8.2 Funktionen von mehreren Veränderlichen
8.2.1 Extremwerte ohne Nebenbedinungen
8.2.2 Extremwerte unter Nebenbedingungen
8.A Ergänzende Beispiele
8.B Ökonomische Anwendungsbeispiele
8.C Übungsaufgaben
Lösungen der Übungsaufgaben
9 Integralrechnung
9.1 Das unbestimmte Integral
9.1.1 Substitution der Integrationsvariablen
9.1.2 Partielle Integration
9.1.3 Partialbruchzerlegung: Integration rationaler Funktionen
9.1.4 Universalsubstitution: Integration rationaler Funktionen von Winkelfunktionen
9.2 Bestimmtes Integral
9.3 Uneigentliche Integrale
9.3.1 Integranden mit Unstetigkeitsstelle
9.3.2 Unbeschränktes Integrationsintervall
9.A Ergänzende Beispiele
9.B Anwendungsbeispiele
9.C Übungsaufgaben
Lösungen der Übungsaufgaben
10 Folgen und Reihen
10.1 Zahlenfolgen
10.2 Zahlen- und numerische Reihen
10.3 Funktionenreihen
10.A Ergänzende Beispiele
10.B Ökonomische Anwendungsbeispiele
10.C Übungsaufgaben
Lösungen der Übungsaufgaben
11 Potenzreihen und Taylorreihen
11.1 Potenzreihen
11.2 Taylorreihen
11.A Ergänzende Beispiele
11.B Anwendungsbeispiele
11.C Übungsaufgaben
Lösungen der Übungsaufgaben
12 Gewöhnliche Differentialgleichungen erster Ordnung
12.1 Einleitung
12.2 Differentialgleichungen mit trennbaren Variablen
12.3 Exakte Differentialgleichungen
12.4 Lineare Differentialgleichungen erster Ordnung
12.5 Substitution: Homogene Differentialgleichungen
12.A Ergänzende Beispiele
12.B Ökonomische Anwendungsbeispiele
12.C Übungsaufgaben
13 Lineare Differentialgleichungen
13.1 Einleitung
13.2 Homogene, lineare Differentialgleichungen
13.2.1 Einfache Wurzeln
13.2.2 Mehrfache Wurzeln
13.2.3 Komplexe Wurzeln
13.3 Inhomogene, lineare Differentialgleichungen
13.3.1 Methode der unbestimmten Koeffizienten
13.3.2 Variation der Konstanten
13.3.3 Operator-Methoden
13.A Ergänzende Beispiele
13.B Ökonomische Anwendungsbeispiele
13.C Übungsaufgaben
14 Differenzengleichungen
14.1 Einleitung
14.2 Homogene, lineare Differenzengleichungen
14.2.1 Einfache Wurzeln
14.2.2 Mehrfache Wurzeln
14.2.3 Komplexe Wurzeln
14.3 Inhomogene, lineare Differenzengleichungen
14.3.1 Methode der unbestimmten Koeffizienten
14.4 Das Konvergenzverhalten der Lösung von linearen Differenzengleichungen
14.5 Systeme von linearen Differenzengleichungen
14.6 Darstellung von linearen Differenzengleichungen in Matrixform
14.A Ergänzende Beispiele
14.B Ökonomische Anwendungsbeispiele
14.C Übungsaufgaben
A Komplexe Zahlen
A.1 Definitionen
A.2 Graphische Darstellung der komplexen Zahlen
A.3 Trigonometrische und exponentielle Form der komplexen Zahlen
A.4 Die n-te Wurzel w einer komplexen Zahl z
Literatur
Stichwortverzeichnis
Recommend Papers

Mathematik für Sozial- und Wirtschaftswissenschaften: Lehrbuch mit Übungsaufgaben [9., unwesentl. veränd. Aufl. Reprint 2015]
 9783486804645, 9783486254679

  • 0 0 0
  • Like this paper and download? You can publish your own PDF file online for free in a few minutes! Sign Up
File loading please wait...
Citation preview

Mathematik

für Sozial- und Wirtschaftswissenschaften Lehrbuch mit Übungsaufgaben • ·

Von Universitätsprofessor

Dr. Peter Hackl und Universitätsdozent

Dr. Walter Katzenbeisser

9., unwesentlich veränderte Auflage

R. Oldenbourg Verlag München Wien

Die Deutsche Bibliothek - CIP-Einheitsaufnahme Hackl, Peter: Mathematik für Sozial- und Wirtschaftswissenschaften : Lehrbuch mit Übungsaufgaben / von Peter Hackl und Walter Katzenbeisser. - 9., unwes. veränd. Aufl. - München; Wien : Oldenbourg, 2000 ISBN 3-486-25467-7 NE: Katzenbeisser, Walter:

© 2000 Oldenbourg Wissenschaftsverlag GmbH Rosenheimer Straße 145, D-81671 München Telefon: (089)45051-0 www.oldenbourg-verlag.de Das Werk einschließlich aller Abbildungen ist urheberrechtlich geschützt. Jede Verwertung außerhalb der Grenzen des Urheberrechtsgesetzes ist ohne Zustimmung des Verlages unzulässig und strafbar. Das gilt insbesondere für Vervielfältigungen, Übersetzungen, Mikroverfilmungen und die Einspeicherung und Bearbeitung in elektronischen Systemen. Gedruckt auf säure- und chlorfreiem Papier Gesamtherstellung: MB Verlagsdruck, Schrobenhausen ISBN 3-486-25467-7

Inhaltsverzeichnis V o r w o r t z u r sechsten Auflage

XI

V o r w o r t z u r siebenten Auflage

XII

1

Vektor- u n d M a t r i z e n r e c h n u n g

1

1.1

Vektoren

1

1.1.1

Das Rechnen mit Vektoren

2

1.1.2

Lineare Abhängigkeit und lineare Unabhängigkeit von Vektoren

6

1.1.3 1.2

Vektorraum

Vnr

7

Matrizen

10

1.2.1

Das Rechnen mit Matrizen

11

1.2.2

Skalare Kenngrößen von Matrizen: Rang und Spur . .

13

1.2.3

Invertieren einer Matrix

15

1.2.4

Partitionierte Matrizen, Kronecker-Produkt

15

l.A Ergänzende Beispiele

17

l.C Übungsaufgaben

24

Lösungen der Übungsaufgaben

29

2 G a u ß - J o r d a n ' s c h e s Eliminationsverfahren u n d A n w e n d u n gen 31 2.1

Einige Grundbegriffe

31

2.2

Gaufi-Jordan'sche Eliminationsverfahren

34

2.3

Bestimmung des Ranges einer Matrix

35

2.4

Lineare Gleichungssysteme

35

2.4.1

Lösen eines linearen Gleichungssystems

36

2.4.2

Inhomogene, lineare Gleichungssysteme

39

VI

3

4

Inhaltsverzeichnis 2.4.3

Homogene lineare Gleichungssysteme

40

2.4.4

Eigenschaften der Lösung eines linearen Gleichungssystems

41

2.5

Invertieren einer Matrix

41

2.6

Bestimmung von Dimension und Basis des von einem Erzeugendensystem aufgespannten Vektorraumes

42

2.A Ergänzende Beispiele

43

2.Β Ökonomische Anwendungsbeispiele

48

2.C Übungsaufgaben

52

Lösungen der Übungsaufgaben

59

Determinanten

63

3.1

Das Berechnen von Determinanten, ihre Eigenschaften . . . .

64

3.2

Anwendungen

67

3.2.1

Invertieren einer Matrix

67

3.2.2

Lösen eines linearen Gleichungssystems

3.2.3

Bestimmen des Ranges einer Matrix

.

67 68

3.A Ergänzende Beispiele

68

3.Β Ökonomische Anwendungsbeispiele

70

3.C Übungsaufgaben

72

Lösungen der Übungsaufgaben

74

Eigenwerte, Eigenvektoren; Quadratische Formen

75

4.1

Das Eigenwertproblem

75

4.2

Das Eigenwertproblem für symmetrische Matrizen

80

4.3

Kongruente Matrizen

82

4.4

Quadratische Formen

85

4.4.1

Transformieren einer quadratischen Form

85

4.4.2

Definitheit von quadratischen Formen

86

4.4.3

Faktorisieren von Matrizen

87

4.A Ergänzende Beispiele

88

4.B Ökonomische Anwendungsbeispiele

92

4.C Übungsaufgaben

95

Lösungen der Übungsaufgaben

97

Inhaltsverzeichnis 5 Lineare Optimierung 5.1

5.2

5.3

5.4

6

Ein einführendes Beispiel

VII 99 99

5.1.1

Formulierung als lineares Optimierungsproblem . . . .

100

5.1.2

Graphisches Lösungsverfahren

101

5.1.3

Analytisches Lösungsverfahren

102

Die Simplex-Methode

105

5.2.1

Problem-Formulierung

105

5.2.2

Der Algorithmus

106

Erweiterungen

108

5.3.1

Gleichungen als Nebenbedingungen

108

5.3.2

Nebenbedingungen von der Form ' > '

110

5.3.3

Negative Elemente des Beschränkungsvektors

110

5.3.4

Minimieren der Zielfunktion

110

Das duale Problem

110

5.A Ergänzende Beispiele

113

5.C Übungsaufgaben

120

Lösungen der Übungsaufgaben

123

Funktionen

125

6.1

Einführung

125

6.2

Grenzwert einer Funktion

128

6.3

Stetigkeit

129

6.A Ergänzende Beispiele

131

6.C Übungsaufgaben

134

Lösungen der Übungsaufgaben

134

7 Differentialrechnung

135

7.1

Funktionen einer Veränderlichen

135

7.2

Funktionen von mehreren Veränderlichen

140

7.2.1

Partielle Ableitungen

140

7.2.2

Differenzierbarkeit von Funktionen mehrerer Veränderlicher

142

Anwendungen des totalen Differentials

144

7.2.3

7.A Ergänzende Beispiele

146

7.B Ökonomische Anwendungsbeispiele

149

VIII

8

Inhaltsverzeichnis

7.C Übungsaufgaben

152

Lösungen der Übungsaufgaben

156

Extremwertaufgaben

157

8.1 Funktionen einer Veränderlichen

157

8.2

Funktionen von mehreren Veränderlichen

159

8.2.1

Extremwerte ohne Nebenbedinungen

159

8.2.2

Extremwerte unter Nebenbedingungen

159

8.A Ergänzende Beispiele

162

8.Β Ökonomische Anwendungsbeispiele

164

8.C Übungsaufgaben

167

Lösungen der Übungsaufgaben

168

9 Integralrechnung 9.1

171

Das unbestimmte Integral

172

9.1.1

Substitution der Integrationsvariablen

173

9.1.2

Partielle Integration

173

9.1.3

Partialbruchzerlegung: Integration rationaler Funktionen

174

Universalsubstitution: Integration rationaler Funktionen von Winkelfunktionen

176

9.1.4 9.2

Bestimmtes Integral

177

9.3

Uneigentliche Integrale

178

9.3.1

Integranden mit Unstetigkeitsstelle

179

9.3.2

Unbeschränktes Integrationsintervall

179

9.Α Ergänzende Beispiele

180

9.Β Anwendungsbeispiele

188

9.C Übungsaufgaben

191

Lösungen der Übungsaufgaben

193

10 Folgen und Reihen

195

10.1 Zahlenfolgen

195

10.2 Zahlen- und numerische Reihen

198

10.3 Funktionenreihen

202

10.A Ergänzende Beispiele

205

Inhaltsverzeichnis

IX

10.B Ökonomische Anwendungsbeispiele

210

10.C Übungsaufgaben

213

Lösungen der Übungsaufgaben

215

11 Potenzreihen und Taylorreihen

217

11.1 Potenzreihen

217

11.2 Taylorreihen

219

11.Α Ergänzende Beispiele

221

11.Β Anwendungsbeispiele

223

11.C Übungsaufgaben

227

Lösungen der Übungsaufgaben

228

12 Gewöhnliche Differentialgleichungen erster Ordnung

229

12.1 Einleitung

229

12.2 Differentialgleichungen mit trennbaren Variablen

233

12.3 Exakte Differentialgleichungen

233

12.4 Lineare Differentialgleichungen erster Ordnung

238

12.5 Substitution: Homogene Differentialgleichungen

239

12.A Ergänzende Beispiele

240

12.Β Ökonomische Anwendungsbeispiele

242

12.C Übungsaufgaben

246

13 Lineare Differentialgleichungen

249

13.1 Einleitung

249

13.2 Homogene, lineare Differentialgleichungen

251

13.2.1 Einfache Wurzeln

251

13.2.2 Mehrfache Wurzeln

253

13.2.3 Komplexe Wurzeln

254

13.3 Inhomogene, lineare Differentialgleichungen

255

13.3.1 Methode der unbestimmten Koeffizienten

255

13.3.2 Variation der Konstanten

256

13.3.3 Operator-Methoden

258

13.Α Ergänzende Beispiele

260

13.B Ökonomische Anwendungsbeispiele

262

13.C Übungsaufgaben

265

Inhaltsverzeichnis

χ 14 Differenzengleichungen

269

14.1 Einleitung

269

14.2 Homogene, lineare Differenzengleichungen

272

14.2.1 Einfache Wurzeln

274

14.2.2 Mehrfache Wurzeln

275

14.2.3 Komplexe Wurzeln

276

14.3 Inhomogene, lineare Differenzengleichungen 14.3.1 Methode der unbestimmten Koeffizienten

277 278

14.4 Das Konvergenzverhalten der Lösung von linearen Differenzengleichungen

279

14.5 Systeme von linearen Differenzengleichungen

283

14.6 Darstellung von linearen Differenzengleichungen in Matrixform 284 14.A Ergänzende Beispiele

285

14.B Ökonomische Anwendungsbeispiele

288

14.C Übungsaufgaben

292

Α Komplexe Zahlen

295

A.l Definitionen

295

A.2 Graphische Daxstellung der komplexen Zahlen

296

A.3 Trigonometrische und exponentielle Form der komplexen Zahlen298 A.4 Die n-te Wurzel w einer komplexen Zahl ζ

299

Literatur

301

Stichwortverzeichnis

303

Vorwort zur sechsten Auflage Diese sechste Auflage ist eine wesentliche Überarbeitung der früheren Auflagen. Zielsetzung dieses Buches ist es, das für die Sozial- und Wirtschaftswissenschaften notwendige mathematische Instrumentarium zu vermitteln. Entsprechend dem Einsatz des Buches als begleitendes Textbuch zu Vorlesungen und Übungen für Studenten der Sozial- und Wirtschaftswissenschaften wollen wir dem Leser eine Möglichkeit zum selbständigen Erarbeiten des mathematischen Instrumentariums geben. Durch die Überarbeitung wollten wir vor allem die Lesbarkeit verbessern. Viele der Verbesserungen, die in die neue Auflage eingegangen sind, resultieren aus unseren Erfahrungen im Einsatz der früheren Auflagen. Der Aufbau des Buches und der einzelnen Kapitel ist gleich geblieben. Jedes Kapitel gliedert sich in drei Teile: Im ersten Teil wird der Stoff des Kapitels mit Betonung der jeweils relevanten Definitionen, Sätze und Techniken dargestellt. Wir verzichten weitgehend auf strenge, mathematische Beweise. Entsprechend unseren Erfahrungen, die wir in wiederholt abgehaltenen Lehrveranstaltungen gewonnen haben, scheinen uns Erläuterungen an Hand illustrierender Beispielen für den angesprochenen Leserkreis motivierender und adäquater zu sein. Im zweiten Teil werden typische Anwendungen der besprochenen Methoden an Hand gelöster und kommentierter Beispiele in exemplarischer Weise dargestellt. Als Motivation für die Auseinandersetzung mit den behandelten mathematischen Methoden und als Hilfe für ihre Anwendung in den Sozial- und Wirtschaftswissenschaften werden die meisten Kapitel durch die Diskussion ökonomischer Anwendungsbeispiele ergänzt. Am Ende eines jeden Kapitels findet sich eine große Zahl von Übungsaufgaben. Die durch die Vorgabe der Lösungen unterstützte Bearbeitung der Übungsaufgaben soll dem Studenten helfen, sein Verständnis für den Stoff zu vertiefen und Übung bei der selbständigen Handhabung des Instrumentariums zu erlangen. Zu Dank sind wir verpflichtet Verena Hackl für die Arbeit, das vorhandene Manuskript in eine mit l^jXverarbeitbare Form zu bringen. Besonderer Dank gilt jenen Studenten, die durch Hinweise auf Fehler in früheren Auflagen zur Verbesserung des Buches beigetragen haben. Schließlich möchten wir Herrn Dipl.-Vw. Martin Weigert vom Oldenbourg Verlag für die nun schon jahrelange angenehme Zusammenarbeit herzlich danken.

Peter Hackl Walter Katzenbeisser Wölfgang Panny

Vorwort zur siebenten Auflage Die vorliegende siebente Auflage unseres Buches unterscheidet sich von der sechsten Auflage neben kleineren Korrekturen durch eine wesentliche Erweiterung des Inhaltes. Motiviert durch die zunehmende Formalisierung der Ökonomie sahen wir uns veranlaßt, das mathematische Instrumentarium der früheren Auflagen um drei Kapitel zu erweitern, die eine Einführung in die Behandlung von in der dynamischen Wirtschaftstheorie wichtigen Differential- und Differenzengleichungen geben. Der Aufbau des Buches ist auch in dieser Erweiterung der in den anderen Kapiteln bewährte geblieben. Entsprechend dem höheren Anspruchsnineau wurde in den neu aufgenommenen Kapiteln ein größerer Wert auf mathematische Strenge gelegt. Nach unseren Erfahrungen eignet sich das Buch als begleitendes Textbuch einer "Mathematik für Sozial- und Wirtschaftswissenschafter", die aus Kursen in A. Einführung in die lineare Algebra(Kap. 1-5) B. Einführung in die Differential- und Integralrechnung (Kap. 6-11) C. Einführung in Differential- und Differenzengleichungen (Kap. 12-14) besteht. Der letzte Teil ist besonders für das Studium der Volkswirtschftslehre und formalisierter Bereiche der Betriebswirtschaftslehre wie Operations Research von Interesse. Wir hoffen, daß auch diese neue Auflage bei Kollegen und Studenten wohlwollend aufgenommen wird. Seit Herbst 1989 leitet unser Mitautor der bisherigen Auflagen, Univ.Prof. Dr. Wolfgang Panny, das Extraordinariat "Angewandte Informatik" an der hiesigen Wirtschaftsuniversität. Als Folge der damit verbundenen Änderung seines Wirkungsschwerpunktes steht er als Mitautor dieser und zukünftiger Auflagen nicht mehr zur Verfügung. Wir sind ihm für seinen langjährigen Beitrag zum Entstehen dieses Buches und zu seiner laufenden Verbesserung verbunden.

Vorwort zur achten und neunten Auflage Die achte Auflage wurde wiederum gründlich überarbeitet. In der neunten Auflage konnten wir uns darauf beschränken, den gesamten Text kritisch durchzusehen.

Kapitel 1

Vektor- und Matrizenrechnung Lineare Strukturen haben in der Ökonomie große praktische Bedeutung. In Marktmodellen wird der Preis eines Produktes als lineare Funktion der Angebots- bzw. der Nachfragemenge beschrieben. Die Input-Output-Analyse bildet die Endverbrauchsmengen als lineare Funktion der von den verschiedenen Sektoren nachgefragten Mengen ab und gestattet die Analyse komplexer Zusammenhänge in einer Wirtschaft durch die lineare Approximation der tatsächlichen Beziehungen. Die lineare Optimierung gestattet das Auffinden des Optimums einer linearen Zielfunktion unter Berücksichtigung linearer Restriktionen in Ungleichungsform; Bestimmung eines optimalen Produktionsmix oder Transportweges sind wichtige Anwendungen. Zentrale Begriffe aller dieser Anwendungen sind Vektoren und Matrizen. Die algebraische Behandlung dieser Objekte behandelt die Lineare Algebra. Durch vereinfachte Notation erleichtert die Verwendung der Vektor- und Matrizenrechnung das Formulieren von linearen Problemen und das Aufsuchen der Lösungen. Der Abschnitt 1 bringt die Grundlagen dieses wichtigen Teils der Mathematik. Im Abschnitt 2 behandeln wir das für Standardaufgaben vielleicht wichtigste Rechenverfahren, das Gauß-Jordan'sche Eliminationsverfahren, und seine Anwendung zur Lösung linearer Gleichungssysteme. Die Abschnitte 3 bis 5 diskutieren weitere für die Anwendung in der Wirtschaftsmathematik wichtige Themen wie Determinanten, das Eigenwertproblem und Lineare Optimierung.

1.1

Vektoren

Definition 1.1 Ein Vektor ist ein geordnetes n-Tupel reeller Zahlen.

2

Mathematik für Sozial- und

Wirtschaftswissenschaften

Im allgemeinen werden wir die K o m p o n e n t e n ι,·, t = 1 , . . . , n , eines Vektors χ in Form eines Spaltenvektors

χ=

anordnen. Werden die Komponenten des Vektors in Zeilenform (®i,... ,xn) geschrieben, so sprechen wir von einem Zeilenvektor. Ein n-komponentiger Vektor wird auch n-Vektor genannt. Der n-komponentige Zeilenvektor x', dessen i-te Komponente mit der i-ten Komponente des τι-komponentigen Spaltenvektors χ übereinstimmt, heißt der zu χ t r a n s p o n i e r t e Vektor. Zur Unterscheidung von Vektoren werden reelle Zahlen auch Skalare genannt. Beispiel 1.1 Den Punkten des kartesischen Koordinatensystems können wir Vektoren - sogenannte Ortsvektoren - zuordnen: Dem Vektor χ = (3,4)' entspricht der Punkt mit den Koordinaten (3,4) der Ebene; dem Vektor y = (1,3,2)' entspricht der Punkt (1,3,2) des dreidimensionalen Koordinatensystems. Einige spezielle Vektoren, die wir im weiteren verwenden werden, sind der Einheitsvektor e ^ , das ist ein Vektor, dessen i-te Komponente e,· = 1, während für alle anderen Komponenten ej ( j φ i) gilt ej = 0, und der Nullvektor 0, ein Vektor, dessen Komponenten alle Null sind. 1.1.1

D a s R e c h n e n m i t Vektoren

Definition 1.2 Zwei n-Vektoren χ und y nennen wir gleich, wenn x,· = ju für i = 1,... ,n. Analog sind die Relationen definiert. So bedeutet χ < y, daß Xj < yi für i = 1 , . . . , n. Beispiel 1.2 Für die Vektoren χ = (3,4)', y = (1,2)' und ζ = (1,3,2)' gelten folgende Beziehungen: (a) χ = a, wenn α = (αϊ, = (1,0,0)', = (0,1,0)' und = (0,0,1)' daxstellen: X

1.1.2

=

Γ21 3 3 = Σ > ί=1 1

( 0

=

2

1 0 0

+ 3

0 1 0

+ 1

0 0 1

=

2 3 1

Lineare Abhängigkeit und lineare Unabhängigkeit von Vektoren

Ein zentraler Begriff der linearen Algebra ist die lineare Abhängigkeit bzw. lineare Unabhängigkeit von Vektoren. Definition 1.8 Die Vektoren heißen linear abhängig (La.), wenn es Skalare c\,..., et gibt, die nicht alle Null sind, sodaß k $ > * ( · ' ) = 0. i=l Andernfalls heißen die Vektoren linear unabhängig (l.u.). Beispiel 1.7 Die Vektoren cW = (1,0,0)' und e = (0,1,0)' sind linear unabhängig, da die Beziehung Σ c.e^ = 0 genau dann gilt, wenn alle Ci = 0. Satz 1.2 Eigenschaften der linearen Unabhängigkeit: (a)

. . . , kW sind linear abhängig, wenn zumindest einer der Vektoren als Linearkombination der übrigen darstellbar ist;

(b) eine Menge von k n-Vektoren mit k > η ist linear abhängig; (c) ist einer der Vektoren a:'1),. toren linear abhängig;

der Nullvektor, so sind diese Vek-

(d) eine Teilmenge von linear unabhängigen Vektoren ist linear unabhängig•

Vektor- und

7

Matrizenrechnung

Zur praktischen Bestimmung der linearen Unabhängigkeit muß das folgende lineare Gleichungssystem gelöst werden: c n f 1 + c2x , · . 1=1

14

Mathematik für Sozial·· und

Wirtschaftswissenschaften

Satz 1.7 Eigenschaften der Spur einer Matrix: Α und Β seien η χ nMatrizen, k eine reelle Zahl; es gilt Sp(A + B) Sp(kA)

= =

Sp(A) + Sp(B) kSp(A)

Sp (A') Sp (AB)

= =

Sp(A) Sp (BA)

Die Definition des Ranges einer Matrix basiert auf den Spaltenvektoren, das sind die Spalten der Matrix. Alternativ kann der Rang einer Matrix auf der Basis von Zeilenvektoren definiert werden. Definition 1.18 Der R a n g r(j4) der η χ m-Matrix Α ist die größte Anzahl linear unabhängiger Spaltenvektoren von A. Siehe Beispiel 1.19. Eine effiziente Methode zur Bestimmung des Ranges einer Matrix wird in Kapitel 2 behandelt. Satz 1.8 Für den Rang einer Matrix gelten folgende Aussagen: (a) Die größte Zahl linear unabhängiger Zeilenvektoren von Α ist gleich der größten Zahl linear unabhängiger Spaltenvektoren, d.h. der Zeilenrang von Α ist gleich dem Spaltenrang von A. (b) Hat Α die Ordnung (η χ πι), so gilt r(^4) < min(n, τη). (c) Der Rang einer Nullmatrix 0 beliebiger Ordnung ist r(0) = 0. (d) Der Rang der Einheitsmatrix In ist τ(I„) = n. (e) Für eine Matrix beliebiger Ordnung gilt i(A') = r(j4). ( f ) Für das Produkt AB gilt r ( A B ) < min[r(A),r(5)]. Definition 1.19 Der Rang einer Matrix Α heißt voll, wenn r (A) = min(n, m ) . Eine quadratische Matrix mit vollem Rang heißt regulär oder nicht-singulär. Satz 1.9 Für den Rang einer Matrix gelten: (a) i(AB) = r(Β), wenn Α quadratisch und nicht-singulär ist. (b) Ist A idempotent, so gilt: r(A) = Sp(vl).

Vektor- und Matrizenrechnung 1.2.3

15

Invertieren einer M a t r i x

Das Invertieren einer Matrix ist ein zentraler Begriff der linearen Algebra. Wir sprechen in diesem Abschnitt von quadratischen Matrizen. Definition 1.20 Die Inverse A _ 1 einer η χ η-Matrix ist, falls sie existiert, eine η X η-Matrix, für die gilt Α·Α-1

= Α~1·Α

= Ιη.

Eigenschaften der inversen Matrix: Α und Β seien nicht-singuläre η χ nMatrizen, und k sei eine reelle Zahl mit k φ 0; es gilt (fcA)- 1

(AT11 (AB)-

- 1 AA - 1 ~ k = (A'λ1)' = Β~ Α~

Das Beispiel 1.20 zeigt, wie die Inverse A 1 einer Matrix Α durch das Lösen linearer Gleichungssysteme berechnet werden kann. Satz 1.10 Für die Inverse einer Matrix gelten folgende Aussagen: (α) Α ist genau dann invertierbar, wenn sie nicht-singulär ist. (b) A-1

ist symmetrisch, wenn Α symmetrisch ist.

(c) Die Inverse einer orthonormalen Matrix C ist die zu C transponierte Matrix C': C'C = CC' = I. Ein effizientes Verfahren zur Bestimmung der Inversen wird in Kapitel 2 behandelt. 1.2.4

Partitionierte M a t r i z e n , Kronecker-Produkt

Manchmal ist es praktisch, eine Matrix in Submatrizen zu partitionieren: Sei Α = [Αι, A2], wobei Αχ von der Ordnung η χ mi und Αι von der Ordnung η X ni2 ist; Α ist daher eine η X (mi + m2)-Matrix. Die oben definierten Matrizenoperationen wie Addition, skalare Multiplikation, Invertieren etc. können entsprechend dem folgenden Satz 1.11 auf Operationen in den Submatrizen zurückgeführt werden. Voraussetzung ist, daß die Submatrizen entsprechende Ordnung haben. Satz 1.11 Α = [Αχ, A2] und Β = [B\, £2] seien entsprechend partitioniert; dann gilt

Mathematik für Sozial- und

16

(a) A + B = [A1 + Bl,A2 (b) A' = [AuA2]'

=

(c) AB' = [AuA2]

Wirtschaftswissenschaften

+ B3]

4 4 Bi,

= ΑχΒΙ + A2B'2

(d) A set eine quadratische, nicht-singulare Matrix der Ordnung η χ η: A

An A21

=

;4i2

A22

sodaß die Submatrizen A,; (i = 1,2) nicht-singuläre Matrizen der Ordnung n{ (n\ + «2 = n) sind; dann gilt Α'1 = B =

Bn Β2i

B 22

wobei Bn B\2 B2\ B22

= (An-AuAgAn)-1 = - Bi\A\2A22 = -A22A2iBn = Anil - A2\B\2).

Definition 1.21 Das Kronecker-Produkt Α ® Β einer η X m-Matrix A mit einer ρ χ q-Matrix Β ist definiert als

A®B

a\\B

...

a\mB

. ο„ιΒ

...

anmB

=

Α ® Β ist von der Ordnung np χ mq. Satz 1.12 Eigenschaften des Kronecker-Produkts: Αι (A2) seien Matrizen der Ordnung η χ m (m χ l), B\ (B2) Matrizen der Ordnung ρ χ q (q χ s), k set eine reelle Zahl; dann gilt (α) Αλ®Βι+Α2®Β1

= [Α!+Α2]®Βι;

(b) k(Ai ® Bi) = kAi ®

A1®B1+Al®B2

= Ax ® kBx.

(c) (Ax ® Bi) · (A2 ® B2) = AXA2 ® BxB2.

= AiQlBx + Bi].

Vektor- und

17

Matrizenrechnung

(d) Sp(Ai ® Bj) = Sp(Ai) · Sp(5i). (e) Αχ und B\ seien invertierbare Matrizen (η = τη, ρ = q); dann gilt

(At ® B i ) - 1

=

Αϊ 1 ® 5 Γ 1 .

Siehe Beispiel 1.22.

l . A Ergänzende Beispiele Beispiel 1.14 Zwei Vektoren X

=

' 1 " 2 1

,

' 2 ' 1 λ

y =

sind gegeben. (a) Welchen Winkel schließen χ und y ein, wenn λ = 2 ? (b) Für welches λ sind χ und y orthogonal. (a) Aus x 'y cos φ = „ „„ „ =

Ikllllvll

6

η oi«

^ _ = 0.816

ergibt sich φ = arccos 0.816 = 35.3°. (b) Die Vektoren χ und y heißen orthogonal (φ = 90°), wenn x'y = 2 + 2 + A = 0. Somit ergibt sich λ = —4.

Beispiel 1.15 Drei Vektoren », j und k sind gegeben: ' 1' 2

,

L _— Κ

'

0' 1

,

1=

2 5

Es ist zu ermitteln (a) die Dimension τ des von { j , k, 1} aufgespannten Vektorraumes V\ (b) eine Basis von V. (c) Welche Basen können von { j , k} durch Austausch eines Vektors abgeleitet werden, wenn zum Austauschen l zur Verfügung steht?

Mathematik für Sozial- und

Wirtschaftswissenschaften

(a) Sind die Vektoren linear unabhängig? Das komponentenweise Anschreiben der Vektorgleichung Ci

1 2

0 1

+ c2

+ c3

2 5



0 0

ergibt 0 ci +2C3 2ci + c2 + 5c3 0; aus der ersten Gleichung folgt ci = —2C3; wählen wir z.B. C3 = 1, so erhalten wir C2 = — 1 und ci = —2. Daraus folgt r < 3. Sind irgendwelche zwei dieser drei Vektoren linear unabhängig? Z.B. können wir j und k auf lineare Unabhängigkeit untersuchen. Dazu setzen wir 1 0 0 Cl 2 + c2 1 0 als Lösung des Gleichungssystems ci = 0 2CI + C2

=

0,

erhalten wir c\ = c2 = 0. Somit gilt r = 2. (b) Da r = 2 und j und k linear unabhängige Vektoren sind, bilden diese beiden Vektoren eine Basis von V; jeder beliebige Vektor χ = (xi,z 2 )' kann in eindeutiger Weise dargestellt werden: ' 1 ' xi + = CL 2 . . komponentenweises Anschreiben ergibt xi = ci x 2 = 2ci •c2 bzw. Ci = xi c2 = ® 2 — 2xi; daraus folgt:

χ = ®i

+ (®2 - 2xi)

m

Zum Beispiel können wir l darstellen als 1=

= 2

(siehe Abbildung 1.3). (c) Wegen 1=2

und Satz 1.5 sind abgeleitete Basen {/, £} und { j , /} (siehe Abbildung 1.3).

19

Vektor- und Matrizenrechnung 1. K o m p .

= 2j + k

0

f.

2. Komp.

Abbildung l.S: Graphische Darstellung der Vektoren j, k und l = 2j + k. Beispiel 1.16 AQ = {α^Ι,ο^,αΡ'} mit II rT

II

' 0" 2 0

" 1 ' 1 1

, « =

' 0 ' 1 1

sei die Basis eines Vektorraumes. Diese Basis soll nun schrittweise in eine orthonormale Basis { ν ^ , ν ^ , ν ^ } umgeformt werden, die denselben Vektorraum wie Ao aufspannt. [Dieses Beispiel illustriert das Herleiten des GramSchmidt'sehen Orthonormierungsverfahrens (Satz 1.6).] Wir beginnen mit dem Normieren des Vektors a^ 1 ': „W =

"0" 2 0

|aW||

=

' 0" 1 0

In diesem ersten Schritt haben wir die Basis Αι = {υ^',α^^,α^ 3 ^} erhalten. Im zweiten Schritt soll der Vektor u( 2 ) als Linearkombination von υ^1) und a( 2 ) gebildet werden, sodaß (i) u ^ und damit der Basis Ai für a( 2 ) ausgetauscht werden kann, und (ii) u ^ orthogonal zu v^1) ist. Wir wählen die Linearkombination u( 2 ) = 1 · al·2) + Da der Koeffizient von af·2) in dieser Linearkombination 1 ist, kann Bedingung (t) gemäß Satz 1.5 erfüllt werden. Bedingung (ii) führt zur Bestimmung von C21: „(D' u ( 2 )

=

^ [ a W + cneW]

=

r(D'a(

2

) + c21vW'vV = v^'a™ + c21 = 0.

Daher gilt C21 = —v^'al··2). Damit erhalten wir vi2)·. u

=

e(

2

)+

C2l0(

1

)=a(2)-[»(1)'a(2)]«(1)

Mathematik für Sozial· und Wirtschaftswissenschaften )_£[00)'a]„t» i=i • 1" 1 1 -(0,1,0) 1 1 1

a(

=

2

0 1 0



=

1 0 1

Schließlich normieren wir « O und erhalten „(2) = 1 (2 ) _ J _ ΙΙ« ( 2 ) |Γ

" V5

Somit ergibt sich nach dem zweiten Schritt die Basis A2 = {t^ 1 ), t>(2), e^3)}, die die Eigenschaft hat, daß die Teilmenge der neuen Vektoren »W und t^ 2 ) bereits orthonormiert ist. Analog wird im dritten Schritt der Vektor u(3) als Linearkombination von a( 3 ) und den schon orthonormierten Vektoren »W und v ^ aus A2 dargestellt: (1) «(3) (und damit ^caTin ^ für a ausgetauscht werden; (ii) v\3> ist zu vW und v(2) orthogonal Wählt man als Linearkombination u(3) = 1 ·a^ 3 ) + C3iv^ + C32vW, so ist gemäfi Satz 1.5 die Bedingung (i) erfüllt. Die Bedingung (ii) führt zur Festlegung der Skalare C31 und C32: „(D'uO)

„(2)'«(3>

=

„(1)'[α(3) +

=

»«>

=

υ(

=

vW'aW + c31vW'vW +

=

u (2) V 3 > + c 32 = 0

2

+ C

C 3 i C (l) +

^„(2)]

C31=-A B)~l (e) (A ® B)(C ® £>)

Lösungen der Übungsaufgaben 1: (a) ( 3 , 2 , - 1 ) ' ; (b) (0,1,7)'; (c) (3,15,0)'; (d) (18, - 2 1 , - 1 3 ) ' ; (e) ( - 5 , - 3 9 , -26)'. 3: (a) (-1,11,8)'; (b) ( - 4 , 5 , - 4 ) ' ; (c) (10,16,0)'. 4: (a) 2 , 3 , - 1 ; (b) (c) 5 , - 2 , 2 . 5: (a) 0; (b) - 1 4 : (c) 1; (d) - 8 ; (e) nicht definiert. β: (a) - 1 4 ; (b) ±4; (c) 1; (d) - 1 . 7: (a) v/39; (b) y/Ü\ (c) 13. 8: (a) ±0.25; (b) 9: (a) n/IÖ; (b) v/61; (c) V§Ö; (d) v/M; (e) v/47. 10: (a) 2; (b) 3; (c) b. 11: (a) «W = e(3), »(2> = e(3) = 3 ^ oder = ^ ( 1 , 1 , 1 ) ' , t;

die gleich dem Vektor b ist. Bei der Lösung eines linearen, inhomogenen Gleichungssystems Ax = b müssen wir drei Fälle unterscheiden. (a) r = m = n: Es existiert eine eindeutige Lösung. Sie lautet χ = A - 1 6 = b*. (b) r < n: Unter den η Gleichungen sind η — τ redundant, d.h. sie sind Linearkombinationen der nicht-redundanten Gleichungen. Die Lösung der nicht-redundanten Gleichungen erfüllt daher auch die redundanten Gleichungen, die somit beim Aufsuchen der Lösung weggelassen werden können. In der kanonischen Form von [A, b] sind die letzten η — r Zeilen Nullvektoren. Siehe Beispiel 2.9.

40

Mathematik für Sozial- und Wirtschaftswissenschaften

(c) r = η < τη, wobei η die Zahl der nicht-redundanten Gleichungen ist. Α läfit eich partitionieren in Α = [Λι,ϋ], wobei r(j4) = r; Ai enthält die r linear unabhängigen Spalten von A. Analog partitionieren wir Χ = (XA,XR)\ wobei χ Α der r-Vektor der Basisvariablen ist; er enthält jene Unbekannten, die den linear unabhängigen Spalten von A entsprechen. Aus Ax = [AUR] (

) = ΜxA + Ä X R = b

enthalt wir ΧA =

A^b -

A^XR,

d.h. für ein beliebig vorgegebenes XR kann Χ Α eindeutig bestimmt werden. Es gibt unendlich viele Lösungen! Siehe Beispiel 2.10. Beachte: Im allgemeinen wird es mehrere Möglichkeiten - maximal (™) geben, die Nichtbasisvariablen auszuwählen. Damit ist die Zerlegung von A in [Ai,2i] bzw. (XA,XR)' nicht eindeutig. Definition 2.4 Unter einer Basislösung verstehen wir eine Lösung, in der die Nichtbasisvariablen Null gesetzt sind: XR = 0 xb = J^

|

mit

xb = A^b.

Entsprechend der letzten Anmerkung lassen sich im allgemeinen mehrere maximal (™) - Basislösungen angeben. 2.4.3

Homogene lineare Gleichungssysteme

Darunter versteht man ein lineares Gleichungssystem Ax - b mit 6 = 0. Für die Lösbarkeit eines homogenen, linearen Gleichungssystems gilt: Da r(A) = r(A,b) = r, sind homogene lineare Gleichungssysteme immer lösbar. Beim Aufsuchen der Lösung eines homogenen, linearen Gleichungssystems unterscheiden wir zwei Fälle. (a) Die Beziehung Ax = 0 wird durch χ = 0 stets erfüllt. Die Lösung i = 0 nennt man die triviale Lösung.

Gauß-Jordan'sches Eliminationsverfahren und Anwendungen

41

(b) Damit auch nichttriviale Lösungen existieren, maß r < m erfüllt sein; die Lösung ergibt sich wie bei inhomogenen linearen Gleichungssystemen, Fall (c), zu

.

X

R .

mit beliebig vorgegebenem XR und x

A

=

- A ^ R - X R .

Siehe Beispiel 2.11. 2.4.4

Eigenschaften der Losung eines linearen Gleichungssystems

Satz 2.4 Die Lösung eines linearen Gleichungssystems hat folgende Eigenschaften. (a) Die Menge aller Lösungen des homogenen linearen Gleichungssystems bilden einen Vektorraum V™~T von der Dimension m-r, der der Kern (oder Nullraum) von Α genannt wird. Ist r = m, so ist die triviale Lösung χ = 0 die einzige Lösung, und V™~T hat die Dimension Null. (b) Die allgemeine Lösung χ des inhomogenen linearen Gleichungssystems Ax = b kann zusammengesetzt werden aus der allgemeinen Lösung XJJ des homogenen Teils Αχ = 0 und einer beliebigen speziellen Lösung, z.B. einer Basislösung χ β des inhomogenen linearen Gleichungssystems: x = XH +

2.5

Invertieren einer Matrix

Wird durch Anwendung der elementaren Transformationen E i , . . . , H p aus einer η χ η-Matrix Α die Einheitsmatrix als kanonische Form von Α erzeugt, d.h., gilt HP...H1A

= I,

so ist r(A) = η, Α somit nicht-singulär und damit invertierbar. Die i-te Spalte, i = l , . . . , n , von A~x ergibt sich als Lösung eines linearen Gleichungssystems mit der Koeffizientenmatrix Α und der rechten Seite e(')

42

Mathematik für Sozial- und

Wirtschaftswissenschaften

(vergleiche Kapitel 1, Beispiel 1.20). Wegen der Gleichheit der Koeffizientenmatrizen Ifanri das Lösen der Gleichlingssysteme, von denen jedes einer rechten Seiten eW, i = 1 , . . . , n, entspricht, simultan erfolgen! Η,.,.ΗιΙ

= A~l.

Zur Berechnung von

transfomiert man die erweiterte Matrix

[A,I)~[I,A-\ Siehe Beispiel 2.12. Beachte: Die Überprüfung der Voraussetzung, daß Α nicht-singulär ist, und die Berechnung der Inversen erfolgen gemeinsam durch das Herleiten der kanonischen Form der erweiterten Matrix [J4,J].

2.6

B e s t i m m u n g von Dimension und Basis des von e i n e m Erzeugendensystem aufgespannt e n Vektorraumes

S a t z 2.5 Die n-Vektoren x ' 1 ' , . . . seien ein Erzeugendensystem Vektorraumes V und die Spaltenvektoren der η χ η-Matrix X.

des

(α) Sei der Rang r(X) = r, dann lassen sich r linear unabhängige Vektoren unter finden, die eine Basis des Vektorraumes V bilden. (b) Die Dimension von V ist gleich dem Rang r(X) = r der Matrix X. (c) Eine Basis von V ist durch jene Spaltenvektoren von X gegeben, denen in der kanonischen Form von X die Einheitsvektoren entsprechen. In der Notation von Kapitel 1 bezeichnen wir den Vektorraum aus Satz 2.5 mit V*. Das folgende Beispiel läßt erkennen, wie das Gauß-Jordan'sche Eliminationsverfahren benützt werden kann, um die Dimension und eine Basis des von einem Erzeugendensystem aufgespannten Vektorraumes zu bestimmen. Beispiel 2.6 Die Vektoren x W , . . . ,χ( 4 ) seien die vier Spaltenvektoren der Matrix Α aus Beispiel 2.3. Da r(A) = 2, spannen i ' 1 ' , . · · , 1 ' 4 ' den Vektorraum Vf auf. Eine Basis ist durch die Vektoren χ Μ und χ(3) gegeben, da diesen Vektoren die Einheitsvektoren in der kanonischen Form entsprechen. Siehe auch Beispiel 2.13.

Gauß-Jordan'sches Eliminationsverfahren und Anwendungen

43

2.A Ergänzende Beispiele Beispiel 2.7 Für die Matrix

A =

1 2 -1

2

-

4 -2

1 4 2 4 6 -7

(a) ist der Raiig zu bestimmen; (b) sind die elementaren Transformationen zur Reduzierung auf die kanonische Form anzugeben. (a) Der Rang der Matrix formationen 1 A = 2 -1 1 2 0

0

0

0

Α ergibt sich unter Anwendung elementarer Trans2 - 1 4 4 2 4 -2 6 -7 - 1 4 1 - 1

5

-3

2

-1

0 0 0 0

1

4 5

1 2 0 0 0 1 0 0 0

-4 -3

3 ' -1 2

1 2 0 0 0 0 1 0 0 0 0 1

zu r(A) = 3.

(b) Die elementaren Transformationen zur Reduzierung auf die kanonische Form sind 2Γ«(-2),ίΐ3(1),2Γ 8 (ΐ),2Γ„(1),1Τ Μ (-δ),2Γ3(|),1Γ Μ (1),1Τ3ΐ(-3).

B e i s p i e l 2.8 Die Lösung des linearen Gleichungssystems «1 +

x2

+ 2X 3 + x4

2 x j + 3x2 — X3 — 2x4 4 x j + 5x2 + 3x3

= = =

5 2 7

ist zu ermitteln. Wir bestimmen die kanonische Form der erweiterten Koeffizientenmatrix: 1 1 2 1 2 3 - 1 - 2 4 5 3 0

1 0 7 5 0 1 - 5 - 4 0 0 0 0

44

Mathematik für Sozial- und

Wirtschaftswissenschaften

Wegen r(A) = 2 und r(A,b) = 3 φ r(j4) ist das lineare Gleichungssystem unlösbar. Das erkennt man auch, wenn man die letzte Zeile ausschreibt (Ozi + 0x2 + 0x3 + 0x4 = 1). Es gibt keine Lösung x i , . . . , x 4 , die diese Gleichung erfüllt! Beispiel 2.9 Die Lösung des linearen Gleichungssystems I i + 2X2 + 3χχ +

X3 =

X2 - 2x3

2

=

1

xz

=

3

2xi + 4®2 + 2x3

=

4

4xi - 3x2 -

ist zu ermitteln. Das Transformieren der erweiterte Matrix gibt ' 1 2 1 3 1 -2 [A,b] = 4 -3 -1 2 4 2

2 ' 1 3 4

' 1 0 0 1" 0 1 0 0 0 0 1 1 0 0 0 0

Somit gilt r(A) = i(A, b) = 3. Die vierte Gleichung ist redundant. Die ersten drei Gleichungen bilden ein lineares Gleichungssystem in drei Unbekannten mit r = 3. Der Lösungsvektor ist

Machen Sie die Probe durch Einsetzen der Lösung in das Gleichungssystem! Beispiel 2 . 1 0 Zum linearen Gleichungssystem +

«2 - 2 l 3 + ^ 4 + 3X5

=

1

2xi -

X2 + 2x 3 + 2l4 + 6x5

=

—4

3xi + 2x 2 - 4 X 3 - 3 X 4 - 9x5

=

19

ist (a) eine Lösung zu ermitteln; (b) eine weitere Darstellungsform der allgemeinen Lösung zu bestimmen; (c) eine Basis des Kerns anzugeben.

Gauß-Jordan'sches Eliminationsverfahren und Anwendungen

45

(a) Das Transformieren der erweiterte Matrix gibt 1 -2 1 3 2 - 1 2 -4 [A,b] = 6 3 2 -9 19 2 ' 1 0 0 0 0 2 0 1 - 2 0 0 -3 . 0 0 0 1 3 Somit gelten für die Komponenten des Lösungsvektors die Gleichungen «1 = 2 x2 = 2 + 2 x 3 x4 = - 3 - 3 X 5 und die Lösung lautet 2 2 ' 0" ' 0 ' 2 + 2x3 2 2 0 0 + X3 1 + *5 0 = - 3 - 3x s -3 0 -3 1 0 0 X5 Die Lösung ist für beliebig vorgegebene Werte für 13 und X5 eindeutig. Die zugehörige Basislösung ergibt sich für X3 = X5 = 0 zu χ β = (2,2,0,-3,0)'.

00

Eine andere Darstellungsform der allgemeinen Lösung ergibt sich durch Umformen der kanonischen Form, sodaß die Einheitsvektoren in den Spalten 3 und 5 stehen: 1 0 0 0 0 2 0 -i 1 0 0 -1 [θ 0 0 i 1 -1 Die Lösung lautet 2" 2 0 ' 0 ' 1 0 0 XI 1 χ — - 1 + 1*2 -1 0 + X2 2 + *4 1 0 0 x4 1 0 _ . -1-5*4 . 3 Die neue Basislösung ist xb — ( 2 , 0 , - 1 , 0 , - 1 ) '

(c) Zwei Basen des Kerns des homogenen Teils des linearen Gleichungssy-

stems können aus den Lösungen von (a) und (b) abgelesen werden. Entsprechend (a) bzw. (b) spannen die Vektoren 0 2 1 > 0 0 den Kern auf.

0 0 0 -3 1

}

bzw.

{

46

Mathematik für Sozial- und

Wirtschaftswissenschaften

Beispiel 2 . 1 1 Zum linearen Gleichungssystem X\ +

X2 +

X3 +

X4

X\ + 3x2 + 2x3 +4x4 2xi

+

X3 —

X4

=

0

=

0

=

0

ist (a) eine Basis des Kerns anzugeben; (b) eine Lösung zu bestimmen, die von 12 und x4 abhängt. (a) Das Transformieren der erweiterte Matrix gibt [A,b] =

' 1 1 2

1 3 0

1 2 1

1 4 -1

0 " 0 0

1 0 0

0 1

i Ϊ

—i 3

0

0

0

Die Dimension des Kerns von Α ist 4 — 2 = 2. Eine sich zu -ι 1• ϊ - 1 * 3 + |*4 2 = ^3 1 + *4

Basis des Kerns ergibt 1• I 2 0 1

0 X4 Jeder Lösungsvektor χ kann als Linearkombination der Basisvektoren 1• 1 " Λ 2 > 2 1 0 1 0 dargestellt werden, (b) Wegen -1

0

I

0 1 I 0 0 0 lautet die Lösung, die von x-i und Z4 abhängt, X = X2

1 " 1 + *4 -2 0

Beispiel 2 . 1 2 Die Matrix

X -

1 3 1 3 1 4

ist zu invertieren.

3 4 3

2 ' 0 -3 1

-2 3

47

Gauß-Jordan'sches Eliminationsverfahren und Anwendungen Dazu ermitteln wir die kanonische Form von [X, i]: [x,j]

=

1 3 3 1 3 4 1 4 3

1 0 0 0 1 0 0 0 1

1 3 3 0 0 1 0 1 0 1 0 0 0 1 0 0 0 1

1 0 0 -1 1 0 -1 0 1 7 -3 -1 0 -1 1

' 1 3 3 0 1 0 0 0 1

1 0 0" -1 0 1 -1 1 0

-3 1 0

Somit ergibt sich die Inverse von X zu X~l =

7 -3 -1 0 -1 1

-3 1 0

Machen Sie die Probe! Beispiel 2.13 Die Vektoren

7.(1) =

1" -1 , -1 2_

"

' -1 ' 2 , e« = 3 J 1

spannen den Vektorraum

a& =

2 ' -3 , -3 2

" 1" 1 eW = 1 6 .

auf.

(a) Die Dimension r des Vektorraumes ist zu bestimmen, und (b) eine Basis des Vektorraumes ist anzugeben; (c) welche alternativen Basen können aus o^ 1 ),..., a ^ gebildet werden? (a) Wir transformieren die Matrix A = α^ 1 ),... ,α' 4 )] in die kanonische Form: ' 1 - 1 2 1' 1 - 1 2 1 -1 2 -3 1 0 1 - 1 2 A = -1 0 2 - 1 2 3 -3 1 2 0 3 - 2 4 1 2 6 10 1 3] 1 0 0 5 0 1 - 1 2 0 1 0 0 0

0 0

0

1

-2

1 - 2 J

~

0

0

1

[ 0 0 0

-2

0

Somit ist die Dimension des Vektorraumes r = 3. (b) Aus der kanonischen Form von Α folgt, daß {aW.aW.oW} eine Basis des Vektorraumes ist. Aus der kanonischen Form kann man auch ablesen, daß a( 4 ' eindeutig als a ^ = 5aW — 2 a ^ darstellbar ist.

Mathematik für Sozial- und Wirtschaftswissenschaften

48

(c) Wegen α^4) = öa^1) — 2a(3) [vergleiche (b)] sind nach dem Austauschsatz von Steinitz neben {α^',α^,α^ 3 )} auch { a W, a P),aP'} und { α ^ , α ^ α « ) } Basen des Vektorraumes.

2.Β Ökonomische Anwendungsbeispiele 2 . B . 1 Ökonometrische Modelle Die ökonomischen Variablen Y (Volkseinkommen), C (Ausgaben für Konsum), I (Investitionen) und Μ (Importe) seien durch das lineare Gleichungssystem (α)

Y

=

C+I +G

(,b) C

= a + ßY

(c)

I

= j + SR

(d)

Μ

=

tY

bestimmt; darin steht die Variablen G für die Staatsausgaben und R für den Zinssatz. Für die Koeffizienten des Modells postulieren wir Q>0,

0 < /? < 1,

7 > 0,

0 < 0,

r > 0.

Unter den Variablen eines ökonometrischen Modells unterscheiden wir • endogene Variable, das sind die vom Modell erklärten Variablen (Y, C, I und M). • exogene Variable, das sind solche Variable, die in das Modell als unerklärt übernommen und von außerhalb des Modells determiniert werden (G und R). Unter den Gleichungen eines Modells unterscheiden wir • Verhaltensgleichungen: sie spiegeln die Entscheidungen der Wirtschaftssubjekte wider [vergleiche die Gleichungen (b), (c) und (d) im obigen Modell]. • Definitionsgleichung: sie geben definitorische Beziehungen zwischen einzelnen Variablen an [vergleiche die Gleichung (a) im obigen Modell].

Gauß-Jordan'sches Eliminationsverfahren und Anwendungen

49

Die Verhaltens- und Definitionsgleichungen spiegeln ökonomische Relationen wider. Sie stellen Abhängigkeiten zwischen den ökonomischen Variablen dar. Jede Verhaltensgleichung steht als Modell für eine zu erklärende Variable. So ist (b) eine Konsumfunktion und "erklärt" die aggregierten Ausgaben für den Konsum in einer Volkswirtschaft als Summe eines "autonomen" Konsums und eines Anteils, der proportional dem Volkseinkommen ist. Die Darstellung eines ökonomischen Modells durch Verhaltens- und Deiinitionsgleichungen nennt man die strukturelle Form oder Strukturform des Modells. In vielen Modellen werden nur (in den Koeffizienten) lineare Beziehungen verwendet. Wir sprechen dann von einem linearen Modell und können von der Matrixschreibweise Gebrauch machen. Die Strukturform eines linearen Modells ist durch yT + xB = 0 gegeben. Γ ist die Koeffizientenmatrizen der endogenen Variablen y, und Β ist die der exogenen Variablen x. Beachte, daß y und χ Zeilenvektoren sind. Im vorliegenden Beispiel gilt y = (Y,C,I,M),

χ = (1, G, R)

und

Γ =

1 -β 0 - 1 1 0 - 1 0 1 0 0 0

-r 0 0 1

Β

=

0 -1 0

—a - 7 0 0 0 -δ

0 0 0

Die reduzierte Form eines ökonometrischen Modells stellt jede der endogenen Variablen als Funktion des exogenen Variablen dar. Unter der Annahme, daß Γ nicht-singulär ist, ergibt sich y = x Π, wobei Π=

-BT -1

Für obiges Beispiel gilt 1 Π = l - ß

a + f α + βΊ 1 0 6 βδ

7(1-/3) 0 6(1-β)

r ( a + 7) r δτ

Mathematik für Sozial- und Wirtschaftswissenschaften

50

Das zeilenweise Anschreiben gibt folgende Beziehungen für die endogenen Variablen y

M

I

= _ -

=

α+7 Γη> + τ(α + γ)

1

^

S „ —β ΓηϊΕ> r foβ+

+

a j ^ 1-/3 γ + SR.

1-/3

J/3_ 1-/3

'

Die Elemente ττ,ν, der Matrix Π, die Koeffizienten der reduzierten Form, sind ökonomisch als Multiplikatoren interpretierbar. So ist z.B. 7Γ21 =

1 1-/3

der Multiplikator der Staatsausgaben: Werden die Staatsausgaben um eine Einheit erhöht, so steigt ceteris paribus das Einkommen um den Betrag y^j. Die Größe β ist die "marginale Konsumneigung". Wegen 0 < β < 1 gilt

und die Erhöhung des Einkommens ist größer als die entsprechende Erhöhung der Staatsausgaben; daher der Ausdruck "Multiplikator". Sind die Koeffizienten Π der reduzierten Form bekannt, so können unter bestimmten Voraussetzungen die Koeffizienten der Strukturform bestimmt werden. Man sagt dann, die entsprechenden Gleichungen der Strukturform sind identifiziert. Im folgenden werden die Identifikationsbedingungen für die erste Gleichung eines ökonometrischen Modells behandelt; analog können die anderen Gleichungen behandelt werden. Dazu soll von einem System von g simultanen linearen Gleichungen ausgegangen werden, in dem g endogene Variable erklärt werden; außerdem seien k exogene Variable enthalten. Die erste Gleichung ist durch »Γι + xBt = 0 gegeben, wobei Γχ und B\ jeweils die erste Spalte aus Γ und Β darstellen. Aufgrund ökonomischer Überlegungen wissen wir, daß einige Koeffizienten in Γι und Bi Null sind. Der Koeffizient der durch die Gleichung zu erklärenden Variablen, yi, wird auf "—1" gesetzt. Daher werden, gegebenenfalls nach Umsortierung, folgende Partitionierungen vorgenommen:

Gauß-Jordan'sches

y = Γχ

Eliminationsverfahren

(yi.ir.v"),

=

Anwendungen

51

* = (*V)> 2*1 =

7i 0

und

ßl

0

wobei y* und x* jene endogenen bzw. exogenen Variablen enthalten, die in der ersten Gleichung als erklärende Variable auftreten, und y** und x " die in der ersten Gleichung nicht auftretenden Variablen enthalten. In der ersten Gleichung seien gi endogene und k\ exogene Variablen enthalten. Die Ordnungen der Vektoren y* und y** sind daher lx( gi -

1,

d.h., die Zahl der ausgeschlossenen exogenen Variablen muß größer oder gleich der Zahl der in der Gleichung berücksichtigten endogenen Variablen sein.

52

Mathematik für Sozial- und

Wirtschaftswissenschaften

(b) Rangbedingung: Eine notwendige und hinreichende Bedingung für die Identifikation der ersten Gleichung eines ökonomischen Modells ist r(*22) = ffi - 1 • Eine alternative, der Rangbedingung äquivalente Bedingung, die meist leichter geprüft werden kann, ist die folgende, für die wir Γ und Β entsprechend -1 7i 0

Γ =

Γ 02 Γ 12 Γ 22

und

Β =

ßi 0

Β 12 Βι 2

also in gleicher Weise wie Γι und B\, partitionieren. (c) Eine alternative, leichter zu prüfende Rangbedingung für die Identifikation der ersten Gleichung ist Γ(Β22/,Γ22') = ί / - 1 · In obigem Beispiel ist für alle Gleichungen die Abzählbedingung erfüllt. Beispielsweise gilt für die Gleichung (b) gi — 1 = 1 und k — ki = 2 . Die Prüfung der alternativen Rangbedingung demonstrieren wir für die Konsumfunktion. Es ergibt sich - 1 0

0

0 -i 0 - 1 1 0 0 0 1

-022

Γ 22

Der Rang dieser Matrix ist 3; wegen g — 1 = 3 ist die Rangbedingung (c) erfüllt. Die Rangbedingung (b) prüfen wir an T22 =

1 - ß

die Bedingung ist wegen 1(^22) = 1 und gi — 1 = 1 erfüllt.

2.C Übungsaufgaben 2.1 Der Rang der Matrix ist zu bestimmen. 1 3 (a) 2 4 -4 0

Gauß-Jordan'sches Elimmationsverfahren und Anwendungen

(b)

1 2 3 2 1 5 2 8 4 0

(c)

0

1

0 2 3 0 4 1

2.2 Der Rang 1 2 2 3 (a) 6 7 2 4

der Matrix ist zu bestimmen. 3 0 1 1 5 1 0 2_

0>)

0.5 0.2 0.4 0 0.2 0.1 0.7 0.5 2 1 4 0.2

(c)

0.1 0.2 0 - 0 . 2 0.3 0.2 0.3 0.4 0.1

-0.1 0.5 0.2

2.3 Der Rang der Matrix ist zu bestimmen. 1 3 1 - 2 - 3 1 4 3 - 1 - 4 (a) 2 3 - 4 - 7 -3 3 8 1 - 7 - 8 1 2 - 3 2 1 0 G>) - 2 - 1 3 4 -2 -1 1 3 (c)

0

5 -2

- 2

1 3

2.4 Sind folgende Vektoren linear abhängig? (a) (5,2)', (5,7)' (b) (2,1)', (4,3)' (c) (1,2)', (0,1)', (5,2)' (d) ( 1 , - 2 , 1 ) ' , ( 2 , - 1 , - 1 ) ' , ( 7 , - 4 , 1 ) ' (e) ( 1 , 2 , - 3 ) ' , ( 1 , - 3 , 2 ) ' , ( 2 , - 1 , 5 ) ' (f) ( 1 , - 3 , 7 ) ' , ( 2 , 0 , - 6 ) ' , ( 3 , - 1 , - 1 ) ' , ( 2 , 4 , - 5 ) ' (g) ( 2 , - 3 , 7 ) ' , (0,0,0)', ( 3 , - 1 , - 4 ) ' .

53

54

Mathematik für Sozial- und Wirtschaftswissenschaften

2.5 Sind folgende Vektoren linear abhängig? (a) (1,1,0)', (1,0,1)', (2,0,0)' (b) (1,0,0)', (1,1, oy, (1,0,1)' (c) (2,0,1)', (1,4,3)', (0,8,5)'. 2.6 Bilden folgende Vektoren eine Basis des Vektorraumes (a) (1,1,1)', ( 1 , - 1 , 5 ) ' (b) (1,2,3)', ( 1 , 0 , - 1 ) ' , (3,-1,0)', ( 2 , 1 , - 2 ) ' (c) (1,1,1)', (1,2,3)', ( 2 , - 1 , 1 ) ' (d) (1,1,2)', (1,2,5)', (5,3,4)' (e) (2,0,1)', (1,4,3)', (0,8,5)' (f) (1,1,0)', (0,0,2)', (0,3,2)' (g) (1,0,0)', (1,0,1)', (0,1,0)' (h) (5,2,1)', (2,2,0)', ( 1 , - 2 , 1 ) ' . 2.7 Die Vektoren 1 3 « =

- 2

4

1 4 5 -3

b=

' -3 ' 2 d = , 1 . -5 .

c =

e =

= R3 ?

2 -1 1 3

3 ' 15 18 -12

spannen den Vektorraum V auf. (a) Die Dimension von V ist zu ermitteln; (b) eine Basis von V ist anzugeben; (c) aus der in (b) ermittelten Basis ist eine Orthonormalbasis zu konstruieren. 2.8 Die Vektoren ' 1" 0 a = , 2 4

" 6=

3" 11 , -5 1

"-1 " -5 c = , 3 1

' 2" 3 d= 1 5

spannen den Vektorraum V auf. (a) Die Dimension von V ist zu ermitteln; (b) eine Basis von V ist anzugeben; (c) aus der Basis aus (b) ist eine Orthonormalbasis zu konstruieren. 2.9 Die Inverse der Matrix ist mittels des Gauß-Jordan'sche Eliminationsverfahrens zu bestimmen.

Gauß-Jordan'sckes Eliminationsverfahren und Anwendungen

«[Ϊ

2 3 6

(b)

1 2 3 3 0 0 2 1 3

2.10 Wie Aufgabe 2.9. 1 3 2 (a) 1 3 5 1 4 1 (b)

7 5 4 3

(c)

27 30 20 22

2.11 Wie Aufgabe 2.9 1 0 0 (a) 2 1 0 3 2 1 1 0 0 0 0 2 0 0 (b) 0 0 4 0 0 0 0 8 1 3

(c)

0

0

0 2 0 0 0 0 1 2 0 0 0 3

2.12 Wie Aufgabe 2.9. 2 3 4 3 1 2 4

«

(b)

(c)

2 4 5 2 3 0 0 0 0

3 5 6 0 0 2 0

0 0 1 3

55

Mathematik für Sozial- und Wirtschaftswissenschaften

56

2.13 Das Produkt der Matrizen 2 3 4 4 3 1 1 2 4

1 2 3 2 4 5 3 5 6

ist zu invertieren. 2.14 Die folgende Matrizengleichung ist nach X aufzulösen: (a) ΑΧ + Β = 2(X - C) mit 1 A =

-2

1 (b) 4X = XBA =

-1

Β =

2

-3

2 -4

1 3

0

-2

C =

3 -1 5

2 3 - 6

2XC' + 3(4 + X) mit

' 2 1 0 ' ' 6 0 -2 ' 0 2 8 , C = 3 0 2 ,B = -4 0 -2 4 -1 5

3 0 -2 0 1 0 -1 4 -1

2.15 Aus der Matrizengleichung mit A

=

Β

=

C =

sind X bzw. X und Y zu bestimmen. (a) AXB -2B = AC (b) BA + (A - B){A + B) = AX' +(A(c) AX + BY = 0, CX - AY = I.

2 1 1 1

B)B

2.16 Die Lösbarkeit des linearen Gleichungssystems ist zu untersuchen; falls möglich, ist die Lösung graphisch zu ermitteln. (a) xi + x2=l xx + 2 X 2 - 0 (b) 3xi + 4x 2 = 7 2.25xi + 3x2 = 1 (c) 3xi + 4x 2 = 7 2.25xi + 3x2 = 5.25 (d) xi + 5x 2 = 8 2χχ + 3x 2 = 9 3xi + 8x 2 = 17. 2.17 Das folgende lineare Gleichungssystem ist zu lösen: (a) χι + X2 = 2

Gauß-Jordan'sches Eliminationsverfahren und Anwendungen Xl+X2 = l (b) xi + x2 = 1 x\ + 2x2 = 0 (c) XI -2X2 = 1 2xi + 3x2 = 9 2xi - 3x2 = 4. 2.18 Wie Aufgabe 2.17. (a) 3xi + 2x 2 + x3 = 7 x\ + 0.5x2 — X3 = 4 xi + 0.75x2 + X3 = 5 (b) 2xi - 2x2 + 2x3 = 6 xi + 3X3 = 10 3xi + x 2 + 12x3 = 38 (c) x\ + 2x 2 + X3 = 4 2x! + x 2 + 5x3 = 5. 2.19 Wie Aufgabe 2.17. (a) xi + 2x 2 + 3x 3 = 2 3xi - 4x2 + 5x3 = 6 2χχ + 4x2 + 6x3 = 6 (b) xi + 2X2 + 3x3 = 2xi + 5x 2 +- 8x3 = 4xj + x 2 - X3 = 9xi + 2x2 — X3 = (c) 2xj 3xi + 2χχ + xi +

1 2 2 1

3x2 + x 3 = 0 X2 — 5x3 = 0 5x2 — 7x3 = 5 X2 + 4x3 = 7.

2.20 Das lineare Gleichungssystem Ax = b ist zu lösen, wobei ,

'2 -3 2 5' 1 - 1 1 2 3 2 2 1 .1 1 -3 -1 .

und 3 (a)6 =

58

Mathematik für Sozial- und Wirtschaftswissenschaften -5 - 2

(b )b =

0 5 - 6 - 2

(c )b =

5 3

2.21 Wie Aufgabe 2.17. (a) 2x! + 2^3 xi

4i!

-

X2+

+ 2x2

(b) x i +

= 12

X3 +

X 4 - S

+ 4x 3 - 2x 4 = 20

X 2 - X 3 -

X4 = 8

2χι + X2 — 13 — X4 — 3 Xl + 2X2 + X3 - 2X4 = 0. 2.22 Eine Basislöstmg des Systems ist zu bestimmen 2a: 1 + X2 + X3 =70 xi + X2

=40 *5 = 90 (a) mit den Basisvariablen 23, X4 und X5; (b) mit den Basisvariablen χι, X2 und X5. Xl + 3x2

+X4

+

2.23 Eine Basis des Lösungs-Vektorraumes ist zu bestimmen: (a) 2xi + 5x2 - 2x3 — 6 x 4 = 0 Xl + 2X2 - 3X3 — 2x4 = 0 3xi + 8X2 - X3 — 7x4 = 0 (b) 2xi + 4X 2 + 3x 3 + 5x 4 = 0 xi + 3x 2 + 2X 3 + 4x 4 = 0 2xi + X3 - X4 = 0 (c) Xl + 2x 2 + 3x 3 =0 2xx + 5X3 — X4 = 0 Xl + 3x 2 + 2x 3 = 0. 2.24 Eine Basis des Kerns des linearen Gleichungssystems ist anzugeben für (a) Aufgabe 2.21(a) (b) Aufgabe 2.21(b) 2.25 Welche der Basisvektoren a ^ kann man durch den Vektor b ersetzen, sodaS sich wieder eine Basis ergibt? (a) aW = eW, a™ = e, a = e 0 0.5-0.375-0.125 0.25 = 0.156 > 0 .

3.C Übungsaufgaben 3.1 Die Determinante der folgenden Matrizen ist zu bestimmen. - 1 2 1 (a) 0 1 - 2 1 4 - 1 1 2 3 00 1 3 5 1 5 12 4 1 -4 2 (c) 0 3 3 0 7 (d)

2 0 10 1 7 12

3 17 -4

3.2 Wie Aufgabe 3.1. 2 3 - 2 4 7 4 - 3 10 (a) 2 3 3 4 -2 4 0 5

Determinanten

73

2 0 -1 3 2 -2 4 2 1 1 5 -3 3 5 7 2 2 4 1 1

00

1 2 2 3

(«0

-2

0

0 0

1 1 3

4

3.3 Die Matrix (a) der Aufgabe 3.1(a) (b) der Aufgabe 3.1(b) (c) der Aufgabe 3.1(c) ist zu invertieren. 3.4 Das lineare Gleichungssystem ist nach der Cramer'schen Regel zu lösen (a) 2 χ ι + X2 + 4x3 = 16 3XI + 2X2+

X3

=

10

xi + 3x2 + 3x3 = 16 (b) -®i + 2x 2 + x 3 = 2 X2 — 2x3 = —3 Xi + 4x2 — x 3 = 4 (c) Χι - X3 + 2X4 = 6 2xi + 3x2 + 2x3 — 2x4 = 5 3xi + X2 + 5X3 — 3X4 = - 5 2χχ + 4X2 + 2X 3 + X4 = 14 3.5 Die Determinante des Kronecker-Produktes C = Α ® Β der folgenden Matrizen ist zu bestimmen: 1 2 3 4 -5 Β = 4 2 3 (a)A = - 1 - 2 2 5 - 1 2 0 1 1 2 0 4 (b) A 2 -3 Β = 3 2 -3 5 3 1 5 -1 -3 3.6 Die Matrix der Inputkoeffizienten sei A=

0.4 0.1 0.1 0.0 0.3 0.2 0.2 0.2 0.5

es sind zu bestimmen (a) der maximal mögliche Endverbrauch für die Produktionskapazität χ = (100,40,70)';

Mathematik für Sozial- und Wirtschaftswissenschaften

74

(b) die notwendigen Produktionsmengen, um die Endnachfrage b = (0,4000,600)' zu befriedigen? 3.7 Die Matrix der Inputkoeffizienten sei

A=

0.5 0.1 0.1 0.2 0.6 0.0 0.1 0.2 0.6

Das Zutreffen der Hawkins-Simon-Bedingung ist zu prüfen.

Losungen der Übungsaufgaben 1: (a) - 1 2 ; (b) 3; (c) 126; (d) - 7 7 . 2: (a) -305; (b) - 7 2 ; (c) 156. 7 6 - 5 ] Γ 11 - 9 1 3: (a) - i - 2 0 - 2 9 - 2 ; ((b) b)| - 7 -1 6 - 1 J 2 -3 1 21 - 7 14 ~ 6 40 - 8 . 4: (a) (1,2,3)'; (b) (2,1,2)'; (c) (1,3,-1,2)'. («0 ύβ -9 3 12 5: (a) 83323591; (b) -1728000. 6: (a) (49,14,7)'; (b) (1988.1,7095.2, 4833.3)'. 7: Die Hawkins-Simon Bedingung trifft zu.

Kapitel 4

Eigenwerte, Eigenvektoren; Quadratische Formen Gibt es zu einer Matrix Α einen Vektor x, sodaß Ax ein Vielfaches λ von χ ist? Das ist die zentrale Frage dieses Kapitels. Eigenwerte und Eigenvektoren treten in unterschiedlichen Bereichen der Mathematik auf. In praktischen Anwendungen finden wir sie etwa bei der Diskussion des Lösungsverhaltens von dynamischen Systemen linearer Beziehungen. Das ökonomische Anwendungsbeispiel dieses Kapitels behandelt den Gleichgewichtszustand eines stochastischen Prozesses. Quadratische Formen hängen eng mit Eigenwerten und Eigenvektoren zusammen.

4.1

Das Eigenwertproblem

Definition 4.1 Der Vektor χ φ 0 heißt Eigenvektor der τι χ η-Matrix A , wenn ein Skalar X, genannt der Eigenwert, existiert, sodaß Ax = Xx. Eigenvektoren sind nur bis auf ein skalares Vielfaches bestimmt. Ist χ ein Eigenvektor zum Eigenwert λ der Matrix Α und c ein Skalar, so ist auch cx ein Eigenvektor zu λ: A(cx) — X(cx). Um die Eindeutigkeit von Eigenvektoren zu erreichen, führen wir folgende Konvention ein: Eigenvektoren werden normiert. Mit der Bedingung ||z|| = 1 ist der Eigenvektor χ zum Eigenwerte λ der Matrix Α bis auf das Vorzeichen eindeutig bestimmt. Wegen (A - XI)x = 0

76

Mathematik für Sozial- und Wirtschaftswissenschaften

existiert eine nichttriviale Lösung des homogenen Gleichungssystems, ein Eigenvektor χ φ 0, nur dann, wenn die Koeffizientenmatrix A — XI singular ist, d.h. wenn für ihre Determinante gilt [vergleiche Satz 3.2(j)] \A-XI\

= 0.

Diese Determinante ist ein Polynom in Λ und wird das charakteristische Polynom von Α genannt. Es ist von der Ordnung η und kann unter Verwendung ihrer Wurzeln oder Nullstellen λ;, i = 1 , . . . , n, geschrieben werden als ( A - A ! ) . . . ( A - A n ) = 0. Die Nullstellen des charakteristischen Polynoms sind die Eigenwerte λ,·, t = 1 , . . . , n. Sie können reell oder komplex sein und können gegebenenfalls mehrfach auftreten. Zu jedem λ,· gehört zumindest ein Eigenvektor χ(*), der sich als Lösung des homogenen linearen Gleichungssystems (Λ -

=0

ergibt. Daher spannen die Eigenvektoren, die zu einem Eigenwert gehören, einen Vektorraum auf. Die folgenden beiden Beispiele illustrieren das Berechnen der Eigenwerte einer Matrix und der zugehörigen Eigenvektoren. Beispiel 4.1 Die Eigenwerte der Matrix 2 2 1 3

A=

ergeben sich aus dem charakteristischen Polynom der Ordnung zwei μ-λ/|

2

= =

2

1 3



1 0 0 1

2— λ 2 1 3— λ

(2 - λ)(3 — λ) — 2 = λ 2 — 5 λ + 4 = 0.

Das Lösen der quadratischen Gleichung liefert die beiden Eigenwerte zu

2 / 1

·

5 , [25 16 5 , 3 2±νΤ"Τ=2±2'

2 =

oder λχ = 4 und λ2 = 1.

Eigenwerte, Eigenvektoren; Quadratische Formen

77

Beispiel 4.2 Den Eigenvektor ζ( χ ) der Matrix Α ans Beispiel 4.1 znm Eigenwert λχ = 4 erhält man durch Lösen des homogenen linearen Gleichungssystems -2

1

2

-1

r(i)

= [2]

Das Gauft-Jordan'sehe Eliminationsverfahren ergibt 2 2 1 -1

" 1 -1 ' 0 0

sodaß der Eigenvektor χΜ ein Vielfaches von (1,1)' ist. Durch Normieren erhalten wir schließlich , « = -L V2 Analog erhalten wir zum Eigenwert Λ2 = 1 den Eigenvektor

Siehe auch Beispiel 4.14. Bevor wir eine Reihe von Eigenschaften der Eigenwerte und Eigenvektoren behandeln, lernen wir noch den Begriff der Ähnlichkeit von Matrizen kennen. Definition 4.2 Ahnlichkeitstransformation: Zwei η χ η-Matrizen A und Β heißen ähnlich, Α « Β, wenn es eine nicht-stnguläre η χ η-Matrix Q gibt, sodaß Β

=Q~1AQ.

Den Zusammenhang zu Eigenwerten stellt der folgende Satz her. Satz 4.1 Ähnliche Matrizen Α und Β mit Β = Q^AQ haben dieselben Eigenwerte; ist χ ein Eigenvektor von A, so ist Q~1x ein Eigenvektor von B. Der Sachverhalt dieses Satzes wird im folgenden Beispiel illustriert.

78

Mathematik für Sozial- und Wirtschaftswissenschaften Beispiel 4.3 Die Matrix Β bilden wir ans der Matrix Α von Beispiel 4.1 nach Β = Q~lAQ mit 1 2 Für die Inverse zu Q bekommen wir

Damit erhalten wir

Nach Satz 4.1 hat Β die Eigenwerte λι = 4 und X2 = 1· Zur direkten Berechnung bestimmen wir die Wurzeln des charakteristischen Polynoms und erhalten sie aus IΒ - AI| = (4 - A)(l - A) = 0 zu λχ = 4 und X2 = 1. Welche Eigenvektoren hat ΒΊ Vergleichen Sie die Eigenwerte von Α und B. Eine wichtige Eigenschaft der Eigenvektoren ist ihre lineare Unabhängigkeit, die unter den im folgenden Satz angegebenen Bedingungen besteht. Satz 4.2 Die η χ τι-Matrix Α habe r < η paarweise verschiedene Eigenwerte Λχ,..., Ar. Die zu diesen Eigenwerten gehörigen Eigenvektoren ..., x^ sind linear unabhängig. Dieser Satz impliziert daher: Ist r — n, d.h. hat die Matrix Α lauter verschiedene Eigenwerte, so existieren genau η linear unabhängige Eigenvektoren, nämlich genau einer zu jedem Eigenwert. Untersuchen Sie die Eigenvektoren der Matrix Α aus Beispiel 4.1 auf Unabhängigkeit! Der Satz 4.3 gibt an, daß unter bestimmten Voraussetzungen die Diagonalmatrix der Eigenwerte einer Matrix eben dieser Matrix ähnliche ist. Basis dafür ist der Satz 4.2.

Eigenwerte, Eigenvektoren; Quadratische Formen

79

Satz 4.3 Die Eigenwerte Λι,...,Λ„ der η X η-Matrix Α seien paarweise unterschiedlich. Dann ist Α der Diagonalmatrix Λ ähnlich: X~1AX

= A,

wobei X = [x^,... die Matrix der linear unabhängigen Eigenvektoren von Α und Λ = diag[Ai,... ,λ„] die Matrix der Eigenwerte von Α ist. Satz 4.3 folgt unmittelbar aus der Definition des Eigenwertproblems und aus der linearen Unabhängigkeit der Eigenvektoren. Der Satz wird im folgenden Beispiel illustriert. Beispiel 4.4 Die Matrix X der Eigenvektoren der Matrix Α aus Beispiel 4.1 lautet ι

X =

2

Ψ Ύ 72 Ts

Matrizenmultiplikation gibt X~lAX

=

4 0 0 1

= diag[4,1] = Λ.

Siehe auch Beispiel 4.15. Etwas allgemeiner ließe sich der Satz 4.3 so formulieren: Die η X n-Matrix Α ist der Diagonalmatrix Λ ihrer Eigenwerte ähnlich, wenn Α η linear unabhängige Eigenvektoren besitzt. Die gilt sicher für den Fall verschiedener Eigenwerte. Es gibt jedoch auch Matrizen mit mehrfach vorkommenden Eigenwerten, für die diese Aussage gilt. Satz 4.4 Eigenschaften von Eigenwerten: A set eine quadratische Matrix der Ordnung η mit den Eigenwerten λχ,..., An; es gilt: (a) Die Eigenwerte der zu Α transponierten Matrix A' sind gleich den Eigenwerten von A. (b) Ist A orthonormal, so haben alle Eigenwerte λ,·, » = Ι , . , . , η , den Absolutwert 1: |λ,·| = 1 firi = Ι , . , . , η . (c) Die Eigenwerte der Inversen A~x der ntcht-singulären Matrix Α mit den Eigenwerten λ,· sind λ,"1 für i =

Ι,.,.,η.

Mathematik für Sozial- und

80

Wirtschaftswissenschaften

(d) Für die Spur Sp(A) der Matrix Α gilt Sp (ii) =

£ > . i=l

(e) Für die Determinante |A| der Matrix Α gilt |A| = ΠΓ = 1 λ..

( f ) Der Rang r(A) ist gleich der Anzahl der von Null verschiedenen Eigenwerte von A. (g) A set nichUsingular, ebenso wie die τη X m-Matrix Β mit den Eigenwerten μ;, » = 1,..., m; dann gilt für die m · η Eigenwerte von Α® Β Vij = μί · \j für t = 1 , . . . , m und j = 1 , . . . , n. Von besonderer Bedeutung für die Anwendung sind die Eigenschaften 4.4(b) bis (e).

4.2

Das Eigenwertproblem für symmetrische Matrizen

In diesem Abschnitt gehen wir davon aus, daß die interessierende Matrix eine symmetrische η χ η-Matrix ist. Dieser Fall ist von besonderer Bedeutung, da in vielen Problemstellungen, vor allem aus der Statistik, symmetrische Matrizen in Eigenwertaufgaben auftreten. S a t z 4.5 Die symmetrische η χ η-Matrix Α habe die Eigenwerte λ,-, t = 1 , . . . , n; es gilt:

(a) Alle Eigenwerte von Α sind reell. (b) Die Eigenvektoren spannen den Vektorraum V " auf. (c) Aus λ,· φ \j folgt ι(')'χθ) = o, d.h., Eigenvektoren, die zu voneinander verschiedenen Eigenwerten gehören, sind orthonormal. (d) Hat λ,· die Vielfachheit k, so spannen die zugehörigen Eigenvektoren einen k-dimensionalen Teilraum aus V£ auf; es können - in nicht eindeutiger Weise - k orthonormale Eigenvektoren angegeben werden, die Basis dieses Teilraumes sind.

Eigenwerte, Eigenvektoren; Quadratische Formen

81

(e) Die Eigenwerte einer Diagonalmatrix sind ihre Diagonalelemente. ( f ) Ist A idempotent und hat den Rang r(A) = k, so hat der Eigenwert λ = 1 die Vielfachheit k, der Eigenwert λ = 0 die Vielfachheit n — k. Die Bedeutung dieses Satzes liegt unter anderem darin, daß jede symmetrische Matrix der Diagonalmatrix ihrer Eigenwerte ähnlich ist, selbst dann, wenn einzelne Eigenwerte mehrfach vorkommen. Darüber hinaus kann die Diagonalisierung mit der Matrix der Eigenvektoren besonders einfach durchgeführt werden, da diese orthonormal ist. Die folgenden drei Beispiele illustrieren diese Aussage. Beispiel 4.5 Die Eigenwerte der Matrix "

2 - 1 - 1 " - 1

2

- 1

- 1 - 1

2

ergeben sich aus dem charakteristischen Polynom ^[(2 — 3λ) 3 — 2— 3(2 — 3λ)] = - λ ( λ - l) 2 = 0 zu λι = 0,

λ 2 = λ 3 = 1.

Wie man sich leicht überzeugt, ist Α eine idempotente Matrix vom Rang 2.

Beispiel 4.6 Den Eigenvektor der Matrix Α von Beispiel 4.5 für den Eigenwert λι = 0 erhält man aus '

2

-1

-1 '

-1

2

-1

-1

1

2

fSJ

" 1

0

-1 '

0

1

-1

0

0

0

zu χ( = ^-(1,1,1)'. Für die Eigenwerte Eigenvektor aus -1 -1 -1

-1 -1 -1

-1 ' -1 -1

= X3 = 1 erhält man den

"1 1 1 ' 0 0 0 0 0 0

daraus sieht man, dafi die Dimension des Lösungsvektorraumes zwei ist, das ist genau die Vielfachheit des Eigenwertes 1. Der Lösungsvektor läßt sich wieder darstellen als " -1 " " -1 " χ — OL 1 +ß 0 1 0_

82

Mathematik für Sozial- und Wirtschaftswissenschaften Jeder Vektor aus der Lösungsmenge dieses Gleichungssystems ist somit Eigenvektor zum Eigenwert 1. Darüber hinaus können wir zwei im allgemeinen nur linear unabhängige Vektoren auswählen; hier z.B. die beiden Basisvektoren, die den Lösungsvektorraum aufspannen. Diese können mit Hilfe des Gram-Schmidt'schen Verfahrens in eine orthonormale Basis {x(2),a;(3)} transformiert werden. Insgesamt erhalten wir die drei orthonormale Eigenvektoren

=

λ/3

4= y/2

xW -



"V6

-1 -1 2

Diagonalisieren einer symmetrischen Matrix: Nach dem Orthonormieren der Eigenvektoren gilt für die Matrix der Eigenvektoren X~x = X'. Daher können wir stets die Beziehung schreiben (vergleiche den Satz 4.3): X'AX = Λ = diag[Äi,..., λ η ]. Beispiel 4.7 Die Matrix der Eigenvektoren zu Α aus Beispiel 4.5 lautet ι

_ ι

X =

L^

0

1 Ύ

Ve J

Das Produkt X'AX ergibt die zu Α ähnliche Diagonalmatrix Λ X'AX =

4.3

0 0 0 0 1 0 0 0 1

Kongruente Matrizen

Definition 4.3 Kongruenztransformation: Zwei η X n-Matrizen Α und Β heißen kongruent, Α = B, wenn eine nicht-singuläre Matrix Ρ existiert,sodaß Β = P'AP. Beispiel 4.8 Aus der Matrix

83

Eigenwerte, Eigenvektoren; Quadratische Formen erhält man durch Vertauschen der Zeilen und der Spalten die Matrix

MS!]· Dabei haben wir nacheinander eine elementare Zeilen- und Spaltentransformation ausgeführt mit der Transformationsmatrix

Li

o.

Mit dieser Matrix ergibt sich Β = P ' A P bzw. Β = Α. Wir erhalten eine zu Α kongruente Matrix Β durch abwechselnde Anwendung von elementaren Zeilen- und Spaltentransformationen; gleichzeitig können wir die Transformationsmatrix generieren, indem wir diese elementaren Transformationen auf eine Einheitsmatrix anwenden. Beispiel 4.9 Es soll eine zu

kongruente Diagonalmatrix D angegeben werden. Dazu gehen wir aus von [A,T] =

"1 2 1 0" 2 1 0 1

Im ersten Schritt wenden wir die Zeilentransformation Hui—2) an; das ergibt ' 1 2 1 0 ' 0 -3 -2 1 Im zweiten Schritt wenden wir die Transformation ersten beiden Spalten an und erhalten ' 1 0

0 1 0 ' - 3 - 2 1 = [D,P']

Zur Probe berechnen wir P'AP =

' 1 0

0 ' = D. -3

2) nur auf die

84

Mathematik für Sozial- und

Wirtschaftswissenschaften

Beachte: Man schreibt auch [Α,ί\ * [Z>,P']; das Symbol nur auf die jeweils linke Teilmatrix.

bezieht sich

Satz 4.6 Ist die η X η-Matrix symmetrisch und gilt für den Rang von A: r(A) = r < n, so gibt es eine zu Α kongruente Diagonalmatrix D, die r von Null verschiedene Hauptdiagonalelemente enthält. Beachte: Die kongruenten Matrizen Α und D haben nur dann gleiche Eigenwerte, wenn die Transformationsmatrix Ρ aus P'AP = D die Matrix der Eigenvektoren ist. Jedoch gilt für eine symmetrische Matrix Α der Satz 4.7 Jede zu Α kongruente Matrix D ist auch zur Matrix Λ der Eigenwerte von Α kongruent; insbesondere stimmen D und Λ in den Vorzeichen ihrer Elemente überein. Beispiel 4.10 Eine zur Matrix Α aus Beispiel 4.5,

-

I

2

- 1

- 1

- 1

2

- 1

- 1

- 1

2

kongruente Matrix D erhält man nach 2 -1 -1

-1 2 -1

-1 -1 2

3 0 0" 0 3 0 0 0 3

ry

' 2 0 0 3 0 -3

0 -3 3

3 0 0 3 6 0 3 0 6

' 2 0 0 3 0 0 0 3 0 3 6 0 0 0 0 6 6 6

f\f

zu D

=

2 0 0 0 3 0 0 0 0

Aus der Matrix D erhält man die Matrix der Eigenwerte (siehe Beispiel 4.5) 0

Λ=

0 0

0 1 0 0 0 1

durch Multiplizieren mit der Transformationsmatrix Q =

ο χ 75 0

ι 72 0 ο

es ergibt sich Λ = Q'DQ.

Eigenwerte, Eigenvektoren; Quadratische Formen

4.4

85

Quadratische Formen

Definition 4.4 Eine quadratische Form ist ein skalarer Ausdruck

=

η η

Σ

i=l J=1

a,iu,ui

=

;

darin ist u = («i , . . . , « „ ) ' ein n- Vektor und Α die symmetrische η χ η-Matrix der Koeffizienten der quadratischen Form. Der Wertebereich der quadratischen Eorm ist der Bildbereich von Q{u), wobei als Urbildmenge die Menge aller n- Vektoren υ zugelassen wird. 4.4.1

Transformieren einer quadratischen F o r m

Satz 4.8 Der Wertebereich einer quadratischen Form bleibt unverändert, wenn eine nicht-singuläre Variablentransformation u = Tv /r(T) = n] durchgeführt wird: u'Au = v'T'ATv = v'Bv. Das gilt insbesondere für die Variablentransformation u = Xv: η u'Au = v'X'AXv = v'Av = £ »=i

,

wobei X die orthonormale Matrix der Eigenvektoren von Α ist. Beispiel 4.11 Die quadratische Form Q(u) = 2tt? + 2y/2u!u2 + u\ kann geschrieben werden als Q{u) = u'Au mit u = («1,1*2)' und A-

\ 2 l VS

ι J·

Beispiel 4.12 Die Matrix der Eigenwerte zur Matrix Α aus Beispiel 4.11 ist Λ = diag[3,0]; die zugehörige Matrix der Eigenvektoren lautet

86

Mathematik für Sozial- und Wirtschaftswissenschaften Daher kann u'Au durch Variablentransformation u = Xv bzw. ν = X'u in v'Bv transformiert werden: u'Au = 2u\ + 2\f2u\ui + u\ — 3v* = v'Bv, wobei Β = X'AX

4.4.2

=

3 0 0 0

= Λ.

Definitheit von quadratischen Formen

Definition 4.5 Q(u) und die Koeffizientenmatrix Α heißen positiv definit (p.d.) /negativ definit (n.d.)], wenn der Wertebereich von Q(u) nur aus positiven (negativen) Zahlen besteht, d.h. wenn Q(u) > 0 [Q(«) < 0] für alle u φ 0. Q(u) und Α heißen positiv semidefinit (p.s.) /negativ semidefinit (n.s.)J, wenn Q(u) > 0 [(Q(u) < 0]

für alle

u^O.

Q(u) und Α heißen indefinit, wenn der Wertbereich positive und negative Zahlen enthält. Die Definitheit einer quadratischen Form kann leicht abgelesen werden, wenn diese durch Variablentransformation in ein Summme von Quadraten umgewandelt wird. Beispiel 4.13 Die quadratische Form Q(u) aus Beispiel 4.11 ist positiv semidefinit, da Q(u) = Q(Xv) = 3vi + Ovl > 0 für beliebige ν φ 0. Satz 4.9 Zur Definitheit quadratischer Formen bzw. von Matrizen gelten folgende Aussagen: (a) Q(u) bzw. Α ist genau dann positiv definit (negativ definit), wenn alle Eigenwerte λ,· von Α größer (kleiner) als Null sind. (b) Q(u) bzw. Α ist genau dann positiv semidefinit (negativ semidefinit), wenn alle Eigenwerte λ,· von Α größer (kleiner) oder gleich Null sind. (c) Ist Α positiv definit, so gilt |A| > 0, τ(Α) = η und Sp(A) > 0.

Eigenwerte,

Eigenvektoren;

Quadratische

87

Formen

(d) Ist Α positiv definit und gilt r(B) = m für den Rang der η χ Β, dann ist B'AB positiv definit. (e) Gilt r ( J 5 ) = to für den Rang der η χ m-Matrix definit. ( f ) Ist Α positiv

definit, so ist auch Α~ λ positiv

(g) Q(u) bzw. Α ist genau größer als Null sind:

(h) Q(u) gilt:

dann positiv

definit,

m-Matrix

Β, dann ist B'B

positiv

definit. wenn alle

Hauptminoren

bzw. Α ist genau dann negativ definit, wenn für die

Hauptminoren

η η (i) Sind Α und Β positiv definit, so ist auch Α ® Β positiv

gerade ungerade definit.

Siehe Beispiel 4.16. 4.4.3

Faktorisieren von Matrizen

Satz 4.10 Α sei eine positiv definite (a)

Matrix.

Choleski-Faktorisierung: Zu Α existiert eine reelle, untere ecksmatrix A —

T,

TT'.

(b) Zu Α existiert A =

Drei-

sodaß

eine nicht-singuläre,

reelle Matrix W,

sodaß

W'W.

Die Matrix Τ aus (a) erhalt man mittels einer einfachen Konstruktion (siehe Beispiel 4.17). Die Matrix W aus (b) ergibt sich aus der Diagonalisierung A = X'AX der symmetrischen Matrix Α zu W = X'A 1/ 2.

88

Mathematik für Sozial- und

Wirtschaftswissenschaften

4.A Ergänzende Beispiele Beispiel 4 . 1 4 Zur Matrix A =

1 0 0 0 2 V2 0 y/2 3

sind (a) die Eigenwerte und (b) die Eigenvektoren zu ermitteln. (a) Zum Bestimmen der Eigenwerte suchen wir die Wurzeln des charakteristischen Polynoms 1-λ 0 0 \A — λΙ| = 0 2 - λ y/2 0 y/2 3 — λ = (1 - λ)[(2 - λ)(3 - λ) - 2] = (1 - λ)(λ 2 - 5λ + 4) = (1 — λ)(4 — λ)(1 — λ) = 0. Die Eigenwerte ergeben sich zu Λι = 4 und = \ 3 = 1; der Eigenwert 1 hat die Vielfachheit zwei. (b) Zu λ = 4 existiert ein Eigenvektor a^1), der sich als Lösung des homogenen linearen Gleichungssystems -3 0 0 0 - 2 y/2 X^zrO 0 v5 -1 ergibt. Wegen 0 -3 0 0 0 - 2 y/2 2 0 y/2 -1 0 gilt a^1) = a(0, ^ , 1 ) ' . Normieren liefert die Konstante a. Aus a;(1)'i(1) = (1 + = 1 ergibt sich ar = . Somit lautet der Eigenvektor zu Aj = 4

0 1 V3 y/2 Der Eigenwert Λχ = Λ3 = 1 hat die Vielfachheit zwei, d.h. es existieren zu diesem Eigenwert zwei linear unabhängige Eigenvektoren, die sich als Lösung des linearen Gleichungssystems mit der Koeffizientenmatrix 0 0 0 " " 0 1 V21 0 1 V2 0 0 0 0 0 0 0 y/2 2 »W =

Eigenwerte, Eigenvektoren; Quadratische Formen

89

ergeben. Der Kern dieses linearen Gleichungssystems hat die Dimension zwei. Die allgemeine Lösung lautet " 0 " "1 " α 0 + ß -V2 0 1 Die beiden Basisvektoren der allgemeinen Lösung des linearen Gleichungssystems sind in diesem Beispiel bereits orthogonal, sodafi wir sie nur mehr normieren müssen. Wir setzen für χ(2) den Vektor 1

der die Norm ||x^|| = 1 hat. Skalare Multiplikation mit dem Reziprokwert der Norm ergibt den Vektor 0 -y/2 y/3 1 Somit erhalten wir die folgenden drei orthonormalen Eigenvektoren: 0 "1' 0 K / _ X(3) = 1 , s = 0 -V2 \/3 %/2 V3 1 0 Die orthonormale Matrix der Eigenvektoren lautet daher 0 V3 0 1 0 —v/2 = ~7= V5 •v/5 0 1 x

Beispiel 4.15 Die Matrix

M e

-a]

soll in die Matrix ihrer Eigenwerte transformiert werden. Wir benützen dazu die Beziehung X'AX = Λ (vergleiche Satz 4.3), in der die Transformationsmatrix X die Matrix der Eigenvektoren von Α ist. Daher bestimmen wir zunächst die Transformationsmatrix X. Aus dem charakteristischen Polynom μ-λΐ| =

2 —λ

6

6

-3-λ

= λ 2 + λ - 42 = 0

erhalten wir die Eigenwerte Λι = 6 und λ 2 = —7. Die Eigenvektoren sind χ*1' = ^ ( 3 , 2 ) ' und x = 2,3)'. Die Itansformationsmatrix X ist somit X =

y/Ü

3 2

-2 3

90

Mathematik für Sozial- und Wirtschaftswissenschaften Die Transformation gibt x , A X

3 2 = h [ - 2 3

3 2

-2 3

Η:Λ]

Beispiel 4 . 1 6 Die Definitheit der quadratischen Form

x'

' 3 0 0 " v/3 χ = x'Ax 0 4 . 0 Λ/3 6

ist (a) durch Berechnen der Eigenwerte (b) durch Berechnen der Hauptminoren (c) durch Kongruenztransformation zu ermitteln. (a) Das Berechnen der Eigenwerte liefert λχ = 7 und λ 2 = λ 3 = 3. Somit sind Α und Q(x) positiv definit. (b) Aus 3 0 an au β21 «22 0 4 folgt, daß Α und Q(x) positiv definit sind, kill = 3 > 0,

= 12 > 0,

μ| = 6 3 > 0

(c) Die Kongruenztransformation von Α gibt '3 0 0 ] Γ3 0 0 ' 3 0 0" c* 0 4 0 = D. A= 0 4 = 0 4 4y/3 S 84 0 0 . 0 \/3 6 [ 0 4v/3 96 Α und D sind kongruent und haben daher gleiche Definitheit. Da D positiv definit und da die Diagonalelemente von D gleiche Vorzeichen wie die Eigenwerte von Α haben, sind Α und Q(x) positiv definit.

Beispiel 4 . 1 7 Für die Matrix Α aus Beispiel 4.16, A =

3 0 0

0 0 4 y/3 y/3 6

ist die untere Dreiecksmatrix Τ der Choleski-Zerlegung {A = TT') (a) durch direkte Choleski-Faktorisierung (b) durch Kongruenztransformation zu bestimmen.

Eigenwerte, Eigenvektoren; Quadratische Formen

91

(a) Die allgemeine Form von Τ ist

T=

111