184 87 39MB
German Pages 318 [320] Year 2000
Mathematik
für Sozial- und Wirtschaftswissenschaften Lehrbuch mit Übungsaufgaben • ·
Von Universitätsprofessor
Dr. Peter Hackl und Universitätsdozent
Dr. Walter Katzenbeisser
9., unwesentlich veränderte Auflage
R. Oldenbourg Verlag München Wien
Die Deutsche Bibliothek - CIP-Einheitsaufnahme Hackl, Peter: Mathematik für Sozial- und Wirtschaftswissenschaften : Lehrbuch mit Übungsaufgaben / von Peter Hackl und Walter Katzenbeisser. - 9., unwes. veränd. Aufl. - München; Wien : Oldenbourg, 2000 ISBN 3-486-25467-7 NE: Katzenbeisser, Walter:
© 2000 Oldenbourg Wissenschaftsverlag GmbH Rosenheimer Straße 145, D-81671 München Telefon: (089)45051-0 www.oldenbourg-verlag.de Das Werk einschließlich aller Abbildungen ist urheberrechtlich geschützt. Jede Verwertung außerhalb der Grenzen des Urheberrechtsgesetzes ist ohne Zustimmung des Verlages unzulässig und strafbar. Das gilt insbesondere für Vervielfältigungen, Übersetzungen, Mikroverfilmungen und die Einspeicherung und Bearbeitung in elektronischen Systemen. Gedruckt auf säure- und chlorfreiem Papier Gesamtherstellung: MB Verlagsdruck, Schrobenhausen ISBN 3-486-25467-7
Inhaltsverzeichnis V o r w o r t z u r sechsten Auflage
XI
V o r w o r t z u r siebenten Auflage
XII
1
Vektor- u n d M a t r i z e n r e c h n u n g
1
1.1
Vektoren
1
1.1.1
Das Rechnen mit Vektoren
2
1.1.2
Lineare Abhängigkeit und lineare Unabhängigkeit von Vektoren
6
1.1.3 1.2
Vektorraum
Vnr
7
Matrizen
10
1.2.1
Das Rechnen mit Matrizen
11
1.2.2
Skalare Kenngrößen von Matrizen: Rang und Spur . .
13
1.2.3
Invertieren einer Matrix
15
1.2.4
Partitionierte Matrizen, Kronecker-Produkt
15
l.A Ergänzende Beispiele
17
l.C Übungsaufgaben
24
Lösungen der Übungsaufgaben
29
2 G a u ß - J o r d a n ' s c h e s Eliminationsverfahren u n d A n w e n d u n gen 31 2.1
Einige Grundbegriffe
31
2.2
Gaufi-Jordan'sche Eliminationsverfahren
34
2.3
Bestimmung des Ranges einer Matrix
35
2.4
Lineare Gleichungssysteme
35
2.4.1
Lösen eines linearen Gleichungssystems
36
2.4.2
Inhomogene, lineare Gleichungssysteme
39
VI
3
4
Inhaltsverzeichnis 2.4.3
Homogene lineare Gleichungssysteme
40
2.4.4
Eigenschaften der Lösung eines linearen Gleichungssystems
41
2.5
Invertieren einer Matrix
41
2.6
Bestimmung von Dimension und Basis des von einem Erzeugendensystem aufgespannten Vektorraumes
42
2.A Ergänzende Beispiele
43
2.Β Ökonomische Anwendungsbeispiele
48
2.C Übungsaufgaben
52
Lösungen der Übungsaufgaben
59
Determinanten
63
3.1
Das Berechnen von Determinanten, ihre Eigenschaften . . . .
64
3.2
Anwendungen
67
3.2.1
Invertieren einer Matrix
67
3.2.2
Lösen eines linearen Gleichungssystems
3.2.3
Bestimmen des Ranges einer Matrix
.
67 68
3.A Ergänzende Beispiele
68
3.Β Ökonomische Anwendungsbeispiele
70
3.C Übungsaufgaben
72
Lösungen der Übungsaufgaben
74
Eigenwerte, Eigenvektoren; Quadratische Formen
75
4.1
Das Eigenwertproblem
75
4.2
Das Eigenwertproblem für symmetrische Matrizen
80
4.3
Kongruente Matrizen
82
4.4
Quadratische Formen
85
4.4.1
Transformieren einer quadratischen Form
85
4.4.2
Definitheit von quadratischen Formen
86
4.4.3
Faktorisieren von Matrizen
87
4.A Ergänzende Beispiele
88
4.B Ökonomische Anwendungsbeispiele
92
4.C Übungsaufgaben
95
Lösungen der Übungsaufgaben
97
Inhaltsverzeichnis 5 Lineare Optimierung 5.1
5.2
5.3
5.4
6
Ein einführendes Beispiel
VII 99 99
5.1.1
Formulierung als lineares Optimierungsproblem . . . .
100
5.1.2
Graphisches Lösungsverfahren
101
5.1.3
Analytisches Lösungsverfahren
102
Die Simplex-Methode
105
5.2.1
Problem-Formulierung
105
5.2.2
Der Algorithmus
106
Erweiterungen
108
5.3.1
Gleichungen als Nebenbedingungen
108
5.3.2
Nebenbedingungen von der Form ' > '
110
5.3.3
Negative Elemente des Beschränkungsvektors
110
5.3.4
Minimieren der Zielfunktion
110
Das duale Problem
110
5.A Ergänzende Beispiele
113
5.C Übungsaufgaben
120
Lösungen der Übungsaufgaben
123
Funktionen
125
6.1
Einführung
125
6.2
Grenzwert einer Funktion
128
6.3
Stetigkeit
129
6.A Ergänzende Beispiele
131
6.C Übungsaufgaben
134
Lösungen der Übungsaufgaben
134
7 Differentialrechnung
135
7.1
Funktionen einer Veränderlichen
135
7.2
Funktionen von mehreren Veränderlichen
140
7.2.1
Partielle Ableitungen
140
7.2.2
Differenzierbarkeit von Funktionen mehrerer Veränderlicher
142
Anwendungen des totalen Differentials
144
7.2.3
7.A Ergänzende Beispiele
146
7.B Ökonomische Anwendungsbeispiele
149
VIII
8
Inhaltsverzeichnis
7.C Übungsaufgaben
152
Lösungen der Übungsaufgaben
156
Extremwertaufgaben
157
8.1 Funktionen einer Veränderlichen
157
8.2
Funktionen von mehreren Veränderlichen
159
8.2.1
Extremwerte ohne Nebenbedinungen
159
8.2.2
Extremwerte unter Nebenbedingungen
159
8.A Ergänzende Beispiele
162
8.Β Ökonomische Anwendungsbeispiele
164
8.C Übungsaufgaben
167
Lösungen der Übungsaufgaben
168
9 Integralrechnung 9.1
171
Das unbestimmte Integral
172
9.1.1
Substitution der Integrationsvariablen
173
9.1.2
Partielle Integration
173
9.1.3
Partialbruchzerlegung: Integration rationaler Funktionen
174
Universalsubstitution: Integration rationaler Funktionen von Winkelfunktionen
176
9.1.4 9.2
Bestimmtes Integral
177
9.3
Uneigentliche Integrale
178
9.3.1
Integranden mit Unstetigkeitsstelle
179
9.3.2
Unbeschränktes Integrationsintervall
179
9.Α Ergänzende Beispiele
180
9.Β Anwendungsbeispiele
188
9.C Übungsaufgaben
191
Lösungen der Übungsaufgaben
193
10 Folgen und Reihen
195
10.1 Zahlenfolgen
195
10.2 Zahlen- und numerische Reihen
198
10.3 Funktionenreihen
202
10.A Ergänzende Beispiele
205
Inhaltsverzeichnis
IX
10.B Ökonomische Anwendungsbeispiele
210
10.C Übungsaufgaben
213
Lösungen der Übungsaufgaben
215
11 Potenzreihen und Taylorreihen
217
11.1 Potenzreihen
217
11.2 Taylorreihen
219
11.Α Ergänzende Beispiele
221
11.Β Anwendungsbeispiele
223
11.C Übungsaufgaben
227
Lösungen der Übungsaufgaben
228
12 Gewöhnliche Differentialgleichungen erster Ordnung
229
12.1 Einleitung
229
12.2 Differentialgleichungen mit trennbaren Variablen
233
12.3 Exakte Differentialgleichungen
233
12.4 Lineare Differentialgleichungen erster Ordnung
238
12.5 Substitution: Homogene Differentialgleichungen
239
12.A Ergänzende Beispiele
240
12.Β Ökonomische Anwendungsbeispiele
242
12.C Übungsaufgaben
246
13 Lineare Differentialgleichungen
249
13.1 Einleitung
249
13.2 Homogene, lineare Differentialgleichungen
251
13.2.1 Einfache Wurzeln
251
13.2.2 Mehrfache Wurzeln
253
13.2.3 Komplexe Wurzeln
254
13.3 Inhomogene, lineare Differentialgleichungen
255
13.3.1 Methode der unbestimmten Koeffizienten
255
13.3.2 Variation der Konstanten
256
13.3.3 Operator-Methoden
258
13.Α Ergänzende Beispiele
260
13.B Ökonomische Anwendungsbeispiele
262
13.C Übungsaufgaben
265
Inhaltsverzeichnis
χ 14 Differenzengleichungen
269
14.1 Einleitung
269
14.2 Homogene, lineare Differenzengleichungen
272
14.2.1 Einfache Wurzeln
274
14.2.2 Mehrfache Wurzeln
275
14.2.3 Komplexe Wurzeln
276
14.3 Inhomogene, lineare Differenzengleichungen 14.3.1 Methode der unbestimmten Koeffizienten
277 278
14.4 Das Konvergenzverhalten der Lösung von linearen Differenzengleichungen
279
14.5 Systeme von linearen Differenzengleichungen
283
14.6 Darstellung von linearen Differenzengleichungen in Matrixform 284 14.A Ergänzende Beispiele
285
14.B Ökonomische Anwendungsbeispiele
288
14.C Übungsaufgaben
292
Α Komplexe Zahlen
295
A.l Definitionen
295
A.2 Graphische Daxstellung der komplexen Zahlen
296
A.3 Trigonometrische und exponentielle Form der komplexen Zahlen298 A.4 Die n-te Wurzel w einer komplexen Zahl ζ
299
Literatur
301
Stichwortverzeichnis
303
Vorwort zur sechsten Auflage Diese sechste Auflage ist eine wesentliche Überarbeitung der früheren Auflagen. Zielsetzung dieses Buches ist es, das für die Sozial- und Wirtschaftswissenschaften notwendige mathematische Instrumentarium zu vermitteln. Entsprechend dem Einsatz des Buches als begleitendes Textbuch zu Vorlesungen und Übungen für Studenten der Sozial- und Wirtschaftswissenschaften wollen wir dem Leser eine Möglichkeit zum selbständigen Erarbeiten des mathematischen Instrumentariums geben. Durch die Überarbeitung wollten wir vor allem die Lesbarkeit verbessern. Viele der Verbesserungen, die in die neue Auflage eingegangen sind, resultieren aus unseren Erfahrungen im Einsatz der früheren Auflagen. Der Aufbau des Buches und der einzelnen Kapitel ist gleich geblieben. Jedes Kapitel gliedert sich in drei Teile: Im ersten Teil wird der Stoff des Kapitels mit Betonung der jeweils relevanten Definitionen, Sätze und Techniken dargestellt. Wir verzichten weitgehend auf strenge, mathematische Beweise. Entsprechend unseren Erfahrungen, die wir in wiederholt abgehaltenen Lehrveranstaltungen gewonnen haben, scheinen uns Erläuterungen an Hand illustrierender Beispielen für den angesprochenen Leserkreis motivierender und adäquater zu sein. Im zweiten Teil werden typische Anwendungen der besprochenen Methoden an Hand gelöster und kommentierter Beispiele in exemplarischer Weise dargestellt. Als Motivation für die Auseinandersetzung mit den behandelten mathematischen Methoden und als Hilfe für ihre Anwendung in den Sozial- und Wirtschaftswissenschaften werden die meisten Kapitel durch die Diskussion ökonomischer Anwendungsbeispiele ergänzt. Am Ende eines jeden Kapitels findet sich eine große Zahl von Übungsaufgaben. Die durch die Vorgabe der Lösungen unterstützte Bearbeitung der Übungsaufgaben soll dem Studenten helfen, sein Verständnis für den Stoff zu vertiefen und Übung bei der selbständigen Handhabung des Instrumentariums zu erlangen. Zu Dank sind wir verpflichtet Verena Hackl für die Arbeit, das vorhandene Manuskript in eine mit l^jXverarbeitbare Form zu bringen. Besonderer Dank gilt jenen Studenten, die durch Hinweise auf Fehler in früheren Auflagen zur Verbesserung des Buches beigetragen haben. Schließlich möchten wir Herrn Dipl.-Vw. Martin Weigert vom Oldenbourg Verlag für die nun schon jahrelange angenehme Zusammenarbeit herzlich danken.
Peter Hackl Walter Katzenbeisser Wölfgang Panny
Vorwort zur siebenten Auflage Die vorliegende siebente Auflage unseres Buches unterscheidet sich von der sechsten Auflage neben kleineren Korrekturen durch eine wesentliche Erweiterung des Inhaltes. Motiviert durch die zunehmende Formalisierung der Ökonomie sahen wir uns veranlaßt, das mathematische Instrumentarium der früheren Auflagen um drei Kapitel zu erweitern, die eine Einführung in die Behandlung von in der dynamischen Wirtschaftstheorie wichtigen Differential- und Differenzengleichungen geben. Der Aufbau des Buches ist auch in dieser Erweiterung der in den anderen Kapiteln bewährte geblieben. Entsprechend dem höheren Anspruchsnineau wurde in den neu aufgenommenen Kapiteln ein größerer Wert auf mathematische Strenge gelegt. Nach unseren Erfahrungen eignet sich das Buch als begleitendes Textbuch einer "Mathematik für Sozial- und Wirtschaftswissenschafter", die aus Kursen in A. Einführung in die lineare Algebra(Kap. 1-5) B. Einführung in die Differential- und Integralrechnung (Kap. 6-11) C. Einführung in Differential- und Differenzengleichungen (Kap. 12-14) besteht. Der letzte Teil ist besonders für das Studium der Volkswirtschftslehre und formalisierter Bereiche der Betriebswirtschaftslehre wie Operations Research von Interesse. Wir hoffen, daß auch diese neue Auflage bei Kollegen und Studenten wohlwollend aufgenommen wird. Seit Herbst 1989 leitet unser Mitautor der bisherigen Auflagen, Univ.Prof. Dr. Wolfgang Panny, das Extraordinariat "Angewandte Informatik" an der hiesigen Wirtschaftsuniversität. Als Folge der damit verbundenen Änderung seines Wirkungsschwerpunktes steht er als Mitautor dieser und zukünftiger Auflagen nicht mehr zur Verfügung. Wir sind ihm für seinen langjährigen Beitrag zum Entstehen dieses Buches und zu seiner laufenden Verbesserung verbunden.
Vorwort zur achten und neunten Auflage Die achte Auflage wurde wiederum gründlich überarbeitet. In der neunten Auflage konnten wir uns darauf beschränken, den gesamten Text kritisch durchzusehen.
Kapitel 1
Vektor- und Matrizenrechnung Lineare Strukturen haben in der Ökonomie große praktische Bedeutung. In Marktmodellen wird der Preis eines Produktes als lineare Funktion der Angebots- bzw. der Nachfragemenge beschrieben. Die Input-Output-Analyse bildet die Endverbrauchsmengen als lineare Funktion der von den verschiedenen Sektoren nachgefragten Mengen ab und gestattet die Analyse komplexer Zusammenhänge in einer Wirtschaft durch die lineare Approximation der tatsächlichen Beziehungen. Die lineare Optimierung gestattet das Auffinden des Optimums einer linearen Zielfunktion unter Berücksichtigung linearer Restriktionen in Ungleichungsform; Bestimmung eines optimalen Produktionsmix oder Transportweges sind wichtige Anwendungen. Zentrale Begriffe aller dieser Anwendungen sind Vektoren und Matrizen. Die algebraische Behandlung dieser Objekte behandelt die Lineare Algebra. Durch vereinfachte Notation erleichtert die Verwendung der Vektor- und Matrizenrechnung das Formulieren von linearen Problemen und das Aufsuchen der Lösungen. Der Abschnitt 1 bringt die Grundlagen dieses wichtigen Teils der Mathematik. Im Abschnitt 2 behandeln wir das für Standardaufgaben vielleicht wichtigste Rechenverfahren, das Gauß-Jordan'sche Eliminationsverfahren, und seine Anwendung zur Lösung linearer Gleichungssysteme. Die Abschnitte 3 bis 5 diskutieren weitere für die Anwendung in der Wirtschaftsmathematik wichtige Themen wie Determinanten, das Eigenwertproblem und Lineare Optimierung.
1.1
Vektoren
Definition 1.1 Ein Vektor ist ein geordnetes n-Tupel reeller Zahlen.
2
Mathematik für Sozial- und
Wirtschaftswissenschaften
Im allgemeinen werden wir die K o m p o n e n t e n ι,·, t = 1 , . . . , n , eines Vektors χ in Form eines Spaltenvektors
χ=
anordnen. Werden die Komponenten des Vektors in Zeilenform (®i,... ,xn) geschrieben, so sprechen wir von einem Zeilenvektor. Ein n-komponentiger Vektor wird auch n-Vektor genannt. Der n-komponentige Zeilenvektor x', dessen i-te Komponente mit der i-ten Komponente des τι-komponentigen Spaltenvektors χ übereinstimmt, heißt der zu χ t r a n s p o n i e r t e Vektor. Zur Unterscheidung von Vektoren werden reelle Zahlen auch Skalare genannt. Beispiel 1.1 Den Punkten des kartesischen Koordinatensystems können wir Vektoren - sogenannte Ortsvektoren - zuordnen: Dem Vektor χ = (3,4)' entspricht der Punkt mit den Koordinaten (3,4) der Ebene; dem Vektor y = (1,3,2)' entspricht der Punkt (1,3,2) des dreidimensionalen Koordinatensystems. Einige spezielle Vektoren, die wir im weiteren verwenden werden, sind der Einheitsvektor e ^ , das ist ein Vektor, dessen i-te Komponente e,· = 1, während für alle anderen Komponenten ej ( j φ i) gilt ej = 0, und der Nullvektor 0, ein Vektor, dessen Komponenten alle Null sind. 1.1.1
D a s R e c h n e n m i t Vektoren
Definition 1.2 Zwei n-Vektoren χ und y nennen wir gleich, wenn x,· = ju für i = 1,... ,n. Analog sind die Relationen definiert. So bedeutet χ < y, daß Xj < yi für i = 1 , . . . , n. Beispiel 1.2 Für die Vektoren χ = (3,4)', y = (1,2)' und ζ = (1,3,2)' gelten folgende Beziehungen: (a) χ = a, wenn α = (αϊ, = (1,0,0)', = (0,1,0)' und = (0,0,1)' daxstellen: X
1.1.2
=
Γ21 3 3 = Σ > ί=1 1
( 0
=
2
1 0 0
+ 3
0 1 0
+ 1
0 0 1
=
2 3 1
Lineare Abhängigkeit und lineare Unabhängigkeit von Vektoren
Ein zentraler Begriff der linearen Algebra ist die lineare Abhängigkeit bzw. lineare Unabhängigkeit von Vektoren. Definition 1.8 Die Vektoren heißen linear abhängig (La.), wenn es Skalare c\,..., et gibt, die nicht alle Null sind, sodaß k $ > * ( · ' ) = 0. i=l Andernfalls heißen die Vektoren linear unabhängig (l.u.). Beispiel 1.7 Die Vektoren cW = (1,0,0)' und e = (0,1,0)' sind linear unabhängig, da die Beziehung Σ c.e^ = 0 genau dann gilt, wenn alle Ci = 0. Satz 1.2 Eigenschaften der linearen Unabhängigkeit: (a)
. . . , kW sind linear abhängig, wenn zumindest einer der Vektoren als Linearkombination der übrigen darstellbar ist;
(b) eine Menge von k n-Vektoren mit k > η ist linear abhängig; (c) ist einer der Vektoren a:'1),. toren linear abhängig;
der Nullvektor, so sind diese Vek-
(d) eine Teilmenge von linear unabhängigen Vektoren ist linear unabhängig•
Vektor- und
7
Matrizenrechnung
Zur praktischen Bestimmung der linearen Unabhängigkeit muß das folgende lineare Gleichungssystem gelöst werden: c n f 1 + c2x , · . 1=1
14
Mathematik für Sozial·· und
Wirtschaftswissenschaften
Satz 1.7 Eigenschaften der Spur einer Matrix: Α und Β seien η χ nMatrizen, k eine reelle Zahl; es gilt Sp(A + B) Sp(kA)
= =
Sp(A) + Sp(B) kSp(A)
Sp (A') Sp (AB)
= =
Sp(A) Sp (BA)
Die Definition des Ranges einer Matrix basiert auf den Spaltenvektoren, das sind die Spalten der Matrix. Alternativ kann der Rang einer Matrix auf der Basis von Zeilenvektoren definiert werden. Definition 1.18 Der R a n g r(j4) der η χ m-Matrix Α ist die größte Anzahl linear unabhängiger Spaltenvektoren von A. Siehe Beispiel 1.19. Eine effiziente Methode zur Bestimmung des Ranges einer Matrix wird in Kapitel 2 behandelt. Satz 1.8 Für den Rang einer Matrix gelten folgende Aussagen: (a) Die größte Zahl linear unabhängiger Zeilenvektoren von Α ist gleich der größten Zahl linear unabhängiger Spaltenvektoren, d.h. der Zeilenrang von Α ist gleich dem Spaltenrang von A. (b) Hat Α die Ordnung (η χ πι), so gilt r(^4) < min(n, τη). (c) Der Rang einer Nullmatrix 0 beliebiger Ordnung ist r(0) = 0. (d) Der Rang der Einheitsmatrix In ist τ(I„) = n. (e) Für eine Matrix beliebiger Ordnung gilt i(A') = r(j4). ( f ) Für das Produkt AB gilt r ( A B ) < min[r(A),r(5)]. Definition 1.19 Der Rang einer Matrix Α heißt voll, wenn r (A) = min(n, m ) . Eine quadratische Matrix mit vollem Rang heißt regulär oder nicht-singulär. Satz 1.9 Für den Rang einer Matrix gelten: (a) i(AB) = r(Β), wenn Α quadratisch und nicht-singulär ist. (b) Ist A idempotent, so gilt: r(A) = Sp(vl).
Vektor- und Matrizenrechnung 1.2.3
15
Invertieren einer M a t r i x
Das Invertieren einer Matrix ist ein zentraler Begriff der linearen Algebra. Wir sprechen in diesem Abschnitt von quadratischen Matrizen. Definition 1.20 Die Inverse A _ 1 einer η χ η-Matrix ist, falls sie existiert, eine η X η-Matrix, für die gilt Α·Α-1
= Α~1·Α
= Ιη.
Eigenschaften der inversen Matrix: Α und Β seien nicht-singuläre η χ nMatrizen, und k sei eine reelle Zahl mit k φ 0; es gilt (fcA)- 1
(AT11 (AB)-
- 1 AA - 1 ~ k = (A'λ1)' = Β~ Α~
Das Beispiel 1.20 zeigt, wie die Inverse A 1 einer Matrix Α durch das Lösen linearer Gleichungssysteme berechnet werden kann. Satz 1.10 Für die Inverse einer Matrix gelten folgende Aussagen: (α) Α ist genau dann invertierbar, wenn sie nicht-singulär ist. (b) A-1
ist symmetrisch, wenn Α symmetrisch ist.
(c) Die Inverse einer orthonormalen Matrix C ist die zu C transponierte Matrix C': C'C = CC' = I. Ein effizientes Verfahren zur Bestimmung der Inversen wird in Kapitel 2 behandelt. 1.2.4
Partitionierte M a t r i z e n , Kronecker-Produkt
Manchmal ist es praktisch, eine Matrix in Submatrizen zu partitionieren: Sei Α = [Αι, A2], wobei Αχ von der Ordnung η χ mi und Αι von der Ordnung η X ni2 ist; Α ist daher eine η X (mi + m2)-Matrix. Die oben definierten Matrizenoperationen wie Addition, skalare Multiplikation, Invertieren etc. können entsprechend dem folgenden Satz 1.11 auf Operationen in den Submatrizen zurückgeführt werden. Voraussetzung ist, daß die Submatrizen entsprechende Ordnung haben. Satz 1.11 Α = [Αχ, A2] und Β = [B\, £2] seien entsprechend partitioniert; dann gilt
Mathematik für Sozial- und
16
(a) A + B = [A1 + Bl,A2 (b) A' = [AuA2]'
=
(c) AB' = [AuA2]
Wirtschaftswissenschaften
+ B3]
4 4 Bi,
= ΑχΒΙ + A2B'2
(d) A set eine quadratische, nicht-singulare Matrix der Ordnung η χ η: A
An A21
=
;4i2
A22
sodaß die Submatrizen A,; (i = 1,2) nicht-singuläre Matrizen der Ordnung n{ (n\ + «2 = n) sind; dann gilt Α'1 = B =
Bn Β2i
B 22
wobei Bn B\2 B2\ B22
= (An-AuAgAn)-1 = - Bi\A\2A22 = -A22A2iBn = Anil - A2\B\2).
Definition 1.21 Das Kronecker-Produkt Α ® Β einer η X m-Matrix A mit einer ρ χ q-Matrix Β ist definiert als
A®B
a\\B
...
a\mB
. ο„ιΒ
...
anmB
=
Α ® Β ist von der Ordnung np χ mq. Satz 1.12 Eigenschaften des Kronecker-Produkts: Αι (A2) seien Matrizen der Ordnung η χ m (m χ l), B\ (B2) Matrizen der Ordnung ρ χ q (q χ s), k set eine reelle Zahl; dann gilt (α) Αλ®Βι+Α2®Β1
= [Α!+Α2]®Βι;
(b) k(Ai ® Bi) = kAi ®
A1®B1+Al®B2
= Ax ® kBx.
(c) (Ax ® Bi) · (A2 ® B2) = AXA2 ® BxB2.
= AiQlBx + Bi].
Vektor- und
17
Matrizenrechnung
(d) Sp(Ai ® Bj) = Sp(Ai) · Sp(5i). (e) Αχ und B\ seien invertierbare Matrizen (η = τη, ρ = q); dann gilt
(At ® B i ) - 1
=
Αϊ 1 ® 5 Γ 1 .
Siehe Beispiel 1.22.
l . A Ergänzende Beispiele Beispiel 1.14 Zwei Vektoren X
=
' 1 " 2 1
,
' 2 ' 1 λ
y =
sind gegeben. (a) Welchen Winkel schließen χ und y ein, wenn λ = 2 ? (b) Für welches λ sind χ und y orthogonal. (a) Aus x 'y cos φ = „ „„ „ =
Ikllllvll
6
η oi«
^ _ = 0.816
ergibt sich φ = arccos 0.816 = 35.3°. (b) Die Vektoren χ und y heißen orthogonal (φ = 90°), wenn x'y = 2 + 2 + A = 0. Somit ergibt sich λ = —4.
Beispiel 1.15 Drei Vektoren », j und k sind gegeben: ' 1' 2
,
L _— Κ
'
0' 1
,
1=
2 5
Es ist zu ermitteln (a) die Dimension τ des von { j , k, 1} aufgespannten Vektorraumes V\ (b) eine Basis von V. (c) Welche Basen können von { j , k} durch Austausch eines Vektors abgeleitet werden, wenn zum Austauschen l zur Verfügung steht?
Mathematik für Sozial- und
Wirtschaftswissenschaften
(a) Sind die Vektoren linear unabhängig? Das komponentenweise Anschreiben der Vektorgleichung Ci
1 2
0 1
+ c2
+ c3
2 5
—
0 0
ergibt 0 ci +2C3 2ci + c2 + 5c3 0; aus der ersten Gleichung folgt ci = —2C3; wählen wir z.B. C3 = 1, so erhalten wir C2 = — 1 und ci = —2. Daraus folgt r < 3. Sind irgendwelche zwei dieser drei Vektoren linear unabhängig? Z.B. können wir j und k auf lineare Unabhängigkeit untersuchen. Dazu setzen wir 1 0 0 Cl 2 + c2 1 0 als Lösung des Gleichungssystems ci = 0 2CI + C2
=
0,
erhalten wir c\ = c2 = 0. Somit gilt r = 2. (b) Da r = 2 und j und k linear unabhängige Vektoren sind, bilden diese beiden Vektoren eine Basis von V; jeder beliebige Vektor χ = (xi,z 2 )' kann in eindeutiger Weise dargestellt werden: ' 1 ' xi + = CL 2 . . komponentenweises Anschreiben ergibt xi = ci x 2 = 2ci •c2 bzw. Ci = xi c2 = ® 2 — 2xi; daraus folgt:
χ = ®i
+ (®2 - 2xi)
m
Zum Beispiel können wir l darstellen als 1=
= 2
(siehe Abbildung 1.3). (c) Wegen 1=2
und Satz 1.5 sind abgeleitete Basen {/, £} und { j , /} (siehe Abbildung 1.3).
19
Vektor- und Matrizenrechnung 1. K o m p .
= 2j + k
0
f.
2. Komp.
Abbildung l.S: Graphische Darstellung der Vektoren j, k und l = 2j + k. Beispiel 1.16 AQ = {α^Ι,ο^,αΡ'} mit II rT
II
' 0" 2 0
" 1 ' 1 1
, « =
' 0 ' 1 1
sei die Basis eines Vektorraumes. Diese Basis soll nun schrittweise in eine orthonormale Basis { ν ^ , ν ^ , ν ^ } umgeformt werden, die denselben Vektorraum wie Ao aufspannt. [Dieses Beispiel illustriert das Herleiten des GramSchmidt'sehen Orthonormierungsverfahrens (Satz 1.6).] Wir beginnen mit dem Normieren des Vektors a^ 1 ': „W =
"0" 2 0
|aW||
=
' 0" 1 0
In diesem ersten Schritt haben wir die Basis Αι = {υ^',α^^,α^ 3 ^} erhalten. Im zweiten Schritt soll der Vektor u( 2 ) als Linearkombination von υ^1) und a( 2 ) gebildet werden, sodaß (i) u ^ und damit der Basis Ai für a( 2 ) ausgetauscht werden kann, und (ii) u ^ orthogonal zu v^1) ist. Wir wählen die Linearkombination u( 2 ) = 1 · al·2) + Da der Koeffizient von af·2) in dieser Linearkombination 1 ist, kann Bedingung (t) gemäß Satz 1.5 erfüllt werden. Bedingung (ii) führt zur Bestimmung von C21: „(D' u ( 2 )
=
^ [ a W + cneW]
=
r(D'a(
2
) + c21vW'vV = v^'a™ + c21 = 0.
Daher gilt C21 = —v^'al··2). Damit erhalten wir vi2)·. u
=
e(
2
)+
C2l0(
1
)=a(2)-[»(1)'a(2)]«(1)
Mathematik für Sozial· und Wirtschaftswissenschaften )_£[00)'a]„t» i=i • 1" 1 1 -(0,1,0) 1 1 1
a(
=
2
0 1 0
•
=
1 0 1
Schließlich normieren wir « O und erhalten „(2) = 1 (2 ) _ J _ ΙΙ« ( 2 ) |Γ
" V5
Somit ergibt sich nach dem zweiten Schritt die Basis A2 = {t^ 1 ), t>(2), e^3)}, die die Eigenschaft hat, daß die Teilmenge der neuen Vektoren »W und t^ 2 ) bereits orthonormiert ist. Analog wird im dritten Schritt der Vektor u(3) als Linearkombination von a( 3 ) und den schon orthonormierten Vektoren »W und v ^ aus A2 dargestellt: (1) «(3) (und damit ^caTin ^ für a ausgetauscht werden; (ii) v\3> ist zu vW und v(2) orthogonal Wählt man als Linearkombination u(3) = 1 ·a^ 3 ) + C3iv^ + C32vW, so ist gemäfi Satz 1.5 die Bedingung (i) erfüllt. Die Bedingung (ii) führt zur Festlegung der Skalare C31 und C32: „(D'uO)
„(2)'«(3>
=
„(1)'[α(3) +
=
»«>
=
υ(
=
vW'aW + c31vW'vW +
=
u (2) V 3 > + c 32 = 0
2
+ C
C 3 i C (l) +
^„(2)]
C31=-A B)~l (e) (A ® B)(C ® £>)
Lösungen der Übungsaufgaben 1: (a) ( 3 , 2 , - 1 ) ' ; (b) (0,1,7)'; (c) (3,15,0)'; (d) (18, - 2 1 , - 1 3 ) ' ; (e) ( - 5 , - 3 9 , -26)'. 3: (a) (-1,11,8)'; (b) ( - 4 , 5 , - 4 ) ' ; (c) (10,16,0)'. 4: (a) 2 , 3 , - 1 ; (b) (c) 5 , - 2 , 2 . 5: (a) 0; (b) - 1 4 : (c) 1; (d) - 8 ; (e) nicht definiert. β: (a) - 1 4 ; (b) ±4; (c) 1; (d) - 1 . 7: (a) v/39; (b) y/Ü\ (c) 13. 8: (a) ±0.25; (b) 9: (a) n/IÖ; (b) v/61; (c) V§Ö; (d) v/M; (e) v/47. 10: (a) 2; (b) 3; (c) b. 11: (a) «W = e(3), »(2> = e(3) = 3 ^ oder = ^ ( 1 , 1 , 1 ) ' , t;
die gleich dem Vektor b ist. Bei der Lösung eines linearen, inhomogenen Gleichungssystems Ax = b müssen wir drei Fälle unterscheiden. (a) r = m = n: Es existiert eine eindeutige Lösung. Sie lautet χ = A - 1 6 = b*. (b) r < n: Unter den η Gleichungen sind η — τ redundant, d.h. sie sind Linearkombinationen der nicht-redundanten Gleichungen. Die Lösung der nicht-redundanten Gleichungen erfüllt daher auch die redundanten Gleichungen, die somit beim Aufsuchen der Lösung weggelassen werden können. In der kanonischen Form von [A, b] sind die letzten η — r Zeilen Nullvektoren. Siehe Beispiel 2.9.
40
Mathematik für Sozial- und Wirtschaftswissenschaften
(c) r = η < τη, wobei η die Zahl der nicht-redundanten Gleichungen ist. Α läfit eich partitionieren in Α = [Λι,ϋ], wobei r(j4) = r; Ai enthält die r linear unabhängigen Spalten von A. Analog partitionieren wir Χ = (XA,XR)\ wobei χ Α der r-Vektor der Basisvariablen ist; er enthält jene Unbekannten, die den linear unabhängigen Spalten von A entsprechen. Aus Ax = [AUR] (
) = ΜxA + Ä X R = b
enthalt wir ΧA =
A^b -
A^XR,
d.h. für ein beliebig vorgegebenes XR kann Χ Α eindeutig bestimmt werden. Es gibt unendlich viele Lösungen! Siehe Beispiel 2.10. Beachte: Im allgemeinen wird es mehrere Möglichkeiten - maximal (™) geben, die Nichtbasisvariablen auszuwählen. Damit ist die Zerlegung von A in [Ai,2i] bzw. (XA,XR)' nicht eindeutig. Definition 2.4 Unter einer Basislösung verstehen wir eine Lösung, in der die Nichtbasisvariablen Null gesetzt sind: XR = 0 xb = J^
|
mit
xb = A^b.
Entsprechend der letzten Anmerkung lassen sich im allgemeinen mehrere maximal (™) - Basislösungen angeben. 2.4.3
Homogene lineare Gleichungssysteme
Darunter versteht man ein lineares Gleichungssystem Ax - b mit 6 = 0. Für die Lösbarkeit eines homogenen, linearen Gleichungssystems gilt: Da r(A) = r(A,b) = r, sind homogene lineare Gleichungssysteme immer lösbar. Beim Aufsuchen der Lösung eines homogenen, linearen Gleichungssystems unterscheiden wir zwei Fälle. (a) Die Beziehung Ax = 0 wird durch χ = 0 stets erfüllt. Die Lösung i = 0 nennt man die triviale Lösung.
Gauß-Jordan'sches Eliminationsverfahren und Anwendungen
41
(b) Damit auch nichttriviale Lösungen existieren, maß r < m erfüllt sein; die Lösung ergibt sich wie bei inhomogenen linearen Gleichungssystemen, Fall (c), zu
.
X
R .
mit beliebig vorgegebenem XR und x
A
=
- A ^ R - X R .
Siehe Beispiel 2.11. 2.4.4
Eigenschaften der Losung eines linearen Gleichungssystems
Satz 2.4 Die Lösung eines linearen Gleichungssystems hat folgende Eigenschaften. (a) Die Menge aller Lösungen des homogenen linearen Gleichungssystems bilden einen Vektorraum V™~T von der Dimension m-r, der der Kern (oder Nullraum) von Α genannt wird. Ist r = m, so ist die triviale Lösung χ = 0 die einzige Lösung, und V™~T hat die Dimension Null. (b) Die allgemeine Lösung χ des inhomogenen linearen Gleichungssystems Ax = b kann zusammengesetzt werden aus der allgemeinen Lösung XJJ des homogenen Teils Αχ = 0 und einer beliebigen speziellen Lösung, z.B. einer Basislösung χ β des inhomogenen linearen Gleichungssystems: x = XH +
2.5
Invertieren einer Matrix
Wird durch Anwendung der elementaren Transformationen E i , . . . , H p aus einer η χ η-Matrix Α die Einheitsmatrix als kanonische Form von Α erzeugt, d.h., gilt HP...H1A
= I,
so ist r(A) = η, Α somit nicht-singulär und damit invertierbar. Die i-te Spalte, i = l , . . . , n , von A~x ergibt sich als Lösung eines linearen Gleichungssystems mit der Koeffizientenmatrix Α und der rechten Seite e(')
42
Mathematik für Sozial- und
Wirtschaftswissenschaften
(vergleiche Kapitel 1, Beispiel 1.20). Wegen der Gleichheit der Koeffizientenmatrizen Ifanri das Lösen der Gleichlingssysteme, von denen jedes einer rechten Seiten eW, i = 1 , . . . , n, entspricht, simultan erfolgen! Η,.,.ΗιΙ
= A~l.
Zur Berechnung von
transfomiert man die erweiterte Matrix
[A,I)~[I,A-\ Siehe Beispiel 2.12. Beachte: Die Überprüfung der Voraussetzung, daß Α nicht-singulär ist, und die Berechnung der Inversen erfolgen gemeinsam durch das Herleiten der kanonischen Form der erweiterten Matrix [J4,J].
2.6
B e s t i m m u n g von Dimension und Basis des von e i n e m Erzeugendensystem aufgespannt e n Vektorraumes
S a t z 2.5 Die n-Vektoren x ' 1 ' , . . . seien ein Erzeugendensystem Vektorraumes V und die Spaltenvektoren der η χ η-Matrix X.
des
(α) Sei der Rang r(X) = r, dann lassen sich r linear unabhängige Vektoren unter finden, die eine Basis des Vektorraumes V bilden. (b) Die Dimension von V ist gleich dem Rang r(X) = r der Matrix X. (c) Eine Basis von V ist durch jene Spaltenvektoren von X gegeben, denen in der kanonischen Form von X die Einheitsvektoren entsprechen. In der Notation von Kapitel 1 bezeichnen wir den Vektorraum aus Satz 2.5 mit V*. Das folgende Beispiel läßt erkennen, wie das Gauß-Jordan'sche Eliminationsverfahren benützt werden kann, um die Dimension und eine Basis des von einem Erzeugendensystem aufgespannten Vektorraumes zu bestimmen. Beispiel 2.6 Die Vektoren x W , . . . ,χ( 4 ) seien die vier Spaltenvektoren der Matrix Α aus Beispiel 2.3. Da r(A) = 2, spannen i ' 1 ' , . · · , 1 ' 4 ' den Vektorraum Vf auf. Eine Basis ist durch die Vektoren χ Μ und χ(3) gegeben, da diesen Vektoren die Einheitsvektoren in der kanonischen Form entsprechen. Siehe auch Beispiel 2.13.
Gauß-Jordan'sches Eliminationsverfahren und Anwendungen
43
2.A Ergänzende Beispiele Beispiel 2.7 Für die Matrix
A =
1 2 -1
2
-
4 -2
1 4 2 4 6 -7
(a) ist der Raiig zu bestimmen; (b) sind die elementaren Transformationen zur Reduzierung auf die kanonische Form anzugeben. (a) Der Rang der Matrix formationen 1 A = 2 -1 1 2 0
0
0
0
Α ergibt sich unter Anwendung elementarer Trans2 - 1 4 4 2 4 -2 6 -7 - 1 4 1 - 1
5
-3
2
-1
0 0 0 0
1
4 5
1 2 0 0 0 1 0 0 0
-4 -3
3 ' -1 2
1 2 0 0 0 0 1 0 0 0 0 1
zu r(A) = 3.
(b) Die elementaren Transformationen zur Reduzierung auf die kanonische Form sind 2Γ«(-2),ίΐ3(1),2Γ 8 (ΐ),2Γ„(1),1Τ Μ (-δ),2Γ3(|),1Γ Μ (1),1Τ3ΐ(-3).
B e i s p i e l 2.8 Die Lösung des linearen Gleichungssystems «1 +
x2
+ 2X 3 + x4
2 x j + 3x2 — X3 — 2x4 4 x j + 5x2 + 3x3
= = =
5 2 7
ist zu ermitteln. Wir bestimmen die kanonische Form der erweiterten Koeffizientenmatrix: 1 1 2 1 2 3 - 1 - 2 4 5 3 0
1 0 7 5 0 1 - 5 - 4 0 0 0 0
44
Mathematik für Sozial- und
Wirtschaftswissenschaften
Wegen r(A) = 2 und r(A,b) = 3 φ r(j4) ist das lineare Gleichungssystem unlösbar. Das erkennt man auch, wenn man die letzte Zeile ausschreibt (Ozi + 0x2 + 0x3 + 0x4 = 1). Es gibt keine Lösung x i , . . . , x 4 , die diese Gleichung erfüllt! Beispiel 2.9 Die Lösung des linearen Gleichungssystems I i + 2X2 + 3χχ +
X3 =
X2 - 2x3
2
=
1
xz
=
3
2xi + 4®2 + 2x3
=
4
4xi - 3x2 -
ist zu ermitteln. Das Transformieren der erweiterte Matrix gibt ' 1 2 1 3 1 -2 [A,b] = 4 -3 -1 2 4 2
2 ' 1 3 4
' 1 0 0 1" 0 1 0 0 0 0 1 1 0 0 0 0
Somit gilt r(A) = i(A, b) = 3. Die vierte Gleichung ist redundant. Die ersten drei Gleichungen bilden ein lineares Gleichungssystem in drei Unbekannten mit r = 3. Der Lösungsvektor ist
Machen Sie die Probe durch Einsetzen der Lösung in das Gleichungssystem! Beispiel 2 . 1 0 Zum linearen Gleichungssystem +
«2 - 2 l 3 + ^ 4 + 3X5
=
1
2xi -
X2 + 2x 3 + 2l4 + 6x5
=
—4
3xi + 2x 2 - 4 X 3 - 3 X 4 - 9x5
=
19
ist (a) eine Lösung zu ermitteln; (b) eine weitere Darstellungsform der allgemeinen Lösung zu bestimmen; (c) eine Basis des Kerns anzugeben.
Gauß-Jordan'sches Eliminationsverfahren und Anwendungen
45
(a) Das Transformieren der erweiterte Matrix gibt 1 -2 1 3 2 - 1 2 -4 [A,b] = 6 3 2 -9 19 2 ' 1 0 0 0 0 2 0 1 - 2 0 0 -3 . 0 0 0 1 3 Somit gelten für die Komponenten des Lösungsvektors die Gleichungen «1 = 2 x2 = 2 + 2 x 3 x4 = - 3 - 3 X 5 und die Lösung lautet 2 2 ' 0" ' 0 ' 2 + 2x3 2 2 0 0 + X3 1 + *5 0 = - 3 - 3x s -3 0 -3 1 0 0 X5 Die Lösung ist für beliebig vorgegebene Werte für 13 und X5 eindeutig. Die zugehörige Basislösung ergibt sich für X3 = X5 = 0 zu χ β = (2,2,0,-3,0)'.
00
Eine andere Darstellungsform der allgemeinen Lösung ergibt sich durch Umformen der kanonischen Form, sodaß die Einheitsvektoren in den Spalten 3 und 5 stehen: 1 0 0 0 0 2 0 -i 1 0 0 -1 [θ 0 0 i 1 -1 Die Lösung lautet 2" 2 0 ' 0 ' 1 0 0 XI 1 χ — - 1 + 1*2 -1 0 + X2 2 + *4 1 0 0 x4 1 0 _ . -1-5*4 . 3 Die neue Basislösung ist xb — ( 2 , 0 , - 1 , 0 , - 1 ) '
(c) Zwei Basen des Kerns des homogenen Teils des linearen Gleichungssy-
stems können aus den Lösungen von (a) und (b) abgelesen werden. Entsprechend (a) bzw. (b) spannen die Vektoren 0 2 1 > 0 0 den Kern auf.
0 0 0 -3 1
}
bzw.
{
46
Mathematik für Sozial- und
Wirtschaftswissenschaften
Beispiel 2 . 1 1 Zum linearen Gleichungssystem X\ +
X2 +
X3 +
X4
X\ + 3x2 + 2x3 +4x4 2xi
+
X3 —
X4
=
0
=
0
=
0
ist (a) eine Basis des Kerns anzugeben; (b) eine Lösung zu bestimmen, die von 12 und x4 abhängt. (a) Das Transformieren der erweiterte Matrix gibt [A,b] =
' 1 1 2
1 3 0
1 2 1
1 4 -1
0 " 0 0
1 0 0
0 1
i Ϊ
—i 3
0
0
0
Die Dimension des Kerns von Α ist 4 — 2 = 2. Eine sich zu -ι 1• ϊ - 1 * 3 + |*4 2 = ^3 1 + *4
Basis des Kerns ergibt 1• I 2 0 1
0 X4 Jeder Lösungsvektor χ kann als Linearkombination der Basisvektoren 1• 1 " Λ 2 > 2 1 0 1 0 dargestellt werden, (b) Wegen -1
0
I
0 1 I 0 0 0 lautet die Lösung, die von x-i und Z4 abhängt, X = X2
1 " 1 + *4 -2 0
Beispiel 2 . 1 2 Die Matrix
X -
1 3 1 3 1 4
ist zu invertieren.
3 4 3
2 ' 0 -3 1
-2 3
47
Gauß-Jordan'sches Eliminationsverfahren und Anwendungen Dazu ermitteln wir die kanonische Form von [X, i]: [x,j]
=
1 3 3 1 3 4 1 4 3
1 0 0 0 1 0 0 0 1
1 3 3 0 0 1 0 1 0 1 0 0 0 1 0 0 0 1
1 0 0 -1 1 0 -1 0 1 7 -3 -1 0 -1 1
' 1 3 3 0 1 0 0 0 1
1 0 0" -1 0 1 -1 1 0
-3 1 0
Somit ergibt sich die Inverse von X zu X~l =
7 -3 -1 0 -1 1
-3 1 0
Machen Sie die Probe! Beispiel 2.13 Die Vektoren
7.(1) =
1" -1 , -1 2_
"
' -1 ' 2 , e« = 3 J 1
spannen den Vektorraum
a& =
2 ' -3 , -3 2
" 1" 1 eW = 1 6 .
auf.
(a) Die Dimension r des Vektorraumes ist zu bestimmen, und (b) eine Basis des Vektorraumes ist anzugeben; (c) welche alternativen Basen können aus o^ 1 ),..., a ^ gebildet werden? (a) Wir transformieren die Matrix A = α^ 1 ),... ,α' 4 )] in die kanonische Form: ' 1 - 1 2 1' 1 - 1 2 1 -1 2 -3 1 0 1 - 1 2 A = -1 0 2 - 1 2 3 -3 1 2 0 3 - 2 4 1 2 6 10 1 3] 1 0 0 5 0 1 - 1 2 0 1 0 0 0
0 0
0
1
-2
1 - 2 J
~
0
0
1
[ 0 0 0
-2
0
Somit ist die Dimension des Vektorraumes r = 3. (b) Aus der kanonischen Form von Α folgt, daß {aW.aW.oW} eine Basis des Vektorraumes ist. Aus der kanonischen Form kann man auch ablesen, daß a( 4 ' eindeutig als a ^ = 5aW — 2 a ^ darstellbar ist.
Mathematik für Sozial- und Wirtschaftswissenschaften
48
(c) Wegen α^4) = öa^1) — 2a(3) [vergleiche (b)] sind nach dem Austauschsatz von Steinitz neben {α^',α^,α^ 3 )} auch { a W, a P),aP'} und { α ^ , α ^ α « ) } Basen des Vektorraumes.
2.Β Ökonomische Anwendungsbeispiele 2 . B . 1 Ökonometrische Modelle Die ökonomischen Variablen Y (Volkseinkommen), C (Ausgaben für Konsum), I (Investitionen) und Μ (Importe) seien durch das lineare Gleichungssystem (α)
Y
=
C+I +G
(,b) C
= a + ßY
(c)
I
= j + SR
(d)
Μ
=
tY
bestimmt; darin steht die Variablen G für die Staatsausgaben und R für den Zinssatz. Für die Koeffizienten des Modells postulieren wir Q>0,
0 < /? < 1,
7 > 0,
0 < 0,
r > 0.
Unter den Variablen eines ökonometrischen Modells unterscheiden wir • endogene Variable, das sind die vom Modell erklärten Variablen (Y, C, I und M). • exogene Variable, das sind solche Variable, die in das Modell als unerklärt übernommen und von außerhalb des Modells determiniert werden (G und R). Unter den Gleichungen eines Modells unterscheiden wir • Verhaltensgleichungen: sie spiegeln die Entscheidungen der Wirtschaftssubjekte wider [vergleiche die Gleichungen (b), (c) und (d) im obigen Modell]. • Definitionsgleichung: sie geben definitorische Beziehungen zwischen einzelnen Variablen an [vergleiche die Gleichung (a) im obigen Modell].
Gauß-Jordan'sches Eliminationsverfahren und Anwendungen
49
Die Verhaltens- und Definitionsgleichungen spiegeln ökonomische Relationen wider. Sie stellen Abhängigkeiten zwischen den ökonomischen Variablen dar. Jede Verhaltensgleichung steht als Modell für eine zu erklärende Variable. So ist (b) eine Konsumfunktion und "erklärt" die aggregierten Ausgaben für den Konsum in einer Volkswirtschaft als Summe eines "autonomen" Konsums und eines Anteils, der proportional dem Volkseinkommen ist. Die Darstellung eines ökonomischen Modells durch Verhaltens- und Deiinitionsgleichungen nennt man die strukturelle Form oder Strukturform des Modells. In vielen Modellen werden nur (in den Koeffizienten) lineare Beziehungen verwendet. Wir sprechen dann von einem linearen Modell und können von der Matrixschreibweise Gebrauch machen. Die Strukturform eines linearen Modells ist durch yT + xB = 0 gegeben. Γ ist die Koeffizientenmatrizen der endogenen Variablen y, und Β ist die der exogenen Variablen x. Beachte, daß y und χ Zeilenvektoren sind. Im vorliegenden Beispiel gilt y = (Y,C,I,M),
χ = (1, G, R)
und
Γ =
1 -β 0 - 1 1 0 - 1 0 1 0 0 0
-r 0 0 1
Β
=
0 -1 0
—a - 7 0 0 0 -δ
0 0 0
Die reduzierte Form eines ökonometrischen Modells stellt jede der endogenen Variablen als Funktion des exogenen Variablen dar. Unter der Annahme, daß Γ nicht-singulär ist, ergibt sich y = x Π, wobei Π=
-BT -1
Für obiges Beispiel gilt 1 Π = l - ß
a + f α + βΊ 1 0 6 βδ
7(1-/3) 0 6(1-β)
r ( a + 7) r δτ
Mathematik für Sozial- und Wirtschaftswissenschaften
50
Das zeilenweise Anschreiben gibt folgende Beziehungen für die endogenen Variablen y
M
I
= _ -
=
α+7 Γη> + τ(α + γ)
1
^
S „ —β ΓηϊΕ> r foβ+
+
a j ^ 1-/3 γ + SR.
1-/3
J/3_ 1-/3
'
Die Elemente ττ,ν, der Matrix Π, die Koeffizienten der reduzierten Form, sind ökonomisch als Multiplikatoren interpretierbar. So ist z.B. 7Γ21 =
1 1-/3
der Multiplikator der Staatsausgaben: Werden die Staatsausgaben um eine Einheit erhöht, so steigt ceteris paribus das Einkommen um den Betrag y^j. Die Größe β ist die "marginale Konsumneigung". Wegen 0 < β < 1 gilt
und die Erhöhung des Einkommens ist größer als die entsprechende Erhöhung der Staatsausgaben; daher der Ausdruck "Multiplikator". Sind die Koeffizienten Π der reduzierten Form bekannt, so können unter bestimmten Voraussetzungen die Koeffizienten der Strukturform bestimmt werden. Man sagt dann, die entsprechenden Gleichungen der Strukturform sind identifiziert. Im folgenden werden die Identifikationsbedingungen für die erste Gleichung eines ökonometrischen Modells behandelt; analog können die anderen Gleichungen behandelt werden. Dazu soll von einem System von g simultanen linearen Gleichungen ausgegangen werden, in dem g endogene Variable erklärt werden; außerdem seien k exogene Variable enthalten. Die erste Gleichung ist durch »Γι + xBt = 0 gegeben, wobei Γχ und B\ jeweils die erste Spalte aus Γ und Β darstellen. Aufgrund ökonomischer Überlegungen wissen wir, daß einige Koeffizienten in Γι und Bi Null sind. Der Koeffizient der durch die Gleichung zu erklärenden Variablen, yi, wird auf "—1" gesetzt. Daher werden, gegebenenfalls nach Umsortierung, folgende Partitionierungen vorgenommen:
Gauß-Jordan'sches
y = Γχ
Eliminationsverfahren
(yi.ir.v"),
=
Anwendungen
51
* = (*V)> 2*1 =
7i 0
und
ßl
0
wobei y* und x* jene endogenen bzw. exogenen Variablen enthalten, die in der ersten Gleichung als erklärende Variable auftreten, und y** und x " die in der ersten Gleichung nicht auftretenden Variablen enthalten. In der ersten Gleichung seien gi endogene und k\ exogene Variablen enthalten. Die Ordnungen der Vektoren y* und y** sind daher lx( gi -
1,
d.h., die Zahl der ausgeschlossenen exogenen Variablen muß größer oder gleich der Zahl der in der Gleichung berücksichtigten endogenen Variablen sein.
52
Mathematik für Sozial- und
Wirtschaftswissenschaften
(b) Rangbedingung: Eine notwendige und hinreichende Bedingung für die Identifikation der ersten Gleichung eines ökonomischen Modells ist r(*22) = ffi - 1 • Eine alternative, der Rangbedingung äquivalente Bedingung, die meist leichter geprüft werden kann, ist die folgende, für die wir Γ und Β entsprechend -1 7i 0
Γ =
Γ 02 Γ 12 Γ 22
und
Β =
ßi 0
Β 12 Βι 2
also in gleicher Weise wie Γι und B\, partitionieren. (c) Eine alternative, leichter zu prüfende Rangbedingung für die Identifikation der ersten Gleichung ist Γ(Β22/,Γ22') = ί / - 1 · In obigem Beispiel ist für alle Gleichungen die Abzählbedingung erfüllt. Beispielsweise gilt für die Gleichung (b) gi — 1 = 1 und k — ki = 2 . Die Prüfung der alternativen Rangbedingung demonstrieren wir für die Konsumfunktion. Es ergibt sich - 1 0
0
0 -i 0 - 1 1 0 0 0 1
-022
Γ 22
Der Rang dieser Matrix ist 3; wegen g — 1 = 3 ist die Rangbedingung (c) erfüllt. Die Rangbedingung (b) prüfen wir an T22 =
1 - ß
die Bedingung ist wegen 1(^22) = 1 und gi — 1 = 1 erfüllt.
2.C Übungsaufgaben 2.1 Der Rang der Matrix ist zu bestimmen. 1 3 (a) 2 4 -4 0
Gauß-Jordan'sches Elimmationsverfahren und Anwendungen
(b)
1 2 3 2 1 5 2 8 4 0
(c)
0
1
0 2 3 0 4 1
2.2 Der Rang 1 2 2 3 (a) 6 7 2 4
der Matrix ist zu bestimmen. 3 0 1 1 5 1 0 2_
0>)
0.5 0.2 0.4 0 0.2 0.1 0.7 0.5 2 1 4 0.2
(c)
0.1 0.2 0 - 0 . 2 0.3 0.2 0.3 0.4 0.1
-0.1 0.5 0.2
2.3 Der Rang der Matrix ist zu bestimmen. 1 3 1 - 2 - 3 1 4 3 - 1 - 4 (a) 2 3 - 4 - 7 -3 3 8 1 - 7 - 8 1 2 - 3 2 1 0 G>) - 2 - 1 3 4 -2 -1 1 3 (c)
0
5 -2
- 2
1 3
2.4 Sind folgende Vektoren linear abhängig? (a) (5,2)', (5,7)' (b) (2,1)', (4,3)' (c) (1,2)', (0,1)', (5,2)' (d) ( 1 , - 2 , 1 ) ' , ( 2 , - 1 , - 1 ) ' , ( 7 , - 4 , 1 ) ' (e) ( 1 , 2 , - 3 ) ' , ( 1 , - 3 , 2 ) ' , ( 2 , - 1 , 5 ) ' (f) ( 1 , - 3 , 7 ) ' , ( 2 , 0 , - 6 ) ' , ( 3 , - 1 , - 1 ) ' , ( 2 , 4 , - 5 ) ' (g) ( 2 , - 3 , 7 ) ' , (0,0,0)', ( 3 , - 1 , - 4 ) ' .
53
54
Mathematik für Sozial- und Wirtschaftswissenschaften
2.5 Sind folgende Vektoren linear abhängig? (a) (1,1,0)', (1,0,1)', (2,0,0)' (b) (1,0,0)', (1,1, oy, (1,0,1)' (c) (2,0,1)', (1,4,3)', (0,8,5)'. 2.6 Bilden folgende Vektoren eine Basis des Vektorraumes (a) (1,1,1)', ( 1 , - 1 , 5 ) ' (b) (1,2,3)', ( 1 , 0 , - 1 ) ' , (3,-1,0)', ( 2 , 1 , - 2 ) ' (c) (1,1,1)', (1,2,3)', ( 2 , - 1 , 1 ) ' (d) (1,1,2)', (1,2,5)', (5,3,4)' (e) (2,0,1)', (1,4,3)', (0,8,5)' (f) (1,1,0)', (0,0,2)', (0,3,2)' (g) (1,0,0)', (1,0,1)', (0,1,0)' (h) (5,2,1)', (2,2,0)', ( 1 , - 2 , 1 ) ' . 2.7 Die Vektoren 1 3 « =
- 2
4
1 4 5 -3
b=
' -3 ' 2 d = , 1 . -5 .
c =
e =
= R3 ?
2 -1 1 3
3 ' 15 18 -12
spannen den Vektorraum V auf. (a) Die Dimension von V ist zu ermitteln; (b) eine Basis von V ist anzugeben; (c) aus der in (b) ermittelten Basis ist eine Orthonormalbasis zu konstruieren. 2.8 Die Vektoren ' 1" 0 a = , 2 4
" 6=
3" 11 , -5 1
"-1 " -5 c = , 3 1
' 2" 3 d= 1 5
spannen den Vektorraum V auf. (a) Die Dimension von V ist zu ermitteln; (b) eine Basis von V ist anzugeben; (c) aus der Basis aus (b) ist eine Orthonormalbasis zu konstruieren. 2.9 Die Inverse der Matrix ist mittels des Gauß-Jordan'sche Eliminationsverfahrens zu bestimmen.
Gauß-Jordan'sckes Eliminationsverfahren und Anwendungen
«[Ϊ
2 3 6
(b)
1 2 3 3 0 0 2 1 3
2.10 Wie Aufgabe 2.9. 1 3 2 (a) 1 3 5 1 4 1 (b)
7 5 4 3
(c)
27 30 20 22
2.11 Wie Aufgabe 2.9 1 0 0 (a) 2 1 0 3 2 1 1 0 0 0 0 2 0 0 (b) 0 0 4 0 0 0 0 8 1 3
(c)
0
0
0 2 0 0 0 0 1 2 0 0 0 3
2.12 Wie Aufgabe 2.9. 2 3 4 3 1 2 4
«
(b)
(c)
2 4 5 2 3 0 0 0 0
3 5 6 0 0 2 0
0 0 1 3
55
Mathematik für Sozial- und Wirtschaftswissenschaften
56
2.13 Das Produkt der Matrizen 2 3 4 4 3 1 1 2 4
1 2 3 2 4 5 3 5 6
ist zu invertieren. 2.14 Die folgende Matrizengleichung ist nach X aufzulösen: (a) ΑΧ + Β = 2(X - C) mit 1 A =
-2
1 (b) 4X = XBA =
-1
Β =
2
-3
2 -4
1 3
0
-2
C =
3 -1 5
2 3 - 6
2XC' + 3(4 + X) mit
' 2 1 0 ' ' 6 0 -2 ' 0 2 8 , C = 3 0 2 ,B = -4 0 -2 4 -1 5
3 0 -2 0 1 0 -1 4 -1
2.15 Aus der Matrizengleichung mit A
=
Β
=
C =
sind X bzw. X und Y zu bestimmen. (a) AXB -2B = AC (b) BA + (A - B){A + B) = AX' +(A(c) AX + BY = 0, CX - AY = I.
2 1 1 1
B)B
2.16 Die Lösbarkeit des linearen Gleichungssystems ist zu untersuchen; falls möglich, ist die Lösung graphisch zu ermitteln. (a) xi + x2=l xx + 2 X 2 - 0 (b) 3xi + 4x 2 = 7 2.25xi + 3x2 = 1 (c) 3xi + 4x 2 = 7 2.25xi + 3x2 = 5.25 (d) xi + 5x 2 = 8 2χχ + 3x 2 = 9 3xi + 8x 2 = 17. 2.17 Das folgende lineare Gleichungssystem ist zu lösen: (a) χι + X2 = 2
Gauß-Jordan'sches Eliminationsverfahren und Anwendungen Xl+X2 = l (b) xi + x2 = 1 x\ + 2x2 = 0 (c) XI -2X2 = 1 2xi + 3x2 = 9 2xi - 3x2 = 4. 2.18 Wie Aufgabe 2.17. (a) 3xi + 2x 2 + x3 = 7 x\ + 0.5x2 — X3 = 4 xi + 0.75x2 + X3 = 5 (b) 2xi - 2x2 + 2x3 = 6 xi + 3X3 = 10 3xi + x 2 + 12x3 = 38 (c) x\ + 2x 2 + X3 = 4 2x! + x 2 + 5x3 = 5. 2.19 Wie Aufgabe 2.17. (a) xi + 2x 2 + 3x 3 = 2 3xi - 4x2 + 5x3 = 6 2χχ + 4x2 + 6x3 = 6 (b) xi + 2X2 + 3x3 = 2xi + 5x 2 +- 8x3 = 4xj + x 2 - X3 = 9xi + 2x2 — X3 = (c) 2xj 3xi + 2χχ + xi +
1 2 2 1
3x2 + x 3 = 0 X2 — 5x3 = 0 5x2 — 7x3 = 5 X2 + 4x3 = 7.
2.20 Das lineare Gleichungssystem Ax = b ist zu lösen, wobei ,
'2 -3 2 5' 1 - 1 1 2 3 2 2 1 .1 1 -3 -1 .
und 3 (a)6 =
58
Mathematik für Sozial- und Wirtschaftswissenschaften -5 - 2
(b )b =
0 5 - 6 - 2
(c )b =
5 3
2.21 Wie Aufgabe 2.17. (a) 2x! + 2^3 xi
4i!
-
X2+
+ 2x2
(b) x i +
= 12
X3 +
X 4 - S
+ 4x 3 - 2x 4 = 20
X 2 - X 3 -
X4 = 8
2χι + X2 — 13 — X4 — 3 Xl + 2X2 + X3 - 2X4 = 0. 2.22 Eine Basislöstmg des Systems ist zu bestimmen 2a: 1 + X2 + X3 =70 xi + X2
=40 *5 = 90 (a) mit den Basisvariablen 23, X4 und X5; (b) mit den Basisvariablen χι, X2 und X5. Xl + 3x2
+X4
+
2.23 Eine Basis des Lösungs-Vektorraumes ist zu bestimmen: (a) 2xi + 5x2 - 2x3 — 6 x 4 = 0 Xl + 2X2 - 3X3 — 2x4 = 0 3xi + 8X2 - X3 — 7x4 = 0 (b) 2xi + 4X 2 + 3x 3 + 5x 4 = 0 xi + 3x 2 + 2X 3 + 4x 4 = 0 2xi + X3 - X4 = 0 (c) Xl + 2x 2 + 3x 3 =0 2xx + 5X3 — X4 = 0 Xl + 3x 2 + 2x 3 = 0. 2.24 Eine Basis des Kerns des linearen Gleichungssystems ist anzugeben für (a) Aufgabe 2.21(a) (b) Aufgabe 2.21(b) 2.25 Welche der Basisvektoren a ^ kann man durch den Vektor b ersetzen, sodaS sich wieder eine Basis ergibt? (a) aW = eW, a™ = e, a = e 0 0.5-0.375-0.125 0.25 = 0.156 > 0 .
3.C Übungsaufgaben 3.1 Die Determinante der folgenden Matrizen ist zu bestimmen. - 1 2 1 (a) 0 1 - 2 1 4 - 1 1 2 3 00 1 3 5 1 5 12 4 1 -4 2 (c) 0 3 3 0 7 (d)
2 0 10 1 7 12
3 17 -4
3.2 Wie Aufgabe 3.1. 2 3 - 2 4 7 4 - 3 10 (a) 2 3 3 4 -2 4 0 5
Determinanten
73
2 0 -1 3 2 -2 4 2 1 1 5 -3 3 5 7 2 2 4 1 1
00
1 2 2 3
(«0
-2
0
0 0
1 1 3
4
3.3 Die Matrix (a) der Aufgabe 3.1(a) (b) der Aufgabe 3.1(b) (c) der Aufgabe 3.1(c) ist zu invertieren. 3.4 Das lineare Gleichungssystem ist nach der Cramer'schen Regel zu lösen (a) 2 χ ι + X2 + 4x3 = 16 3XI + 2X2+
X3
=
10
xi + 3x2 + 3x3 = 16 (b) -®i + 2x 2 + x 3 = 2 X2 — 2x3 = —3 Xi + 4x2 — x 3 = 4 (c) Χι - X3 + 2X4 = 6 2xi + 3x2 + 2x3 — 2x4 = 5 3xi + X2 + 5X3 — 3X4 = - 5 2χχ + 4X2 + 2X 3 + X4 = 14 3.5 Die Determinante des Kronecker-Produktes C = Α ® Β der folgenden Matrizen ist zu bestimmen: 1 2 3 4 -5 Β = 4 2 3 (a)A = - 1 - 2 2 5 - 1 2 0 1 1 2 0 4 (b) A 2 -3 Β = 3 2 -3 5 3 1 5 -1 -3 3.6 Die Matrix der Inputkoeffizienten sei A=
0.4 0.1 0.1 0.0 0.3 0.2 0.2 0.2 0.5
es sind zu bestimmen (a) der maximal mögliche Endverbrauch für die Produktionskapazität χ = (100,40,70)';
Mathematik für Sozial- und Wirtschaftswissenschaften
74
(b) die notwendigen Produktionsmengen, um die Endnachfrage b = (0,4000,600)' zu befriedigen? 3.7 Die Matrix der Inputkoeffizienten sei
A=
0.5 0.1 0.1 0.2 0.6 0.0 0.1 0.2 0.6
Das Zutreffen der Hawkins-Simon-Bedingung ist zu prüfen.
Losungen der Übungsaufgaben 1: (a) - 1 2 ; (b) 3; (c) 126; (d) - 7 7 . 2: (a) -305; (b) - 7 2 ; (c) 156. 7 6 - 5 ] Γ 11 - 9 1 3: (a) - i - 2 0 - 2 9 - 2 ; ((b) b)| - 7 -1 6 - 1 J 2 -3 1 21 - 7 14 ~ 6 40 - 8 . 4: (a) (1,2,3)'; (b) (2,1,2)'; (c) (1,3,-1,2)'. («0 ύβ -9 3 12 5: (a) 83323591; (b) -1728000. 6: (a) (49,14,7)'; (b) (1988.1,7095.2, 4833.3)'. 7: Die Hawkins-Simon Bedingung trifft zu.
Kapitel 4
Eigenwerte, Eigenvektoren; Quadratische Formen Gibt es zu einer Matrix Α einen Vektor x, sodaß Ax ein Vielfaches λ von χ ist? Das ist die zentrale Frage dieses Kapitels. Eigenwerte und Eigenvektoren treten in unterschiedlichen Bereichen der Mathematik auf. In praktischen Anwendungen finden wir sie etwa bei der Diskussion des Lösungsverhaltens von dynamischen Systemen linearer Beziehungen. Das ökonomische Anwendungsbeispiel dieses Kapitels behandelt den Gleichgewichtszustand eines stochastischen Prozesses. Quadratische Formen hängen eng mit Eigenwerten und Eigenvektoren zusammen.
4.1
Das Eigenwertproblem
Definition 4.1 Der Vektor χ φ 0 heißt Eigenvektor der τι χ η-Matrix A , wenn ein Skalar X, genannt der Eigenwert, existiert, sodaß Ax = Xx. Eigenvektoren sind nur bis auf ein skalares Vielfaches bestimmt. Ist χ ein Eigenvektor zum Eigenwert λ der Matrix Α und c ein Skalar, so ist auch cx ein Eigenvektor zu λ: A(cx) — X(cx). Um die Eindeutigkeit von Eigenvektoren zu erreichen, führen wir folgende Konvention ein: Eigenvektoren werden normiert. Mit der Bedingung ||z|| = 1 ist der Eigenvektor χ zum Eigenwerte λ der Matrix Α bis auf das Vorzeichen eindeutig bestimmt. Wegen (A - XI)x = 0
76
Mathematik für Sozial- und Wirtschaftswissenschaften
existiert eine nichttriviale Lösung des homogenen Gleichungssystems, ein Eigenvektor χ φ 0, nur dann, wenn die Koeffizientenmatrix A — XI singular ist, d.h. wenn für ihre Determinante gilt [vergleiche Satz 3.2(j)] \A-XI\
= 0.
Diese Determinante ist ein Polynom in Λ und wird das charakteristische Polynom von Α genannt. Es ist von der Ordnung η und kann unter Verwendung ihrer Wurzeln oder Nullstellen λ;, i = 1 , . . . , n, geschrieben werden als ( A - A ! ) . . . ( A - A n ) = 0. Die Nullstellen des charakteristischen Polynoms sind die Eigenwerte λ,·, t = 1 , . . . , n. Sie können reell oder komplex sein und können gegebenenfalls mehrfach auftreten. Zu jedem λ,· gehört zumindest ein Eigenvektor χ(*), der sich als Lösung des homogenen linearen Gleichungssystems (Λ -
=0
ergibt. Daher spannen die Eigenvektoren, die zu einem Eigenwert gehören, einen Vektorraum auf. Die folgenden beiden Beispiele illustrieren das Berechnen der Eigenwerte einer Matrix und der zugehörigen Eigenvektoren. Beispiel 4.1 Die Eigenwerte der Matrix 2 2 1 3
A=
ergeben sich aus dem charakteristischen Polynom der Ordnung zwei μ-λ/|
2
= =
2
1 3
-λ
1 0 0 1
2— λ 2 1 3— λ
(2 - λ)(3 — λ) — 2 = λ 2 — 5 λ + 4 = 0.
Das Lösen der quadratischen Gleichung liefert die beiden Eigenwerte zu
2 / 1
·
5 , [25 16 5 , 3 2±νΤ"Τ=2±2'
2 =
oder λχ = 4 und λ2 = 1.
Eigenwerte, Eigenvektoren; Quadratische Formen
77
Beispiel 4.2 Den Eigenvektor ζ( χ ) der Matrix Α ans Beispiel 4.1 znm Eigenwert λχ = 4 erhält man durch Lösen des homogenen linearen Gleichungssystems -2
1
2
-1
r(i)
= [2]
Das Gauft-Jordan'sehe Eliminationsverfahren ergibt 2 2 1 -1
" 1 -1 ' 0 0
sodaß der Eigenvektor χΜ ein Vielfaches von (1,1)' ist. Durch Normieren erhalten wir schließlich , « = -L V2 Analog erhalten wir zum Eigenwert Λ2 = 1 den Eigenvektor
Siehe auch Beispiel 4.14. Bevor wir eine Reihe von Eigenschaften der Eigenwerte und Eigenvektoren behandeln, lernen wir noch den Begriff der Ähnlichkeit von Matrizen kennen. Definition 4.2 Ahnlichkeitstransformation: Zwei η χ η-Matrizen A und Β heißen ähnlich, Α « Β, wenn es eine nicht-stnguläre η χ η-Matrix Q gibt, sodaß Β
=Q~1AQ.
Den Zusammenhang zu Eigenwerten stellt der folgende Satz her. Satz 4.1 Ähnliche Matrizen Α und Β mit Β = Q^AQ haben dieselben Eigenwerte; ist χ ein Eigenvektor von A, so ist Q~1x ein Eigenvektor von B. Der Sachverhalt dieses Satzes wird im folgenden Beispiel illustriert.
78
Mathematik für Sozial- und Wirtschaftswissenschaften Beispiel 4.3 Die Matrix Β bilden wir ans der Matrix Α von Beispiel 4.1 nach Β = Q~lAQ mit 1 2 Für die Inverse zu Q bekommen wir
Damit erhalten wir
Nach Satz 4.1 hat Β die Eigenwerte λι = 4 und X2 = 1· Zur direkten Berechnung bestimmen wir die Wurzeln des charakteristischen Polynoms und erhalten sie aus IΒ - AI| = (4 - A)(l - A) = 0 zu λχ = 4 und X2 = 1. Welche Eigenvektoren hat ΒΊ Vergleichen Sie die Eigenwerte von Α und B. Eine wichtige Eigenschaft der Eigenvektoren ist ihre lineare Unabhängigkeit, die unter den im folgenden Satz angegebenen Bedingungen besteht. Satz 4.2 Die η χ τι-Matrix Α habe r < η paarweise verschiedene Eigenwerte Λχ,..., Ar. Die zu diesen Eigenwerten gehörigen Eigenvektoren ..., x^ sind linear unabhängig. Dieser Satz impliziert daher: Ist r — n, d.h. hat die Matrix Α lauter verschiedene Eigenwerte, so existieren genau η linear unabhängige Eigenvektoren, nämlich genau einer zu jedem Eigenwert. Untersuchen Sie die Eigenvektoren der Matrix Α aus Beispiel 4.1 auf Unabhängigkeit! Der Satz 4.3 gibt an, daß unter bestimmten Voraussetzungen die Diagonalmatrix der Eigenwerte einer Matrix eben dieser Matrix ähnliche ist. Basis dafür ist der Satz 4.2.
Eigenwerte, Eigenvektoren; Quadratische Formen
79
Satz 4.3 Die Eigenwerte Λι,...,Λ„ der η X η-Matrix Α seien paarweise unterschiedlich. Dann ist Α der Diagonalmatrix Λ ähnlich: X~1AX
= A,
wobei X = [x^,... die Matrix der linear unabhängigen Eigenvektoren von Α und Λ = diag[Ai,... ,λ„] die Matrix der Eigenwerte von Α ist. Satz 4.3 folgt unmittelbar aus der Definition des Eigenwertproblems und aus der linearen Unabhängigkeit der Eigenvektoren. Der Satz wird im folgenden Beispiel illustriert. Beispiel 4.4 Die Matrix X der Eigenvektoren der Matrix Α aus Beispiel 4.1 lautet ι
X =
2
Ψ Ύ 72 Ts
Matrizenmultiplikation gibt X~lAX
=
4 0 0 1
= diag[4,1] = Λ.
Siehe auch Beispiel 4.15. Etwas allgemeiner ließe sich der Satz 4.3 so formulieren: Die η X n-Matrix Α ist der Diagonalmatrix Λ ihrer Eigenwerte ähnlich, wenn Α η linear unabhängige Eigenvektoren besitzt. Die gilt sicher für den Fall verschiedener Eigenwerte. Es gibt jedoch auch Matrizen mit mehrfach vorkommenden Eigenwerten, für die diese Aussage gilt. Satz 4.4 Eigenschaften von Eigenwerten: A set eine quadratische Matrix der Ordnung η mit den Eigenwerten λχ,..., An; es gilt: (a) Die Eigenwerte der zu Α transponierten Matrix A' sind gleich den Eigenwerten von A. (b) Ist A orthonormal, so haben alle Eigenwerte λ,·, » = Ι , . , . , η , den Absolutwert 1: |λ,·| = 1 firi = Ι , . , . , η . (c) Die Eigenwerte der Inversen A~x der ntcht-singulären Matrix Α mit den Eigenwerten λ,· sind λ,"1 für i =
Ι,.,.,η.
Mathematik für Sozial- und
80
Wirtschaftswissenschaften
(d) Für die Spur Sp(A) der Matrix Α gilt Sp (ii) =
£ > . i=l
(e) Für die Determinante |A| der Matrix Α gilt |A| = ΠΓ = 1 λ..
( f ) Der Rang r(A) ist gleich der Anzahl der von Null verschiedenen Eigenwerte von A. (g) A set nichUsingular, ebenso wie die τη X m-Matrix Β mit den Eigenwerten μ;, » = 1,..., m; dann gilt für die m · η Eigenwerte von Α® Β Vij = μί · \j für t = 1 , . . . , m und j = 1 , . . . , n. Von besonderer Bedeutung für die Anwendung sind die Eigenschaften 4.4(b) bis (e).
4.2
Das Eigenwertproblem für symmetrische Matrizen
In diesem Abschnitt gehen wir davon aus, daß die interessierende Matrix eine symmetrische η χ η-Matrix ist. Dieser Fall ist von besonderer Bedeutung, da in vielen Problemstellungen, vor allem aus der Statistik, symmetrische Matrizen in Eigenwertaufgaben auftreten. S a t z 4.5 Die symmetrische η χ η-Matrix Α habe die Eigenwerte λ,-, t = 1 , . . . , n; es gilt:
(a) Alle Eigenwerte von Α sind reell. (b) Die Eigenvektoren spannen den Vektorraum V " auf. (c) Aus λ,· φ \j folgt ι(')'χθ) = o, d.h., Eigenvektoren, die zu voneinander verschiedenen Eigenwerten gehören, sind orthonormal. (d) Hat λ,· die Vielfachheit k, so spannen die zugehörigen Eigenvektoren einen k-dimensionalen Teilraum aus V£ auf; es können - in nicht eindeutiger Weise - k orthonormale Eigenvektoren angegeben werden, die Basis dieses Teilraumes sind.
Eigenwerte, Eigenvektoren; Quadratische Formen
81
(e) Die Eigenwerte einer Diagonalmatrix sind ihre Diagonalelemente. ( f ) Ist A idempotent und hat den Rang r(A) = k, so hat der Eigenwert λ = 1 die Vielfachheit k, der Eigenwert λ = 0 die Vielfachheit n — k. Die Bedeutung dieses Satzes liegt unter anderem darin, daß jede symmetrische Matrix der Diagonalmatrix ihrer Eigenwerte ähnlich ist, selbst dann, wenn einzelne Eigenwerte mehrfach vorkommen. Darüber hinaus kann die Diagonalisierung mit der Matrix der Eigenvektoren besonders einfach durchgeführt werden, da diese orthonormal ist. Die folgenden drei Beispiele illustrieren diese Aussage. Beispiel 4.5 Die Eigenwerte der Matrix "
2 - 1 - 1 " - 1
2
- 1
- 1 - 1
2
ergeben sich aus dem charakteristischen Polynom ^[(2 — 3λ) 3 — 2— 3(2 — 3λ)] = - λ ( λ - l) 2 = 0 zu λι = 0,
λ 2 = λ 3 = 1.
Wie man sich leicht überzeugt, ist Α eine idempotente Matrix vom Rang 2.
Beispiel 4.6 Den Eigenvektor der Matrix Α von Beispiel 4.5 für den Eigenwert λι = 0 erhält man aus '
2
-1
-1 '
-1
2
-1
-1
1
2
fSJ
" 1
0
-1 '
0
1
-1
0
0
0
zu χ( = ^-(1,1,1)'. Für die Eigenwerte Eigenvektor aus -1 -1 -1
-1 -1 -1
-1 ' -1 -1
= X3 = 1 erhält man den
"1 1 1 ' 0 0 0 0 0 0
daraus sieht man, dafi die Dimension des Lösungsvektorraumes zwei ist, das ist genau die Vielfachheit des Eigenwertes 1. Der Lösungsvektor läßt sich wieder darstellen als " -1 " " -1 " χ — OL 1 +ß 0 1 0_
82
Mathematik für Sozial- und Wirtschaftswissenschaften Jeder Vektor aus der Lösungsmenge dieses Gleichungssystems ist somit Eigenvektor zum Eigenwert 1. Darüber hinaus können wir zwei im allgemeinen nur linear unabhängige Vektoren auswählen; hier z.B. die beiden Basisvektoren, die den Lösungsvektorraum aufspannen. Diese können mit Hilfe des Gram-Schmidt'schen Verfahrens in eine orthonormale Basis {x(2),a;(3)} transformiert werden. Insgesamt erhalten wir die drei orthonormale Eigenvektoren
=
λ/3
4= y/2
xW -
—
"V6
-1 -1 2
Diagonalisieren einer symmetrischen Matrix: Nach dem Orthonormieren der Eigenvektoren gilt für die Matrix der Eigenvektoren X~x = X'. Daher können wir stets die Beziehung schreiben (vergleiche den Satz 4.3): X'AX = Λ = diag[Äi,..., λ η ]. Beispiel 4.7 Die Matrix der Eigenvektoren zu Α aus Beispiel 4.5 lautet ι
_ ι
X =
L^
0
1 Ύ
Ve J
Das Produkt X'AX ergibt die zu Α ähnliche Diagonalmatrix Λ X'AX =
4.3
0 0 0 0 1 0 0 0 1
Kongruente Matrizen
Definition 4.3 Kongruenztransformation: Zwei η X n-Matrizen Α und Β heißen kongruent, Α = B, wenn eine nicht-singuläre Matrix Ρ existiert,sodaß Β = P'AP. Beispiel 4.8 Aus der Matrix
83
Eigenwerte, Eigenvektoren; Quadratische Formen erhält man durch Vertauschen der Zeilen und der Spalten die Matrix
MS!]· Dabei haben wir nacheinander eine elementare Zeilen- und Spaltentransformation ausgeführt mit der Transformationsmatrix
Li
o.
Mit dieser Matrix ergibt sich Β = P ' A P bzw. Β = Α. Wir erhalten eine zu Α kongruente Matrix Β durch abwechselnde Anwendung von elementaren Zeilen- und Spaltentransformationen; gleichzeitig können wir die Transformationsmatrix generieren, indem wir diese elementaren Transformationen auf eine Einheitsmatrix anwenden. Beispiel 4.9 Es soll eine zu
kongruente Diagonalmatrix D angegeben werden. Dazu gehen wir aus von [A,T] =
"1 2 1 0" 2 1 0 1
Im ersten Schritt wenden wir die Zeilentransformation Hui—2) an; das ergibt ' 1 2 1 0 ' 0 -3 -2 1 Im zweiten Schritt wenden wir die Transformation ersten beiden Spalten an und erhalten ' 1 0
0 1 0 ' - 3 - 2 1 = [D,P']
Zur Probe berechnen wir P'AP =
' 1 0
0 ' = D. -3
2) nur auf die
84
Mathematik für Sozial- und
Wirtschaftswissenschaften
Beachte: Man schreibt auch [Α,ί\ * [Z>,P']; das Symbol nur auf die jeweils linke Teilmatrix.
bezieht sich
Satz 4.6 Ist die η X η-Matrix symmetrisch und gilt für den Rang von A: r(A) = r < n, so gibt es eine zu Α kongruente Diagonalmatrix D, die r von Null verschiedene Hauptdiagonalelemente enthält. Beachte: Die kongruenten Matrizen Α und D haben nur dann gleiche Eigenwerte, wenn die Transformationsmatrix Ρ aus P'AP = D die Matrix der Eigenvektoren ist. Jedoch gilt für eine symmetrische Matrix Α der Satz 4.7 Jede zu Α kongruente Matrix D ist auch zur Matrix Λ der Eigenwerte von Α kongruent; insbesondere stimmen D und Λ in den Vorzeichen ihrer Elemente überein. Beispiel 4.10 Eine zur Matrix Α aus Beispiel 4.5,
-
I
2
- 1
- 1
- 1
2
- 1
- 1
- 1
2
kongruente Matrix D erhält man nach 2 -1 -1
-1 2 -1
-1 -1 2
3 0 0" 0 3 0 0 0 3
ry
' 2 0 0 3 0 -3
0 -3 3
3 0 0 3 6 0 3 0 6
' 2 0 0 3 0 0 0 3 0 3 6 0 0 0 0 6 6 6
f\f
zu D
=
2 0 0 0 3 0 0 0 0
Aus der Matrix D erhält man die Matrix der Eigenwerte (siehe Beispiel 4.5) 0
Λ=
0 0
0 1 0 0 0 1
durch Multiplizieren mit der Transformationsmatrix Q =
ο χ 75 0
ι 72 0 ο
es ergibt sich Λ = Q'DQ.
Eigenwerte, Eigenvektoren; Quadratische Formen
4.4
85
Quadratische Formen
Definition 4.4 Eine quadratische Form ist ein skalarer Ausdruck
=
η η
Σ
i=l J=1
a,iu,ui
=
;
darin ist u = («i , . . . , « „ ) ' ein n- Vektor und Α die symmetrische η χ η-Matrix der Koeffizienten der quadratischen Form. Der Wertebereich der quadratischen Eorm ist der Bildbereich von Q{u), wobei als Urbildmenge die Menge aller n- Vektoren υ zugelassen wird. 4.4.1
Transformieren einer quadratischen F o r m
Satz 4.8 Der Wertebereich einer quadratischen Form bleibt unverändert, wenn eine nicht-singuläre Variablentransformation u = Tv /r(T) = n] durchgeführt wird: u'Au = v'T'ATv = v'Bv. Das gilt insbesondere für die Variablentransformation u = Xv: η u'Au = v'X'AXv = v'Av = £ »=i
,
wobei X die orthonormale Matrix der Eigenvektoren von Α ist. Beispiel 4.11 Die quadratische Form Q(u) = 2tt? + 2y/2u!u2 + u\ kann geschrieben werden als Q{u) = u'Au mit u = («1,1*2)' und A-
\ 2 l VS
ι J·
Beispiel 4.12 Die Matrix der Eigenwerte zur Matrix Α aus Beispiel 4.11 ist Λ = diag[3,0]; die zugehörige Matrix der Eigenvektoren lautet
86
Mathematik für Sozial- und Wirtschaftswissenschaften Daher kann u'Au durch Variablentransformation u = Xv bzw. ν = X'u in v'Bv transformiert werden: u'Au = 2u\ + 2\f2u\ui + u\ — 3v* = v'Bv, wobei Β = X'AX
4.4.2
=
3 0 0 0
= Λ.
Definitheit von quadratischen Formen
Definition 4.5 Q(u) und die Koeffizientenmatrix Α heißen positiv definit (p.d.) /negativ definit (n.d.)], wenn der Wertebereich von Q(u) nur aus positiven (negativen) Zahlen besteht, d.h. wenn Q(u) > 0 [Q(«) < 0] für alle u φ 0. Q(u) und Α heißen positiv semidefinit (p.s.) /negativ semidefinit (n.s.)J, wenn Q(u) > 0 [(Q(u) < 0]
für alle
u^O.
Q(u) und Α heißen indefinit, wenn der Wertbereich positive und negative Zahlen enthält. Die Definitheit einer quadratischen Form kann leicht abgelesen werden, wenn diese durch Variablentransformation in ein Summme von Quadraten umgewandelt wird. Beispiel 4.13 Die quadratische Form Q(u) aus Beispiel 4.11 ist positiv semidefinit, da Q(u) = Q(Xv) = 3vi + Ovl > 0 für beliebige ν φ 0. Satz 4.9 Zur Definitheit quadratischer Formen bzw. von Matrizen gelten folgende Aussagen: (a) Q(u) bzw. Α ist genau dann positiv definit (negativ definit), wenn alle Eigenwerte λ,· von Α größer (kleiner) als Null sind. (b) Q(u) bzw. Α ist genau dann positiv semidefinit (negativ semidefinit), wenn alle Eigenwerte λ,· von Α größer (kleiner) oder gleich Null sind. (c) Ist Α positiv definit, so gilt |A| > 0, τ(Α) = η und Sp(A) > 0.
Eigenwerte,
Eigenvektoren;
Quadratische
87
Formen
(d) Ist Α positiv definit und gilt r(B) = m für den Rang der η χ Β, dann ist B'AB positiv definit. (e) Gilt r ( J 5 ) = to für den Rang der η χ m-Matrix definit. ( f ) Ist Α positiv
definit, so ist auch Α~ λ positiv
(g) Q(u) bzw. Α ist genau größer als Null sind:
(h) Q(u) gilt:
dann positiv
definit,
m-Matrix
Β, dann ist B'B
positiv
definit. wenn alle
Hauptminoren
bzw. Α ist genau dann negativ definit, wenn für die
Hauptminoren
η η (i) Sind Α und Β positiv definit, so ist auch Α ® Β positiv
gerade ungerade definit.
Siehe Beispiel 4.16. 4.4.3
Faktorisieren von Matrizen
Satz 4.10 Α sei eine positiv definite (a)
Matrix.
Choleski-Faktorisierung: Zu Α existiert eine reelle, untere ecksmatrix A —
T,
TT'.
(b) Zu Α existiert A =
Drei-
sodaß
eine nicht-singuläre,
reelle Matrix W,
sodaß
W'W.
Die Matrix Τ aus (a) erhalt man mittels einer einfachen Konstruktion (siehe Beispiel 4.17). Die Matrix W aus (b) ergibt sich aus der Diagonalisierung A = X'AX der symmetrischen Matrix Α zu W = X'A 1/ 2.
88
Mathematik für Sozial- und
Wirtschaftswissenschaften
4.A Ergänzende Beispiele Beispiel 4 . 1 4 Zur Matrix A =
1 0 0 0 2 V2 0 y/2 3
sind (a) die Eigenwerte und (b) die Eigenvektoren zu ermitteln. (a) Zum Bestimmen der Eigenwerte suchen wir die Wurzeln des charakteristischen Polynoms 1-λ 0 0 \A — λΙ| = 0 2 - λ y/2 0 y/2 3 — λ = (1 - λ)[(2 - λ)(3 - λ) - 2] = (1 - λ)(λ 2 - 5λ + 4) = (1 — λ)(4 — λ)(1 — λ) = 0. Die Eigenwerte ergeben sich zu Λι = 4 und = \ 3 = 1; der Eigenwert 1 hat die Vielfachheit zwei. (b) Zu λ = 4 existiert ein Eigenvektor a^1), der sich als Lösung des homogenen linearen Gleichungssystems -3 0 0 0 - 2 y/2 X^zrO 0 v5 -1 ergibt. Wegen 0 -3 0 0 0 - 2 y/2 2 0 y/2 -1 0 gilt a^1) = a(0, ^ , 1 ) ' . Normieren liefert die Konstante a. Aus a;(1)'i(1) = (1 + = 1 ergibt sich ar = . Somit lautet der Eigenvektor zu Aj = 4
0 1 V3 y/2 Der Eigenwert Λχ = Λ3 = 1 hat die Vielfachheit zwei, d.h. es existieren zu diesem Eigenwert zwei linear unabhängige Eigenvektoren, die sich als Lösung des linearen Gleichungssystems mit der Koeffizientenmatrix 0 0 0 " " 0 1 V21 0 1 V2 0 0 0 0 0 0 0 y/2 2 »W =
Eigenwerte, Eigenvektoren; Quadratische Formen
89
ergeben. Der Kern dieses linearen Gleichungssystems hat die Dimension zwei. Die allgemeine Lösung lautet " 0 " "1 " α 0 + ß -V2 0 1 Die beiden Basisvektoren der allgemeinen Lösung des linearen Gleichungssystems sind in diesem Beispiel bereits orthogonal, sodafi wir sie nur mehr normieren müssen. Wir setzen für χ(2) den Vektor 1
der die Norm ||x^|| = 1 hat. Skalare Multiplikation mit dem Reziprokwert der Norm ergibt den Vektor 0 -y/2 y/3 1 Somit erhalten wir die folgenden drei orthonormalen Eigenvektoren: 0 "1' 0 K / _ X(3) = 1 , s = 0 -V2 \/3 %/2 V3 1 0 Die orthonormale Matrix der Eigenvektoren lautet daher 0 V3 0 1 0 —v/2 = ~7= V5 •v/5 0 1 x
Beispiel 4.15 Die Matrix
M e
-a]
soll in die Matrix ihrer Eigenwerte transformiert werden. Wir benützen dazu die Beziehung X'AX = Λ (vergleiche Satz 4.3), in der die Transformationsmatrix X die Matrix der Eigenvektoren von Α ist. Daher bestimmen wir zunächst die Transformationsmatrix X. Aus dem charakteristischen Polynom μ-λΐ| =
2 —λ
6
6
-3-λ
= λ 2 + λ - 42 = 0
erhalten wir die Eigenwerte Λι = 6 und λ 2 = —7. Die Eigenvektoren sind χ*1' = ^ ( 3 , 2 ) ' und x = 2,3)'. Die Itansformationsmatrix X ist somit X =
y/Ü
3 2
-2 3
90
Mathematik für Sozial- und Wirtschaftswissenschaften Die Transformation gibt x , A X
3 2 = h [ - 2 3
3 2
-2 3
Η:Λ]
Beispiel 4 . 1 6 Die Definitheit der quadratischen Form
x'
' 3 0 0 " v/3 χ = x'Ax 0 4 . 0 Λ/3 6
ist (a) durch Berechnen der Eigenwerte (b) durch Berechnen der Hauptminoren (c) durch Kongruenztransformation zu ermitteln. (a) Das Berechnen der Eigenwerte liefert λχ = 7 und λ 2 = λ 3 = 3. Somit sind Α und Q(x) positiv definit. (b) Aus 3 0 an au β21 «22 0 4 folgt, daß Α und Q(x) positiv definit sind, kill = 3 > 0,
= 12 > 0,
μ| = 6 3 > 0
(c) Die Kongruenztransformation von Α gibt '3 0 0 ] Γ3 0 0 ' 3 0 0" c* 0 4 0 = D. A= 0 4 = 0 4 4y/3 S 84 0 0 . 0 \/3 6 [ 0 4v/3 96 Α und D sind kongruent und haben daher gleiche Definitheit. Da D positiv definit und da die Diagonalelemente von D gleiche Vorzeichen wie die Eigenwerte von Α haben, sind Α und Q(x) positiv definit.
Beispiel 4 . 1 7 Für die Matrix Α aus Beispiel 4.16, A =
3 0 0
0 0 4 y/3 y/3 6
ist die untere Dreiecksmatrix Τ der Choleski-Zerlegung {A = TT') (a) durch direkte Choleski-Faktorisierung (b) durch Kongruenztransformation zu bestimmen.
Eigenwerte, Eigenvektoren; Quadratische Formen
91
(a) Die allgemeine Form von Τ ist
T=
111