Formelsammlung der Matrizenrechnung 9783486719802, 9783486583502

Ingenieure, Naturwissenschaftler und Mathematiker in Studium und Praxis erhalten die wichtigsten Sätze und Gleichungen d

175 70 6MB

German Pages 176 Year 2007

Report DMCA / Copyright

DOWNLOAD PDF FILE

Recommend Papers

Formelsammlung der Matrizenrechnung
 9783486719802, 9783486583502

  • 0 0 0
  • Like this paper and download? You can publish your own PDF file online for free in a few minutes! Sign Up
File loading please wait...
Citation preview

LLl ra fei

Formelsammlung der Matrizen rech η ung von Christian Voigt und Jürgen Ada my Technische Universität Darmstadt

Oldenbourg Verlag München Wien

Dipl.-Ing. Christian Voigt promoviert seit 2005 am Fachgebiet Regelungstheorie und Robotik der Technischen Universität Darmstadt im Bereich Robotik. Prof. Dr.-Ing. Jürgen Adamy ist Leiter des Fachgebiets Regelungstheorie und Robotik im Fachbereich Elektro- und Informationstechnik der Technischen Universität Darmstadt.

Bibliografische Information der Deutschen Nationalbibliothek Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über abrufbar.

© 2007 Oldenbourg Wissenschaftsverlag GmbH Rosenheimer Straße 145, D-81671 München Telefon: (089) 45051-0 oldenbourg.de Das Werk einschließlich aller Abbildungen ist urheberrechtlich geschützt. Jede Verwertung außerhalb der Grenzen des Urheberrechtsgesetzes ist ohne Zustimmung des Verlages unzulässig und strafbar. Das gilt insbesondere für Vervielfältigungen, Übersetzungen, Mikroverfilmungen und die Einspeicherung und Bearbeitung in elektronischen Systemen. Lektorat: Kathrin Mönch Herstellung: Anna Grosser Coverentwurf: Kochan & Partner, München Gedruckt auf säure- und chlorfreiem Papier Druck: Grafik + Druck, München Bindung: Thomas Buchbinderei GmbH, Augsburg ISBN 978-3-486-58350-2

Vorwort Diese Formelsammlung ist ein einfach nutzbares Nachschlagewerk für die Grundlagen der Matrizenrechnung. Ingenieuren und Naturwissenschaftlern in Studium und Praxis soll es die wichtigsten Sätze und Gleichungen der Matrizenrechnung in überschaubarer und leicht verständlicher Form zugänglich machen. Um ein kompaktes Format und eine übersichtliche Darstellung zu gewährleisten, wurde bewusst auf die Angabe der zugrunde liegenden Beweise und Hilfssätze verzichtet. Die ausführliche Angabe der Notation und ein umfangreicher Index soll den Leser bei der Suche und dem Verständnis der Formeln bestmöglich unterstützen. Korrekturen und Ergänzungen zu dieser Formelsammlung können online unter www.rtr.tu-darmstadt.de/formelsammlung abgerufen werden. Wir möchten uns an dieser Stelle bei allen, die bei der Erstellung dieses Buches geholfen haben, bedanken. Dieser Dank gilt vor allem Herrn André Kvist Aronsen, der einen Teil der Schreibarbeit übernommen hat, aber auch allen Mitarbeitern des Instituts für Automatisierungstechnik der Technischen Universität Darmstadt, deren Korrekturen und Verbesserungsvorschläge bei der Erstellung des Buches sehr hilfreich waren. Darmstadt

C. Voigt, J. Adamy

Inhaltsverzeichnis Notation

1

1

Grundlagen

7

1.1 1.1.1 1.1.2 1.1.3 1.1.4 1.1.5 1.1.6 1.1.7

Grundlagen der Matrizenrechnung Definition einer Matrix Relationen Nullmatrix Einheitsmatrix Standardmatrix Nichtnegative Matrix Transponierte Matrix

7 7 7 8 8 8 8 8

1.2 1.2.1 1.2.2 1.2.3 1.2.4 1.2.5 1.2.6 1.2.7

Matrixoperatoren Matrixaddition Matrixmultiplikation Skalarmultiplikation Potenz Kronecker-Produkt Kronecker-Summe Elementweise Multiplikation

9 9 9 10 11 11 12 13

1.3 1.3.1 1.3.2 1.3.3 1.3.4 1.3.5

Vektoren Skalarprodukt Dyadisches Produkt Kreuzprodukt Spatprodukt Verallgemeinertes Kreuzprodukt

13 13 14 14 15 15

1.4 1.4.1 1.4.2 1.4.3 1.4.4 1.4.5 1.4.6 1.4.7 1.4.8 1.4.9

Definitionen Spur Bild Kern Kofaktor Adjungierte Matrix Untermatrix Vec-Operator Diagonale Diagonaloperator

16 16 17 17 17 17 18 18 19 19

VIII

Inhaltsverzeichnis

2

Determinanten

21

2.1 2.1.1 2.1.2 2.1.3

Definition der Determinante Unterdeterminanten Minor Formale Determinante

21 21 21 21

2.2 2.2.1 2.2.2 2.2.3 2.2.4

Berechnung 2 χ 2-Matrizen 3 χ 3-Matrizen - Regel von Sarrus η χ n-Matrizen - Laplace'scher Entwicklungssatz Rechenregeln

22 22 22 23 23

2.3

Hadamard-Ungleichung

24

3

Lösen linearer Gleichungssysteme

25

3.1 3.1.1 3.1.2 3.1.3 3.1.4 3.1.5

Gleichungssysteme mit Matrizen Lineares Gleichungssystem (LGS) Lineare Unabhängigkeit Rang Regularität Singularität

25 25 25 26 26 26

3.2 3.2.1 3.2.2 3.2.3 3.2.4

Lösbarkeit Eindeutige Lösbarkeit Uberbestimmtes Gleichungssystem Unterbestimmtes Gleichungssystem Homogene und inhomogene Lösung

26 27 27 27 27

3.3 3.3.1 3.3.2 3.3.3 3.3.4

Die inverse Matrix Definition Lösen eines LGS mit der inversen Matrix Berechnung Rechenregeln

27 27 28 28 28

3.4 3.4.1 3.4.2 3.4.3 3.4.4

Pseudoinverse Definition Lösen eines LGS mit der Pseudoinversen Berechnung Rechenregeln

29 29 29 29 30

3.5

Cramer'sche Regel

30

3.6 3.6.1 3.6.2 3.6.3 3.6.4 3.6.5 3.6.6

Gauß'scher Algorithmus Elementare Zeilenumformungen Pivotelement Stufenformen Gauß'sches Eliminationsverfahren Bestimmung des Ranges einer Matrix Lösen eines LGS

30 31 31 31 32 33 33

Inhaltsverzeichnis

IX

3.6.7 3.6.8

Bestimmung der Inversen (Gauß-Jordan-Algorithmus) Gauß-Elimination mit Spaltenpivotsuche

34 34

3.7 3.7.1 3.7.2 3.7.3

Lösung von LGS mittels Zerlegungen LR-Zerlegung Cholesky-Zerlegung QR-Zerlegung

34 34 35 35

4

Eigenwerte und Eigenvektoren

37

4.1

Eigenwertproblem

37

4.2

Spektrum

37

4.3

Spektralradius

37

4.4

Charakteristisches Polynom

38

4.5

Minimalpolynom

38

4.6 4.6.1 4.6.2 4.6.3

Vielfachheit Algebraische Vielfachheit Geometrische Vielfachheit Eigenschaften

39 39 39 39

4.7 4.7.1 4.7.2 4.7.3 4.7.4 4.7.5 4.7.6

Berechnung Matrizen «-ter Ordnung Matrix 2. Ordnung Matrix 3. Ordnung Komplexe Matrizen Rechenregeln Iterative Berechnung des charakteristischen Polynoms

40 40 40 40 41 41 42

4.8 4.8.1 4.8.2

Hauptvektoren Definition Berechnung

42 42 42

4.9

Allgemeines Eigenwertproblem

43

4.9.1

Lösen des allgemeinen Eigenwertproblems

43

4.10

Rayleigh-Quotient

43

4.11 4.11.1 4.11.2 4.11.3 4.12 4.12.1 4.12.2 4.12.3

Cayley-Hamilton-Theorem Definition Folgerungen Anwendung Singulärwertzerlegung Singulärwerte und Singulärvektoren Berechnung Rechenregeln

44 44 44 45 45 46 47 48

X

Inhaltsverzeichnis

5

Differentiation

49

5.1

Gradient

49

5.2

Hesse-Matrix

49

5.3

Jacobi-Matrix

49

5.4

Differentiale

50

5.5 5.5.1 5.5.2 5.5.3 5.5.4 5.5.5

Einfache Fälle Ableitung von Produkten Ableitung von Determinanten Ableitung von Logarithmen Ableitung von Spuren Ableitung inverser Matrizen

51 52 53 53 54 55

5.6 5.6.1 5.6.2 5.6.3 5.6.4

Allgemeine Ableitung Definition Kettenregel Ruhelagen Richtung der größten und kleinsten Anderungsrate

55 55 55 56 56

6

Normen und Störungstheorie

57

6.1 6.1.1 6.1.2 6.1.3 6.1.4 6.1.5 6.1.6 6.1.7

Vektornormen Vektornormaxiome p-Norm Betragssummennorm Euklidische Norm Maximumnorm Ungleichungen Vektornormrelationen

57 57 57 57 58 58 58 58

6.2 6.2.1 6.2.2 6.2.3 6.2.4 6.2.5 6.2.6 6.2.7 6.2.8 6.2.9 6.2.10

Matrixnormen Definition Matrixnormaxiome Zeilensummennorm Spaltensummennorm Spektralnorm Frobeniusnorm Ky-Fan-Norm Matrix-Maximumnorm Matrixnormrelationen Logarithmische Matrixnorm

59 59 59 59 60 60 60 60 60 61 61

6.3 6.3.1 6.3.2 6.3.3

Störungstheorie Fehler und Residuum Kondition einer Matrix Abschätzung der Auswirkungen

62 62 63 63

6.4

Eigenwertabschätzung

64

Inhaltsverzeichnis

XI

7

Kurven, Flächen und Transformationen

65

7.1

Translation

65

7.2 7.2.1 7.2.2 7.2.3

Rotation Im R 2 Im R 3 Verallgemeinerung

65 65 66 67

7.3

Homogene Koordinaten

68

7.4 7.4.1 7.4.2 7.4.3 7.4.4

Matrizendarstellung von Flächen und Kurven Kegelschnitte Quadriken 2. Ordnung - Quadratische Flächen Quadratische Hyperflächen Quadratische Formen

69 69 70 70 70

7.5 7.5.1 7.5.2

Hauptachsentransformation Kurven oder Flächen mit Symmetriepunkten Kurven oder Flächen ohne Symmetriepunkte

70 71 72

7.6 7.6.1 7.6.2 7.6.3

Klassifizierung von Kurven oder Flächen Bestimmung des Flächen-bzw. Kurventyps Kurven 2. Ordnung - Normalgleichungen Flächen 2. Ordnung - Normalgleichungen

72 72 74 74

8

Spezielle Matrizen

77

8.1 8.1.1 8.1.2 8.1.3 8.1.4 8.1.5 8.1.6 8.1.7 8.1.8 8.1.9 8.1.10 8.1.11 8.1.12 8.1.13 8.1.14 8.1.15 8.1.16 8.1.17

Quadratische Matrizen Ahnliche Matrizen Symmetrische Matrizen Schiefsymmetrische Matrizen Symmetrische und schiefsymmetrische Komponente Definite Matrizen Dreiecksmatrizen Diagonale Matrizen Diagonaldominante Matrizen Skalarmatrizen Orthogonale Matrizen Idempotente Matrizen Nilpotente Matrizen Involutorische Matrizen Zyklische Matrizen Permutationsmatrizen Kommutationsmatrix Monomiale Matrizen

77 77 77 78 78 79 80 80 81 81 82 82 82 83 83 84 85 85

8.2 8.2.1 8.2.2 8.2.3

Komplexe Matrizen Multiplikation Konjugiert komplexe Matrix Konjugiert komplexe und transponierte Matrix

85 85 86 86

XII

Inhaltsverzeichnis

8.2.4 8.2.5 8.2.6 8.2.7

Hermitesche Matrizen Schiefhermitesche Matrizen Normale Matrizen Unitäre Matrizen

86 87 88 88

8.3 8.3.1 8.3.2 8.3.3 8.3.4

Blockmatrizen Multiplikation Determinante Invertieren Blockdreiecksmatrizen

89 89 89 89 89

8.4 8.4.1 8.4.2

Jordan'sche Matrizen Jordanblock Jordan'sche Normalform

90 90 91

8.5

Toeplitz-Matrix

92

8.6

Zirkulante Matrix

92

8.7

Sylvester-Matrix

93

8.8

Hankel-Matrix

93

8.9

Hilbert-Matrix

94

8.10

Householder-Matrix

94

8.11

Vandermonde-Matrix

95

8.12

Begleitmatrix

96

8.13 8.13.1 8.13.2 8.13.3

Hessenberg-Matrizen Obere Hessenberg-Matrix Untere Hessenberg-Matrix Tridiagonale Matrix

97 97 97 98

8.14

Givens-Matrix

98

8.15

Frobenius-Matrix

99

8.16

Frobenius-Normalform

99

8.17 8.17.1 8.17.2 8.17.3 8.17.4

Tensoren Definition Tensorprodukt Dyadisches Produkt Verjüngung

100 100 101 101 101

8.18 8.18.1 8.18.2 8.18.3 8.18.4 8.18.5

Quaternionen Anwendung Vektorielle Definition Algebraische Definition Rechenoperationen Rotation

101 101 102 102 103 103

Inhaltsverzeichnis

XIII

9

Funktionen von Matrizen

105

9.1

Funktionstheorem

105

9.2

Berechnung von / ( A ) mittels Diagonalmatrizen

105

9.3

Berechnung von / ( A ) mittels Jordan'scher Normalform

106

9.4

Trigonometrische und hyperbolische Funktionen

107

9.5 9.5.1 9.5.2 9.5.3 9.5.4 9.5.5 9.5.6 9.5.7 9.5.8 9.5.9 9.5.10

Exponentialfunktion Definition Rechenregeln Berechnung für Diagonalmatrizen Berechnung für diagonalisierbare Matrizen Berechnung für nicht diagonalisierbare Matrizen Berechnung für nilpotente Matrizen Berechnung mittels Cayley-Hamilton Berechnung nach Leonard Berechnung mit der Laplace-Transformierten Sonstige Berechnungsmöglichkeiten

107 107 108 108 108 109 109 109 110 111 111

9.6

Logarithmus

111

9.7

Quadratwurzel

112

10

Spezielle Verfahren

113

10.1 10.1.1 10.1.2

Diagonalisierung Diagonalisierbarkeit Diagonalisierungsverfahren

113 113 113

10.2

Gram-Schmidt-Verfahren

113

10.3 10.3.1 10.3.2 10.3.3 10.3.4

Zerlegungen LR-Zerlegung Cholesky-Zerlegung QR-Zerlegung Schur-Zerlegung

114 114 116 116 118

10.4 10.4.1 10.4.2 10.4.3 10.4.4

Numerische Berechnung von Eigenwerten Transformation auf Hessenbergform QR-Iteration Vektoriteration Frobenius-Perron-Theorem

119 119 120 120 122

10.5 10.5.1 10.5.2

Matrixinversionslemma Sherman-Morrison-Formel Woodbury-Formel

123 123 123

11

Anwendungen

125

11.1

Robotik

125

XIV

Inhaltsverzeichnis

11.2 11.2.1 11.2.2

Regelungstechnik Zustandsraumdarstellung Zustandsregler

128 128 131

11.3 11.3.1 11.3.2

Graphentheorie Definition eines Graphen Darstellung im Computer

132 133 133

11.4

Digitale Bildspeicherung

134

11.5

Camera Obscura

135

11.6 11.6.1 11.6.2

Maschinendynamik Systembeschreibung Zustandsraumdarstellung

136 136 137

11.6.3

Modalanalyse

137

Glossar

138

Literaturverzeichnis

145

Fachwörter Deutsch - Englisch

149

Matrizenklassen

153

Index

155

Notation Allgemein Art

verwendete Notation

meist

Matrizen, S.7 Tensoren, S.100 Vektoren, S.13 Skalare, S.140

große, fett gedruckte, lateinische Buchstaben große, kalligraphische Buchstaben kleine, fett gedruckte, lateinische Buchstaben kleine, lateinische Buchstaben

A, C

ft U, V, w a

Matrizen A (ay) m χ η - Matrix A e Κ"1*" (u, ν, w} Ay A,· Aij C A(f) A(v) A [/l (A 1 v) (A)y a

'j

reellwertige Matrix, S.7 Matrix - Zeilenindex i und Spaltenindex j , S.7 Matrix mit m Zeilen und η Spalten, S.7 Matrix A mit m Zeilen und η Spalten mit Elementen des Körpers K, S.7 Matrix, die durch Konkatenation von u, ν und w entsteht, S.141 indizierter Block einer Blockmatrix A, S.89 linke obere Teilmatrix der Matrix A mit η - i Spalten und Zeilen gestrichen Adjunkte zum Elemente a¡¡, S. 17 komplexe Matrix, S.85 vom Parameter t abhängige Matrix A vom Vektor ν abhängige Matrix A Matrix A beim /-ten Iterationsschritt, S.l 16 Matrix, die durch Konkatenation von A mit ν entsteht, S.26 (/, j)-te Element der Matrix A (i, j)-te Element der Matrix A

2

Notation

Matrixoperatoren A* A-1 A+ Ar A~T A 1/2 adjA C CH Re {C} Im ( C}

Matrix A zur χ-te η Potenz, S.45 inverse Matrix von A, S.27 pseudoinverse Matrix von A, S.29 transponierte Matrix von A, S.8 transponierte inverse Matrix von A, S.8 Wurzel der Matrix A, S. 112 adjungierte Matrix von A, S.17 konjugiert komplexe Matrix von C, S.86 konjugiert komplexe und transponierte Matrix von C, S.86 Der Real teil der komplexen Matrix C Der Imaginärteil der komplexen Matrix C

det(A) Spur(A) Rang(A) Bild(A) Kern(A) Null(A) vec(A) diag(v) reshape(A) cr(A) p(A) κ(Α) Kp(A)

Determinante der Matrix A, S.21 Spur der Matrix A, S. 16 Rang der Matrix A, S. 26 Bild der Matrix A, S. 17 Kern der Matrix A, S. 17 alterantiv für Kern der Matrix A, S. 17 Ein aus den Elementen der Matrix A gebildeter Spaltenvektor, S. 18 Diagonalmatrix mit den Elementen von ν auf der Diagonalen, S. 19 beliebiger Operator, der die Elemente der Matrix A neu anordnet. Spektrum (= Menge aller Eigenwerte) der Matrix A, S.37 Spektralradius der Matrix A, S.37 Kondition der Matrix A, S.63 Kondition bezogen auf die p-Norm der Matrix A, S.63

>, >, =, (>) Β A < ( i) +det(A2>2)

. . . (-l) 1 + "det(A„,,)ï . . . (-l) 2+ "det(A„, 2 )

,(-l)" + 1 det(A1>n) ( - i r 2 d e t ( A 2 , „ ) . . .

(1.4.8)

+ det(A„,„)

Die komplementäre Matrix wird beispielsweise verwendet, um die inverse Matrix A rechnen (siehe S. 27), da A adj(A) = adj(A)A = det(A)I

1

auszu(1-4.9)

gilt. Die adjungierte Matrix ist nicht zu verwechseln mit der konjungiert-komplexen und transponierten Matrix A w , die oft in der Literatur als adjungierte Matrix bezeichnet wird.

1.4.6

Untermatrix

Die Untermatrix A, e K!X' einer η χ η-Matrix A erhält man, indem die η - i rechten Spalten und die η - i unteren Zeilen von der Matrix A gestrichen werden. Also ist beispielsweise Αι = α π

1.4.7

Vec-Operator

Der vec-Operator vec(A) bildet einen mn-dimensionalen Vektor aus den Elementen der Matrix A e C mx ". Anfangend mit der ersten Spalte werden alle Elemente der Matrix spaltenweise in einen Spaltenvektor geschrieben: 'a\\ a\2 . . . a\n «21 0.22 • • • a2n A= wml am2 • • • dmn' =>

vec(A) = (an,a2i,...,ami,ai2,a22,

...,am2,

...,ain,a2n,

...,amn)T.

Rechenregeln vec(A r ) = K (m ' n) vec(A)

(1.4.10a)

r

vec(uv ) = ν ® u

(1.4.10b) Γ

vec(AB) = (I ® A) vec(B) = (Β ® A) vec(I)

(1.4.10c)

T

vec(ABC) = (C ® A)vec(B)

(1.4.1 Od)

Spur(AB) = (vec(A T )) r vec(B)

(1.4.10e)

Spur(ABC) = (vec(A r )) 7 (I ® B) vec(C)

(1.4.1 Of)

Spur(ABCD) = (vec(A r )) r (D 7 ® B) vec(C)

(1.4.10g)

Γ

AX + XB = C o (I Α + Β ® I) vec(X) = vec(C)

(1.4.10h)

1.4 Definitionen

1.4.8

19

Diagonale

Bei einer quadratischen Matrix wird die Linie, die von links oben nach rechts unten (also von απ nach ann) in der Matrix verläuft, als die Hauptdiagonale bezeichnet. Elemente einer Matrix A = {αφ liegen auf der Hauptdiagonalen, falls beide Indizes gleich sind, also (a„). Dies wird bisweilen auch für nichtquadratische Matrizen verallgemeinert, indem die Elemente (a„) einfach als die Hauptdiagonalelemente bezeichnet werden. Die Nebendiagonale

verläuft von oben rechts nach unten links (also von a\n nach an\).

Die Diagonalen, die oberhalb und unterhalb der Hauptdiagonale verlaufen (also von a\j nach an-1,„ bzw. von a2\ nach α„,„-ι), werden in der Literatur unterschiedlich bezeichnet. Meistens werden diese zusätzlichen Diagonalen von der Hauptdiagonalen ausgehend in beiden Richtungen nummeriert und als erste, zweite, . . . , k-te obere bzw. untere Nebendiagonale bezeichnet. Die oberhalb der Hauptdiagonale liegenden Diagonale werden aber auch als Superdiagonale und die unterhalb liegenden als Subdiagonale bezeichnet.

1.4.9

Diagonaloperator

Der Diagonaloperator diag(v) bildet aus dem Vektor ν e Κ" eine η χ η- Diagonalmatrix mit ausschließlich Elementen ungleich null auf der Diagonalen. Die Diagonalelemente sind die Elemente des Vektors v:

diag(v) = diag

(v\

0

0

v2

,0

···

0λ (1.4.11) 0

0 v„)

Der inverse Diagonaloperator diag 1 , schreibt alle Diagonalelemente einer Matrix in einen Spaltenvektor und verwirft alle anderen Elemente: an a¡2 Ö21 Ö22 diag 1 (A) = diag-1

ain ain

Vflni a„ 2

flu 022

(1.4.12)

\a n

Vorsicht: Da Elemente verworfen werden, gilt für den inversen Diagonaloperator zwar immer diag~'(diag(v)) = v,

(1.4.13a)

diag(diag" 1 (A)) = A

( 1.4.13b)

aber

gilt nur, wenn A eine Diagonalmatrix (siehe Abschnitt 8.1.7) ist.

20

1 Grandlagen

Rechenregeln diag(av + bw) = a diag(v) + b diag(w)

( 1.4.14a)

diag(v Θ w) = diag(v) Θ diag(w)

( 1.4.14b)

T

diag(u Θ ν Θ w) = (w ® u) Θ diag(v)

(1.4.14c)

diag(v ® w) = diag(v) ® diag(w)

(1.4.14d)

d i a g - ' ( A o B ) = diag~'(A) Θ diag~'(B)

(1.4.14e)

-1

diag~'(A ® B) = diag (A) ® diag~'(B) r

r

(1.4.14f) r

d i a g " ' ( ( A o B ) C ) = diag~'(A(B Θ C ) ) = diag~'(B(A Θ C) ) 1

(1.4.14g)

Γ

( 1.4.14h)

vec(Α Θ Β) = diag(vec(A)) vec(B)

( 1.4.14i)

diag- (A diag(v)B) = (Β Θ Α)ν

2

Determinanten

2.1

Definition der Determinante

Die Determinante det(A) ist eine Funktion, die eine Matrix A e K" x " auf den Körper Κ abbildet: η (2.1.1) Hierbei gilt: • A = (a¡j) e K" x n , d.h. Α muss quadratisch sein. • S n : Gruppe der Permutationen über der Menge ( 1 , 2 , 3 , . , . , η - 1, η) (siehe S. 142). • er e S„ : eine Permutation von { 1 , 2 , 3 , . , . , η - 1 ,n}. • sgn : Sn -> { - 1 , 1 } , sgn(cr) =

2.1.1

1

falls er eine gerade Permutation.

-1

falls er eine ungerade Permutation.

Unterdeterminanten

Die Unterdeterminante D¡j von A ist die Determinante des Kofaktors A ¡ j (siehe Abschnitt 1.4.4) der Matrix A. Sie wird gebildet, indem die i-te Zeile und die j-te Spalte der Matrix A gestrichen und die Determinante der resultierenden Matrix A¡j berechnet wird. Also, D,j = det(A,j).

2.1.2

Minor

Ein Minor ist die Determinante einer Teilmatrix einer Matrix A, die durch Streichen von gleich vielen Zeilen und Spalten der Matrix A entstanden ist. Ein Hauptminor, auch Hauptabschnittsdeterminante genannt, ist die Determinante einer der Untermatrizen A, einer Matrix A, also det(A,) (siehe Abschnitt 1.4.6).

2.1.3

Formale Determinante

Bei der formalen Determinante kann die Matrix, deren Determinante es zu bestimmen gilt, nicht nur Skalare als Elemente enthalten, sondern auch Vektoren. Die Berechnung ist analog zu der von Matrizen mit ausschließlich Skalaren als Elemente. Daher hat sie einen Vektor als Ergebnis. Sie wird zum Beispiel genutzt, um das verallgemeinerte Kreuzprodukt (siehe S. 15) zu definieren.

22

2 Determinanten

2.2

Berechnung

2.2.1

2 χ 2-Matrizen

Für 2 χ 2-Matrizen ergibt sich die Determinante nach der einfachen Faustregel „Produkt der Elemente der Hauptdiagonale minus dem Produkt der Elemente der Nebendiagonale":

Α = Γ

2.2.2

b

\ => det(A) = ad- bc.

(2.2.1)

3 χ 3-Matrizen - Regel von Sarrus

Die Regel von Sarrus erlaubt die einfache Berechnung der Determinante von 3 x 3-Matrizen von Hand. Hierfür werden die ersten beiden Spalten nochmals an die Matrix angehängt, so dass insgesamt eine Struktur vom Typ 3 x 5 entsteht:

A =

απ απ «π a Ö21 22 Û23 V«31 «32 a 33j

au aì2 ai3 an a\2 «21 «22 Û23 « 2 1 Ü22Û31 i*32 «33 an «32

Danach wird für jede Diagonale das Produkt a¡ der Elemente gemäß folgendem Schema gebildet: a4

S

a5 αβ

S

S

au ai2 αΐ3 | a n ai 2 \ X X / 021 «22 «23 I 021 «22 / X X \ 031 Û32 a33 I 031 a32 \ \ \ ari ai «3

Aus diesen Produkten a, wird dann die Summe gebildet, wobei die Produkte der von links oben nach rechts unten verlaufenden Diagonalen (i = 1,2,3) positiv und die anderen (i = 4,5,6) negativ in die Summe eingehen: => det(A) = a¡ + a j + a-¡ - a^ - et^ - a¿ = 011022^33 + «12023031 + «13021032 - 013022031 - 012021033 - 011023032· Vorsicht: Der Satz von Sarrus ist nicht auf η χ «-Matrizen übertragbar!

(2.2.2)

23

2.2 Berechnung

2.2.3

η χ n-Matrizen - Laplace'scher Entwicklungssatz

Ein Schema, mit dem die Berechnung der Determinante von η x «-Matrizen A = (a,j) möglich ist, ist der Laplace 'sehe Entwicklungssatz: η det(A) = J V l Y-ùi.jl),, j= i

η =

Entwickeln nach ¿-ter Zeile

1

r-^jDtj.

'=i

(2.2.3)

Entwickeln nach y-ter Spalte

Vorgehens weise : 1. Eine konkrete Zeile oder Spalte wählen, 2. jedes Element mit seiner Unterdeterminante D¡j (siehe Abschnitt 2.1.1) multiplizieren und 3. alle Elemente, deren Indizes sich zu einer ungeraden Zahl aufsummieren, negieren. 4. Die Summe ist die Determinante der Matrix. Hinweis: Um Rechenzeit zu sparen, ist es günstig, die Wahlfreiheit, bezüglich welcher Spalte oder Zeile entwickelt werden soll, zu nutzen. So sind Zeilen oder Spalten mit vielen Nullen günstig, da die Berechnung der entsprechenden Unterdeterminanten entfallen kann.

2.2.4

Rechenregeln

Folgende Rechenregeln gelten: • Eine Determinante ist gleich null, wenn sie eine der folgenden Bedingungen erfüllt: - Alle Elemente einer Zeile (oder Spalte) sind null. - Zwei Zeilen (oder Spalten) sind gleich. - Eine Zeile (oder Spalte) ist als Linearkombination der anderen Zeilen (bzw. Spalten) darstellbar. • Eine Determinante ändert ihren Wert nicht, wenn - die zugehörige Matrix transponiert wird, - eine Zeile zu einer anderen Zeile addiert bzw. subtrahiert wird oder - zu irgendeiner Zeile eine Linearkombination anderer Zeilen addiert bzw. subtrahiert wird. • Bei Vertauschen zweier Zeilen (oder Spalten) ändert sich das Vorzeichen der Determinante.

24

2 Determinanten • Wird eine Zeile (Spalte) mit einem Skalar a multipliziert, so multipliziert sich die Determinante ebenfalls mit a.

Rang(A) = η o

det(A) * 0

(2.2.4a)

Rang(A) < η det(A) = 0

(2.2.4b)

r

det(A ) = det(A)

(2.2.4c)

det(AB) = det(A) det(B),

falls Α, Β quadratisch

(2.2.4d)

det(A-I)=—l— det(A) det(aA) = a n det(A)

(2.2.4e) (2.2.4f)

η

det(A) =

Ài,

À, : Eigenwerte von A

(2.2.4g)

i=l det(C w ) = det(C) = det(C)

(2.2.4h)

w

det(C C) > 0 r

(2.2.4Ì) r

det(I + u v ) = 1 + u v

(2.2.4j)

det(Im + AB) = det(In + BA)

2.3

mx

mit

A e K " und Β e K"

xm

(2.2.4k)

Hadamard-Ungleichung

Die Hadamard-Ungleichung liefert eine Abschätzung für den Wert der Determinante einer quadratischen Matrix A. Es sei A eine aus Vektoren a, zusammengesetzte Matrix. Dann gilt: η

|det(A)| < [ ^ I W h . 1=1

(2.3.1)

Da (2.2.4c) gilt, ist es unerheblich, ob die Vektoren Zeilenvektoren oder Spaltenvektoren der Matrix sind.

3

Lösen linearer Gleichungssysteme

3.1

Gleichungssysteme mit Matrizen

3.1.1

Lineares Gleichungssystem (LGS)

Ein Gleichungssystem mit m linearen Gleichungen und η Unbekannten aUX\ + 012*2 + 021*1 + 022*2 +

+ a\nx„ = b\ + ainXn = b2

ami*i

+ am„x„ - b„

+ am2*2 + ···

lässt sich in der Kurzschreibweise Ax = b mit (a\\ an Û21 Ö22

·· öl«) • · a2n

• der Koeffizientenmatrix A = \a m ι

a

m2 •• •

• dem Lösungsvektor χ = (x¡,...

,xn)T

• dem Absolutvektor b = (b\,...,

b„)T

und

darstellen. Falls b = 0, heißt das Gleichungssystem homogen, ansonsten inhomogen.

3.1.2

Lineare Unabhängigkeit

V sei ein Vektorraum über einem Körper K. Die Vektoren vi, V2,..., v m e V heißen linear unabhängig, falls für alle k e K m , k Φ 0 V]fc] + \2k2 + • • • + ymkm = {vi, v 2 , . . . , v m }k + 0

(3.1.1)

gilt. Das heißt, keiner der Vektoren lässt sich als Linearkombination der anderen Vektoren darstellen. Linear abhängig sind die Vektoren, wenn sich ein Vektor k t 0 finden lässt, bei dem die Gleichung (3.1.1) null wird. Dies kann zum Beispiel mit Hilfe der Gauß-Elimination (siehe S. 30) geschehen.

26

3.1.3

3 Lösen linearer Gleichungssysteme

Rang

Der Rang einer Matrix A, Rang(A), ist die größte Zahl linear unabhängiger Spaltenvektoren bzw. Zeilenvektoren einer Matrix. Es gilt immer: A e K mx " => Rang(A) < minimum{m, n}. A hat Vollrang Rang(A) = minimumfm, n\. r

7

Rang(A) = Rang(A') = Rang(A A) = Rang(AA ).

(3.1.2a) (3.1.2b) (3.1.2c)

Zur Bestimmung des Ranges einer Matrix kann zum Beispiel das Gauß'sche Eliminationsverfahren verwendet werden.

3.1.4

Regularität

Eine quadratische Matrix A e K"x" heißt regulär, falls die Spaltenvektoren (und damit auch die Zeilenvektoren) linear unabhängig sind. Daraus folgt A ist invertierbar

det(A) Φ 0

«

Rang(A) = n.

(3.1.3)

Eine nichtquadratische m χ η-Matrix A nennt man spaltenregulär, wenn ihre Spaltenvektoren linear unabhängig sind, und zeilenregulär, wenn ihre Zeilenvektoren linear unabhängig sind.

3.1.5

Singularität

Eine Matrix A heißt singulär, falls sie nicht regulär ist. Daraus folgt, dass eine m χ η-Matrix dann singulär ist, wenn Rang(A) < mm{m,n]

(3.1.4)

gilt. Daraus folgt weiter, dass eine quadratische Matrix A e K"x" singulär ist, wenn Rang(A) = r

A _ 1 B v = μν.

μ-1/λ

(4.9.3)

Dessen charakteristisches Polynom det(A~'B - μ) ist ein Polynom n-ten Grades in μ. Das ist vorteilhaft, denn das ursprüngliche Polynom det(A - ΛΒ) = 0 hat weniger als η Lösungen, wenn Β singulär ist. Bei dieser Substitution ist zu beachten, dass Lösungen μ = 0 auftreten können, die im Originalproblem À = ±oo entsprechen. • Ansonsten müssen die Nullstellen des folgenden charakteristischen Polynoms numerisch ermittelt werden (siehe [18]): det(A - ΛΒ) = 0.

4.10

(4.9.4)

Rayleigh-Quotient

Der Rayleigh-Quotient

r A (v) eines Vektors zur Matrix A ist der Skalar ν .Av

(4.10.1)

44

4 Eigenwerte und Eigenvektoren

Falls ν, ein Eigenvektor von A zum Eigenwert A¡ ist, ist der Rayleigh-Quotient des Eigenvektors gleich dem Eigenwert: rA(v¡) = ¿,·.

(4.10.2)

Wenn Amin der kleinste und Ämax der größte Eigenwert ist, gilt: Λη,η < ΓΑ(ν) < Λ™,

V ν 7t 0.

4.11

Cayley-Hamilton-Theorem

4.11.1

Definition

(4.10.3)

Das Cayley-Hamilton-Theorem besagt, dass jede quadratische Matrix eine Nullstelle ihres eigenen charakteristischen Polynoms (siehe Gl. (4.4.1)) ist. D.h., wenn man die Matrix A in das zugehörige charakteristische Polynom ΡJA) einsetzt, ergibt sich die Nullmatrix 0: P n (A) = Α"+α η -ιΑ"- 1 + · · · + αιΑ + α 0 Ι = 0.

4.11.2

(4.11.1)

Folgerungen

• Die Matrix A" lässt sich immer als Linearkombination von A" _ l , A"~ 2 ,..., A, I darstellen: A" = -a„_iA" _1

ί^Α-αοΙ.

(4.11.2)

• Jedes beliebige Polynom /(A) lässt sich als Linearkombination von Α" - 1 , A " - 2 , . . . , A, I darstellen: /(Α) =

,Α" - 1 + · · · + bx\ + bol.

(4.11.3)

Man kann f(x) auch durch Pn(x) teilen und somit die Darstellung f(x) = q(x)Pn(x) + h(x)

(4.11.4)

erhalten, wobei q(x) der Quotient und h{x) der Rest ist. Wenn man A in die Gleichung (4.11.4) einsetzt, erhält man /(A) = q(A)Pn(\)

+ h{A) - q(A)0 + h(A) - h{A).

(4.11.5)

45

4.12 Singulärwertzerlegung

4.11.3

Anwendung

Das Cayley-Hamilton-Theorem kann verwendet werden, um die Potenz einer Matrix auszurechnen. Falls die Potenz groß ist, ist dies einfacher, als die Matrix wiederholt mit sich selbst zu multiplizieren. In einem solchen Fall mit / ( A ) = A p bzw. f(x) - xp ist wie folgt vorzugehen:

1. Das charakteristische Polynom P„(A) finden und die Eigenwerte A¡ mit eventuellen Vielfachheiten mλ, berechnen. Dann ergibt sich das charakteristische Polynom als Produkt von Linearfaktoren zu m

/>«( R ist der Vektor der ersten partiellen Ableitungen:

W l fy OX¡. ÖX2 f fäx fj n

0.M)

Er ist das mehrdimensionale Analogon zur ersten Ableitung einer eindimensionalen skalarwertigen Funktion.

5.2

Hesse-Matrix

Die Hesse-Matrix H ( / ) einer skalarwertigen Funktion / : R" —> R ist die Matrix aller zweiten partiellen Ableitungen. Sie ist das mehrdimensionale Analogon zur zweiten Ableitung einer eindimensionalen skalarwertigen Funktion. Es gilt:

H(/)

(5.2.1)

Die Hesse-Matrix ist bei stetigen zweiten Ableitungen der Funktion / symmetrisch, da nach d2f d2f gilt. dem Satz von Schwarz dann dxidxj dxjdxi

5.3

Jacobi-Matrix

Die Jacobi-Matrix J ( f ) einer Vektorfunktion f : R" —> R m ist eine m χ η-Matrix der ersten partiellen Ableitungen aller Funktionen f¡ bzw. der Vektor der transponierten Gradienten der

50

5 Differentiation

einzelnen Elemente von f. Die Matrix wird auch Funktionalmatrix genannt und ist nicht zu verwechseln mit der Jacobi-Matrix in der Robotik. Es gilt:

m

d

dx] 3x2

f(x) =

dh

fgradCh) T ) grad (f2)T

/2(x)

A

dxn

. dA

dx\

dxi

d f m

Wn

d f m

dx\

ÔX2

dXn

.

à_h

dx„

J(f) = legrad (fm)T

l/m(x).

/

5.4

Differentiale d\ = 0 A konstant

(5.4.1a)

d(aA) = a(dA) θ(ΧΑΥ) = X(dA)Y

(5.4.1b) wenn

Χ, Y konstant

d(AT) = (dA)T

(5.4.1c) (5.4.1d)

d(reshape*(A)) = reshape(ôA)

(5.4.1e)

d(C) = dC

(5.4. If)

d(CH) = (dCf

(5.4.1g)

o

+ eA

ε

"-1.

(6.2.10)

Die logarithmische Norm hat einige zu den Matrixnormen ähnliche Eigenschaften. Matrixnormen ΙΙβΑΙΙ = |fl| · HAH ||A + B|| < HAH + IIBII max, μ,I = ρ(A) < ||A||

logarithmische Norm μ(αΑ) = \α\ • μ ^ η ( α ) Α ) μ(Α + Β) < μ(Α) + μ(Β) max, Re {/I, ) < μ(Α)

Der Wert „max, Re {Λ,·}" ist dabei der größte Realteil der Eigenwerte Λ, von A und wird auch als Spektralabszisse bezeichnet. Zu beachten ist, dass die logarithmische Norm im Gegensatz zu Normen im üblichen Sinne auch negative Werte annehmen kann. Die logarithmische Matrixnorm μ(Α) : C" x " —> R ist eine konvexe Funktion. Spezialfälle Wird als Matrixnorm die Spaltensummennorm verwendet, ergibt sich für die logarithmische Norm: / i , ( A ) = max jlle{ 1.

6.3.3

(6.3.3)

Abschätzung der Auswirkungen

Die Auswirkungen einer Störung des Gleichungssystems auf dessen Lösung χ lassen sich mit der Konditionszahl abschätzen. Sie liefert Schranken für den relativen Fehler ||e||/||x|| bzw. ||e||/||x||. Wenn die obere Schranke sehr groß ist, bedingen bereits kleine Störungen des Gleichungssystems (z.B. Rundungsfehler) große Fehler in der Lösung (kleine Ursache, große Wirkung). Bei Störung der rechten Seite gilt:

iwi-*(A)iibir"(A)

iibii

·

(6 3 4)

· ·

Bei Störung der Matrix gilt unter Verwendung kompatibler Normen: lle!l „

/4

JIA-ÂH (63 5)

M^hiÄiT

·

Wenn beide Seiten gestört sind, die Matrix A eine reguläre, quadratische Matrix ist und für die gestörte Matrix  gilt ||A~'(A - A)|| < 1, erhält man: M < *(A) /IIb-6|| PII ~ 1 - | | A - ' ( A - Á ) | | l llbll

+

| | A - À||\ HAH ) '

Vorsicht: Es müssen stets die zu der Kondition passenden Normen verwendet werden.

^ ^

64

6.4

6 Normen und Störungstheorie

Eigenwertabschätzung

Das Gershgorin-Theorem liefert eine Abschätzung für den Abstand der Eigenwerte einer beliebigen quadratischen Matrix zu den Hauptdiagonalelementen.

Gershgorin-Theorem Für alle Eigenwerte Λ einer η χ η-Matrix A gilt: Es gibt ein i, so dass \λ -a«\
3 die Rotation um eine Achse nicht mehr eindeutig definiert ist, müssen Rotationen in mehreren verschiedenen, von zwei der η Basisvektoren aufgespannten Ebenen untersucht werden.

68

7 Kurven, Flächen und Transformationen

Das Bild v', das durch die Rotation eines Vektors ν in der (e,·, e7)-Ebene hervorgeht, ist durch die Givens-Rotation G f. mit c = cos(0) und s = sin(0) gegeben:

cos(6>)

- sin(0) 1

vi

v' = G£V =

(7.2.5) sin(0)

cos(0)

u

10 . . .

7.3

Homogene Koordinaten

Räumliche Transformationen werden üblicherweise in so genannten homogenen Koordinaten dargestellt. Das bedeutet, dass dem n-dimensionalen Koordinatenvektor eine weitere Koordinate w hinzufügt wird: χ

(vi)

VEuklid -

Vhom ~~ V, w)

Es ist vereinbart, dass w = 0 einen Richtungsvektor und w = 1 einen Punkt im R 3 kennzeichnet. Damit wird die Darstellung der Translation als Multiplikation statt als Addition ermöglicht: 'Vf

'ν'Γ

Ii

t\


J ] \a¡j\ oder j=Uj*i η k/l>

£ Mj=lj*i

(8.1.8a)

(8.1.8b)

Eigenschaften • Eine diagonaldominante Matrix ist regulär. • Eine quadratische, hermitesche, diagonaldominante Matrix A mit au > 0 für alle i 1 , . . . , η ist positiv définit. • Daraus folgt, dass sie nur positive Eigenwerte besitzt.

8.1.9

Skalarmatrizen

Eine Skalarmatrix C ist eine Diagonalmatrix mit identischen Diagonaleinträgen c„ = c für i = 1 , . . . , η. Die Einheitsmatrix I ist folglich ein Spezialfall der Skalarmatrix mit c = 1 : c C =

0

··· 0

O c ' · · : : '·. U) ··•

= cl.

(8.1.9)

'·· 0 0 c)

Die Multiplikation einer Matrix A mit einer Skalarmatrix C ist die Skalarmultiplikation von c mit A (siehe Abschnitt 1.2.3).

82

8 Spezielle Matrizen

8.1.10

Orthogonale

Matrizen

Eine quadratische Matrix A heißt orthogonal, wenn gilt: ΑΑΓ = ΑΓΑ = I

«

A"1 = AT.

(8.1.10)

Dies ist bei reellen Matrizen der Fall, wenn ihre Spalten (oder Zeilen) eine Orthonormalbasis des R" bilden. Ihr Pendant im komplexen Raum ist die unitäre Matrix (siehe S. 88). Es gibt jedoch auch komplexe orthogonale Matrizen. Eigenschaften • A ist regulär. • Wenn alle a,j e R, ist A normal (siehe S. 88). • |det(A)| - 1 • Wenn A und Β orthogonal sind, ist AB auch orthogonal.

8.1.11

Idempotente

Matrizen

Eine quadratische Matrix A heißt idempotent, wenn A2 = A

(8.1.11)

gilt. Eine idempotente, hermitesche Matrix heißt Projektor. Eigenschaften • A idempotent

=>

A 7 , AH und Ä idempotent.

• Die Eigenwerte einer idempotenten Matrix sind alle gleich null oder eins. • Rang(A) = Spur(A) = άχ=\ • Wenn A regulär und idempotent ist, gilt: A = I. • A+ = A

8.1.12

Nilpotente

Matrizen

Eine quadratische Matrix A heißt nilpotent, falls eine Potenz t e N existiert, für die gilt: Ak - 0.

(8.1.12)

83

8.1 Quadratische Matrizen Eigenschaften • Alle Eigenwerte von A sind gleich null. • Die Determinante und die Spur sind ebenfalls gleich null. • Das charakteristische Polynom lautet: Ρη(Λ) = Λ". • Die kleinste Zahl k mit Ak = 0 ist kleiner gleich n. Das Minimalpolynom lautet Q(Ä) = Λ .

8.1.13

Involutorische Matrizen

Eine Matrix A heißt involutorisch, falls sie selbstinvers ist, also A - 1 = A,

(8.1.13a)

2

A = I.

(8.1.13b)

Eine Matrix heißt schiefinvolutorisch, wenn sie negativ selbstinvers ist: A" 1 = - A ,

(8.1.14a)

2

A = -I.

(8.1.14b)

Eigenschaften • Für involutorische Matrizen A gilt: (I - A)(I + A) = 0. • Wenn A involutorisch ist, dann ist Β = j ( I + A) idempotent. • Alle involutorisehen 2 χ 2-Matrizen A haben die Form A

8.1.14

«

Zyklische Matrizen

Eine Matrix A e Κ"*" wird als zyklische Matrix oder nicht derogatorische Matrix bezeichnet, falls eine der folgenden, äquivalenten Aussagen zutrifft: • Alle Eigenwerte Á¡ der Matrix A sind zyklisch: dÀi = 1

V

¿,e 1 ist Jmj nicht diagonalisierbar.

8.4.2

Jordan'sche Normalform

Eine Matrix A liegt in Jordan 'scher Normalform vor, falls es sich um eine Blockdiagonalmatrix mit ausschließlich Jordanblöcken auf der Hauptdiagonalen handelt. Sie geht aus einer regulären Transformation mit Τ aus A hervor: o

im\,X\

Im2,/Í|

= Τ"'AT.

Ja = o

(8.4.2)

J m¡,Áj>

Die Spalten von Τ sind die Eigenvektoren v, und die zugehörigen Hauptvektoren y-ter Stufe w , j der Eigenwerte A¡ der Matrix A: Τ = {Vi, Wli2, . . ., Wi,„,, V2, W2,2, · . . , Vi, W*,2, · · ·, W*,,

(8.4.3)

Bemerkungen • Eine Diagonalmatrix ist ein Sonderfall einer Jordan'schen Normalform mit ausschließlich 1 χ 1 -Jordanblöcken J ι = (Λ,)· • Alle reellen oder komplexen Matrizen sind zu einer Matrix in Jordan'scher Normalform ähnlich. Die Jordanmatrix für reelle Matrizen ist im Allgemeinen komplex. Die Matrix ist eindeutig bis auf eine Permutation der Jordanblöcke, die sich aus der Wahl der Reihenfolge der assoziierten Eigenwerte Λ, in Τ ergibt. • Die Werte Λ, der Jordanblöcke sind sowohl die Eigenwerte von J a als auch von A. • Die Anzahl der Jordanblöcke zu einem Eigenwert A¡ ist gleich der geometrische Vielfachheit d¿ dieses Eigenwertes. • Die Summe der Dimensionen £ m ¡ a H e r Jordanblöcke zu einem Eigenwert entspricht der algebraischen Vielfachheit dÄ des Eigenwertes. • Die Jordan'sche Normalform J a hat den Nachteil, dass ihre Einträge im Allgemeinen nicht dem gleichen Körper wie die der Ursprungsmatrix A angehören und daher manchmal ein erweiterter Körper verwendet werden muss. Dies ist zum Beispiel der Fall, wenn A rein reelle Einträge hat und ein Teil der Eigenwerte komplex ist. Dann ist ein Teil der Einträge der Jordanblöcke J m j und daher auch die der Jordan'schen Normalform J a komplex. Wenn eine kanonische Normalform mit Elementen im Ursprungskörper gesucht wird, kann die Frobenius-Normalform (siehe Abschnitt 8.16) verwendet werden.

92

8 Spezielle Matrizen

8.5

Toeplitz-Matrix

Eine Toeplitz-Matrix, auch Band-Matrix genannt, ist eine m χ «-Matrix mit identischen Elementen auf der Hauptdiagonalen und den oberen und unteren Nebendiagonalen.· fa π a\2 . . . a\ n A=

«21 All



:

(8.5.1)

: ·· '.an aim ••• Ö21 a \ \ Die Lösung großer linearer Gleichungssysteme Ax = b, bei denen A in Toeplitz-Form vorliegt, kann sehr effizient berechnet werden. Weitere Anwendungsfelder der Toeplitz-Matrix sind die schnelle Fourier-Transformation oder die Repräsentation von Polynomprodukten.

8.6

Zirkulante Matrix

Die so genannte zirkulante Matrix ist ein Spezialfall der Toeplitz-Matrix. Jeder Zeilenvektor entspricht dem darüberliegenden um einen Eintrag nach rechts verschoben. Rechts,/ausfallende" Einträge werden als erster Eintrag der Zeile wieder eingesetzt, also gilt: α ι Ö2 A=

a„\

an a\

(8.6.1)

•• a2 Vû2 · · · a„ αχ. Eigenschaften • Zirkulante Matrizen sind normal. • Zirkulante Matrizen gleicher Größe sind kommutativ bezüglich der Matrixmultiplikation: AB = BA.

(8.6.2)

Das Produkt der beiden Matrizen ist wieder eine zirkulante Matrix. • Ist A eine zirkulante Matrix, so ist dies auch AH, Ak mit k > 0 und, sofern existent, A _1 . • Alle zirkulanten Matrizen haben dieselben Eigenvektoren.

Zirkulante Matrizen sind wichtig in der digitalen Signalverarbeitung, insbesondere bei der effizienten Berechnung der schnellen Fourier-Transformation.

8.7 Sylvester-Matrix

8.7

93

Sylvester-Matrix

Eine Sylvester-Matrix ist eine (m + η) χ (m + n)-Matrix, die sich aus zwei Toeplitz-Matrizen mit den Koeffizienten zweier Polynome

p(x) = dm*"1 + am-\χ!"~χ + q{x) = bnx" + b„-\x+

\-a\X + ao

und

• • · + b\x + b0.

zusammensetzt. Die obere Blockmatrix X ist eine nx(m + «)-Toeplitz-Matrix mit den Koeffizienten am ... ao gefolgt von η Nullen in der ersten Zeile. Die untere mx(m + n)-Blockmatrix Y in Toeplitzform ergibt sich analog. Die Matrix sieht dann folgendermaßen aus:

am am-1

A =

0

am

:

'·.

α,

a0

0

am-1 ...

αϊ

α0

...

'·.

'·.

0 ... b„ ...

0 b0

am am-1 ... 0

0

...

b0

bn

'·.

...

'· : '·.

0

a\ a0 0

'•·

:

'·.

0

10

0

bn ...

(8.7.1)

0

b0)

Ist die Determinante der Sylvester-Matrix (auch Resultante genannt) gleich null, so besitzen beide Polynome mindestens eine gemeinsame Nullstelle. Die Resultante findet daher Verwendung bei der Berechnung gemeinsamer Nullstellen zweier Polynome.

8.8

Hankel-Matrix

Eine Hankel-Matrix nalen:

ist eine m χ η-Matrix mit jeweils gleichen Elementen auf den Nebendiago-

απ A =

:

. . . αι η _ι a\n

/

a i„

a2n

flin-1 / / : ûln «2η • •• Û W

(8.8.1)

94

8 Spezielle Matrizen

8.9

Hilbert-Matrix

Eine Hilbert-Matrix A e R" x " ist eine quadratische, symmetrische und positiv definite Matrix folgender Gestalt: 1 n+1

1

A =

(8.9.1)

n+2

i

y

n

ι n+1

ι

1

n+2

2n-l

/

Diese Matrizen sind schlecht konditioniert, und zwar wächst die Kondition /c(A) der Matrix exponentiell mit n. Hilbert-Matrizen werden deswegen gerne zum Testen von numerischen Verfahren zur Matrixinversion oder zum Lösen linearer Gleichungssysteme verwendet, da auch eine analytische Formel für die inverse Matrix existiert, mit der die Güte des Verfahrens sofort beurteilt werden kann: m

1 +

^ ^

/ *-κ >y-(f

+ H

(-Y)l+J (n + ; - 1)! (n + j - 1)! ) ( ( M ) ! 0 - - 1 ) ! ) 2 ( b - 0 ! ( b _ y)-'

(8 9 2)

· '

Die Determinante lässt sich ebenfalls leicht angegeben:

det(A)

(1!2! . . . ( η - l)!) 4 = l!2!...(2n-l)!·

(8 9 3a)

- -

Für sehr große Werte η gilt: det(A) »

8.10

2~2"2.

(8.9.3b)

Householder-Matrix

Eine η χ η-Matrix der Form

τ A = A(V) = I - 2 ^ y i

y

(8.10.1)

mit ν e R", ν Φ 0 heißt Householder-Matrix oder Householder-Reflexion. Ihre Abbildung entspricht einer Spiegelung an der Hyperebene durch den Ursprung, die orthogonal zum Vektor ν ist. Sie wird hauptsächlich in numerischen Verfahren wie der QR-Zerlegung (siehe S. 116) verwendet.

8.11 Vandermonde-Matrix

95

Eigenschaften • A ist orthogonal: Α Α Γ = A r A = I. • A ist symmetrisch:

A = Ατ.

• A ist involutorisch: A 2 = I.

• μ,·| = 1 ν^εσ(Α).

8.11

Vandermonde-Matrix

Allgemein ist eine Vandermonde-Matrix

eine m X η-Matrix folgender Gestalt:

' 1 Vi .2 V 1 V =

1N v„ ,.2 v V n

1 . .. v2 . • · ,2 2 ·

,νΤ1

··

(8.11.1)

vT1,

In der Literatur wird auch die Transponierte dieser Matrix als Vandermonde-Matrix bezeichnet.

Vandermonde-Determinante Die Determinante einer quadratischen nxn- Vandermonde-Matrix A, auch genannt, hat folgende einfache Form: η j-1 det(V) = Y ] f ] ( v , - vi). j=2 i=l

Vandermonde-Determinante

(8.11.2)

Wie anhand der Determinante leicht zu erkennen ist, ist die Vandermonde-Matrix nur regulär, wenn ν, Φ vj V i Φ j gilt.

Anwendungen • Die Transponierte der Vandermonde-Matrix findet Verwendung bei der Interpolation von Funktionswerten durch Polynome: Sind die Funktionswerte f¡(x¡) an den Stützstellen x¡ bekannt, liefert das Gleichungssystem Ί X\ . • Λ1 1 x2 . • x2

' a0 a\

,1 xn . • τι

\dn-i)

(fl(M)\ flixi) (8.11.3)

-

^fn(Xn)'

die gesuchten Koeffizienten a¡ des Interpolationspolynoms f ( x ) = fl„_¡χ"'1 + a„-2x"~' + · · · + a\x + üq.

(8.11.4)

96

8 Spezielle Matrizen • Die Vandermonde-Matrix kann dazu verwendet werden, die Begleitmatrix zu diagonalisieren (siehe Abschnitt 8.12).

8.12 Die

Β egleitmatrix L zum normierten Polynom

Begleitmatrix

= χ" + a „ _ i j c " - 1 + ••• + Ü2X2 + a\x

P(x)

+ ao

ist wie folgt definiert:

L(/>) =

0

1

0

...

0

0

1'··

: 0

: 0

'·· ...

'·• 0

- a o

- a i

- « 2

· · ·

0 ^ : (8.12.1)

0 1 ~ a

n

- \ )

In der Literatur wird auch oft die Transponierte dieser Matrix als Begleitmatrix definiert. Eigenschaften • det(L) = (-l)"ao • Das charakteristische Polynom P„(Ä) ist gleich dem Minimalpolynom Q(Ä). •

P

n

( Ä )

= det(AI- L) =

Λ"

α„_ιΛ"'1

+

+ · · ·

+ αιΛ

+ α0

=

Q(À)

• Falls ao Φ 0 ist, lässt sich die Inverse der Matrix L leicht angeben: -öi/öo 1 L

~a2/a0

0

... ...

- α „ - ι / α ο

0

-1/ao 0 (8.12.2)

(P) =

0 1

0 0

Es sei a - 1 + Σ"=ο Ι α Ί · Dann sind die Singulärwerte von L

• Das Polynom P, ist Teiler des Polynoms Pj, wenn i < j gilt.

100

8 Spezielle Matrizen • Ps ist das Minimalpolynom Q(Ä) von A. • Das charakteristische Polynom Ρ„(λ) lautet s Pn = \\P>. i=1

(8.16.3)

• Wenn das Mimimalpolynom Q(À) ein Polynom «-ten Grades ist, ergibt sich die FrobeniusNormalform als eine Begleitmatrix des Minimalpolynoms. • Alle Matrizen sind zu einer Matrix in Frobenius-Normalform ähnlich. • Zwei Matrizen A und Β sind genau dann einander ähnlich, wenn sie dieselbe Frobenius Normalform haben.

8.17

Tensoren

Tensoren sind geometrische Objekte, die man sich als Verallgemeinerung von Skalaren, Vektoren und Matrizen vorstellen kann. Die Tensorenrechnung ist ein Teilgebiet der so genannten multilinearen Algebra und wird hauptsächlich in der allgemeinen Relativitätstheorie, der Kontinuumsmechanik, der Elastizitätstheorie, der Hydrodynamik, der Elektrodynamik und allgemein in der Physik verwendet. In der reinen Mathematik sind Tensoren Teil der Differentialgeometrie.

8.17.1

Definition

Ein Tensor wird im klassischen Fall durch seine Komponenten dargestellt und man unterteilt die Tensoren in so genannte Stufen. Ein Tensor der g-ten Stufe ist ein ^-dimensionales Array von Komponenten eines Körpers, wo jede Komponente q Indizes hat. • Tensor der Stufe 0: Ein Skalar. • Tensor der Stufe 1 : Ein Vektor mit η Komponenten. • Tensor der Stufe 2: Eine m x «-Matrix mit mn Komponenten. • Tensor der Stufe 3: Ein dreidimensionales mxnx

p- Array mit mnp Komponenten.

• Tensor der Stufe q: Ein ^-dimensionales m\ χ mi x · · · x mq-Array mit m¡ • • · mq Komponenten. In der allgemeinen Relativitätstheorie verwendet man beispielsweise einen Tensor der Stufe q = 4 mit drei räumlichen Dimensionen und einer zeitlichen Dimension, den so genannte Riemann 'sehen Krümmungstensor.

8.18 Quaternione!!

8.17.2

101

Tensorprodukt

Die Tensoren 3K und Έ mit den Komponenten a,r. bzw. brs... seien von der Dimension m\ χ tïi2 χ · · * χ ïtiq und der Stufe q bzw. der Dimension n\ χ n2 x • · · x np und der Stufe p. Dann bilden die m\ ••• mqn\ • • • np Skalare Cij...rs...

= au...brs...

(8.17.1)

die Komponenten eines Tensors C der Stufe ρ + q. Man schreibt C = 3VB und spricht vom Tensorprodukt von 31 und S. Es gelten Assoziativ- und Distributionsgesetz.

8.17.3

Dyadisches Produkt

Das dyadische Produkt von Tensoren ist identisch zum dyadischen Produkts von Vektoren und ist ein Spezialfall des Tensorproduktes. Das Produkt zweier Tensoren 1. Stufe 31 = ( α ϊ , . . . , a„) und S = (bi,..., bm) ergibt einen Tensor 2. Stufe C mit den Elementen ct] = a¡bj, also a\b\ a\b2

a\b„, a2bn (8.17.2)

C = \anb\ anb2

8.17.4

...

Verjüngung

Mit der Verjüngung eines Tensors ist das Gleichsetzen und anschließende Summieren zweier Indizes eines Tensor der Stufe q > 2 gemeint. Ergebnis ist ein Tensor der Stufe q- 2. Bei einem Tensor der Stufe q - 2 entspricht die Verjüngung der Berechnung der Spur. Die Verjüngung eines dyadischen Produkts von Λ und S der gleichen Dimension η ist gleich dem Skalarprodukt a\b\ + • · · + a„bn der Vektoren 31 und S .

8.18

Quaternionen

Quaternionen, eine Verallgemeinerung der komplexen Zahlen, wurden von William R. Hamilton erdacht. Daher werden sie auch Hamilton-Zahlen genannt und ihr Körper wird meist mit H bezeichnet. Es handelt sich bei ihnen um eine vierdimensionale Divisionsalgebra über dem Körper der reellen Zahlen mit einer nicht kommutativen Multiplikation. Jedes Quaternion ist durch seine vier reellen Komponenten innerhalb eines vierdimensionalen Vektorraums eindeutig bestimmt.

8.18.1

Anwendung

Quaternionen werden zur Darstellung von Drehungen im dreidimensionalen Raum genutzt und finden hauptsächlich in der Computergraphik (insbesondere in Computerspielen und in Animationen), in der Robotik und bei der Steuerung und Regelung von Satelliten und Raumfahrzeugen Anwendung.

102

8 Spezielle Matrizen

Die Darstellung und Berechnung von Rotationen ist effizienter als mit Rotationsmatrizen, insbesondere bei verketteten Rotationen, ist allerdings durch die nicht vorhandene Kommutativität nicht so intuitiv. In der Algebra spielen Quaternionen, als eine Verallgemeinerung der komplexen Zahlen mit drei imaginären Einheiten, ebenfalls eine große Rolle.

8.18.2

Vektorielle Definition

Eine Möglichkeit, ein Quaternion darzustellen, ist q = ("). In dieser Notation besteht jedes Quaternion aus einem skalaren Anteil a e R und einem vektoriellen Anteil ν = (vi V2 v^)7 e R3. Normierte Quaternionen, also Quaternionen mit N(q) = 1 (siehe Gl. (8.18.3d)), werden als Einheitsquaternionen bezeichnet und repräsentieren reine Drehungen im Raum.

8.18.3

Algebraische Definition

Als Verallgemeinerung der komplexen Zahlen hat ein Quaternion vier Elemente 1 ,i,j,k, ein reelles und drei imaginäre der Länge 1, die alle senkrecht aufeinander stehen. Analog zu den komplexen Zahlen sind Quaternionen als Linearkombination von vier Komponenten dieser Basiselemente definiert: q = a + v\i

+ v

2

j + V3£.

(8.18.1)

Dabei gelten für die imaginären Einheiten (die Hamilton'sehen Regeln)'. e = f = * = -1,

(8.18.2a)

ij = -ji = κ

(8.18.2b)

jk = -kj = i,

(8.18.2c)

ki = -ik = j.

(8.18.2d)

Multiplikationstabelle der imaginären Einheiten

1 i j k

1 1 i j k

i i -1 -k j

j j k -1 -i

k k -j i -1

Beide Notationen sind zueinander äquivalent, da ein Quaternion durch das Quadrupel (α, vi, V2, V3) eindeutig festgelegt ist.

103

8.18 Quaternionen

8.18.4

Rechenoperationen

Unter Verwendung der vektoriellen Notation sind hier die fünf grundlegenden Rechenoperationen mit Quaternionen aufgelistet. Dabei sei q = ( ? ) , qi = ( v| ), q2 = ((s: vj; ) und ν = (vj V2 V3)7 Addition : Multiplikation Konjugation

:

q = (a,

-v)

r

N( q) = yja2 + v2l+vl

r

(8.18.3b) (8.18.3c)

+ v¡

q_l = —-—q ^v-(q)

Invertierung:

(8.18.3a)

qiq2 = (α\αι - v[v2 , vi χ \2 + α\\2 + «2Vi)

:

Norm :

ν ι + \2)Τ

qi + q2 = (αϊ + αϊ,

(8.18.3d) (8.18.3e)

Vorsicht: Während die Addition assoziativ und kommutativ ist, ist die Multiplikation zwar assoziativ, aber im Allgemeinen nicht kommutativ: q¡q2 Φ q2qi ! Es existieren neben dem dargestellten (Grassman-) Produkt (Gleichung 8.18.3b) noch weitere Produkte, wie das euklidische Produkt, die aber allesamt aus diesen grundlegenden Operatoren hervorgehen. Sie werden hier, der Übersichtlichkeit wegen, nicht dargestellt.

8.18.5

Rotation

Eine Drehung im Raum um die normierte Drehachse w = (w\ wi wird mit dem folgenden Quaternion dargestellt: (cos (2)1

q= s .i n /)?'w v

und einen Winkel ψ

(8.18.4)

(?) /

Die Rotation eines Vektors ν wird dann folgendermaßen durchgeführt, wobei ρ ein rein imaginäres Quaternion mit ν als vektoriellem Anteil (p = ( y ) e R 4 ) und ν der rotierte Vektor ist:

(~) = qpq.

(8.18.5)

Mehrere Rotationen q i , . . . , q m können auch verkettet werden, indem man das Quaternionenprodukt q = qi · · · q m bildet. Quaternion —» Rotationsmatrix Sei q = (a, V\,V2, vi f ein Einheitsquaternion. Dann kann man die äquivalente 3x3-Rotationsmatrix R folgendermaßen berechnen: l-2(vl + v2) 2(viv2 -v3a) 2(vi v 3 + V2α), R = 2(VJV2 + V3ö) 1 - 2(V| + V3) 2(V2V3 - Via) U ( v i v 3 - v 2 a ) 2 ( ν 2 ν 3 + ν ι α ) 1 - 2(v2 + v\),

(8.18.6)

104

8 Spezielle Matrizen

Rotationsmatrix -» Quaternion Sei R = (r,j) eine 3 x 3-Rotationsmatrix. Das äquivalente Quaternion ist dann q = (?) mit a - cos

(I)

=

\ ^SpUr(R)

yll)

und

^32 - Γ23 Γΐ3 - Γ31 2 VSpur(R) + 1 t/21 1

ν -

+ 1

(8.18.7)

9

Funktionen von Matrizen

9.1

Funktionstheorem

Sei

f(X)

eine komplexe Funktion mit der

Taylor-Entwicklung

oo

m

um den Punkt

ÀQ e

C und dem

=

Y

Konvergenzradius

j

a

i

( Ä - Ä

r.

0

y

(9.1.1)

Es sei A e C n x ". Dann ist / ( A ) definiert als

oo

(9.1.2) i=0

wobei jeder der paarweise verschiedenen Eigenwerte Ài,À2,...,À s von A eine der beiden folgenden Bedingungen erfüllen muss:

1.

|Λ*-ΛοΙ

< r ,

2. I^lfc — = r und die Reihenentwicklung von f^mi~x\\) wobei ηΐχ die algebraische Vielfachheit von A¡ ist.

konvergiert für λ

= À,,

1


eA = TeÍAT~l.

(9.5.6)

Berechnung für nilpotente Matrizen

Falls die Matrix A nilpotent ist, also Ak - 0 für eine ganze Zahl k, wird die unendliche Reihe zu einer endlichen Reihe, weil ab dem fc-ten Summand alle Summanden gleich null sind:

·

9.5.7

α

t i A" A2 A3 A*-1 - Σ Ϊ Γ — α * ι γ 4 - · + ( Γ Π 5 Ϊ · n=U

+ b2mì

+ ••• +

bn-{(t)ÀT1·

(9.5.9)

110

9 Funktionen von Matrizen

Falls die Matrix A mehrfache Eigenwerte Λ, hat, also Eigenwerte mit algebraischer Vielfachheit mx > 1, liefert Gl. (9.5.9) weniger als η verschiedene Gleichungen. Die - 1 Ableitungen nach den Eigenwerten der Gleichungen, die zu mehrfachen Eigenwerten gehören, liefern die fehlenden Gleichungen: dlei\ -7ΤΓ dAl

9.5.8

, = e '

d'hU)

ι

= —7^7— l dÀ

ιλ=λ,

für / =

- 1.

\,...,mx

(9.5.10)

Berechnung nach Leonard

Das Verfahren von Leonard ist ähnlich dem in Kap. 9.5.7 beschriebenen Vorgehen. Es kann ebenfalls auf beliebige quadratische Matrizen A angewendet werden. Der Satz von Leonard besagt, dass für jede η χ η-Matrix A mit dem charakteristischen Polynom Pn(À)

= det(ÄI

= Λ" + α„-ιΛη~'

- Α)

+ · · · + αχλ

+

a0

für die Exponentialfunktion eAt

= Z I ( r ) I + Z2U)A

+ z 3 ( 0 A 2 + · · · + z„(t)A""1.

(9.5.11)

gilt. Die Funktionen z,(f) sind dabei die Lösungen der Differentialgleichung zf} + a„-izf - 1 ) + · · · + dû + am = 0

V i=l...n

(9.5.12)

mit den Anfangswerten Z\(t)

0) = 1 ¿i(0) = 0 zd

^(O) =0

z2(t) - 0 ¿2(0) = 1 Z2(0)

z? _I) (0) = 0

Zn(t) Zn( 0)

=0 ¿„(0) = 0

(9.5.13)

ζ^- υ (0) - 1

Vorgehensweise 1. Bestimmung des charakteristischen Polynoms und der Koeffizienten a¡ V i = 0 , . . . , η — 1 .

2. Bestimmung der allgemeinen Lösung der Differentialgleichung (9.5.12). 3. Bestimmung der Zi(t) für die verschiedenen Anfangswerte (9.5.13). 4. Berechnung von in Gl. (9.5.11).

e

A

' durch Einsetzen von A' - 1 und der ermittelten

z,(t)

mit

i -

1,..., η

111

9.6 Logarithmus

9.5.9

Berechnung mit der Laplace-Transformierten

Da nach Gleichung (9.5.2p) die Matrix (si - A)" 1 die Laplace-Transformierte der Exponentialfunktion ist, kann die Matrix e Af auch über die Laplace-Riicktransformation (auf die hier nicht näher eingegangen wird) gewonnen werden, wenn die Matrix (si - A ) - 1 bekannt ist: £{eA'\

= (si - A)" 1

«

eA' = £-,{(sI-A)-1}.

(9.5.14)

Ist das charakteristischem Polynom P„(Ä) = À" + αη-)Λ"~ι + · · · + a¡Á + a0 bekannt, kann die Matrix (.vi - A)" 1 , die auch als Resolvente bezeichnet wird, direkt angegeben werden: (sl - Α Γ 1 = — ( A " " ' + ( í + a„-i)A"~2 + (s2 + an.lS p n(s)v

+ α„_ 2 ) A"" 3

(9.5.15)

+ • • • + (5"'' + α η _ ι ΐ " - 2 + · · · + α ι ) ΐ ) . Alternativ kann das in Abschnitt 4.7.6 beschriebene Verfahren verwendet werden, welches sowohl das charakteristische Polynom, als auch die Matrix (sl - A ) - 1 liefert.

9.5.10

Sonstige Berechnungsmöglichkeiten

Es gibt noch eine Vielzahl von anderen Verfahren zur Berechnung der Exponentialfunktion von Matrizen. Eine Ubersicht über weitere Verfahren liefert [17].

9.6

Logarithmus

Der Logarithmus einer Matrix A ln(A) existiert nur, falls die Matrix A invertierbar ist. Er ist folgendermaßen definiert: ln A

< >=Σ

ü

k

=ln(I+Ä)=Σ

ù

k

o·6·1)

Diese Potenzreihe konvergiert nicht für alle A und ist deswegen auch keine global inverse Funktion der Exponentialfunktion einer Matrix. Unter folgenden Bedingungen ist ln(A) invers zu eA, wobei ||Α||ττ die Frobeniusnorm (siehe S. 60) ist: • falls ||I - A||f < 1, gilt: e ln(A) = A, • falls ||A|| f < 2, gilt: ln(e A ) = A. Der Logarithmus einer Matrix findet Anwendung in der Systemtheorie und Regelungstheorie, ist aber weniger bedeutend als die Exponentialfunktion. Die Berechnung des Logarithmus erfolgt für diagonalisierbare Matrizen mittels des in Abschnitt 9.2 beschriebenen Verfahrens. Für nicht diagonalisierbare Matrizen ist das Vorgehen in Abschnitt 9.3 erläutert.

112

9 Funktionen von Matrizen

9.7

Quadratwurzel

Eine Matrix Β ist die Quadratwurzel A 1 / 2 einer Matrix A, wenn Β = A1/2 » B B = A

(9.7.1)

gilt. Berechnung Für diagonalisierbare Matrizen A sollte die Berechnung mit der Diagonalmatrix erfolgen (siehe Abschnitt 9.2). Für nicht diagonalisierbare Matrizen A kann die so genannte Denman-Beavers-Wurzeliteration verwendet werden: 1. Es sei A [I] = AundB [ 1 ] = I. 2. Für i ~ 1 , 2 , . . . folgende Schritte ausführen: (a) A"'+1] = (b) B [i+1] =

A M + (B10)"1 2 W B + (A M)-I

A [,] konvergiert dann gegen die Quadratwurzel der Matrix A: limA w = A 1/2 .

I—>oo

(9.7.2)

Alternativ kann auch das in Abschnitt 9.3 angegebene Verfahren auf die Jordan'sche Normalform der Matrix A angewendet werden.

10

Spezielle Verfahren

10.1

Diagonalisierung

Liegt eine Matrix als Diagonalmatrix vor, sind einige Berechnungen wesentlich unkomplizierter. So entsprechen beispielsweise die Eigenwerte den Diagonalelementen und sind damit sofort ablesbar, das Potenzieren der Matrix wird durch das Potenzieren der Diagonalelemente bewerkstelligt und die Exponentialfunktion der Matrix ist die Exponentialfunktion der Diagonalelemente (siehe Gl. (9.2.1)). Liegt eine Matrix nicht als Diagonalmatrix vor, kann sie unter Umständen mit einer Basistransformation diagonalisiert werden, um damit die Vorteile dieser Darstellung auszunutzen.

10.1.1

Diagonalisierbarkeit

Eine quadratische η x η-Matrix A mit reellen oder komplexen Einträgen ist diagonalisierbar, falls es eine invertierbare Matrix Τ gibt, so dass Ä = T _1 AT diagonal ist. Das ist genau dann der Fall, wenn η linear unabhängige Eigenvektoren existieren bzw. alle geometrische Vielfachheiten den algebraischen entsprechen. Die Matrix ist sonst defekt. Wenn A normal (siehe S. 88) ist, ist die Matrix Τ unitär. Ist A diagonalisierbar, dann sind es auch Α Γ , A, AH, adj(A) und, falls existent, A - 1 .

10.1.2

Diagonalisierungsverfahren

Das Diagonalisierungsverfahren ist eine so genannte Ähnlichkeitstransformation schnitt 8.1.1 ), bei der eine Diagonalmatrix Ä transformiert wird (siehe S. 77).

(siehe Ab-

Berechnung der Transformationsmatrix Τ und der Diagonalmatrix 1. Eigenwerte Λ, und Eigenvektoren v, der Matrix A berechnen (siehe S. 40). 2. Die Transformationsmatrix Τ ist dann: Τ = ( v j , . . . , v„). 3. Als Diagonalmatrix ergibt sich: T~'AT = diag ((A l t ..., A„) r ).

10.2

Gram-Schmidt-Verfahren

Das Gram-Schmidt-Verfahren ist ein Verfahren, das aus einer beliebigen Basis Β (siehe S. 139) eine Orthonormalbasis U konstruiert. Wenn die Basisvektoren einer Orthonormalbasis

114

10 Spezielle Verfahren

die Spaltenvektoren einer Matrix sind, ist die Matrix orthogonal. Die Einheitsmatrix hat die Einheitsvektoren als Spalten und ist somit orthonormal. Berechnung der Orthonormalbasis Es sei: • Basis Β = (bi,.. .,b„). • Die zu berechnende Orthonormalbasis: U - ( u i , . . . , u„). 1. Normieren des ersten Vektors: ui = ^ . 2. Orthogonalisieren und Normieren der restlichen Vektoren (k = 2,..., n): k-1

ν* = b* - £(b[u,)u,·,

(10.2.1a)

i= 1

Uk = τ7~ττ·

l|v*ll

10.3

Zerlegungen

10.3.1

LR-Zerlegung

(10.2.1b)

Die LR-Zerlegung (auch LU-Zerlegung genannt) zerlegt eine reguläre Matrix A in die zwei Dreiecksmatrizen • L - eine untere Dreiecksmatrix • R - eine obere

und

Dreiecksmatrix

durch Verwendung der Eliminationskoeffizienten des Gauß-Algorithmus. Das ist nützlich, wenn das Gleichungssystem Ax = b für verschiedene b gelöst werden soll (siehe Abschnitt 3.7.1). Berechnung Im Schritt j (also Spalte j) und Zeile i bei der Gauß-Elimination sei: • p f Das Pivotelement (das Diagonalelement, unter dem eliminiert wird). • b-,f. Das zu eliminierende Element, (d.h. i > j). bij

• ¡a = — : Der Eliminationsfaktor. Pi

115

10.3 Zerlegungen

Das Element bij wird dann wie folgt eliminiert: Man multipliziert die Zeile j mit dem Faktor /,·; und zieht die entstandene Zeile von der Zeile i ab: bu b¡j = bij - lijPj = bij - — p j = 0.

Vorsicht: Das Pivotelement wird vorher nicht auf 1 normalisiert. Die Matrix L ist dann so definiert: 1 0 0 hi 1 0 hl hi

1 0

Die Matrix R ist die obere Dreiecksmatrix, die analog während des zweiten Teils (dem Rückwärtseinsetzen, (siehe S. 33)) des Gauß-Algorithmus entsteht. So kann die Matrix A in zwei Dreiecksmatrizen faktorisiert werden: A = LR.

(10.3.2)

Falls die Matrix A symmetrisch und positiv définit ist, sollte die Cholesky-Zerlegung vorgezogen werden, da diese numerisch etwa doppelt so schnell ist (siehe S. 116). Umwandlung der LR-Zerlegung Falls die Matrix A symmetrisch, reellwertig und positiv définit ist und die LR-Zerlegung A = LR schon vorliegt, kann man die Zerlegung so umwandeln, dass eine Cholesky-Zerlegung R r R entsteht. Es sei:

• A = LR : die LR-Zerlegung der Matrix A,

• da = y/rii : die Wurzeln der Diagonalelemente von R, • D : eine Diagonalmatrix mit den Diagonalelementen du, • R = DL r .

Dann gilt: A = LR = R r R.

116

10 Spezielle Verfahren

10.3.2

Cholesky-Zerlegung

Jede symmetrische, positiv definite Matrix A kann eindeutig in das Produkt R r R mit der oberen Dreiecksmatrix R und ihrer Transponierten R r zerlegt werden. Die Zerlegung heißt CholeskyZerlegung, wird aber manchmal auch Trigonalisierung genannt, da die Matrix in zwei Dreiecksmatrizen zerlegt wird: (απ a¡ 2 an ají A= ya\n Ü2n ···

a\n\ a2n

0 r nn'

In r2n

0 ...

rin r2n

= R R.

(10.3.3)

0

Berechnung von R Die Koeffizienten r¡¡ der Matrix R können mit folgendem Algorithmus berechnet werden: Führe für alle j = 1 , . . . , η die folgenden Schritte aus: 1. Berechne VöTT

für 7 = 1 (10.3.4)

Ι«// - Σ >~J für j Φ 1

2. Berechne für k - j + 1 , . . . , η :

r\\ rjk =

10.3.3

für y = l

1 ( $ — \akj- Σ nki-ij] für j + 1 rjj \ i=ι

(10.3.5)

QR-Zerlegung

Mit der QR-Zerlegung kann eine m χ η-Matrix A (m > η) mit Rang(A) = η in eine unitäre m χ m-Matrix Q und eine obere η x «-Dreiecksmatrix R zerlegt werden:

A = Q ( ¡ J | = QR.

(10.3.6)

Die QR-Zerlegung kann beispielsweise zur Lösung eines überbestimmten Gleichungssystems genutzt werden (siehe S. 35). Sie ist aber auch Bestandteil vieler numerischen Verfahren, wie z.B. dem QR-Verfahren zur Eigenwertberechnung (siehe S. 120).

117

10.3 Zerlegungen

Berechnung Die klassische QR-Zerlegung wird mit Householder-Matrizen berechnet (siehe S. 94). Die so genannte Householder-Transformation oder das Householder-Verfahren transformiert eine m χ η-Matrix A mit Rang η (=> m > η) in eine m χ «-Matrix R mit der oberen η χ n-Dreiecksmatrix R, siehe Gl. (10.3.6). Die zugehörige Transformationsmatrix Η ist das Produkt von q = min(m1, n) Householder-Matrizen H;: Η = H ? H ? _ i · · · H2H1. Da R = H A gilt und Η orthogonal ist, ist die gesuchte Zerlegung A = H r R = QR. Das Verfahren ist iterativ, also werden die Koeffizienten der Matrix des i-ten Iterationschrittes A « mit a'.^bezeichnet. • Setze

β

«m an •·• a?' alh α 21 "22 · · · "2η

ASA"U(a(11),...,a) =

V

m 1 m2 • · ·

Qmn'

• Für i = 1 , . . . , q berechne ... 1. den Vektor ν, 6 R m -' + 1

V; =

í+l.i

mit ai 0 =

Í

Ai)

>

2. die (m - i + 1) χ (m - i + l)-Householder-Matrix ν,ν Τ

H, = 1 - 2 —1

τ/ y-l y i

3. die m χ m-Householder-Matrix Η, (wobei Iq eine leere Matrix ist, also Hi = H j )

H'=(V

a)·

4. und schließlich die Matrix A l i + 1 1 = H, A [ ' ! . • Die Matrix R ist

R - A!